Découvrez ici les 4 derniers billets

Previous
Next

mardi 14 mars 2017

La France en avance pour DevOps et l'agilité

La France en avance pour DevOps et l'agilité


Cette semaine dans le cadre des rencontres d'affaires mobilité et digitale de ROOMn, s'est tenue une table ronde pour faire le point sur la mise en oeuvre de DevOps dans les entreprises. Dans une salle pleine et très participative, ce fut l'occasion de faire le point sur les questions pratiques que se posent encore les directions SI et marketing sur DevOps et sur l'agilité en général, des démarches indispensables pour toute transformation digitale.

Gaettan Falletta, qui participe à la stratégie Internet des Objets d'Airbus, Philippe Bedu, chargé de mission à la DSI groupe d'EDF et moi-même en charge de la Stratégie Digitale de Suez Smart Solutions, étaient interrogés par Olivier Bouzereau qui animait le débat avec la salle.

DevOps: une étape dans l'agilité de l'entreprise

De plus en plus de projets digitaux mettent en oeuvre une approche DevOps pour développer avec un cycle court et mettre en production avec le même rythme, par exemple hebdomadaire.

Mais mettre en production toute les semaines si aucun client n'utilise chaque version livrée ne sert pas à grand chose, à part à dire qu'on travaille en mode agile. L'agilité n'a de pertinence que sur l'ensemble de la chaîne, donc en amont pour la production de besoins avec des cycles itératifs courts, et en aval avec la validation régulière des développements (plus rapide que le rythme choisi) et l'utilisation après mise en production de l'application par de "vrais utilisateurs".
Résultat de recherche d'images pour

D'ailleurs sans vouloir dévaloriser le travail d'une équipe dite de maîtrise d'ouvrage pour valider les nouvelles fonctions, la seule validation qui compte est celle des utilisateurs qui, en conditions opérationnelles réelles, vont utiliser ces nouveaux services, se les approprier voire en imaginer de nouveaux usages auxquels l'entreprise n'avait pas pensé au départ.


DevOps a t-il vocation a être la règle pour l'ensemble des projets d'une DSI ?

Les retours d'expérience d'Airbus et EDF montrent qu'une partie uniquement des projets sont gérés avec cette approche et que les objectifs sont au mieux de l'utiliser pour 20% à 50% des projets. Le "cycle en V" a donc encore de beaux jours devant lui ! Par exemple quand on veut travailler avec un prestataire unique au forfait. Le forfait est difficilement compatible avec une approche agile puisque le besoin n'est pas totalement spécifié au départ et donc ne peut faire l'objet d'un engagement ferme pour sa réalisation.

Pour GreenSI, pour les projets de transformation numérique, on assiste à une augmentation du nombre de développements spécifiques pour développer des plateformes de plus en plus différenciantes. DevOps est totalement adapté aux développements spécifiques. On peut donc penser que cette approche pourrait représenter à terme 100% des développements spécifiques liés à la transformation digitale, principalement dans la mobilité et les plateformes numériques pour les clients.

Est-ce que DevOps c'est mieux que le cycle en V?

L'agilité n'est pas la panacée si l'entreprise n'est pas prête ou si la MOA ne comprend pas les fondamentaux de la démarche. Au contraire, une démarche agile ou DevOps peuvent être un risque d'échec des projets. La bonne pratique exposée consiste à définir les critères à respecter avant de partir tête baissée dans un projet en mode agile. Trois de ces critères discutés lors de cette table ronde ont été :
  • Le besoin d'arriver rapidement en production avec quelques services puis d'itérer avec de nouveaux services.
  • La confiance établie entre ceux qui établissent le besoin, développent, gèrent la production et les utilisateurs finaux.
  • La possibilité de supprimer les validations formelles longues, notamment auprès d'instances externes à l'entreprise.
Un projet agile n'est pas un projet qui arrive plus vite. L'approche ne doit pas être choisie pour réduire les délais du projet. Au contraire, un projet agile peut même être plus long sur l'ensemble du besoin, puisqu'il multiplie par exemple les activités de tests ou de mise en production.



Un projet agile amène plus vite UNE PARTIE des fonctionnalités (ex. "la patinette") en production. Il permet d'itérer et donc de s'améliorer, pour avancer vers un service de plus en plus adapté à l'utilisateur. C'est pour ces raisons que l'on doit choisir DevOps, et cela demandera une énergie au quotidien.

Une maîtrise d'ouvrage n'ayant pas cette énergie, ou trop prise dans son quotidien opérationnel, ne sera pas à l'aise dans un projet agile, et l'échec sera probable. En premier lieu, ce sera le rejet de la méthodologie de façon plus ou moins affichée, notamment le rejet des outils collaboratifs transverses pour revenir à des outils individuels et des documents, et parfois par la fin du projet lui même. En revanche si le projet est adapté à l'agile, ses chances de succès seront multipliées par rapport à celles dans un cycle en V.

Le second élément est LA CONFIANCE. Elle est cruciale. La question peut sembler politiquement incorrecte dans l'entreprise où tout le monde devrait se faire confiance. Pourtant de multiples procédures dites de contrôle ou de validation ne semblent être là que pour compenser un niveau de confiance moindre dans les autres équipes avec qui on travaille. C'est antagoniste avec l'agilité, qui, elle, se conçoit dans une démarche d'amélioration continue, donc de confiance puis d'amélioration, et donc pas de contrôle absolu a priori et permanent.
C'est cette confiance et cette compréhension mutuelle qui est à l'origine et à la base du rapprochement des "Dev" et des "Ops", puis avec l'agilité des métiers et des développeurs.

Alors quand un chef de projet veut tout contrôler car il croit (comme dans un cycle en V) que son rôle est d'être justement le "chef" du projet, vous savez que la méthode agile n'est pas adaptée et qu'un cycle en V frustrera moins les équipes.

De même, elle n'est pas adaptée quand on n'arrive pas à nommer un product owner UNIQUE, et quand chacun veut donner son avis ou tout contrôler de l'interface aux priorités des scrums. Ceci sachant d'ailleurs que le seul avis qui compte à la fin, c'est celui de l'utilisateur final et de sa perception de son expérience (utilisateur), le Saint Graal du succès digital.

L'approche DevOps suppose donc la maitrise d'un fonctionnement transversal pour les équipes techniques ET métiers, plus ou moins simple en fonction de la culture d'entreprise. Elle s'inscrit donc bien dans la transformation - changer de forme - digitale de l'organisation et dépasse largement le cadre de la DSI et des équipes SI.

DevOps, c'est la fin de la documentation ?

C'est vrai que les projets agiles ont des exigences plus faibles en matière de documentation. Le manifeste agile reconnaît la valeur de la documentation mais lui préfère un logiciel opérationnel.


Pour GreenSI, DevOps oblige en fait à se reposer la question de ce qu'est une documentation, de sa finalité et donc du format et du moment le plus a approprié pour la produire :
  • À quoi bon faire des spécifications détaillées dans d'épais classeurs si les développeurs ne les lisent pas?
  • Ne vaut-il pas mieux documenter son besoin pour qu'il soit compris par ceux qui vont le réaliser plutôt que par ceux qui l'écrivent?
  • À quoi sert un cahier de recette quand les tests sont automatisés?
  • À quoi sert une documentation d'installation quand on a le script du robot qui déploie en continu dans la minute les versions successives et gère les retours arrière ?
Autant de questions qui démontrent que la documentation a souvent été pensée dans un cycle en V et qu'elle doit être repensée dans une approche DevOps.

La France en avance sur DevOps !

Une enquête menée à l’échelle mondiale en partenariat avec CA Technologies révèle que 87% des organisations françaises considèrent les pratiques agiles et le DevOps comme essentiels à la réussite de leur transformation numérique.
Une sélection d’indicateurs clé de performances (KPI) permet de mesurer l’impact du DevOps et les conclusions pour la France sont sans équivoques :
  • Les pratiques agiles diminuent la durée de développement et de lancement de nouveaux produits de 24% (de 9,59 à 7,33 semaines) ;
  • Le DevOps raccourcit le temps nécessaire pour le développement et lancement de nouvelles applications de 38% (de 13,43 à 8,27 semaines) ;
  • Les pratiques agiles augmentent la productivité des employés de 44% ; le DevOps de 43% ;
L'étude montre aussi que les structures françaises font preuve d’une grande maturité en matière de DevOps avec 39% d’utilisateurs avancés (Allemagne - 40%, Royaume-Uni - 32%), et 33% quand on considère l'agile en général, soit autant que l’Allemagne et l’Espagne, et plus que le Royaume-Uni (29 %).

Cela fait 3 ans depuis le premier billet de GreenSI en 2014 qui s'étonnait que le sujet DevOps très développé outre Atlantique, n'avait pas encore atteint les côtes françaises. Visiblement en 3 ans la France a commencé à adopter cette bonne pratique, et certains prédisent que 2017 sera l'année de la généralisation. 

mardi 7 mars 2017

Le "low code" une chance que la DSI pourrait manquer

Le "low code" une chance que la DSI pourrait manquer


Il y a un an GreenSI écrivait "L'Empire DSI stoppé dans son expansion" et explorait une idée étrange : n'est-il pas temps de quitter la DSI et de la re-booter ? Sous-entendu quitter la DSI actuelle, cette DSI "Empire" qui s'est étendue avec l'informatisation croissante de toutes les fonctions, afin de créer une nouvelle organisation des SI dans l'entreprise, beaucoup plus adaptée à l'économie numérique et au business.

La publication ce début d'année de plusieurs articles sur la tendance du "low code" (comme Nouvelles menaces sur les prérogatives de la DSI), une approche qui challenge une fois de plus une organisation traditionnelle des systèmes d'information, est l'occasion de remettre le projecteur sur une activité essentielle dans une économie numérique : développer !

Un bon carreleur sait carreler, et bien pour GreenSI une bonne DSI doit savoir coder !

On a peut-être tendance à l'oublier, voire à croire qu'il suffit de le sous-traiter au forfait en Inde, mais le développement et l'architecture sont les activités stratégiques dans une économie numérique, faite de plate-formes, où la différenciation est dans la performance, la mobilité et l'expérience des utilisateurs. 

Ainsi, après avoir eu une l'idée d'une application, passé des mois d'études et de conception, de réunions et de comités de décision, il faut bien un jour passer à l'essentiel: la faire développer, la mettre en production et monitorer l'expérience utilisateur.

Et c'est là que le "low code" amène un nouveau paradigme à la DSI en cherchant à fournir aux métiers le service d'une plate-forme technique unique de développement rapide (et surtout minimaliste) pour intégrer cette chaîne.


Le "low code" est pourtant perçu comme un danger par les DSI se sentant court-circuitées alors que c'est bien sûr une formidable opportunité de transformation et de "re-boot" d'un processus applicatif parfois à bout de souffle.

Ce nouveau paradigme mixe technique ET organisation (processus collaboratif de développement), alors qu'une DSI "traditionnelle" pense souvent uniquement technique. Dans ce type de DSI, après avoir proposé un développement rapide "low code", ne vous étonnez pas d'être invité à une réunion pour savoir quelle est la meilleure solution entre Mendix, Appian ou Outsystems - des plate-formes "low code" - et des environnement de développement plus classiques comme Symfony2 (PHP) ou VisualStudio.
En fait la question n'a pas de sens. On ne parle pas de la même chose. On ne peut comparer des plate-formes de développement permettant de faire du sur-mesure, qui demandent aussi de mettre en place et d'outiller une démarche de développement Agile et Devops, avec des plate-formes de développement rapide "low code" simplifiées intégrant la méthode, dont l'environnement Devops de mise en production et de supervision.
Pour aborder le développement deux approches alternatives s'offrent donc aux DSI:
  • Monter une organisation outillée et une plate-forme à même de développer rapidement les besoins des métiers, quitte a sourcer les développeurs dans des sociétés spécialisées, et donc qui pousse en production rapidement sur une plate-forme Cloud et suit l'expérience utilisateur. C'est ce que les équipes digitales des organisations ont généralement fait ces dernières années pour suivre le rythme de la transformation numérique des métiers.
    C'est l'approche préférée de GreenSI depuis plusieurs années récemment abordée dans le billet "Entreprise du futur: arrêtons de parler de technologies"
  • Adopter une plate-forme "low code" qui offre ce service sous la forme d'une plate-forme, former et animer la communauté des métiers pour l'utiliser et quitter son rôle régalien pour remonter ses manches et passer du côté des "makers". Elle ne permettra pas de traiter tous les développements, mais c'est un moyen d'acquerir un processus collaboratif nouveau, par exemple pour les applications mobiles ou celles avec des transactions simples.
En revanche ce qui est sûr pour GreenSI c'est qu'il n'y a pas d'avenir au mode qui laisserait la technique et la méthode aux choix d'un sous-traitant de la DSI, quand elle même se concentrerait uniquement sur l'achat et le contrôle de la prestation et le "verrouillage" de la plate-forme de production au nom de la sécurité. Cette approche a non seulement aucune chance d'être agile mais n'est pas non plus adapté à la livraison en continu et à l'itération rapide pour adapter rapidement le service.

Le "low code" vient donc réveiller les DSI qui ne sont pas engagées dans la mise en place d'organisations de développements efficaces, qui n'ont pas encore abordé lé DevOps, en offrant leurs services directement aux métiers.
 
Peut-on s'attendre à un sursaut ?

Malheureusement par expérience le premier réflexe d'une DSI devant une nouveauté ou d'un changement de paradigme n'est pas nécessairement l'adoption. Alors ne vous étonnez pas si elle consacre en priorité  100% de son analyse à la comparaison technique des outils et considère la méthode comme un détail de l'implémentation...
Le problème c'est que techniquement il est assez simple de démontrer qu'un environnement de développement sur-mesure est supérieur techniquement au "low code", ce qui peut conforter la DSI dans sa position alors que ce n'est pas la question posée.

La bonne question c'est quel avantage concurrentiel l'entreprise peut-elle acquérir en maitrisant une chaîne de développement rapide et agile ?

Donc sans surprise, d'après l'enquête dirigée par Appian, 73% des DSI pensent que ces plate-formes "low code" sont un risque en terme d'utilisation de mauvaise données et de vulnérabilités, et peu voient les avantages en agilité qu'elles procurent.

Le "low code" pour rebooter la DSI ?

Une DSI "en phase de reboot" devrait au contraire considérer que c'est à elle d'aller chercher et amener les bonnes données à ces plate-formes, par exemple sous la forme d'une plate-forme API du SI, d'assurer la bonne intégration dans le SI, de former les utilisateurs et de les accompagner pour garantir la sécurité. Il est vrai que cette approche demandera de nouvelles compétences à la DSI, donc de l'énergie et des budgets pour convaincre la DG de ce nouveau rôle. 

Et dans la perspective d'un SI de plus en plus ouverts sur des écosystèmes externes avec qui l'entreprise échange des données via des API, ces nouvelles compétences sont finalement les mêmes que pour animer une communauté de développeurs externes et pour développer l'opendata. Comme l'imagine dans le système complexe de la "smart city", et comme c'est déjà le cas pour les API dans le secteur du transport, où elles représentent de nouveaux services numériques et des revenus additionnels.

C'est donc bien une transformation interne ET externe qui est devant les DSI qui sauront en saisir l'opportunité.

En terme de plate-forme, le cabinet Forrester, qui conseille les DSI, recommande depuis 2016 de s'intéresser à ce sujet, sans pousser cependant à la transformation radicale. Les plate-formes "low code" ont donc été benchmarquées et ont ainsi obtenu leurs lettres de noblesse ; ou au moins du sérieux pour être considérées par les organisations des grandes entreprises, souvent frileuses à s'engager dans de nouvelles voies.



Mais attention, car le choix de la plate-forme n'est que la moitié du problème.

Si la DSI n'adopte pas aussi le nouveau paradigme d'une organisation agile, le risque est de rigidifier ces plate-formes avec une gouvernance et des procédures non adaptées, issues de la gestion d'un SI historique pas assez réactive pour tirer de la valeur de ces nouveaux environnements. Et après l'echec de leur mise en place la DSI aura alors beau jeu de dire que techniquement elles n'étaient pas assez solides, ce qu'elle avait démontré par ses études, et qu'il ne fallait pas les choisir. CQFD...

Changer la technique et l'organisation en même temps reste donc toujours une tâche très compliquée sans une volonté venant du haut de l'entreprise et une conduite des changements appropriée.

C'est d'ailleurs certainement le facteur qui freinera l'évolution du "low code" dans les prochaines années. Après avoir rejeté l'internet dans les années 2000, et le cloud dans les années 2010, la DSI a une nouvelle chance pour ne pas rater sa nouvelle place dans l'entreprise amenée sur un plateau : celle de l'usine à logiciels adaptés rapidement aux besoins des métiers et bien intégrée avec les plateformes de déploiements.
Résultat de recherche d'images pour "greensi moebius"

samedi 4 mars 2017

Les robots sont dans le près

Les robots sont dans le près

Avec l'ouverture du Salon de l'Agriculture jusqu'au 5 mars, GreenSI s'est posé la question de l'évolution de cette industrie au travers des âges et ce qu'elle pouvait nous apprendre sur la révolution technologique en cours.

Contrairement à une idée reçue, les agriculteurs sont souvent en tête de l'usage de nouvelles technologies. La crise de ce secteur est une crise de business modèle (quel intermédiaire tire la valeur, comment assurer sa production à l'heure du dérèglement climatique...) et non une crise technologique et encore moins de productivité.

Le billet de GreenSI d'avril 2014, rédigé à la Startup Academy nous le rappelle dans le contexte des éleveurs. La société BioPic y avait gagné la compétition avec ses vaches connectées. Objet connecté pour mesurer des paramètres physiologiques, pile intégrée transformant le glucose en énergie électrique, géolocalisation des individus du troupeau, données remontées dans un "Farm Cloud Service", tous les ingrédients technologiques étaient là pour inventer des usages particulièrement innovants.

Même le modèle économique basé sur la location des capteurs avec un abonnement mensuel par tête de bétail était en avance sur son temps.
Car l'adaptation du monde agricole aux nouvelles technologies ne date pas d'hier.

Depuis les premiers Hommes sédentarisés par cette activité, la mécanisation a toujours permis d'augmenter les rendements et la productivité de la ferme. Ces cent dernières années ont vu la révolution des machines agricoles sophistiquées et spécialisées remplacer la traction animale et développer l'agriculture intensive. En parallèle, la gestion économique, technique et écologique des exploitations s'est informatisée. Cette révolution s'est aussi accompagné d'un usage de plus en plus intensif des données, accessibles directement aux agriculteurs (les premiers utilisateurs des Minitel dans les années 80) pour la météo, le suivi des parcelles ou les cours des marchés agricoles. 

Le fait que ces machines soient pilotées par des humains et qu'elles ne soient pas totalement autonomes explique certainement pourquoi on parle rarement de robots pour les désigner.

Pourtant la tendance est prise car les technologies qui permettent de les rendre autonomes existent et elles auront alors tous les attributs des robots dans un monde agricole.
Ces technologies "smart" sont par exemple:
  • les données collectées par les drones pour individualiser les opérations sur chaque parcelle et mieux les connaître,
  • la géolocalisation des mesures et des machines,
  • les nouveaux capteurs qui peuvent être embarqués dans les machines,
  • la connexion de la machine au logiciel qui peut les piloter pour coordonner les engins entre eux. Par exemple une moissonneuse-batteuse sera suivie par une remorque autonome pour récupérer les grains et ira se vider toute seule pendant qu'une autre remorque prendra sa place.
Comme dans d'autres industries à d'autres époques, la machine, la donnée, la connexion, puis l'intelligence logicielle ont eu un effet de rupture dans l'équipement des travailleurs agricoles.

De plus, en 2008 certains fabricants de machines se sont rassemblés dans un organisme de normalisation (AEF - Agriculture Electronic Foundation) pour permettre au matériel de l'un de communiquer avec le matériel de l'autre (Isobus - protocole de communication universel entre tracteurs) et de ne pas obliger l'agriculteur d'avoir un parc homogène comme une certaine marque à la pomme.

Et pour demain, un groupe de travail de l'AEF refléchit d'ailleurs à l'extension de cette norme au niveau de la ferme et donc aller vers un "système de systèmes intelligents".



À l'avenir ce sont donc bien des robots que nous auront dans les champs.



L'évolution de la mécanisation de l'agriculture est donc intéressante pour aborder deux questions actuelles sur les robots :
  • Les robots vont-ils prendre la place de l'Homme ?
  • Faut-il les taxer ?
Oui si on en juge par la population agricole divisée par 10 depuis 1945, les robots, comme les machines avant qu'elles ne deviennent autonomes, vont prendre la place de l'homme pour toutes les tâches automatisables par des machines de plus en plus sophistiquées. Ceux qui restent se sont adaptés à la taille des exploitations demandées par les investissements en mécanisation et aux compétences requises pour les opérer. Les enquêtes montrent que les agriculteurs reconnaissent le confort et la productivité amenée par la mécanisation et sont loin de la contester.

En revanche, on oublie parfois que cette mécanisation a créé des emplois ailleurs. La chaîne de valeur de l'agriculture ne s'arrête bien sûr pas à la ferme ou à son code APE. Elle irrigue toute l'industrie de la transformation des produits agricoles, la logistique, la grande distribution, les restaurants sous toutes leurs formes... 

Taxer les robots voudrait dire dans le monde agricole taxer les tracteurs autonomes, les données et les logiciels.

Heureusement que personne n'y a pensé avant car cela ne ferait que rendre encore plus précaire l'équilibre des investissements en mécanisation des agriculteurs (qui portent déjà ce risque) et retarder d'autant la création d'emplois dans la fin de la chaîne (l'économie du pays).

Un État économiste et un tantinet visionnaire dirait au contraire qu'il faut aider l'automatisation comme on aide l'innovation dans les entreprises par exemple avec le Crédit Impôt Recherche.

Taxer les robots, c'est pourtant une proposition qui revient régulièrement dans le débat et qui a été supportée le week-end dernier par Bill Gates dans une interview au magazine Quartz. Les supporters de Benoit Hamon ont alors certainement pensé que l'heure était arrivée pour leur champion, mais c'était sans compter les réactions de tous les économistes de la planète cette semaine (par exemple James Bessen dans Fortune) qui ont rappelé au co-créateur de Microsoft qu'il s'était certainement un peu "égaré".

Comme on l'a vu dans le dernier billet sur l'Intelligence Artificielle, c'est une question que le Parlement européen demande à la Commission européenne d'explorer en demandant de fixer le régime légal des robots, mais la "taxe robot" n'est pas privilégiée par le Parlement. Espérons que dans le groupe de travail qui va s'emparer du sujet, il y aura des économistes et surtout des fils d'agriculteurs pour rappeler le bon sens paysan.

mardi 21 février 2017

L'intelligence artificielle pourrait grandir sans contrôle, sur les gisements de données

L'intelligence artificielle pourrait grandir sans contrôle, sur les gisements de données

Cette semaine l'actualité de Facebook, Google, du Parlement Européen et de l'Assemblée Nationale, nous donne l'opportunité de poursuivre la réflexion sur l'intelligence artificielle qui avait été lancée le mois dernier (Engageons la réflexion sur l'intelligence artificielle).

L'IA n'est pas une technologie neutre. Comme le traitait le dernier billet sur la blockchain, l'IA est une technologie de transformation qui remet en question l'architecture même des systèmes d'information et, on va le voir, aussi de l'économie du travail et de la société.

Mais contrairement à la blockchain qui promet de faire émerger des écosystèmes très décentralisés, reposant sur la confiance, sur une lisibilité totale des registres partagés et une certification des transactions, l'IA nous promet au contraire une extrême centralisation sur des plateformes, et un manque total de transparence sur les décisions ou les algorithmes. Alors sans surprise, avant même d'être opérationnels à grande échelle, les systèmes à base d'IA n'inspirent pas confiance et font déjà couler beaucoup d'encre. En tout cas assez pour que GreenSI se penche à nouveau dessus.

Une Intelligence Artificielle bienveillante ? 

Commençons par Mark Zuckerberg, qui cette semaine attire toutes les attentions en signant un billet Facebook "Building Global Community" pour rassembler sa communauté mondiale et aller plus loin dans une communauté qui partagerait encore plus de valeurs.
Pour lui, Facebook peut aider à créer des communautés plus sûres, mieux informées, plus engagées et inclusives, pour répondre au déclin de certaines institutions traditionnelles en perte de vitesse. Un message très politique, au sens premier du terme - l'organisation de la Cité (numérique) - et peut être même le premier message politique envoyé à 2 milliards d'individus utilisant une plateforme numérique (en supposant qu'ils parlent tous anglais...). La photo utilisée ne le met pas sur la tribune (mais on le devine) et les symboles affichés sur l'écran représentant les 5 objectifs que tous regardent, sont largement repris partout dans son billet.


Ce qui a retenu l'attention de GreenSI n'est pas la teneur politique de ce message mais plutôt le sujet sous-jacent de l'intelligence artificielle positionnée pour atteindre au moins un des objectifs, celui de la sécurité des communautés.
Pour Mark Zuckerberg, l'IA est une formidable opportunité pour comprendre ce qui se passe en permanence dans la communauté et en améliorer la sécurité, par exemple en analysant automatiquement les images publiées, et aider à la modération. L'enjeu sécuritaire pour Facebook est de stopper rapidement la diffusion de fausses informations, de photos choquantes ou de promotion du terrorisme par exemple, mais aussi de gérer de façon individuelle la sensibilité des utilisateurs sans avoir à censurer totalement le contenu qui peut les choquer individuellement. 

L'intelligence artificielle, dans laquelle Facebook investit massivement, est donc vue comme un filtre bienveillant au cœur de ses algorithmes de sélection, et en dernier recours une police "au-dessus" du réseau, toujours en alerte pour détecter les infractions aux règles établies. Ensuite l'IA passe la main à l'équipe de modération, qui en "tribunal des publications" fait appliquer les règles et peut décider de supprimer un post ou bloquer un utilisateur. 

Mark Zuckerberg fait bien attention à ne pas positionner l'IA comme agissant directement, mais aidant les humains à prendre des décisions.

Une Intelligence Artificielle militarisée ? 

Google s'est lui exprimé cette semaine à la conférence sur la sécurité RSA 2017 (couverte par ZDNet US), via Eric Schmidt le Directeur Exécutif de sa maison mère Alphabet. Pour lui, la recherche en IA ne doit pas être faite dans les laboratoires militaires, ni dans des laboratoires d'entreprises fermés, mais dans des laboratoires ouverts ("open labs").

On en déduit que, pour Eric Schmidt, Facebook ne devrait donc pas se contenter de réfléchir seul à comment faire le bien de sa communauté avec de l'IA, mais devrait aussi publier son code en open source pour favoriser cette ouverture. C'est ce que Google a fait avec TensorFlow, une librairie open source pour l'apprentissage des IA disponible pour tous. 


Mais cette vision pacifique des progrès de l'IA a peu de chance de se produire. Elle pose même la question de la réelle sincérité d'un Eric Schmidt dont l'ouvrage "How Google Works" il y a quelques années, ne faisait aucun doute sur son influence auprès des dirigeants de la planète, dont les militaires US qu'il conseille. 

À l'Assemblée Nationale, le colloque "Intelligence artificielle : des libertés individuelles à la sécurité nationale" qui a eu lieu mardi dernier et où Jean-yves Le Drian s'est déplacé en personne nous amène une toute autre perspective. Pour le Ministre de la Défense, l'enjeu est celui d'une troisième rupture technologique, après la dissuasion nucléaire et l’explosion du numérique, pour garantir la supériorité et la sécurité.

C'est une vision de l'IA au coeur des combats de demain qui opérera des drones et des robots, avec des capteurs ou des véhicules capables de traiter localement l’information, capable d’élaborer une stratégique de protection ou de riposte. Outre l'enjeu géostratégique, la France étant un fournisseur mondial de systèmes d'armes, elle ne devra pas non plus rater cette révolution pour maintenir la compétitivité à l'export de son arsenal. On rejoint ici les enjeux de toutes les entreprises pour s'adapter à un mode digital.

Une Intelligence Artificielle toujours débranchable ? 

Comme le faisait remarquer sur les réseaux sociaux Hubert Tournier, ex-DOSI du Groupement des Mousquetaires, cette idée de transparence du code des IA est vraiment dans l'air du temps. Hubert Tournier la juge cependant très insuffisante car ne regarder que l'algorithme quand on utilise le Machine Learning, c'est oublier de prendre en compte les limites de la compréhension des modélisateurs, la qualité des données injectées, le processus d'apprentissage initial et l'interaction avec le monde réel. La différence entre l'inné et l'acquis !

La capacité à "nourrir" l'IA avec des données, à l'éduquer, est aussi importante que la construction initiale. L'exemple de Tay, l'IA de Microsoft détournée par des internautes l'année dernière, qui est devenue raciste par apprentissage sur les réseaux dès son lancement, doit nous y faire réfléchir. Les éducateurs ont donc une co-responsabilité sur le résultat produit par l'IA.


Il va donc être difficile de réguler uniquement avec du préventif, mis en oeuvre avant la mise en service opérationnelle puisque elle peut être détournée. On aura donc aussi affaire à de la régulation par "débranchement" après coup. C'est ce scénario dont se sert régulièrement Hollywood : une IA forte qui saura se répliquer de façon autonome et empêcher ainsi son débranchement. Une telle technologie n'est bien sûr pas encore à l'horizon et relève pour l'instant du fantasme.

La bonne question est donc celle de la régulation, avant et après sa mise en service, celle de l'inné et celle de l'acquis.

Une IA au coeur des gisements de données ?

Le Sénat (plus précisément l'OPECST - Office Parlementaire d’Évaluation des Choix Scientifiques et Technologiques) s'est lui posé la question de l'intelligence artificielle il y a un mois avec quatre tables rondes ouvertes à la presse le 19 janvier, la veille de l'annonce du plan "France IA" dont GreenSI a déjà parlé dans son billet précédent sur l'IA. Les thèmes couvraient le périmètre de l'IA, la stratégie de recherche, les enjeux éthique, juridiques et sociétaux.

Cette dernière table ronde avait invité Laurent Alexandre, spécialiste des sciences du vivant et des bio technologies, président de DNA Vision, mais aussi créateur du site Doctissimo. Ce visionnaire de l'évolution du travail dans une monde technologique, met en avant deux points très pertinents:
  • l'avantage compétitif de l'intelligence artificielle par rapport à l'intelligence biologique. Une fois mise en place, elle opère à coût quasi nul par rapport aux humains payés pour produire les mêmes réflexions et prises de décision. C'est l'avantage des plateformes, par rapport aux robots, domaine où le politique comprend mieux comment taxer des unités d'oeuvre. L'annonce de la fintech italienne Euklid d'offrir les services d'une banque traditionnelle entièrement gérée par une intelligence artificielle s'inscrit dans ce domaine. En France, le Compte Nickel qui est plus une plateforme technologique qu'une banque doit certainement aussi y penser pour les années qui arrivent...

  • l'intelligence se créée là où il y a beaucoup de données car un mauvais algorithme avec beaucoup de données est supérieur à un bon algorithme avec peu de données. C'est là que l'on peut détourner les mauvais algorithmes en apprenant à l'IA d'autres résultats une fois qu'elle est mise en service comme dans le cas de Tay.
Cette position à le mérite de poser le véritable coeur du débat à venir sur l'IA. L'IA va remplacer le travail de ceux qui seront concurrencés par sa mise en œuvre, à priori là où il y a beaucoup de données à traiter, et elle va valoriser celui de ceux dont le travail lui sera complémentaire.

Le lien entre data et IA a été fait depuis longtemps par les acteurs du numérique. Dans le B2B, la division Watson d'IBM créée pour le traitement intelligent des données, est aujourd'hui devenue IBM Watson IoT, celle qui traite aussi des données capturées par l'IoT qui vont croître exponentiellement. Dans le B2C, Google, via Google Maps et Facebook via sa plateforme homonyme, capturent aussi des données en masse et notamment des photos, pour nourrir l'apprentissage de leur futures IA.

Vers quelle régulation aller ?

L'enjeu sociétal de l'IA est donc certain et va de pair avec le déploiement d'infrastructure de collecte de données. Pourtant aujourd'hui, ce sont les robots qui sont sous le feu des projecteurs des politiques, comme le montre l'adoption cette semaine par le Parlement Européen d'un texte déposé en janvier sur le régime légal à appliquer aux robots. Une lettre de mission pour que la Commission Européenne s'empare du sujet et légifère dans les Etats de l'Union Européenne.

Mais les robots sont du hardware, or le hardware progresse moins vite que le software. La question de la régulation de l'Intelligence Artificielle à grande échelle arrivera donc certainement bien avant celle des robots.
Aujourd'hui le privé et les associations de chercheurs comme celle des signataires des « 23 principes d'Asilomar » (dont l'astrophysicien Stephen Hawking et Elon Musk, patron de Tesla et SpaceX) sont les plus avancés en matière de réflexion sur l'éthique de l'intelligence artificielle. Les robots monopolisent les débats mais ne représentent qu'une faible partie des enjeux autour de la régulation de l'intelligence artificielle.

Le politique est-il en train de se faire dépasser par ce sujet comme lors de la révolution précédente du numérique ?
Qui sera le prochain "Uber de l'IA" qui déclenchera partout des manifestations des peuples pour souligner le manque de cadre de l'intelligence artificielle ?


mardi 14 février 2017

La blockchain va-t-elle tout disrupter? Pas si vite...

La blockchain va-t-elle tout disrupter? Pas si vite...


Dans un billet récent (Entreprise du futur: arrêtons de parler de technologie) que vous avez particulièrement apprécié (si j'en crois les statistiques de lecture), GreenSI se demandait si cela avait encore un sens de parler de technologies et non d'usages? 

Cette semaine on va revenir sur le buzz qui entoure une technologie certainement prometteuse, ou peut-être pas d'ailleurs : la blockchain

La blockchain, c'est la technologie au cœur du bitcoin et de plusieurs autres monnaies virtuelles. Ce sont des monnaies administrées en dehors du système bancaire - car ce sont des livres ouverts - qui enregistrent toutes les transactions en toute confiance, car de manière vérifiable et permanente. Elle est apparue sur les radars des technologies disruptives en 2015 (La blockchain sur le radar des banques... mais pas que) quand on a imaginé son usage au-delà de la monnaie.

Cette technologie est très adaptée à la gestion des contrats, des transactions et de grands registres. Elle a donc certainement le potentiel de redéfinir une économie mondiale capitaliste qui repose principalement sur ces objets pour définir la propriété, l'identité ou les interactions entre acteurs économiques. Sur ce potentiel, il n'y a donc finalement aucun doute.
En revanche, on peut se poser la question de la vitesse à laquelle peut se produire cette révolution. Et là, GreenSI n'est pas toujours en phase avec ceux qui en parle pour demain.

Le raisonnement est simple. La blockchain fait partie des technologies qui construisent les architectures des systèmes d'information. C'est comme les API qui gèrent les échanges entre applications, ou même les protocoles de communication de réseaux qui gérent les échanges entre machines, ou encore l'opendata qui promet de faire circuler librement des données entre les acteurs dans les villes intelligentes. 

Or, les architectures des systèmes d'information ne se changent pas en une nuit !

La durée de vie moyenne des applications est de l'ordre de 7 ans, celle des architectures certainement plus proche du double. À titre d'exemple, on est passé du client serveur (1980) à l'internet (2000) en vingt ans, et encore, de nombreux mainframes existent toujours. 

L'adoption du Cloud va atteindre les 10 ans et la prochaine architecture de l'internet, celle de l'internet industriel des objets commence à peine (Industrial IoT) et ne sait pas encore comment elle va gérer 30 à 50 milliards d'objets en 2020.

Pour GreenSI, il y a donc peu de chance que les blockchain transforment du jour au lendemain les architectures des banques, des notaires ou des bourses, pour ne citer qu'eux.

Bien sûr, il y aura des succès et des échecs qui, comme le bitcoin, vont intégrer en un seul système l'architecture, les applications et les usages, sans remettre en cause l'existant mais en cherchant à le "disrupter". Ces succès accelèreront la prise de décision, domaine par domaine, sur les enjeux et le potentiel de cette technologie. Pour "cracker le code", ils vont dans un premier temps absorber les financements du capital risque qui ont commencé en 2013 et les investissements des banques comme nous le rappelle le cabinet CBInsight dans ses études régulières sur les investissements des VCs.



En revanche, le remplacement à grande échelle de, par exemple, l'architecture juridique et technique des actes de propriété en France, se fera à la vitesse adminissible par la société et non à celle possible par la technologie. Et dans le cas de figure cité, peut-être jamais ! On se rappelle tous que la loi Macron n'a même pas réussi à réformer le numerus closus de la profession en 2016 et créer les 1800 nouveaux offices de notaires attendus par les Français. Alors de là à dépoussiérer l'architecture de leur système d'information, ne nous emballons pas trop vite...

Les secteurs où des usages de la blockchain sont identifiés sont par exemple la banque (tenue de compte), les paiements et transferts d'argent, les marchés d'actions, les droits de propriété, les diplômes, la cybersécurité, les votes, les allocations sociales, les programmes de fidélité, la location de biens, les transactions des "objets" de l'internet des objets et notamment la gestion de l'énergie... 

La capacité à remplacer l'architecture des différents secteurs est donc certainement une variable clef à ne pas oublier pour déterminer la vitesse d'adoption de la blockchain. Dans les domaines où un existant bien établi et juridiquement encadré existe, il n'y aura certainement pas de révolution avant 10 ans. 

Un autre critère d'accélération à regarder est l'ampleur des économies possibles car elle attire la convoitise, puis les investissements et enfin l'innovation.
Une technologie permettant de reposer les bases d'une architecture d'un système vise une économie radicale.

Pour McKinsey&Co qui a publié le mois dernier une étude sur la blockchain centrée sur l'assurance et la banque, le déploiement commercial de la technologie se fera progressivement d'ici 2021 pour les cas d'usages qui ont le plus de potentiel. Les expérimentations se feront en 2018 et selon la "courbe de hype" du cabinet Gartner, on saura au mieux en 2020 quels sont les usages qui permettront d'atteindre le "plateau de la productivité".

Le secteur ayant le plus de potentiel étant celui des transactions transfrontalières d'entreprise à entreprise, générant entre 50 et 60 milliards de dollars d'économies, suivi du financement du commerce avec 14 à 17 milliards de dollars. Les sept cas d'usage qui ont le plus de potentiel génèreront de 80 à 110 milliards de dollars d'économies, donc autant d'opportunités pour les entreprises ou les startups qui sauront les réaliser. À titre de comparaison, bientôt 1 milliard aura été investi dans les startups de la blockchain comme le montrait le graphique précédent.

Donc oui, la blockchain est promise à un bel avenir, mais sa capacité de disruption est certainement sur-vendue.

Cette capacité sera localisée dans certains domaines dont elle reposera les fondements de l'architecture, ce qui prendra du temps - un peu comme l'internet d'ailleurs, qui a balayé les réseaux privés pour un réseau communautaire mondial basé sur TCP/IP.
Cela ne sera pas en quelques semaines, mais en 3 à 5 ans pour les applications les plus rentables et certainement jamais pour beaucoup d'autres.

Les notaires peuvent donc dormir tranquilles et continuer de rêver de transmettre leur étude et son système d'information aux petits-enfants de leurs enfants...

jeudi 2 février 2017

Connaissez-vous votre jumeau numérique (digital twin) ?

Connaissez-vous votre jumeau numérique (digital twin) ?

Une des tendances des projets dans le domaine de l'internet des objets semble être celle du "digital twin". Pourtant, on rencontre encore peu ce concept dans l'actualité française (sauf sur ZDNet ! - par exemple içi) alors qu'il est très présent en Allemagne, Industrie 4.0 oblige, ou aux Etats-Unis. Il n'en fallait pas plus pour motiver GreenSI à faire la lumière sur ce jumeau numérique qui, comme la prose de M.Jourdain, est peut-être déjà plus présent qu'on le pense dans les projets de beaucoup d'entreprises et on le verra aussi, de collectivités locales.

Le jumeau numérique des personnes ("digital moi") est une notion qui est maintenant bien comprise en France.



Les traces numériques laissées par nos jumeaux sont bien réelles et les "chasseurs de primes" du monde virtuel les suivent sans vergogne jusque dans vos données personnelles. La CNIL et l'ANSI veillent et informent le grand public sur les dangers de la non maîtrise de ces vases communicants physique-numérique, par exemple quand des cambrioleurs peuvent vous suivre sur les réseaux sociaux et voir que vous êtes loin de chez vous.

La notion de "Digital workplace" commence aussi à s'installer pour outiller les salariés, les rendre plus efficaces dans leurs interactions virtuelles, et améliorer leur productivité dans le monde réel. Cette semaine c'était d'ailleurs la publication de la 9ème Edition de ce qui est la référence en matière de "Digital Workplace", l'étude annuelle de Lecko de tous les outils de collaboration virtuelle, notamment les réseaux sociaux d'entreprise, qui transforment le travail en entreprise. 

Mais qu'est-ce que le jumeau numérique d'un objet ?

Ce jumeau numérique est un compagnon informatisé d'un objet physique, qui modélise en partie cet objet physique (d'un simple nom jusqu'à un modèle 3D sophistiqué) et utilise des données de capteurs installés sur cet objet physique pour représenter son état, sa position... quasi temps réel. Quelqu'un qui ne serait pas dans le monde physique de l'objet (tout simplement à distance) pourrait quand même suivre l'évolution de l'objet en explorant le monde numérique.

Un exemple qui existe depuis plusieurs années est celui de la raquette connectée (Play) de la marque Babolat. Son capteur interne dans le manche lui permet de mesurer les vibrations de la raquette lors d'un match et de représenter en temps réel tous les impacts de balle, les angles, la force, le côté qui frappe (coup droit ou revers)...

Un coach du joueur pourrait être tranquillement installé dans la loge avec son smartphone pour donner des conseils pour améliorer le jeu à la fin du match... même sans avoir vu le match. D'ailleurs le coach peut lui même être un coach virtuel, un programme informatique, qui analyse la partie par rapport à d'autres parties ou la progression dans le temps du joueur.

Babolat a aussi un produit (Pop) qui n'est qu'un bracelet connecté autour du poignet du joueur car en  analysant son bras en permanence il y a déjà beaucoup de données exploitables. Ce bracelet appartient au jumeau numérique du jouer et la raquette a aussi son propre jumeau.

A l'avenir les jumeaux d'humains et d'objets vont de plus en plus interagir dans le monde virtuel. 

Quittons le grand public et demandons nous quels sont usages des "digital twin" en entreprise ?


L'entreprise va cibler les enjeux d'amélioration de la performance des objets, des équipements, des systèmes ou des usines.
Supposons donc que l'entreprise synchronise en permanence avec une plateforme les données entre des équipements et leur jumeau numériques accessibles par divers interface (smartphone, tablette, lunettes, écrans muraux...). Les usages sont multiples comme:

  • de projeter les données numériques quasi temps réel du jumeau virtuel sur l'objet physique (en utilisant la réalité augmentée). Par exemple un technicien qui passe devant une pompe peut avec son simple smartphone lire le débit et le temps de marche de la pompe, en fait de son jumeau virtuel accessible depuis son smartphone.
  • de manipuler l'objet numérique pour se former ou préparer une manipulation sur le "vrai" objet physique (en utilisant la réalité virtuelle). C'est par exemple un technicien qui visite virtuellement une installation et se prépare au réglage d'une chaîne de production.

    Si le modèle qui fait réagir le jumeau virtuel est sophistiqué, la simulation ira au delà de la visualisation de données et permettra de piloter le jumeau comme dans un jeu vidéo. Ce n'est d'ailleurs pas un hasard si l'un des acteurs, PTC, a annoncé fin 2016 un partenariat avec Unity, le moteur de jeu vidéo multi-plateformes le plus utilisé.
  • de collaborer à plusieurs autour de ce jumeau numérique (en réalité virtuelle). L'un des acteurs peut guider les autres qui voient sur leur écran ou leur casque, ce que voit cet acteur. Ce dispositif est complété par un dispositif audio pour qu'ils se parlent en direct. C'est par exemple un groupe de techniciens qui visite virtuellement l'installation précédente.
  • d'analyser le jumeau numérique pour comprendre, prédire et optimiser les performances des actifs physiques sans avoir besoin d'embarquer le logiciel dans la machine comme on l'aurait fait il y a quelques années. Couplés à des algorithmes d'auto-apprentissage (machine learning) on peut même optimiser sans définir de modèle préalable.


  • Ce sont par exemple les systèmes de pilotage de la distribution d'eau potable, comme Aquadvanced™, celui de SUEZ. Ils permettent par modélisation hydraulique et capture des données par secteurs, d'optimiser le rendement du réseau a tout moment.
Sans surprise, le digital twin est un concept développé dans l'industrie avec les acteurs majeurs de l'informatique de ce secteur comme le français 3DS, l'allemand Siemens, les américains PTC et GE Digital et qui ouvre donc de belles perspectives de développement des produits.
Réservées au départ aux produits complexes et chers (notamment l'aéronautique), ces technologies sont aujourd'hui accessibles pour des produits aussi "simples" que des raquettes de tennis qui se commercialisent à moins de 400€.

Digital city, ma ville jumelle

GreenSI s'est aussi posé la question d'appliquer ce modèle de l'industrie à un système complexe que l'on connaît tous très bien, la ville. Petite, moyenne ou grande métropole, elle se modélise dans l'espace et l'utilisation des GPS a radicalement accéleré sa modélisation 2D, et pour certaines en 3D.
C'est par exemple le cas de Rennes Métropole très engagée depuis longtemps dans la représentation, d'abord cartographique et maintenant digitale de la ville, par exemple pour explorer ses projets qui vont la transformer jusqu'en 2030 (Rennes 2030).

On peut aussi citer la Ville de Paris qui a lancé une consultation pour modéliser les 2500 km d’ouvrages souterrains d’assainissement (dont 2300 km de galeries visitables) qui assurent la collecte et le transport des eaux usées et pluviales sous Paris. Les entreprises travaillant pour la Ville de Paris pourront prochainement visiter virtuellement ces ouvrages avec un navigateur web et ainsi mieux préparer leur rencontre ultérieure, avec le jumeau physique cette fois.

Mais ce qui a récemment retenu l'attention de GreenSI c'est l'énergie mise par Google, en lien avec sa division SideWalkLab, dédiée à la "smart city", de modéliser toujours plus loin le jumeau de la ville.
Google maîtrise déjà la ville en 3D avec ses GoogleCars, le trafic, les zones d'affluences (apparues l'été dernier),... autant de moyens de captures de données automatiques pour construire le jumeau numérique des villes sur ses serveurs.

Mais Google exploite aussi le "crowdsourcing", façon de "Waze" ou "Open Street Map" et anime la collecte de données de Google Maps avec des outils intuitifs pour que chacun contribue (voir photo). Les (+) représentent des lieux où il manque à Google des données comme les horaires d'ouverture, des photos ou le "rating" de l'endroit. En cliquant dessus les ambassadeurs locaux de Google peuvent les renseigner et gagner... des points !

Personnellement j'ai remarqué que la pression de Google pour récupérer ces données s'était accentuée. Dans les 15mn après la prise de vue sur un lieu d'intérêt, Google me demande de rajouter mes photos à Google Map, et me propose régulièrement de vérifier des informations qu'il a sur les lieux dont je suis proche. La collecte massive d'images permettra certainement ensuite de mettre à jour le modèle 3D et surtout le modèle décisionnel avec des données qualitatives.

Le dernier service lancé par sa division SideWalk est le contrôle du stationnement de surface. D'un côté Google valorise l'information sur les disponibilités des places de parking qu'il détecte, de l'autre il propose aux villes de trouver les habitants indélicats qui ne paieraient pas leur parkmètre. Un domaine qui va d'ailleurs être prochainement privatisé en France en 2018.

Mais Google n'est pas le seul acteur de la donnée en ville. On imagine qu'Uber, qui développe ses propres cartes, étant toujours prêt à nous inventer un nouveau service "Uber-X", est déjà dans les starting-blocs pour la collecte de données et prendre des positions sur la logistique du dernier kilomètre.
Ceci devrait faire réfléchir les métropoles sur la vitesse avec laquelle d'autres sont en train de construire leur "city digital twin" à leur place...

L'espace urbain remodelé par son jumeau numérique

Le champ d'application dépasse largement le parking des voitures: terrasses de café, marchés, parcs...
L'espace public est aujourd'hui vu comme une source de coûts financés par des impôts mais il a pourtant bien une valeur économique. A l'heure où les villes repensent leur modèle économique, la vision de Google d'en optimiser l'usage, et donc la valeur, peut séduire les collectivités pour imaginer la location de l'espace urbain en général (pas que des places de stationnement) comme une moyen de les rentabiliser.

GreenSI va même plus loin ! Imaginons : plusieurs acteurs sont intéressés par le même espace à un moment donné. L'un par exemple pour installer une extension de sa terrasse de restaurant, l'autre pour organiser un espace de vente de glaces temporaire. On peut imaginer un mécanisme d'enchères qui attribuerait dynamiquement les espaces à celui qui ferait la meilleur offre. Les acteurs susceptibles de louer les espaces indiqueraient à l'avance sur la carte de la ville leur préférences et le prix maximum qu'ils sont prêts à payer en fonction des jours, voire des heures, pour chaque espace.

Bref, vous avez certainement reconnu le mécanisme d'AddWords qui permet d'acheter des mots-clefs d'une recherche Google et d'afficher les publicités de ceux qui payent le plus sur les espaces du moteur de recherche de Google. GreenSI ne peut pas imaginer que Google n'y ait pas pensé ;-)

Numériser et indexer le monde physique est donc devenu dans tous les domaines un sujet en fort développement, il donc temps de s'intéresser systématiquement à tous nos jumeaux digitaux.

mercredi 25 janvier 2017

Engageons la réflexion sur l'avenir de l'Intelligence artificielle

Engageons la réflexion sur l'avenir de l'Intelligence artificielle

Dans l'actualité de la semaine on ne pouvait pas manquer l'annonce par Axelle Lemaire, secrétaire d'Etat en charge du numérique et depuis octobre dernier de l'innovation, du lancement de la mission "France IA" pour définir une stratégie nationale en Intelligence Artificielle pour la France.

Une démarche pleine de sens, tant la France a d'atouts sur ce sujet (mathématiques, ingénieurs, recherche...), mais une démarche tardive à moins de quatre mois d'un nouveau gouvernement...

Espérons que cette démarche réussira au moins à boucler  sa première étape d'identification des acteurs et à faire parler de ces atouts, à défaut de pouvoir déjà fédérer ces acteurs façon "French Tech" avec par exemple un label "France IA" démontrant la qualité du savoir faire français.

Les domaines de l'IA sont très vastes, mais tous sont stratégiques pour l'évolution de l'Industrie et des services numériques. Il rassemblent principalement :
  • l'apprentissage automatique (machine learning)
  • la vision des ordinateurs en temps réel ou par analyse d'images/vidéos
  • les robots intelligents (versus simplement programmés)
  • les assistants virtuels
  • la reconnaissance du langage (speech to speech)
  • la reconnaissance des gestes
En parlant d'intelligence artificielle, aujourd'hui les plateformes GAFA+MI n'en sont plus à simple la réflexion. Elles sont opérationnelles ! Leurs organisations ont recruté les meilleurs spécialistes, elles ont racheté ou investi dans les startups disruptives et se font la course pour trouver le modèle économique qui dominera :
  • Google a développé une stratégie d'enrichissement de ses services avec Google Now qui vise a être votre assistant personnel, mais aussi Google Maps et les débuts d'Allo qui amène son IA dans une messagerie instantanée pour devenir un assistant virtuel.
  • Amazon a surpris toute l'industrie avec "Echo" - dont GreenSI a déjà parléun appareil dans la maison dopé à l'IA d'Alexa pour déplacer cette assistance virtuelle dans le quotidien et non en mobilité (où le smartphone reste le terminal n°1 en attendant la voiture)
  • Facebook
  • Apple, le pionnier avec Siri, l'assistant virtuel sur iPhone, mais qui dans ce domaine aussi peine a se renouveler et innover depuis quelques années.
  • Microsoft, avec une stratégie résolument dans le Cloud depuis l'arrivée de Satya Nadella, où la Cortana Intelligence Suite et les "Azure Cognitive Services" sont mis à la disposition des entreprises qui développent des applications pour les enrichir avec de l'IA.
  • IBM parti plus tôt avec Watson dès 2011, qui est devenu une division d'IBM en 2014, a une stratégie similaire mais totalement orientée vers les grandes entreprises, même si ses services sont disponibles en ligne sur BlueMix sa "plateform as a service" (PaaS).
GreenSI, a une position plus tranchée sur Facebook qui semble un peu derrière ces acteurs sur le plan des réalisations opérationnelles. Annonce de "M" en 2014, ouverture d'un Lab (à Paris) en 2015, pourtant son IA est uniquement présente avec des "bots" dans Messenger dont l'intelligence est réellement dans l'ecosystème des startups comme Chatfuel qui permettent de les faire fonctionner. Et ce malgré une communication bien rodée en fin d'année dernière avec la vidéo "intime" de Mark Zuckerberg parlant à Jarvis qui pilote sa maison.

Mais si on regarde quelques années en arrière, les jeux dans Facebook ont explosés avec des sociétés comme Zinga et non avec des développements propres. Rappelons-nous aussi que Facebook a failli rater le virage mobile en 2011. Leur application interne n'était pas au point. C'est le rachat d'Instagram (2012) puis de Whatsapp (2014) qui leur a donné la légitimité et qui a fait décoller leur cours de Bourse mi-2013, une fois les analystes rassurés sur le fait que Facebook pourrait capter la manne de la publicité mobile. La stratégie de Facebook semble donc pour l'instant beaucoup plus axée sur son écosystème et la co-innovation. Cela pourrait changer quand Facebook exploitera les conversations de ses 1,7 milliards de membres actifs mensuels (1 sur mobile) et mieux connaître le genre humain...

Dans les autres acteurs, on peut aussi citer ceux qui sont en embuscade et qui entrerons dans le peloton de tête de façon opportuniste avec un rachat ou de nouveaux services, mais qui pour l'instant agissent via leur fonds d'investissement qui prennent des positions : Salesforce (Digital Genius, MetaMind ), Samsung et pourquoi pas le français AXA qui avec AXA Ventures s'interesse de très près au sujet dans ce qui pourrait outiller la santé (Neura, BI Beats, Medlanes) ou la location immobilière (price methods devenu Wheelhouse)

Au niveau des applications, les assistants virtuels et les objets intelligents (et connectés) en B2C et B2B,vont certainement tirer les usages à court terme. Dans les assistants virtuels, attendons-nous a voir les sites fleurir des "chatbots" pour améliorer la qualité de service en ligne dont une partie sous Facebook.

En terme d'industries, la santé est celle qui oriente 15% des investissements des startups (selon CB Insights) suivi de près par l'expérience client et l'analyse de données. Le marché B2C sera donc tiré par la santé et le B2B pour les deux derniers.

L'IA n'est pas non plus une nouveauté puisque l'origine est souvent donnée à "Computing Machinery and Intelligence" d'Alan Turing en 1950 et les premiers algorithmes de diagnostic médical datent des années 1970 (Mycin). Notre ex-pépite nationale Ilog créée en 1987 s'est faite avaler par IBM en 2009. On constate donc une effervescence mondiale, et des investissements en hausse depuis 2010. Les voyants de la stratégie française devaient donc clignoter depuis longtemps quand Axelle Lemaire est passée devant, et finalement malgré un contexte peu favorable a décidé de relever le défi avec Thierry Mandon (Recherche).

Oui, la "France des ingénieurs" a une certaine avance sur le sujet. Car même si elle fleurte avec le dernier rang du classement PISA en mathématiques au collège, sa recherche et son enseignement supérieur sont au plus haut niveau mondial. L'ambassade de cette excellence comptant dans ses rangs Cédric Villani, médaille Fields en 2010, qui par sa photo officielle qui a fait le tour du monde, incarne à merveille la modernisme et la tradition pour les sciences.

L'intelligence artificielle est aussi un vrai sujet de société qui dépasse largement le champ du numérique, puisqu'elle vise à développer des dispositifs imitant ou remplaçant l'humain.

Son rôle dans la société sera donc certainement débattu, domaine par domaine, industrie par industrie dans les années qui arrivent. L'algorithme est déjà sous les feux du débat, avec la question très naïve de sa neutralité, mais l'IA va plus loin puisqu'elle donne la main à un machine.

L'IA sera acceptée quand elle permettra par exemple de sauver des vies en accélérant les décisions et en réduisant les risques d'erreurs de diagnostic, mais certainement très challengé quand les usines Michelin de Clermont-Ferrand auront plus de robots que d'humains syndiqués...

Ce débat a été lancé cette semaine au Forum Economique Mondial de Davos Satya Nadella participait à un débat sur l'intelligence artificielle : "Quels profits la société toute entière peut attendre de l’IA".

Le PDG de Microsoft a défendu l'idée que ceux qui disposent des platerformes d'IA devraient l'orienter vers des tâches aidant les humains plutôt que supprimant des emplois.
Au delà de l'intention très louable de Microsoft, et de l'humanisme avéré de son leader, ne soyons quand même pas dupes, car cette question est celle qui différencie un Microsoft d'un Google pour rejoindre le cercle très fermé des GAFAs...

Microsoft ou IBM en B2B vendent leur technologie à des entreprises qui décideront des usages. On a encore du mal a croire qu'ils refuseront une vente quand un patron d'usine viendra les voir pour outiller ses usines avec leur technologie. Il est aussi probable que les investisseurs qui depuis 2011 mettent des centaines de millions dans le développement de startups visent en priorité les usages qui valoriseront le mieux leur participation sans nécessairement prendre en compte l'avenir de l'humanité.

Google, Facebook, IBM, Microsoft et Amazon ont aussi créé un alliance pour instaurer de « bonnes pratiques » dans ce domaine, et mieux informer le grand public. Et puis à la conférence Frontiers en octobre dernier (billet GreenSI), la Maison Blanche avait organisé un débat et pris des engagements sur l'IA et les robots.

Donc oui, la France a un autre risque de retard. Celui de ne pas participer à la réflexion sur l'éthique de l'IA qui est enjeu majeur dans les années qui arrivent.


Une réflexion qui se traduira demain en usages standards qui pourraient s'imposer à tous, et surtout ne pas limiter les usages qu'on ne voudrait pas voir se développer. Car dans ce jeu, les plateformes mondiales seront certainement les plus influentes, et il sera ensuite trop tard de vouloir interdire telle ou telle plateforme depuis le sol français, ou européen.

L'IA n'est bien sûr pas un ennemi mais un redoutable allié au service de la stratégie d'entreprise, et certainement du développement de nouveaux services intelligents pour l'industrie et la ville numérique. C'est surtout une compétence qui se marie très bien avec les capteurs et l'augmentation du nombre de données capturées par les systèmes d'information.

Dans l'entreprise en 2017, GreenSI conseille donc que ce soit l'année de la réflexion pour anticiper cette technologie qui au-delà de transformer les usages va modifier les relations entre l'Homme et la machine. Une autre façon de se repenser son avantage concurrentiel.