mardi 20 juin 2017

#Hyperlean : pourquoi l'exécution est devenue la stratégie

#Hyperlean : pourquoi l'exécution est devenue la stratégie


Spécialiste de la stratégie des SI, en charge de la gouvernance dans une grande DSI, je suis tombé dans le lean quand nos clients nous ont poussé à accélérer notre rythme de l'innovation.

Il ne s'agissait plus de définir la stratégie puis de l'exécuter "tranquillement" comme un plan quinquennal, et comme tous les ouvrages de gouvernance SI l'expliquait, mais progressivement la stratégie devenait exécution et la vision à long terme prenait le pas sur le plan.

Au niveau des équipes cela se traduisait par de l'agilité dans les projets et comme personne n'est parfait, par de l'amélioration continue.

Le cloud et le digital étaient devenus des moteurs d'une transformation des business modèles et des processus de l'entreprise, beaucoup plus profonde et radicale que le changement de technologie qui était supposé au départ. Les objets connectés et le nouvel internet qu'ils amènent ne vont que l'amplifier.


Cette histoire personnelle commencée en 2012 et dans laquelle ce blog GreenSI, témoin de cette transformation a été initié, a croisé Cécil Dijoux en 2014 quand j'ai eu besoin de comprendre et de pratiquer le lean avec mes équipes dans le cadre d'un projet de transformation.

Cécil est un excellent coach!

Cécil publie aujourd'hui #hyperlean, un ouvrage qui décrypte et simplifie les rouages de la réalité de cet univers digital : lentes adoptions, rapides innovations, expérience utilisateur, manager, désintégration de la DSI, ...

Des rouages que GreenSI décrit régulièrement dans ses billets. Mais ce qui est novateur dans cet ouvrage, c'est de montrer comment la pensée Lean est LA solution pour mettre en oeuvre les principes stratégiques d’agilité et de perfection d’expérience client requis par le numérique.

Déclinés par les géants du web et un grand nombre des pratiques du numérique (méthodes agiles, Lean UX, Lean Start-up etc …) les principes de ce système de management robuste et vertueux sont adaptés à cette époque de grande incertitude.

Le numérique est aussi un enjeu de management et le manager doit guider ses équipes et son entreprise dans ce nouvel univers?

chap 8 - copyright - Xsmall

#hyperlean est disponible sur Amazon et je vous le conseille vivement. Alors bonne lecture !
La transformation numérique au service de la transition énergétique

La transformation numérique au service de la transition énergétique

Cette semaine on ne pouvait pas rater Viva Technology qui revenait, pour sa seconde édition, faire vibrer l'innovation et la technologie mondiale au cœur de Paris, avec quand même une majorité de pépites françaises
.
Mais la technologie n'est rien sans les usages, fusse t-elle un feu d'artifice.

Il était facile de l'oublier en parcourant ces allées occupées par des robots, des drones, des applications les plus folles de réalité virtuelle ou en écoutant le brouhaha des promesses de l'Intelligence Artificielle. Comme pour un 14 juillet, ce fut une parade de l'innovation et de technologies qui démontre la capacité de mobilisation de la France autour du numérique.

Maintenant, imaginons cette déferlante d'innovations, de technologies, et d'énergie de nos jeunes startupeurs, se pencher sur un problème concret qui concernera plus de 70% de la population mondiale en 2050, les citadins. On se dit que rien ne pourra lui résister.

Ce problème c'est celui de l'environnement et de la transition énergétique qui est devant nous mais donc les premiers signes sont déjà visibles : congestion du trafic, pollution de l'air, boulimie énergétique... autant de problèmes communs que les grandes villes vont devoir résoudre.

Les troupes mobilisées pour le résoudre c'est celles de DataCity, coordonnées par le NUMA, pour mobiliser l'intelligence et l'innovation des petites et grandes entreprises afin de réinventer les villes en exploitant leurs données.
Les données, on en parle tout le temps - et personne ne contestera l'entrée dans l'ère de l'économie de la donnée - mais comment les mobiliser collectivement pour une cause commune est la question moins triviale à laquelle s'est attachée ce programme.

DataCity, programme d'innovation ouverte, est donc cette idée simple que la mise en commun des données au niveau d'une ville permet de la réinventer en développant de nouveaux services et en optimisant globalement son fonctionnement. 

C'est par exemple l'analyse de la localisation des tweets la nuit, ou des données (anonymes) des opérateurs permettant d'optimiser l'éclairage urbain là où il y en a besoin, ou d'identifier les lieux de vie nocturne pour adapter l'offre de sécurité à ces zones. Autre exemple, quand la circulation individuelle baisse en ville, ce bénéfice est effacé par l'augmentation annuelle de 15% du e-commerce et des livraisons, de plus en plus rapides. Comment optimiser ces livraisons ?

D'une façon générale les villes ont besoin de mieux connaître en temps réel et à long terme les flux urbains, ouvrant par là de nouveaux modes de gestion et d'organisation des services pour optimiser ces flux, mais aussi délivrer de nouveaux services aux habitants comme pouvoir leur dire s'il est déjà trop tard pour sortir leur bac poubelle ou si le camion n'est pas encore passé.

C'est donc le 6 juin, dans une salle des fêtes de l'hôtel de ville pleine à craquer (plus de 600 personnes) qu'Anne Hidalgo, Maire de paris, a ouvert le "Datacity Demo Day", la cérémonie qui a motivé toutes ces équipes pendant 8 mois pour venir en ce jour y présenter fièrement leurs résultats.


Y sont venus des projets qui mixent toutes les technologies disponibles et toutes les données des opérateurs de la ville, pour de nouveaux usages qui réinventent la mobilité en ville ou l'efficacité énergétique des bâtiments et de la ville toute entière.

Au sein de ces projets se trouvaient des startups qui ont choisi de confronter leurs innovations et leurs technologies à des cas concrets et de relever les défis posés dans chaque domaine par 9 grandes entreprise. 
Ces dernières sont opérateurs ou aménageur de la ville (5 pour la première édition en 2015), comme Bouygues Energie Services, La Poste, Nexity, RATP ou Suez.

Une façon de passer de la technologie à l'usage et en alignant les défis à la cause plus grande de la durabilité de la ville, de faire que chacun contribue à cet objectif commun.

A l'issue de ces tests de prototypes par les startups, les entreprises et la ville de Paris bénéficient des solutions, et les industriels envisagent de déployer ces systèmes dans d'autres villes où ils sont présents.

L'économie mondiale de la donnée ne s'arrête donc pas à la grande porte de la ville.

Pour inventer les services urbains il faut maintenant analyser les grandes bases de données, du public ou du privé, avec beaucoup de données locales. C'est là que les nouvelles technologies de "machine learning" prennent de l'importance.
 

Mais les challenges à cette démarche sont énormes, comme ceux de la protection des données personnelles, du respect de l'intérêt général.

Et en même temps, les salaires des datascientists s'envolent et les économies d'échelle risquent de ne faire émerger que quelques plateformes mondiales (américaines ?) qui seules auront les algorithmes les plus avancés.
Mais le défi est relevé par les villes et une approche collective et coopérative avec les opérateurs est certainement une réponse à ce challenge. Cette démarche DataCity dépasse la seule logique d'opendata généralement mise en oeuvre, car elle la couple à une démarche d'open innovation et lui cherche un modèle économique.

Ce DemoDay ne pouvait d'ailleurs pas mieux tomber juste après l'annonce, contestée partout dans le Monde, du Président américain, de ne pas appliquer l'accord de Paris sur le climat. Le C40 qui réunit les 40 plus grandes villes mondiales, dont la Maire de Paris assure actuellement la présidence, a décidé de riposter et de maintenir ses engagements pour le Climat. Dans les outils à leur disposition, le programme DataCity, déjà répliqué à Casablanca, va donc être amené à être déployé dans ces villes.

La façon dont les données - et tout le numérique - peuvent être mobilisées pour contribuer à atteindre des objectifs environnementaux n'est pas nouveau, mais GreenSI pense qu'elle est maintenant mieux perçue par tous.

Le numérique est le moteur qui fait émerger, en masse, un ensemble de solutions, sans pour autant trouver leur origine dans la réponse à un problème commun. Une "cacophonie technologique" de plus en plus palpable à travers la presse et les salons spécialisés.
De plus, le numérique a encore plus de potentiel avec le passage de l’internet que l'on connaît, à celui des objets connectés et de l'analyse en masse des données par des algorithmes permettant des analyses de plus en plus rapides voir prédictives.

La transition énergétique est un défi commun dont il manque parfois un moteur pour en construire des réponses. Les accords internationaux sont essentiels pour mettre en marche ce moteur et les villes sont en train de prendre le relais. 

Le numérique est donc sans aucun doute un des moteurs de la transition écologique.

Mais le numérique va devoir aussi répondre au problème qu'il créée lui-même en terme de déchets électroniques et de consommation énergétique.

Pour cela, le numérique devra devenir plus vert (Green IT), un sujet pour GreenSI pas encore assez sous les projecteurs de la presse ni enseigné dans les écoles, et surtout en mettant ses technologies au service d'une gestion plus efficace et plus durable des ressources (IT for green) comme DataCity a démontré par deux fois que c'était possible.

Ce que l'on observe avec cette démarche, au-delà de la technologie, c'est l'émergence d'écosystèmes tout aussi essentiels qui travaillent ensemble et se coordonnent. La feuille de route du numérique dans la ville devrait donc se construire autour de trois axes pour "motoriser" la transition énergétique:
  • des données ouvertes, pour trouver une utilité collective et des services concrets, au-delà des discours de souveraineté et d'égos parfois portés par l'open data.
  • des outils « smart », qui s'appuient sur ces données pour optimiser les processus et imaginer de nouveaux usages. L'économie collaborative a montré la voie et à déjà changé la façon de se déplacer avec le co-voiturage.
  • mais surtout des approches « agiles », donc itératives au niveau local, en réponse à la complexité et l’interdépendance des écosystèmes concernés. Il faudra certainement inventer un nouvel urbanisme pour concilier la planification long terme et l'agilité à court terme.
La ville de demain sera nécessairement durable et la transformation numérique est déjà à son service pour relever le défi. Souhaitons-lui qu'elle réussisse.

mardi 6 juin 2017

Va-t-on assister à une bataille pour les données des machines?

Va-t-on assister à une bataille pour les données des machines?

Avec le digital les données prennent de la valeur. Avec les objets connectés leur volume augmente exponentiellement et les batailles pour s'en emparer s'organisent, c'est du moins ce que pense GreenSI.

Dans le B2C, les données du grand public sont généralement considérées comme des données personnelles et sont à ce titre protégées par une réglementation qui s'adapte et se renforce en Europe (GDPR). Quand les GAFAs créent des business pour les valoriser, ils obtiennent ces données des consommateurs eux-même qui leur en abandonnent les droits, volontairement ou forcés, en échange de services.

La propriété des données d'exploitation

Mais dans le monde des machines et des actifs des entreprises, qui est réellement propriétaire des données ?
La question de la propriété peut paraître étrange, mais nous passons d'un monde où personne ne s'en souciait à un monde ou tout le monde va les réclamer. Et pour GreenSI ce changement de paradigme va révéler des trous dans les règles de gouvernance des données et les moyens pour les protéger ou les partager. La propriété des données des équipements industriels utilisés dans les chaînes de production des entreprises va certainement être un nouveau défi à relever pour beaucoup d'entreprises et certainement pour leur DSI.


En effet, dans l'industrie, la performance des actifs (machines, équipements industriels, ...) est au cœur du modèle économique de l'entreprise. Ce sont les bénéfices de l'IIoT - Industrial Internet of Things.

Nous avons vu dans le billet précédent qu'avec le développement de l'internet des objets - IoT - notamment dans le Cloud, que la maîtrise en temps réel des données des machines devenait un axe important de développement des systèmes d'information de contrôle de cette performance industrielle. 

La question de savoir à qui appartiennent les données est donc liée à qui bénéficiera de cette nouvelle performance.

Et ce qui est vrai dans l'industrie l'est aussi dans beaucoup d'autres industries où les actifs immobilisent des montants importants comme dans l'aéronautique, l'immobilier, ou chez les opérateurs de services urbains (opérateurs des réseaux de distribution, usine de production des utilités,...).

C'est un exemple célèbre revu cette semaine pour expliquer le digital qui m'a fait prendre conscience que la réponse à cette question de la propriété n'était finalement pas si anodine que cela pour la stratégie digitale des entreprises industrielles.
Cet exemple, c'est celui du changement de business modèle des fabricants de moteurs d'avions comme Pratt & Whitney ou GE, qui offrent maintenant la possibilité d'acheter, non plus des moteurs, mais des heures de vols. Le moteur des avions des compagnies aériennes peut donc se louer avec la responsabilité pour le fabricant de le maintenir en permanence en fonctionnement. Pour cela, le fabricant collecte toutes les données de vol sur les avions en exploitation ce qui lui permet avec des techniques informatiques de prédire les interventions de maintenance (voir la vidéo ci-contre).

Avec l'IoT, on assiste donc à la volonté des fabricants d'équipements de garder un accès exclusif aux données pour gérer la maintenance et transformer leur modèle économique.


Mais si l'entreprise fait l'acquisition de l'équipement, elle peut aussi souhaiter garder le contrôle sur ces (ou ses ?) données pour organiser elle-même sa maintenance et peut-être les protéger, car elles peuvent en dire long sur son activité. Imaginez les données d'une chaîne de production d'une entreprise, accessibles par le fabricant des équipements de cette chaîne, qui pourraient arriver, par mégarde ou par revente si rien ne l'interdit, chez les concurrents et les renseigner sur l'activité de l'entreprise via ses données de production.
Bref, comme avec les données personnelles, on peut partir d'une bonne intention mais le diable se cache dans le détail... de l'analyse !

Et puis, entre le fabricant et l'entreprise utilisatrice, peut aussi venir se glisser une société spécialisée dans la maintenance, qui va avoir le même appétit pour ces données car elle pourra les croiser avec des données semblables provenant d'autres fabricants et d'autres entreprises pour lesquelles elle assure le service. Elle va par là créer de la valeur potentielle pour l'entreprise utilisatrice - benchmarks - mais pouvant concurrencer le fabricant, voire aussi révéler des secrets de fabrication.

Pour GreenSI, à l'avenir, les fabricants, les mainteneurs et les utilisateurs, pourraient donc être tentés de vouloir chacun maîtriser les mêmes données de fonctionnement des équipements...

La propriété des modèles

Mais on peut aussi trouver des conflits d'intérêts dans les modèles (2D, 3D, ...) qui représentent (avec des données) l'équipement, son fonctionnement, et ce jusqu'à pouvoir en simuler le fonctionnement virtuellement.

C'est une autre tendance qui se dégage et qui a fait l'objet de la conférence de l'éditeur de Thingworx (PTC) il y a deux semaines, LiveWorx 2017 : l'ère de la convergence entre les actifs digitaux et physiques. 

Les technologies telles que l'impression 3D, la réalité augmentée, la réalité virtuelle, ou l'IoT temps réel ouvrent de nouvelles portes tous les jours entre ces deux mondes, réels et virtuels. Les équipements physiques sont maintenant couplés à leurs modèles numériques et on pourra de plus en plus indifféremment agir sur l'objet ou sur son modèle numérique.


L'aéronautique est très en avance et le prochain "Paris Air Show" fin juin, avec ses exposants venus du numérique, sera l'occasion de faire le point sur l'état de l'art de cette convergence avec un billet GreenSI.

Un concept qui va toucher de plus en plus d'industries et on le retrouve déjà dans la construction avec le BIM - Building Information Modeling - cette notion de partage d'une maquette numérique tout au long du cycle de vie du bâtiment. 

Ainsi, la maquette numérique créée par l'architecte (et rendue obligatoire pour les grands appels d'offres internationaux) est ensuite utilisée et mise à jour sur le chantier de construction, puis transmise à l'exploitant de l'ouvrage jusqu'à sa déconstruction pour en réutiliser les matériaux.

Les actifs numériques , comme les maquettes numériques, ont donc vocation à se développer. La protection des actifs physiques est aujourd'hui bien maîtrisée, celle des actifs numériques beaucoup moins.
En plus, on réalise les difficultés qui s'annoncent pour définir la propriété d'un actif numérique relatif à un équipement. Le coût de modélisation étant élevé, celui qui réalise la maquette numérique va vouloir en réclamer la propriété. Mais une maquette trop parfaite ne reflète t-elle pas l'objet lui même, déjà propriété de son fabricant et qui en cède des droits d'utilisation à ses utilisateurs tout en gardant la propriété ? Et si d'ailleurs vous n'avez pas besoin de l'actif physique, mais uniquement de sa version numérique pour intégrer à votre environnement de simulation virtuel, qui a le droit de vous la vendre ?

Les entreprises doivent donc prendre en compte cette perspective et se préparer à protéger dans des contrats la propriété des données, des modèles, de leur accès ou de l'interdiction de leur accès, sous peine que d'autres ne le fassent sans leur demander leur avis.


Une propriété qui n'a de valeur que si elle peut être protégée pour ensuite mieux en partager les données et développer de nouveaux modèles collaboratifs, dans l'espace et dans le temps, comme le BIM tente de l'installer.
Et puis, tant qu'a renoncer à la propriété des données pour permettre à d'autres l'amélioration des processus de fabrication, de maintenance ou d'exploitation des équipements, autant en tirer un bénéfice, non ? La notion de licence d'accès aux données sera peut-être utile et rémunératrice.

Beaucoup de questions qui feront certainement l'objet de prochains billets au fur et à mesure de l'émergence des premières réussites et certainement des premiers conflits.

samedi 3 juin 2017

L'internet des objets se construit aussi dans les nuages

L'internet des objets se construit aussi dans les nuages

On a pu lire dans le dernier billet de GreenSI comment Google a basculé en dix ans d'une stratégie "Mobile First" à une stratégie "AI first", pour faire de l'intelligence artificielle le cœur de tous ses services et des prochaines interface homme-machine. Cette semaine, nous allons revenir sur les annonces de la conférence Google "Cloud Next" qui s'est tenue en mars de cette année, et faire le lien entre le Cloud, l'IoT et l'IA. Comme le nom de la conférence le suggère, Google y a présenté aux développeurs sa vision de l'avenir du Cloud. Une vision, qui si elle se réalise, ne sera pas sans impact sur les SI des entreprises et la façon de les gérer.

Ce qui a retenu l'attention de GreenSI, c'est la volonté de Google de rattraper son retard sur l'internet des objets dans les entreprises.


Google en retard ? Oui, GreenSI le pense, mais peut-être pas pour encore très longtemps. Aujourd'hui, quand on parle d'internet des objets et que l'on pense à Google, on pense par exemple à Nest, le thermostat connecté racheté en 2014. On peut également penser à Google Home, son interface vocale qui arrive en France à l'été, et qui va monter en puissance pour tenter de rattraper Amazon Alexa. Dans les deux cas, il s'agit d'applications grand public et non utilisées en entreprises.
 
Il y a bien eu fin 2016 l'annonce d'Android Things pour les futur fabricants d'objets connectés, et notamment ceux de la voiture connectée, mais Google n'est pas aujourd'hui encore très présent dans les entreprises sur ce marché estimé à $1420 milliards en 2020. Pour Gartner, en 2017 le marché des particuliers représente 63% des applications IoT en 2017 en nombre (communiqué) mais les dépenses des entreprises représentent, elles, 57% du marché en chiffre d'affaires. Le marché des entreprises créée donc beaucoup plus de valeur autour d'un objet connecté.

Ce segment du marché des solutions informatiques est déjà très occupé par des sociétés spécialisées sur le monde l'industrie (comme PTC qui annonce sa version 8 de ThingWorx et veut en faire le Microsoft Office de l'IoT), mais il attire aussi les convoitises des nouveaux acteurs du Cloud comme Amazon, Microsoft et plus récemment Salesforce. C'est aussi un virage stratégique pour SAP et sa plateforme HANA, un éditeur bien implanté dans l'industrie notamment en Allemagne.

Tous les quatre proposent maintenant une offre de collecte des données des objets connectés industriels : machines dans une usine, réverbères dans une ville ou compteurs d'eau chez les particuliers, pour en remonter les données mesurées régulièrement directement dans leur Cloud. 

Vous l'avez compris, capturer les données c'est ensuite un formidable produit d'appel pour utiliser les autres services Cloud de ces fournisseurs, y héberger les applications métiers qui ont besoin de ces données ou de souscrire à leurs propres services de data visualisation par exemple.

Le Cloud de Google ne pouvait pas laisser passer la combinaison motrice de la 4ème révolution industrielle : Cloud + IoT

C'est donc chose faite puisque Google a annoncé sa plateforme "Cloud IoT" de collecte de données, intégrée avec sa plateforme Cloud et ses autres services. Les atouts annoncés sont la disponibilité, l'interopérabilité avec le monde industriel, et la capacité des infrastructures de Google à absorber et traiter beaucoup de données, car le sujet n'est pas tellement applicatif, mais surtout technique. Les DSI qui regardent ce type d'offres pensent à étendre les capacités (nécessairement limitées) de leurs propres infrastructures.


La tendance observée est donc celle de la poursuite de la convergence "OT" + "IT", dans toutes les activités de l'entreprise. Les OT ("operational technologies") sont les technologies au cœur des chaînes de production et les IT ("information technologies") sont les technologies de l'informatique dites de gestion par rapport à l'autre informatique, dite industrielle. Des informatiques qui parfois ont même chacun leur propre DSI pour leur gouvernance.

Les opérateurs de télécoms connaissent depuis longtemps cette convergence entre ces deux informatiques, celle qui assure la communication (réseau, autocom...) et l'information de gestion (facturation, services...). Les regroupement des deux DSI, celle OT et celle IT, se sont produits au début des années 2000. Internet a ensuite confirmé cette tendance en imposant IP comme protocole unique de communication pour les réseaux et les offres de communication ont toutes convergé. 

Aujourd'hui toutes les entreprises sont confrontées à cette fusion OT+IT, car même les entreprises qui pensaient ne pas avoir "d'OT" les voient apparaître avec l'internet des objets le long des chaînes de production et de livraison, et également avec la multiplication des capteurs (dont les coûts baissent), mais aussi au cœur de la relation avec les clients (box, objets connectés...).
Mixer en temps réel les données des ventes (IT) et de la température ou de l'éclairage des magasins (OT) devient une optimisation de la performance possible pour un distributeur de vêtements ; comme un industriel va lui piloter la qualité de fabrication en fonction (IT) de la température de chauffe d'une machine (OT).

Vous saviez qu'à l'ère du digital, toutes les entreprises allaient devenir des éditeurs de logiciels, on peut désormais ajouter que ce sera avec une infrastructure d'informatique industrielle.

D'ailleurs dans de nombreux cas les capteurs sont déjà là, ce qui va accélérer les applications par rapport au grand public qui doit encore s'équiper en nouveaux objets. Ce qu'il manque c'est de pouvoir y accéder!
La difficulté c'est soit parce que les constructeurs gèrent ces données à un format propriétaire, soit tout simplement parce qu'il n'y a pas de possibilité technique (port, interface, données analogiques...) de les extraire. Mais la capture de ces données avec des "add on" (2) permettant d'ouvrir les données de ces équipements (1) attire de plus en plus de startups qui débordent d'imagination pour réutiliser ces données en dehors des équipements avec de nouveaux services d'optimisation (3). C'est une application concrète de l'opendata, un concept qui est loin d'être réservé aux organismes publics voulant faire preuve de transparence. Dans les cas où l'interface existe et est normalisée, comme dans les véhicules et les camions, c'est encore plus simple.


Tout équipement de l'entreprise qui ne sera pas connecté au Cloud pour pouvoir en lire les données va vieillir en accéléré et devenir un équipement "legacy" de l'entreprise.

De facto, un corollaire est le besoin de renfort de la sécurité des SI des entreprises qui doivent imaginer de nouveaux moyens de défense adaptés à ce nouveau paradigme.

Une fois ces données collectés, Google met en avant la puissance de ses autres services Cloud comme BigQuery pour avoir la capacité de traitement d'importants volumes de données ou ses API de machine learning qui peuvent apprendre de ces données. On retrouve ici la cohérence avec stratégie "AI first" de Google qui propose les outils d'exploitation de ces données et c'est là que Google peut dépasser ses compétiteurs.

Aujourd'hui l'attention est sur la "datavisualisation" et on s'extasie dans les démos de Salesforce voir la température d'un moteur en temps réel sur un smartphone, et on a pas attendu Salesforce pour avoir ce type d'applications dans l'industrie, mais demain la question sera de prédire cette température et d'optimiser la performance en temps réel avec cette prédiction. D'où certainement le partenariat stratégique en Salesforce et IBM pour bénéficier des avancés de Watson, l'IA d'IBM, sur la plateforme de Salesforce.

Et puis ces données vont aussi devenir des photos et de la vidéo qui va demander encore plus de puissance de stockage et de traitements. Les API de traitement d'images et de vidéos (Cloud Vision API)  ont été présentées à la conférence et sont déjà impressionantes pour catégoriser et identifier des objets en temps réel (détection de visages, d'objets, de lieux, de marques dans les photos et vidéos, lecture OCR dans l'image...)

Avec cette perspective de l'IA à la fin de l'équation Iot + Cloud, non seulement Google exploite son avantage pour rattraper son retard, mais il pose aussi une double question à tous les acteurs du SI de l'entreprise : votre infrastructure est-elle prête à affronter les défis des besoins des entreprises numériques et industrielles ? quel est votre plan IA ?

Sans aucun doute, l'internet des objets est certainement en train de se construire dans les nuages.
Artificial Intelligence first!

Artificial Intelligence first!

L'actualité autour de la nomination du nouveau gouvernement d'Edouard Philippe cette semaine nous a peut-être fait passer à côté de la Google I/O, la conférence des développeurs de Google qui s'est tenue du 17 au 19 mai à Mountain View.

GreenSI l'a vue comme la confirmation d'un tournant pour Google, l'intelligence artificielle, pris il y a quelques temps sous la direction de son CEO Sundar Pichai, qui a ouvert avec une keynote très inspirante.

Il y a dix ans, pour le maître de la recherche sur Internet qu'il avait transformée en revenus publicitaires massifs, la bascule vers le mobile était une question stratégique. Les internautes allait de moins en moins utiliser un PC. Sa doctrine était devenue: "mobile first".
Rétrospectivement, on voit que la stratégie d'ouverture d'Android a payé devant iOS et que Google est leader mondial de l'internet mobile, même si le mobile a aussi été une opportunité pour Facebook qui a regagné du terrain sur la publicité en ligne.

Aujourd'hui, c'est sur cette nouvelle IHM que va devenir l'intelligence artificielle sous toutes ses formes, qu'Alphabet remobilise toutes ses divisions avec un nouveau cri de guerre : "AI first" !

L'IA a donc été présente, mais pas toujours visible, dans toutes les annonces majeures des nouveaux produits et services de cette conférence. C'est toute une stratégie de plateformes, de services et d'applications qui est en train de s'installer pour permettre à Alphabet de garder sa position avec l'arrivée de la prochain vague de l'internet, celle des objets connectés et intelligents.

Dans les annonces, l'assistant vocal de Google continue de s'enrichir et vient d'ailleurs de débarquer en français dans Allo sur smartphone. Cet été il sera disponible également dans Google Home, l'objet connecté qui concurrence directement Amazon Echo et son assistant vocal intelligent Alexa qui a surpris tout le monde en 2016 par son succès fulgurant (estimation de 10 millions vendus à fin d'année). Des maisons aux hôtels, la force de frappe d'Amazon en a fait un produit grand public recherche.

La guerre pour l'interface utilisateur ultime est donc déclarée, et comme sur le mobile, c'est celui qui ira la plus vite à déployer son assistant dans tous les terminaux qui aura une position dominante dans les revenus qui découleront des prochains services, par exemple, de publicité ou de conciergerie.

Pour accélérer son développement, Alphabet a donc annoncé la mise en place d'un nouveau département transverse "Google.ai" qui permet en interne comme en externe d'aider les projets avec de l'expertise et une plateforme ouverte de services reposant sur l'intelligence artificielle. Dans ce domaine la puissance de calcul est essentielle et constitue une barrière à l'entrée ce qui rime avec centralisation.

Comme pour Android, la vitesse d'adoption dépendra du nombre d'applications lui-même dépendant de la taille de la communauté des développeurs, d'où les efforts pour diffuser TenserFlow le produit de machine learning développé pour ses besoins propres et mis à la disposition gratuitement de la communauté.

Ainsi, contrairement à l'approche classique des éditeurs, Alphabet ouvre sa recherche et propose à ceux qui veulent se lancer d'utiliser ses applications, sachant que la valorisation viendra ensuite dans les services. 

Ensuite Alphabet cherche à dépasser l'interface vocale avec le visuel (Google Lens), très adaptée au mobile, et qui lui permet de trouver rapidement des synergies grâce à sa domination dans les mobiles. Ainsi avec votre prochain téléphone Androïd dopé aux services de reconnaissance visuelle de Google, vous pourrez pointer visuellement un objet et en extraire en temps réel de l'information. 

Une image vaut mieux qu'un long discours, la bataille pour l'interface homme machine se déroule aussi sur ce terrain!

Alphabet a également annoncé la poursuite de ses investissements dans deux industries qui vont être révolutionnés par l'IA, les véhicules autonomes et la santé. Mais contrairement aux nouveaux produits qu'il créé en innovant là où il n'y avait rien, comme avec les assistants, dans ces industries il y a déjà des acteurs historiques qui vont certainement résister et de nouveaux entrants aux arguments bien rodés comme IBM Watson ou @-health, donc GreenSI avait déjà parlé. La compétition sera donc dure.

Profitons de ce billet pour saluer Valéo, équipementier automobile inconnu du grand public, dont pourtant la vie de chacun dépend puisqu'il équipe entre autres les systèmes de freinage et de gestion du moteur de nombreux constructeurs.  Valéo a donc annoncé il y a 15 jours qu'il allait avoir l'autorisation du ministère de l'Intérieur de l'autoriser à faire rouler un Range Rover sans chauffeur dans les rues de Paris. L'algorithme de Valéo va donc être confronté progressivement à la circulation d'une grande métropole, avec comme point ultime la traversée de la place de l'Etoile. 

Cette annonce est très importante puisqu'elle déplace le centre de gravité du véhicule autonome sur l'Europe et rappelle aux américains que cette industrie est aussi dominée par Renault-Nissan, BMW et Mercedes.

Aux européens maintenant de dépoussièrer les vieux projets ITS - Intelligent Transport Systems - comme ARAMIS, PROMETHEUS, SOCRATES et autres ERTRAC engagés autour de la route intelligente depuis au moins 30 ans et prendre en compte qu'ils ont été pris de vitesse par Google et Tesla en seulement 10 ans.

Par exemple pour améliorer la logistique des villes ERTRAC, dont la roadmap figure dans le schéma ci-dessous, pourrait peut-être aussi penser à des flottes de drones ?


En tout cas c'est comme cela qu'Amazon y pense en France puisque qu'ils ont annoncé cette semaine l'ouverture du centre de développement du programme Prime Air à Clichy en région parisienne. Un centre qui va devoir inventer les logiciels de gestion des routes aériennes des drones entre celles des avions et celle des camions, reposant certainement sur beaucoup l'intelligence artificielle.

L'avenir reste donc à écrire. Voilà un sujet de réflexion et d'amélioration pour engager des projets numérique ambitieux, et espérons pragmatiques et opérationnels, au niveau européens comme Airbus ou Ariane nous y avait habitué.

Mais revenons en France avec notre nouveau secrétaire d'Etat au numérique, Mounir Mahjoubi, qui a trouvé dans ses tiroirs en prenant son poste le rapport "#FranceIA". La stratégie de Google est certainement le signal de remettre ce dossier sur le dessus de la pile, à côté de celui de la transformation numérique des TPE/PME, car si il y a des domaines où c'est bien le rôle de l'Etat d'être visionnaire et de faciliter l'émergence d'industries (en tout cas de ne pas l'empêcher), l'Intelligence Artificielle est certainement tout en haut de la liste.
Pour être leader dans les techniques d'IA la France est très bien placée, c'est ce que montre le rapport #FranceIA, mais avec le risque de développer la valeur ailleurs. Google qui ouvre sa technologie et sa recherche montre bien que l'essentiel de la valeur n'est pas ici mais dans les services et les nouvelles industries qui vont émerger.

Pour être leader dans les services d'IA il faut être leader dans la captation de données. Seules les données massives et la répétition permettront aux machines d'apprendre assez vite pour dépasser l'homme dans certaines tâches. Les réseaux sociaux où s'échangent la majorité des données de l'Internet sont presque tous contrôlés par des américains ou des chinois (il y a bien Blablacar...), leur donnant un avantage indéniable pour contrôler les futurs services intelligents aux personnes.

Mais la France et l'Europe peuvent cependant encore capturer les données de la vague suivante de l'internet, celles des objets et des machines. C'est donc dans la transformation numérique de l'industrie, de la ville, de la route, de la voiture ou de la maison, dopée aux objets connectés et à l'intelligence artificielle, que se cachent peut-être les géants européens de demain si on prend aujourd'hui les bonnes décisions d'investissements.