mardi 21 février 2017

L'intelligence artificielle pourrait grandir sans contrôle, sur les gisements de données

L'intelligence artificielle pourrait grandir sans contrôle, sur les gisements de données

Cette semaine l'actualité de Facebook, Google, du Parlement Européen et de l'Assemblée Nationale, nous donne l'opportunité de poursuivre la réflexion sur l'intelligence artificielle qui avait été lancée le mois dernier (Engageons la réflexion sur l'intelligence artificielle).

L'IA n'est pas une technologie neutre. Comme le traitait le dernier billet sur la blockchain, l'IA est une technologie de transformation qui remet en question l'architecture même des systèmes d'information et, on va le voir, aussi de l'économie du travail et de la société.

Mais contrairement à la blockchain qui promet de faire émerger des écosystèmes très décentralisés, reposant sur la confiance, sur une lisibilité totale des registres partagés et une certification des transactions, l'IA nous promet au contraire une extrême centralisation sur des plateformes, et un manque total de transparence sur les décisions ou les algorithmes. Alors sans surprise, avant même d'être opérationnels à grande échelle, les systèmes à base d'IA n'inspirent pas confiance et font déjà couler beaucoup d'encre. En tout cas assez pour que GreenSI se penche à nouveau dessus.

Une Intelligence Artificielle bienveillante ? 

Commençons par Mark Zuckerberg, qui cette semaine attire toutes les attentions en signant un billet Facebook "Building Global Community" pour rassembler sa communauté mondiale et aller plus loin dans une communauté qui partagerait encore plus de valeurs.
Pour lui, Facebook peut aider à créer des communautés plus sûres, mieux informées, plus engagées et inclusives, pour répondre au déclin de certaines institutions traditionnelles en perte de vitesse. Un message très politique, au sens premier du terme - l'organisation de la Cité (numérique) - et peut être même le premier message politique envoyé à 2 milliards d'individus utilisant une plateforme numérique (en supposant qu'ils parlent tous anglais...). La photo utilisée ne le met pas sur la tribune (mais on le devine) et les symboles affichés sur l'écran représentant les 5 objectifs que tous regardent, sont largement repris partout dans son billet.


Ce qui a retenu l'attention de GreenSI n'est pas la teneur politique de ce message mais plutôt le sujet sous-jacent de l'intelligence artificielle positionnée pour atteindre au moins un des objectifs, celui de la sécurité des communautés.
Pour Mark Zuckerberg, l'IA est une formidable opportunité pour comprendre ce qui se passe en permanence dans la communauté et en améliorer la sécurité, par exemple en analysant automatiquement les images publiées, et aider à la modération. L'enjeu sécuritaire pour Facebook est de stopper rapidement la diffusion de fausses informations, de photos choquantes ou de promotion du terrorisme par exemple, mais aussi de gérer de façon individuelle la sensibilité des utilisateurs sans avoir à censurer totalement le contenu qui peut les choquer individuellement. 

L'intelligence artificielle, dans laquelle Facebook investit massivement, est donc vue comme un filtre bienveillant au cœur de ses algorithmes de sélection, et en dernier recours une police "au-dessus" du réseau, toujours en alerte pour détecter les infractions aux règles établies. Ensuite l'IA passe la main à l'équipe de modération, qui en "tribunal des publications" fait appliquer les règles et peut décider de supprimer un post ou bloquer un utilisateur. 

Mark Zuckerberg fait bien attention à ne pas positionner l'IA comme agissant directement, mais aidant les humains à prendre des décisions.

Une Intelligence Artificielle militarisée ? 

Google s'est lui exprimé cette semaine à la conférence sur la sécurité RSA 2017 (couverte par ZDNet US), via Eric Schmidt le Directeur Exécutif de sa maison mère Alphabet. Pour lui, la recherche en IA ne doit pas être faite dans les laboratoires militaires, ni dans des laboratoires d'entreprises fermés, mais dans des laboratoires ouverts ("open labs").

On en déduit que, pour Eric Schmidt, Facebook ne devrait donc pas se contenter de réfléchir seul à comment faire le bien de sa communauté avec de l'IA, mais devrait aussi publier son code en open source pour favoriser cette ouverture. C'est ce que Google a fait avec TensorFlow, une librairie open source pour l'apprentissage des IA disponible pour tous. 


Mais cette vision pacifique des progrès de l'IA a peu de chance de se produire. Elle pose même la question de la réelle sincérité d'un Eric Schmidt dont l'ouvrage "How Google Works" il y a quelques années, ne faisait aucun doute sur son influence auprès des dirigeants de la planète, dont les militaires US qu'il conseille. 

À l'Assemblée Nationale, le colloque "Intelligence artificielle : des libertés individuelles à la sécurité nationale" qui a eu lieu mardi dernier et où Jean-yves Le Drian s'est déplacé en personne nous amène une toute autre perspective. Pour le Ministre de la Défense, l'enjeu est celui d'une troisième rupture technologique, après la dissuasion nucléaire et l’explosion du numérique, pour garantir la supériorité et la sécurité.

C'est une vision de l'IA au coeur des combats de demain qui opérera des drones et des robots, avec des capteurs ou des véhicules capables de traiter localement l’information, capable d’élaborer une stratégique de protection ou de riposte. Outre l'enjeu géostratégique, la France étant un fournisseur mondial de systèmes d'armes, elle ne devra pas non plus rater cette révolution pour maintenir la compétitivité à l'export de son arsenal. On rejoint ici les enjeux de toutes les entreprises pour s'adapter à un mode digital.

Une Intelligence Artificielle toujours débranchable ? 

Comme le faisait remarquer sur les réseaux sociaux Hubert Tournier, ex-DOSI du Groupement des Mousquetaires, cette idée de transparence du code des IA est vraiment dans l'air du temps. Hubert Tournier la juge cependant très insuffisante car ne regarder que l'algorithme quand on utilise le Machine Learning, c'est oublier de prendre en compte les limites de la compréhension des modélisateurs, la qualité des données injectées, le processus d'apprentissage initial et l'interaction avec le monde réel. La différence entre l'inné et l'acquis !

La capacité à "nourrir" l'IA avec des données, à l'éduquer, est aussi importante que la construction initiale. L'exemple de Tay, l'IA de Microsoft détournée par des internautes l'année dernière, qui est devenue raciste par apprentissage sur les réseaux dès son lancement, doit nous y faire réfléchir. Les éducateurs ont donc une co-responsabilité sur le résultat produit par l'IA.


Il va donc être difficile de réguler uniquement avec du préventif, mis en oeuvre avant la mise en service opérationnelle puisque elle peut être détournée. On aura donc aussi affaire à de la régulation par "débranchement" après coup. C'est ce scénario dont se sert régulièrement Hollywood : une IA forte qui saura se répliquer de façon autonome et empêcher ainsi son débranchement. Une telle technologie n'est bien sûr pas encore à l'horizon et relève pour l'instant du fantasme.

La bonne question est donc celle de la régulation, avant et après sa mise en service, celle de l'inné et celle de l'acquis.

Une IA au coeur des gisements de données ?

Le Sénat (plus précisément l'OPECST - Office Parlementaire d’Évaluation des Choix Scientifiques et Technologiques) s'est lui posé la question de l'intelligence artificielle il y a un mois avec quatre tables rondes ouvertes à la presse le 19 janvier, la veille de l'annonce du plan "France IA" dont GreenSI a déjà parlé dans son billet précédent sur l'IA. Les thèmes couvraient le périmètre de l'IA, la stratégie de recherche, les enjeux éthique, juridiques et sociétaux.

Cette dernière table ronde avait invité Laurent Alexandre, spécialiste des sciences du vivant et des bio technologies, président de DNA Vision, mais aussi créateur du site Doctissimo. Ce visionnaire de l'évolution du travail dans une monde technologique, met en avant deux points très pertinents:
  • l'avantage compétitif de l'intelligence artificielle par rapport à l'intelligence biologique. Une fois mise en place, elle opère à coût quasi nul par rapport aux humains payés pour produire les mêmes réflexions et prises de décision. C'est l'avantage des plateformes, par rapport aux robots, domaine où le politique comprend mieux comment taxer des unités d'oeuvre. L'annonce de la fintech italienne Euklid d'offrir les services d'une banque traditionnelle entièrement gérée par une intelligence artificielle s'inscrit dans ce domaine. En France, le Compte Nickel qui est plus une plateforme technologique qu'une banque doit certainement aussi y penser pour les années qui arrivent...

  • l'intelligence se créée là où il y a beaucoup de données car un mauvais algorithme avec beaucoup de données est supérieur à un bon algorithme avec peu de données. C'est là que l'on peut détourner les mauvais algorithmes en apprenant à l'IA d'autres résultats une fois qu'elle est mise en service comme dans le cas de Tay.
Cette position à le mérite de poser le véritable coeur du débat à venir sur l'IA. L'IA va remplacer le travail de ceux qui seront concurrencés par sa mise en œuvre, à priori là où il y a beaucoup de données à traiter, et elle va valoriser celui de ceux dont le travail lui sera complémentaire.

Le lien entre data et IA a été fait depuis longtemps par les acteurs du numérique. Dans le B2B, la division Watson d'IBM créée pour le traitement intelligent des données, est aujourd'hui devenue IBM Watson IoT, celle qui traite aussi des données capturées par l'IoT qui vont croître exponentiellement. Dans le B2C, Google, via Google Maps et Facebook via sa plateforme homonyme, capturent aussi des données en masse et notamment des photos, pour nourrir l'apprentissage de leur futures IA.

Vers quelle régulation aller ?

L'enjeu sociétal de l'IA est donc certain et va de pair avec le déploiement d'infrastructure de collecte de données. Pourtant aujourd'hui, ce sont les robots qui sont sous le feu des projecteurs des politiques, comme le montre l'adoption cette semaine par le Parlement Européen d'un texte déposé en janvier sur le régime légal à appliquer aux robots. Une lettre de mission pour que la Commission Européenne s'empare du sujet et légifère dans les Etats de l'Union Européenne.

Mais les robots sont du hardware, or le hardware progresse moins vite que le software. La question de la régulation de l'Intelligence Artificielle à grande échelle arrivera donc certainement bien avant celle des robots.
Aujourd'hui le privé et les associations de chercheurs comme celle des signataires des « 23 principes d'Asilomar » (dont l'astrophysicien Stephen Hawking et Elon Musk, patron de Tesla et SpaceX) sont les plus avancés en matière de réflexion sur l'éthique de l'intelligence artificielle. Les robots monopolisent les débats mais ne représentent qu'une faible partie des enjeux autour de la régulation de l'intelligence artificielle.

Le politique est-il en train de se faire dépasser par ce sujet comme lors de la révolution précédente du numérique ?
Qui sera le prochain "Uber de l'IA" qui déclenchera partout des manifestations des peuples pour souligner le manque de cadre de l'intelligence artificielle ?


mardi 14 février 2017

La blockchain va-t-elle tout disrupter? Pas si vite...

La blockchain va-t-elle tout disrupter? Pas si vite...


Dans un billet récent (Entreprise du futur: arrêtons de parler de technologie) que vous avez particulièrement apprécié (si j'en crois les statistiques de lecture), GreenSI se demandait si cela avait encore un sens de parler de technologies et non d'usages? 

Cette semaine on va revenir sur le buzz qui entoure une technologie certainement prometteuse, ou peut-être pas d'ailleurs : la blockchain

La blockchain, c'est la technologie au cœur du bitcoin et de plusieurs autres monnaies virtuelles. Ce sont des monnaies administrées en dehors du système bancaire - car ce sont des livres ouverts - qui enregistrent toutes les transactions en toute confiance, car de manière vérifiable et permanente. Elle est apparue sur les radars des technologies disruptives en 2015 (La blockchain sur le radar des banques... mais pas que) quand on a imaginé son usage au-delà de la monnaie.

Cette technologie est très adaptée à la gestion des contrats, des transactions et de grands registres. Elle a donc certainement le potentiel de redéfinir une économie mondiale capitaliste qui repose principalement sur ces objets pour définir la propriété, l'identité ou les interactions entre acteurs économiques. Sur ce potentiel, il n'y a donc finalement aucun doute.
En revanche, on peut se poser la question de la vitesse à laquelle peut se produire cette révolution. Et là, GreenSI n'est pas toujours en phase avec ceux qui en parle pour demain.

Le raisonnement est simple. La blockchain fait partie des technologies qui construisent les architectures des systèmes d'information. C'est comme les API qui gèrent les échanges entre applications, ou même les protocoles de communication de réseaux qui gérent les échanges entre machines, ou encore l'opendata qui promet de faire circuler librement des données entre les acteurs dans les villes intelligentes. 

Or, les architectures des systèmes d'information ne se changent pas en une nuit !

La durée de vie moyenne des applications est de l'ordre de 7 ans, celle des architectures certainement plus proche du double. À titre d'exemple, on est passé du client serveur (1980) à l'internet (2000) en vingt ans, et encore, de nombreux mainframes existent toujours. 

L'adoption du Cloud va atteindre les 10 ans et la prochaine architecture de l'internet, celle de l'internet industriel des objets commence à peine (Industrial IoT) et ne sait pas encore comment elle va gérer 30 à 50 milliards d'objets en 2020.

Pour GreenSI, il y a donc peu de chance que les blockchain transforment du jour au lendemain les architectures des banques, des notaires ou des bourses, pour ne citer qu'eux.

Bien sûr, il y aura des succès et des échecs qui, comme le bitcoin, vont intégrer en un seul système l'architecture, les applications et les usages, sans remettre en cause l'existant mais en cherchant à le "disrupter". Ces succès accelèreront la prise de décision, domaine par domaine, sur les enjeux et le potentiel de cette technologie. Pour "cracker le code", ils vont dans un premier temps absorber les financements du capital risque qui ont commencé en 2013 et les investissements des banques comme nous le rappelle le cabinet CBInsight dans ses études régulières sur les investissements des VCs.



En revanche, le remplacement à grande échelle de, par exemple, l'architecture juridique et technique des actes de propriété en France, se fera à la vitesse adminissible par la société et non à celle possible par la technologie. Et dans le cas de figure cité, peut-être jamais ! On se rappelle tous que la loi Macron n'a même pas réussi à réformer le numerus closus de la profession en 2016 et créer les 1800 nouveaux offices de notaires attendus par les Français. Alors de là à dépoussiérer l'architecture de leur système d'information, ne nous emballons pas trop vite...

Les secteurs où des usages de la blockchain sont identifiés sont par exemple la banque (tenue de compte), les paiements et transferts d'argent, les marchés d'actions, les droits de propriété, les diplômes, la cybersécurité, les votes, les allocations sociales, les programmes de fidélité, la location de biens, les transactions des "objets" de l'internet des objets et notamment la gestion de l'énergie... 

La capacité à remplacer l'architecture des différents secteurs est donc certainement une variable clef à ne pas oublier pour déterminer la vitesse d'adoption de la blockchain. Dans les domaines où un existant bien établi et juridiquement encadré existe, il n'y aura certainement pas de révolution avant 10 ans. 

Un autre critère d'accélération à regarder est l'ampleur des économies possibles car elle attire la convoitise, puis les investissements et enfin l'innovation.
Une technologie permettant de reposer les bases d'une architecture d'un système vise une économie radicale.

Pour McKinsey&Co qui a publié le mois dernier une étude sur la blockchain centrée sur l'assurance et la banque, le déploiement commercial de la technologie se fera progressivement d'ici 2021 pour les cas d'usages qui ont le plus de potentiel. Les expérimentations se feront en 2018 et selon la "courbe de hype" du cabinet Gartner, on saura au mieux en 2020 quels sont les usages qui permettront d'atteindre le "plateau de la productivité".

Le secteur ayant le plus de potentiel étant celui des transactions transfrontalières d'entreprise à entreprise, générant entre 50 et 60 milliards de dollars d'économies, suivi du financement du commerce avec 14 à 17 milliards de dollars. Les sept cas d'usage qui ont le plus de potentiel génèreront de 80 à 110 milliards de dollars d'économies, donc autant d'opportunités pour les entreprises ou les startups qui sauront les réaliser. À titre de comparaison, bientôt 1 milliard aura été investi dans les startups de la blockchain comme le montrait le graphique précédent.

Donc oui, la blockchain est promise à un bel avenir, mais sa capacité de disruption est certainement sur-vendue.

Cette capacité sera localisée dans certains domaines dont elle reposera les fondements de l'architecture, ce qui prendra du temps - un peu comme l'internet d'ailleurs, qui a balayé les réseaux privés pour un réseau communautaire mondial basé sur TCP/IP.
Cela ne sera pas en quelques semaines, mais en 3 à 5 ans pour les applications les plus rentables et certainement jamais pour beaucoup d'autres.

Les notaires peuvent donc dormir tranquilles et continuer de rêver de transmettre leur étude et son système d'information aux petits-enfants de leurs enfants...

jeudi 2 février 2017

Connaissez-vous votre jumeau numérique (digital twin) ?

Connaissez-vous votre jumeau numérique (digital twin) ?

Une des tendances des projets dans le domaine de l'internet des objets semble être celle du "digital twin". Pourtant, on rencontre encore peu ce concept dans l'actualité française (sauf sur ZDNet ! - par exemple içi) alors qu'il est très présent en Allemagne, Industrie 4.0 oblige, ou aux Etats-Unis. Il n'en fallait pas plus pour motiver GreenSI à faire la lumière sur ce jumeau numérique qui, comme la prose de M.Jourdain, est peut-être déjà plus présent qu'on le pense dans les projets de beaucoup d'entreprises et on le verra aussi, de collectivités locales.

Le jumeau numérique des personnes ("digital moi") est une notion qui est maintenant bien comprise en France.



Les traces numériques laissées par nos jumeaux sont bien réelles et les "chasseurs de primes" du monde virtuel les suivent sans vergogne jusque dans vos données personnelles. La CNIL et l'ANSI veillent et informent le grand public sur les dangers de la non maîtrise de ces vases communicants physique-numérique, par exemple quand des cambrioleurs peuvent vous suivre sur les réseaux sociaux et voir que vous êtes loin de chez vous.

La notion de "Digital workplace" commence aussi à s'installer pour outiller les salariés, les rendre plus efficaces dans leurs interactions virtuelles, et améliorer leur productivité dans le monde réel. Cette semaine c'était d'ailleurs la publication de la 9ème Edition de ce qui est la référence en matière de "Digital Workplace", l'étude annuelle de Lecko de tous les outils de collaboration virtuelle, notamment les réseaux sociaux d'entreprise, qui transforment le travail en entreprise. 

Mais qu'est-ce que le jumeau numérique d'un objet ?

Ce jumeau numérique est un compagnon informatisé d'un objet physique, qui modélise en partie cet objet physique (d'un simple nom jusqu'à un modèle 3D sophistiqué) et utilise des données de capteurs installés sur cet objet physique pour représenter son état, sa position... quasi temps réel. Quelqu'un qui ne serait pas dans le monde physique de l'objet (tout simplement à distance) pourrait quand même suivre l'évolution de l'objet en explorant le monde numérique.

Un exemple qui existe depuis plusieurs années est celui de la raquette connectée (Play) de la marque Babolat. Son capteur interne dans le manche lui permet de mesurer les vibrations de la raquette lors d'un match et de représenter en temps réel tous les impacts de balle, les angles, la force, le côté qui frappe (coup droit ou revers)...

Un coach du joueur pourrait être tranquillement installé dans la loge avec son smartphone pour donner des conseils pour améliorer le jeu à la fin du match... même sans avoir vu le match. D'ailleurs le coach peut lui même être un coach virtuel, un programme informatique, qui analyse la partie par rapport à d'autres parties ou la progression dans le temps du joueur.

Babolat a aussi un produit (Pop) qui n'est qu'un bracelet connecté autour du poignet du joueur car en  analysant son bras en permanence il y a déjà beaucoup de données exploitables. Ce bracelet appartient au jumeau numérique du jouer et la raquette a aussi son propre jumeau.

A l'avenir les jumeaux d'humains et d'objets vont de plus en plus interagir dans le monde virtuel. 

Quittons le grand public et demandons nous quels sont usages des "digital twin" en entreprise ?


L'entreprise va cibler les enjeux d'amélioration de la performance des objets, des équipements, des systèmes ou des usines.
Supposons donc que l'entreprise synchronise en permanence avec une plateforme les données entre des équipements et leur jumeau numériques accessibles par divers interface (smartphone, tablette, lunettes, écrans muraux...). Les usages sont multiples comme:

  • de projeter les données numériques quasi temps réel du jumeau virtuel sur l'objet physique (en utilisant la réalité augmentée). Par exemple un technicien qui passe devant une pompe peut avec son simple smartphone lire le débit et le temps de marche de la pompe, en fait de son jumeau virtuel accessible depuis son smartphone.
  • de manipuler l'objet numérique pour se former ou préparer une manipulation sur le "vrai" objet physique (en utilisant la réalité virtuelle). C'est par exemple un technicien qui visite virtuellement une installation et se prépare au réglage d'une chaîne de production.

    Si le modèle qui fait réagir le jumeau virtuel est sophistiqué, la simulation ira au delà de la visualisation de données et permettra de piloter le jumeau comme dans un jeu vidéo. Ce n'est d'ailleurs pas un hasard si l'un des acteurs, PTC, a annoncé fin 2016 un partenariat avec Unity, le moteur de jeu vidéo multi-plateformes le plus utilisé.
  • de collaborer à plusieurs autour de ce jumeau numérique (en réalité virtuelle). L'un des acteurs peut guider les autres qui voient sur leur écran ou leur casque, ce que voit cet acteur. Ce dispositif est complété par un dispositif audio pour qu'ils se parlent en direct. C'est par exemple un groupe de techniciens qui visite virtuellement l'installation précédente.
  • d'analyser le jumeau numérique pour comprendre, prédire et optimiser les performances des actifs physiques sans avoir besoin d'embarquer le logiciel dans la machine comme on l'aurait fait il y a quelques années. Couplés à des algorithmes d'auto-apprentissage (machine learning) on peut même optimiser sans définir de modèle préalable.


  • Ce sont par exemple les systèmes de pilotage de la distribution d'eau potable, comme Aquadvanced™, celui de SUEZ. Ils permettent par modélisation hydraulique et capture des données par secteurs, d'optimiser le rendement du réseau a tout moment.
Sans surprise, le digital twin est un concept développé dans l'industrie avec les acteurs majeurs de l'informatique de ce secteur comme le français 3DS, l'allemand Siemens, les américains PTC et GE Digital et qui ouvre donc de belles perspectives de développement des produits.
Réservées au départ aux produits complexes et chers (notamment l'aéronautique), ces technologies sont aujourd'hui accessibles pour des produits aussi "simples" que des raquettes de tennis qui se commercialisent à moins de 400€.

Digital city, ma ville jumelle

GreenSI s'est aussi posé la question d'appliquer ce modèle de l'industrie à un système complexe que l'on connaît tous très bien, la ville. Petite, moyenne ou grande métropole, elle se modélise dans l'espace et l'utilisation des GPS a radicalement accéleré sa modélisation 2D, et pour certaines en 3D.
C'est par exemple le cas de Rennes Métropole très engagée depuis longtemps dans la représentation, d'abord cartographique et maintenant digitale de la ville, par exemple pour explorer ses projets qui vont la transformer jusqu'en 2030 (Rennes 2030).

On peut aussi citer la Ville de Paris qui a lancé une consultation pour modéliser les 2500 km d’ouvrages souterrains d’assainissement (dont 2300 km de galeries visitables) qui assurent la collecte et le transport des eaux usées et pluviales sous Paris. Les entreprises travaillant pour la Ville de Paris pourront prochainement visiter virtuellement ces ouvrages avec un navigateur web et ainsi mieux préparer leur rencontre ultérieure, avec le jumeau physique cette fois.

Mais ce qui a récemment retenu l'attention de GreenSI c'est l'énergie mise par Google, en lien avec sa division SideWalkLab, dédiée à la "smart city", de modéliser toujours plus loin le jumeau de la ville.
Google maîtrise déjà la ville en 3D avec ses GoogleCars, le trafic, les zones d'affluences (apparues l'été dernier),... autant de moyens de captures de données automatiques pour construire le jumeau numérique des villes sur ses serveurs.

Mais Google exploite aussi le "crowdsourcing", façon de "Waze" ou "Open Street Map" et anime la collecte de données de Google Maps avec des outils intuitifs pour que chacun contribue (voir photo). Les (+) représentent des lieux où il manque à Google des données comme les horaires d'ouverture, des photos ou le "rating" de l'endroit. En cliquant dessus les ambassadeurs locaux de Google peuvent les renseigner et gagner... des points !

Personnellement j'ai remarqué que la pression de Google pour récupérer ces données s'était accentuée. Dans les 15mn après la prise de vue sur un lieu d'intérêt, Google me demande de rajouter mes photos à Google Map, et me propose régulièrement de vérifier des informations qu'il a sur les lieux dont je suis proche. La collecte massive d'images permettra certainement ensuite de mettre à jour le modèle 3D et surtout le modèle décisionnel avec des données qualitatives.

Le dernier service lancé par sa division SideWalk est le contrôle du stationnement de surface. D'un côté Google valorise l'information sur les disponibilités des places de parking qu'il détecte, de l'autre il propose aux villes de trouver les habitants indélicats qui ne paieraient pas leur parkmètre. Un domaine qui va d'ailleurs être prochainement privatisé en France en 2018.

Mais Google n'est pas le seul acteur de la donnée en ville. On imagine qu'Uber, qui développe ses propres cartes, étant toujours prêt à nous inventer un nouveau service "Uber-X", est déjà dans les starting-blocs pour la collecte de données et prendre des positions sur la logistique du dernier kilomètre.
Ceci devrait faire réfléchir les métropoles sur la vitesse avec laquelle d'autres sont en train de construire leur "city digital twin" à leur place...

L'espace urbain remodelé par son jumeau numérique

Le champ d'application dépasse largement le parking des voitures: terrasses de café, marchés, parcs...
L'espace public est aujourd'hui vu comme une source de coûts financés par des impôts mais il a pourtant bien une valeur économique. A l'heure où les villes repensent leur modèle économique, la vision de Google d'en optimiser l'usage, et donc la valeur, peut séduire les collectivités pour imaginer la location de l'espace urbain en général (pas que des places de stationnement) comme une moyen de les rentabiliser.

GreenSI va même plus loin ! Imaginons : plusieurs acteurs sont intéressés par le même espace à un moment donné. L'un par exemple pour installer une extension de sa terrasse de restaurant, l'autre pour organiser un espace de vente de glaces temporaire. On peut imaginer un mécanisme d'enchères qui attribuerait dynamiquement les espaces à celui qui ferait la meilleur offre. Les acteurs susceptibles de louer les espaces indiqueraient à l'avance sur la carte de la ville leur préférences et le prix maximum qu'ils sont prêts à payer en fonction des jours, voire des heures, pour chaque espace.

Bref, vous avez certainement reconnu le mécanisme d'AddWords qui permet d'acheter des mots-clefs d'une recherche Google et d'afficher les publicités de ceux qui payent le plus sur les espaces du moteur de recherche de Google. GreenSI ne peut pas imaginer que Google n'y ait pas pensé ;-)

Numériser et indexer le monde physique est donc devenu dans tous les domaines un sujet en fort développement, il donc temps de s'intéresser systématiquement à tous nos jumeaux digitaux.