Découvrez ici les 4 derniers billets

Previous
Next

mardi 3 avril 2018

Oui, le digital tue ceux qui ne s'adaptent pas

Oui, le digital tue ceux qui ne s'adaptent pas


Cette semaine le Président Donald Trump s'en est pris ouvertement à Amazon, sur son média préféré Twitter, en l'accusant de tuer le commerce, d'exploiter le bien commun (en l'occurrence le système postal) et de ne pas payer assez d'impôts.

La réaction des marchés a été assez immédiate et l'action Amazon a dévissé de plus de 6%. Les boursiers "achetant la nouvelle" d'une période d'au moins 2 ans de guerre (le reste du mandat de Trump) entre les deux personnes les plus puissantes des États-Unis et ont parié contre Amazon.

En effet, Jeff Bezos est devenu en mars l'homme le plus riche des États-Unis en dépassant Bill Gates

Personne n'est dupe de la posture d'un Donald Trump qui n'aime pas vraiment le patron d'Amazon propriétaire du Washington Post, un journal plutôt "anti-Trump" pendant la campagne électorale américaine.
Mais sur GreenSI on peut quand même se poser la question des fondements du contenu de ce tweet.

En premier lieu, le service postal américain doit certainement avoir une statue en or de Jeff Bezos dans son hall d'accueil tant le e-commerce les a sauvé au moment de la chute du courrier postal. Les colis représentent l'activité en forte croissance et ils se sont diversifiés dans la logistique.

Lentement (20 ans) mais sûrement, l'internet à totalement réorganisé les modes de distribution des produits et services.

Les produits se dématérialisent industrie par industrie. Dans les loisirs, Netflix qui envoyait ses cassettes vidéo par le service postal dans les années 90 est aujourd'hui totalement doté d'une distribution en ligne.
D'ailleurs depuis 2015, Netflix est dans le cloud public... d'Amazon Web Services. Si vous aviez encore un doute sur la vision stratégique de Jeff Bezos, vous êtes fixés.

Netflix c'est l'exemple préféré de GreenSI pour parler de ceux qui expliquent qu'ils préfèrent posséder leurs serveurs, ou qui construisent des clouds privés moins automatisés que l'offre publique du marché. Mais c'est un autre débat.

La distribution s'hybride donc entre les réseaux physiques et les magasins en ligne, pour offrir la meilleure expérience utilisateur personnalisée et les délais de livraison les plus courts. La logistique de ces modèles se complexifie donc car elle repose sur des entrepôts moins centralisés et plus près des clients, par exemple un réseau de magasins en ville, comme pour le "drive", auquel d'ailleurs peu de grands distributeurs croyaient au départ.

Ceci va donc changer les flux logistiques et donc l'offre logistique des sociétés du secteur qui vont devoir s'adapter. C'est dans ce contexte qu'il faut comprendre le partenariat annoncé cette semaine entre Monoprix et Amazon. Certes, Amazon a trouvé de quoi basculer encore plus de ventes (de frais) sur le modèle en ligne, mais surtout a trouvé le réseau des magasins Monoprix pour stocker les produits et délivrer au plus vite. Monoprix, lui, s'est également diversifié sur internet plus tôt dans l'année en faisant l'acquisition de Sarenza (vente de chaussures en ligne). Ceci va lui apprendre le métier de e-commerçant, un atout pour gérer sa future relation avec Amazon...

Ce modèle de la distribution du frais peut paraître une évidence aujourd'hui, pourtant cela fait plus de 15 ans que l'industrie le cherche !

La première figure du web à l'avoir tenté (trop tôt et en écoutant pas assez ses clients) c'était WebVan qui a fait faillite en 2001 après 5 ans d'opérations.
Imaginez une camionnette (van) reliée à votre souris pour vous livrer en moins de 24h, c'était la promesse que WebVan n'a pas su tenir en gagnant de l'argent malgré un management très expérimenté et une levée de fond record de 440 millions d'euros. Elle a été valorisée 1,4 milliards d'euros avant de faire faillite. Et à cette époque WebVan n'était pas seul à avoir essayé, les autres sont Kozmo, Peapod, HomeGrocer... ont eux aussi levés des centaines de millions de dollars et si vous ne les connaissez pas aujourd'hui c'est parce qu'ils sont morts depuis.

Amazon s'y est ensuite frotté avec Amazon Fresh et en est arrivé à la conclusion que d'avoir un réseau de magasins était la clef. Il a racheté WholeFood l'an dernier et s'est lancé dans des magasins Amazon Go d'un nouveau genre, pour encore mieux comprendre le comportement d'achat de ses clients en ayant leur accord pour les tracer pendant leurs achats en échange de ne plus attendre à la caisse.

Est-ce que Amazon tue le commerce comme le prétend le Président américain ?
La vérité est plutôt que les modèles du commerce qui ne s'adaptent pas disparaissent tout seuls car leurs clients se détournent d'eux. Fallait-il ne pas innover pour ne pas détourner les consommateurs ? Il est surprenant que ce soit le Président des États -Unis, pays qui a mis le capitalisme et le client au cœur de son modèle, qui pose cette question. 

Enfin, pour ce qui concerne les impôts, c'est bien le système d'imposition des produits physiques en vigueur sur la planète qui n'est pas adapté à cette numérisation des produits et des industries. Les bases de la fiscalité du numérique doivent être reposées.

À ce jeu-là c'est d'ailleurs le président américain qui semble avoir été plus rapide que les européens en taxant à 15% les centaines de milliards de bénéfices effectués partout dans le monde par les GAFAs, qui seront rapatriés prochainement aux États-Unis. L'Europe a lancé sa riposte (taxer sur le CA au-delà d'une certaine taille) mais elle a peu de chance d'aboutir. Et puis tant mieux car, comme pour le RGPD, cette riposte risquerait de faire plus de dégâts collatéraux dans les sociétés européennes que dans les sociétés GAFAs visées.

La transformation digitale du commerce passe donc par l'adaptation de sa logistique à la digitalisation partielle ou totale des produits. Les sociétés qui ne s'adaptent pas perdent des parts de marchés, et si ce n'est pas Amazon qui les capture ça peut être n'importe quel autre acteur qui a trouvé la clef d'une distribution rentable adaptée à sa base de clients.

Costco par exemple, distributeur américain, aussi installé en France depuis peu, est en croissance et résiste très bien à Amazon. Son succès : un modèle de magasins-entrepôts "low cost", un modèle d'abonnement des clients pour venir acheter (80 millions de porteurs de sa carte "Cash" dans le monde), et une animation très originale des magasins avec des "chasses aux trésors" pour dénicher les hyper-promos.

Chez Zara, c'est le modèle logistique "J-15" qui cartonne depuis 30 ans. Son fondateur, l'espagnol Amancio Ortega, est d'ailleurs la sixième fortune mondiale devant Marc Zuckerberg de Facebook, preuve que le commerce physique peut aussi monter très haut, très vite.

Sa vision "J-15" transforme une idée en produit étiqueté dans un magasin prêt à être vendu en 15 jours quand les concurrents en étaient à 4 collections par an. L'agilité, poussée à son paroxysme par Zara, fait que, comme pour les "chasses aux trésors" de Costco, le client a le sentiment que s'il n'achète pas aujourd'hui l'offre ne sera plus là demain. Et ça marche !

Dans les deux cas les magasins ont été transformés en portails avec des flux plus fréquents, voire en réseau social. Donc oui Monsieur le Président, le digital tue ceux qui ne s'adaptent pas et les formes pour s'adapter sont très diverses.

Pour l'instant Amazon a su s'adapter avec à chaque fois un coup d'avance, mais Amazon peut aussi rater la prochaine étape qui demandera une plus forte présence physique. En 2011, Catherine Barba (Fédération e-commerce et VAD), publiait un billet visionnaire sur la fin du e-commerce en 2020, ou plutôt la disparition entre le commerce en ligne et le commerce traditionnel. Et bien on y est !

En France, la chaîne France Loisirs tombe depuis quelques années de Charibde en Scylla et annonce cette semaine la réduction de 25% de ses effectifs, entraînant avec elle sa chaîne logistique - son prestataire Setralog basé à Noyelle-sous-Lens - qui va être contraint de réduire lui aussi ses effectifs de 20%. Pour parler de ce drame social, comme Donald Trump, le raccourci de la presse est "Amazon a tué France Loisirs".

France Loisirs avait pourtant une base de 4 millions de clients qui payaient un abonnement pour être membre du club, comme pour Costco, et pouvoir acheter les livres de la sélection. Une base de lecteurs dont les réseaux sociaux auraient rêvé il y 15 ans pour mieux comprendre leurs goûts et personnaliser la publicité. Mais cette base n'a pas été assez fidélisée et est passée à 1,5 millions avec le développement de nouveaux usages de l'Internet qu'elle pas su assez détecter et suivre.

Des usages qui ont aussi impacté les plus gros comme Carrefour et ses hyper-marchés où tout ce qui n'est pas alimentaire peut également s'acheter sur Internet, quand ce qui est alimentaire s'achète plus près. Il va falloir trouver de nouvelles idées pour faire venir les clients en hyper-marché. La Fnac depuis sa fusion avec Darty cherche également à résoudre le même problème mais sans la contrainte de l'alimentaire.

En revanche les magasins en centre ville, ou du moins près des flux de clients, eux prennent de la valeur. Pourtant France Loisirs, dont les e-commerçants ont pourtant vu depuis 2011 la force de son réseau de boutiques en centre ville, n'a pas su trouver l'évolution de son offre pour la rentabiliser. GreenSI ne serait donc pas surpris qu'une enseigne de e-commerce ne rachète prochainement l'enseigne pour ses boutiques.

Est-ce que Amazon a tué France Loisirs ? Je vous laisse répondre à la question vous-même mais pour GreenSI France Loisirs était en avance sur un modèle, aurait peut-être du changer le produit distribué en se rapprochant d'un e-commerçant.

En tout cas il est clair que la distribution vient d'entrer dans une période de forte transformation de son modèle et que les acquisitions vont se poursuivre pour qu'elle se réorganise à l'ère du digital.


mardi 20 mars 2018

La schizophrénie numérique: RGPD où open data?

La schizophrénie numérique: RGPD où open data?


 Une double contrainte est une situation dans laquelle une personne est soumise à deux contraintes ou pressions contradictoires ou incompatibles. Elle exprime donc le fait d'être acculé à une situation impossible, où sortir de cette situation est également impossible. La question que se pose GreenSI cette semaine c'est: n'est-on pas en train de se créer une double contrainte avec le RGPD et les enjeux de l'open data ?

Le terrain de jeu favori de la double contrainte est celui de l'apprentissage, le moment où on cherche à créer et ancrer une fois pour toutes les réactions rationnelles que nous devrons reproduire sans y réfléchir. Les exemples de double contrainte foisonnent dans ce domaine quand un enfant devient prisonnier d'une situation avec un problème insoluble, comme des ordres contradictoires des deux parents. Elle engendre chez lui à la fois trouble et souffrance mentale et est même reconnue aux Etats-Unis comme une cause ou un facteur de la schizophrénie.

Justement, concernant l'utilisation des données nous en sommes à l'enfance, l'adolescence diraient certains. Nous sommes en plein apprentissage de comment maîtriser ce potentiel des échanges de données sachant que les volumes de données disponibles augmentent de façon exponentielle et que demain l'intelligence artificielle nous promet des apprentissages automatiques, à condition d'avoir posé les fondamentaux.



A l'école des échanges de données à l'échelle de la planète, les premiers enfants qui en ont essayé les pouvoirs, ont construit collectivement Wikipedia. Ils ont fait tomber quelques dogmes comme celui de la transmission du savoir par héritage à ses enfants (via une Encyclopédie payée toute une vie à crédit) et ont réussi à trouver un équilibre entre une information de qualité et la désinformation, les processus et le financement pour la maintenir.

Puis les nouveaux élèves de la saison 2.0 de l'Internet sont arrivés dans la cour de récréation. Ils ont construit les principes d'exploitation des données des GAFAs et montré tout leur potentiel de valorisation en s'appropriant eux-mêmes le maximum de la valeur, se jouant même des États pour payer un impôt sur cette valeur.

En faisant ça, ils ont aussi fait tomber quelques dogmes comme celui qu'un service public comme la cartographie et les informations associées partagées pouvait ne pas être assuré par un État (n'en déplaise à Napoléon ou à l'IGN), et que parfois ils arrivaient à le faire mieux que les États eux-mêmes comme cette semaine en rendant accessible les algorithmes de navigation aux handicapés. Bien sûr Open Street Map et l'open source de la saison 1 avaient déjà montré la voie de la cartographie collaborative et continuent d'éclairer le monde ouvert

Mais la clef finalement c'est le GPS, un système de satellites fourni par les Etats-Unis, qui valorise ces données géographiques. Le GPS a ouvert la voie à tout un monde d'offres de mobilité en rapprochant le monde réel (votre position) et le monde virtuel (la carte). Comme par exemple les sociétés de covoiturage dont on va avoir bien besoin dans les prochains mois pour suppléer aux défaillances du service public de transport. CQFD.
Cette semaine le 12 mars c'était également les 29 ans du web saison 1, et son créateur, Tim Berners-Lee, a lancé une nouvelle alerte sur cette situation et a appelé à plus de régulation. Et avouons que pour l'Europe elle est bien fragile cette situation. Espérons que Galileo le nouveau service européen de GPS soit un nouveau départ pour des services numériques européens. Mais dommage que l'Europe aie choisi une autre bataille, celle du RGPD, pour rattraper son retard dans la transformation numérique.

En effet, dans les écoles européennes d'apprentissage du partage de la donnée, c'est le RGPD qui propose une réponse aux GAFAs, en créant les règles de la saison 3 et en nommant la cible à protéger : les données personnelles.

Des règles imposées à tous. Chaque enfant de la saison 3 doit donc se responsabiliser, analyser les données personnelles qu'il veut utiliser et mettre en œuvre tous les mécanismes pour les protéger. Des surveillants parcourront la cour de récréation pour réprimander lourdement ceux qui seraient pris en défaut, jusqu'à 4% de bonbons confisqués chaque année.
Mais aujourd'hui dans cette cour, ce sont les ambassadeurs du RGPD qui expliquent que c'est une formidable opportunité pour l'école et pour la société et tous les conseillers de tout poils, improvisé spécialistes du RGPD, qui se frottent les mains. Amen.
Stanislas et Noémie viennent juste d'arriver à l'école du partage des données, en saison 3.
Ils ont choisi cette école car, depuis 20 ans, leur parents (qui sont allés à la saison 1) leur ont parlé du potentiel des données ouvertes (open data), accessibles et ré-utilisables pour rendre plus transparents et démocratiques les décisions des administrations dans un monde où la sphère publique est omniprésente. Ils leur ont également montré comment l'open data associé au pouvoir des foules (crowdsourcing) est également un formidable moteur de coordination, et comment travailler tous ensemble dans des systèmes complexes, comme pour organiser les données des villes dites intelligentes.
Mais en sortant des premiers cours de la saison 3 sur le RGPD, c'est un petite déception et Noémie commence a ressentir cette double contrainte sur les données personnelles. Elle n'est pas encore paralysée mais reste confuse. 

Les données personnelles ne sont certes pas dans le périmètre de l'open data, mais leur territoire s'agrandit tous les jours à cause des croisements rendus possibles par des technologies de plus en plus sophistiquées.

D'ailleurs Noémie était au Sénat cette semaine, quand la sénatrice de la Gironde a déposé deux amendements pour que les compteurs intelligents Linky ne puissent pas être installés si les utilisateurs s'y opposent. C'est une traduction radicale, et presque littérale, du consentement de l'utilisateur qui est maintenant demandé par le RGPD à partir du 25 mai 2018 en France. Mais pour cela il faut considérer qu'une consommation journalière d'électricité peut, par analyse, devenir une donnée personnelle. De fil en aiguille, et de croisement en algorithme, tout peut vite devenir une donnée personnelle.

C'est toute la question du périmètre potentiel et régulièrement changeant des données personnelles.

Mais ce compteur est aussi un petit peu un bien collectif puisqu'il permettra une meilleure gestion énergétique du réseau notamment avec l'arrivée de moyens de production durables (solaire, voiture électrique, éolien...) directement chez les particuliers. Mais la liberté individuelle s'arrête la où commence celle des autres, et les juristes aussi se frottent les mains pour trancher ces questions à l'avenir...

Stanislas, lui, a beaucoup travaillé sur la valorisation des données à l'issue de son master. Il en arrive à la conclusion que des écosystèmes numériques doivent partager des données pour vivre, y compris des données personnelles, et pour rendre ces systèmes plus performants. Il a aussi étudié la nature et vu comment des sociétés complexes, comme les fourmis, s'organisaient en laissant des traces au sol partagées avec tous les autres membres. 

Quand la performance traite de la publicité en ligne et des plateformes comme Critéo qui permettent d'optimiser l'exposition publicitaire, on peut se dire que ce n'est pas essentiel pour l'avenir de la planète, donc il est prêt à y renoncer. Mais quand la performance traite de la santé des individus ou du réchauffement climatique, il ne voudrait pas y renoncer et même si cela passe par renoncer à quelques données personnelles.
Noémie et Stanislas se sont donc demandés s'il existait "une cause supérieure" qui permettrait de déroger aux nouvelles règles de la saison 3 et quels seraient les élèves qui les appliqueraient. Et bien ces élèves existent ! Ce sont ceux qui invoquent des obligations légales ou une mission d'intérêt public.
Noémie et Stanislas ressentent alors cette injonction contradictoire d'un open data public, promulgué par la loi pour la République Numérique en 2017, qui est finalement le seul territoire où on pourrait justement échapper au RGPD en évoquant une mission d'intérêt public (article 6 - certainement pour laisser le champ libre à la sécurité nationale). Sinon le RGPD va devoir fermer les robinets de toutes les données qui permettraient de remonter à des données personnelles.

Sans surprise, les élèves qui sont encore en salle d'étude pour finaliser l'écriture des décrets d'application de cette loi, s'arrachent les cheveux devant un problème qui, dans les détails, paraît insoluble. Ils sont figés dans l'incohérence, prisonniers d'une contradiction, et les symptômes d'une déficience de communication commencent à apparaître. Ce sont les premiers touchés par la double contrainte.

Le 20 mars, une conférence EFE à Paris sur les données publics et privées va permettre aux participants, juristes, agents de collectivités locales et du privé, de partager leur expérience et de libérer la parole. Une première thérapie de groupe ;-)  

Et puis les élèves qui sont partis avant cette loi et ses futurs décrets d'application vont devoir repeigner finement toutes les données qu'ils avaient déjà ouvertes pour en vérifier la conformité et concevoir de nouveaux traitements selon les cibles pour l'ouverture (chercheurs, grand public). Tout cela aura un coût bien sûr, dans un contexte global d'ouverture gratuite des données. Sans modèle économique on ira pas bien loin à l'avenir.

Dans le secteur privé, au moins les choses sont plus claires. On ne peut pas s'en remettre à une cause supérieure sans se faire confisquer ses bonbons ! Ce sera donc que le RGPD et tout le RGPD, sinon les surveillants viendront vite regarder à quoi vous jouez dans le fond de la cour de récréation. 

Pour ceux qui pensent que le RGPD est une opportunité de se pencher sur les données pour les valoriser, c'est vrai, mais on pouvait déjà le faire avant sans le  RGPD et d'ailleurs certains n'ont pas attendu pour le faire. Et puis le RGPD a un focus sur les seules données personnelles qui ne sont pas nécessairement celles dont on a le plus besoin pour optimiser collectivement des systèmes comme les transports ou l'électricité.

En attendant, pour ne pas perdre votre année 2018, GreenSI vous conseille de vous concentrer sur "les données des machines" et de laisser le soin au juriste de s'écharper sur le périmètres des données personnelles. Pour l'instant aucun règlement n'empêche une machine de devenir plus intelligente en étudiant ses propres données. Alors foncez, après tout ces machines sont peut-être aussi vos salariés de demain !

samedi 10 mars 2018

Organiser sa plateforme de données

Organiser sa plateforme de données

Dans un billet précédent, GreenSI posait la question de savoir si la révolution de la data était vraiment engagée en France, en faisant le constat que la valorisation des données était encore difficile à voir dans les comptes des entreprises alors que la croissance des données est exponentielle. Des freins internes à l'entreprise devaient donc certainement exister, ce que le sondage proposé par le billet a confirmé en faisant de l'organisation et de la plateforme technique les deux freins majeurs rencontrés par les lecteurs.


Les échanges et les retours d'expériences lors des tables rondes du salon ROOMn la semaine dernière, laissent à penser que l'hybridation entre l'organisation et la plateforme technique est finalement une clef importante à comprendre pour progresser vers la valorisation des données.

Et puis comme cela a été rappelé par Sean Ginevan de Google dans une keynote de ROOMn, il faudra nécessairement maîtriser les fondamentaux de l'analytique pour aller plus loin et développer demain des applications exploitant l'intelligence artificielle dont tout le monde parle.

La plateforme en mode "Hub relationnel"

Une première table ronde a permis de recueillir le retour d'expérience de Catherine Lardy, Directrice Transformation à Inter Mutuelles Assistance, qui, pour le compte de ses actionnaires et/ou clients (Macif, Matmut, PSA...) est une plateforme pour assister un français sur deux en détresse sur les routes ou dans son quotidien. Un service en marque blanche opérant de façon intégrée comme un centre de profit.


Au cœur de cette plateforme, des téléconseillers, fiers de leur mission d'assistance pouvant aller jusqu'à sauver des vies, mais également des données nécessaires pour activer et suivre ces services d'assistance sur le terrain. La téléphonie est le métier visible mais cette mise en relation est de plus en plus simplifiée par les données et l'automatisation qu'elles permettent, jusqu'à ce que certains services puissent même devenir 100% numériques. 

Un premier enseignement issu de l'expérience de transformation d'Inter Mutuelles Assistance est la nécessaire gestion du changement liée au métier de téléconseiller.

Son rôle est challengé par le digital pour les activités facilement automatisables, y compris avec le vocal, mais en même temps il reste indispensable dans certaines activités où l'homme a un temps d'avance sur la machine comme pouvoir manifester de l'empathie. Les freins à la valorisation doivent donc être traduit par le besoin de mettre en place une démarche d'accompagnement pour les desserrer.

Et puis la machine ne va pas sis vite que ça, ce qui laisse le temps de s'adapter. Après avoir été très médiatisée, l'arrivée de Watson d'IBM dans la lutte contre le cancer, et notamment la détection de certains cancers, prédisait l'utilisation d'intelligence artificielle dans toutes les cliniques américaines. Fin 2017, soit 3 ans après ces annonces, les résultats de Watson ne sont pas (encore?) au rendez-vous sur ce sujet, la qualité des données d'apprentissage n'étant finalement pas si bonnes ou pas assez nombreuses. Or l'humain peut lui apprendre avec une seule donnée, surtout en cas de crise. Donc malgré les progrès rapides de l'intelligence artificielle il y a encore beaucoup d'activités complexes où les machines seront moins performantes que l'homme quand elles quittent leur laboratoire.

Par exemple les activités où les données d'apprentissage ou de l'appréhension du monde physique ne sont pas les plus simples à maîtriser pour les machines. Idriss Aberkane, spécialiste du sujet qui intervenait également dans une autre keynote de ROOMn, rappelait qu'il était plus difficile pour un robot de faire une mayonnaise que d'être champion du monde de Go.

Quelle fierté pour ceux qui cuisinent ;-)

La démarche d'Inter Mutuelles Assistance a donc commencée avec la mise en place d'un socle technique (un "data lake" unique pour tous les métiers) opérationnel en 2017, alimenté avec les données de tous les métiers qui doivent en assurer la qualité. Toutes les données disponibles sont mises à disposition des applications potentielles.

Cette approche est complétée par une revue ds usages et des besoins d'assistance pour revenir ensuite aux donnée nécessaires, quitte à en créer de nouvelles ou aller chercher des données externes. Entre usages, métiers et fournisseurs, la plateforme joue son rôle pour enrichir la relation dans toutes les directions. La notion de hub devient un modèle d'organisation et la donnée y circule.

Cette hybridation entre plateforme technique et organisationnelle fait dire à GreenSI que seules les DSI qui collaborent à l'unisson avec les directions métiers pourront avancer avec ce modèle, pour le construire mais également pour l'opérer au quotidien.

Les données comme langage commun

Un modèle de plateforme que l'on retrouve également au cœur de la transformation numérique de l'action publique, comme nous l'explique Romain Talés, de la mission Etalab en charge de la plateforme des données data.gouv.fr. Cette mission, au sein de la "DSI de l'Etat" (la DINSIC) est rattachée au SGMAP qui dépend du Premier Ministre avec une vision transverse sur tous les Ministères. 

La politique de transformation passe par l’ouverture et le partage des données publiques (« open data »), la coordination et le support des actions des administrations de l’État. La loi pour une République numérique reconnait des données de référence, 9 jeux de données qui ont le plus d’impact économique et social, pour lesquelles l'engagement de l'État pour leur mise à jour et partage est total avec le lancement fin 2017 d'une organisation, celle du service public de la donnée (www.data.gouv.fr/reference). 



Ces retours d'expérience, un public et l'autre privé, montrent que l'organisation et la structuration d'une plateforme de données communes à différentes entités avec des processus de partage est une étape importante pour attaquer le potentiel de la valorisation. Mais également que l'open data et les données de références du public peuvent bénéficier et inspirer le privé et réciproquement le modèle de hub peut inspirer l'évolution d'administrations dont les métiers sont ancrés dans la mise en relation.

Mais une fois cette "macro organisation" établie, ce qui n'est pas toujours simple dans les luttes de pouvoir internes depuis que la donnée est un sujet dont tout le monde veut s'occuper, il faut s'attaquer plus profondément à la culture de la donnée des salariés, des clients et même des fournisseurs.

Le collaborateur pivot de la transformation

Une seconde table ronde traitait des collaborateurs comme pivots dans la transformation digitale. Une étude du cabinet Markess auprès des DRH met en lumière que ces derniers essayent de transposer dans l'entreprise des applications utilisées largement dans le grand public. Attendez-vous donc à plus de convivialité et de collaboratif quand vous déposerez vos congés, pour suivre vos formations ou mettre à jour votre contrat de travail, et pourquoi pas depuis votre smartphone privé ou depuis un chatbot.

L'acculturation de l'entreprise au digital est donc essentielle pour attirer les "millennials", mais elle l'est également pour les autres salariés si on veut envisager la redistribution des tâches entre l'homme et la machine. Car si on veut que le digital ne soit pas être perçu comme quelque chose qui va vous "piquer votre job" il vaut mieux que chacun le comprenne et sache l'utiliser. C'est une clef pour garder l'engagement des salariés.

On serait surpris de mesurer le niveau d'autonomie réel des salariés sur leur mobile ou sur internet dans le contexte de l'entreprise. Il est en fait assez faible parfois même si tout le monde est déjà allé sur un réseau social ou regarde des vidéos sur son smartphone. Idem dans les services informatiques où pourtant on devrait y trouver des experts. Mais on sait bien que l'évolution rapide des technologies fait que peu en maîtrisent les toutes dernières évolutions.
La mise en place d'une plateforme doit donc également s'accompagner d'un investissement sur la formation, pour que tout le monde en comprenne le fonctionnement et le langage : les données.
C'est également l'occasion de démystifier les nouveaux métiers de la donnée qui émergent et de s'appuyer dessus pour l'évolution ou la transformation des métiers actuels. En effet, avec le prisme de la donnée, de multiples acteurs doivent collaborent pour atteindre cet objectif commun de valorisation : le middle management dont les services marketing, les data scientists, les data engineers, les développeurs back-end, les développeurs front-end, les utilisateurs du décisionnel...

Il est donc essentiel que la plateforme en tant "qu'usine à données" propose des outils adaptés à chaque profil, avec une grande continuité entre profils pour favoriser la collaboration, et la possibilité d'intégration des résultats directement sur la plateforme digitale en charge de délivrer ces services numériques au quotidien.


La notion de front-office et back-office, qui a longtemps servi de modèle voire d'organisation, est largement dépassée avec les données. C'est la chaîne complète de traitement qui valorise les données, avec un souci d'automatisation complet de la chaîne.
Mais les serveurs vocaux (SVI) nous ont pourtant montré que l'automatisation n'était pas le meilleur ami de la qualité de service? Et bien on a dû mal s'y prendre avec la téléphonie car sur Internet Amazon aligne une satisfaction client et une chaîne logistique exemplaires, avec des degrés d'automatisation très élevés pour la profession. Le ratio de productivité y est également 50% plus élevé (de l'ordre de $300.000 par employé versus $200.000 pour Walmart ou Carrefour).

La poursuite d'une démarche de valorisation des données est donc plus un programme de transformation par les données, et de conduite des changements, qu'un projet de mise en place d'une solution technique. Les salariés et l'évolution de leurs métiers en sont les pivots, l'hybridation de la plateforme et de l'organisation en est le modèle. Et c'est une étape essentielle pour tirer parti des progrès de l'intelligence artificielle à l'horizon.
Gardez donc bien cette vision en tête quand vous irez cette semaine arpenter les allées du salon Big Data Paris et rencontrer la foule de camelots qui vous y attends. De retour dans votre entreprise, une solution technique sous le bras, le plus dur restera à faire...

dimanche 4 mars 2018

L'éco-conception c'est aussi pour les applications

L'éco-conception c'est aussi pour les applications

L'éco-conception consiste à intégrer la protection de l'environnement dès la conception des biens ou services ; en cherchant à réduire l'impact environnemental tout au long du cycle de vie du produit. C'est vrai dans le logiciel comme avec les biens physiques, mais peut-être avec un focus plus fort sur la consommation énergétique pendant sa durée d'utilisation.
Pourtant vous n'en aviez peut-être jamais entendu parler, et l'idée même qu'un logiciel puisse consommer de l'énergie vous paraît sans doute étrange. Il est donc temps de lire ce billet !

Effectivement ce sujet est peu traité pour le logiciel. On parle souvent de "GreenIT", pour une informatique plus verte, mais c'est pour parler de l'efficacité énergétique des infrastructures, pas du logiciel. Selon l’Agence internationale de l’énergie (IEA en anglais), le numérique consommerait déjà 10% de l’électricité mondiale, même si la croissance de ces besoins ralentit, certainement avec le remplacement de petits data centers privés d'entreprises par des data centers plus efficaces, notamment dans le Cloud.

Les offres de data centers ont donc beaucoup évolué ces dix dernières années, car leur empreinte écologique est devenue un symbole des effets pervers de la digitalisation de l’économie. Cependant il est bon de rappeler que les technologies de l'information sont certainement un problème pour leur contribution en termes de gaz a effet serre, mais elles sont également une partie de la solution par les économies qu'elles peuvent générer dans d'autres industries.

Sans informatique, pas de smart grids qui permettent d'intégrer des énergies vertes, moins facilement planifiables comme le solaire ou l'éolien par exemple. La question est de trouver le bon équilibre.

Un autre exemple est la perspective offerte cette semaine par les syndicats de la SNCF avec la menace de blocage des transports pendant un mois. Ce blocage peut en effet se résoudre soit avec tout le monde dans une voiture, soit avec tout le monde en télétravail, donc utilisant téléphones, réseaux, ordinateurs et data centers - où sont leurs applications - mais depuis leur domicile.
Le télétravail est certainement plus vertueux que la voiture sur le plan environnemental, et même plus que l'offre SNCF car finalement, pourquoi se déplacer pour travailler ? Il y a donc bien des vases communicants sur le plan énergétique en fonction des différents usages, et l'informatique, bien que consommant également de l'énergie, amène de nouvelles solutions.

La question n'est donc pas tant la consommation des data centers et des réseaux, mais bien l'usage qui en est fait et s'il se substitue à un autre usage beaucoup plus énergivore. 

Cet impact environnemental de l'IT dans son ensemble est aujourd'hui pris en compte par les professionnels des data centers. C'est maintenant aux clients de privilégier les fournisseurs qui l'intègrent en ne regardant pas uniquement le coût. C'est également aux pouvoirs publics d'encourager des démarches de labels verts, voire d'aller vers une législation plus contraignante. Dans un autre domaine - la sécurité - c'est bien ce qui se passe avec une agence gouvernementale aux commandes (l'ANSSI). On a des certifications d'offres, une inscription de la cybersécurité dans la loi de programmation militaire, ou encore un Règlement Général des Données Personnelles comme contrainte.

Donc finalement, la question du GreenIT est maintenant peut-être moins sur les data centers que sur ceux qui les utilisent : les applications. 
En effet, c'est une chose d'être le data center le plus efficace possible pour produire un service avec le moins d'énergie, et une autre que de réduire les services avant qu'ils ne soient demandés au data center.
Prenons la recherche dans le moteur de Google par exemple. Elle doit sa performance à la redondance des requêtes envoyées sur plusieurs data centers ou sur plusieurs serveurs. La même recherche est donc exécutée plusieurs fois (ce qui consomme plus) et c'est la première requête qui a terminé qui vous donne le résultat. On a beau avoir le data center le plus efficace du monde, et ceux de Google ne sont pas mauvais en terme de PUE - Power Usage Effectiveness - on a quand même dépensé plus d'énergie que nécessaire. C'est le prix de la meilleure performance.



Mais qui a pris cette décision de compromis entre énergie et performance, qui d'une certaine façon influence l'avenir écologique de la planète ?
C'est là que l'éco-conception entre en scène dans les sociétés qui s'en préoccupent. Comme pour la sécurité, les ingénieurs d'éco-conception vont revoir le design de l'application par rapport à d'autres enjeux qu'uniquement celui de l'expérience utilisateur ou la performance.

Pendant une dizaine d'années ces acteurs de l'éco-conception, comme le français Frédéric Bordage, qui a écrit un des rares livre sur le sujet dont GreenSI avait déjà parlé, prêchaient parfois certainement dans le désert.

Mais aujourd'hui, ce sujet revient sur le devant de la scène pour une raison moins romantique que de sauver la planète, celle de sauver la batterie de votre téléphone portable !

En effet, ces 10 dernières années ont vu l'informatique basculer d'un poste raccordé au réseau électrique à un terminal raccordé à une batterie. Les objets connectés prévus en dizaines de milliards vont amplifier ce phénomène.

La maîtrise de la consommation énergétique du terminal est devenue un sujet important pour les entreprises, comme la SNCF avec son projet COSMO qui déploie des smartphones aux agents dans les trains pour contrôler et renseigner les voyageurs et accéder à l'intranet. Ces agents doivent pouvoir faire fonctionner tous leurs services avec leur smartphone, sans le recharger. Il faut donc être vigilant à la consommation des applications. Si vous êtes disponible le 23 mars sur Paris, les acteurs du projet seront présents pour un retour d'expérience sur le sujet.

C'est également le cas chez Suez Smart Solution qui aura déployé fin 2017 plus de 3,5 millions de compteurs d'eau télérelevés dont la batterie doit durer au moins 10 ans, tout en continuant d'émettre tous les jours les précieuses informations de consommation et de fonctionnement pour assurer les services aux clients et piloter la performance du réseau.

La solution proposée par l'éco-conception est finalement simple. Il faut designer le logiciel et les objets connectés avec cet enjeu énergétique en tête dès le départ, puis mesurer régulièrement pour qualifier les applications avant mise en production, puis en fonctionnement.

On est proche d'une démarche DevOps, faisant le lien entre les développeurs et les opérations, car ce sont bien ces dernières qui voient l'impact énergétique des décisions prises par les premiers.

Au niveau du design on revient à des fondamentaux - à de la frugalité diraient certains - pour concilier simplicité (un besoin = un service) en se penchant uniquement sur les besoins essentiels et ce jusqu'à un résultat suffisamment pertinent sans aller au-delà. Là aussi, on s'inspire des démarches agiles.
 

Des startups, comme Greenspector, se positionnent sur ce créneau et accompagnent les entreprises éditrices de logiciels dans l'application des principes d’écoconception et d’efficience énergie-ressources nécessaires tout au long de leur cycle de vie.

Leurs solutions consistent à offrir aux développeurs un environnement pour identifier les postes de sur-consommation de ressources-énergie dans leur code, corriger les plus sensibles et mesurer les gains après corrections, et ce sur tous les terminaux côté client. On trouve également des sites en ligne pour tester vos sites internet, comme par exemple EcoIndex.

Dans les recommandations de l'éco-conception, on privilégie le recours aux plug-ins, appelle toutes les données en une fois, gère les "timeout", utilise mieux les caches... et bien sûr bannit les requêtes multi-serveurs, plutôt que de tout déporter sur le serveur et passer son temps à l'interroger.

Les communautés de ceux qui intègrent les enjeux écologiques dans le numérique existent, comme par exemple Green Code Lab, qui veut un développement logiciel plus durable et plus responsable. Cette communauté a publié récemment un ouvrage commun pour diffuser les "green patterns" à privilégier quand on écrit du code.


Avec l'amplification de démarches encore plus "massives" dans le traitement des données (bigdata, IA...) et le déploiement massif de l'internet des objets, la transformation digitale n'ira loin que si ces pratiques ne se déploient. Autant prendre en compte ce frein potentiel le plus tôt possible.

D'ailleurs pour GreenSI, c'est l'éco-conception qui fera la différence sur le moyen terme entre toutes les cryptomonnaies, dont le bitcoin - catastrophe environnementale pour sa conception - parce que justement le modèle qui gagnera sera un modèle durable.
Alors allez demander à votre responsable des études applicatives comment il intègre l'éco-conception dans le logiciel. Plus le blanc avant sa réponse sera long, plus vous mesurerez l'effort qu'il vous reste à faire ;-)
Quand le mobile est devenu une commodité

Quand le mobile est devenu une commodité




Du 26 février au 1er mars, vous pourrez difficilement échapper au Mobile World Congress 2018 qui se tient à la FIRA à Barcelone, et qui réunit tout le gratin mondial du mobile, mais pas que... 

Ce salon est aujourd'hui obligé de s'adapter à une réalité : la perte d'influence des opérateurs mobiles et la trajectoire du numérique vers les usages.

En 2009, les keynotes étaient tenues par AT&T, NTT DOCOMO, Telefónica, Telenor, Verizon, Vodafone... - tous les grands opérateurs mobiles - et les deux acteurs incontournables sur les terminaux Microsoft (Windows mobile) et Nokia (1 milliard de clients). Après des années de croissance folle jusqu'en 2008, ils venaient rassurer sur cette crise financière de 2009 que peu avaient vu venir, sur le ralentissement économique mondial, et sur le début d'une époque de changements rapides et sans précédent. La croissance annuelle du marché en 2009 tombera de 8% à 3%, et les revenus par client (ARPU) continueront de baisser d'une année sur l'autre - de plus de 10% au début - reflétant la capture de la valeur ailleurs dans la chaîne sur ces dix dernières années.

Aujourd'hui au MWC2018 il y a bien sûr des opérateurs dans les keynotes, (ex. China Mobile) et on va y parler du nouvel horizon du GSM : la 5G. Mais les sujets du congrès vont aussi tenter de nous projeter dans le futur avec la robotique, l'Internet des objets et l'Intelligence Artificielle, sans que le mobile ne soit central pour les développer. Ce futur essaye peut-être de redonner l'ivresse d'avant 2009, le futur sera peu influencé par les membres de la GSM Association, l'association des opérateurs mobiles qui organise ce salon.
Certes Samsung, qui a pris la place de Nokia, se prépare à annoncer la version 9 de son terminal et de suivre Apple avec son iPhone X dans la capture d'encore plus de valeur, mais c'est bien Android, iOS et les écosystèmes qu'ils ont créé qui sont derrière. Les constructeurs seront les stars de ce salon car avec leurs marques et leur design ils devenus plus proches des 7 milliards d'utilisateurs de mobiles dans le monde. Ils ont même réussi une performance : déplacer le débat sur les bords arrondis des terminaux plutôt que sur la vitesse du réseau... respect !
Mais demain, les opérateurs ne peuvent-ils pas rebondir ?
Pour se positionner et capturer de la valeur sur les nouveaux marchés de croissance que sont l'Intelligence Artificielle et l'Internet des objets, posséder un réseau mobile ne donnera pas nécessairement un avantage décisif dans toutes les régions du monde. En Afrique, où les infrastructures fixes sont peu développées, c'est certainement un actif stratégique pour remonter la chaîne de valeur jusqu'au e-paiement et au consommateur. Ça l'est également en Chine, le plus grand marché mobile du monde concentré sur 3 opérateurs - China Mobile, China Telecom, ChinaUnicom - qui dépasse le milliard d'abonnés mobiles et qui se rapproche du milliard d'abonnés 4G. Cela n'empêche pas les BATX d'en tirer le maximum de valeur, sous l’œil bienveillant du gouvernement chinois qui veut que la 5G soit disponible dès 2020.
En Europe, la publication cette semaine des comptes d'Orange - qui renoue avec la croissance en 2017 - nous éclaire sur l'importance du réseau fixe et la croissance du Très Haut Débit (fibre) en France. 
L'ARPU mobile (24€) est en décroissance quand celle du fixe (~35€) est en légère croissance. C'est bien vers la convergence fixe-mobile et vers les services (ePresse...) que les opérateurs se tournent.
Est-ce que la 5G, avec la promesse de débit 100 fois supérieure à la 4G, permettra plus de croissance pour les opérateurs ?

Le risque est quand même que le consommateur souhaite payer les services et pas le réseau.

Et si c'est le cas, cela va consolider la puissance des GAFA, des BATX et de toutes les sociétés qui vont savoir exploiter ce débit pour créer une nouvelle expérience utilisateurs dans tous les domaines. La liste des participants au MWC2018 nous éclaire sur ce point, car on y retrouve comme au CES de Las Vegas les géants de l'Internet, du numérique, des startups et tout ceux qui sont dans les usages. Cela fait dire à GreenSI que le MWC deviens de plus en plus "CES Européen" et de moins en moins le salon du mobile. 
La baisse d'influence des opérateurs mobiles se retrouve également dans les infrastructures.
Ces dernières années, les ventes des équipementiers de réseau, comme Juniper Networks, ont baissées vers les opérateurs de télécommunication - prudents sur leurs investissements - et décollé vers les opérateurs d'infrastructure Cloud en très forte croissance. 

Or, pour aborder l'Internet des objets il faudra de nouvelles infrastructures, beaucoup de stockage et des capacités dans le logiciel qui vont plus être celles des opérateurs de Cloud que celles des opérateurs de mobile. De là à dire que ces opérateurs de Cloud sont les prochains opérateurs du numérique devant les acteurs des télécommunications, il n'y a qu'un pas.
Pris entre l'interface client et l'infrastructure numérique le métier d'opérateur va devoir être réinventé !

Soit l'opérateur peut intégrer plus fortement la chaîne complète du service au terminal et garantir une expérience client, soit il développe plus de proximité avec les clients. C'est tout l'enjeu que les opérateurs ont de vouloir casser la "fondatrice" neutralité du net pour ne plus être une commodité identique pour chacun. Dans ce contexte on comprend mieux le lancement de Orange Bank pour renforcer la connaissance clients et le conflit entre Orange et TF1, chaîne gratuite qui veut être payante pour les opérateurs. Les médias ne se laissent pas faire quand les opérateurs veulent remonter plus près de leurs clients, et c'est l'arroseur arrosé pour Orange quand TF1 casse la "neutralité de diffusion" de sa chaîne pour essayer de mieux se valoriser sur le réseau mobile Orange. On est certainement au tout début de cette bataille...
Pour le grand public, les opérateurs de demain ressembleront donc plus à Google Home ou Tencent Wechat intégrant tous les services, qu'à un forfait data ou minute incompréhensible dont le seul objectif est de vous en faire sortir. Les services numériques à l'utilisateur sont les actifs stratégiques de demain, incluant la capture de données et leur valorisation.

Un des enjeux des réseaux à l'avenir est également la latence, ce délai entre le moment où une information est envoyée et celui où elle est reçue. Cette latence a un impact sur les résultats comme le disait en 2006 Amazon « Chaque retard de 100 ms coûte 1% des ventes » mais en aura également pour les futures applications de réalité virtuelle car tout ce qui est décalé de 5 à 10 ms par rapport au mouvement de la tête est perceptible par le cerveau et peut provoquer le mal des transports. Idem avec la réalité augmentée ou quand l'augmenté "lag" il n'est plus en phase avec la réalité.

Les applications cherchant une expérience utilisateur de qualité vont donc privilégier des architectures permettant d'avoir des latences très faibles et certainement aller vers architectures de données réparties mixant les réseaux. Un domaine où les opérateurs de réseaux mobiles doivent travailler car même en 4G c'est difficile, en revanche c'est un atout de la 5G.

Du côté de l'entreprise, les opérateurs sur lesquels l'entreprise a envie de compter sont déjà des opérateurs de Cloud.

Ce sont eux qui peuvent délivrer une plateforme pour construire ces services et les opérer. On y retrouve  :
  • Les opérateurs de Cloud public avec un Amazon loin devant et un Microsoft qui essaye de faire croire qu'il est plus gros (en consolidant Office365 dans ses chiffres).
  • Mais également les opérateurs de datacenter (en colocation) avec Equinix en tête suivi par Digital Realty, sur un marché de $30 milliards qui va doubler d'ici 2020 et où la consolidation du secteur est très rapide. Ces datacenters sont reliés directement au Cloud public (Google, Amazon...) et permettent de développer des Cloud Hybrid sans passer par l'internet public avec une synchronisation bidirectionnelle des données. Ils s'appuient sur les offres de télécommunications d'acteurs déployant des fibres dans le monde comme Tata Communications.
Concernant ces acteurs peu connus du grand public mon collègue blogeur Pierre Col attirait d'ailleurs l'attention récemment dans un de ses billets sur la forte dépendance des européens envers ces infrastructures américaines partout en Europe.
Alors que faut-il penser du MWC 2018 ?
Pour GreenSI, ce salon montre que l'industrie du mobile est en complète réorganisation, de façon différente en fonction des continents. Dans les allées du salon, les membres de la GSM Association y trouveront autant de partenaires potentiels que de redoutables (futurs) concurrents. En effet, certains voudraient les réduire à une simple commodité technologique du "dernier kilomètre" pour assurer la sécurité et l'accès, un peu comme la logistique pour le e-commerce. Et pour poursuivre l'image de la logistique, les sociétés de logistique, pourtant essentielles, sont moins connues que les e-commerçants et Amazon n'a pas hésité à racheter en partie sa logistique (notamment flotte aérienne) et à la développer en propre pour maîtriser totalement sa distribution et l'expérience client rendue.
Alors bon World Congress !


lundi 19 février 2018

Où est la révolution de la data en France ?

Où est la révolution de la data en France ?

Le magazine Time nomme chaque année la personne de l'année qui a le plus influencé l'année.

En 2016, cette personne c'était vous (You), pour reconnaître votre maîtrise de l'entrée dans l'Age de l'information avec la révolution des réseaux sociaux, des tablettes et des smartphones, assimilée par plus de 3 milliards d'individus sur la planète. Mais comme dis le proverbe chinois "quand le sage montre la lune, le fou regarde le doigt".

Il nous a fallu un peu plus de temps pour voir la lune : la data.
En 2018 GreenSI pense que la data pourrait être la couverture "Person of the Year" : une année qui va être marquée par la mise en place du RGPD en Europe pour mieux gouverner les données personnelles dans les entreprises et l'explosion de l'Intelligence Artificielle en Chine et aux États-Unis, qui exploite les gisements de données les plus riches de la planète, celles des citoyens du Monde en attendant celles des machines.

Mais si la donnée est vraiment l'or noir du XXIème siècle, sa place devrait être centrale dans l'entreprise. Les raffineries de données devraient tourner à plein régime et valoriser cet or noir au maximum pour créer de la richesse visible dans les comptes des entreprises et anticipée par la Bourse.

Il n'y a pas de doute que les GAFAs l'ont bien compris et si on prends en exemple le ratio de productivité de Google ($1.200 million par employé) il est jusqu'à six fois supérieur à une société traditionnelle reposant simplement sur des actifs matériels. La valorisation des GAFAs est aussi impressionnante, plusieurs dizaines de fois leurs bénéfices.
En France en 2016 deux entreprises du CAC40 sont à ce niveau de productivité globale, Total qui exploite l'or noir du siècle précédent et AXA dans l'assurance et les services financiers fortement numérisés. Puis le ratio tombe a la moitié pour terminer en bas du classement avec le commerce de détail qui tourne autour de 200.000€ par employé.

Ces chiffres semblent donc indiquer une révolution... qui ne se matérialise pas encore!

Au niveau des valorisations, si on regarde les prometteuses startups, en 2017 les licornes (dont la valorisation est supérieure à 1 milliard) sont américaines ou chinoise à 77% chinoises. Les européennes sont passées de 47 à 57 en 2017 (+21%), mais les françaises sont toujours au nombre de 3 comme en 2016 (Blablacar, Criteo et Vente-privée), et 4 si GreenSI ajoute OVH valorisée plus d'un milliard mais beaucoup plus vieille que les 3 autres. Ces 3 exemples sont pourtant le moteur français de l'économie des plateformes avec au cœur les données. Quand à OVH, dans l'hébergement des plateformes, il profite lui plus largement de cette nouvelle économie en fournissant les infrastructures.

Proportionnellement à son poids en Europe, ces exemples de grands groupes ou de licornes semblent bien légers pour représenter la France. D'où la question posée par GreenSI : la France est-elle en train de rater la révolution du moteur de la donnée ?

Est-ce que la valorisation des données, pourtant à l'agenda de Davos avec l'intelligence artificielle à toutes les sauces et dans toutes les réunions de programmes de transformation des grands groupes, butte sur une difficulté inattendue ? Pourquoi n'a t-on encore que les exemples des GAFAs et BATX pour parler de valorisation massive des données ?

Cette question sera débattue le 7 mars dans le cadre d'une table ronde aux rencontres d'affaire de ROOMn. Ce billet est l'occasion de laisser votre avis ou des exemples non-GAFAs dans les commentaires, dans le sondage à la fin du billet ou, comme vous savez très bien le faire, directement sur Twitter ou LinkedIn ;-)

Dans les premiers échanges que j'ai pu avoir avec des data scientists pour la préparation de cette conférence, on m'a déjà remonté plusieurs "mirages" vers lesquels l'entreprise se dirige et que je voulais partager dans ce billet. Et comme chacun sait, le mirage n'est que le reflet d'une réalité beaucoup plus lointaine, mais qui pourrait décourager les caravanes qui en attendait leur salut...

Le mirage de la plateforme unique

Pour valoriser les données faut-il une plateforme unique pour toute l'entreprise ?
Si l'entreprise est petite ou moyenne, on l'achète, si elle est grande on noue un partenariat stratégique avec un des acteurs de ces plateformes. D'ailleurs les budgets marketing de Microsoft, IBM, et autres Salesforce sont justement fait pour vous faire avoir cette idée (rappelez-vous du film Inception du réalisateur Christopher Nolan?) !

Oui, il faudra structurer une chaîne d'information des sources à la valorisation, et oui les plateformes citées vont jouer un rôle pour raffiner les données jusqu'à les exposer dans de nouveaux services, mais de là à penser qu'il suffirait d'en acheter une pour atteindre le Saint-Graal et qu'il n'en faudra qu'une pour tous le besoins, c'est une autre histoire...

Si on prends l'exemple de la valorisation par de nouveaux algorithmes intelligents qui vont transformer les processus et délivrer de nouveaux services, ils ne se feront pas sans une transformation des métiers.

C'est une nouvelle relation homme-machine au service du business qui se dégage de tous les débats sur l'IA et a été traitée dans le billet sur l'IA la plateforme de développement du business. La plateforme technique n'est donc au mieux que la moitié du sujet. Elle ne répond pas à l'organisation du métier, des processus et de la collaboration nécessaire.

GreenSI voit donc dans l'étude récente de Gartner, commentée par Silicon.fr, qu'un DSI sur deux est prêts à déployer l'IA, un signe qui n'est finalement pas très rassurant. Sans le métier les DSI n'iront certainement pas bien loin et on aura dépensé beaucoup d'argent pour acheter une plateforme mirage ou peut-être même miracle.

Le mirage de l'organisation silotée

Donc l'organisation va être essentielle pour aborder cette transformation.

En plus des rôles déjà existant dans les directions métiers, notamment au marketing, les nouveaux rôles des données émergent dans les entreprises. Le Chief Digital Officer coordonne la transformation digitale qui repose en partie sur les données (mais pas que). Le Chief Data Officer lui se positionne sur la valorisation des données. Dans le monde anglo-saxon on met en place les rôles prévus par les démarches structurées comme DM-BOK (ex. Data Steward, Data Owner, ...), une démarche qui est à la data ce que PM-BOK est à la gestion de projet (BOK = Body of Knowledge). Sans compter les Data Scientists parfois oubliés dans leurs laboratoires.

Et voilà qu'en 2018 le nouveau Règlement Général de Protection des Données demande la mise en place d'un Data Protection Officer (DPO), qui pourra être le CIL (correspondant informatique et liberté) demandé par la CNIL, pour se porter garant de tous les processus exploitant les données personnelles, ce que bien sûr l'entreprise a déjà identifié et documenté depuis fort longtemps ;-)

Comment tous ces acteurs interagissent ? A quelle vitesse ? Sont certainement des questions qu'il faut se poser pour avoir des organisations réellement opérationnelles pour le business et pas uniquement ancrées dans la gouvernance des données.

La réalité est donc certainement que l'entreprise cherche son modèle d'organisation pour traiter les données de bout en bout ; et lâcher prise sur les applications qui en sont irriguées et qui jusqu'à présent ont structuré (et siloté) sa façon de penser le SI.

Pour GreenSI l'Intelligence Artificielle est révélatrice des vrais transformations, et c'est peut-être une bonne chose de regarder plus loin et de lever la tête au dessus du mirage que peuvent représenter ces nouvelles organisations à la peinture encore fraîche.

Le mirage de la collaboration facile

En 2009, l'entreprise s'est penchée sur le développement des réseaux sociaux et a cherché à reproduire en interne ce moteur de la collaboration qui en 10 ans a touché 3 milliards de personnes dans le monde. Ce sont les réseaux sociaux d'entreprises.

Le retour d'expérience c'est qu'en 9 années, toutes les entreprises sont encore loin d'exploiter en interne ce moteur et celles qui l'exploitent ne le font pas encore à son plein potentiel. Et en externe les flux sociaux, un immense réservoir de données, ne sont pas non plus maîtrisées par les entreprises qui pensent encore que l'Internet 2.0 est un média et non un espace de collaboration. C'est donc un processus de changement relativement lent qui est à l'œuvre dans les entreprises sur le sujet de la collaboration.

Les outils ne sont pas à blâmer, même si l'entreprise peut regretter que Microsoft qui était bien ancré dans la bureautique n'ait pas été le leader qui emmène ses clients dans l'entreprise 2.0 avant 2013 (fin 2012 Microsoft change de cap et rachète un des acteurs majeurs, Yammer).

La collaboration ne se décrète donc pas, elle s'organise et s'anime tous les jours. On revient donc à la question de l'organisation et de la création d'une culture favorable.
 

Pour la donnée ce sera pareil. La culture de la donnée doit se développer et ce ne sera pas simple. C'est un programme de conduite des changements qui se met en œuvre pour sensibiliser à la valeur de cette matière première virtuelle et au soucis de sa qualité.

Le mirage de la bibliothèque bien organisée

Quand on demande aux acteurs métiers quel est le monde idéal pour l'organisation des données on obtient souvent l'image de la bibliothèque.
Tout y est bien classé sur des étagères identiques. Quand on fait une requête on obtient un résultat exhaustif, donc on trouve ce qui correspond à nos critères et on sait que rien d'autre n'existe dans la bibliothèque si il ne nous a pas été retourné. C'est l'image de l'organisation d'un stock de données et de réservoirs annexes.

Malheureusement nous avons certainement quitté le monde des stocks pour le monde des flux.

Déjà les réseaux sociaux avaient mis le doigt sur l'importance de créer un réseau disponible pour répondre à des sollicitations imprévues et moins sur le stockage à priori des réponses. C'est pourquoi Twitter est aujourd'hui le meilleur outil de gestion de crise offrant une grande capacité de résilience. C'est même un peu pour ça que la DARPA a créé Arpanet en pleine guerre froide (devenu Internet) pour avoir un réseau résilient à une attaque nucléaire qui supprimerait l'un de ses nœuds.

Ces réseaux nous amènent donc dans le monde des flux, où les données y sont ouvertes avec des API, des mécanismes d'abonnements et de publication remplacent les requêtes aux critères trop précis dans un monde incertain. De nouvelles architectures "Data Driven" sont choisies par les GAFAs pour développer leurs plateformes. Les bases de données gros volumes n'utilisent plus uniquement SQL, le langage standard de requête, et se différencient du modèle relationnel historique avec le NoSQL (not only SQL). L'open data, va amplifier ce mouvement entre entreprises de la sphère publique.

La vision statique et rassurante des données est donc certainement un mirage dans un monde d'abondance de données. C'est pourtant ce que propose de nombreuses architectures applicatives. La vision dynamique des données se concentre sur les flux et tant pis si on ne les a pas toutes et/ou toutes bien organisées. Dans un modèle de flux c'est la vitesse qui compte, l'organisation des données se fait à la volée.

La bibliothèque bien organisée qui ressemble à un grand MDM de l'Univers est donc peut-être également un mirage...

Et vous, vous en pensez quoi ?

Maintenant, parmi ces mirages ou d'autres que vous voyez, c'est à vous de nous dire quels sont les freins majeurs dans votre entreprise. Merci pour votre contribution !