jeudi 9 septembre 2021

Nomination aux Awards Silicon.fr "IT Manager de l'année 2021"

Après 10 d'animation de ce blog centré sur la stratégie des SI et la transformation digitale, je suis flatté d'être proposé par Silicon.fr dans les prétendants au prix de "Manager IT de l'année 2021".

Je me reconnais bien dans le profil brossé de "Business Développeur" et je persiste et signe que la DSI est un maillon essentiel du développement des offres commerciales de toutes les entreprises, et pas uniquement de sa gouvernance, même si parfois elle ne se le sait pas encore :-)
Mais ceux qui lisent régulièrement GreenSI le savent !


Alors si vous partagez cette vision, encouragez-la à poursuivre 10 ans de plus en votant ! 

Lien direct vers le vote : https://www.silicon-events.fr/silicon-awards/content/manager-it-2021-vote

Et sentez-vous libre de votre choix, car les 4 autres candidats.e.s sont aussi très inspirant.e.s dans cette période de changement profond de nos entreprises où le SI joue un rôle majeur.


mardi 7 septembre 2021

Cloud : et après ?

L'histoire des SI est relativement jeune et le Cloud peut-être vu comme une Nem évolution des infrastructures des systèmes d'information, depuis le mainframe commercial des années 60. Mais ce serait oublier l'évolution de la démarche de construction du SI, qui est passée dans le même temps de "make" (datacenter interne) à "buy" (externalisation), de son rythme d'évolution qui est passé des "paliers d'évolutions" au déploiement continu (DevOps), et bien sûr celle de l'Internet qui est devenu une plateforme numérique mondiale pour les applications, partagée ou privée.

Sur le plan des coûts, le Cloud a amené un modèle de performance dans lequel les coûts unitaires se sont effondrés avec l'industrialisation, mais sans toujours profiter à l'entreprise, car d'autres dans la chaîne de valeur ont dégagé de fortes marges. Les principaux acteurs à avoir construit en 10 ans ces plateformes mondiales sont Américains ou Chinois. Et à l'image des dernières annonces de Microsoft (2021 Q3), ce sont les revenus du Cloud qui dopent les revenus globaux et la capitalisation boursière de ces géants que sont Amazon, Microsoft, Google, Oracle ou Alibaba.

En cette rentrée où le Cloud, qu'il soit PaaSSaaS ou Iaas, n'a plus à convaincre pour être candidat dans les nouveaux projets de la DSI, et après avoir su délivrer des services collaboratifs - digital workplace - résilients en période de crise, on pourrait se dire que le modèle est stabilisé et n'évoluera plus de façon radicale. 

Mais les radars de GreenSI captent des signaux d'évolutions à moyen terme. Avant de les aborder rappelons un certain nombre de constats sur le déploiement du Cloud en 2021:

  • La majorité des dépenses actuelle des DSI ne concernent pas le Cloud.
    Ceci est vu par les fournisseurs comme un potentiel de croissance immense, et attise donc la guerre commerciale à l'instar de celle entre Amazon et Microsoft avec les rebondissements du contrat JEDI de la Défense américaine ou celui des données de recherche de la NASA. Mais c'est également un signe sur la transformation de l'entreprise : soit le Cloud n'est pas encore adapté à la reprise de tout le SI, soit cette migration est très lente et prendra encore 10 ans (la part du "build" versus "run est limitée dans les budgets chaque année).

  • Les usages vont maintenant au-delà des IaaS (les serveurs et la communication), PaaS (la stack technique de développement) et su SaaS (les applications en ligne). L'IaaS et le SaaS sont sans surprise les deux premiers marchés du Cloud, car demandent moins d'effort de mise en œuvre. Ils remplacent des applications ou infrastructures obsolètes.

    Pour la suite, avec le PaaS, on rentre dans la transformation du SI et de l'entreprise, comme le montre le schéma de GreenSI ci-contre.

    Dans les DSI en pointe adoptant déjà le PaaS, on pourrait dire qu'on fait un peu plus "dans la dentelle" avec le recours au Cloud pour des composants du SI, comme, par exemple, les bases de données d'une application, qui sont déportées sur un Cloud en services managés. L'évolution des architectures vers les micro-services, et donc des applications plus modulaires et plus scalables, supportent cette tendance.

  • La répartition des architectures entre le Cloud et l'Edge. L'Edge, ce sont ces infrastructures locales dans les usines, avec le développement de l'IoT dans la logistique partout où l'entreprise se déplace, ou dans les échanges des villes intelligentes. L'Edge est en forte évolution et remet en question le modèle totalement centralisé du Cloud.
    Le billet "Edge, annexe du Cloud ou l'inverse ?" l'a récemment exploré.

  • La dimension géostratégique du Cloud est maintenant comprise par l'Europe, bien après les Américains et les Chinois.
    L'initiative GAIA-X européenne vise à faire émerger des champions européens, ayant la taille et la technologie, pour répondre à la demande des entreprises européennes de façon souveraine. De la même façon que Galileo permet à l'Europe de continuer d'avoir un service de géolocalisation, si le système GPS américain est brouillé, l'Europe cherche la résilience de ses entreprises dans l'éventualité de la coupure des Clouds américains. 

C'est donc dans ce contexte de guerre commerciale et géostratégique sans merci, qu'il faut en 2021 pousser ses projets, dans des services Cloud de plus en plus liés à l'architecture du SI de l'entreprise, à la résilience de ses applications et à la transformation du SI. 

Pour aller plus loin dans sa stratégie Cloud, les services managés sont clairement un sujet à regarder en priorité.

C'est la promesse de pouvoir déporter des fonctionnalités avec un niveau de performance et de coûts difficilement atteignable en interne. Et dans le cas d'opérations demandant beaucoup de puissance pendant de courtes périodes, l'élasticité du Cloud est clairement la réponse. Ces services sont donc facturés à l'acte et demandent un nouveau contrôle a posteriori des coûts (FinOps) et son optimisation.

Mais comme toute promesse, elle n'engage que ceux qui y croient... 

L'analyste Forrester à publié une étude (payante) dans laquelle il analyse les acteurs mondiaux du Cloud, fonction par fonction, et non plus globalement comme dans la majorité des classements quand on met en avant uniquement leurs "muscles" (CA, nombre de serveurs, ...). Ainsi le chinois Alibaba (ci-contre) est fiers d'être au coude-à-coude avec l'américain Amazon sur ses capacités de calcul, l'une des quarante fonctions étudiées. 

Cela nous amène donc rapidement à la question du multi-cloud, pas dans un seul souci de réversibilité et de répartition de son sourcing, mais aussi pour tirer parti des meilleures fonctions de chaque Cloud.

Les services managés sont un sujet délicat, donc stratégique, car le risque de "lock-in" avec un seul fournisseur ne doit pas être sous-estimé. N'oublions pas que le modèle économique du Cloud consiste à attirer au départ suffisamment de clients pour amortir l'investissement des infrastructures, puis à monter ses prix comme nous l'a rappelé Microsoft en plein moins d'août en annonçant l'augmentation des licences unitaires d'Office365 en 2022. Intuitivement, on aurait pu imaginer que le développement du télétravail devrait les baisser avec l'augmentation des volumes, mais visiblement l'économie du Cloud n'est pas l'économie du monde industriel que l'on apprend à l'école.

La réversibilité, y compris son impact financier, reste donc un incontournable pour les entreprises dans le paysage actuel.

Et si le modèle économique actuel du Cloud devenait un facteur d'évolution des stratégies des entreprises, mais aussi des nouveaux acteurs ?

L'initiative GAIA-X peut s'envisager dans la perspective de la mise en commun d'infrastructures par les entreprises pour en assurer une meilleure gouvernance long terme. C'est tout l'enjeu des "data spaces" - espaces de données sectoriels - qui réunissent actuellement des groupes de travail par Industrie, avec l'objectif de stimuler la collaboration, les échanges de données et la performance globale de cette Industrie.

La prochaine plénière du Hub France le 29 septembre, sera l'occasion de faire le point sur ces feuilles de routes sectorielles et les cas d'usages retenus. C'est toute l'originalité de cette initiative que de s'intéresser aux usages de l'entreprise, qui complémentaire des infrastructures, forme le fameux X de GAIA-X.

Dans une économie numérique qui s'ouvre en APIs, on peut imaginer les acteurs d'un même secteur se regrouper pour traiter ensemble des problématiques de leur secteur, non différenciantes, sans dupliquer leurs efforts dans chaque SI comme c'est le cas aujourd'hui. Par exemple, tous les acteurs de l'énergie en France ont développé chacun un moteur de facturation qui applique strictement la même réglementation. Est-ce bien nécessaire ? Le partage des données de santé pendant la crise sanitaire est un autre exemple.

On voit donc à l'horizon se développer des "Industry cloud", qui amèneraient une dimension sectorielle au Cloud, dont ces services s'intègreraient au SI ou au PaaS traditionnel, pour y développer les fonctionnalités plus différenciantes. Plusieurs analystes comme Gartner (dans "Hype cycle for Cloud Computing 2021") ou IDC qui l'estime à $20 milliards en 2022, ont introduit cette stratégie de verticalisation du cloud sous le nom de "Industry Cloud" dans leurs analyses.

Les acteurs du Cloud ou des applications SaaS, comme Salesforce (qui redouble d'acquisitions en ce moment) ou SAP, l'ont également bien compris. Ces offres sectorielles sont une opportunité pour faire basculer une plus grande part du budget SI dans le Cloud (les solutions cœur de métier).  Ils commencent à aborder cette dimension avec certains clients et surtout avec un écosystème de spécialistes des industries capable de valoriser cette initiative. Ainsi, SAP ouvre sa plateforme Cloud, et des services avancés comme de l'IA, aux clients et développeurs qui souhaitent co-innover. Les applications sectorielles développées sont alors réutilisables par d'autres clients via le magasin applicatif de SAP S/4HANA, sa solution native dans le Cloud SAP.

Après être passés de "make" à "buy", et si maintenant, vous passiez de "buy" à "make again" ?

C'est ce que GreenSI pense qui va structurer les services Cloud à moyen terme. IaaS, SaaS et PaaS standard, n'étaient qu'une première marche. Faites donc revenir les "makers" (versus la Direction des achats des "buyers") car les enjeux du Cloud pour les entreprises sont dans l'architecture et la réinvention de leur SI, et pour les Européennes certainement avec une bonne dose de souveraineté en plus. 

mardi 3 août 2021

A quand un OS responsable ?

S'il y a bien une tendance qui s'est renforcée dans la crise traversée depuis 18 mois, c'est bien la plus grande prise en compte de la responsabilité environnementale des activités humaines.

Et dans cette tendance, qui touche toutes les industries, l'informatique n'est pas à la traine, comme le faisait remarquer le billet d'octobre dernier posant la question de l'informatique durable et mettait le projecteur sur l'action législative à venir de l'État pour aller au-delà des incantations à rendre le numérique responsable.

Que ce soit dans la téléphonie, ou dans l'informatique, la maîtrise du renouvellement des terminaux est un des leviers d'action, car l'impact carbone d'un terminal n'est pas lié qu'à son utilisation, mais aussi à sa fabrication. L'allongement de la durée de vie des terminaux est donc généralement l'action n°1 ou n°2 de tous les plans verts des DSI.

En effet, bourrés d'électronique, ils regorgent de terres et métaux rares. Allonger leur durée de vie fait que mécaniquement on épuisera moins les réserves naturelles limitées de ces matériaux, et les recycler en fin de vie également. Le Shift project, montre par exemple la décomposition de l'impact environnemental du numérique dans le schéma ci-dessus.

Les terminaux (incluant écrans, imprimantes, ...) pèsent de plus en plus dans une informatique de plus en plus distribuée. Le développement des objets connectés et l'Edge va encore plus renforcer cette tendance. 

Parmi ces terminaux, les experts estiment qu'il y a 1,2 milliard de PC sous Windows, dont certainement encore quelques centaines de millions sous Windows 7, même si la majorité est sous Windows 10. Ce chiffre baisse après un pic en 2014, mais reste néanmoins remarquable, a tel point qu'il a fait dire en 2016 à Satya Nadella, le PDG De Microsoft que «Le fait qu'il y ait 1,5 milliard d'utilisateurs de Windows est incroyable. C'est une grande responsabilité qu'aucun d'entre nous chez Microsoft ne prend à la légère».

C'est donc dans ce contexte qu'il faut analyser l'annonce le 24 juin dernier par Microsoft de lancer Windows 11 en octobre prochain.

GreenSI avait compris lors du lancement de Windows 10, après le cahot du lancement des versions 7 (qui a eu du mal à remplacer le formidable XP), puis la version 8 avortée et la version 9 abandonnée, que version 10 était la dernière version de Windows. Ensuite on ne parlerait plus que de mises à jour. Mais visiblement Microsoft a revu sa stratégie.

La mise à jour en Windows 11 sera gratuite, il n'y a pas de licence, mais elle aura un coût pour tout le monde et notamment pour ses clients entreprises. Ils vont devoir relancer des projets couteux de mise à jour d'un socle technique qui n'amène plus de valeur, mais qui fait la loi sur la compatibilité de ce qui peut tourner ou se connecter à un PC.

Mais ce billet s'intéresse à un autre coût, le coût environnemental.

Windows 11 ne sera pas compatible avec tous les PC. Il faudra impérativement être compatible avec la technologie TMP qui oblige un composant hardware préinstallé sur le PC.

Une information qui aurait pu passer inaperçue à côté des autres annonces importantes pour la planète comme : un bouton "Démarrer" centré ! Waouh, comme Apple !

Et puis on remarque surtout, dans ce nouvel OS, la mise en avant de Teams par défaut dans la barre de tâche. Certainement afin d’essayer de gagner la bataille de la collaboration, relancée par la crise sanitaire, et la croissance des concurrents comme Zoom ou l'open source qui deviennent dangereux. GreenSI pari que la DG Concurrence de l'UE va regarder cette fonction, cela prendra 4 ou 5 ans à la vitesse de nos juridictions, et ce sera toujours ça de gagné par Microsoft, avant d'être contraint de retirer cette fonctionnalité certainement anti-concurrentielle ou de l'ouvrir aux autres plateformes par défaut. 

Mais ce communiqué brille surtout par l'absence des mots "environnement", "durable" ou "écologie".

Est-ce que Microsoft aurait lancé Windows 11, visant à remplacer le système d'exploitation de 1,2 milliard de  PC sur terre, sans se poser la question de l'impact environnemental de son geste ?

Pourtant, Microsoft attache de l'important à la communication environnementale et a annoncé un plan pour être "carbon negative" en 2030. Et d'ailleurs son rapport "Sustainability" mentionne bien que "le logiciel est un important facteur qui peut influencer la durée de vie des usages clients. Microsoft étend cette durée de vie au travers du firmware et de mises à jour de Windows 10, permettant de continuer d'utiliser d'anciennes générations d'équipements".

Mais toute la question de ces engagements environnementaux est celle du périmètre.

Si l'impact de la mise à jour de Windows oblige les clients à changer de machine, le surcoût carbone pour la planète associé à ce changement n'est pas dans le périmètre de Microsoft, mais bien dans celui de ses clients. Le seul engagement qui serait vraiment fort pour Microsoft, fournisseur de technologie, serait celui de réduire les émissions de ses clients qui utilisent ses produits.

L'étude "Big Tech & Climate Policy" de janvier 2021, arrive à cette conclusion en montrant les "Big Techs" ne sont pas mauvaises dans leur score environnemental, et même meilleures que l'industrie pétrolière par exemple. En revanche ils influencent très peu la réglementation environnementale, alors que leur influence sur le Monde dans ses usages est énorme.

Avec Windows 11, GreenSI a donc l'impression que Microsoft vient de décider de mettre au rebut une partie des PCs sortis avant 2017 - qui n'ont pas de puce TPM 2.0 avec l’un des processeurs acceptés par Microsoft.

Si la durée de vie réelle d'un PC est de 6-7 ans, fin 2020 on peut estimer, a grosses mailles,  l'impact à 40% (3/7) des 1,2 milliard de PC concernés soit 480 millions. Tous ne seront pas remplacés et resteront sous une ancienne version non maintenue ou passeront en open source. Mais si cela force 30% d'entre eux à être remplacés avant l'heure, c’est 144 millions de PC que l'on va produire pour rien, soit 22 mégatonnes de CO2 en plus. C'est à peu près l'émission de tout le transport aérien français en 2019 évalué par la DGAC. 

D'ailleurs les questions de la FAQ Windows 11 sur le site de Microsoft sont très explicites sur la finalité de Windows 11 et traitent majoritairement de l'achat d'un nouveau PC... comme dans l'ancien Monde :-)

Tout cela est donc loin d'être neutre, mais n'apparaîtra pas dans le bilan carbone de Microsoft

Donc malgré les promesses de neutralité et de responsabilité, on a aujourd'hui du mal à croire que Microsoft n'a pas pensé à l'impact environnemental de Windows 11. Mais le fait que cette "grande responsabilité" soit absente des communications interpelle sur le sérieux des autres annonces environnementales.

Et puis si la vente de PCs est l'objectif, au moins à minima proposer un programme de recyclage associé aux nouvelles ventes. Espérons que Microsoft rectifiera ses communications d’ici au lancement en octobre, surtout qu'à vouloir servir les particuliers et les entreprises avec le même produit, on peut vite se perdre. En tout cas GreenSI restera vigilant.

Mais l'impact d'un OS c'est aussi sa propre consommation de ressources. Toute aussi importante que son impact sur la fabrication.

On rentre ici dans le champ de l'écoconception et on sait qu'entre deux logiciels qui font la même chose, la façon de le faire peut faire changer énormément le bilan énergétique final. Or un système d'exploitation, c’est lui qui gère les batteries, les communications, la relation avec les périphériques... bref, s'il est moins efficace énergétiquement ça va faire exploser la consommation énergétique.

On aurait pu s'attendre à un lancement de Windows 11 qui démontrerait que la conception a été pensée pour être plus efficace énergétiquement que Windows 10. Enfin, dans le nouveau Monde, c'est ce à quoi les clients s'attendraient.

Ne nous méprenons pas. Microsoft a le temps de rectifier son tir, mais l'enjeu malheureusement ne concerne pas que Microsoft. Une telle omission peut renforcer le sentiment "anti-technologie" que l'on voit apparaître quand l’obsolescence programmée s'invite dans la conception ou quand le développement durable n'est que de la communication. Le lancement de la 5G a d'ailleurs été très challengé sur le sujet des émissions.

Le paradigme de la technologie durable est pourtant à porté de main, surtout quand on a un quasi-monopole mondial de fait.

Les constructeurs, bien alignés derrière le système d'exploitation, savent bien comment fonctionne la Loi de Moore, qui double la puissance tous les 18 mois. Cette loi devrait dorénavant se traduire par une loi de responsabilité numérique qui diviserait par deux les émissions régulièrement. Et pour cela, le système d'exploitation a un rôle à jouer et doit devenir plus responsable.

dimanche 18 juillet 2021

Guerre des plateformes : Netflix ouvre le jeu

GreenSI avait analysé la stratégie de plateforme de Netflix en 2019.

Ancien loueur de films DVD par correspondance fin des années 1990, il a pivoté dans le streaming vidéo dans les années 2010, après avoir terrassé le champion Blockbuster et son réseau de boutiques. Pour Netflix, basculer dans le Cloud, c'était un changement de logistique pour remplacer, le support DVD et son acheminent (le service postal), par un média unique : Internet. Cette bascule a été payante et Netflix s'est imposé mondialement avec sa plateforme de vidéo à la demande pour un abonnement mensuel.

Dix ans plus tard, Disney+ montrait son nez et certains prédisaient même la fin Netflix, comme Yahoo s'est progressivement éclipsé devant Google dans la recherche sur Internet et la valorisation des données. Mais Netflix avait déjà travaillé son catalogue et s'est transformé en producteur de contenu. Sa plateforme qui a tant de valeur, repose sur des services externes et notamment AWS.

 

Toutes les stratégies digitales de "plateformisation" se construisent principalement sur la capacité croissante de mise en relation, une obsession pour une expérience utilisateur hors normes et une approche agile qui lance régulièrement de nouveaux produits. Avant d'être ce leader mondial du commerce électronique, Amazon n'avait que l'onglet "books" sur son site, puis a développé une par une les catégories, en renforçant sa plateforme logistique et l'écosystème de boutiques partenaires.

La question que se posait GreenSI à propos de Netflix, c’était quel serait son prochain stade de développement ?

On voyait clairement que Netflix testait l'interactivité dans des séries comme "Carmen Sandiego" et "Black Mirror" (Bandersnatch)  permettant de "choisir sa propre aventure". Une interactivité en temps réel qui n'est pas neutre sur l'architecture de sa plateforme et rompt avec le simple streaming unidirectionnel.

Cette semaine Netflix s'est un peu plus dévoilé dans l'interactivité, avec des signes captés par Bloomberg qui montrent que Netflix se prépare à proposer des jeux vidéos sur sa plateforme de streaming.

Et comme cela ne s'improvise pas, c'est Mike Verdu qui sera chargé de développer cette activité.

Son profil LinkedIn coche toutes les cases : un ancien d'Electronic Arts (Sims), une expérience de studios de jeux et en dernier de Facebook où il était VP du contenu en réalité augmentée et virtuelle. On sait que Facebook s'intéresse aux univers virtuels depuis le rachat d'Oculus en 2014 et a fait grandir tout un écosystème de développeurs pour produire des jeux pour sa plateforme AR/VR Oculus. Certes, ce n'est pas encore un carton pour Facebook malgré ses investissements, mais justement Mike sait certainement quelles sont les fausses bonnes idées dans les jeux en lignes ;-)

Certains spécialistes des rumeurs sont même allés fouiller dans le code de l'application iOS de Netflix, pour y dénicher des traces. Ainsi, sur le fil Twitter de @stevemoser on peut trouver le logo d'un "Netflix Game" et l'image de manettes de jeux de Sony qui pourraient suggérer un partenariat dans ce domaine... 

Et puis Reed Hastings, l'un des deux cofondateurs, avait aussi déclaré dans une interview que le jeu Battle-Royale de Fortnite était un de ses concurrents... en temps de connexion de ses abonnés ! Toutes ces informations convergent donc vers une offre de jeux vidéo de Netflix directement sur la plateforme de streaming, dans le cadre de ses abonnements actuels. 

L'idée d'une plateforme de jeux en streaming n'est pas neuve.

Sortie fin 2019, le service de jeux de GoogleStadia, est une plateforme de jeux vidéo à la demande en streaming dans le cloud. Elle bénéficie du savoir faire et la puissance GPU de Google dans le Cloud et est intégrée aux autres services, notamment YouTube. Côté utilisateurs il ne faut qu'une simple manette de jeux connectée à internet - que Google a produit lui-même - avec un débit ADSL. À terme on voit la synergie avec les Chromecasts et les Android-TV qui transforment nos vieux téléviseurs, en TV connectées. Le modèle économique est celui de Netflix, l'abonnement mensuel, et non l'achat de jeux comme avec les consoles et les standards actuels du marché des jeux vidéo dominé par SonyMicrosoft et Nintendo.

Malgré ce pédigrée d'exception et une période tout aussi exceptionnelle pour son lancement - 2020 et les confinements successifs mondiaux - Stadia n'a pas encore décollé alors que le marché des jeux vidéo n'a jamais été aussi dynamique. Fin d'année dernière, Google a même fermé deux studios et revu son organisation.

Son positionnement de joueurs ciblés et son catalogue de jeux n'étaient peut-être pas alignés. Et puis la bascule d'un modèle de possession, à un modèle de location, prends du temps dans toutes les industries. Pour l'instant Google n'a donc pas trouvé la clef pour révolutionner le jeu vidéo et va certainement plus s'appuyer sur YouTube à l'avenir.

Netflix est donc clairement en train d'essayer de prendre de vitesse Google, plutôt que les ténors des consoles.

Mais ce service intégré à un abonnement VOD lui permet aussi se différencier par rapport à ses concurrents directs, Amazon Prime et Disney+, mais aussi HBO aux États-Unis, qui continuent de progresser (derniers chiffres du streaming sur ZDnet). Voire Netflix peut proposer une option et augmenter ses tarifs, quand ses concurrents ne reposent que sur la VOD aujourd'hui. Disney, pourtant la plus grande société de divertissement au monde, n'a jamais réussi à développer ses activités de jeux en interne, malgré ses efforts.

Enfin, c'est clairement un moyen de renforcer l'ancrage de sa plateforme, en augmentant le temps passé par ses abonnés. Les jeux et les séries ne sont d'ailleurs peut-être pas consommés au même moment de la journée, donc n'entrent pas en conflit. Si le temps passé sur Netflix augmente, indirectement cela réduira les partages de comptes, car ce partage ne repose que sur le fait qu'un abonnement est rarement utilisé plus de 4 heures par jour. Au-final, cela pourrait donc aussi augmenter le nombre d'abonnements à la plateforme.

En attendant les détails de la confirmation de cette stratégie, très cohérente avec son développement, on observe que le chemin pour Netflix est étroit. La tentative de Google à trouver un modèle dans le streaming de jeux vidéo et les échecs successifs de Disney à développer ses activités de jeux en interne, seront certainement riches d'enseignements.

Mais ce qui est sûr, c'est que les plateformes évoluent et se renouvellent en permanence. C'est cette dynamique qui fait l'intérêt de la compétition et stimule l'innovation. Ne les regardez donc jamais comme des modèles figés quand vous les intégrez dans vos stratégies.

-->

samedi 19 juin 2021

RGPD : échec de la Protection, triomphe de la Gouvernance

En décembre 2017, GreenSI s'étonnait que la prévision de l'année 2020 était l'explosion des emplois en IA, de l'ordre 2 millions, sans considérer l'épée de Damoclès que l'Europe allait mettre en 2018 sur tous ses champions : le RGPD. Le carburant de l'IA restant la donnée et la donnée personnelle s'immisçant partout quand les experts cherchent la petite bête ou l'exception, l'équation semblait insoluble.

Le RGPD est maintenant en place depuis plus de trois ans et en regardant autour de vous le constat semble sans appel. L'intention initiale à bien fait pschitt et le RGPD est aujourd'hui plus présent par la gouvernance qu'il impose aux entreprises basées en Europe que par la protection des données des européens qu'il amène à ceux qui naviguent sur l'internet mondial.

La protection des données a même peut-être aussi touché ses limites pendant la crise sanitaire. Elle a été utilisée pour bloquer la diffusion d'un moyen moderne de prévenir et de sauver des vies, l'application TousAntiCovid. Plus d'un an après sa sortie, elle commence à s'imposer comme une évidence de protection des individus pour fréquenter les lieux publics, alors qu'elle n'a été sauvée que par le passage en force du gouvernement. 

D'ailleurs, dans les entreprises et le service public, de multiples idées innovantes et bienveillantes sont enterrées tous les jours, car une "opposition" pourrait exploiter l'épée de Damocles du RGPD pour nuire à l'entreprise.

Et pour ceux qui n'ont pas que des idées bienveillantes, plus la contrainte se renforce (comme avec le Digital Act sur les cookies et qui a suivi le RGPD), plus l'avantage est donné à ceux qui ont les moyens techniques et financier de la contourner. Sans compter que l'IA qui prendra des décisions sera de moins en moins "explicables" pour un humain (fini le bon vieux cookie dont il suffisait de tester la présence...) ce qui ne sera pas sans créer des casses têtes juridiques.

C'est pourquoi les publicités qui s'ouvrent sur nos écrans sont de plus en plus précises et qu'il suffit de laisser son smartphone écouter ses conversations pour les rendre encore plus précises !

Ce n'est plus un secret pour personne, et c'était d'ailleurs une prédiction de GreenSI dans un billet de 2017, les nouveaux paradis du traitement de la donnée personnelle sont devenus une réalité, comme d'autres sont depuis toujours des paradis fiscaux.

Certains territoires cumulent même d'être à la fois des spécialistes du traitement des données personnelles et des technologies militaires d'espionnage, comme la "Silicon Wadi" en Israël où toutes les grandes sociétés numériques américaines y avaient déjà un laboratoire de recherche. C'est dans ces paradis que vous pouvez y localiser vos usines de stockage, de raffinage et vos projets de recherche "sensibles". Il y a peu de chance que notre CNIL, bras armé du RGPD, puisse y débarquer et questionner le registre des traitements et les algorithmes de scoring des citoyens européens. Les fenêtres de validation du consentement aux options non décochables ou aux parcours semés d'embuches pour les décocher, n'y craignent pas non plus grand-chose pour les sociétés non européennes.

Est-ce que les citoyens se sont emparé de ce texte et ont poursuivi des entreprises, car c'est bien en leur noms que tous se décide ? Les juristes nous disent que c'est très limité et que les actions ne sont engagés que par les CNIL européennes. La CNIL française elle-même reconnait dans son rapport annuel avoir reçu plus de 13.000 plaintes, mais finalement prononcé que 14 sanctions en 2020. 

L'Europe de 2018 nous aura donc laissé une approche technocratique, majoritairement mise en œuvre en Europe, qui en trois ans, aura eu peu d'impact sur l'exploitation massive des données personnelles des européens.

Est-ce que l'Europe croit encore a ce bouclier qui aurait protégé les données personnelles des européens ? On a plutôt l'impression que la nouvelle commission est passée à autre chose.

Peut-être sous l'impulsion du nouveau commissaire Thierry Bretonl'Europe se cherche maintenant des champions pour construire ce havre de paix, au lieu de vouloir faire adapter celui des champions américains comme elle le clamait en 2018. Le plan de relance européen est d'ailleurs une chance de ce point de vue là.

Le dernier billet sur la stratégie "Cloud First" de l'Administration montre que l'intention de la France est identique, même si on peut encore douter de l'approche et y voir un cheval de Troie des opérateurs de cloud américains.

Comme souvent, le RGPD aura certainement raté son objectif de résultats, mais bien réussi son objectif de moyens.

L'impact principal du RGPD aura été de renforcer la gouvernance des données dans les entreprises et services publics européennes, en menaçant d'amendes énormes. Les amendes d'Amazon et Google en dizaines de millions d'euros sont souvent exhibées comme des trophées, mais ne nous leurrons pas, on est très loin du 4% du chiffre d'affaires qui peut s'appliquer à une entreprise ayant moins d'avocats et de liberté de localisation de ses ressources dans le Monde.

Et en fixant un prix à l'exposition de données personnelles (les 4%), cela crée un marché pour un type de cyberattaques visant à les dérober là où il n'y avait avant qu'un risque d'image pour l'entreprise. Et qui dit risque, dit développement du marché de l'assurance "cyber".

Ainsi les postes de "Data Protection Officer" imposés par le RGPD ont été créés ou cette charge a été sous-traitée à des consultants spécialistes. L'entreprise a aussi investi dans la sensibilisation et la formation du personnel, et s'est faite appuyer de nouveau, par des consultants pour ses audits de conformité de l'existant. Le marché du conseil a donc été tiré par la mise en conformité, un peu comme le contrôle technique automobile a créé le réseau des sociétés de contrôle, et c'est peut-être ici qu'il faut chercher la création d'emplois, en plus du secteur de la cybersécurité, et moins dans l'IA.

Le moindre nouveau site internet bienveillant fait maintenant l'objet de multiples réunions avec de multiples interlocuteurs, juste pour vérifier que les conditions légales sont respectées et que la capture du consentement est conforme sur la page web. Le RGPD aura réussi pour la gouvernance des SI, en seulement 3 ans, à lui faire gagner au moins 10 ans pour toutes les entreprises. Une gouvernance qui était jusque-là limitée aux industries avec une réglementation spécifiques, comme la Banque, ou aux sociétés côtés à l'international. Elle touche maintenant jusqu'à mon traiteur, avec son site internet monté à la hâte pendant les confinements et son cahier de livraison qui contient mon numéro de portable.

La seule note positive du RGPD serait donc finalement la gouvernance des SI, maintenant mieux considérée, staffée et contrôlée. 

Tout ceci est certainement une très bonne chose sur le long terme, mais tout cela a un coût à court terme. Un coût qu'il faut intégrer dans une compétition mondiale que d'autres n'ont pas, comme on l'a vu. Parfois le RGPD fait penser au bio dans l'alimentaire, tout le monde en souhaite, mais personne ne veut en payer le prix et les importations à bas coût de pays moins regardant sur les conditions de production ne sont pas bloquées à la frontière.

L'Europe aura finalement imposé ses normes en matière de gouvernance des SI, à ceux qui n'ont pas les moyens d'y déroger, et il faudra encore du temps pour qu'elles produisent des effets à l'échelle de la planète et de nos écrans branchés sur des applications et des terminaux très majoritairement chinois ou américains.

Parce que c'est peut-être ça le fond du problème qu'il faudrait attaquer : aider à l'émergence de plateformes européennes pour les européens. Dans la fragmentation toujours plus grande de l'internet mondial, le havre de paix européen des données personnelles sera construit par des acteurs européens. Les licornes sont ces nouvelles multinationales géostratégiques de l'ère du numérique. Saluons donc l'arrivée de ces nouvelles "scale-up" au lieu de saluer les amendes RGPD records infligées à des entreprises européennes.

Le réseau CNIL européen devrait ajouter a son rapport annuel une partie sur la contribution du RGPD à faire émerger des offres différenciantes qui ont contribué à propulser des entreprises européennes et créer de la richesse. De regarder lesquels des 99 articles sont bénéfiquement à l'œuvre avec un équilibre entre protection et gouvernance.

Et si elles n’en trouvent pas, de comprendre que le règlement n'est pas le bon instrument, voir est le pire, et qu'il devrait être revu et mis à profit de l'émergence d'une nouvelle souveraineté européenne. 

Et on fait quoi maintenant à la DSI au quotidien pour concilier développement et réglementation ? Tais-toi et rame !

mercredi 19 mai 2021

Stratégie Cloud First dans l'Administration

Ce 17 mai 2020, ce ne sont pas moins de trois ministres qui ont tenu une conférence de presse, suivi d'une table ronde, pour annoncer le plan destiné à assurer l'autonomie du pays pour ses capacités d'hébergement Cloud tout en contribuant à une informatique européenne.

Cette annonce n'est pas sans rappeler celle du Président Charles de Gaulle en 1966, avec le Plan Calcul, destinée à assurer l'autonomie du pays dans les techniques de l'information, et à développer une informatique européenne. Le mot d'humour de GreenSI c'est qu'il suffit de remplacer "informatique", "calcul" ou "ordinateur" par "cloud", dans ce relevé de décision qui date de 55 ans, et on ne sera pas loin de l'annonce de 2020 ;-)

 

Le Plan Calcul nous rappelle d'ailleurs, avec le recul, qu'une fois l'annonce effectuée, tout est dans l'implémentation.

En effet, on sait maintenant que ce Plan Calcul aura eu des hauts (création de l'INRIA dans la recherche, développement de la filière de semi-conducteurs, ...) et des bas (échec de produire des ordinateurs français performants sur le long terme, des Administrations obligées d'acheter des équipements progressivement moins compétitifs, ...).

Mais pour revenir à cette nouvelle stratégie française du Cloud, il fallait également un "sacrifice originel" pour concrétiser le changement. C'est le contrat d'hébergement des données de santé par Microsoft, le fameux "Health Data Hub" - en français dans le texte - qui a été choisi. Il avait déjà reçu pas mal de plombs dans l'aile ces derniers mois, exacerbés par la crise sanitaire et l'importance cruciale des données de santé dans la gestion de la crise, mais maintenant, c'est décidé il sera rompu.

Le message de transformation digitale de l'État n'a peut-être jamais été aussi fort et associé au Cloud, éclipsant même un peu le label de confiance tant attendu.

Ce label reprend finalement le visa existant SecNumCloud, délivré par l’ANSSI pour les fournisseurs de service, et ouvre la possibilité de création d'entreprises, alliant actionnariat européen et technologie étrangère. C'était un point clef pour éviter de mettre de la R&D sur le chemin critique, avant de pouvoir multiplier les offres labellisées.

Sur ce point, cela ressemble à l'approche pragmatique utilisée pour la 5G par les États-Unis, qui tout en bannissant Huawei s'appuyait de facto sur de la technologie européenne (Ericsson, Nokia, ...), sous contrôle d'opérateurs américains, le temps qu'ils rattrapent leur retard.

Cela va donc permettre aux opérateurs étrangers leader des services Cloud de se développer en France dans le cadre de cette stratégie.

Maintenant,  il reste à voir avec qui et comment ces acteurs (AWS, Azure, Google) vont exploiter cette possibilité d'européanisation. OVHCloud a déjà annoncé son partenariat avec Google (Antheos). Amazon déteste la vente indirecte, mais ça pourrait changer sur ce marché public puisque Microsoft, son principal challenger pour le faire quitter le haut du podium, est lui le champion de la vente indirecte dans toutes ses divisions.

Mais pour GreenSI, l'annonce principale du Gouvernement reste de faire du Cloud un prérequis pour tout nouveau projet numérique au sein de l’État. Une stratégie "Cloud First" qui complète de facto celle d'un SI plateforme. Ceux qui, encore aujourd'hui, étudient l'option Cloud, puis retombent sur leurs pattes en expliquant qu'il vaut mieux conservent son propre datacenter interne, viennent de se retrouver encore plus seuls... 

Cette stratégie "Cloud First" s'adosse à une migration volontariste vers le cloud des projets existant ("Move to Cloud"). Elle doit être engagée par tous les ministères, avec seulement deux exceptions (l'Armée et Bercy). Donc fini les infrastructures par ministère (outch !) ce sera un service du performant dans un Cloud interministériel ou d'une offre du marché labellisée.

Ça tombe bien puisque le troisième volet de la stratégie est une stratégie industrielle façon "Plan Calcul", financée par le plan de relance. La crise aura donc été décisive pour la stratégie numérique de la France, en montrant à tous la résilience et les menaces amenée par le numérique, en ouvrant les données de la santé et en créant un plan d'investissements d'avenir projetant nos infrastructures.

La stratégie Cloud pour les administrations, bizarrement appelée "Cloud au Centre", est une rupture dans l'usage des SI de l'État qui renforce la priorité de la transformation numérique.

Elle est portée par le ministère de la transformation de l'action publique dirigé par Amélie de Montchalain.

C'est également une rupture dans les usages pour les Français, puisque l'ambition de rendre disponible en ligne l'intégralité des services du quotidien des Français d'ici à 2022, tient toujours. Le dernier bastion des services non disponibles en ligne a besoin du Cloud pour atteindre les usagers de l'administration qu'ils soient citoyens ou entreprises. Il a également besoin d'une fonction publique qui accède à des plateformes collaboratives pour mieux décloisonner les services et les administrations dans le traitement, et entrer en relation avec les usagers.

Le Cloud est donc clairement affiché pour permettre de développer de nouveaux services publics numériques, de façon plus agile moins coûteuse (clairement cité).

Maintenant pour modérer l'annonce, rappelons-nous qu'il y a trois ans le secrétaire d'État au numérique Mounir Majoubi, avait déjà présenté une stratégie cloud en trois volets qui visait déjà à développer les usages du cloud dans les administrations, les organismes publics et les collectivités territoriales. La notion de "Cloud souverain" avait été écartée, suite aux déboires de l'initiative précédente et le gouvernement ne s'interdisait pas de travailler avec des fournisseurs qui hébergent les données en dehors du territoire français, du moment qu’ils répondent aux exigences du gouvernement en matière de sécurité.

Ce sera donc la mise en œuvre qui fera la différence, et de ce point de vue, le moment semble plus favorable avec un plan de relance qui flêche des investissements dédiés aux infrastructures et un sentiment d'urgence exacerbé par la crise sanitaire et l'appel à plus de souveraineté.

Le 4ᵉ Programme d’Investissements d’Avenir et de France Relance va donc soutenir des projets industriels de développement de technologies cloud en France, avec en ligne de mire les suites logicielles de travail collaboratif, ce qui est nouveau dans les annonces de l'Etat plateforme. On part de loin et de cloisonné. Il n'y a pas par exemple d'annuaire unifié au niveau de la fonction territoiriale, l'équivalent d'un France Connect mais pour les agents.

Pourtant, des solutions françaises ou européennes existent depuis longtemps, occupent des niches, que ce soit des offres privées ou de l'open source, mais qui n'ont jamais décollé, ou n'ont pas été fortement considérées par l'Administration, l'Éducation Nationale en tête. C'est donc un second message fort envoyé cette fois au monde du logiciel qui trouvera des débouchés sur ces futurs clouds publics avec peut-être l'émergence d'une suite collaborative européenne. Après tout un Skype aurait très bien pu la porter, avant de se faire racheter par Microsoft.

GreenSI a également noté le rapprochement fait entre le "Cloud vert" et le Edge computing, ou pour le dire différemment la possibilité d'étendre le cloud sur terrain avec l'Edge, qui en déploie les technologies et permet de mieux répartir les données en fonction de l'usage pour réduire l'emprunte environnementale des réseaux ou bénéficier de capacité de production d'énergie décentralisée et durable (voir Edge, annexe du cloud, ou l'inverse).

Avec de la R&D sur l'Edge et l'avance de l'Europe en technologies 5G, le cloud européen pourrait évoluer en terme d'architecture, par rapport au modèle Cloud développé par les GAFAs.

Cette stratégie cloud française et la stratégie européenne autour de GAIA-X, semblent bien alignées. Rappelons que GAIA-X vise à labelliser des offres cloud respectant des standards de respect de la réglementation européenne, mais également de fédérer les industriels autour de "hub de données" pour collaborer dans un contexte protégé par les lois européennes.

Il reste maintenant aux fournisseurs européens à être accessibles aux marchés de l'Administration, plus vite que les acteurs américains ne pourront s'allier pour les prendre de vitesse... Le cloud est un marché très dynamique où jouent à fond les économies d'échelles et la consolidation. L'Europe offre plus de potentiel pour une R&D et des investissements que la seule migration d'applications de l'administration française. Le cloud français va donc pouvoir accélérer avec la stratégie cloud de la France (côté Demande), mais il ne sera pas indépendant du cloud européen sur le moyen terme (côté Offre).

Selon un rapport de KPMG publié quinze jours avant, le marché européen du Cloud de 53 milliards d'euros aujourd'hui aura une taille comparable à celui des télécoms en 2027, avec une croissance de 27% en moyenne, sur un marché par nature très concentré. L'enjeu économique est donc considérable pour les acteurs européens qui ont actuellement une part faible de ce marché dominé par les acteurs américains. Pour illustration, notre champion national, aussi champion européen, OVHCloud, atteint à peine 4% du marché européen.

 

Or le rapport souligne également le manque de régulateur dédié comme dans les télécoms, donc une complexité potentielle sur le plan concurrentiel qui va se jouer dans les détails techniques de choix, standards et normes d'interopérabilité ou de réversibilité.

Ce rapport dresse alors plusieurs scénarios d'évolution très pertinents, allant d'un cloud européen comme "bien commun" (porté par GAIA-X) a une "hyper-fragmentation" par pays et industrie. Cet écart de situations montre les défis et les incertitudes entourant le futur du cloud européen, et donc les risques pour ceux qui doivent se positionner avec de nouvelles offres. Les acteurs américains ou chinois (Alibaba) peuvent eux compter sur le marché de leur "base arrière" pour assurer leur développement en Europe.

Pour GreenSI l'appel du 17 mai restera donc un jalon important de l'histoire du cloud français pour aborder sans tabou l'équation, insoluble jusque-là, de faire croître les acteurs nationaux, voire européens, avec une stratégie Cloud First du service public, et leur donner une "base arrière" pour la bataille européenne qui se prépare.

Maintenant, cela prendra du temps, certainement 5 à 10 ans, et donc le moteur du Cloud français restera encore un certain temps celui des entreprises françaises.

samedi 15 mai 2021

Quand les APIs transforment les industries

Les APIs sont très présentes dans les programmes de transformation des entreprises, notamment pour décloisonner le système d'information et l'ouvrir à l'écosystème des partenaires et clients de l'entreprise, qui viendront y chercher des services et des données. Pour les entreprises qui produisent des machines (industrielles, agricoles, ...), c'est également la possibilité de connecter ces équipements à la transformation digitale de leurs clients, où elles deviennent de formidables sources de données pour leurs opérations.

Ouvrir, data, agile, collaboration,... les APIs cochent plusieurs cases de la transformation digitale des entreprises.

Mais ont-elles la possibilité de transformer carrément une industrie ?

C'est ce que va chercher à illustrer ce billet avec le secteur bancaire, qui paradoxalement a plutôt l'image d'être très fermé, et qui par construction va chercher à sécuriser, plutôt qu'à ouvrir à tous vents. Pourtant, l'évolution de ce secteur ces dernières années a montré l'inverse et le régulateur pousse pour que la valeur de services de l'ensemble des acteurs soit supérieure à la somme des valeurs de services de chaque acteur.

En effet, les APIs permettent la connectivité entre acteurs. On est donc principalement dans du B2B - Business to Business - quand on parle d'API.

Un premier rapprochement que l'on peut faire est donc celui de la loi empirique de Metcalfe, qui dit que la valeur d'un réseau augmente avec le carré du nombre de participants. Si les APIs permettent d'augmenter la taille d'un écosystème, la valeur de cet écosystème augmente pour tout le monde et créé de la valeur. 

Ces APIs servent principalement à échanger des données et à délivrer des services.

Une seconde idée forte est donc que la circulation des données entre deux acteurs va permettre de développer de nouveaux services qui ne pourraient pas être développés par une seule banque. Par exemple, vous avez dû remarquer que votre banque vous propose depuis peu d'afficher les soldes des comptes que vous avez dans d'autres banques concurrentes. Le bénéfice pour vous est de simplifier votre gestion de compte et depuis l'interface en ligne de la banque où votre salaire est domicilié, en pouvant facilement voir combien virer sur les autres pour les alimenter.

Ce service de gestion de compte centralisé a d'ailleurs émergé en dehors des banques traditionnelles avec des FinTech, comme Bankin ou Linxo, qui se sont positionnées à leur origine sur la gestion multi-comptes et multi-banques. On va voir que la dérèglementation a ensuite conforté ces modèles. Depuis, leur capacité d'analyse des données par des algorithmes maison, leur permet d'évoluer vers le coaching bancaire. Elles ont ainsi été consacrées par un statut d'agrégateur de services, construit sur leurs plateformes et leurs APIs.

La circulation des données délivre de la valeur complémentaire à celle des banques traditionnelles et l'algorithme, et non la donnée, est la source d'avantage concurrentiel.

Une étude de McKinsey avait marqué les esprits il y a huit ans en posant le potentiel de l'ouverture des données (pas que l'opendata du secteur public) et l'avait évalué entre 3 et 5 milliards de milliards, à l'échelle de l'économie mondiale.

Dans cette étude le domaine de la finance n'était pas celui qui avait le plus de potentiel, mais il était clairement identifié et depuis a permis à de nombreuses FinTech de trouver leur place. Le domaine du transport a aussi depuis montré son potentiel et même développé des standards d'échanges.

On voit également que l'ouverture des données dans le domaine de la santé est porteur de valeur. C'est ce qui a été démontré dans la crise sanitaire de la Covid pilotée par les données partagées sur toute la chaîne, et sur toutes les chaînes, au quotidien. 

La production des vaccins en une année, ce qui n'avait jamais été fait est aussi un cas d'école de l'échange de données au niveau d'une industrie. Les échanges de données à la semaine pendant toutes les phases d'essais cliniques, entre les agences en charge d'autoriser les vaccins et les industriels qui les testent, ont permis d'impliquer ces agences très en amont et d'accélérer le processus de plusieurs années. Elles ont également pu réduire le risque avec leurs retours réguliers et inciter les industriels à commencer la production avant la validation, ou à abandonner rapidement comme le malheureux vaccin de Sanofi/Pasteur. 

 

Ces deux libérations de données marqueront définitivement l'industrie de la santé à l'avenir, et l'agilité est clairement une rupture de méthode - peut-être pas assez médiatisée - dans un processus qui était plein d'effets tunnels, de ceintures et de bretelles. En revanche, mis à part la prise de rendez-vous avec les plateformes en ligne comme Doctolib, il y bien peu d'API actuellement, mais beaucoup d'échanges csv.

Mais revenons au domaine bancaire. En complément de la FinTech qui est clairement un moteur de transformation de l'industrie qui puise dans l'ouverture des données, la régulation est un autre facteur important de transformation et plus particulièrement "l'open banking" qui oblige les Banques à donner accès à leurs données.

La directive DSP2 a instauré (en 2018) un statut permettant à des tiers non bancaires d'émettre des moyens de paiement (typiquement des cartes) et d'effectuer des paiements à condition que les comptes ne passent pas à découvert (en attendant que ces nouveaux opérateurs soient habilités à faire du crédit). Des acteurs comme Treezor en ont profité pour faire que, la tenue de compte et la gestion des cartes bancaires, puissent être gérées en marque blanche et vendues à des néo-banques se concentrant sur la vente, la relation clients et intègrant ces fonctionnalités sur leurs plateformes via des APIs. Ceci n'est pas sans rappeler dans les télécoms le modèle des MVNO "opérateurs de télécoms mobiles virtuels", qui vendent des services mobiles sans détenir d'infrastructure physique.

Cette directive a permis ainsi la multiplication des nouveaux acteurs et la valorisation des données bancaires, et selon la loi de Metcalfe à l'augmentation de la valeur globale de l'industrie. Ceux qui en bénéficient le plus sont ceux qui collaborent le plus et le plus vite, en faisant grandir l'intégration de leurs services et la taille de leur écosystème. Une réflexion contre-intuitive il y a dix ans dans la Banque.

Les APIs sont donc devenues les éléments principaux d'un écosystème, des business models, sans lesquelles ils ne peuvent fonctionner.  Elles sont devenues stratégiques et l'offre bancaire intègre l'offre API, que ce soit pour créer des nouveaux services (comme l'OTT des Telecoms) ou générer des revenus supplémentaires. Les APIs permettent également de bénéficier des atouts de cette technologie pour sécuriser les accès.

Leur impact sur l'industrie est l'émergence de nouveaux modèles qui demandent aux acteurs de se repositionner par rapport à la production des services et à la relation clients. On retrouve ici l'évolution de la relation SCM-CRM mise en évidence dans d'autres billets. Les banques traditionnelles B2C avec des marques fortes vont tenter d'être des offreurs complets ("Full service provider") quitte à intégrer ou racheter des FinTech, quand d'autres vont se concentrer sur la production de services bancaires ("Bank as a Service"). Les banques d'investissement très ancrées dans le B2B vont devoir intégrer cette approche et développer leur écosystème.

Un autre enjeux est technologique, à l'instar d'Amazon qui d'un côté vend en direct, mais intègre aussi des boutiques tierces et fourni sa plateforme technique avec AWS. Certains acteurs deviendront des plateformes techniques incontournables ("Bank as a Platform"), ce qui n'est finalement pas nouveau dans les moyens de paiements et les services interbancaires, et qui a fait la fortune d'ATOS Wordline autour du réseau des Distributeurs Automatiques de Billets (DAB/GAB).

Enfin d'autres seront tentées par le modèle plus visible de "Marketplace" quitte à intégrer des services sans lien direct avec le domaine bancaire.

La stratégie de Wechat Pay (Tencent - "le Facebook chinois également opérateur mobile") et Alipay (Alibaba - "le Amazon chinois") sont aujourd'hui les plus disruptifs à grande échelle. Les caractéristiques du marché chinois, sa taille, et notamment la révolution des paiements dans la vente de détails, ne sont biens sûrs pas étrangers à cette réussite, et il n'est pas évident qu'elle soit transposable. Les APIs sont exploitées sur leurs plateformes pour tirer bénéfices de tous les autres fonctions (réseau social, shopping, ...) et non en externe avec le monde bancaire.

En moins de 10 ans, ces acteurs ont réussi à désintermédier les banques des opérations de paiement, avec plus d’un milliard d’utilisateurs sur chaque plate-forme, les cartes bancaires et les espèces remplacés par des QR codes et des transactions numériques sur ces plateformes. L'an dernier l'introduction en Bourse de Ant, la banque en ligne d'Alibaba valorisé à 30 milliards, a été suspendue par les autorités chinoise. Une disruption qui devenait peut-être même incontrôlable par les autorités elles-mêmes...

Le pouvoir de transformation des APIs et des plateformes à l'échelle des industries est donc très important. Les quatre modèles d'opérateurs dans ce nouveau paradigme, sont suffisamment génériques pour être transposés à d'autres industries, après s'être inspiré des télécoms. La vitesse de la transformation dans chaque industrie va dépendre de la régulation, bien sûr, mais aussi du degré de fermeture actuel.

Plus c'est fermé aujourd'hui, plus il y aura d'opportunités et de valeur à ouvrir demain, donc attirera en priorité les investissements. Finalement le secteur bancaire est un cas d'école de la transformation d'une industrie par les APIs.

dimanche 18 avril 2021

La crise fait bouger le SIRH

La crise continue de déplacer les lignes.

Cette semaine, GreenSI prends le prétexte de l'acquisition de Talentsoft, spécialiste de l'expérience employée, par Cegid, un acteur traditionnel de l'ERP et 4ᵉ éditeur français, pour faire le point sur le SI dans le domaine des ressources humaines (SIRH).

En 2015, GreenSI titrait "SIRH: la transformation digitale au point mort ?" en faisant le constat d'une prise en compte mitigée du digital dans les RH, quand les autres directions, clientèle et commerciale en tête, étaient bien engagées dans des chantiers ambitieux. Et de se demander si l'horloge du SIRH ne s'étaient pas arrêtée 10 ans avant, à l'automatisation des bulletins de salaires, voire timidement à la gestion des formations, mais toujours dans une vision administrative et productiviste, limitée à l'ERP.

Pourtant, le numérique a dopé le potentiel de transformation de l'entreprise. Il est capable de créer plus facilement des canaux de relations, d'interagir sur les canaux externes comme les réseaux sociaux, de produire du contenu et de la connaissance pour les salariés, de créer de l'expérience employée ou de se préoccuper de l'efficacité ou du moral de ces salariés au travers du numérique. Les ressources humaines pourraient aussi aider les salariés à assurer leur sécurité et leur aisance dans l'usage du numérique, comme elle le fait dans les usines et les entrepôts avec les EPI (Équipements de protection individuelle, notamment les casques ou lunettes de protection) quand il n'y a pas une direction dédiée à la sécurité.

En 2015, l'impression générale du numérique dans les RH est donc celle d'un angle mort autour du salarié et de son expérience employée. Depuis, de nombreuses startups ce sont engouffrées dans cette brèche pour rénover ces processus où l'expérience est clef, comme le recrutement, l'accueil des embauchés, la gestion des notes de frais et bien sûr la gestion des talents.

D'ailleurs, GreenSI se demandait dans un autre billet, toujours en 2015, si DSI et DRH ne devaient pas se rapprocher dans un mariage de raison. Les deux directions sont en relation avec les salariés, l'une sur le plan administratif et contractuel, l'autre sur le plan des outils numériques, de plus en plus importants et répandus. Cinq ans plus tard, c'est la mise en place d’espaces et d'outils collaboratifs, du flex office et l'accompagnement des salariés dans la transformation digitale, qu'ils ont en commun. La question de leur articulation est toujours aussi brulante.

En 2020, la crise a renforcé le numérique dans les entreprises qui n'ont pas fermé, et notamment dans la fonction RH qui a dû accélérer sa digitalisation pour répondre aux réalités pratico-pratiques de la signature de contrats à distance, du partage de données personnelles, et dans le meilleur des cas, de la gestion de coffre-forts en ligne. Le moindre faux pas ouvrant des brèches aux usurpateurs d'identité, en leur fournissant sur un plateau des données à exploiter.

La crise va aussi renforcer le numérique chez ceux qui ont peaufiné leur réouverture pour mettre en place des protocoles sanitaires à l'échelle (QRcode, réservations, ....).

Et puis le numérique s'est également renforcé dans les foyers des salariés avec le télétravail, au point de faire baisser le prix des logements mal raccordés à internet, en fixe et même en mobile. La bande passante est devenue un critère d'achat d'un bien immobilier et un lien potentiel avec son travail.

Enfin, le focus s'est renforcé sur la protection des salariés, qu'elle soit physique pour leur santé, ou numérique avec des cyberattaques dont ils sont devenus la cible privilégiée et le vol de données personnelles simplifié par l'utilisation de l'email pour faire transiter ces données.

C'est donc dans ce contexte qu'il faut analyser l'acquisition par Cegid de la jeune pousse Talentsoft (listée en 2019 au Next40 des startups françaises à potentiel). Les SIRH vont devoir massivement se moderniser.

C'est également dans le contexte de la montée en puissance du Cloud. Le chiffre d'affaires de Talentsoft de 80M€, représente 16% des 500M€ de CA de Cegid. Mais c'est un chiffre d'affaires quasi 100% en SaaS, contrairement à Cegid qui réalise de l'ordre de 160M€ en SaaS. Le CA de Talentsoft est donc 50% du CA SaaS de Cegid. Talentsoft va donc permettre à Cegid d'augmenter son SaaS de l'ordre de 33%, ce qui pour Truffle 100 - classement des éditeurs français - est le facteur de croissance principale des éditeurs.

 

L'objectif de Talentsoft depuis sa création en 2007, c'est de créer le futur des RH, en offrant en SaaS une plateforme de transformation des talents et de leur expérience au travail, allant jusqu'à matcher les aspirations des salariés avec les opportunités offertes par l’entreprise en termes de projets, de postes et de formations. La vitesse de sa croissance et son rachat par le spécialiste de la gestion administrative, est le signe du développement de la transformation du SI RH et avec lui des opportunités pour la DRH. 

De plus, la transformation digitale des RH s'est poursuivie, au-delà de la digitalisation des processus, avec l'exploitation des données, et même les débuts du développement de l'intelligence artificielle. Le tri automatique des CVs, le  recrutement prédictif, la catégorisation automatique et intelligente des parcours de collaborateurs en regard du référentiel de compétences, intéressent les DRH. On est bien dans le domaine des gains de productivité, de la simplicité, et  de l'efficacité, amenée par des assistants intelligents au service des RH.

Le SIRH illustre donc la création de valeur en dehors de l'ERP, et du cœur du système de gestion administrative des salariés.

Dans la plupart des entreprises, c'est pourtant lui qui consomme certainement la majorité des ressources SI affectées au domaine RH, Et parfois l'ERP, au sens plateforme intégrée de gestion des ressources de l'entreprise, n'est même que virtuel, composé d'un ensemble de solutions non connectées entre elles, qui consomment encore plus de ressources pour leur intégration. Un rééquilibrage qu'il sera alors essentiel de réussir pour dégager des marges de manœuvre et pouvoir investir dans ces nouveaux domaines, en dehors de l'ERP, essentiels à la transformation digitale.

Pour GreenSI, l'enjeu de ces prochaines années pour la DSI, est de réconcilier ces deux mondes, et de ne pas voir l'avenir des RH uniquement au travers du prisme de l'ERP. En tout cas Cegid n'y croit plus.

___________________________________________________________ 

Laisser un commentaire, c'est faire avancer le débat !
Vous pouvez aussi engager le dialogue sur Twitter : @fcharles

lundi 5 avril 2021

Quand la donnée circule en ville

En 2012, GreenSI écrivait un billet "quand le numérique descend en ville", pour mettre le projecteur sur les débuts de la transformation numérique des collectivités. Après une première étape centrée sur la dématérialisation, elles abordaient les relations et les services numériques aux citoyens. Comme dans le privé, cette transformation n'est possible qu'avec une maîtrise des données, mais aussi par leur circulation au sein des systèmes complexes qu'elles gèrent : les villes, villages et métropoles.

Dix ans plus tard, cette transformation est maintenant bien entamée. La sortie du livre "Quand la donnée arrive en Ville" d'Antoine Courmont, responsable de la chaire Villes et numérique de Sciences Po,  est l'occasion de faire un point sur les enjeux de la donnée au sein des territoires depuis les débuts de l'open data. Au menu, les politiques autour des données urbaines traitées par cet ouvrage, mais également la vision de GreenSI sur les fonctions collaboratives assurées par ces données dans l'écosystème des acteurs de la ville.

Et puis ce mois d'avril marque le "printemps de data.gouv.fr", la plateforme de l'État en charge de l'ouverture des données, qui a fêté ses 10 ans, se propose ces 3 prochains moins de contribuer à faire circuler les idées sur son avenir et celui des données publiques.

Alors que s'est-il passé dans la donnée urbain, depuis que la ville pionnière, Rennes, a ouvert ses données en 2010 ?

L'approche proposée par Antoine Courmont est une approche de sociologie politique des données, qui ne se limite pas à l'aspect technique, et découpe le cycle de vie de la donnée en 3 grandes parties :  l'attachement, le détachement et le ré-attachement.

Il nous rappelle que les données ne sont pas indépendantes de tout, mais bien attachées à des infrastructures, à des personnes ou à des pratiques qui les produisent. L'oublier et tenter directement de les réutiliser, c'est courir à l'échec de leur réutilisation immédiate hors contexte. L'année qui vient de s'écouler, et qui au quotidien a partagé les données de santé, dont se sont emparés les journalistes et même des datascientists indépendants (comme Covidtracker), nous a régulièrement montré l'importance de la compréhension du contexte de production :

  • des données des EPHAD, qui n'ont pas été consolidées au départ alors que ces populations était plus fragiles, faussaient la vision nationale,
  • des données qui ne remontent pas aussi rapidement le week-end, gonflent les chiffres du lundi et sous-estiment ceux du vendredi au dimanche,
  • des évolutions permanentes des méthodes de collecte et de calcul, compliquant les comparaisons dans le temps.

L'idée de la réutilisation des données, et donc de leur circulation, doit passer par un "détachement" de cet environnement initial.

Elles deviennent alors des ressources économiques qui ont besoin d'un instrument, comme une licence, une équipe dédiée à leur ouverture, une plateforme ou encore une place de marché quand il s'agit de données pouvant être valorisées.

C'est lors de cette interface de "détachement" que l'open data "théorique" a été mis à rude épreuve ces dix dernières années. Il n'a pas totalement fonctionné si la collectivité n'y a pas mis des moyens pour cela, malgré un contexte règlementaire ambitieux. Les politiques d’open data ont conduit à une prise de conscience, pour au moins 700 collectivités (10%) ayant ouvert des données, sur les enjeux sur la gouvernance des données.

Mais la progression de l’ouverture des données des collectivités est très faible, au rythme étrangement constant d'environ 120/an constate l'association Opendata France. À ce rythme, il faudra 30 ans pour arriver à l’obligation d'ouverture des collectivités de plus de 30.000 habitants. L'open data cherche donc un second souffle pour structurer ce détachement, comme le traitait GreenSI en 2019, sur le plan technique, avec l'arrivée de l'open API (l'open data s'essouffle mais "closed data" arrivent) et des plateformes du privé.

Le domaine qui a jusqu'à présent le mieux réussi ce détachement et montré l'intérêt de la circulation des données, est celui de la mobilité.

La récupération des données des offres de transports pour développer des services multimodaux, s'est appuyée sur l’open data, sur des plateformes d'intermédiation d'acteurs privés français comme Navitia.io, dans un domaine où Google est très présent (Maps et Waze) et tentent de pousser ses propres standards jusqu'aux collectivités.

L'association, public et privé, est ici un élément clef du dynamisme, comme la crise Covid-19 l'a été pour les données de santé en 2020. Cependant, elle pose également des questions légitimes sur qui pilote réellement la gouvernance urbaine, quand les données jouent et joueront un rôle toujours plus grand, si la collectivité n'est pas impliquée dans leur circulation.

Ce travail de "détachement" des donnés est donc essentiel. Les collectivités qui mettent en œuvre une politique d’open data devront s'organiser pour la gérer, sur le plan technique (plateformes) mais aussi organisationnel (conformité, standards, documentation, ...), et ainsi amorcer une gouvernance des données ouvertes.

Enfin, ces données ouvertes peuvent être à nouveau "réattachées" à un nouveau contexte, quand l'offre rencontre une demande et donc des ré-utilisateurs.

À l'échelle des territoires, les premiers usages opérationnels concernent la coordination entre des acteurs, avec des gains en coûts de coordination à la clef.

Les données circulent par exemple entre l'usager (qui fait un signalement), la collectivité (qui qualifie et organise la réponse en fonction de la répartition des compétences entre les acteurs), et l'opérateur en charge du service urbain concerné (qui reçoit une demande). Les opérateurs rendent aussi des comptes à la collectivité (extranet) qui parfois organise la coordination (multi-services) entre ces opérateurs, par exemple pour l'occupation de l'espace public ou les travaux.

Signalements, demandes, extranet, open data, multi-services, autant de mécanismes d'échanges de données devenus essentiels pour la coordination des activités du territoire. À Dijon et Angers, une nouvelle forme d'organisation des services est même apparue avec les "hyperviseurs", sortes de "tours de contrôle" du fonctionnement des services urbains. La modernisation autour des données sert donc les services de la collectivité, mais également les acteurs externes et contribue au dynamisme numérique des territoires.

L'acculturation des agents pour faire ce détachement est donc un nouvel enjeu des collectivités, passant par l'animation, la pédagogie et plus globalement l’accompagnement. L'accompagnement des collectivités de petites tailles a été initié par l'association Opendata France en 2013 pour aider à comprendre, produire et réutiliser les données, créant un réseau d'acteurs opérationnels. Beaucoup de travail reste à faire.

Pour GreenSI, la vision d'attachementdétachement et ré-attachement, ce cycle de vie de la donnée qui circule, nous éclaire sur les moyens et les difficultés de cette circulation.

L'open data aura été pour certains un premier allumeur du moteur de la gouvernance urbaine par les données. La transformation numérique des territoires, des services urbains et des opérateurs de ces services, vont maintenant le faire tourner à plein régime pour satisfaire les besoins de collaboration et de coordination à l'échelle des territoires numériques et intelligents (def: qualité de l'esprit qui comprend et s'adapte facilement).

Une intelligence devenue collaborative par la circulation des données.

L'humour de ceux qui aiment le numérique