dimanche 21 mai 2017

WanaCrypt or WanaUpgrade your IT ?

WanaCrypt or WanaUpgrade your IT ?

Ce lundi 15 mai, de nombreuses DSI vont se réveiller avec la gueule de bois après le passage ce week-end d'une tornade non prévue: WanaCrypt.
Certains furent déjà sur le pont tout le week-end pour prévenir leurs utilisateurs. La mauvaise nouvelle c'est que cette tornade pourrait encore durer quelques temps vu la boîte de Pandore qu'elle vient d'ouvrir. C'est l'objet de ce billet que d'aider les managers et les équipes métiers en charge des applications à en prendre conscience.
WanaCrypt est un "rançonware", c'est à dire un logiciel qui une fois installé sur un poste de travail (via la pièce jointe d'un email reçue et ouverte ou la propagation sur le réseau local de l'entreprise en mode "worm") en crypte tous les fichiers puis demande entre $300 et $600 en bitcoin pour récupérer ses données. Le bitcoin permet aux hackeurs de garder l'anonymat pour réutiliser la somme.
Même si l'argent est généralement la principale motivation des hackeurs, dans le cas présent rien ne garantit que les données soient restituées. Les consignes sont d'ailleurs généralement de ne pas payer pour ne pas encourager de prochaines opérations. Traduisez, votre poste crypté vient d'être sacrifié...


Vendredi 12 mai c'est le Royaume Uni qui a fait les frais d'une vague massive d'emails de phishing et d'une propagation fulgurante au sein de ses entreprises. Elle a notamment touché une entreprise publique très médiatisée, National Health Service, le gestionnaire des hôpitaux anglais, des hôpitaux qui ont été rapidement désorganisés quand les employés ne pouvaient plus utiliser leur ordinateur pour récupérer les données des patients.

Des entreprises de toute l'Europe ont également été touchées, comme Renault qui a immédiatement stoppé la production sur son site de Sandouville, Nissan UK, la Deutsche Bank, la Banque de Bilbao ou Telefonica l'opérateur historique espagnol.

Depuis on parle de cyber-attaque massive et mondiale, et fait rare, le journal de 20h de la Une a ouvert pendant 5 minutes sur ce titre samedi soir, la veille d'une actualité politique pourtant chargée en France avec la prise de fonction du nouveau Président de la République française.

  Image: Malwaretech.com.

C'est vrai que l'envoi de 5 millions d'emails par heure (comme cité par certains rapports de sécurité) peut être considérée comme une attaque massive (en 2016 les 215 milliards d'emails envoyés dans le monde - hors spam - correspondent à 24 millions d'emails par heure en moyenne).
Cependant GreenSI trouve que c'est un peu simpliste de ne regarder que le côté "cyber-attaque" même si visiblement cette attaque paraît organisée (préparer des millions d'emails à l'avance) et pensée (lancement un vendredi avant le week-end en ciblant les entreprises ?).

Dans cette crise le vrai problème pour les SI est surtout du côté de la défense! 

En effet, plusieurs "faits" découlant de politiques passées ont considérablement affaibli les défenses des entreprises, ce qui a favorisé la vitesse de propagation du virus en leur sein. Ces faits doivent nous faire réfléchir sur la gouvernance des systèmes d'information au moment où ils deviennent de plus en plus critiques pour toutes les activités.
  • Une faille connueCette faille de sécurité dans Windows était connue et bien identifiée, notamment par la NSA qui l'exploitait comme porte dérobée pour espionner les PCs. Elle a fait l'objet du bulletin de sécurité de Microsoft du 14 mars (MS17-010), donc il y a déjà un mois, avec la liste des systèmes concernés et le correctif à appliquer.


    Et pourtant tous les systèmes n'ont pas été mis à jour en un mois alors que la mise à jour était critique

  • Des SI qui utilisent des produits non maintenus
    La faille est aussi présente sur Windows XP, Windows 7 et Server 2003 qui représentent encore un bon pourcentage respectivement des postes de travail et serveurs, et notamment ceux du NHS, alors que ces produits ne sont plus maintenus par l'éditeur. Heureusement, dans l'urgence, Microsoft a diffusé gratuitement un correctif ce week-end.
    Les grands comptes qui ont payé très chère la "software assurance" de Microsoft pour XP, pour avoir de façon privilégiée quelques correctifs, doivent l'avoir mauvaise puisque le correctif du week-end a été livré gratuitement a tout le monde ;-)

    Quoi qu'il en soit, l'obsolescence est une réalité dont le management devrait se préoccuper, une partie du SI tourne sur des produits non maintenus donc vulnérables et ce souvent des applications anciennes au cœur des processus et de l'organisation. Est-ce que les métiers en charge des applications en sont conscients ?


  • Des postes de travail pas toujours sauvegardésAvoir un backup de l'ensemble des postes de travail de son entreprise peut sembler une évidence, mais est en fait très compliqué à mettre en oeuvre opérationnellement (avec la mobilité et les portables par exemple). La réalité est donc que si un poste est verrouillé et crypté, le retour arrière se fera en perdant certainement des données du poste.

    Il faut donc accepter cette réalité, tout poste de travail doit pouvoir être détruit sans prévenir et sans impacter l'entreprise (au-delà des heures perdues par son malchanceux utilisateur... ) et surtout se préparer à l'affronter.


    Ceux qui ont engagé des politiques d'outils collaboratifs auront plus de chance avec les données des projets stockées dans ces outils au lieu d'être sur les postes des utilisateurs. Mais j'ai malheureusement vu trop de projets repasser d'outils collaboratifs à des outils personnels sous Excel, au gré des consultants de passage, pour encore y croire...


  • Une NSA qui joue à l'apprenti sorcier
    La faille a été identifiée par la NSA il y a longtemps et les outils pour l'exploiter, qui ont certainement mobilisé les meilleurs experts en sécurité du moment, ont malencontreusement été dérobés à la NSA par un collectif de hackers en mars dernier (Shadow Brokers). Un peu comme si l'Institut Pasteur laissez filer plusieurs souches du virus de la variole, aujourd'hui disparu, et qu'il conserve à des fins scientifiques.

    On peut accuser tous les hackeurs du monde, la responsabilité de la NSA ne doit pas être oubliée et elle est double: avoir fabriqué les matériaux du virus ET les avoirs perdus dans la nature. Il n'y a malheureusement pas de comité d'éthique pour ce qui concerne l'informatique. Avec l'arrivée de l'intelligence artificielle, peut-on tout laisser faire parce que c'est du logiciel et non de la manipulation d'embryons humains?

    Et finalement, cela ne montre-t-il pas que les gouvernements peuvent aussi être plus dangereux que les hackers ?
Les systèmes d'information des entreprises reliés dans un SI global par Internet étaient donc bien malades avant d'aborder cette nouvelle attaque virale !
Là où les défenses étaient faibles, là où les investissements pour le maintenir n'étaient plus en phase avec la criticité métier, c'est là que le SI est tombé rapidement. 

Dans un hôpital, dans une chaîne de production, dans une chaîne logistique, certainement tous des systèmes anciens qui ont toujours donné satisfaction, qui évoluent peu ou plus, et qui sont passés sous la ligne de visibilité des investissements d'obsolescence technique.

La Première Ministre Théresa May, est intervenue rapidement pour rassurer sur le fait que le Royaume Uni n'était pas la seule cible de l'attaque mais a surtout déploré le fait que l'ampleur au Royaume Uni avait été exacerbée par une "politique conservative du NHS découlant des mesures d'austérité du gouvernement". 

GreenSI vous rappelle le graphe de décision de la maintenance: si la probabilité est forte et que le coût de mise à jour est élevé alors il n'y a qu'une alternative, patcher !

A l'ère du digital et de la transformation numérique le rôle de la DSI reste prioritairement de gérer cette obsolescence, car la durée de vie des applications est entre 7 et 10 ans, donc bien après la fin des projets de développement. Pour cela elle a besoin des métiers et du management, elle doit mettre en place une gestion des compétences pour conserver celles dont on peut avoir besoin sur des systèmes obsolètes. Mais pour ne pas faire crouler les investissements sous le poids de sa dette (technique) la meilleure stratégie reste encore de supprimer les applications qui apportent une valeur marginale mais sont surtout un handicap ou un danger pour la globalité du SI.
Plus on a d'applications, plus on a un SI hétérogène technologiquement, et plus on est exposé à l'ensemble des failles qui ne manqueront pas de survenir dans un des composants techniques. WanaCrypt aura au moins eu le mérite de nous le rappeler et GreenSI pense pour longtemps.

Alors maintenant qu'est-ce qu'on fait: I want to crypt (wanacrypt) or I want to upgrade ?

mardi 9 mai 2017

L'ERP à l'ère de l'IA et des robots

L'ERP à l'ère de l'IA et des robots

Chaque année, GreenSI se pose la même question en actualisant un cours de management des SI sur la mise en place des ERP : comment cet animal, né depuis 45 ans sur un mainframe, a traversé toutes les architectures informatiques, et continue de se frayer un chemin dans l'évolution rapide des technologies (client serveur, mobilité, cloud, big data) ?

En 2017, l'ERP essaye même de se faufiler au travers des arcanes de l'intelligence artificielle et des robots connectés que nous promet l'industrie 4.0 : c'est le thème de ce billet.

Le fondateur de ce segment de l'industrie logicielle, l'européen SAP, n'a d'ailleurs jamais perdu sa place de leader depuis 45 ans. Une place pourtant très challengée par une myriade d'éditeurs américains dont la nouvelle génération apparue il y 7-10 ans surfe sur la vague des ERP dans le cloud. 

C'est le cas par exemple de Netsuite un ERP 100% SaaS qui s'est fait croquer par Oracle en novembre dernier (pour $8,9 milliards) et qui permet ainsi à Oracle, à défaut d'accélerer sa mutation vers le Cloud, d'afficher de la croissance (externe) dans le Cloud tant attendue par les analystes et ses actionnaires.

En 2016, SAP réalise 3 milliards de revenus dans le Cloud, un chiffre en croissance de 30%. Il  annonce même 2018 comme année charnière où les ventes de licenses (qui baissent) passeront en dessous des ventes SaaS (qui augmentent). Le Cloud est donc bien la dernière architecture à laquelle les ERP commencent à s'adapter pour ne pas disparaître.

La stratégie de SAP s'est concentrée sur S/4 HANA, sa nouvelle version après R/3, une stratégie qui met en avant les capacités d'une nouvelle base de données (HANA) à l'heure du bigdata et de l'ouverture des données - plus que la poursuite d'un ERP 100% cloud. Quand on sait que la majorité des implémentations de SAP le sont sur une base Oracle, maison mère de son 1er concurrent, on comprend pourquoi SAP s'attaque en priorité à la base de données. 

De toutes les façons, le passage au Cloud va redistribuer les cartes de cet avantage pour Oracle, car non seulement en SaaS le choix de la base de données n'est plus critique, mais en plus Oracle est très peu utilisé pour les développements dans le Cloud à cause de sa politique tarifaire de license.
La stratégie HANA de SAP est aussi la réponse à des bases de données devenues trop volumineuses (sans réelles stratégies d'archivage des données moins utilisées avec le temps), aux promesses du big data qui a besoin de capturer encore plus de données et surtout de les traiter en temps réel ("in memory"). Les systèmes décisionnels à l'ère des objets connectés ne peuvent pas reposer sur les entrepôts de données traditionnels mis à jour en batch, avec des données disponibles au mieux le lendemain.

Pour GreenSI, Mark Hurd (CEO d'Oracle) sait qu'Oracle Applications a pour l'instant raté le virage technologique des ventes Cloud et que le rachat de Netsuite lui permet de reprendre la main. Ceci à condition qu'il laisse Netsuite continuer d'innover, ce qu'il a promis à ses clients en avril dernier à Las Vegas lors du SuiteWorld 2017, la conférence mondiale des utilisateurs de Netsuite.  
Oracle, dirigée par l'ex-CEO d'HP, peut aussi amener à Netsuite son expertise sur les infrastructures et ses compétences en machines performantes depuis le rachat de Sun Microsystems. En revanche, pour les utilisateurs historiques de la suite Oracle Applications, beaucoup de questions et de nuages masquent la visibilité à moyen terme de leurs investissements, mais ils sont habitués...

Tous les DSI le savent bien, avec les ERP la question est moins l'innovation, qui est devant, que la gestion de la dette technique, qui est derrière.
 
De façon symétrique, les positions des éditeurs sont difficiles à prendre quand ils ont beaucoup de clients qui payent chaque année entre 18 et 22% de leur investissement initial en coûts maintenance. Ce focus sur les choix passés explique certainement une grande partie de la relative stabilité du marché des ERP qui change surtout par acquisitions.

Mais le corolaire de cette situation est qu'il faut donc piloter ses investissements ERP de façon beaucoup plus stratégique et à beaucoup plus long terme, que par exemple les choix d'une application mobile qui sera obsolète en 3 ans et re-écrite en 3 mois. 

Attention au réveil brutal dans les DSI aux yeux rivés sur le budget de l'année.

Pour GreenSI, maintenant que le Cloud s'est imposé comme le modèle de réduction des coûts, des risques et des délais de mise en oeuvre des ERP, c'est donc dans la direction de l'internet des objets et des prochaines architectures, pourquoi pas aussi la blockchain, qu'il faut regarder. À la clef, l'adaptation des ERP à l'ère des robots quand l'industrie et le commerce seront encore plus automatisés qu'aujourd'hui, et de l'intelligence artificielle qui va bouleverser les interfaces hommes-machines et la répartition des tâches entre les hommes et les machines devenues plus intelligentes.


L'Allemagne, berceau de SAP, de l'Industrie 4.0 et d'une chancellière visionnaire pour le maintien de la compétitivité de son industrie, est certainement un endroit privilégié dans le monde pour orienter les radars de sa veille (Chine et Corée du Sud sont aussi à surveiller mais n'ont pas d'éditeurs d'ERP reconnus mondialement).

Et c'est certainement sous cet angle là qu'il faut décoder l'implantation du centre européen Watson IOT d'IBM en Allemagne à Munich, pour co-innover avec clients industriels.

Justement, fin 2016, SAP annonçait un plan d'investissement de 2,2 milliards de dollars pour connecter son ERP aux solutions reconnues dans l'Internet des objets (IoT).

SAP IoT est donc la direction fixée par SAP pour combiner en temps réel, avec des capacités d'apprentissage (machine learning), les données de sa base de données HANA et les nombreuses données du monde externe issues des machines. A la clef un pilotage intelligent des processus de production.
C'est une direction qui ouvre des partenariats avec les éditeurs de solution de PLM - Product Lifecycle Management - très présente dans l'industrie pour gérer des machines complexes, les modéliser en 3D et les enrichir avec des données de mesures. Dans ces partenaires on retrouve l'américain PTC (et sa solution Thingworx) et les allemands Siemens et Bosch.

Dommage pour l'Europe que le français 3DS (Dassault Systems) fasse pour l'instant cavalier seul avec sa plateforme 3DExperience car une stratégie commune entre les deux premiers éditeurs mondiaux non américains (SAP et 3DS) renforcerait certainement le poids de l'Europe dans le logiciel mondial dominé très largement par les américains.


Ainsi, Siemens annonce Mindsphere, un écosystème ouvert basé sur SAP HANA que les clients et les développeurs peuvent utiliser pour développer, étendre et exploiter des applications dans le cloud. Les applications imaginées sont la surveillance en ligne de machines-outils distribuées à l'échelle mondiale, des robots industriels ou des équipements industriels tels que des compresseurs et des pompes.
Bosch a aussi signé un accord stratégique avec SAP HANA, montrant, si on en doutait, la puissance de frappe de l'économie allemande quand elle avance en "pack".

Attention cependant au fait que cette stratégie très pertinente dans l'industrie l'est beaucoup moins dans les services où l'ERP n'a toujours pas tenu sa promesse de mieux s'intégrer dans les processus collaboratifs qui se développent dans l'entreprise 2.0.

Dans la bataille de l'infrastructure cloud fiable qui sera le fondement de l'industrie 4.0, finalement l'ERP est en train (une fois de plus) de tirer son épingle du jeu en s'ouvrant au monde des objets connectés et de l'intelligence artificielle. Quarante cinq ans plus tard, SAP mène toujours le jeu mais le terrain de jeu s'est considérablement étendu.

vendredi 5 mai 2017

#FlipYourMind : Sortez du carcan de la non-régression

#FlipYourMind : Sortez du carcan de la non-régression

 #FlipYourMind est une série de billets de GreenSI sur le thème de la transformation digitale. Ne cherchons pas à agir à l'ère du digital tout en pensant encore comme à l'ère précédente. Si vous lisez ceci c'est certainement que vous avez choisi de prendre la pilule rouge ;-)


Pour faire sa place dans l'arène des entreprises numériques, tous les retours d'expériences sont formels, il ne suffit malheureusement pas de simplement de nommer un Chief Digital Officer et d'ouvrir une page sur Facebook.

Une fois passée la phase de sensibilisation du management au digital, puis de génération de projets, avec par exemple l'ouverture de Labs ou d'organisation de Hackathons, c'est bien une transformation en profondeur de l'entreprise qui est en jeu maintenant.

Cette transformation va demander de revisiter ce que l'on fait par habitude et de savoir s'il ne faut pas tout simplement arrêter de le faire pour financer, par ces économies, une nouvelle façon de faire exploitant mieux le numérique et son écosystème.

Mais quand il s'agit de systèmes d'information c'est plus facile à dire qu'à faire...

Or, tous les nouveaux produits et services ont maintenant une composante digitale reposant sur de nouveaux systèmes d'information interfacé avec les anciens systèmes. Il va donc être difficile de faire l'impasse sur cette question : comment arrêter de faire comme avant si ça n'a plus de sens?

Dans l'entreprise "non transformée" les donneurs d'ordres (maître d'ouvrage) sont à ce poste parce qu'ils se sont montrés de bons gestionnaires. Ils adorent donc ce qui est prévisible, planifié, et fuient donc l'idée de devoir tout ré-inventer. De plus, leur façon de faire a été codée dans les applications (parfois "en dur"), les tableurs et les méthodes utilisées par leurs équipes, quand ce n'est pas gravé dans la culture du service. Alors ne vous étonnez pas que quand la division X accepte de lancer un nouveau projet, qu'elle demande aussi qu'il n'y ait aucune régression fonctionnelle pour les utilisateurs. Changer la façon de faire n'est pas dans les habitudes !

La non-régression fonctionnelle est devenue un principe directeur de l'évolution des SI !

Alors avouez que dit comme cela on frise la caricature. Cette roue crantée qui doit empécher le retour en arrière est devenue un objectif affiché de stabilité dans un monde pourtant en forte mutation.

Mais au fait, pourquoi ne pourrait-il y avoir de régression? Pourquoi s'interdire de ne plus proposer une fonctionnalité aux utilisateurs?
Parce que c'est écrit dans les contrats? Ils doivent être bien détaillés ces contrats pour confondre la finalité et la fonctionnalité pour l'atteindre!

GreenSI est convaincu que la plupart des barrières qui érigent la non-régression en principe fondateur sont mentales et que le digital nous demande de renverser notre façon de penser. Flip your mind!

Car dans le digital cette notion n'est pas si forte, bien au contraire.
Google est le spécialiste du lancement de services en ligne qui après 12 à 18 mois sont tout simplement supprimés (ex. Wave, Health, recherche dans Twitter en temps réel...) quand ils ne sont pas modifiés (ex. Photos réintégré dans Drive). Idem pour les API de ces plateformes qui évoluent et demandent à tout un écosystème de s'adapter.

La modification des services des GAFAs se fait en fonction des retours de leurs utilisateurs et parfois aussi pour des questions stratégiques. On est très loin de la non-régression.

Cette semaine on a eu l'annonce par le français BlablaCar de sa version de covoiturage pour les trajets du quotidien vers son lieu de travail ("back to the future" pour covoiturage.fr !). Et bien l'application Blabla Lines, lançée pour l'occasion, ne permet pas de payer via la plateforme mais demande de règler... en liquide ! Quelle belle régression fonctionnelle à l'heure de l'internet et d'une des plus belles valorisation française. Cela pourrait faire sourire. Et pourtant Blablacar à raison. Le but est de tester le nouveau service rapidement et de collecter des données sur les usages, pas sur les paiements... CQFD

Ce qui ne surprend pas GreenSI car Blablacar Tech, le bras armé technologique interne de Blablacar est souvent présent pour partager son expérience dans les conférences sur l'agilité et devops, deux démarches qui sont au cœur du développement de sa plateforme.

Donc, pour GreenSI, une entreprise qui conserve la non-régression fonctionnelle comme un principe fondateur est une entreprise qui n'écoute pas ses utilisateurs, ou pire, qui parle pour eux sans les écouter.

Le digital a inversé la notion de donneur d'ordre. Elle transforme donc le rôle de la maîtrise d'ouvrage (voir MOA, lâchez prise sur la maîtrise des usages).
Certains comme ING Direct l'ont bien compris et depuis longtemps. Cette banque s'est engagée dans l'agilité en 2015 avec comme résultat visible pour ses clients que même pour une opération aussi simple qu'un virement de compte à compte, celui-ci peut décider si cela lui convient. Aujourd'hui le client est satisfait mais un jour peut être ce ne sera plus le cas, car les usages auront changés ou que la fonction ne sera plus adaptée, par exemple à un nouveau terminal qu'il a décidé d'utiliser.


Agir à l'ère du digital c'est aborder la construction de nouveaux services avec le design thinking et l'agilité sous toutes ses formes.
Penser à l'ère du digital, c'est abandonner la non-régression fonctionnelle comme un A PRIORI incontournable.

Oui, on peut repartir de "presque zéro" dans une relation clients avec un "minimum viable product" (MVP) qui reposera les bases et un socle de concepts fondamentaux pour la reconstruire, puis l'ouvrira à des clients recrutés pour construire cette nouvelle relation ou de nouveaux clients. Ensuite, c'est la démarche agile et "lean" qui permet d'itérer sur ce socle, service après service, en fonction de la priorisation des clients, mesurée en conditions réelles.
Pour cela, il faudra oublier le développement de produit tel qu'on le connaît, où la régression fonctionnelle est un clapet anti-retour et anti-innovation, pour passer au développement des clients et de la relation clients.

Le rôle du MVP - Minimum Viable Product - est d'ailleurs de recueillir les retours des clients pour tester ce socle et les nouveaux services. C'est ce que nous rappelle Blablacar Lines. Et peut-être qu'à l'issue de ce test un "pivot" permettra de repositionner le modèle sur la véritable attente des clients une fois mesurée et connue.


Dans "MVP" il y a le mot "minimum". Mais la culture du management de l'entreprise n'est pas habituée à ce mot qui y est peu valorisé. Il est plus facile de s'annoncer comme porteur du projet "Méga truc" ou "Super bidule", que du "produit minimum". Là, on voit que la culture de l'entreprise peut aussi nous freiner  ;-)

Pourtant, "minimum" n'indique pas un manque mais au contraire une formidable opportunité de construction. Ceux qui l'ont compris ont développé des services ré-inventés. Les autres ont reproduit dans le monde digital ce qu'ils avaient déjà et surtout sans cette rupture créatrice de valeur pour l'entreprise.

Pour GreenSI seul le développement de cette culture, en trouvant les bons leviers pour changer les comportements, permettra aux managers de faire des choix audacieux sur les sujets du numérique, et de réellement engager une transformation digitale entrée dans sa phase de changements en profondeur.

Ne ratez pas le prochain billet #FlipYouMind

vendredi 28 avril 2017

Une vision nouvelle sur les territoires de toutes les intelligences

Une vision nouvelle sur les territoires de toutes les intelligences


La semaine dernière, le député Luc Belot a remis au Premier Ministre un rapport commandé en novembre dernier sur le thème "De la smart city au territoire d’intelligence(s), L’avenir de la smart city". Un titre qui résonne avec plusieurs billets de GreenSI, sur la smart city mais aussi sur l'open data.

Alors quoi de neuf révélé par ce nouveau tour de France et du Monde, effectué par cette mission pour dégager des bonnes pratiques pour réussir cette mise en oeuvre dans les collectivités françaises?

Avant d'explorer les 24 propositions du rapport, on peut quand même se poser la question de son calendrier.

Quelle urgence y avait-il à sensibiliser un gouvernement sortant, qui n'appliquera donc pas les recommandations proposées, de plus sur un sujet qui par construction est plus ancré dans les territoires que dans les ministères ?
Cela restera pour GreenSI un grand mystère comme celui de #FranceIA, autre sujet pourtant clef pour le numérique et pour le rayonnement de la France, dont les recommandations rendues en janvier dernier auront de fortes chances de se perdre lors du déménagement à venir du gouvernement.

Le rapport de la mission conduite par Luc Belot (disponible en ligne) reprend une définition de la ville intelligente mêlant numérique et intérêt général: "une ville qui cherche à répondre aux questions d’intérêt général par des solutions numériques, permises grâce à un partenariat entre une multitude d’acteurs".

Son champ d'analyse par le prisme de l'intérêt général est donc volontairement plus réduit que la notion plus générale "Smart City = ville à l'ère numérique" que préfère GreenSI et où les acteurs peuvent interagir avec d'autres considérations que l'intérêt général, comme des contrats par exemple, mais on y reviendra.

Une nécessaire conduite de changements

On retrouve dans ce rapport une vision de la ville intelligente très complète, qui reconnaît ses opportunités pour les territoires, leurs habitants, les entreprises et donc, sans détour, va demander une nouvelle gouvernance par les collectivités territoriales et donc des moyens en rapport avec ces nouvelles missions.

Pour GreenSI, la question du "business modèle" est effectivement LA question essentielle, et un business modèle doit aller au-delà de la justification de l'investissement initial, souvent aidé par des subventions, et doit inclure les coûts de fonctionnement sur la durée. Ce rapport amène donc une grille de décision intéressante pour aider les collectivités à lancer ou non des projets.

Sur la gouvernance, qui est peut être le domaine où l'écart entre l'existant et le besoin est le plus grand, la mission identifie que l'enjeu est d'aller vers plus de transversalité pour sortir de politiques en silo, et d'associer à minima élus et administration, enseignement supérieur, et acteurs économiques.

Cette coordination sera d'autant simplifiée si ils sont déjà impliqués dans la politique de la ville, le numérique ne faisant qu'élargir le champ du développement de ses services.

Elle va aussi devoir donner une place à chaque citoyen, donc combattre la fracture sociale ou numérique, leur donner une plus grande place dans la décision publique et surtout remobiliser ces citoyens pour les élections locales qui ont un taux d'abstention en chute depuis 1982. Car si les élus locaux ne représentent plus les populations, à cette échelle locale, il va être de plus en plus difficile pour eux d'oeuvrer pour l'intérêt général. Compte tenu de cette perspective, les initiatives des "Civic Techs" qui cherchent avec l’usage de la technologie à renforcer le lien démocratique entre les citoyens et le gouvernement local, doivent donc être prises très au sérieux.

Ce rapport fait également le constat d’un manque de  formation des personnels. Notamment sur les fondamentaux du numérique et de la sécurité qui sont pourtant le socle de ces nouveaux services. Ce sera certainement une étape préalable indispensable avant de pouvoir aborder, de façon pragmatique, la question de la gouvernance.

L'accompagnement et la conduite des changements au sein des territoires et de leur organisation est donc certainement un chantier gigantesque et compliqué à engager pour développer la ville intelligente qui prendra donc du temps. Un chantier qu'il ne sera pas facile de coordonner avec celui de la technologie qui relativement ira plus vite et devra se renouveler plus souvent. Bienvenue dans la transformation digitale des collectivités territoriales !

Un marché mondial

Mais ce que révèle ce rapport c'est que la ville intelligente est aussi un marché mondial porteur d'opportunités pour la France. Une marché estimé à environ 1.000 milliards quand on regarde globalement les services à la ville que le numérique vient moderniser (mais n'en représente qu'une partie).


Car effectivement la France dispose d’une réelle expertise dans les marchés des services de la ville, reconnue dans le monde, à l'instar d'Orange, Bouygues, Suez ou Engie qui construisent ou opèrent des systèmes dans de nombreuses grandes villes sur tous les continents. Pour ces entreprises c'est l'occasion de conforter leur position à l'international en utilisant le numérique comme différenciateur tout en faisant de la France leur meilleure vitrine.
Une position très visionnaire de ce rapport au moment où après les premières expérimentation la Smart City veut passer à l'échelle.

L'inauguration à Paris place d'Alésia cette semaine d'un puit de carbone rempli d'algues et de capteurs pour transformer l'air pollué en énergie propre, au coeur d'une des villes les plus visitées au monde et à la veille de recevoir le Comité des Jeux Olympiques,  montre le potentiel de cette vitrine sur le plan international.

La France comme "living lab" de la ville intelligente, ou démonstrateur à l'échelle, qui forte de sa propre expérience exporte sa vision urbaine, sa technologie et son influence, est certainement un éclairage nouveau amené par ce rapport.

A l'autre bout du spectre des entreprises, les start-ups peuvent aussi se développer sur de nouveaux services à la ville car nier la complémentarité des offres privées et publiques conduirait à une dégradation des services offerts aux habitants. De plus, après un premier succès local, ces start-ups pourraient aussi être emmenées par ces grandes entreprises établies à l'international.

Le projecteur mis ces deux dernières années sur la FrenchTech, qui a eu le mérite de réussir la régionalisation des initiatives tout en gardant une marque nationale visible à l'international, est un atout majeur dont ce sont emparés ces nouveaux territoires numériques, et d'intelligences.

Un intérêt général qui ne doit pas devenir un frein

Cependant pour GreenSI l'intérêt général, dans sa conception française, n'est pas le seul moteur de développement dans l'écosystème d'une ville mêlant public et privé. Pour les anglo-saxons, l'intérêt général (ou intérêt commun) est la résultante de la somme des intérêts individuels et non comme on l'entend en France, une finalité d'ordre supérieur aux intérêts individuels qui dépasse l'intérêt commun.

Prenons le cas pratique de l'open data. L'open data s'est développé sur l'idée que le producteur d'une donnée, après l'avoir utilisé lui même, puisse ouvrir cette donnée pour que d'autres lui trouvent des usages qu'il n'avait pas imaginé au départ. Ainsi, en faisant circuler la donnée on va répondre successivement aux intérêts individuels des réutilisateurs qui sont concernés et converger progressivement vers l'intérêt commun vu des anglo-saxons.

L'open data est pour GreenSI le moteur des futurs échanges de données au niveau des territoires et un outil de création de valeur par les données sans précédent en se référant à l'étude en 2013 du sérieux cabinet McKinsey (Open data : unlocking innovation and performance with liquid information) qui voit au contraire la donnée fermée comme une inefficacité des marchés. Une inefficacité évaluée au niveau mondial à $3.000 milliards tous secteurs confondus. Bien sûr, il faudra organiser a posteriori ces échanges avec des contrats et des licences.
Le rapport Smart City qui se fonde sur l'intérêt général a priori propose de le renforcer via les licences, donc d'interdire a priori certains usages, qui peuvent tout à fait correspondre à des intérêts individuels permettant de développer le territoire par le numérique et d'offrir de nouveaux services aux citoyens, deux des enjeux poursuivis par la ville intelligente.



L'idée est intéressante mais la question c'est comment apprécier a priori les réutilisations par rapport à une politique d'intérêt général, dans un monde numérique aux évolutions si rapides, et sans détruire de réelles opportunités ?  Bien sûr tout le monde pense du côté des GAFAs, mais ne tuons pas nos startups françaises non plus. Donc tout cela semble bien compliqué à mettre en oeuvre. La CNIL sur le seul périmètre des données personnelles (non concernées par l'open data donc déjà protégées) a bien du mal, avec les moyens qui lui sont alloués, à obtenir toutes les déclarations d'utilisation de données et d'en vérifier les usages réels.

Pour GreenSI, la souveraineté ne devrait pas nécessairement conduire les territoires à vouloir garder une maîtrise totale sur toutes les données et sur tous les outils de la ville à l'ère du numérique. L'ouverture sur des fonds privés de Station-F à Paris, le plus grand incubateur de startups européen, ou prochainement de The Camp, à Aix en Provence, vont développer des écosystèmes numériques locaux sans précédent qui auront certainement un effet similaire à la Silicon Valley sur les villes Californiennes.

Deux leviers: l'architecture et la conduite des changements

Dans les propositions qui ont retenu l'attention de GreenSI on retrouve celles qui concernent l'architecture (car de tout temps la ville a été une construction avec ses règles et ses standards) et la conduite des changements (car Rome ne s'est pas construite en un seul jour) :
  • Attribuer une compétence nouvelle pour chaque type d’EPCI à fiscalité propre relative à la donnée pour créer un nouveau service public. Une compétence similaire devrait être donnée aux régions et aux départements pour les données qui les concernent.
  • Engager systématiquement des discussions et des collaborations avec l’ensemble des acteurs de la ville.
  • Inclure dans tous les marchés liés à la digitalisation des collectivités une clause sur la sécurité avec des critères d’exigence minimale définis au niveau national, en concertation avec les associations de collectivités et l’ANSSI.
  • Faciliter la réutilisation des jeux de données. Faire émerger une norme pour les données les plus utiles – transport, énergie et adresses – avant 2018.
  • S’assurer que les nouvelles infrastructures numériques puissent être le support de plusieurs usages et que l’investissement initial corresponde à l’adaptabilité de ces infrastructures.
  • Poursuivre le déploiement du réseau haut débit Internet et de la 4G de manière à couvrir les zones blanches.
  • Créer une clause "interopérabilité" et en faire une clause par défaut des contrats de commande publique des infrastructures numériques de la smart city.
  • Offrir des formations techniques en général, sur la sécurité en particulier pour évaluer les nouveaux objets connectés et des systèmes d’informations qui leur sont liés.
À défaut d'avoir un avenir dans des initiatives concrètes du prochain gouvernement, ce rapport permettra certainement aux collectivités engagées dans cette transformation numérique, ou qui la prépare, d'avoir une check-list des sujets à ne pas oublier et de mesurer que c'est une réelle transformation digitale des territoires qui se cache derrière l'acronyme de "Smart City".

mercredi 19 avril 2017

Stratégie digitale : Flip your mind !

Stratégie digitale : Flip your mind !


En 2012, GreenSI publiait une série de billets intitulés "Transformers" pour illustrer avec l'image de ces voitures robots (autobots) le besoin de changement des DSI pour aborder le numérique qui était en train de "digivorer" les industries une par une.

Cinq ans plus tard, la transformation numérique est sous tous les projecteurs et dans toutes les conférences, et l'ubérisation est à l'agenda de tous les comités de direction. Ce sont cinq années qui ont vu dans beaucoup d'entreprises beaucoup plus de changements que les dix années précédentes.

Pourtant, pour avoir eu l'occasion récente de faire un point sur ces changements dans quelques entreprises, on mesure que la route à parcourir est encore longue, et même peut-être sans fin, que les questions sont multiples comme celle du rôle du CDO que l'on redécouvre maintenant comme le "Chief Transformation Officer", une transformation à l'échelle de l'entreprise.

Quand en 2012 les enjeux de l'internet étaient sur les plateformes clients et la consolidation de la présence en ligne des entreprises pour prospecter, vendre et assurer des services, en 2017 le champ de l'internet des objets étend cette relation clients toujours plus loin, et demain, la nature même de cette relation sera chamboulée par l'intelligence artificielle et la blockchain.

GreenSI considère donc que le sujet de la transformation n'est plus celui de la technologie mais celui des usages (Entreprise du futur arrêtons de parler de technologies) et surtout de la conduite de la transformation. La méthode et la capacité d'apprentissage prends le dessus sur la technologie.

Car la technologie émerge à une vitesse plus rapide que celle de son assimilation et encore plus que celle de son adoption. En revanche, la façon d'apréhender la technologie structure encore l'organisation des entreprises et c'est pour celà qu'il faut encore lui préter attention.
Pour GreenSI les entités de l'entreprise qui exploitent la technologie (donc au delà de la seule DSI) se répartissent trois catégories :
  • celles qui gèrent l'infrastructure interne, la sécurise et la connecte à une infrastructure externe gérée par d'autres (Cloud public, Broker, BYOD, API ouvertes ...). C'est généralement le rôle régalien de la DSI.
  • celles qui accompagnent les usages des services numériques internes (notamment le Collaboratif ) mais aussi externes (notamment l'usage des API de l'entreprises par des communautés de développeurs). Le sujet de cette "Direction de l'Efficacité et de l'Attractivité des Collaborateurs" mêlant DSI et DRH est exploré dans "N'est-il pas temps de rebooter l'empire DSI?"
  • enfin, celles qui numérisent les processus pour adapter l'entreprise au digital, des entités aux compétences hybrides (métiers, data et numérique) incluant une approche agile adaptée à ces nouveaux processus et à l'organisation du travail et de la logistique qui en découle. Ces nouveaux processus peuvent alors porter de nouvelles offres de l'entreprise dans cette économie numérique.

La prise de conscience du digital est donc maintenant acquise

En 2012, les difficultés que l'on pouvait rencontrer entre les Directions métiers et la DSI commençaient ; quand seule la Direction métier prenait conscience du besoin de transformation, et que la DSI gardait son fonctionnement traditionnel. Elle gardait sa trajectoire souvent par déni de l'émergence de quelque chose de nouveau (l'internet, le Cloud et même l'iPhone on tous été considérés comme des "aberrations" par les DSI - et leur conseils - quand ils sont apparus.).

D'ailleurs, le déni (après l'ignorance) est la première étape de résistance de toutes les démarches de conduite des changements. Elle montre que le processus de changement a bien commencé. Mais en 2017, qui peut encore affirmer que la transformation digitale de l'économie est une mode qui va passer ? Bien sûr personne ne se retranchera derrière ces arguments.

Mais alors est-elle réellement assimilée ?

Qu'est-ce qui freine encore les projets de transformation numérique en 2017 ? GreenSI en a une petite idée et vos commentaires et nos échanges sur les réseaux sociaux la compléteront. L'hypothèse principale est: Nous sommes entrés dans une phase où nous cherchons à agir à l'ère du digital mais nous pensons encore comme à l'ère précédente.

Et c'est bien souvent sans s'en rendre compte. Parfois malgré un processus de changement engagé, nous ne nous sommes pas encore assez convaincus au fond de nous-mêmes que ce changement est irréversible.


Ce dernier cas, facile à repérer, n'est pas celui qui intéresse le plus GreenSI.
C'est par exemple quand quelqu'un qui n'a jamais fait d'agile vous explique que l'agile ne doit pas être une échappatoire aux projets au forfait et qu'il vous à déjà planifié sur 3 mois ce qu'il y aura dans chaque sprint et vous demande même de piloter selon un découpage arbitraire ignorant le retour clients. 

C'est aussi quand quelqu'un vous explique qu'il n'y a pas de problème pour utiliser le Cloud mais qu'il veut avant en définir les normes et standard.

De vaincre ces resistances au changement qui viennent plus des personnes qui ne se jettent pas à l'eau, que de la démarche collective de transformation, prendra certainement un peu de temps, mais pour GreenSI ce n'est pas le frein principal.

Flip your mind !

Ce qui intéresse GreenSI c'est quand les règles ont changé et qu'il faut penser différemment. Faisons un test pour vous en convaincre.

Pourquoi les gouttes d'eau de l'image ci-dessous vont du haut vers le bas? Et pourquoi les chiffres défilent aussi du haut vers le bas ? Ne passez pas tout de suite à la suite du billet.




Dans le monde de Newton, c'est la gravité qui régit ce mouvement. Et les distributeurs d'eau en profitent pour faire circuler l'eau dans les réseaux sans trop d'effort. C'est un monde où les méthodes locales du monde de la construction se sont imposées à l'informatique (Maîtrise d'oeuvre, maîtrise d'ouvrage,  recette, cycle en V, ...) et cette informatique s'est développée en dehors des métiers (paradigme de la DSI autonome). La conduite des changements est le moyen de déployer ces constructions relativement figées pour que les utilisateurs les adoptent.

Dans le monde numérique (celui de la matrice mise en avant par le film Matrix), les chiffres défilent du haut vers le bas, parce que les développeurs l'ont décidé ! Ils auraient pu programmer de les faire remonter de bas en haut ou aller de gauche à droite. La conduite des changements est remplacée par l'Agilité, cette habilité de créer et de répondre au changement dans le but d’avoir du succès dans un environnement fortement évolutif.

Le monde numérique se manipule donc comme on le souhaite.
Il se construit collaborativement sur des plateformes interconnectées au niveau mondial.

Les développeurs sont les magiciens dont l'entreprise a besoin pour enfreindre les règles du monde physique, car on n'est plus soumis aux règles de la construction et de la gravité mais à celles de l'agilité sous toutes ses formes, et dans toutes les directions. C'est le monde du minimum viable product (MVP), de l'expérience utilisateur (UX), des itérations et de l'amélioration continue (Lean), des plateformes qui amènent des économies d'échelles et un coût marginal, ...


GreenSI va donc rédiger une série de billets intitulée "Flip your Mind" dont l'objectif est de faire prendre conscience, à ceux qui n'en seraient pas déjà convaincus, que les règles du monde dans lequel dorénavant l'entreprise est en compétition et la collectivité opère, ont changé. 

Il faut en être totalement convaincu pour réellement adopter entièrement ce changement pour ensuite manipuler les règles et en prendre le contrôle.

Pour ceux qui ont vu le film Matrix, et la scène mythique des pilules, vous savez que le moment est venu d'explorer la matrice par vous-même : "Choisissez la pilule bleue et tout s'arrête. Après vous pourrez faire de beaux rêves et penser ce que vous voudrez. Choisissez la pilule rouge et vous resterez au pays des merveilles (numériques) et on descendra avec le lapin blanc au fond du gouffre".

Are you ready to flip your mind ?!

jeudi 13 avril 2017

L'État plateforme (numérique) se met en place

L'État plateforme (numérique) se met en place

Cette semaine, GreenSI explore les enjeux de l'ouverture par l'État de la plateforme nationale des données de référence.




C'est donc avec 9 jeux de données que le nouveau portail du service public de la donnée porté par Etalab a ouvert sur data.gouv. C'est la réalisation de la mission chargée de la politique Open Data de l’administration intégrée à la DSI de l’État (la DINSIC). Cette ouverture s'inscrit dans le cadre de la nouvelle dynamique de l'open data en France (et de la loi République Numérique) qui faisait l'objet du dernier billet de GreenSI.


Avec un oeil initié aux SI cette ouverture ressemble furieusement à un... MDM !

Le MDM est le fameux Master Data Management, au sein du système d'information, sur lequel toutes les autres applications peuvent s'appuyer pour projeter leurs propres données. L'enjeu d"une démarche MDM est de réduire les coût de maintenance par rapport à une gestion des référentiels dans une multitude d’applications distinctes et bien sûr aussi de réduire le risque d'incohérence et de multiplicité de définitions et de versions.
L'approche MDM se résume souvent par la phrase souvent entendue: "n'avoir qu'une seule version de la vérité".

Ce qui est intéressant dans le cas présent c'est qu'Etalab arrive à mettre en place une approche de type MDM pour organiser l'extérieur du SI (open data) alors que dans les entreprises l'approche sert d'abord pour gérer la cohérence en interne. La réduction des coûts et de l'incohérence portera donc ses fruits en externe chez ceux qui réutilisent ces données de référence. On peut cependant imaginer que les SI des ministères et des agences au sein de l'État vont aussi s'en emparer si elles utilisent aussi ces données.
D'autre part il est amusant (ou pas) de noter que ce qui relève du simple bon sens dans une architecture SI, voire d'un peu de gouvernance des données entre acteurs, conduit au niveau de l'État à définir par la Loi le côté "souverain" de ces données. Il s'agit certainement d'une autre exception bien française dans le monde de l'open data découvert par les anglo-saxons il y a plus de 15 ans.
Avec ce portail de données de référence, c'est donc une vision très architecturale de l'open data qui concrétise le concept d'État Plateforme numérique, et qui se met progressivement en place. On a une plateforme qui permet à tous d'interagir avec les services numériques de l'État et maintenant avec les données de référence gérées par l'État.

Ces neuf bases de données de référence sont des données qui sont utilisées au-delà des SI de l'État et du service public. Par exemple, la base adresse permet de géo-référencer toute adresse, donc de la positionner sur une carte, un besoin que l'on retrouve dans tous les secteurs et qui est essentiel depuis longtemps pour tous les acteurs de ville par exemple. Quand on regarde les statistiques d'utilisation des données sur data.gouv, la base Sirene ou des associations, maintenant devenues des données de référence, figurent dans les jeux de données les plus consultés.


Avec ce type de plateforme, on va certainement voir émerger de nouvelles organisations pour gérer le cycle de vie de la donnée au sein d'un écosystème et d'en répartir les responsabilités entre les différents acteurs :
  • Les producteurs produisent la donnée de référence et documentent les métadonnées. Ce sont eux qui doivent prendre des engagements pour leur mise à jour, instruire les retours des utilisateurs : par exemple, l'INSEE pour les données Sirene des entreprises.
  • Les diffuseurs mettent à disposition les données avec un haut niveau de qualité et s’engagent sur la performance et la disponibilité. Etalab dans le cadre du portail open data national, mais de multiples diffuseurs existent aussi en région avec des portails locaux.
    Un rôle en rupture avec les approches plus centralisatrice habituelles et où le "réseau" (producteurs et reutilisateurs) doit s'animer via la valeur d'usage des données.
  • Enfin les utilisateurs ou réutilisateurs qui (ré)utilisent ces données de référence pour produire de nouveaux services et créer de la valeur économique et sociale. Avec leurs retours, ils participent à la montée en qualité des données (signalement des erreurs, propositions d’amélioration).
Ces bases permettent donc d'avoir une source de référence, que l'on espère pérenne et rapidement mise à jour par les administrations concernées. Cependant, à ce jour, toutes ces bases n'offrent pas encore d'API pour une utilisation simplifiée. Mais ce n'est pas le plus compliqué une fois que l'on a des données de qualité.



L'été dernier, Etalab avait déjà ouvert quatorze API, comme celle qui permet de rechercher et consulter les annonces de Marchés Publics (BOAMP) directement depuis une autre application ; ou comme le dispositif France Connect, qui permet aux internautes de s’identifier sur un service en ligne par l’intermédiaire d’un compte déjà existant (celui des impots.gouv.fr, ameli.fr…). Dans ce dernier cas, la plateforme Etalab assure un niveau de sécurité supplémentaire puisque c'est elle qui fait le lien avec les fournisseur d’identité et non l'application appelante.

La convergence du sujet open data avec celui des API est une évidence pour GreenSI depuis plusieurs années, il se concrétise au niveau national, entre autres, avec ces nouveaux portails.


Cependant, le chemin sera certainement long pour passer des 14 API plus 9 données de référence actuelles, aux centaines d'API que l'on peut estimer si on considère la place de l'État et de l'Administration dans tous domaines de l'économie française (et donc de facto des données qui s'échangent en amont ou en aval). Il faudra donc des compétences techniques nouvelles au niveau d'Etalab et de la DINSIC mais aussi dans chaque direction SI de chaque Ministère pour produire ces données directement depuis les SI, et exploiter le potentiel de cette architecture, sans s'arrêter au sujet réglementaire imposé par la Loi.

GreenSI fait le lien entre ces SI de l'État plus interconnectés et s'ouvrant sur un écosystème, un État qui doit s'adapter pour exploiter le numérique et ne pas se laisser distancer par une société qui s'en est emparé à tous les niveaux, et la gouvernance interministérielle qui se met en place en matière de filière RH des ingénieurs des systèmes d'information et de communication (ISIC) et qui a fait l'objet d'une circulaire le mois dernier.
À la clef, l'amélioration de l'attractivité de la filière des métiers du numérique au sein de l'État, la fluidification des parcours professionnels et bien sûr l'harmonisation des pratiques (notamment salariales) entre les ministères. Traduisez : ne nous piquons pas les talents entre nous ;-)



Car en terme d'attractivité 
des candidats externes talents du numérique l'État a encore du chemin à faire. On s'en rend compte quand on consulte l'annonce de l'ouverture de plusieurs postes de développeurs en CDD de 3 ans (sic!) pour rejoindre l’incubateur de l'État, et travailler sur les projets numériques qui doivent transformer les services de l'État (sinon, à quoi bon avoir un incubateur).

Ce cadre RH contraint empêche clairement de rivaliser avec les offres de startups qui embauchent immédiatement en CDI après une période d'essai de 3-6 mois et offrent en bonus des actions de la startup. Sans compter sur les entreprises qui se battent aussi pour avoir les meilleurs profils. Et c'est sans anticiper la pénurie de bons développeurs annoncée qui va s'accentuer sur Paris quand l'incubateur "Station F" aux mille startups sera totalement déployé dans le sud est parisien et aura aspiré tous les jeunes des prochaines promotions de la 42, Epitech, Epita et autres écoles du numériques environnantes.

En synthèse, l'ouverture des données est donc un formidable levier de transformation qui oblige à se poser les bonnes questions comme celle de l'architecture, des API, de l'urbanisation du SI, des rôles et responsabilités des acteurs et même de l'attractivité qu'il faut pour conserver les talents qui sauront tirer parti de ces plateformes.

Des sujets auxquels la filière SI de l'État s'attaque et que l'on retrouve également dans les DSI des entreprises privées où, à quelques exceptions, le cadre de la Loi République ne s'applique pas. Finalement l'architecture des SI n'a pas de frontière pour la circulation et la valorisation des données.

lundi 3 avril 2017

Opendata: nouveau départ!

Opendata: nouveau départ!

La conférence EFE "L'open data en pratique" le 23 mars a été l'occasion de rencontrer de nombreux acteurs de l'opendata en France, tous engagés dans des projets dans leur collectivité locale, mais bien souvent aussi ambassadeurs de l'open data au delà des limites de son territoire.

Ce fut une belle occasion de faire le point sur cette démarche open data qui est entrée dans la loi République Numérique par la grande porte en 2017, et qui n'attend plus que son dernier décret d'application pour que les 3800 collectivités (de plus 50 agents et plus de 3500 habitants) soient immédiatement concernées par son déploiement.

L’ouverture des données publiques est donc désormais une obligation. Pourtant, comme l'a présenté Olivier Deviller, conférencier sur la transformation numérique qui a travaillé en collectivités, et animateur de la journée, la question n'est pas une contrainte réglementaire de plus mais bien un levier du changement pour favoriser l'innovation dans les collectivités locales, et plus largement dans tout l'écosystème de la future Smart City. 

Pour cela il va falloir quitter le monde limité des premiers "ambassadeurs", qui a caractérisé la période de ces 7 dernières années, (les premières ouvertures comme Rennes ou Bordeaux datent de 2010-2011), et trouver le moteur à allumer pour aller vers l'appropriation la plus large possible.

Dans un contexte financier restreint, l’open data est donc clairement un levier d’optimisation des politiques publiques, de développement de l’innovation et pourquoi pas du territoire (numérique) pour les plus audacieux.

L'Occitanie, la nouvelle région qui rassemble en autres Toulouse et Montpellier, est certainement l'un des barycentres français de ces territoires qui veulent utiliser l'open data pour dynamiser leurs actions. Sandrine Mathon, chef du service Administration de la Direction du Numérique (ex DSI) de Toulouse Métropole, responsable de l'ouverture des données de la Métropole et membre active de l'association Open Data France, a rappelé les fondamentaux derrière l'open data.

Un business modèle qui reste à trouver

Les données publiques concernées sont les données que la collectivité collecte et utilise pour ses missions de services publics et qu'elle ouvre ensuite publiquement pour le bénéfices de tiers, internes (les agents des autres services) ou externes (entreprises, startups, grand public...), avec des formats facilement ré-exploitables.

Les limites fixées à cette ouverture sont celles des données personnelles (régies par la CNIL), et celles des données sensibles sur le plan de sécurité (OIV, Loi de Programmation Militaire...).

Les collectivités qui confient des missions à des prestataires externes (PS) ou délèguent leur services (DSP) ont commencé l'insertion de clauses dans les marchés publics pour collecter les données relatives à ces missions au fil de l'eau, et pas uniquement en fin de contrats (qui sont souvent de plusieurs années). La nouvelle loi viendra les aider en modifiant également les règlements des codes qui s'appliquent à ces contrats.
Mais dans les 3800 collectivités concernées par l'opendata, la très grande majorité regroupent entre 15.000 et 20.000 habitants. Elles n'ont donc pas les moyens d'une grande Métropole. Pour GreenSI, il est donc évident que seule la mutualisation et les économies d'échelles permettront d'amener ce service de la donnée sur tous les territoires.
L'autre difficulté qu'il faudra lever, c'est de répondre au "business modèle" du financement des coûts du service avec des moyens complémentaires.
Pour GreenSI, il est en effet illusoire de penser que le service sera "gratuit" puisque les données, même si elles sont déjà collectées et utilisées, devront être nettoyées, anonymisées (contraintes CNIL, LPM, ...) et exposées avec un niveau de service et de disponibilité suffisant pour qu'elles soient réutilisées.

Tout ceci a donc un coût : serveurs, stockage, supervision... qu'il faudra bien financer soit directement (vendre l'accès au service open data), soit indirectement (utiliser les ressources de la collectivité donc réaffecter des impôts)
Or, la loi Valter a fixé la gratuité des données publiques et la nouvelle loi a confirmé les licences de réutilisation à titre gratuit qui seront fixées par un décret qui n'est pas encore publié (ODBL, License ouverte et CCBY devraient être confirmées). Une équation qu'il reste donc à résoudre avant d'allumer le moteur pour passer à l'échelle...

Au niveau national le décret du 14 mars met en place le service public de la donnée (nationale) pour les données de références (base SIRENE des entreprises, répertoire des associations, bases RGE de l'IGN, Organisation administrative...). Sa mise en oeuvre demande aussi un haut niveau de disponibilité, de sécurité et de fiabilité qui conduit naturellement à l'ouverture d'API. Les entités productrices de ces données vont donc également devoir leur allouer des moyens supplémentaires à cette mise à disposition, mais elles en ont certainement plus les moyens que les collectivités de moins de 15.000 habitants.

Les ingrédients législatifs sont en train de s'assembler  pour passer à l'échelle, mais le plus dur reste à faire : accompagner le changement à cette échelle, en interne mais aussi en externe.

La conduite des changements pour passer à l'échelle

Pour cela, Romain Lalanne de la Direction Digitale de la SNCF qui a piloté l'ouverture de l'API SNCF (ouverte en déc. 2015), riche aujourd'hui de 88 jeux de données  (sur data.sncf.com - horaires, régularité, comptage voyageurs, incidents) s'est appuyé sur un écosystème digital le plus large possible : développeurs, sociétés de services, startups de la Frenchtech...

L'open data conduit à créer et animer la communauté des réutilisateurs. Sinon, les données ouvertes resteront sans usages à dormir sur les serveurs.

L'ouverture d'API, par rapport à des fichiers XLS ou CSV, prépare l'avenir quand les robots dans les gares ou les chatbots dans les messageries instantanées voudront eux aussi connaître les horaires pour renseigner les usagers avec qui ils sont en contact. Le choix de SNCF est de proposer son API gratuitement jusqu'à 150.000 requêtes par mois, puis de tarifer le service quelles que soient les données demandées (et donc de son coût de mise à disposition). Un modèle lissé qui permet une plus grande lisibilité.

Parmi les autres retours d'expériences de collectivités qui ont lancé un projet de portail open data, on trouve la Métropole Européenne de Lille qui reconnaît être partie parce que toutes les autres grandes métropoles avaient déjà lancé un portail. Pourtant, faut-il ne pas ouvrir tant que les données ne sont pas parfaites ? Et bien non justement !

L'ouverture a permis d'exposer les données et de corriger les erreurs en travaillant directement avec les producteurs. L'ouverture n'est que la partie émergée de l'iceberg, une étape vers une animation autour des données du territoire en commençant par les producteurs et en allant vers les réutilisateurs.

L'implication de tous les acteurs

Autre témoignage, celui de David Poncet, responsable Open Data de l'Agglomération de Saint Malo qui a mis en place une démarche systématique de scoring (faisabilité politique, technique et juridique) des données de la collectivité pour évaluer leur potentiel d'ouverture. Un scoring auquel GreenSI ajoute bien sûr l'usage et l'attente de la donnée par une écosystème, même si ce n'est pas toujours facile à évaluer et que cela peut cacher des surprises.

Par exemple, Saint malo a ouvert les menus des cantines municipales et déclenché le développement par un particulier d'une application citoyenne pour les partager ("Y'A D frites"). La rencontre avec ce ré-utilisateur et les différentes prestataires des cantines a permi de normaliser le format d'échnage de ces menus et de donner plus de rayonnement à l'application.

Une histoire parallèle à celle qui s'est passée à Toulouse Métropole avec l'application ("QuiDitMiam!") démontre que cet usage, promis partout où il y a des enfants avec un smartphone, a un bel avenir. Il se pose alors la question du rôle (ou pas) de la collectivité à soutenir le développement d'une application au-delà de son territoire, et pour la startup à trouver un modèle économique. C'est ce qu'a fait cette semaine QuiDitMiam en participant au salon Restau'Co pour y présenter une version nationale de son application.

La cantine scolaire en train de devenir le premier succès à grande échelle de l'open data ?!...
Autres surprises, le jeu de données le plus réutilisé à Saint Malo est celui de la position des bateaux pour le départ de la route du Rhum et au Département 92 (qui a reçu un trophée pour sa démarche open data), ce sont les photos libérées des archives de la planète du Musée Départemental Albert-Kahn

Ces données permettent de créer de nouveaux services dans le domaine des loisirs et de la culture.Au final, c'est donc bien par "test & learn" que les avancées sont les plus significatives. Le DGS et DGA doivent être impliqués en amont avant d'aller travailler avec les services pour l'ouverture de leurs données. On note que le processus s'accélère quand les élus s'impliquent, et qu'au final ce sont eux qui doivent trancher quand les services ne sont pas en phase pour ouvrir tel ou tel jeu de données. Le portage règlementaire était nécessaire mais il n'est pas suffisant.

L'open data comme ouverture du SI

C'est un diagnostic partagé par Yann Mareschal de Bordeaux Métropole qui a retracé l'historique des multiples démarches open data du territoire depuis 2010. Sans réduire l'engagement de chacun, l'heure d'une plus grande mutualisation au niveau régional est arrivée. De plus, si à l'avenir l'open data est un signe de vitalité de l'aménagement numérique du territoire, il s'inscrira dans une compétition entre grandes collectivités pour attirer les investissements.

Jusqu'à présent la motivation des convaincus a été essentielle pour faire avancer les projets. Mais pour passer à l'échelle il faudra convaincre à tous les niveaux. C'est donc avec un projet "Smart Data" fédérateur que Bordeaux Métropole s'attaque à cette nouvelle étape de rationalisation qui doit mobiliser en interne les élus, les métiers et bien sûr la DSI. L'open data est aussi vu comme un moyen de "garder la main sur l'architecture" du Systèmes d'Information et un formidable moteur pour les réorganiser.

Voici une idée que GreenSI ne peut pas renier : l'open data comme brique du SI et de la normalisation des données. C'est une condition qui n'était pas présente dans les projets et qui est certainement devenue nécessaire. Elle n'est bien sûr par suffisante et ce sont les nouveaux services/usages et leur succès qui resteront les critères de succès de la démarche. C'est une évidence que la DSI ne doit pas oublier quand elle n'est pas en prise directe avec les citoyens et/ou que son périmètre se limite aux SI internes de la collectivité.

Après la première vague des projets commencée en 2010, la période est donc propice aux retours d'expériences avant un nouveau départ de l'open data dès 2017, mais certainement plus en 2018 quand le calme sera revenu en France sur le front électoral pour remobiliser nos élus.