lundi 3 avril 2017

Opendata: nouveau départ!

La conférence EFE "L'open data en pratique" le 23 mars a été l'occasion de rencontrer de nombreux acteurs de l'opendata en France, tous engagés dans des projets dans leur collectivité locale, mais bien souvent aussi ambassadeurs de l'open data au delà des limites de son territoire.

Ce fut une belle occasion de faire le point sur cette démarche open data qui est entrée dans la loi République Numérique par la grande porte en 2017, et qui n'attend plus que son dernier décret d'application pour que les 3800 collectivités (de plus 50 agents et plus de 3500 habitants) soient immédiatement concernées par son déploiement.

L’ouverture des données publiques est donc désormais une obligation. Pourtant, comme l'a présenté Olivier Deviller, conférencier sur la transformation numérique qui a travaillé en collectivités, et animateur de la journée, la question n'est pas une contrainte réglementaire de plus mais bien un levier du changement pour favoriser l'innovation dans les collectivités locales, et plus largement dans tout l'écosystème de la future Smart City. 

Pour cela il va falloir quitter le monde limité des premiers "ambassadeurs", qui a caractérisé la période de ces 7 dernières années, (les premières ouvertures comme Rennes ou Bordeaux datent de 2010-2011), et trouver le moteur à allumer pour aller vers l'appropriation la plus large possible.

Dans un contexte financier restreint, l’open data est donc clairement un levier d’optimisation des politiques publiques, de développement de l’innovation et pourquoi pas du territoire (numérique) pour les plus audacieux.

L'Occitanie, la nouvelle région qui rassemble en autres Toulouse et Montpellier, est certainement l'un des barycentres français de ces territoires qui veulent utiliser l'open data pour dynamiser leurs actions. Sandrine Mathon, chef du service Administration de la Direction du Numérique (ex DSI) de Toulouse Métropole, responsable de l'ouverture des données de la Métropole et membre active de l'association Open Data France, a rappelé les fondamentaux derrière l'open data.

Un business modèle qui reste à trouver

Les données publiques concernées sont les données que la collectivité collecte et utilise pour ses missions de services publics et qu'elle ouvre ensuite publiquement pour le bénéfices de tiers, internes (les agents des autres services) ou externes (entreprises, startups, grand public...), avec des formats facilement ré-exploitables.

Les limites fixées à cette ouverture sont celles des données personnelles (régies par la CNIL), et celles des données sensibles sur le plan de sécurité (OIV, Loi de Programmation Militaire...).

Les collectivités qui confient des missions à des prestataires externes (PS) ou délèguent leur services (DSP) ont commencé l'insertion de clauses dans les marchés publics pour collecter les données relatives à ces missions au fil de l'eau, et pas uniquement en fin de contrats (qui sont souvent de plusieurs années). La nouvelle loi viendra les aider en modifiant également les règlements des codes qui s'appliquent à ces contrats.
Mais dans les 3800 collectivités concernées par l'opendata, la très grande majorité regroupent entre 15.000 et 20.000 habitants. Elles n'ont donc pas les moyens d'une grande Métropole. Pour GreenSI, il est donc évident que seule la mutualisation et les économies d'échelles permettront d'amener ce service de la donnée sur tous les territoires.
L'autre difficulté qu'il faudra lever, c'est de répondre au "business modèle" du financement des coûts du service avec des moyens complémentaires.
Pour GreenSI, il est en effet illusoire de penser que le service sera "gratuit" puisque les données, même si elles sont déjà collectées et utilisées, devront être nettoyées, anonymisées (contraintes CNIL, LPM, ...) et exposées avec un niveau de service et de disponibilité suffisant pour qu'elles soient réutilisées.

Tout ceci a donc un coût : serveurs, stockage, supervision... qu'il faudra bien financer soit directement (vendre l'accès au service open data), soit indirectement (utiliser les ressources de la collectivité donc réaffecter des impôts)
Or, la loi Valter a fixé la gratuité des données publiques et la nouvelle loi a confirmé les licences de réutilisation à titre gratuit qui seront fixées par un décret qui n'est pas encore publié (ODBL, License ouverte et CCBY devraient être confirmées). Une équation qu'il reste donc à résoudre avant d'allumer le moteur pour passer à l'échelle...

Au niveau national le décret du 14 mars met en place le service public de la donnée (nationale) pour les données de références (base SIRENE des entreprises, répertoire des associations, bases RGE de l'IGN, Organisation administrative...). Sa mise en oeuvre demande aussi un haut niveau de disponibilité, de sécurité et de fiabilité qui conduit naturellement à l'ouverture d'API. Les entités productrices de ces données vont donc également devoir leur allouer des moyens supplémentaires à cette mise à disposition, mais elles en ont certainement plus les moyens que les collectivités de moins de 15.000 habitants.

Les ingrédients législatifs sont en train de s'assembler  pour passer à l'échelle, mais le plus dur reste à faire : accompagner le changement à cette échelle, en interne mais aussi en externe.

La conduite des changements pour passer à l'échelle

Pour cela, Romain Lalanne de la Direction Digitale de la SNCF qui a piloté l'ouverture de l'API SNCF (ouverte en déc. 2015), riche aujourd'hui de 88 jeux de données  (sur data.sncf.com - horaires, régularité, comptage voyageurs, incidents) s'est appuyé sur un écosystème digital le plus large possible : développeurs, sociétés de services, startups de la Frenchtech...

L'open data conduit à créer et animer la communauté des réutilisateurs. Sinon, les données ouvertes resteront sans usages à dormir sur les serveurs.

L'ouverture d'API, par rapport à des fichiers XLS ou CSV, prépare l'avenir quand les robots dans les gares ou les chatbots dans les messageries instantanées voudront eux aussi connaître les horaires pour renseigner les usagers avec qui ils sont en contact. Le choix de SNCF est de proposer son API gratuitement jusqu'à 150.000 requêtes par mois, puis de tarifer le service quelles que soient les données demandées (et donc de son coût de mise à disposition). Un modèle lissé qui permet une plus grande lisibilité.

Parmi les autres retours d'expériences de collectivités qui ont lancé un projet de portail open data, on trouve la Métropole Européenne de Lille qui reconnaît être partie parce que toutes les autres grandes métropoles avaient déjà lancé un portail. Pourtant, faut-il ne pas ouvrir tant que les données ne sont pas parfaites ? Et bien non justement !

L'ouverture a permis d'exposer les données et de corriger les erreurs en travaillant directement avec les producteurs. L'ouverture n'est que la partie émergée de l'iceberg, une étape vers une animation autour des données du territoire en commençant par les producteurs et en allant vers les réutilisateurs.

L'implication de tous les acteurs

Autre témoignage, celui de David Poncet, responsable Open Data de l'Agglomération de Saint Malo qui a mis en place une démarche systématique de scoring (faisabilité politique, technique et juridique) des données de la collectivité pour évaluer leur potentiel d'ouverture. Un scoring auquel GreenSI ajoute bien sûr l'usage et l'attente de la donnée par une écosystème, même si ce n'est pas toujours facile à évaluer et que cela peut cacher des surprises.

Par exemple, Saint malo a ouvert les menus des cantines municipales et déclenché le développement par un particulier d'une application citoyenne pour les partager ("Y'A D frites"). La rencontre avec ce ré-utilisateur et les différentes prestataires des cantines a permi de normaliser le format d'échnage de ces menus et de donner plus de rayonnement à l'application.

Une histoire parallèle à celle qui s'est passée à Toulouse Métropole avec l'application ("QuiDitMiam!") démontre que cet usage, promis partout où il y a des enfants avec un smartphone, a un bel avenir. Il se pose alors la question du rôle (ou pas) de la collectivité à soutenir le développement d'une application au-delà de son territoire, et pour la startup à trouver un modèle économique. C'est ce qu'a fait cette semaine QuiDitMiam en participant au salon Restau'Co pour y présenter une version nationale de son application.

La cantine scolaire en train de devenir le premier succès à grande échelle de l'open data ?!...
Autres surprises, le jeu de données le plus réutilisé à Saint Malo est celui de la position des bateaux pour le départ de la route du Rhum et au Département 92 (qui a reçu un trophée pour sa démarche open data), ce sont les photos libérées des archives de la planète du Musée Départemental Albert-Kahn

Ces données permettent de créer de nouveaux services dans le domaine des loisirs et de la culture.Au final, c'est donc bien par "test & learn" que les avancées sont les plus significatives. Le DGS et DGA doivent être impliqués en amont avant d'aller travailler avec les services pour l'ouverture de leurs données. On note que le processus s'accélère quand les élus s'impliquent, et qu'au final ce sont eux qui doivent trancher quand les services ne sont pas en phase pour ouvrir tel ou tel jeu de données. Le portage règlementaire était nécessaire mais il n'est pas suffisant.

L'open data comme ouverture du SI

C'est un diagnostic partagé par Yann Mareschal de Bordeaux Métropole qui a retracé l'historique des multiples démarches open data du territoire depuis 2010. Sans réduire l'engagement de chacun, l'heure d'une plus grande mutualisation au niveau régional est arrivée. De plus, si à l'avenir l'open data est un signe de vitalité de l'aménagement numérique du territoire, il s'inscrira dans une compétition entre grandes collectivités pour attirer les investissements.

Jusqu'à présent la motivation des convaincus a été essentielle pour faire avancer les projets. Mais pour passer à l'échelle il faudra convaincre à tous les niveaux. C'est donc avec un projet "Smart Data" fédérateur que Bordeaux Métropole s'attaque à cette nouvelle étape de rationalisation qui doit mobiliser en interne les élus, les métiers et bien sûr la DSI. L'open data est aussi vu comme un moyen de "garder la main sur l'architecture" du Systèmes d'Information et un formidable moteur pour les réorganiser.

Voici une idée que GreenSI ne peut pas renier : l'open data comme brique du SI et de la normalisation des données. C'est une condition qui n'était pas présente dans les projets et qui est certainement devenue nécessaire. Elle n'est bien sûr par suffisante et ce sont les nouveaux services/usages et leur succès qui resteront les critères de succès de la démarche. C'est une évidence que la DSI ne doit pas oublier quand elle n'est pas en prise directe avec les citoyens et/ou que son périmètre se limite aux SI internes de la collectivité.

Après la première vague des projets commencée en 2010, la période est donc propice aux retours d'expériences avant un nouveau départ de l'open data dès 2017, mais certainement plus en 2018 quand le calme sera revenu en France sur le front électoral pour remobiliser nos élus.
Previous Post
Next Post
Related Posts

L'humour de ceux qui aiment le numérique