Data Patch

De Resilience Territoire


Data Patch est logiciel libre, décentralisé et indépendant pour publier des données, les éditer, les valoriser, et les co-produire avec une communauté

💼 Porté par Co-demos


Description : Data Patch est un logiciel open source en cours de développement proposant une solution indépendante et libre au problème de partage de données et de contribution ouverte.

Ce projet est né d'une expérience empirique, celle du recensement des lieux d'inclusion numériques par les hubs numériques régionaux (PiNG, CONUMM, Rhinocc, Ternum), de la valorisation de ces bases de données ouvertes (cartographies interactives), et du besoin de faciliter la mise à jour de ces données par chaque communauté. En effet les hubs en charge de ces recensements sont souvent des structures associatives, avec peu de personnels dédiés à la question des données (surtout sur un sujet aussi précis), et plus fondamentalement c'est bien la communauté qui possède cette connaissance qu'il faut accumuler dans la base de données. C'est donc bien chacun des membres de la communauté qui doit pouvoir à la fois accéder aux données mais surtout pouvoir y contribuer simplement, les données devenant alors un véritable commun numérique.

Ce besoin simultané de partage de données et de contribution ouverte posent en fait les questions suivantes :

  • Comment garder la maîtrise de ses données, savoir où elles se trouvent, qui y a accès, gérer les droits ?
  • Comment permettre à chacun de partager des données d'intérêt général, qu'elles puissent être facilement compréhensibles par les citoyens mais aussi interopérables avec d'autres services numériques ?
  • Comment faire un outil d'open data grand public, que le design soit pensé de telle sorte que tout citoyen puisse contribuer sans avoir un diplôme de polytechnicien ?
  • Comment améliorer des jeux de données en simplifiant la contribution de chacun, sans capter les informations personnelles ?
  • Comment éviter la centralisation à outrance des plateformes de partage de données, privées ou publiques (Google, Airtable, Open Data Soft, data.gouv.fr...), tout en garantissant l'interopérabilité des données ?
page d'accueil







En tant que projet de logiciel libre l'ensemble du code source est librement réutilisable, et toutes les données hébergées sur les différentes instances du logiciel peuvent être ouvertes par les utilisateurs à plusieurs niveaux (ouvrir en lecture, en collaboration, en modification directe...).


Vision du projet et définition considérée de la résilience

Data Patch a pour but que  :

  • des internautes puissent proposer librement des améliorations (corrections, ajouts, suppressions) à des données ouvertes par des producteurs de données ;
  • les producteurs de données puissent modérer ces propositions (accepter, corriger, refuser) tout en gardant la main sur l'hébergement et la gouvernance de leurs données (gestion des droits en lecture / écriture).
  • les données publiées puissent circuler et être valorisées, partagées, avec des services autres, par exemple des cartographies ou des listings interactifs.

Data Patch a pour ambition de permettre à chacun d'éditer et de publier des jeux de données, que ce soit pour un usage particulier, public ou citoyen. Le cas typique serait celui d'une structure (collectivité, association, entreprise) ou d'une personne créant un jeu de données et qui souhaiterait mobiliser sa communauté pour l'améliorer. Par exemple il pourrait s'agir de données recensant des lieux d'accompagnement sur un territoire, des listes de produits dangereux, des listes de références bibliographiques, des listes de résultats électoraux....

C'est en ce sens ce projet peut être considéré comme participant à une meilleure résilience numérique des territoires :

  • Une meilleure maîtrise de l'open data territorial : en allégeant la dépendance à des outils et des infrastructures propriétaires, fermés, et opaques : maîtriser l'outil de publication de données publiques, les droits des utilisateurs en lecture / écriture / contribution...
  • Une mise à jour des données collaborative et modérée : en simplifiant le parcours de contribution / modération sur des jeux de données, en rendant intuitif le parcours de contribution (sans inscription), avec un parcours de deux clics pour modérer les contributions par le ou les administrateurs du jeu de données, le tout permettant
  • Une mise en valeur des citoyens contributeurs : la contribution des communautés, au-delà de l'aspect purement technique/data, sera mise en valeur que ce soit graphiquement (heatmap des contributions, historique des versions) ou en terme de communication (par l'envoi facilité d'emails de remerciements et de commentaires entre producteurs/modérateurs et contributeurs).


Fonctionnalités

Les fonctionnalités de base de Data Patch sont multiples afin de rendre son utilisation la plus simple et ouverte possible :

  • Identification sécurisée oauth2, validation du compte par email, récupération de son mot de passe par email ;
  • Import et export de jeux de données sous divers formats (csv, xls, gsheet, github...) ;
  • Système de notifications à la fois par mail et dans le back office permet aux modérateurs de valider ou non les propositions, le tout en un parcours de deux clics ;
  • Drag & drop des objets manipulables (espace de travail, jeux de données, lignes, colonnes...) pour un usage intuitif ;
  • API requêtable par des sites tiers (CORS) et sécurisée pour des usages et une valorisation sur des services tiers ;
  • Multilingue, pour un usage au-delà des frontières de l'hexagone ;
  • Publication sur des services tiers ;


Un commun numérique pour DES communs numériques

Le projet Data Patch se revendique un statut de commun numérique à plusieurs niveaux :

  • Le code source en tant que tel, ouvert intégralement, fait de l'outil lui-même un commun numérique. N'importe qui peut ainsi participer à l'amélioration du code source, selon les règles d'usage en matière de contribution sur des logiciels ouverts (sur Github ou Gitlab) : création ouverte de "tickets" ou "issues" pour relever des bugs ou proposer de nouvelles fonctionnalités, gestion collaborative de la roadmap, système de relectures croisées des améliorations du code par l'équipe maintenant le logiciel (pull request), etc ...
  • La philosophie générale de l'outil et ses fonctionnalités liées aux données publiées font de Data Patch un instrument permettant à des communautés de créer de communs de données. En mettant à disposition un outil libre et gratuit pour manipuler collaborativement des données, celles-ci sont appelées à être entièrement gérées par les communautés elles-mêmes, c'est-à-dire que chaque communauté puisse inventer des règles propres pour déterminer qui a le droit de les lire, de les modifier, de proposer des modifications, comment ces données sont valorisées et visualisées...


Synergies avec d'autres projets de communs

Nous avons identifié dans le wiki des projets avec lesquels il serait intéressant de trouver des synergies, nommément :

Tous ces projets ont en effet pour point commun de chercher à cartographier / recenser des initiatives, sur des territoires différents et avec des communautés de contributeurs identifiées. En effet si tous ces projets sont spécifiques dans leur périmètre territorial et les thématiques auxquelles ils cherchent à répondre, la question de l'outillage technique pour rendre possible la constitution de base de données collaborative est quant à elle transverse et récurrente.

Dans chacun de ces projets le porteur cherche à recueillir auprès de sa communauté des savoirs dispersés afin d'en produire une base de données structurée et largement consultable. Cette base de connaissances commune s'appuie donc sur la contribution de tous les membres, et est appelée à être mise à jour en continu, au fur et à mesure que la communauté s'agrandit. Dans chacun de ces projets on peut donc facilement imaginer qu'il y aura rapidement besoin d'un outil adapté pour la contribution, simple, ne s'adressant pas à des spécialistes du numérique, ouvert, et qui idéalement permette dans la foulée la publication et la valorisation de la base de donnée produite.

Ce sont précisément des cas d'usages recherchés par le projet Data Patch. Comme nous cherchons à le démontrer dans cet appel à communs, il nous semble qu'un tel outil n'existe pas encore en tant que tel, et que son développement nécessite un financement propre. La complexité technique (authentification, droits, contribution, API, interfaces, interopérabilité...), le soin à apporter au design UX/UI (afin de pouvoir être utilisé par un large public), engendrent à eux seuls des coûts importants en terme de R&D, qu'il serait à notre avis judicieux de concentrer sur un projet dédié à la condition qu'il soit libre et générique.

En mutualisant la R&D et en proposant un outil libre on éviterait ainsi la dispersion des ressources de chacun des projets dans leur composante numérique et technique, permettant alors à ces projets de pouvoir les allouer plus efficacement à leur thématique et actions spécifiques.

page espaces de travail
page groupes
préférences et options d'un jeu de données
page d'édition d'un jeu de données























...

Organisations utilisatrice ou intéressée par utiliser la ressource : Co-demos

Contributeurs :

Défi auquel répond la ressource : 1- Connaissances - Ressources, 3- Mieux décider ensemble

Autre commun proche : Agora des solutions citoyennes, Boîte à outils des circuits courts, Démarche CodeSocial, Espace de documentation pour les entreprises face aux risques naturels et technologiques majeurs, Impulser des dynamiques collectives vers la résilience locale: méthodes et outils, Infolab du territoire, J'agis pour la biodiversité dans mon quartier, OSCARTES, Ressources pour la production en commun de semences paysannes, SITI

Richesse recherchée : Cas d'usages, Financement, Expérimentation, Contributeur - Communauté

Compétences recherchée : Général/Approches, Général/Enjeux, Facteurs de résilience/Gouvernance, Facteurs de résilience/Infrastructure, Facteurs de résilience/Instruments

Communauté d'intérêt :

Type de licence ? Creative Commons, GNU Affero General Public License

Niveau de développement : Preuve Concept & 1er client

Cloud / Fichiers : https://github.com/co-demos/fastapi-boilerplate, https://github.com/co-demos/datapatch-front

Capture d’écran 2021-05-19 à 17.12.11.png

Tags : Base de données, Contribution, Modération

Catégories : Logiciel, Données, Connaissance

Thème : Général/Enjeux, Facteurs de résilience/Gouvernance, Facteurs de résilience/Infrastructure

Candidat Appel à Communs : candidat 18 Juin

Référent ADEME :

Référent du commun : Jpy


Les 5 parties ci dessous sont à remplir obligatoirement pour analyser le commun et vous conseiller

Candidat Appel à Communs : candidat 18 Juin

Montant Aide souhaitée (en Euro) à l'Appel à Communs Résilience : 63700

1.Détails du Financement :

Plan de financement, chronogramme

Le plan de financement, le rétroplanning sur 6 mois, ainsi qu'une visualisation récapitulative sont détaillés et téléchargeables via les liens suivants :


Justification de l'éligibilité

  • le Commun vise bien des défis identifiés : "Connaissances - ressources", "Mieux décider ensemble" ;
  • le porteur a un statut juridique lui permettant de recevoir des aides publiques : le porteur est une entreprise, son taux actuel d'aide est compatible avec la demande d'aide ;
  • A COMPLETER --- les fiches Acteurs des structures impliquées sont renseignées sur le Wiki ;
  • la fiche commun est renseignée sur les 4 blocs (financement, résilience & territoire, impacts environnementaux et Synthèse) et l'auto-diagnostic ;
  • les choix liés à la licence et au modèle de développement du commun sont explicités et justifiés

La licence Affero GPL ou MIT pour le code source, pour les données les licences sont celles de choisies par les utilisateurs avec un large choix de licences libres pour les bases de données, pour les livrables la licence est CC 3.0 BY FR - Le projet de commun produira des livrables sur une durée courte (6 mois).


Financement post Appel à communs

Les partenaires du projet recherchent des financements complémentaires auprès de collectivités ou d'organismes nationaux. Le modèle de développement du commun est pour l'instant de le compléter et le maintenir au fil des opportunités de financement sur projet (contrat privé ou marché public), sur appel à communs (aides publiques), ou plus simplement en valorisant l'accompagnement de porteurs de projets de communs numériques (aide à la structuration des données, méthodologie, sensibilisation à l'open data, ...) .

Il enfin est envisagé de faire appel au financement participatif (ou crowfunding). Le lien indiqué ici revoit vers une page Tipee en préparation et sur laquelle n'a pas encore été engagé de communication.

En effet si ce type de projet doit être au départ principalement cofinancé par des acteurs publics étant donné les coûts de développement initiaux incompressibles (création du MVP), les campagnes de crowdfunding permettront à la fois de diversifier les sources de financement, d'élargir la communication autour du projet, et de développer le nombre d'utilisateurs et de contributeurs.


Justification du mode de financement

Un logiciel libre - qui plus est qui vise à proposer une facilité d'utilisation proche de services tels que GSheet ou airtable - ne peut être développé et amélioré qu'en faisant appel à des compétences spécifiques et demande d'être développé à temps plein, seul ou en équipe. Idéalement Data Patch nécessiterait a minima 3 temps pleins : un.e développeu.r.se full-stack / frontend, un.e devops / data engineer, un.e designer UI/UX... Dans l'industrie cela représenterait aujourd'hui un budget de 15 000 €/mois (chargés) minimum, ou à la louche 150 000 €/an. Un tel objectif est peu envisageable dans l'immédiat, et une grande partie du développement initial a été fait bénévolement. Mais une telle situation de bénévolat n'est pas tenable sur la durée.

Data Patch n'étant philosophiquement pas un projet destiné à capter/monétiser les données des utilisateurs, il est vital que son financement et son modèle économique soient indépendants de toute injonction commerciale ou publicitaire.

Le financement via des subventions publiques est aussi un aspect qu'il s'agit de soigneusement étudier, mais qui - en dehors du présent appel à communs - ne se pose que très rarement lorsqu'il s'agit de développer un outil numérique d'intérêt général à la fois générique, ouvert, et "from scratch". En effet les efforts (réels) de l'administration envers le logiciel libre et l'ouverture de code ne se concrétisent aujourd'hui que dans deux cas spécifiques :

  • soit il s'agit d'un besoin très circonscrit d'une administration ou d'un service, réduisant alors le champ d'usage à un public très restreint et souvent spécialiste. Bien que cités comme des réussites les solutions issues de l'éco-sytème betagouv / datagouv sont de cet ordre : ces plateformes gérées par des services centraux (Premier Ministre, autres ministères) accentuent un mouvement de centralisation des données, parfois de mise en silo. De plus la complexité technique des systèmes historiquement mis en place freine grandement la réutilisation des solutions logicielles par d'autres acteurs moins aguerris ;
  • soit il s'agit de la réutilisation d'une solution libre déjà existante portée par une structure privée, privant ainsi la puissance publique de sa capacité à réfléchir en propre à des projets numériques d'intérêt général.

Ceci dit l'Etat est encore le mieux loti en termes de moyens pour se doter ou développer des outils numériques innovants. Au niveau régional ou départemental, financer le développement "from scratch" de solutions numériques libres reste l'exception ou le privilège d'agglomérations importantes comme à Lyon ou Paris. Dans le reste des territoires - et pour le reste de la société civile (associations, fondations, entreprises) - ne subsiste que l'offre d'acteurs privés en capacité de mobiliser des capitaux à la mesure des défis techniques que supposent ces services : Open Data Soft, microsoft, Google, etc... Les coûts de ces services propriétaires sont très variables mais il peut se révéler compliqué d'en estimer le poids réel : un service "gratuit" comme Google Sheet se paie par un hébergement de données sur des serveurs appartenant à Google puis par la récupération des données personnelles par cette société ; des services par abonnement comme Open Data Soft ou Airtable se paient soit par une sur-facturation dépendant de l'usage plus ou moins intense de l'outil (facturation à l'usage de l'API) ou encore par la limitation de certaines fonctionnalités majeures (limitation du nombre de personnes dans un groupes par exemple)...

Bref, que ce soit par manque d'outils libres, de compétences en propre / internalisées, d'une forte centralisation, ou encore du peu de financements dédiés, au final les acteurs publics disposent de peu de solutions libres immédiatement utilisables pour que les territoires se mettent en conformité avec la loi sur l'ouverture des données publiques. Nous peinons ainsi à se donner les moyens de développer les outils numériques essentiels d'une réelle infrastructure numérique démocratique, décentralisée, citoyenne : que chacun puisse partager des données sur des outils libres, les améliorer, le tout de façon décentralisée mais inter-opérable... Dans l'amorce d'une telle infrastructure l'appui de la puissance publique est tout aussi essentiel qu'il est au coeur de sa mission.



...

2.Détails Résilience et Territoire :

Contenu sur la résilience territoriale

Comme nous y reviendrons plus bas nous estimons que la capacité de résilience des territoires tient à leur capacité à produire, échanger, et valoriser des informations, bref à faire circuler le savoir propre à une géographie. Aujourd'hui une grande partie de l'information et du savoir est ou peut potentiellement être numérisée. Ajoutons qu'une grande partie de cette information est aussi détenue par les citoyens ou des acteurs privés comme les associations qui maillent le territoire (1,5 millions en France).

Pour faire face aux nombreuses crise passées, actuelles ou à venir (qu'elles soient climatiques, sociales, ou sanitaires), les acteurs publics locaux, nationaux, les associations, entreprises et citoyens doivent pouvoir se coordonner et échanger des informations. Bien que la production d'information soit historiquement très centralisée en France (administration d'Etat, presse) il est devenu évident qu'à l'échelle du territoire il existait un besoin de mieux faire circuler l'information et de mettre en avant les actions des acteurs locaux, surtout en situation de crises. La situation est d'autant plus critique que dans un même mouvement l'information est devenue pléthorique, que les crises se montrent de plus en plus brusques et soudaines - notamment en ce qui concerne la crise sanitaire mais bientôt aussi la crise climatique, et que les actions à mener en réponse doivent se concrétiser rapidement sur le terrain.

Dans ce contexte penser résilience territoriale implique de repenser les infrastructures informationnelles, et en ce qui nous concerne ici les infrastructures logicielles de données. Qu'elles soient publiques ou privées ces infrastructures sont aujourd'hui globalement des plateformes (SAAS), centralisatrices (Etat ou GAFAM), et leur maîtrise échappe largement au citoyen et aux associations. Cette situation de dépendance verticale et/ou de dépendance technologique engendre une invisibilisation des acteurs territoriaux, ce qui représente un risque majeur en situation de crise lorsque ce sont ceux-là même les premiers à répondre au niveau local.

Nous pensons que le contexte actuel impose de manière urgente la création et la mise à disposition d'outils numériques libres permettant à tous ces acteurs essentiels de l'action locale que sont les citoyens et les associations, mais aussi les petites et moyennes collectivités, de pouvoir : échanger des informations, co-construire des bases de connaissances communes, les diffuser et les valoriser à toutes les échelles géographiques, de décentraliser l'hébergement du savoir, et enfin d'avoir la maîtrise ces outils numériques.


Lien et ancrage territorial

Les premiers partenaires du projet - essentiellement les hubs numériques Occitanie, Pays de la Loire et Bourgogne France Comté- sont responsables du recensement des lieux d'inclusion numérique au niveau régional. Leur travail de recensement s'appuie sur leur connaissance fine de ces lieux, notamment du à leur ancrage historique justifiant leur statut de hubs, ou d'acteur local central sur cette thématique. Chaque hub est au contact direct avec plusieurs centaines d'acteurs territoriaux en charge d'un lieu comme le montre leurs cartographies :

Sans les recensements des hubs, le travail de ces acteurs / lieux d'inclusion numérique aurait encore plus de difficultés à être visible auprès d'instances telles que la région ou les ministères, mais également auprès des publics locaux visés (agents en charge de rediriger des citoyens vers les structures locales adaptées).

La valeur et la qualité de ces recensements sont ainsi très liés à cette relation entre un "hub régional" et toute sa communauté d'acteurs locaux : le hub est historiquement légitime pour être un référent central pour tous les acteurs, mais ce sont bien les acteurs eux-mêmes qui possèdent la connaissance de leur lieu qui demande à être recensée / listée / diffusée par le hub.


Description de la communauté Territoire

Les territoires à partir desquels nous chercherons à travailler sont ceux sur lesquels les hubs numériques sont situées : Occitanie, Pays de la Loire, Bourgogne Franche Comté. Les communautés avec lesquelles nous commencerons à travailler seront d'abord celles des hubs numériques partenaires, c'est-à-dire les lieux d'inclusion numérique. Ces communautés représentent environ 1800 lieux et donc d'acteurs actuellement, comme on peut le vérifier sur les cartographies mises en lien plus haut.

En développant sur un temps relativement court (6 mois) et avec des cycles courts de développement (voir le chronogramme plus haut), nous chercherons à vérifier et à mesurer avec ces groupes nos différentes hypothèses de travail, à ajuster nos objectifs, et à intégrer ces retours dans la feuille de route du projet (fonctionnalités, accompagnement, etc...). Les questions principales que nous chercherons à poser :

  • L'outil est-il facile à prendre en main par les producteurs de données ?
  • L'outil est-il facile à prendre en main par les contributeurs / la communauté des producteurs ?
  • L'outil peut-il être facilement être installé en propre par les services techniques du producteur de données ? Ce besoin d'indépendance technique est-il exprimé ?
  • L'outil permet-il de valoriser correctement les données mises en commun (tableurs partagés, cartographie interactives, formulaires...) ?
  • Une relation se tisse-t-elle correctement entre un producteur de données et sa communauté (email, message, notifications...) ?


Justification du/des défis choisis

  • Défi "Ressources - connaissances" : le projet Data Patch vise à la fois à contribuer à créer des nouvelles connaissances numériques mises en communs (des jeux de données ouverts, collaboratifs et contributifs ), et à proposer une ressource / outil numérique ouvert précis, libre, permettant cette création de bases de données collaboratives.
  • Défi "Mieux décider ensemble" : par son principe de contribution ouverte sur les données et ses fonctionnalités d'échanges directs entre producteurs de données et citoyens contributeurs (messages, mails), le projet Data Patch cherche à améliorer la qualité de jeux de données publics, à instaurer un lien plus direct et de confiance entre producteurs de données et citoyens, et à simplifier la production/diffusion/circulation de nouvelles informations sur le territoire.


Impact du commun sur la résilience

Nous avons précédemment évoqué comment la capacité de la résilience des territoires tient à leur capacité à produire, échanger, et valoriser des informations relatives à une géographie ou une thématique particulière. Cette capacité est déterminée à la fois par la compétence technique des individus, par les moyens financiers des structures, par la relation de confiance entre citoyens et représentants de la puissance publique, mais aussi par les outils à leur disposition.

Une grande majorité des services techniques des collectivités mais aussi des structures para-publiques qui produisent des données d'intérêt public utilisent au quotidien des outils de type tableur, en ligne ou installés sur leur ordinateur (Excel, GSheet, Airtable, ...) qui ne répondent au final qu'à une partie des contraintes d'une approche open data :

  • produire des jeux de données : en saisie directe, ou en important des fichiers ;
  • mettre à jour et améliorer des jeux de données de manière collaborative ou non : corriger des inexactitudes, ajouter ou supprimer des entrées, ajouter ou supprimer des colonnes, ... ;
  • publier des données : les rendre accessibles à des services tiers, les exporter sous divers formats, les re-publier sur d'autres plateformes ... ;
  • valoriser des jeux de données : cartographie, listes, filtres, exports... ;

De plus les services en ligne sont pour l'ensemble des outils propriétaires, dont le code source est fermé, dont les serveurs sont invisibilisés (le "cloud"), et dont les coûts peuvent se révéler prohibitifs à long terme. Les coûts d'abonnement sont parfois calculés en fonction du nombre de requêtes (Open Data Soft), du nombre de collaborateurs au sein d'un groupe ou en fonction du nombre de jeux de données mis en ligne (Airtable)... Des coûts qui paraissaient modiques au départ peuvent alors augmenter exponentiellement au fur et à mesure que s'ajoutent jeux de données et nouveaux utilisateurs.

Une réelle résilience des acteurs des territoires en termes de systèmes d'information et de bases de données implique que ces acteurs puissent avoir une maîtrise complète de leurs outils : qu'il s'agisse a maxima d'une maîtrise de leurs outils numériques (codes sources) et des bases de données, ou a minima d'avoir voix au chapitre dans la gouvernance de ces outils : de la manière dont ils sont développés, de leur coût, des fonctionnalités à ajouter, etc...

Le projet Data Patch se propose comme une réponse à ce problème : par la transparence qu'un projet open source permet sur le code source, et par son architecture décentralisée. D'autre part et en raison d'une des fonctionnalités nodales de l'outil - la contribution / modération - l'outil proposé permet de consolider des liens avec une communauté autour de thématiques particulières. Cette fonctionnalité apparaît centrale pour à la fois permettre d'améliorer des données de manière non invasive, et d'installer une relation de confiance entre les usagers/citoyens et les producteurs de données.


...

3.Détails Impacts environnementaux :

Estimation des Impacts et Gains Environnementaux à court et moyen termes

Les impacts environnementaux de l'outil sont indirects, du moins quand il est utilisé dans le cadre de projets tels qu'on en trouve dans cet appel à communs. En fournissant un moyen facilitant la constitution de bases de connaissances ouvertes et améliorables par des communautés, Data Patch aura pour effet de catalyser l'action des porteurs de projets, qu'il s'agisse de mobiliser ou sensibiliser autour de thématiques environnementales au sens large, de les cartographier, de les planifier, ou de les documenter.

Comme nous l'avons détaillé plus haut en introduction, le projet Data Patch à pour première externalité positive de permettre aux porteurs de projet de mieux cibler leur ressources humaines et financières sur leur action spécifique, et non dans des développements numériques et techniques en dehors de leur champ de compétence propre.


Publication de certaines données environnementales en open data

Le logiciel Data Patch a pour principale fonctionnalité de faciliter la publication en open data de tout type de jeu de données. En fonction des nouvelles communautés et acteurs qu'il sera possible de mobiliser dans le cadre de cet appel à communs, et des données à caractère environnemental que ces communautés chercheront à publier / diffuser / valoriser.


Lien avec la communauté Open Data

Les participants au projet connaissent bien les acteurs de l'open data en France, le lien serait à renforcer surtout avec la communauté Open Data France, Datactivist, l'APRIL, ainsi qu'avec les associations et collectivités locales sensibles aux problématiques de l'open data et du logiciel libre (Réseau des Fablabs de France, région Occitanie, ou le département de Loire-Atlantique par exemple).


...

4.Synthèse du projet de Commun :

Expérience du porteur de Commun dans le domaine

  • Julien Paris - Collectif Co-demos : après une formation initiale d'architecte DPLG puis dans la recherche je me suis reconverti dans le numérique en tant que développeur fullstack. Je développe uniquement des logiciels ouverts et je milite ainsi à ma manière pour soutenir le mouvement de l'open data et du logiciel libre. Ces dernières années j'ai principalement travaillé pour des institutions ministérielles (Bercy, CGET, Agence Bio), inter-ministérielles (DINUM), des associations et think tanks acteurs de l'intérêt général (PiNG, Ternum, Rhinocc, Décider Ensemble), ainsi que des structures publiques comme des bibliothèques près de Nantes. J'ai aussi participé au programme "Entrepreneur d'Intérêt Général" d'Etalab en 2018. J'ai produit des outils numériques libres permettant la publication et la visualisation de données : Apiviz, baromètre des résultats des politiques publiques, tableau de bord des aides aux entreprises, Solidata, Synapse...


Informations liées au Commun et au problème identifié

Le projet répond à 2 objectifs principaux, chacun faisant écho à un défi :

  • Défi 1-Connaissances - Ressources // Proposer un outil libre et une plateforme ouverte facilitant la production de communs numériques (bases de données ouvertes) : c'est-à-dire simple à prendre en main par les producteurs de données ou les citoyens, techniquement stable, peu chronophage pour les producteurs de données ;
  • Défi 3-Mieux décider ensemble // Consolider des communauté thématiques autour de ces communs numériques.


Description des actions, livrables et planning associé en proposant des points de passage (communauté/commun à tel niveau d'ici 3, 6, 9, 12 mois)

Comme vous pourrez le voir dans le chronogramme téléchargeable plus haut le chantier budgété dans le cadre de cet appel à communs est planifié sur 6 mois, ce qui ne nous empêche pas d'anticiper des actions au-delà de cette période (indiquées ci-après comme "hors périmètre chiffré").

La raison de ce phasage à 6 mois est que dans le cas d'un projet d'innovation numérique un aspect essentiel réside dans la preuve de concept fonctionnelle de l'outil développé, ou "MVP" (Minimum Viable Product) : au terme de cette phase il doit être vérifié que l'outil fonctionne techniquement, que sa conception et son architecture permettent d'en faire un véritable logiciel libre (simple à installer / instancier), et que la communauté des premiers utilisateurs puissent apporter des retours en continu lors de cycles courts de développement.

Ce n'est qu'au terme de cette phase primordiale qu'est la validation du MVP en étroite relation avec les premiers utilisateurs (en l'occurrence les hubs numériques) que des actions ultérieures pourront être possibles. C'est uniquement à ce moment qu'il sera pertinent de trouver pour ces actions des modes de financement propres.

À 3 mois - dans le périmètre chiffré

  • Code source intégralement ouvert (déjà en place) ;
  • Développement et mise en production de la version beta de l'outil, comprenant les fonctionnalités de base : import, export, édition, authentification, gestion des droits, module de contribution
  • Tests utilisateurs auprès de la communauté des hubs numériques ;

À 6 mois - dans le périmètre chiffré

  • Intégration des retours utilisateurs issus de la première phase ;
  • Documentation d'installation et tutoriels d'utilisation ;
  • Amélioration des fonctionnalités de collaboration en temps réel ;
  • Interopérabilité avec des solutions existantes de data-visualisation et de valorisation de données : Open Street Map, Apiviz....
  • Dockerisation des codes sources pour une instanciation / réutilisation simplifiée ;

À 9 mois - hors périmètre chiffré

  • Ajout de modules de visualisation : fiches, tableur, kanban, calendrier .... ;
  • Développement des fonctionnalités permettant une décentralisation et une industrialisation de la solution : Activity pub ;
  • Cycles/sprints d'amélioration continue ;
  • Elargissement du premier cercle d'utilisateurs à des

À 12 mois - hors périmètre chiffré

  • Industrialisation de la solution : appel à intérêt auprès de structures régionales et départementales en France métropolitaine et DOM/TOM, étude de cas d'usage à l'international (Espagne, Angleterre, Italie).


Taille de la communauté de contributeurs et d'utilisateurs impliquée

A titre d'exemple chacun des hubs numériques du groupement communique régulièrement auprès d'une communauté oscillant entre 200 et 600 représentants de lieux. Chaque hub comprend en général 2 à 3 personnes responsables d'un ou plusieurs jeux de données, mais à eux seuls les 4 hubs membres du groupement avec lequel nous travaillons (en Occitanie, en Pays de la Loire, en Bourgogne Franche Comté) couvrent une communauté d'environ 1800 lieux et donc d'acteurs directement concernés.


Estimation du Rapport Coût / Impact du Commun dans le domaine de la résilience

Comme indiqué plus haut, l'évaluation de l'impact direct de ce commun numérique sur la résilience d'un territoire est très difficile et ne peut se mesurer qu'à moyen terme.

Ceci dit et même s'il est difficile de le chiffrer exactement, on peut estimer que l'économie d'échelle serait conséquente si l'outil était utilisé ne serait-ce que par une petite portion des projets listés dans la description, au paragraphe "Synergies avec d'autres projets de communs". Si chacun de ces projets mettait en place un outil similaire de gestion de base de données, ad hoc, non générique, même libre, et ce par un prestataire, le coût d'un tel investissement peut facilement se chiffrer pour chaque projet en milliers voire dizaines de milliers d'euros (que ce soit en développement ou en conseil). L'amortissement que permettrait la mutualisation et la mise à disposition d'un tel système d'information est conséquent, limitant le risque à la fois de saupoudrage de l'argent public et d'obsolescence des solutions numériques réalisées.

La raison d'être du projet est bien de mutualiser la R&D d'un besoin générique et récurrent, dans tous les projets où un producteur de données (type hub numérique régional, association) est appelé à co-construire une base de connaissances avec une communauté plus diffuse.

Le projet Data Patch présente l'avantage de ne pas être spécifique à un territoire et d'intégrer dès sa conception la possibilité de pouvoir être utile à des projets très différents sur le fond, mais qui ont tous ce même besoin de constituer des bases de données communes.

Le logiciel est entièrement open source, il s'appuie sur des communautés open source (librairies Python, framework Javascript très utilisées et pérennes) et s'ouvrira rapidement à celles de l'open data (Open Data France, Datactivist), permettant la reprise du code par une large communauté de développeurs et d'investir les financements dans le développement de l'outil tout en en faisant bénéficier toutes les communautés porteuses de projets territoriaux.



...

5.Autodiagnostic :

Le problème est-il défini ? seul ou par plusieurs personnes ?

La formalisation du diagnostic et du problème originel ont été le fruit d'une expérience et d'un travail commun entre plusieurs hubs numériques (Rhinocc, CONUMM), le porteur de projet, et des professionnels du numérique. Cette formalisation s'est traduite d'abord par une proposition de besoin sur la plateforme de consultation de l'ANCT ainsi qu'une première proposition de projet.

Le problème est bien celui de faciliter la mise à jour de ces données ouvertes et d'intérêt général, données qui sont de fait des communs numériques co-construites par une structure responsable de collecter et par une communauté plus ou moins large de contributeurs.

Si le but est de résoudre ce problème sans passer par des logiciels propriétaires, il demande la mobilisation de savoirs techniques spécifiques, une attention au design, et une conception/ingénierie spécifique à un projet de logiciel libre. C'est à ce constat que nous (porteur de projet et partenaires) avons collectivement abouti, maintenant que nous travaillons depuis plus d'un an sur des projets de recensement de lieux à l'échelle régionale avec des moyens très limités.


Généralisation du problème

Le problème plus généralement c'est que le "cloud" c'est l'ordinateur de quelqu'un d'autre. Les données personnelles ou produites par des institutions publiques font rarement exception.

Qu'on ait besoin de cartes interactives, de listes des fiches, des filtres de sélection, bref dès qu'on a besoin d'un site vivant et agréable il faut bien stocker des données quelque part, les rendre accessibles mais protégées du piratage, et être certain de comprendre leur gouvernance.

Que vous utilisiez Google Sheet ou Airtable vos données (tableurs, listings, textes...) sont stockées sur des serveurs et par des sociétés (GAFAM) sur lesquelles nous - citoyens, internautes lambda, petites structures, associations, parfois administrations - n'avons aucun que très peu voire aucun levier pour vérifier ce qu'il en est fait. A une époque où l'échange d'informations fiables est devenu un sujet critique il est semble dangereux qu'une poignée sociétés privées, souvent extra-européennes, soient de fait en situation de monopole sur les infrastructures de partage de données.

Au-delà du problème technique et monopolistique il existe un autre angle mort, celui de la contribution ouverte et de la modération. Le temps de la donnée produite d'"en haut" est en passe d'être révolu, et les citoyens et utilisateurs sont de plus en plus demandeurs de ne plus être considérés comme de simples consommateurs d'information mais bien comme des participants, des contributeurs.

Le souci est que ce soit sur les réseaux sociaux ou les plateformes de contenus ou d'open data, la contribution ouverte bute souvent sur le problème de mise à jour ou de modération. Pour que les informations gagnent en qualité il est nécessaire qu'elles puissent être relues par des pairs, modifiées, validées, avant d'être re-publiées... Et la plupart du temps une personne seule ne suffit pas pour modérer, il est toujours nécessaire et préférable de mobiliser une intelligence collective.

A l'heure de l'économie de l'attention les GAFAM n'ont aucun intérêt économique à faire des efforts qui iraient dans le sens d'une meilleure qualité de l'information, mais qui causerait un "ralentissement" des flux permanent de données sur leurs plateformes. Ce n'est pas un hasard que seuls des services ouverts et libres comme Wikipédia ou Framasoft se soient emparés de ce problème, car économiquement les startups traditionnelles n'ont aucun intérêt à laisser des internautes contribuer sur une plateforme sans qu'ils y troquent des informations personnelles (email, âge, préférences, etc...).


Y a-t-il d’autres contributeurs prêts à travailler sur ce Commun ?

  • Dans le cadre de nos expériences communes dans le domaine du partage de données ouvertes et de cartographie ou de data-visualisation, nous sommes au contact avec une quinzaine d'"acteurs métier" qui ont partagent la vision de notre projet tout en étant des promoteurs de l'open data. A ce stade ce ne sont pas des contributeurs, mais chacun de ces échanges aide à préciser le besoin.
  • Ce ne sera pas notre rôle de "porter" une communauté d'intérêt particulière, en revanche si le projet est retenu et qu'il prend de l'ampleur, nous prévoyons plutôt de porter notre effort sur les personnes de type "parties prenantes", pour identifier de nouveaux acteurs intéressés par notre proposition, identifier des bugs à corriger ou des fonctionnalités à ajouter, voire à terme de créer une sorte de "collège" d'utilisateurs. Ces personnes pourraient devenir contributeurs, peut-être prescripteurs, et initier alors une véritable communauté.
  • Enfin, nos outils s'appuyant des logiciels libres, les auteurs de ces logiciels contribuent indirectement à ce commun.


Préciser la compréhension du contexte, la définition considérée de la résilience et l'impact du Commun sur le défi considéré

Ces points sont détaillés dans la partie n.2 "2.Contenu Résilience et Territoire", mais on pourrait les résumer ainsi :

  • Dans un contexte où les crises (climatiques, sociales, ou sanitaires) s'accentuent et s'accélèrent, le rôle des acteurs locaux (associations, collectivités, citoyens) est essentiel pour garantir des réponses concrètes et efficaces au niveau territorial. Le risque est que pour des raisons structurelles (centralisation) ou techniques (plateformisation, GAFAM) ces acteurs soient invisibles aux yeux de la puissance publique centrale.
  • Notre définition de la résilience territoriale se focalise sur la capacité des territoires à mettre à la disposition de tous ces acteurs locaux des infrastructures informationnelles / numériques efficaces pour créer des communs de connaissances numériques, tout en évitant les écueils de la centralisation et de la plateformisation propriétaire privant ces acteurs de la maîtrise de leurs outils numériques.

Notre projet cherche à avoir un impact double, en résonance avec les défis 1 et 3 :

  • Défi "Ressources - connaissances" : contribuer à créer des nouvelles connaissances numériques mises en communs (des jeux de données ouverts, collaboratifs et contributifs ), et à proposer une ressource / outil numérique ouvert précis, libre, permettant cette création de bases de données collaboratives.
  • Défi "Mieux décider ensemble" : améliorer la qualité de jeux de données publics, instaurer un lien plus direct et de confiance entre producteurs de données et citoyens, et simplifier la production/diffusion/circulation de nouvelles informations sur le territoire.


Est-ce que les contributeurs sont structurés via une association, entreprise pour recevoir des financements ?

Le porteur de projet est une entreprise.


Est ce que les besoins sont exprimables pour développer le commun ? oui/non

Oui, une première phase de formalisation commune des besoins a été réalisée afin de formuler une proposition dans le cadre de la consultation de l'ANCT :

Développer le commun suppose pour nous d'élargir la base de premiers utilisateurs à partir de celle que nous représentons actuellement, ceci lors de cycles courts de R&D. La première communauté et première utilisatrice de ce projet de commun numérique est celle des référents régionaux Hubs Numériques ou France Connectée avec lesquels nous travaillons depuis plus d'un an :

  • Rhinocc - hub numérique Occitanie ;
  • PiNG - hub numérique Pays de la Loire ;
  • Ternum - hub numérique Bourgogne Franche Comté ;
  • CONUMM - hub France Connectée ;

Cette communauté est elle-même représentative d'environ 1800 lieux ou acteurs territoriaux. Notre premier objectif sera d'abord de mieux qualifier / ajuster l'outil (retours utilisateurs), puis d'élargir l'utilisation/adoption de l'outil par d'autres hubs numériques sur le territoire français - ou si le projet était retenu d'en proposer l'usage à d'autres projets retenus dans cet appel à communs ( cf. §"Synergies avec d'autres projets de communs" dans la description ). En parallèle si cela est possible, ou du moins après cette phase il s'agira d'élargir l'adoption de l'outil par d'autres référents locaux acteurs de la transition écologique ou de l'innovation sociale. Une exploration à l'international est également envisageable, le logiciel étant dès sa conception conçu comme multilingue et certains partenaires ayant des homologues à l'international.

Finalement et afin de développer le commun l'objectif à terme est de constituer des collèges d'utilisateurs, parties prenantes (associations ou acteurs publics), dont le rôle sera à la fois de faire remonter des besoins, et de participer à l'essaimage / adoption de l'outil sur de nouveaux territoires et par de nouveaux acteurs (rôle de prescription).


Quels sont les besoins à ce jour pour passer à l'étape suivante  :

  • conseils
  • sur le sujet des communs
  • conseils sur le sujet de la résilience
  • mentorat
  • accès à des données
  • accès à des cas d’usages
  • besoin d’expérimenter en situation “réelle” (usager, infrastructures)
  • des contributeurs et d’autres parties prenantes
  • accès à des financement



...


Liste des CR d'atelier en lien avec ce Commun Data Patch: aucun pour le moment


Suivi des actions

Search actions Add an action See this page for more information
Open
+ A faire0
+ En cours0
+ Fait0