Actualité

Open Data : l'Etat régulateur ou valorisateur ?

le rapport de l'Ecole des Ponts contre la valorisation

Dans un récent rapport de l'Ecole des Ponts ParisTech, consacré à l'Open Data, « Les données publiques au service de l'innovation et de la Transparence ; pour une politique ambitieuse de réutilisation des données publiques », les auteurs prennent fait et cause pour l'adoption d'une politique résolue de gratuité en matière de réutilisation des données publiques. Mieux, ils affirment que l'État doit clairement abandonner sa politique de valorisation des données publiques s'il veut exercer efficacement la fonction de régulateur.

Ce point de vue important et novateur dans la sphère publique s'appuie sur le travail de jeunes ingénieurs qui constitueront l'armature de la haute fonction publique de demain. Ils se positionnent ainsi clairement pour une politique de gratuité dans la « querelle des anciens et des modernes » qui agite en ce moment les administrations à propos de l'ouverture des données publiques et leur tarification ; les caciques de la vieille technostructure s'arc-boutant sur une logique de valorisation tous azimuts à l'initiative de l'APIE (l'agence pour le patrimoine immatériel de l'État). Cette agence a été créé d'ailleurs avec le dessein de diffuser au sein de l'administration la politique de valorisation de l'immatériel à laquelle appartiennent sans conteste les données publiques. Or le rapport de l'École des Ponts démontre précisément qu'en matière d'Open Data, cette politique est rigoureusement contre-productive, aboutissant :

- soit à renforcer la « contestation » des monopoles publics dans leur fonction de production d'information, au risque de se laisser distancer par nos voisins les plus en pointe dans le développement de ce nouveau secteur économique,
- soit à développer en regard des monopoles privés « dévitalisant l'État » sans pour autant donner accès à une vraie politique citoyenne de transparence, ni permettre l'éclosion d'un vrai écosystème de starts up innovantes.

Ce rapport est donc particulièrement important, d'autant qu'il s'appuie sur une recension très complète de la littérature existante et propose trois scénarii d'évolution de l'Open Data en France, accompagné d'une série de 16 propositions détaillées. Il prend par ailleurs position afin d'assouplir le régime des exceptions de la législation du 17 juillet 1978 sur l'accès et la réutilisation des informations publiques. A cette fin, il propose d'ouvrir même en ce qui concerne les EPIC, les GIP et les sociétés délégataires de services publics, les données brutes, et ce, gratuitement. Pour les autres, il se prononce pour un coût marginal transparent et surtout dûment argumenté auprès du régulateur. Ainsi se trouveraient contestés efficacement les monopoles actuels de certaines administrations dans la production d'informations (INSEE, Météo-France, IGN, VNF) et se trouveraient également renforcés la transparence et le suivi de la performance de nombreux opérateurs ou sociétés privées à capitaux publics (SNCF, RATP, la Poste, VNF, ADP etc…).

1) Trois scenarii pour trois évolutions potentielles de l'Open Data dans un futur proche en France :

Les auteurs dressent un constat sans concession de la mise en place en France d'une véritable politique d'ouverture des données publiques. Ils relèvent bien évidemment les avancées, avec la création de la mission Etalab, et des initiatives gouvernementales prises pour la mise en place d'une gratuité des données publiques par défaut (décret et circulaire du 26 mai 2011). Mais ils notent également les blocages administratifs et les réticences des entités fortement productrices de données [1] (notamment INSEE, IGN, Météo-France), ainsi que le manque de coordination des initiatives ministérielles ou locales [2] et la lenteur de la mise en place des dispositifs d'interopérabilité. Ainsi que le relève le rapport « la démarche d'ouverture des données n'est de toute façon pas naturelle [pour l'administration] et les grandes entreprises concernées (SNCF, RATP, La Poste) seront probablement amenées à évoluer graduellement sur le sujet… ». Par ailleurs, la recherche est également pointée du doigt : la plateforme HAL développée depuis 2000 par le CNRS reçoit 1.800 nouveaux articles par mois sur une production scientifique totale en France de 7.200 articles mensuels ainsi que le développement de la base Quetelet, mais ces services sont d'abord centrés sur les chercheurs et ne concernent pas la mise à disposition du public des jeux de données correspondants. En conséquence les rapporteurs envisagent trois hypothèses d'évolution :

- Une situation d'inertie : l'accélération de la mise à disposition des données publiques n'a pas lieu. La raison : les pouvoirs publics restent focalisés sur la volonté de générer des revenus immatériels « rendent l'expérimentation et donc l'innovation difficiles ». C'est la logique d'allègement de la rigueur budgétaire et de la diversification des ressources à court terme (politique bien développée jusqu'à présent par l'APIE (Agence du patrimoine immatériel de l'État)) avec le développement des licences payantes de réutilisation. Cette logique ne permet pas l'émergence d'un véritable écosystème d'Open Data, risque de manquer des opportunités de moderniser les services administratifs et les technologies contextuelles au bénéfice des données « valorisables » et à forte valeur ajoutée. Ce scenario est le pire dans la mesure où il aboutirait : à faire décrocher la France vis-à-vis de ses partenaires étrangers, à limiter le potentiel économique national lié au développement de l'Open Data (et ses effets fiscaux bénéfiques) et conduirait in fine à fragiliser les institutions productrices de données dont l'opacité est contestée par la société civile et la communauté des réutilisateurs.

- Une situation de « capture » : ce peut être l'aboutissement du scénario précédent. En cherchant à ne délivrer que les données facilement commercialisables par l'administration au détriment de jeux de données brutes massifs à disposition du public, seuls certains acteurs parviendraient à se fournir en données publiques. On assisterait à une multiplication des contrats privilégiés et des accords exclusifs, avec une hausse du contentieux, une atonie du vivier des starts up et aboutirait in fine à un contournement des institutions publiques productrices de données. Ce scénario aussi aboutirait à une minoration de la modernisation de l'administration dans le cadre de la RGPP et à la création de nouveaux monopoles privés conduisant à « tuer la concurrence ».

- Une situation de « symbiose » : c'est l'hypothèse la plus favorable pour le développement équilibré et harmonieux de l'Open Data. Cela impose la présence d'un État régulateur « intelligent ». C'est l'approche qui est développée actuellement en Grande-Bretagne avec la publication à partir de novembre 2010 de l'ensemble des données d'exécution budgétaire détaillées par dépenses supérieures à 25.000 £. Pour qu'une telle initiative voie le jour, il est nécessaire que l'administration ne « choisisse » pas les données à publier en fonction de leur intérêt manifeste, économique ou technique… mais propose au contraire de publier les données massivement, selon un impératif de gratuité. Trois leçon sont tirées par les auteurs :

- « une coopération technique rapprochée entre l'État, le privé et l'associatif »
- «  la production de services par la société civile à partir de données publiques [devient] la norme »
- Mutualisation des solutions techniques accélérant la mise en ligne de données

Le rapport développe par ailleurs un angle important : « il est important notamment d'éviter l'écueil qui consisterait à abandonner entièrement la mission de réutilisation des données publiques à la société civile ». En clair, il est important que l'administration ne soit pas passive, mais active dans la diffusion des données publiques en ne s'attribuant aucune exclusivité mais en pensant à développer concurremment avec la société civile et les entreprises commerciales, ses propres applications basées sur ces mêmes données. Ainsi pourrait émerger un dialogue sans cesse renouvelé sur la performance et l'optimisation des services dans toutes les directions (par le haut (niveau hiérarchique), par le bas (niveau des services), par l'extérieur (société civile, associations, secteur privé), ce qui devrait faire progresser la mise en place et l'évaluation des politiques publiques, mais aussi la démocratie participative.

2) Un impératif, la gratuité :

Le scénario de la « symbiose » n'est en réalité possible que si le développement de l'Open Data s'articule avant tout sur un principe premier de gratuité dans l'accès et la réutilisation des données publiques. Cet impératif est martelé par les auteurs tout au long de leur rapport. Ils relèvent en particulier qu'il importe de développer un modèle légitime de tarification qui à part de très rares hypothèses (coûts de développements ou de mise à disposition particulièrement élevés (très gros fichiers, bases de données)) ne peut pas reposer sur le modèle du coût moyen, mais exclusivement sur le modèle du coût marginal dans la diffusion des données publiques qui « ici (est) très exactement zéro car la donnée est immatérielle ». Cette démonstration s'appuie notamment sur une contre-expertise poussée du rapport paru le 12 janvier 2011 « Valorisation des informations du secteur public : un modèle de tarification optimale » de l'Université de Strasbourg élaboré à la demande de l'APIE. Cette étude concluait à la pertinence de la mise en place de redevances de réutilisation s'appuyant sur un modèle de tarification à coût moyen. Le rapport de l'École des Ponts relève « l'absence de prise en compte [dans l'étude] d'un multiplicateur sur les fonctions de demande [ce qui] remet en cause les conclusions de l'étude sur l'intérêt du modèle à coût moyen » et relève, comme l'a fait la Fondation iFRAP en 2010, que « Prendre en compte (le) coût de mise en forme dans l'établissement d'une redevance revient à faire porter une partie des coûts de fonctionnement normaux d'une administration, déjà financés par le budget de l'État, sur les réutilisateurs. » Donc de les forcer à payer deux fois le même service.

Par ailleurs, à la position de l'APIE consistant à expliquer que le principe de « données brutes » n'existait pas, les rapporteurs opposent un démenti particulièrement net : « si l'administration, dans le cadre de ses activités, éprouve le besoin pour elle-même de raffiner les données en leur ajoutant une structure, ou de l'information (…) c'est alors cette « information enrichie » qui constitue la donnée brute au sens de la réutilisation ». Et ils en profitent pour s'interroger sur le vrai rôle de régulateur de l'État en période de disette budgétaire : «  la crédibilité de l'hypothèse d'un régulateur qui se justifierait par la contrainte budgétaire (créée de son propre fait) pour ne pas appliquer le modèle économique le plus efficace (en l'espèce le coût marginal donc le principe de gratuité) : sa fonction objective de régulateur serait alors bien mal choisie. »

Pour mériter son rôle d'arbitre régulateur, il faudra donc que l'État accepte de relever le défi de la gratuité, de l'étendre aux organismes administratifs producteurs de données à forte valeur ajoutée, et de se prononcer sur les risques de conflits d'intérêts des opérateurs publics entre les activités de service de type concurrentiel et les activités de services publics.

Afin d'y arriver il est nécessaire d'assurer « la possibilité d'accéder, gratuitement, à ces données brutes, partout où une redevance est établie pour réutilisation de données considérées comme à valeur ajoutée ». En clair, imposer [3] aux opérateurs dont l'équilibre budgétaire repose dans une proportion significative sur des recettes issues d'activités commerciales, l'obligation «  de mettre gratuitement les données brutes sous-jacentes à disposition des réutilisateurs, au risque sinon de créer des distorsions de concurrence dommageables et sources de contentieux potentiels. » Et ainsi parvenir à contourner la « sanctuarisation » des opérateurs tels que l'IGN, Météo-France et l'INSEE [4] qui invoque leur indépendance et/ou la pérennité de leurs sources de financement pour ne pas jouer le jeu de la gratuité.

3) Les 16 propositions du rapport :

Le rapport des Ponts fait ainsi 16 propositions dont certaines sont habiles et innovantes :

- Expliciter l'effort minimal de diffusion attendu auprès des ministères (Point 1)
- Harmoniser les différentes licences de réutilisation des administrations
- Ne pas modifier directement la loi de 1978 pour y redéfinir les exceptions à la libre réutilisation, mais effectuer un travail d'incitation des administrations publiques à intégrer cet impératif de diffusion des données publiques dans les objectifs des COM (contrats d'objectifs et de moyens) des opérateurs et au sein des contrats de délégations de services publics.
- Elargir le périmètre des données réutilisables considérées comme des ressources essentielles aux données produites par des acteurs privés mais «  pouvant avoir une importance forte pour le public » : ainsi se trouverait visée par exemple La Poste SA, avec les données liées au courrier par exemple (délais d'acheminement, statistiques de traçage etc…).
- Rendre de façon plus générale gratuite toute réutilisation à usage personnel
- Encadrer strictement les cas de « redevance légitime » avec obligation pour les producteurs d'établir la nécessité de la tarification et sa proportionnalité, conjointement avec la fourniture gratuite des données brutes sous-jacentes.
- Elargir le champ de l'Open Data en l'ouvrant à certaines données des entreprises privées (faisant par exemple sauter les monopoles actuels des greffes des tribunaux de commerce).

Conclusions :

On l'aura compris, ce rapport est proprement détonnant et conforte l'approche de la mission Etalab en mettant en exergue l'importance stratégique des nouveaux coordinateurs (11) qui viennent d'être nommés dans les ministères. Il contribue à la contestation des aspirations des administrations à créer de nouvelles ressources au détriment des usagers et de l'écosystème des réutilisateurs potentiels. Si l'on suit le rapport, l'État doit maintenant accepter la logique de la gratuité mais aussi se dessaisir « du rôle de valorisation des données publiques ». Il doit pour cela sortir les administrations d'une logique de « court-termisme » (budgétaire) pour adopter une logique de long terme associant coproduction des données publiques (modification, enrichissement, correction), évaluation des politiques publiques, performance budgétaire (réduction des dépenses) et transparence de la sphère publique. La clé de cette évolution repose sur la « gratuité » et permettra à terme de faire émerger un nouveau secteur économique et donc de nouvelles bases fiscales… Un développement gagnant/gagnant bien cerné par le rapport ! Reste à espérer qu'il ne sera pas enterré mais servira bien de canevas pour les années à venir.

[1] Pour le moment 5% des demandes adressées à la CADA concernent spécifiquement la réutilisation des données publiques. Un indicateur bien relevé par les services de la Commission européenne (rapport sur l'application de la directive PSI de 2003 en France), mais qui pourrait bien évoluer à la hausse dans l'avenir avec le développement de la communauté des réutilisateurs

[2] En matière de cartographie coexistent par exemple les plateformes locales (Prodige (Plateforme régionale pour organiser et diffuser l'information géographique), CARMEN (Ministère de l'Écologie), Cartélie (ex-Équipement), Géoweb (Agriculture)).

[3] Pour « ... quelques cas spécifiques et bien identifiés où la remise en cause de sources de revenus liées aux données publiques remettrait en cause, à travers les équilibres financiers d'institutions publiques, les grands principes d'indépendance qui participent de notre démocratie », voir rapport p.92.

[4] C'est notamment la « sanctuarisation » acquise après la jurisprudence CE, 24 juillet 2006 CEGEDIM n°247769, voir Concurrences, n°1 p.175, 2007, chron. Bertrand du Marais. L'ensemble s'appuyant sur le décret n°95-171 du 17 février 1995 relatif à la rémunération de certains services rendus par l'INSEE, en particulier l'article 3.