Quel État-machine à l’ère de la «transformation numérique» ?

La Lettre

Zoom sur…

Membre du Centre Internet et Société (CIS, UPR2000, CNRS), Olessia Kirtchik participe, au sein du CIS, au projet de recherche « L’IA au service de l’action publique. Imaginaires sociotechniques et dispositifs de la décision algorithmique ». À ce titre, elle s’intéresse à l’écosystème de l’État numérique et aux divers usages de l’IA et de l’algorithmique par les administrations et les services publics en France.

La percée récente des outils algorithmiques au sein des administrations et des services publics à travers le monde risque de transformer la métaphore de la « machine bureaucratique » en réalité tangible. Ce processus en cours confère non seulement une place croissante aux technologies numériques, notamment celles « intelligentes », dans la prise des décisions, mais entraîne également l’éviction, dans cet espace d’expertise, d’autres domaines et d’autres modes de savoir, généralement associés aux sciences humaines et sociales. Il est aujourd’hui pressant d’interroger la portée de ces usages dans le cadre de l’action de l’État ainsi que les évolutions des savoirs et des instruments de gouvernement qu’ils impliquent.

La littérature scientifique déjà suffisamment étendue sur les « algorithmes » a mis en lumière le pouvoir de transformation sociale de ces outils dans divers secteurs de l’économie et des mondes professionnels qui, jusqu’alors, valorisaient pourtant fortement l’expertise et l’expérience humaines, souvent difficilement formalisables. Les moteurs de recherche sur Internet, les fils de « news » des réseaux sociaux, les assistants vocaux, les « chatbots », ou encore divers agrégateurs de services et systèmes de recommandations et peut-être, demain, des moyens de transport et des robots autonomes, envahissent progressivement notre quotidien et changent nos rapports à l’information, aux choses et aux autres. Les techniques du Machine Learning (ML) et de l’Intelligence Artificielle (IA) les plus prisées par l’industrie, orientées vers l’identification de motifs (patterns) dans les données, vers la prévision et vers l’optimisation, sont devenues le véritable outil structurant de l’économie et, de plus en plus, d’autres formes de l’expérience humaine. La multiplication de ces applications fait naître un grand nombre de préoccupations et d’inquiétudes, liées notamment aux usages abusifs des données personnelles, aux risques d’aggravation et de réification des inégalités sociales, à l’« uberisation » du travail, etc.1

Alors qu’historiquement c’est surtout l’État qui a financé et programmé les recherches visant le développement des techniques décisionnelles algorithmiques, de l’IA, de l’informatique et des technologies de l’information, au xxie siècle les entreprises privées de l’économie numérique constituent le moteur de ces innovations, menées par les GAFAM (acronyme utilisé pour désigner les géants du secteur : Google, Apple, Facebook, Amazon, Microsoft) et d’autres acteurs privés. Ces innovations algorithmiques représentent aussi le terrain d’expérimentation privilégié de ces acteurs économiques. C’est pourquoi ces entreprises sont prioritairement devenues l’objet d’un intérêt public et scientifique intense. Pourtant, les États ont eux aussi de plus en plus souvent recours à ce type d’instruments, en particulier dans des moments de crise (économique, sociale, sanitaire, etc.). Les techniques décisionnelles algorithmiques ont des applications, si l’on s’en tient aux plus visibles d’entre elles, dans les domaines de la sécurité (police prédictive, contrôle aux frontières, surveillance des lieux publics, lutte contre le terrorisme) et de la justice (prédiction du récidivisme et autres dispositifs d’aide à la décision des juges), de l’éducation, de la santé publique, de la sécurité sociale et divers services sociaux, de l’économie, des transports publics et de l’urbanisme, etc., et sont particulièrement utilisées aux États-Unis2 .

Ce phénomène d’algorithmisation de l’État et de l’action publique, alors qu’il s’étend et se diversifie depuis plusieurs années, n’a que peu attiré l’attention des sciences sociales et politiques. Prises séparément, beaucoup de ces applications algorithmiques ne présentent pas de caractère « spectaculaire », mais c’est surtout l’effet de leur multiplication, jusque dans les pratiques les plus routinières des administrations, qui pose un défi pour les représentations plus traditionnelles de l’action publique et de l’État. Il n’est pas anodin que l’idéologie de « l’État agile », de « l’État-plateforme », façonnée sur le modèle du comportement supposé des acteurs du capitalisme numérique, serve de cadre normatif à l’introduction des techniques décisionnelles algorithmiques au sein des administrations publiques. Deux types de légitimation, deux visions y rentrent alors en concurrence : de l’État-arbitre qui agit au service de l’intérêt général, c’est-à-dire du plus grand nombre des citoyens, et de l’État-plateforme supposé rendre des services à ses clients de manière toujours plus efficace et à coût toujours plus bas (avec, comme cas limite, l’optimisation à outrance imposée par certaines plateformes de l’économie numérique « uberisée »).

Parmi les exemples de dispositifs algorithmiques déjà pratiqués en France, on peut citer les algorithmes pour cibler les contrôles dans le cadre de la lutte contre la fraude fiscale (CFVR) par la Direction générale des finances publiques ; le classement des appels selon le niveau d’urgence par la plateforme SOS Médecins Grand Paris ; la priorisation des demandes de place en crèche pour les fonctionnaires d’État par la Préfecture des Pays de la Loire ; l’attribution de l’allocation personnalisée d’autonomie (APA) pour les personnes âgées dépendantes, entre autres. Depuis 2018, l’utilisation des IA dans la conduite des missions administratives est notamment encouragée dans le cadre d’une action interministérielle concernant le domaine de la transformation numérique de l’action de l’État et de la stratégie nationale sur les IA. Des appels à manifestation d’intérêt (AMI) dédiés à l'Intelligence artificielle ont été lancés à cet effet auprès des administrations publiques en 2018, 2019 et 2020. Un organisme public, le Lab IA, a été créé pour accompagner les lauréats (en tout, vingt-six projets ont été retenus) dans leur effort de conception et de mise en place des dispositifs algorithmiques. Parmi ces dispositifs, on trouve des outils qui visent à rendre plus « efficace » la communication entre les administrations et leurs publics : par exemple, un voice-bot pour répondre aux interrogations des utilisateurs d’un service public. D’autres dispositifs s’appuient sur des modèles prédictifs qui calculent, par exemple, les variations dans la fréquentation des cantines ou les chances de survie d’une petite entreprise artisanale. D’autres encore cherchent à automatiser le traitement des données textuelles disponibles à une quantité toujours croissante grâce aux modèles d’analyse du langage : pour identifier des enjeux majeurs d’une politique publique, pour trier des pré-plaintes en ligne par la gendarmerie nationale ou pour analyser des avis de clients de restaurants afin de cibler les contrôles de restaurants.

Il s’agit, dans tous ces cas, d’outils décisionnels et d’aide à la décision qui peuvent avoir une incidence plus ou moins directe sur les vies des personnes. Si certains dispositifs sont censés surtout automatiser et optimiser des routines administratives, bien d’autres ont trait à des enjeux vitaux de santé, de sécurité ou d’accès aux droits sociaux fondamentaux des usagers concernés par le fonctionnement de ces systèmes. Les algorithmes « publics », notamment appuyés par l’IA, font, par conséquent, objet d’exigences spécifiques pour assurer leur usage éthique et responsable : celles de transparence et de mention explicite de l’algorithme utilisé, d’explicabilité des décisions et de la protection des données personnelles. Ces exigences limitent, en effet, l’applicabilité des méthodes d’apprentissage machine, les plus performantes à ce jour, à la prise des décisions par les administrations dues à l’opacité et l’impénétrabilité des résultats obtenus par des réseaux de neurones. Les bases de données nécessaires à l’apprentissage de ces systèmes comportent des risques majeurs notamment pour la vie privée que la puissance publique et des acteurs de la société civile devraient apprendre à maîtriser.

Les usages de l’IA peut-être les plus controversés concernent le domaine de sécurité et de surveillance grâce aux systèmes d’identification des individus par des caméras publiques évoquant le spectre du Big Brother, synonyme du contrôle total des populations. Dans ce domaine, des initiatives locales devancent souvent le processus législatif et le débat public. Ainsi, Nice, Marseille et d’autres villes ont récemment tenté de mettre en place des dispositifs à base de la reconnaissance faciale qui ont, pourtant, été tous retoqués par la Commission nationale de l'informatique et des libertés (CNIL). Toujours interdite en France, cette pratique va sans doute être remise à l’agenda politique à l’approche des jeux Olympiques de Paris où les enjeux sécuritaires vont peser lourdement.

Cet article s’appuie sur le projet de recherche « L’IA au service de l’action publique. Imaginaires sociotechniques et dispositifs de la décision algorithmique » (IAction), réalisé par le Centre Internet et Société (CIS, CNRS) en 2023-2024, financé par Paris Artificial Intelligence Research Institute (PRAIRIE).

 
  • 1Voir par exemple : Eubanks V. 2018, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, St. Martin’s Press ; Pasquale F. 2020, New Laws of Robotics: Defending Human Expertise in the Age of AI, Harvard University Press ; Rosenblat A. 2018, Uberland: How algorithms are rewriting the rules of work, University of California Press.
  • 2À titre de comparaison, en 2020 aux États-Unis des dispositifs algorithmiques ont été utilisés presque par la moitié des agences fédérales à des fins les plus variées (Engstrom D. F., Ho D. E., Sharkey C. M., Cuéllar M-F. 2020, “Government by Algorithm: Artificial Intelligence in Federal Administrative Agencies”, NYU School of Law, Public Law Research Paper No. 20-54).

Contact

Olessia Kirtchik
Chercheuse au Centre Internet et Société (CIS)