Pour introduire aux sociétés du profilage
Zoom sur…
Directeur de recherche CNRS à l’Institut d’Histoire et de Philosophie des Sciences et des Techniques(IHPST, UMR8590, CNRS / Université Paris 1 Panthéon-Sorbonne), Philippe Huneman travaille principalement sur des questions de biologie évolutive et d’écologie. Dans un essai paru courant janvier aux Éditions Payot, Les sociétés du profilage. Évaluer, optimiser, prédire, le philosophe des sciences analyse nos habitudes numériques individuelles et collectives.
En soixante ans, les compagnies les plus cotées en bourse ont changé de visage : hier, Chrysler, General Motors ou Boeing, aujourd’hui Facebook, Microsoft ou Google. Les mastodontes fondés sur l’extraction des combustibles fossiles ont été remplacés par des structures plus légères qui carburent à la donnée digitale et emploient cent fois moins de salariés. Des compagnies qui ne fabriquent rien de tangible dominent aujourd’hui le monde économique — des plateformes, plutôt que des usines. Que signifie ce bouleversement ?
On parle souvent de révolution numérique ou de capitalisme de plateforme. Marx montrait que les « forces productives » — autrement dit, l’ensemble des techniques — conditionnent les rapports sociaux, eux-mêmes produisant la politique et l’idéologie. À la base des technologies digitales résident des données dites massives et des algorithmes. Du fait que les données naissent de traces laissées à la surface du monde — par exemple, lorsque nous réservons un restaurant ou que nous nous déplaçons sur un support équipé de GPS, mais aussi lors d’une nuée de flamants roses bagués, ou d’une tempête suivie par satellite — elles s’insèrent dans un dispositif d’information sur le monde. Le retournement économique enregistré en bourse inclut donc un glissement épistémologique.
Dans Les sociétés du profilage. Évaluer, optimiser, prédire1 , j’ai enquêté sur l’articulation de cette question épistémologique aux constructions sociales qui selon la logique marxienne émergent des technologies.
Dans « données massives », le dernier terme signifie davantage que le seul volume : il exige aussi rapidité et variété. L’internet est une plateforme géante pour leur recueil et circulation, mais ces données sont produites en continu à partir de toutes sortes de traces — achats, bornages de téléphone mobile, requêtes Google qui informent cette firme tentaculaire de l’existence d’un individu au moins intéressé par les contenus mentionnés.
Le big data est alors un espace hyperdimensionnel de données : chacun est l’objet de myriades de données portant sur toutes les dimensions de son existence. Ces données sont de format très divers (images, localisations, fichiers texte, etc.), et de qualité variable, parfois évaluées par les « métadonnées ». Un individu instancie alors un point dans cet hyperespace : c’est son « profil » individuel, qui le spécifie et le distingue d’autres individus tout en le rendant comparable à certains d’entre eux, auquel cas leurs « points » sont proches et constituent un nuage dans l’hyperespace (lequel constitue alors un profil collectif).
Là où, même si elles portaient sur des milliers d’individus, les données traditionnelles s’étageaient sur deux-trois dimensions (par exemple localité, catégorie socioprofessionnelle et âge en sociologie), les données dites massives s’égrènent sur des centaines de dimensions. Des « courtiers en données » (data brokers) pullulant sur le Web les agrègent, détenant parfois, comme le géant Acxiom, plus de 3 000 points de données sur 700 millions d’individus. Nous ne les voyons pas, sauf à traquer ces traceurs et autres cookies que généralement nous acceptons sans savoir à quoi nous consentons en cliquant sur la mention « accepter » dans le choix que le règlement général sur la protection des données (RGPD) a rendu obligatoire.
Le traitement de telles données, continûment alimentées par nos activités diverses, requiert des méthodes de data-mining algorithmique perfectionnées, davantage que des méthodes statistiques usuelles. Les data brokers construisent ainsi sans cesse des « scores de crédit » résultant de ces traitements algorithmiques, qui évaluent notre capacité à rembourser un crédit donné — information chèrement vendue aux établissements financiers.
Les profils permettent de saturer l’espace social par des corrélations très fines : multidimensionnelles, celles-ci détectent — algorithmiquement — des groupes dont la description ne rentrerait pas forcément dans nos catégories vernaculaires.
Ce profilage nous est connu par des effets tels que des publicités ciblées reçues sur les réseaux sociaux, l’algorithmique des profils permettant de prédire nos goûts, achats, comportements, par comparaison entre notre profil individuel et un profil collectif d’usagers partageant des choses avec nous. Les algorithmes de recommandation l’illustrent bien : tels film, musique, emplette nous sont proposés parce qu’appréciés par ceux dont le profil est similaire à nous. Mais ces algorithmes n’ont aucune « connaissance » du contenu des items recommandés. Cette indifférence à la substance se retrouve de manière générale avec les intelligences artificielles génératives, telles que les Large Language Models(LLM) — comme GPT3, qui alimente le fameux Chat GPT2 —, qui assemblent des mots avec une exceptionnelle acuité sans toutefois entendre ce à quoi les phrases réfèrent, puisqu’il s’agit simplement, à partir d’un apprentissage statistique, de prédire dans une séquence de mots ceux qui viendront le plus probablement. Le deep learning réalise cet apprentissage par une exposition intensive à des milliards de textes d’ordres divers ; la reconnaissance d’image comme la traduction selon DeepL fonctionnent sur le même principe : l’émergence de corrélations robustes entre un nom et des séries d’images diverses, ou entre des phrases dans deux langues différentes.
Le maillage numérique du monde, la collecte massive et continue de données via des plateformes afin d’enrichir les profils et nourrir les algorithmes ont souvent conduit à dénoncer des logiques de surveillance généralisée, mention d’Orwell à la clé. Si des travaux précieux ont pu développer cette perspective3 , la surveillance ne suffit pas à saisir le modèle de gouvernementalité ici en jeu. Pour Michel Foucault, qui introduisit le concept, elle est distinctive de ces « sociétés de discipline » émergeant à la modernité, lorsque le capitalisme industriel va ordonner des groupes humains pour maximiser leur productivité, donc les normaliser en traquant tout écart à la norme (Surveiller et punir !), la pratique monastique de la discipline constituant le vecteur idoine. Or, au-delà de la surveillance, le profilage induit la prédiction : « qui va faire quoi, acheter quoi, aller où ? » — sur la base des corrélations contenues dans les profils.
Mais le glissement épistémologique dont je parle traverse les sciences. Sans invoquer un tournant vers la data-driven science comme le font certains sociologues, la discussion sur la possibilité d’une science prédictive des comportements de systèmes complexes à partir de corrélation sur des données massives et sans théorie des mécanismes en jeu traverse certaines disciplines comme l’écologie — typiquement, les retournements catastrophiques des écosystèmes4 ]. Une bonne part de la génomique (Genome Wide Association Studies en particulier) fonctionne par corrélations sans connaissance causale. Conçu comme agrégation continue de données massives propice à des prédictions, le profil constitue donc un objet transversal nouant savoir et politique.
Avec le profilage, on définit alors une forme de gouvernementalité car l’épistémologique ici — les corrélations massives — se connecte au politique : profiler, c’est aussi plier une pièce à un design préétabli. Ainsi, Cambridge Analytica, entreprise au service des partisans du Brexit, a pu infléchir le vote de beaucoup par le piratage de millions de comptes Facebook, le profilage des utilisateurs, et la création de faux comptes agencés pour déclencher en réponse un vote pro-Brexit chez des utilisateurs au profil prédisant pareille réaction. L’affaire exemplifie l’usage des profils comme ingénierie des comportements politiques5 .
On appelle nudge la petite poussée imposée à un individu peu rationnel pour l’orienter vers un choix meilleur pour lui, sans le contraindre ni tenter de le convaincre. Il est l’apanage d’une politique néolibérale qui, à la différence du libéralisme, allège la postulation d’un homo economicus rationnel au fondement de toutes les décisions. Le design de l’architecture des choix constitue le nudge, comme l’illustre le si incitatif bouton « accepte », en réponse au RGPD. Le profilage est un outil parfait du nudge, puisque pour tel cluster d’individus il prédit la réaction à telle architecture de choix.
En cela, il ouvre à une nouvelle dimension, celle de l’optimisation, non pas de la production collective comme des sociétés de discipline, mais des expériences individuelles. Optimiser l’expérience est le maître-mot des algorithmes de recommandation, sur les réseaux sociaux (Tinder) comme sur les sites d’e-commerce. Mais les techniques visant à améliorer le comportement pro-environnement des gens sont du même ordre. L’optimisation est vulnérable à la triche, comme le prouvait ironiquement cet Anglais qui réussit à faire d’un restaurant inexistant le n°1 du classement TripAdvisor sur Londres, à force de cumuler des recommandations élogieuses.
S’ensuit une question ouverte sur les jeux du vrai et du faux, du réel et de l’irréel dans les sociétés du profilage. La substitution des corrélations à la causalité signifie un glissement ontologique majeur. Quelque complexe que soit son concept philosophique, la causalité était ainsi mobilisée par Kant pour prouver l’existence du monde réel. Les corrélations sans causalité, tout comme les corrélations statistiques entre textes sans référent impliqué, nous proposent une épistémologie où le réel s’absente. Ainsi les constructions des LLM n’ont pas de référents ; y prolifèrent les fausses images et les faux textes indiscernables des vrais — voyez le site ThisXdoesnotexist.com — et le réel se met alors à imiter les images numériques : entrez dans un coffee shop à Bordeaux, il ressemblera au même à Kuala Lumpur ou Anchorage, et tous à des clichés d’Airbnb.
Par leur prolifération, les données cessent d’informer sur le réel, elles en démultiplient les simulacres via le jeu subtil des profils individuels et collectifs, des prédictions et des nudges, des optimisations et de leurs subversions.
- 1Huneman P. 2023, Les sociétés du profilage. Évaluer, optimiser, prédire, Payot.
- 2GPT pour Generative Pre-Trained Transformer, « Génératif » signifiant qu’il s’agit d’une IA produisant du contenu nouveau, et « Transformer » indiquant une technologie de traitement des données en parallèle (c’est-à-dire en prenant tous les termes d’une séquence sans souci de leur ordre). Cette technologie permet ainsi des entraînements plus courts qu’un traitement auparavant séquentiel, et sur des données bien plus nombreuses. « Pre-Trained » signifie que l’IA a été entraînée sur un immense jeu de données, textes ou images. GPT4, tout juste dévoilé, admet ces deux types de données comme entrées possibles.
- 3Zuboff S. 2017, The Age of Surveillance Capitalism, Yale University Press ; Tesquet O. 2020, À la trace, Premier Parallèle.
- 4Kéfi S. & al. 2017, Early warning signals of ecological transitions : methods for spatial patterns, PLoS One, 9 : e92097.
- 5Voir Chavalarias D. 2022, Toxic Data, Flammarion.