Société

Notes sur les sociétés du profilage (2/2)

Philosophe

Après avoir analysé dans un premier volet l’émergence des « sociétés du profilage », dans leur dimension technique et économique, Philippe Huneman prolonge sa réflexion en intégrant les dimensions épistémiques et politiques. Tout glissement dans le régime de savoir change irrémédiablement les modalités du pouvoir. Il faut dès lors considérer comment la simple existence et activité sur Internet, et plus précisément sur les réseaux sociaux, entraîne un afflux d’informations susceptible d’orienter la décision, et même de modifier les individus.

Après les « sociétés de la discipline» analysées par Foucault et les « sociétés de contrôle » prophétisées par Deleuze dans les années 1990, la conjonction des technologies digitales, d’Internet et de certaines logiques de gouvernement nous fait entrer dans un nouveau régime de pouvoir que je nomme « sociétés du profilage », parce qu’il est rendu possible par l’émergence d’un nouvel objet, indissociablement épistémique, économique, technique et politique, le « profil ». Un profil est constitué par un ensemble de traces laissées ou produites par un individu téléphonant, payant, circulant, postant des « contenus », et aussi cherchant des informations sur le Web. Il autorise alors des rapprochements d’individus en communautés, mais aussi des prédictions, et un certain type d’action politique inédit. Après avoir analysé les deux premiers moments, technologiques et économiques, je me pencherai sur les deux suivants, l’un épistémique et l’autre politique, au fondement des sociétés du profilage.

Prédire : le moment épistémique de la multicorrélation

Le passage de données déposées (via la consultation des sites) ou construites (via les achats faits, les consultations de Google, etc.) à la constitution d’un profil nécessite donc une troisième condition que j’appelle le « moment épistémique ».

Tout d’abord, notons que le « profil » comprend en réalité plusieurs strates. Mon comportement d’internaute, chercheur de données, consommateur de sites ou acheteur, constitue mon « profil individuel » : un ensemble de données, temporellement situées, qui permet de reconstituer certaines grandes lignes de ma personnalité (j’aime la musique classique, je suis avec attention les progrès de l’intelligence artificielle, je suis marathonien ou fan de curling). Certaines prédictions peuvent se baser sur ce profil individuel : ainsi, si j’ai souhaité acheter un billet de train pour Londres, des publicités me proposeront des hôtels à Londres ; si mon téléphone, dont je n’ai pas neutralisé les fonctions de localisation, est resté avec moi dans un magasin de sport un certain temps, ma page Facebook me présentera plus tard des publicités d’articles de sport…

Mais le second niveau, que j’appelle « profil global », est plus intéressant. En collationnant des très grandes quantités de profils individuels, certaines corrélations peuvent facilement être établies : les amateurs de curling commandent des pizzas hawaïennes bien davantage que les autres ; les fans de Ligeti aiment Stockhausen, mais aussi le rap des années 1990 de la côte Ouest. On connait ces inférences puisqu’elles fondent les propositions de nouveautés que nous font soit des sites comme Amazon (« ceux qui ont acheté le livre de Paolo Coelho ont aussi acheté le livre de Jean-François Copé »), soit des sites d’écoute et visionnage en streaming comme Netflix ou Spotify (« vous aimez Clara Luciani, vous aimerez peut-être Franz Schubert »).

Un profil global agrège des profils individuels de manière à tisser des ensembles de corrélations dont la plupart sont invisibles à l’œil nu, même si certaines correspondent à l’intuition sociologique de base qu’aurait n’importe qui. Bien sûr, elles fournissent un phénoménal outil de marketing, lequel aura d’ailleurs pour effet une diversification massive de l’offre. Avant, on savait bien que telle musique ou tel film avait du succès, mais à partir de là on pensait en termes de populations totales : « les Français » ont aimé La grande vadrouille et Avatar. Aujourd’hui que l’on peut partitionner la population en profils, on peut s’abstenir de proposer d’écouter Angèle aux amateurs de Ligeti, mais on peut aussi, à rebours de toute intuition, vendre des tenues cosplay à des fanatiques du trek dans le Berry (à supposer qu’une telle corrélation saugrenue soit apparue quelque part dans les données).

Le profil global permet donc des inférences bien plus puissantes que le profil individuel, mais aussi que toutes les données populationnelles – le hit-parade, les « meilleurs films de 2018 », etc. – dont nous avions l’habitude de disposer avant l’existence d’internet, et les deux moments spécifiés précédemment. Grâce à lui, du fait de la subsomption de mon profil individuel dans un ou plusieurs profils globaux, on pourra me proposer à la vente des choses auxquelles je n’aurais jamais pensé, mais qui effectivement auront une probabilité supérieure à la moyenne d’être appréciées et consommées par moi, car elles sont corrélées dans un profil global.

Et ces profils globaux apparaissent comme des classes d’individus très finement découpées, correspondant chacune à une distribution de goût et d’intérêts qui portent sur l’ensemble de la réalité. Le profil induit une commensurabilité absolue entre tout et n’importe quoi : si une majorité d’internautes amateurs de miel recherchent plus que les autres sur Google des renseignements sur Sheila, ces deux éléments de réalité – le miel et Sheila – se trouveront instantanément connectés en un certain profil global. Mieux encore, ainsi que mon exemple inaugural de Shazam le suggère, non seulement la réalité tout entière est la base sur laquelle se construisent les profils, mais cette réalité peut être découpée en grains extrêmement fins : l’établissement algorithmique de profils considère non pas une chanson, mais des petits bouts de chanson, différentiables selon le moment où les auditeurs vont, ou non, « shazamer » ladite chanson.

Epistémiquement, la possibilité du « profil global » repose sur ce que l’on nomme souvent la révolution du big data, en français des « données massives » [1]. Plus précisément, l’enjeu est un déplacement des rapports entre corrélation, causalité, prédiction et classification dans la pratique scientifique, rendu possible par l’arrivée en masse des données de type big data. C’est avant tout un changement dans la science, dans les outils scientifiques, et l’existence même de « profils » ne se concevrait pas sans cela.

Nos données génomiques utilisées dans la détection des mutations génétiques impliquées dans les maladies communes telles que obésité, diabète de type A, dépression, etc., exemplifient typiquement les données massives. Dans le noyau de nos cellules, notre ADN, porteur de l’information génétique héréditairement transmise, est composé de milliards de nucléotides. Chaque nucléotide peut prendre quatre valeurs différentes, A, C, T, G (selon les quatre bases qui constituent l’ADN ou acide désoxyribonucléique).

Le génome particulier d’un individu est donc un point dans un espace à quelques millions de dimensions, chaque dimension étant faite d’un ensemble discret de quatre points. À cela, on peut ajouter une cinquième dimension, qui est une valeur sur un axe représentant une certaine réponse à un critère de la maladie (l’index body-masse pour l’obésité, certains paramètres de l’insuline pour le diabète, etc.). Collecter le génome de 20 000 ou 50 000 individus, comme on fait typiquement aujourd’hui, nous donne donc dans cet espace hyperdimensionnel (soit, de dimensions nettement supérieures à 3 ou 4) un grand ensemble de points.

La question est alors de trouver les bons outils statistiques pour détecter des figures pertinentes dans cet ensemble. Ces figures pourront indiquer des corrélations, par exemple entre certains scores sur certains axes – c’est-à-dire certaines combinaisons de nucléotides – et certaines valeurs pathologiques sur l’axe relatif à la maladie étudiée. Les outils statistiques nécessaires à cet examen relèvent de théories bien plus complexes que les statistiques classiques, et s’appuient souvent sur des algorithmes de type machine learning pour scruter l’espace des données. Ces algorithmes sont entrainés à reconnaître des patterns, des formes, dans un ensemble – une de leur application principale est d’ailleurs la reconnaissance d’images –, et à partir de là deviennent assez vite nettement meilleurs que les humains pour détecter les patterns intéressants dans d’immenses ensembles de données.

Corrélation et causalité relèvent des notions scientifiques de base, et chaque chercheur répétera comme un mantra à ses étudiants « corrélation n’est pas causalité » – tout en apprenant dans le même temps que l’un des meilleurs moyens de trouver des relations causales est d’établir des corrélations, puisque dès qu’une chose en cause une autre elle est corrélée à cette seconde chose.

Ne pas confondre corrélation et causalité est donc l’un des premiers devoirs de toute initiation à la pensée critique. Mais pendant longtemps la science a existé selon un régime que j’appellerais de rareté de la donnée. La donnée était coûteuse, en temps et en argent. Or elle ne l’est souvent plus ; certes une donnée sur le boson de Higgs coûte encore cher – il faut construire un immense accélérateur de particules du CERN, le Large Hadron Collider – , mais aujourd’hui, celui qui s’intéresse à la mobilité des citoyens et des ruraux pourra facilement récupérer une immense base de données grâce à la localisation des téléphones mobiles des agents, cependant qu’un généticien peut déchiffrer le génome de milliers d’individus pour quelques euros chacun là où vingt ans plus tôt scanner un seul génome coûtait un million d’euros. Pensons aussi à l’astronomie : Kepler a construit son modèle du système solaire sur la base d’une dizaine ou d’une centaine d’observations. Nos astrophysiciens récupèrent chaque jour, grâce aux radiotélescopes, aux télescopes en orbite, etc., des millions de gigaoctets de données sur l’ensemble de l’univers…

Certains parlent de passage d’une science hypothesis-driven – on se pose des problèmes, on cherche des données qui nous permettent de formuler des hypothèses résolvant ces problèmes, puis d’autres données pour tester ces hypothèses – à une science data-driven – nos instruments nous fournissent continuellement une myriade de données sur les planètes, les étoiles, les génomes, les plantes, les animaux, les déplacements humains, etc., et on doit traiter ces immenses séries de données pour en sortir quelque chose d’intéressant [2]. Il y a là un débat ouvert et je ne prendrai pas parti. Je voulais juste indiquer que la quasi-gratuité et donc la pléthorique abondance de l’information aujourd’hui n’est pas sans effet sur la pratique scientifique. En retour, les liens entre corrélation, causalité, classification et prédiction tendent à se modifier. En quel sens ?

Les corrélations sont la première chose que nous pouvons trouver parmi les données. Elles nous intéressent parce qu’elles permettent parfois d’y repérer des causes : si tous les fumeurs sont statistiquement beaucoup plus atteints par le cancer du poumon que les autres, c’est parce que la cigarette induit des processus qui finissent assez souvent par produire le cancer du poumon, pour une bonne partie des constitutions génétiques, physiologiques et environnementales. Et la causalité nous intéresse à son tour parce qu’elle permet de prédire et de contrôler : connaissant la cause, je peux agir sur elle afin de modifier l’effet. Donc si quelqu’un fume beaucoup, je peux prédire qu’il aura plus probablement qu’un autre le cancer du poumon, mais aussi, éventuellement, contrôler ce cancer, en faisant en sorte que l’individu arrête de fumer.

Mais certaines corrélations sont trompeuses. Elles n’indiquent aucune causalité. Spuriouscorrelations.com est un site amusant qui répertorie chaque jour des centaines de corrélations parfois très fortes, par exemple entre la consommation de mozzarella par habitants aux USA et le taux de suicide dans le Nebraska. Ces corrélations ne recouvrent aucune relation causale imaginable. Et en ce sens, il serait irrationnel de se baser sur elles pour prédire quoi que ce soit – par exemple, vouloir prévenir les suicides en interdisant aux gens de manger de la mozzarella.

Il y a certes un intérêt en quelque sorte purement épistémique à vouloir trouver des relations causales : elles expliquent la raison pour laquelle les choses ont lieu comme elles ont lieu, car sans elles la corrélation n’est qu’un lien qui n’explique rien, et les mangeurs de mozzarella corrélés aux suicides seraient à mettre sur le même plan que les cigarettes des malades du cancer du poumon. Mais d’un point de vue pratique, on cherche des relations causales pour faire des prédictions fiables. Or si l’on peut prédire en se passant de ces relations causales, ce sera aussi bien. Et la science d’aujourd’hui, si riche en données devenues quasiment gratuites, prend parfois cette pente.

Ainsi, en écologie – science de la biodiversité dans les écosystèmes et du fonctionnement des écosystèmes – on tente parfois de construire des modèles prédictifs qui permettraient d’anticiper l’extinction de certaines espèces ou bien la réponse au changement climatique sans modéliser l’ensemble des relations causales extrêmement denses et complexes qui jouent simultanément ensemble dans le système étudié [3]. Par exemple, une théorie propose de détecter ce qu’on appelle les early warning signals, c’est-à-dire les patterns mathématiques qui se manifesteraient dans les données de corrélation à l’approche de ce qu’on appelle une « transition catastrophique », soit le passage d’un certain régime de fonctionnement d’un écosystème à un autre totalement différent et pour nous bien moins bon, comme la désertification [4]. La doctrine est controversée – on trouve beaucoup de faux positifs – mais l’existence de cette démarche est typique du nouveau rapport entre corrélation et causalité que je tente de cerner.

Ce qu’on nomme médecine prédictive ou médecine de précision [5] participe du même mouvement [6] : il s’agit d’identifier des gènes ou bien des facteurs environnementaux ou d’habitudes de vie qui rendent plus probables chez Mr. X que chez d’autres la survenue de telle maladie très précise. Les interactions entre tous les facteurs – des millions de gènes, un échantillon extrêmement larges de variables environnementales ou comportementales – donnent lieu à un très grand nombre de processus causaux possibles faits de boucles de réactions, de feedback, d’effets de seuil etc.. Tout cela rend quasiment impossible de les modéliser. Mais l’idéal est d’arriver malgré tout à prédire ou du moins à quantifier en probabilités conditionnelles (soit, relatives à certaines conditions physiologiques ou environnementales), certaines pathologies précises, afin de contrôler donc d’écarter ou de retarder leur survenue.

Médecine prédictive, écologie prédictive, sont deux aspects du nouveau régime de corrélation-prédiction rendu possibles par l’arrivée des données massives (et du pouvoir computationnel de traitement) dans les sciences d’aujourd’hui. Une corrélation n’est toujours pas causalité ; mais si dans un ensemble hyperdimensionnel de données on détecte un très grand nombre de corrélations, la prédiction sera bien moins risquée.

Supposons en effet un univers fait de n propriétés A (1), A (2).. A(i)… A (n). Chaque propriété peut être dans 4 états possibles, a, g, c, t. Un individu se caractérise par un état de chacune de ces n propriétés. (Par exemple, on peut avoir les propriétés A(1), qui a pour état blond, châtain ou brun, A (2), qui a pour état très grand, grand, moyen ou petit, A (3), qui a pour états lent ou rapide, etc.) Si une corrélation apparaît, mettons entre A (1) et A (2), selon laquelle l’état a de A (1) (noté A (1) = a) corrèle bien avec l’état c de A (2) (A(2)=c), sur un échantillon donné d’individus, on serait tenté de prédire que d’autres individus étant dans l’état a pour A (1) seront dans l’état c pour A (2).

Ici vaut l’adage « corrélation n’est pas causalité » : il se pourrait bien que les prochains individus examinés ayant a en A (1) soient très différents et donc n’aient pas A(2)=c. Seul un autre savoir, indépendant – donc fondé sur d’autres raisons, comme des tests expérimentaux –, du rapport causal entre A (1)=a et A (2)=c permettrait de fonder une prédiction fiable pour ce qui est des nouveaux individus. Mais supposons maintenant que mes corrélations concernent toutes les propriétés de cet univers, autrement dit, que je sache que les individus ayant tels états de A (1), A (2), A (i)… A (n-1) corrèlent avec tel état de A (n).

La fiabilité de la prédiction change radicalement. En effet, dans le cas précédent, à prédictions non fiables, je ne connaissais que l’état de deux propriétés, A (1) et A (2), pour un individu qui en a n. Il se pouvait alors que les individus échantillonnés présentent certains états de A (3), A (4) etc., tandis que les nouveaux individus sur lesquels on veut prédire l’état de A(2) présentent d’autres états de A (3)… A (n), et que ces autres états, combinés à A (1) = a, causent, d’autres état de A (2), ce qui fragilise mes prédictions fondées sur le seul A (1) = a. Mais les corrélations fines, qui dans cet univers raréfié définissent un profil (soit : A (1) = a, A (2) = c, A (3) = g… A (n) = t) écartent d’emblée ce genre d’inconnus, puisqu’on raisonne sur un profil complet. Dans ce cas, si en principe l’on suppose qu’il existe des relations causales à l’œuvre (mais inconnues), et donc des régularités (puisque causalité signifie minimalement « même causes, mêmes effets ») la complétude des profils permet une bonne prédiction de l’état non connu de la propriété A (n) sur des nouveaux individus dont on connaît l’état des A (i) (i variant de 1 à n-1).

Certes l’univers réel n’est pas si simple. Mais, en considérant qu’il embrasse une infinité de propriétés, le fait d’allonger la liste des propriétés sur lesquelles on établit des profils corrélatifs se rapproche d’autant plus de la complétude, et permet des prédictions suffisamment fiables. Cet allongement est bien entendu rendu possible par les données massives collectées dans un espace hyperdimensionnel de propriétés, et analysées par nos nouveaux outils statistiques et informatiques. De telles prédictions ne seront pas infaillibles comme le serait une prédiction basée sur un vrai rapport de causalité connu, mais leur marge d’erreur sera totalement acceptable pour les objectifs pratiques qu’on s’est donnés.

Un profil global, rappelons-le, permet des prédictions au sujet des individus : si Mr. X relève d’un certain profil global comprenant méfiance envers la médecine et attrait pour les rave parties, alors, même si lui-même n’a jamais été à une rave party on peut supposer que la chose l’intéressera. Au-delà, et simplement du fait de sa proximité avec d’autres profils globaux, le profil global peut donner lieu à des prédictions concernant des éléments qui n’y entrent pas du tout. En effet, la grande multiplicité des profils dans l’espace hyperdimensionnel des données relatives à l’ensemble de la réalité expérimentée, désirée, consommée, recherchée par les agents, permet en quelque sorte de compléter un profil global en extrapolant à partir de ses voisins. Ces profils globaux « complétés » permettent alors des prédictions encore plus fines concernant des individus qui en relèvent.

Pareil régime scientifique qu’on dira de la multicorrélation prédictive, réalisé aussi bien en génomique qu’en médecine, écologie ou ailleurs, est le troisième moment – épistémique – de la société du profilage : constituer des partitions d’un ensemble hyperdimensionnel de données qui permettront des inférences prédictives solides. La science et la technique derrière les « profils » de la société du profilage, c’est donc la technologie des données massives axée sur le retournement classification-prédiction – la classification fine induisant des prédictions robustes sans connaissances causales – dont j’ai parlé.

Réversibilité du consommateur et du producteur d’information, gratuité apparente du coût de la donnée, déplacement épistémique du rapport classification-prédiction contournant l’exigence traditionnelle de connaissances causales : tels sont les moments fondateurs de la société du profilage, dans laquelle nous sommes entrés, et qui pénètre aussi bien les systèmes financiers et économiques, la psychologie de l’offre et de la demande, que ce qu’on pourrait appeler la gestion des populations.

Infléchir : le moment politique entre paternalisme soft et nudging

On répète à satiété depuis Michel Foucault que savoir et pouvoir vont main dans la main, que tout glissement épistémique change irrémédiablement les modalités du pouvoir, et que toute révolution du pouvoir ouvre et suppose de nouveaux modes de savoir. Certes, et le profilage n’échappe pas à la règle. En effet, là où l’internaute produit un savoir potentiel sur lui, que d’aucuns se chargeront d’exploiter pour lui vendre des tapis ou des voyages à Majorque, il se constitue dans le même temps en objet d’un pouvoir possible : le pouvoir des marchands de tapis ou des tour-operators. Mais la chose se réalise en quelque sorte par degrés.

Prenons Facebook. Les algorithmes de Facebook ont été massivement commentés. Un journaliste en a fait l’expérience : transformez-vous en jeune homme d’origine maghrébine qui se pose des questions sur l’islam, l’occident, la laïcité, le racisme, la guerre en Syrie, émettez quelques posts en ce sens et dans votre fil Facebook vous serez vite assailli par des drapeaux du califat, des images de décapitations en Syrie, des demandes d’amitié de la part de jeunes gens éclairés qui vous proposent de vous expliquer le jihad, et finalement des tours-operators de Daech. La simple existence et activité sur des réseaux sociaux entraîne un afflux d’informations en un sens spécifique susceptible de vous modifier – là est la cheville fine qui lie savoir et pouvoir dans le régime du profilage, et donc le quatrième moment constitutif des sociétés du profilage, celui où le politique entre en jeu.

Bien sûr, l’algorithme de Facebook n’est pas islamiste, et personne ne l’a construit pour obtenir telle ou telle fin. L’exposition grandissante à des contenus de plus en plus extrêmes – « radicaux », comme on dit maintenant avec peu de sens sémantique – appartient simplement aux tendances du design algorithmique du réseau social, au moins de Facebook, possiblement de Twitter ou Instagram.

Mais un certain type d’action politique pourrait facilement s’appuyer sur ce design pour agir sur les individus. Comme on en a longuement débattu, cela eut lieu avec le référendum du Brexit et les récentes élections présidentielles américaine et française. La diffusion de fausses informations, fake news, à charge pour les candidats adverses, a massivement gagné l’ensemble des plateformes internet ; au-delà de cela, « l’astroturfing », autrement dit la création de faux comptes d’électeurs d’un certain parti conçus pour s’adresser à une certaine classe d’internautes, constitua une pratique conséquente lors de ces suffrages, au point que certains s’alarment du risque que ces nouvelles stratégies font subir à la démocratie, et promeuvent des modes électoraux immunisés contre l’astroturfing.

Je n’entre pas dans les détails des possibilités techniques concernant ces stratégies touchant aux épisodes fébriles de la vie politique, à savoir les élections. Je veux juste souligner que cette vie politique, aujourd’hui, ne peut plus se concevoir sans les effets de tels dispositifs par lesquels la prédiction des individus peut se retourner en prescription des choix individuels.

Les profils globaux, disais-je permettent des prédictions fines concernant les individus. Au-delà de cela, ils permettent aussi de prédire les réactions des individus à des stimulations données, parce que l’espace des éléments de réalité, sur lequel nous construisons nos profils globaux (« Mr. X aime bien cela, cherche ceci, achète cela etc. ») intègre des valences émotionnelles : « Mr. X a peur de ceci, admire cela, etc. » Après tout, les réseaux sociaux sont bien truffés d’indicateurs émotionnels indiquant pour chaque profil individuel un ensemble de déclencheurs possibles d’émotions positives.

Or la connaissance des réponses émotionnelles caractéristiques d’un individu permet de prédire ses réactions à telle ou telle information avec un degré satisfaisant de précision. C’est l’un des ressorts de l’usage de fake news, tel que l’a démontré l’activité de Cambridge Analytica, cette société qui bénéficia de données (illégalement) issues de Facebook pour orchestrer la campagne de fake news/astroturfing soutenant le Brexit.

Il ne s’agissait pas alors de simplement diffuser de l’information fausse et décrédibilisante envers l’adversaire : il fallait avant tout envoyer la bonne intox à la personne susceptible d’y réagir de la façon souhaitée. C’est en quoi les profils permettent d’aller au-delà de la désinformation traditionnelle comme de la manipulation classique : ils autorisent une action ciblée, garantissant un résultat bien plus fiable. Auparavant, comme on dit, l’électeur était pris pour un con ; aujourd’hui, via le profilage, l’électeur est pris pour ce qu’il est (très probablement) : le succès aura bien davantage tendance à s’ensuivre…

Mais si le marketing traditionnel – étendard des sociétés de contrôle selon Deleuze [7] – tendait à adapter l’offre au consommateur, comme il en allait avec les études de marché classique, et comme l’exemple précédent pouvait encore en relever, le régime du profilage permettra aussi de viser l’inverse, soit, adapter le consommateur à l’offre, en infléchissant sa « personnalité » grâce à des sollicitations ciblées et à ses réponses prévisibles. C’est ici que nos « moments » fondateurs rencontrent la politique, via une technique de gouvernement nommée aujourd’hui nudging (mot anglais qui signifie le coup d’épaule qui fait dévier quelqu’un), et une tendance associée qu’on appelle parfois « paternalisme soft [8] ».

Le paternalisme est l’idée que puisque le citoyen est trop bête pour savoir ce qui est bien pour lui, le gouvernant le sait et donc doit le lui imposer, exactement comme le père à son enfant. Le paternalisme soft n’impose rien mais conserve l’idée que le citoyen ne sait pas ce qui est bien, ou le néglige même quand il le sait – « bien pour lui », comme dans le cas de sa santé (il fume, il boit des sodas, il bronze), ou « bien en soi », comme dans le cas de la crise environnementale (il consomme du plastique, roule en bagnole, prend l’avion, mange des fraises en janvier, etc). Mais le gouvernant ici atteindra son but – soit, le changement des comportements – via une technique souple fondée sur les connaissances acquises ces vingt dernières années par les sciences cognitives.

Comme on le ressasse aujourd’hui, celles-ci ont mis en évidence que les esprits humains sont emplis de biais, autrement dit de tendances à systématiquement se tromper d’une certaine manière dans nos jugements. Ainsi, le biais célébrissime dit « de confirmation » signifie qu’on tend à garder les informations qui confirment nos croyances et négliger les autres (les syndicalistes lisent Libération, les notaires lisent Le Figaro, etc.), si bien que toute information vient renforcer nos croyances existantes.

Il ne sert donc à rien d’essayer de raisonner un agent sur ce qui est bon pour lui, parce que celui-ci, tout pétri de biais, ne l’entendra pas. Il en va comme de la cigarette ou de la drogue, pour lesquelles il est stupide de dire à l’intéressé que c’est mauvais pour la santé, puisqu’il le sait déjà et s’en fiche. Et, puisque la coercition pure est antidémocratique, il s’agit donc, au contraire, de changer sa perception de la cigarette : coller sur les paquets d’affreuses photos de poumons en décomposition, par exemple.

Le nudging évite à la fois la conviction par des arguments et l’imposition par la contrainte. L’économiste Richard Thaler et le juriste Cass Sunstein l’ont théorisé dans un livre important, Nudge (2008), et les ministères de la santé ou de l’environnement emploient déjà des techniques de ce genre (ainsi, on réduit sans catéchisme la consommation électrique des gens, simplement en indiquant sur leur facture la consommation moyenne alentour et en affichant un emoticone rouge courroucé si l’intéressé la dépasse).

Indépendamment des questions de savoir si le paternalisme soft est légitime ou pas, et s’il est réellement entré ou non dans les mœurs, je veux juste souligner la parfaite convergence entre l’existence des profils, tels qu’analysés dans les sections précédentes, et les aspirations du nudging. Pouvoir prédire quels contenus suscitent, pour tel individu – relevant de tel profil global – quelle réaction, constitue une opportunité splendide pour les partisans du nudging, puisqu’on pourra en quelque sorte développer un nudging profilé : non plus s’appuyer sur des biais très généraux censés exister chez tous les cerveaux, mais mobiliser les inférences prédictives subtiles que permettent les profils maintenant dégagés. Imaginons par exemple un amateur de Hi-FI fumeur : dès lors qu’il achète du matériel de qualité, une image viendrait sur son écran lui indiquer l’équivalent en paquets de cigarettes, de cet achat ; le coût de la chose lui sauterait alors aux yeux bien davantage que sa simple formulation chiffrée, et peut-être finirait par le décourager de la nicotine.

Le régime du profilage réaliserait ainsi le rêve du paternalisme soft : chaque profil offre un nombre illimité de prises individuelles pour infléchir les gouts, les désirs et même les idées politiques des citoyens – un champ d’action bien plus large que la centaine de biais universels répertoriés par les cognitivistes [9].

Bien sûr, le paternalisme soft n’est pas une doctrine politique, il ne dit rien des valeurs ou des objectifs à prôner, il est simplement une technique de gouvernement des populations dont je soutiens ici qu’elle donne une armature politique appropriée aux sociétés du profilage qui s’établissent aujourd’hui chez nous et sous nos yeux. On peut s’en féliciter, se dire que ce type de société est le seul dans lequel est démocratiquement envisageable un changement massif de comportements et de mentalité, tel qu’il est requis pour répondre aux défis du changement climatique et de la crise de la biodiversité. On peut s’en émouvoir, car tandis que l’on dispose de moyens massifs pour orienter les citoyens vers un certain « bien » la définition de ce « bien » demeure particulièrement opaque.

On peut s’en inquiéter, même, au sens où l’on estimerait que des valeurs essentielles à la démocratie – la liberté de choix, l’autonomie, etc. – sont ainsi mises entre parenthèses. Je ne me prononce pas. Il s’agissait simplement de montrer ici la congruence des quatre moments – technique, économique, épistémique et politique –, et leur confluence dans la détermination d’un type de société original qui, après les sociétés de discipline et les sociétés de contrôle, réalise un nouvel enchevêtrement de l’individu et de la population comme du pouvoir et du savoir.

Ce qu’il faut en penser, ce qu’on devrait en faire, sont l’objet d’une autre discussion. Deleuze demandait dans son texte si l’on pouvait discerner déjà de nouvelles « formes de résistance » capables de « s’attaquer aux joies du marketing ». Si mon texte vise juste, il faudra probablement maintenant deviner où naissent les résistances susceptibles d’affronter les joyeusetés du profilage.

NDLR : Pour lire la première partie de cet article “Notes sur les sociétés de profilage”, cliquer ici.

 


[1] Sur les données massives voir le livre en français de Sabina Leonelli, La recherche scientifique à l’ère des big data. Cinq façons dont les big data nuisent à la science, et comment la sauver. Paris: Mimésis, 2019. En particulier, Leonelli commente les « 7V » supposés caractériser le big data : volume, vitesse, véracité, variété, volatilité, validité, valeur. Elle souligne alors la relativité et dépendance au contexte des notions de volume et de vitesse. « Le fait que ce qui est perçu comme de grandes quantités de données et une grande vitesse dépend complètement des technologies pour produire les données, les archiver et les analyser, et donc change continuellement d’une année à l’autre. Par exemple, alors qu’au début du millénaire, les Big Data étaient des données trop nombreuses pour être annotées avec un tableur normal de Microsoft Excel, désormais, on peut concevoir des trillions de données obtenues par l’usage des réseaux sociaux comme Facebook ; au contraire, il y a trois siècles, on avait les collections de milliers d’observations faites par les métrologues, cartographes, et astronomes du monde entier, extrêmement difficiles à analyser et à intégrer en cartes géographiques sans accès à un ordinateur. » (p.20)

[2] Par exemple Nowotny H., Scott P, Gibbons M (2001). Re-Thinking Science : Knowledge and the Public in an Age of Uncertainty. Polity Press.

[3] Sur l’écologie prédictive voir Maris, V., Huneman, P., Coreau, A., Kéfi, S., Pradel, R. and Devictor, V. (2018), « Prediction in ecology: promises, obstacles and clarifications ». Oikos, 127 : 171–183.

[4] Sur les ‘early warning signals’, voir Carpenter, S. R. et al. 2011. « Early warnings of regime shifts: a whole-ecosystem experiment ». – Science 332 : 1079–1082, et les développements critiques de Kéfi, S. et al. 2013. « Early warning signals also precede non-catastrophic transitions ». Oikos 122 : 641–648.

[5] Sur cette nouvelle médecine on lira le dossier coordonné par Marie Darrason et Elodie Giroux pour la revue Lato Sensu (2017, 1), « Les enjeux contemporains de la médecine personnalisée ».

[6] Pour une analyse récente et généalogique de la médecine prédictive lire Delphine Olivier, 2018, « Personnaliser La prévention. Étude d’un Projet De médecine prédictive ». Lato Sensu : Revue De La Société De Philosophie Des Sciences 4 (2).

[7] « Le marketing est maintenant l’instrument du contrôle social, et forme la race impudente de nos maîtres. » « Post-scriptum sur les sociétés de contrôle », op. cit.

[8] On l’appelle parfois aussi «Paternalisme libertarien». Il y a une abondante littérature sur le paternalisme en théorie politique. En France, la critique du paternalisme par Ruwen Ogien reste d’actualité (L’État nous rend-il meilleurs ?, Paris, Gallimard, 2013).

[9] Une utile récapitulation des biais se trouve ici.

Philippe Huneman

Philosophe, Directeur de recherche à l’IHPST (CNRS/Paris-I)

L’Italie de Salvini

Par

La visite du président Macron à Rome marque la reprise des relations franco-italiennes. Une rencontre symbolique, qui n’efface pas pour autant les quatorze mois de gouvernement de la Ligue d’extrême droite et des... lire plus

Notes

[1] Sur les données massives voir le livre en français de Sabina Leonelli, La recherche scientifique à l’ère des big data. Cinq façons dont les big data nuisent à la science, et comment la sauver. Paris: Mimésis, 2019. En particulier, Leonelli commente les « 7V » supposés caractériser le big data : volume, vitesse, véracité, variété, volatilité, validité, valeur. Elle souligne alors la relativité et dépendance au contexte des notions de volume et de vitesse. « Le fait que ce qui est perçu comme de grandes quantités de données et une grande vitesse dépend complètement des technologies pour produire les données, les archiver et les analyser, et donc change continuellement d’une année à l’autre. Par exemple, alors qu’au début du millénaire, les Big Data étaient des données trop nombreuses pour être annotées avec un tableur normal de Microsoft Excel, désormais, on peut concevoir des trillions de données obtenues par l’usage des réseaux sociaux comme Facebook ; au contraire, il y a trois siècles, on avait les collections de milliers d’observations faites par les métrologues, cartographes, et astronomes du monde entier, extrêmement difficiles à analyser et à intégrer en cartes géographiques sans accès à un ordinateur. » (p.20)

[2] Par exemple Nowotny H., Scott P, Gibbons M (2001). Re-Thinking Science : Knowledge and the Public in an Age of Uncertainty. Polity Press.

[3] Sur l’écologie prédictive voir Maris, V., Huneman, P., Coreau, A., Kéfi, S., Pradel, R. and Devictor, V. (2018), « Prediction in ecology: promises, obstacles and clarifications ». Oikos, 127 : 171–183.

[4] Sur les ‘early warning signals’, voir Carpenter, S. R. et al. 2011. « Early warnings of regime shifts: a whole-ecosystem experiment ». – Science 332 : 1079–1082, et les développements critiques de Kéfi, S. et al. 2013. « Early warning signals also precede non-catastrophic transitions ». Oikos 122 : 641–648.

[5] Sur cette nouvelle médecine on lira le dossier coordonné par Marie Darrason et Elodie Giroux pour la revue Lato Sensu (2017, 1), « Les enjeux contemporains de la médecine personnalisée ».

[6] Pour une analyse récente et généalogique de la médecine prédictive lire Delphine Olivier, 2018, « Personnaliser La prévention. Étude d’un Projet De médecine prédictive ». Lato Sensu : Revue De La Société De Philosophie Des Sciences 4 (2).

[7] « Le marketing est maintenant l’instrument du contrôle social, et forme la race impudente de nos maîtres. » « Post-scriptum sur les sociétés de contrôle », op. cit.

[8] On l’appelle parfois aussi «Paternalisme libertarien». Il y a une abondante littérature sur le paternalisme en théorie politique. En France, la critique du paternalisme par Ruwen Ogien reste d’actualité (L’État nous rend-il meilleurs ?, Paris, Gallimard, 2013).

[9] Une utile récapitulation des biais se trouve ici.