Économie

Le management algorithmique : nouveau paradigme d’organisation du travail ?

Philosophe, Haut fonctionnaire, Spécialiste en data education, Avocat

Avec leur médiatisation et celle de leur capacité d’apprentissage – et donc de prévoyance – de nos comportements, nous réalisons de plus en plus l’étendue du pouvoir des algorithmes. Or, ces derniers sont désormais utilisés pour réguler le travail et les relations humaines au sein des entreprises, sous le nom de management algorithmique. Parce qu’il est porteur de bouleversements positifs comme négatifs, il est urgent de régulariser celui-ci afin de protéger les travailleurs et d’en redonner une capacité de contrôle aux pouvoirs publics.

Quel point commun entre les Boeing 737 Max cloués au sol à cause d’une défaillance de leur logiciel MCAS d’aide au pilotage, les applications qui permettent de se faire livrer chez soi en quelques minutes et le recours croissant d’entreprises à des solutions de recrutement 100 % automatisé en ligne ?

Il s’agit du management algorithmique. Celui-ci est en train de bouleverser le travail, son organisation et les relations entre employeurs et travailleurs.

publicité

Ces bouleversements portent des potentialités positives comme négatives. Parmi les avantages que le management algorithmique peut apporter figurent notamment l’aide à la prise de décision, l’automatisation des tâches les plus répétitives, dangereuses ou à faible valeur ajoutée, les gains de productivité ou encore l’atténuation de biais ou de risques de discriminations.

Les algorithmes sont aussi susceptibles, à l’inverse, de renforcer les effets négatifs de certaines pratiques managériales qui préexistaient à l’essor des nouvelles technologies dans l’entreprise.

Pour reprendre l’exemple du recrutement, la généralisation du télétravail, liée au Covid, a en effet conduit les entreprises à recruter des candidats entièrement à distance et à démultiplier le recours aux logiciels de recrutement fondés sur l’intelligence artificielle (IA). Ainsi la rédaction des offres d’emploi, la recherche de candidats et même leur sélection peuvent désormais être conduites de façon quasi-automatisée. Ce recours croissant à l’IA nourrit des débats sur le renforcement des discriminations à l’embauche.

Au-delà de cette illustration, si l’on combine deux expressions célèbres : « software is eating the world » (« le logiciel dévore le monde ») et « code is law » (« le code c’est la loi »), on peut imaginer que ces bouleversements n’en sont qu’à leurs débuts et qu’à terme l’influence des algorithmes pourra être considérable.

Dès lors, pour « instituer un régime de travail véritablement humain », prendre la mesure de la transformation majeure qu’engendre le management algorithmique sur le travail est essentiel. De quoi parlons-nous ? Pourquoi faut-il s’en préoccuper ? Comment réguler ce management algorithmique afin de rééquilibrer les relations entre les acteurs, notamment au profit des travailleurs, et redonner une capacité de contrôle aux pouvoirs publics ?

Cet article offre de premiers éléments de réponses, encore préliminaires, à ces questions.

Management algorithmique, de quoi parle-t-on ?

Les algorithmes sont utilisés depuis longtemps pour optimiser le fonctionnement des machines. Ce qui est nouveau, c’est leur utilisation pour réguler le travail et les relations humaines au sein des entreprises.

Le concept de « management algorithmique » a été forgé récemment par les chercheurs pour décrire le mode d’organisation du travail introduit par les plateformes numériques de travail comme Uber et Lyft. Mais loin de se limiter à ces plateformes, il concerne en réalité l’ensemble de l’économie. Un certain nombre de traits sont en réalité présents aux États-Unis dès la fin des années 80 (en particulier dans la grande distribution), mais ont connu un net essor avec le déploiement de la vague actuelle de transformation numérique et les ruptures technologiques qui l’ont accompagnée – cloud, big data, applications mobiles, géolocalisation, internet des objets, machines apprenantes etc. Amazon par exemple, parmi les enseignes qui traitent massivement de la donnée, fait partie des entreprises les plus avancées en matière de management algorithmique à l’égard de ses salariés.

Le Bureau International du Travail (BIT) distingue cinq éléments constitutifs du management algorithmique : la surveillance constante, l’évaluation permanente des performances, l’application automatique des décisions sans intervention humaine, l’interaction des travailleurs avec un système, la faible transparence des algorithmes.

Les chercheurs sont de plus en plus nombreux à considérer le management par algorithme comme un nouveau paradigme d’organisation et de contrôle. Il modifie en effet en profondeur chacune des trois dimensions de la « subordination » du travailleur (entendue au sens juridique du terme, c’est-à-dire ce qui caractérise la relation salariale aux yeux des juges), à savoir les mécanismes de direction, d’évaluation et de sanction et rétribution.

La direction prend à la fois la forme de recommandations algorithmiques incitant les travailleurs à adopter des comportements préétablis, et celle d’une restriction de son accès aux données ou à la clientèle disponible (un chauffeur Uber ne sait pas ce qui conduit l’algorithme à lui affecter tel client plutôt que tel autre), ou l’impossibilité de moduler ou de personnaliser l’exécution de ses tâches (le chauffeur doit suivre le trajet déterminé par l’algorithme d’Uber).

L’évaluation ou le contrôle, par le biais algorithmique, implique une surveillance permanente du travailleur pendant l’exécution de ses tâches et une notation, parfois en temps réel, de ses performances. Cet enregistrement algorithmique en continu peut d’ailleurs se nourrir tant de données internes que de données externes à la relation de travail.

La sanction, par l’usage de l’algorithme, tend à automatiser la hiérarchisation des travailleurs selon leurs performances, notamment par la réduction de l’accès à la clientèle pour les travailleurs moins bien notés (jusqu’à la rupture de la relation) ou au contraire, par l’octroi automatisé d’avantages pour ceux qui suivent à la lettre les injonctions de l’algorithme dans l’exécution de leurs tâches (davantage d’opportunités de rémunération, de meilleures conditions financières etc.).

Comme le note le Centre commun de recherche de la Commission européenne, les algorithmes fonctionnent ainsi comme des « instruments de surveillance qui remplacent l’encadrement direct et créent des asymétries de puissance ».

Quelles implications pour les travailleurs ?

Ces nouvelles modalités d’organisation et de contrôle du travail introduites par les algorithmes peuvent avoir des effets importants, positifs comme négatifs, pour les travailleurs, dans leur quotidien professionnel et leur ressenti à l’égard du travail.  Dans la mesure où ses potentialités positives (et notamment les gains de productivité indéniables qu’il peut engendrer) ont permis son adoption rapide par de nombreux acteurs économiques, nous nous focalisons ici sur certains des risques négatifs liés au management algorithmique dont la résolution constituera un enjeu primordial du monde de travail de demain.

Au-delà du risque, déjà cité en introduction, de discrimination induite par des biais – fussent-ils involontaires voire même non désirés – liés au fonctionnement de certains algorithmes, l’effet le plus notable, chez certains travailleurs, est celui du sentiment d’aliénation, ou « d’être tout simplement un appendice de la machine [1] ». C’est le cas par exemple sur les chaînes logistiques du e-commerce, où les préparateurs de commandes peuvent passer leurs journées avec un casque sur la tête qui leur dicte en permanence quoi faire.

Cette réalité ne touche pas que les travailleurs les moins qualifiés. Une récente étude, par exemple, montre un sur-stress et des fatigues visuelles chez les radiologues dont le métier est progressivement sur-segmenté par une IA qui assure elle-même le travail de détection. Les directives sont adressées au travailleur sous la forme d’incitations dont les motivations et la finalité sont souvent peu lisibles. À cela s’ajoute une opacité en ce qui concerne son accès aux informations (et à plus forte raison les restrictions à cet accès). Influencé par des processus qu’il ne maîtrise pas, le travailleur peut se sentir de plus en plus impuissant dans la relation de travail. La perception d’un transfert de la capacité de décision du travailleur à la machine nourrit des craintes de perte d’autonomie, y compris pour les managers.

Le contrôle permanent caractérise une surveillance par le donneur d’ordre qui trahit – et nourrit en retour – une défiance à l’accrue dans la relation de travail.

L’absence de prévisibilité et de lisibilité du régime de sanction de l’algorithme peut être source d’incertitude, de stress et de précarité pour le travailleur. De facto, l’intuitu personae très fort qui caractérise normalement la relation de travail disparaît avec le management algorithmique.

Face à ces changements, les travailleurs ne sont pas inactifs, et de fait diverses stratégies d’évitement ou de résistance ont pu être observées : contournement du recours aux machines, organigramme informel, procédures alternatives, mise en place d’une socialité alternative etc. Observant par exemple la manière dont les juges et procureurs se servaient d’algorithmes prédictifs introduits dans différents tribunaux américains, Angèle Christin explique que « ce qui [l]’a frappée, c’est qu’ils ne s’en servent “surtout pas”. Il y a une certaine résistance des magistrats à utiliser ces algorithmes prédictifs. »

Impact du management algorithmique sur le travail : quels enjeux ?

Cinq principaux types d’enjeux liés aux impacts du management algorithmique sur le travail nous semblent émerger : des enjeux de transparence et d’intelligibilité, d’objectivité, de responsabilité, d’adaptation des droits des travailleurs et enfin des enjeux de partage de la valeur. Sans les détailler ici, nous pouvons a minima commencer à identifier les questions qu’ils posent.

1. En premier lieu, comment garantir la transparence et l’intelligibilité des algorithmes, dont les règles de fonctionnement sont aujourd’hui opaques pour les travailleurs et même pour les régulateurs ?

Cette question est loin d’être théorique. Elle engage par exemple directement la capacité de certification des régulateurs, pour vérifier que les algorithmes respectent le cadre normatif en vigueur. À cet égard l’épisode du défaut du logiciel MCAS des Boeing 737 Max, que le régulateur américain avait « validé » sans en réalité le comprendre, faute d’avoir l’expertise requise – dont seul Boeing disposait –, montre combien les enjeux liés à cette intelligibilité sont à la fois considérables et déjà pleinement d’actualité.

2. Ensuite viennent les questions sur l’objectivité des algorithmes et les risques de biais et de discriminations, qui sont d’ailleurs celles qui viennent le plus souvent à l’esprit en matière d’IA au travail. À titre illustratif, le tribunal de Bologne vient de juger discriminatoire l’algorithme de Deliveroo, qui utilisait un indice de « fiabilité » pour classer les livreurs et ainsi prioriser l’attribution des courses.

Ceci pose en retour la question des standards éthiques que l’écosystème entreprise/fournisseurs/travailleurs doit mettre en place : comment garantir l’objectivité des ingénieurs-fournisseurs qui ont créé l’algorithme ? Comment éviter que les données alimentant le machine-learning soient source de biais ? Quelles directives éthiques ont été appliquées au sein du fournisseur ?

3. Les questions de responsabilité sont tout aussi importantes.

Le traitement algorithmique dissimule dans une « boîte noire » un ensemble de décisions et d’instructions prises en amont. En effet, comme le souligne Antonio Casilli, les algorithmes ne sont pas des processus de calculs neutres, rationnels, hors d’atteinte, mais des instructions issues d’une programmation faite avec des objectifs précis, se basant sur un certain nombre de principes. Or l’algorithme floute l’identité du donneur d’ordre, et d’autant plus en substituant la suggestion (nudge) à l’injonction.

Ces formes d’influence posent de véritables défis au droit : ils ne relèvent pas de l’exercice classique de l’autorité, contractualisée. Se dessine ainsi une généralisation et une mutation de ce que Michel Foucault a nommé « gouvernementalité [2] » (néologisme associant « gouvernement » et « rationalité »). Antoinette Rouvroy utilise le terme de « gouvernementalité algorithmique » pour désigner cette normativité nouvelle, qui entoure chaque individu d’une bulle individualisée d’influences et d’incitations (on contrôle, mais en douceur, en orientant les comportement par des « coups de pouce »).

Au total, qui est responsable du fonctionnement des algorithmes et de leurs résultats ? Le codeur ? Le manageur ? Le travailleur qui agit en fonction de ce que lui dit l’algorithme (mais qui garde la possibilité de ne pas le suivre) ? Quelle que soit son autonomie, l’algorithme ne peut être responsable à la place de l’homme. Que reste-t-il de la responsabilité humaine, et comment l’attribuer ?

Plus spécifiquement, trois questions nous semblent essentielles :

Comment permettre aux entreprises de garder le contrôle des algorithmes qu’elles utilisent, notamment pour éviter les biais involontaires introduits par les algorithmes (pour reprendre l’exemple du recrutement, des algorithmes pourraient de facto défavoriser celui des femmes alors que leur recrutement est une priorité de l’entreprise) ?

Comment gérer et accompagner la redéfinition des processus de prise de décision au sein de l’entreprise, notamment face au risque de désintermédiation et de déresponsabilisation des managers ? Et notamment, quelle place donner au libre-arbitre humain dans un contexte d’amélioration continue de la performance et sans doute de la place des algorithmes ?

Comment appréhender les responsabilités des employeurs à l’égard des travailleurs en matière de management algorithmique (par exemple pour les accompagner face aux nouveaux usages et pour maintenir leur employabilité) ?

Plus largement, les algorithmes ne vont-ils pas contribuer à redéfinir les contours même des entreprises ? D’ores et déjà, les plateformes numériques, à l’image de Uber, s’appuient sur les algorithmes pour constituer des « modèles d’hybridation marché-entreprise [3] ». En utilisant les algorithmes pour remplacer les mécanismes de coordination usuels au sein des firmes et en réduisant ainsi la raison d’être des firmes comme lieu de réduction des coûts de transaction, les plateformes substituent une relation commerciale à une relation de travail, un contrat de prestation de service à un contrat de travail.

4. Le quatrième type d’enjeux concerne l’adaptation des droits des travailleurs.

Le droit du travail s’est construit historiquement en partie pour rééquilibrer les droits des travailleurs face aux asymétries de pouvoir avec leurs employeurs. Or, il ne prévoit aujourd’hui à peu près rien sur la régulation des algorithmes, qui pourtant introduisent de nouvelles asymétries avec les travailleurs, notamment d’information et de capacité de décision. Par exemple, les algorithmes offrant une transparence quasi-totale aux employeurs sur les travailleurs et leurs pratiques, comment encadrer la collecte et l’usage de ces données ? Comment plus largement rééquilibrer les rapports entre le travailleur et le donneur d’ordre face au management algorithmique ? Comment garantir l’accès effectif à ces droits (le RGPD notamment en offrant déjà, mais très complexes à mettre en œuvre, ce qui les rend de facto en partie inopérants) ?

5. Last but not least, le partage de la valeur constitue un enjeu essentiel à l’heure où les algorithmes sont capables de valoriser tous les petits gestes des travailleurs comme des consommateurs (ce qu’on appelle le digital labor [4]). Ceci appelle en effet à se réapproprier la valeur produite afin de la redistribuer à ceux qui l’ont générée.

Une solution peut être de réfléchir aux façons d’appliquer le statut de « bien commun » aux algorithmes et aux données dont ils sont nourris. Considérer l’algorithme comme un « commun » permettrait aussi de réinterroger la valeur du management algorithmique (notamment en intégrant les effets d’externalité), les sources réelles de cette valeur et, in fine, les contours de la communauté qui devrait a minima contribuer à la gestion, à la définition du champ d’application et au contenu de l’algorithme.

Régulation du management algorithmique : que faire ?

La régulation, notamment par le droit du travail, encadrant les usages des algorithmes et adaptant les droits des travailleurs, a tout juste commencé, en particulier à l’échelle européenne avec le règlement général pour la protection des données (RGPD) et le projet de Digital Service Act.

Non seulement il reste beaucoup à faire, mais une vigilance particulière s’impose pour assurer l’accessibilité réelle de ces droits pour les travailleurs. Nous proposons ici de premières pistes préliminaires.

Instituer des règles encadrant en amont la conception des algorithmes

Première recommandation : le principe d’accessibilité et d’intelligibilité de la loi a été reconnu de valeur constitutionnelle par le Conseil Constitutionnel. Or, si nous considérons, même au sens figuré bien sûr, que « code is law », il y aurait une légitimité, similairement, à consacrer un objectif d’intelligibilité du code ou de l’algorithme qui devrait présider à la création de ces outils numériques de management.

Deuxième recommandation et en complément de la première, nous proposons d’instituer des règles encadrant la conception des algorithmes, en particulier pour leur imposer des critères d’accessibilité, d’auditabilité, voire d’association de différentes parties prenantes à leur conception. Les biais des algorithmes sont directement liés aux données qu’ils utilisent et à la manière dont ils vont « apprendre » à partir de ces données (ce que l’on appelle le deep learning). Pour réduire ces risques de biais, et rendre les algorithmes plus sensibles aux faits, l’entreprise OpenAI et l’Université de Stanford proposent de multiplier et diversifier les modes d’apprentissages des algorithmes : modification des données sources, mise en place de modèles alternatifs, renforcement de l’apprentissage avec un feedback humain, mobilisation accrue de tiers de confiance pour chercher à « hacker » l’algorithme et trouver ses failles…

Donner aux travailleurs les moyens de comprendre les algorithmes et d’agir en connaissance de cause

D’ores et déjà, le RGPD a encadré le profilage, c’est-à-dire le traitement automatique de données pour évaluer des personnes ou prédire leur comportement. Il a aussi introduit le droit pour les travailleurs de ne pas faire l’objet de décisions fondées exclusivement sur un traitement automatisé. Le Digital Service Act, pour sa part, devrait d’ici 2022 régir la responsabilité des intermédiaires – et plus spécifiquement des plateformes – soumis à des obligations de transparence (notamment algorithmique) et de reddition de compte accrues. Le règlement européen Platform to Business (P2B), entré en vigueur le 12 juillet 2020, pose déjà des bases de ces exigences de transparence, d’équité et de responsabilité.

Si ces nouveaux droits vont dans le bon sens, ils sont (très) complexes à exercer. Pour qu’ils ne restent pas purement théoriques, il faut renforcer leur accessibilité pour les travailleurs.

Ainsi, le droit pour les travailleurs de ne pas faire l’objet de décisions fondées exclusivement sur un traitement automatisé devrait être mis en avant par le donneur d’ordre ou la plateforme, tant lors de la conclusion du contrat qu’au cours de son exécution, avec la mise en place de procédures internes facilitant sa mise en œuvre.

D’où notre troisième recommandation : ces nouveaux droits devraient être intégrés dans les codes de conduite des entreprises, qui constituent en outre des annexes au règlement intérieur et, partant, seraient soumis aux procédures d’information et de consultation des institutions représentatives du personnel.

Quatrième proposition : la transparence, la lisibilité et l’évolution des algorithmes devraient devenir des objets de dialogue social à part entière. Pour Valério de Stefano, la négociation des algorithmes pourrait voire devrait ainsi dans les années à venir devenir un objectif crucial pour l’ensemble des organisations syndicales. Comme le soulignent Odile Chagny et Franck Bonot, co-animateurs du réseau de réflexion sur l’économie du travail Sharers & Workers, c’est en principe déjà le cas, les représentants du personnel ayant un droit de consultation prévu dans toutes les situations d’introduction de nouvelles technologies ; pour autant, ils sont très rarement consultés sur ces thèmes.

Cinquième proposition : ces sujets étant très complexes, il faudra aussi donner aux travailleurs les moyens de les comprendre et d’agir en connaissance de cause, en donnant aux partenaires sociaux les clés de compréhension du management algorithmique et en les formant aux manières de les contrôler, comme le propose le Conseil national du numérique.

Mobiliser les outils contractuels et judiciaires

Sixième recommandation : le management algorithmique est également une modalité de mise en œuvre d’un contrat, entre un donneur d’ordre et un prestataire ou entre un employeur et un salarié. À ce titre, le management algorithmique devrait pouvoir faire l’objet du même encadrement légal et du même contrôle judiciaire que le contrat dont il affecte l’exécution.

Septième proposition, par conséquent : il est donc loisible d’imaginer, tout comme il existe des mentions obligatoires dans certains types de contrats de travail, des blocs de code à caractère impératif. Ceux-ci auraient vocation à entériner certaines garanties pour les travailleurs : la consécration de droits, une information plus complète, le caractère effectif et systématique de l’accès à la donnée etc.

Enfin, dernière perspective : à l’inverse, le pouvoir judiciaire peut, notamment grâce au droit de la consommation, écarter l’application de certaines clauses et les juger réputées non écrites, telles que les clauses léonines. De la même manière, certains blocs de code aux effets délétères devraient pouvoir être soumis au juge pour voir leur application écartée de la relation de travail (s’ils ne sont pas déjà exclus en amont par le double effet de l’encadrement réglementaire et de la négociation collective).

Cette segmentation de l’algorithme, à la manière de clauses contractuelles, suppose en amont, que l’intelligibilité et l’accessibilité du code aient été consacrées.

***

Historiquement, comme le rappelle Alain Supiot, les syndicats se sont battus « contre l’exploitation au travail, pas contre l’oppression dans le travail », ce qui a conduit à évacuer « le contenu et le sens du travail de la notion de justice sociale ».

À l’heure du constat de plus en plus partagé d’une « perte » de sens du travail, liée notamment à un sentiment de perte d’autonomie de la part des travailleurs, c’est peut-être là, in fine, l’enjeu fondamental posé par le management algorithmique : remettre le sens et le contenu du travail au centre du débat.

Ce n’est que par la prise de conscience de tous les acteurs, entreprises, travailleurs, syndicats, pouvoirs publics, instances internationales, que nous trouverons les réponses adaptées.

Cet article s’appuie notamment sur le travail mené par Odile Chagny et Florian Forestier dans leur article « Contrebalancer les asymétries de pouvoir nées de la société numérique : vers un droit social de l’algorithme ? », à paraître dans le Cahier du CIEP.


[1] Karen Jaehrling, « Virtuous Circles Between Innovations, Job Quality and Employment in Europe? Case Study Evidence From the Manufacturing Sector, Private and Public Service Sector », QuInnE Working Paper n° 6, 2018.

[2] Michel Foucault, Sécurité, territoire, population. Cours au Collège de France (1977-78), éditions du Seuil, 2004

[3] Odile Chagny et Florian Forestier, « Contrebalancer les asymétries de pouvoir nées de la société numérique : vers un droit social de l’algorithme ? », Cahier du CIEP, à paraître.

[4] Dominique Cardon & Antonio A. Casilli, Qu’est-ce que le Digital Labor ?, INA Éditions, 2015.

Florian Forestier

Philosophe, Conservateur à la BnF, romancier

Mathias Dufour

Haut fonctionnaire, Président du think tank #Leplusimportant

Erik Campanini

Spécialiste en data education, Directeur du pôle « Tech Inclusive » du think tank #Leplusimportant

Jérémie Giniaux-Kats

Avocat, Formé en droit du travail et droit des affaires

Notes

[1] Karen Jaehrling, « Virtuous Circles Between Innovations, Job Quality and Employment in Europe? Case Study Evidence From the Manufacturing Sector, Private and Public Service Sector », QuInnE Working Paper n° 6, 2018.

[2] Michel Foucault, Sécurité, territoire, population. Cours au Collège de France (1977-78), éditions du Seuil, 2004

[3] Odile Chagny et Florian Forestier, « Contrebalancer les asymétries de pouvoir nées de la société numérique : vers un droit social de l’algorithme ? », Cahier du CIEP, à paraître.

[4] Dominique Cardon & Antonio A. Casilli, Qu’est-ce que le Digital Labor ?, INA Éditions, 2015.