Au bureau, être managé par des algorithmes

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : Au bureau, être managé par des algorithmes

Intervenants : Elisabeth Leblanc (chargée de mission, ANACT) et Benoît Rottembourg (Responsable Regalia, Inria)

Lieu : SMART TECH

Date : Tech talk du lundi 6 février 2023

Durée : 19 min 48

Vidéo

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Delphine Sabattier : Les algorithmes prennent déjà beaucoup de part dans nos décisions. Ils vont en plus s’occuper de management dans l’entreprise. Ils vont, ou ils sont déjà : on va en parler tout de suite avec deux experts de ce que change cette vie professionnelle pilotée par des algorithmes, et des troubles induits également. Avec moi en plateau : Élizabeth Leblanc, chargée de mission à l’ANACT, l’Agence nationale pour l’amélioration des conditions de travail, établissement public qui dépend du ministère du Travail. Vous, vous êtes au département Capitalisation et Développement des connaissances, en contrat CIFRE [Convention industrielle de formation par la recherche] de doctorat avec le laboratoire GREpS [Groupe de recherche en psychologie sociale] de l’Université Lumière Lyon 2. Votre sujet de thèse en psychologie du travail des organisations s’intéresse à l’activité des travailleurs de l’ubérisation, ces livreurs de marchandises que l’on connaît très bien. Avec vous pour discuter du sujet du management par les algorithmes, Benoît Rottembourg, qu’on a déjà reçu en plateau dans Smart Tech plusieurs fois, bonjour. Vous êtes responsable du projet REGALIA de l’INRIA [1] : c’est un projet, donc, d’audit des algorithmes des plateformes numériques, sujet important pour apporter davantage de transparence sur ces algorithmes qui pilotent nos choix. REGALIA, donc : partenaire technologique du pôle d’expertise de la régulation numérique, placé sous l’autorité conjointe des ministères chargés de l’Économie, de la Culture et du Numérique.

Et resté avec nous en plateau Jean-Christophe Le Toquin, président de Point de Contact [2], pour intervenir quand vous voulez, Jean-Christophe.

Alors question : est-ce qu’on est déjà pilotés par des algorithmes, au travail ? Où est-ce qu’on n’a encore rien vu dans le domaine ? Benoît ?

Benoît Rottembourg : Je pense que ça commence, déjà. Il faut savoir que depuis au moins une bonne trentaine d’années, il y a plein de professions qui, d’une manière ou d’une autre, sont planifiées par des algorithmes. Les caissières des supermarchés, ça remonte à au moins vingt ans : elles ne viennent pas à n’importe quelle heure, et ça n’est pas n’importe quelle caissière qui vient à n’importe quelle heure. Si on regarde dans les centres d’appels téléphoniques qui interagissent avec nous, que ce soit ceux d’un ministère, que ce soit même, peut-être, Point de Contact, il faut bien un moment organiser les forces de travail en face d’un besoin potentiel d’activité. Il faudra tant de personnes à 9 heures, tant de personnes à 10 heures. Et comme on ne peut pas trop gâcher du juriste, qui coûte très cher, ou du conseiller clientèle, qui coûte cher quand même, comme on ne peut pas, on essaye de planifier la bonne personne au bon moment, sans gâcher. Dès qu’on dit ça, on est dans un algorithme.

Delphine Sabattier : Mais alors, qu’est-ce qui change avec la nouvelle génération algorithmique ?

Élisabeth Leblanc : En fait, en écoutant effectivement, c’est le - disons - le « management algorithmique » qui mériterait quand même d’être défini un peu plus. On peut dire que les algorithmes, en effet, planifient depuis longtemps les activités, comme vous l’avez spécifié au bureau. Mais en réalité il y a aussi beaucoup d’autres professions qui ne sont pas au bureau et qui sont sur un autre mode de fonctionnement et un autre régime, qui font qu’on a une grande part d’invisibilité là-dedans.

Delphine Sabattier : Les travailleurs des plateformes ?

Élisabeth Leblanc : Je pense aux travailleurs des plateformes et notamment aux indépendants, aux travailleurs indépendants qui, effectivement, sont « managés » - entre guillemets.

Delphine Sabattier : Alors comment définir ce management algorithmique ?

Élisabeth Leblanc : Alors, en fait, je dirais que le management est une organisation du travail. Effectivement, là, avec les plateformes, on est dans une organisation du travail. Peut-être qu’aujourd’hui ce qu’on peut remarquer, ça rejoint aussi un petit peu les choses sur lesquelles, à mon avis, il faut réfléchir, c’est la part de l’humain là-dedans.

Aujourd’hui, le management algorithmique semble se dispenser de l’humain, notamment dans la façon dont il calcule les données à partir de l’humain, en tout cas une partie de lui-même, et ce qui peut ensuite générer une prescription qui sera à la fois algorithmique et, en même temps, qui sera transmise via des outils numériques, dont l’être humain de l’autre côté qui a à faire quelque chose, eh bien, n’a pas accès à un autre humain pour éventuellement en discuter ou pour éventuellement signaler quelque chose qui pourrait ne pas correspondre en tout cas à quelque chose de plus construit.

Delphine Sabattier : Donc, on a un algorithme qui va organiser mon travail, mais qui ne m’apporte pas suffisamment de transparence, peut-être, sur ses décisions, ou en tout cas, avec qui je n’ai pas d’interaction.

Benoît Rottembourg : Ça va très vite. Je crois que par rapport à de la planification traditionnelle qui est supervisée par des hommes, qui a été spécifiée, l’algorithme en question a été spécifié longuement par la directrice des ressources humaines, l’équipe, on parle de maîtrise d’ouvrage, comment spécifie cet algorithme ? Et les algorithmiciens qui doivent rendre des comptes régulièrement : est-ce que je ne tire pas trop à droite ? Est-ce que je ne tire pas trop à gauche ? Est-ce que je ne défavorise pas la fin de l’alphabet ou le début de l’alphabet, etc. ? Toutes ces choses-là, on prenait le temps, je pense, il y a une vingtaine d’années, de sur-spécifier, j’ai envie de dire. Du coup, l’algorithme ne s’éloignait pas trop des bordures qu’on lui avait humainement imposées.

Là, ce qui change, c’est que, et d’une, ce temps de la spécification n’a pas eu lieu, ou en tout cas, n’a pas été très partagé. Donc, un livreur de plateforme n’a jamais participé ou n’a été représenté par personne pour participer à cette discussion. Ça, c’est le premier point. Le deuxième c’est qu’il y a une innovation permanente, parce que l’algorithme découvre des petites choses. Il a créé une zone blanche à un certain endroit, il va donner une pizza plutôt aux livreurs qui sont efficaces le lundi et pas à ceux qui sont efficaces le mardi, etc. Donc, cette découverte-là, elle va être opaque parce qu’elle est non discutée et non partagée avec celui qui reçoit l’algorithme. En tout cas, très peu partagé. Quand vous travaillez dans un centre d’appel ou avec un agent d’entretien dans un centre de loisirs, par exemple, il y a un retour, c’est-à-dire que la personne va se plaindre à un moment : mais non, vous avez dit que je pourrais mettre une heure à nettoyer ce cottage, mais en fait il était tellement abîmé, il était tellement sale que je n’ai pas pu le faire en une heure. Donc, peut-être que ça ne va pas bien se passer au niveau humain, mais en tout cas, il y a une chaîne de retour entre la personne qui a subi la planification, qui lui a imposé les trois couches par jour ou les trois cottages par heure, et elle va pouvoir dire : ça ne va pas.

Cette opacité, elle, elle augmente en fait.

Delphine Sabattier : L’opacité. Mais il y a quand même encore aujourd’hui beaucoup de managers, il y a quand même toujours un manager derrière l’algorithme ?

Élisabeth Leblanc : Derrière, peut-être, derrière l’algorithme. Mais il est invisible, en tout cas pour les travailleurs de l’autre côté. Mais en même temps, l’algorithme...

Delphine Sabattier : Ce que vous nous dites, c’est la disparition du manager ?

Benoît Rottembourg : D’un manager par personne, certainement.

Delphine Sabattier : De sa capacité de puissance, finalement.

Élisabeth Leblanc : Oui, on peut dire ça comme ça. Ou tout du moins d’interactions, mais c’est presque une barrière. En fait, ce qui se passe - après ça se discute, mais il y a beaucoup de choses qui peuvent se discuter autour de ça. Mais disons que l’algorithme, aujourd’hui, il est, disons, construit dans un objectif précis, c’est-à-dire qu’il est là pour répondre finalement à un modèle d’affaires. Donc, on lui induit aussi une direction de calcul sur ce modèle d’affaires. Et quand on regarde bien, finalement, ces algorithmes avec toutes les données qui sont utilisées là-dedans, vont effectivement très vite dans leurs calculs, avec une masse d’informations considérable. Et qu’est-ce qui se passe pour répondre à ce modèle d’affaires au mieux, finalement ? Tout va très, très vite dans la distribution des attributions, par exemple de courses pour les livreurs, des choses comme ça. Donc, ce système-là, si vous voulez, se construit sur des variables. Mais le travailleur lui aussi devient une variable. Donc, la variable, pour qu’elle puisse finalement s’ajuster au mieux et répondre à ce modèle d’affaires, qu’est-ce qu’il se passe ? Eh bien, finalement les prescriptions sont opaques, forcément, comme ça, au moins, il n’y a pas de possibilité de réaction derrière. Je ne dis pas que c’est intentionnel, mais en tout cas c’est ce qui se passe effectivement.

Delphine Sabattier : Sur l’opacité quand même, parce que cet algorithme n’est pas de nulle part. Vous dites, c’est un modèle d’affaires, il sert un modèle d’affaires, un modèle économique. Donc il y a des décisionnaires ?

Benoît Rottembourg : Oui, tout à fait.

Delphine Sabattier : Il y a des responsables ?

Benoît Rottembourg : Je pense, et d’une, quand on est une start-up - ce qui était le cas par exemple de Deliveroo ou d’Uber Eats à une époque, et qu’on se déploie très vite d’un pays à l’autre, le décideur n’est pas forcément à l’endroit, il ne connaît peut-être pas la France. Un exemple marquant, c’est que Deliveroo a été condamné en Italie pour avoir utilisé dans l’algorithme de notation qui ensuite distribue les tâches, mais l’algorithme de notation des livreurs avait utilisé les jours d’arrêt maladie. Ça ne se fait pas. Jamais moi je n’aurais codé ça, je me serais fait engueuler par quelqu’un, je le sais. Mais là on peut imaginer que le développeur d’un autre pays qui n’a pas fait attention, avait une jolie variable qui était la variable « nombre de fois où j’ai été malade » : super, ça explique que la personne est moins efficace.

Delphine Sabattier : À partir de quel moment on a vu justement que ce critère était glissé au sein de l’algorithme ?

Benoît Rottembourg : Malheureusement quand les gens se plaignent. Oui, ça n’est pas simple.

Delphine Sabattier : Et à ce moment-là, qui porte la responsabilité ?

Benoît Rottembourg : C’est en l’occurrence un syndicat qui a fait le procès à Deliveroo, l’équivalent d’un syndicat des travailleurs dans le transport, mais on peut imaginer que c’est une dissymétrie d’information entre l’algorithme qui dispose d’à peu près tout, et le livreur qui est tout seul. Et si, en plus, il n’est pas syndiqué parce qu’il est indépendant, on a donc quelqu’un de tout seul qui voit juste des pizzas lui arriver ou une zone blanche lui interdisant d’aller chercher une pizza. C’est la seule chose que vous voyez, vous. Et de l’autre côté, vous avez, omnisciente, la plateforme qui a récolté toutes les infos de tous les livreurs. À la limite, elle sait peut-être qu’un gaucher est plus efficace qu’un droitier. J’exagère, mais c’est ce genre de petites choses qu’on va finir par détecter quand on est un bon algorithme obsédé par la performance.

Delphine Sabattier : Et c’est uniquement cette question du management par l’algorithme. Là, vous la posez dans le cadre de travailleurs indépendants, où déjà la relation est un peu distendue entre l’entreprise et le collaborateur : est-ce qu’on a les mêmes cas de figure qui arrivent dans une entreprise qui a des collaborateurs en son sein de manière traditionnelle ? On sort des plateformes numériques.

Élisabeth Leblanc : Bien. Là, ce qu’on peut constater, c’est moi, ma partie, mais quand même on peut déjà constater qu’en effet il y a une dérive à peu près similaire. Parce que plus on se distancie d’humain à humain, plus on aura ce genre de conséquences. C’est-à-dire qu’on arrive, y compris dans les entreprises avec des salariés, avec ces algorithmes, finalement, à réduire les tâches. Dans un objectif de standardisation, on réduit ces tâches-là et on sait ce que ça a comme incidence, puisque ça a été déjà étudié avec le taylorisme, avec des choses comme ça.

Delphine Sabattier : Parlons des incidences quand même. Donc, les incidences, c’est quoi ? C’est une augmentation du stress au travail ?

Élisabeth Leblanc : Oui, c’est beaucoup de choses, je crois qu’il y a énormément de choses. Je pense qu’aujourd’hui, on a tout intérêt à faire en sorte d’aller chercher ce qui se passe. C’est-à-dire qu’il y a tellement d’opacité autour de ça, il y a tellement d’invisibilité, notamment sur l’activité de travail, qu’on est réduit, si vous voulez, comme je le dis souvent, dans le système de livraison, on voit - alors c’est très arrangeant, quelque part. Il y a une livraison, on livre d’un point A à un point B. C’est un segment qui est payé, ça n’est que celui-là qui est payé, comme si il n’y avait que ça qui existait. Mais on n’imagine pas tout ce qu’il y a autour et tout ce que ça implique à plusieurs niveaux. Il n’y a pas que le stress, il y a les accidents sur lesquels on n’a aucune visibilité.

Benoît Rottembourg : L’algorithme ne sait pas qu’il y a eu un accident. Pour lui, c’est une défaillance de livraison. Que vous soyez en train d’agoniser au bord de la route ou que vous soyez en train de boire un café avec votre copain, pour l’algorithme, c’est de l’indisponibilité du livreur à la tâche.

Élisabeth Leblanc : Point. C’est un vrai souci, ça. Donc il n’y a effectivement aucun regard sur les différences : voilà, sur la route, à un moment donné, il y aura de la pluie, il y aura un accident, il y aura ceci ou cela, qui va faire, pour cette profession-là. Mais quand bien même on revient au sein de l’entreprise, bon, qui a bien entendu une autre protection du salariat, quand même, des salariés. Aujourd’hui, c’est quand même très tendu, justement parce qu’on revient à la fois à une distanciation ; souvent on entend ça d’ailleurs : « ah, mais c’est l’algorithme ». Donc on se défausse aussi sur cet algorithme. Moi, je ne suis pas là pour pointer du doigt certaines choses en disant c’est bien, c’est pas bien, ce n’est pas l’objectif. Et ce qu’on se disait avec Benoît à un moment donné, c’est qu’aujourd’hui, on a intérêt à réfléchir, à travailler ensemble, justement à pouvoir se servir de ces systèmes qui sont absolument intéressants quelque part, mais sans perdre le sens de l’humain là-dedans. Et aussi, au-delà même d’un bien-être, parce que ça pourrait... On n’en est pas là. On a des conséquences qui sont graves, qui sont très, très graves : je pense qu’on a intérêt à les mettre en visibilité pour en faire quelque chose.

Delphine Sabattier : Et alors justement, votre travail ensemble, comment il s’organise ? Que fait le projet REGALIA sur cette question du management par l’algorithme ? Comment est-ce qu’on peut apporter des réponses ?

Benoît Rottembourg : Le premier devoir qu’on a nous, c’est d’expliquer comment les algorithmes fonctionnent. Pour dire : voilà, si c’était moi qui avait fait l’algorithme de Deliveroo, c’est assez logique qu’il se passe ça et qu’il se passe ça. Et, en général, rien qu’avec ça, on a des allers-retours en disant : ah oui, je croyais que c’était possible ? Et on dit : non, a priori, il n’y a pas de raison qu’ils aient fait comme ça. Il y a donc un premier devoir qui est d’un peu de pédagogie : comment un algorithme fonctionne, avec quelles données et pourquoi ça peut déraper ? Pourquoi le dérapage est presque naturel, en quelque sorte, par l’obsession de performance de l’algorithme.

La deuxième chose - mais pour ça il faut des données et on retombe toujours sur le même sujet -, c’est en quelque sorte ces données-là, de comportement humain, en vélo ou en insultes sur un réseau social, ces données-là sont privatisées, appartiennent à la structure qui les a produits, mais quelque part... Pratiquement personne ne peut avoir la main dessus. Donc notre deuxième devoir, c’est d’essayer de créer les protocoles de collecte de données. Par exemple, en associant beaucoup le livreur, mais il nous en faudrait quelques centaines, idéalement, pour collecter cette information. Donc, c’est une réflexion qui a lieu aujourd’hui, de dire comment on peut collecter ces informations. Mais aussi ils sont en compétition...

Delphine Sabattier : Que le cas dont vous avez parlé, par exemple, on puisse le détecter en amont ?

Benoît Rottembourg : Et dire : en moyenne, la personne qui a eu tel comportement le lundi sera favorisée ou défavorisée par l’algorithme le mardi. Et ce genre de choses - alors ça n’est pas qu’en France : en Chine, aux États-Unis, vous avez plein de gens qui se plaignent - alors, du coup, ça devient aussi des légendes urbaines : l’algorithme a fait ça !... Parfois ça fait sourire. Mais à la limite ça fait partie du stress : moi je n’aimerais pas avoir une légende urbaine sur mon patron. C’est quelqu’un qui me donne mon travail et ma rémunération, puisqu’elle est liée à la tâche que je reçois. Donc, du coup, ils sont dans une sorte de... oui, parfois c’est un peu paranoïaque, c’est « mais si je fais ça, il va m’empêcher d’avoir mes pizzas, etc. Ou je vais être défavorisé ». Alors on disait avec des humains « elle m’aime pas, il m’aime pas, il veut pas que je fasse ça, etc. ». On peut s’en sortir.

Delphine Sabattier : Mais là c’est encore plus un sentiment d’impuissance, face à un algorithme ?

Benoît Rottembourg : Oui, absolument.

Delphine Sabattier : Comment est-ce qu’on peut inventer de nouvelles méthodes d’accompagnement du collaborateur ou de l’indépendant, face à ce management ?

Élisabeth Leblanc : Ça n’est pas simple. Juste pour rebondir sur ce que disait Benoît : effectivement, ça développe un système de croyances. Et quand on ne sait pas, on croit des tas de choses et on est complètement désorienté. On mène effectivement une réflexion pour pouvoir améliorer, et on en parlait aussi tout à l’heure, c’est : les algorithmes, en tout cas la façon dont ils sont utilisés, on en voit les résultats après. Encore faut-il les regarder. C’est toujours pareil et c’est l’être humain, ou le travailleur, en tout cas, qui en subit les conséquences. Et puis ensuite on dit : ah bah tiens, c’était ça. Alors, bien évidemment, ce serait intéressant, et c’est un petit peu ce qui se passe aussi dans la prévention, dans la pédagogie et ce genre de choses qui peuvent être mises en place en amont des réflexions.

On a un autre problème, c’est l’opacité qui est nécessaire dans ce système-là pour répondre à ce modèle d’affaires. Donc réfléchir aussi sur, finalement, le modèle d’affaires qui pourrait peut-être ne pas être tout-puissant de cette façon-là, et cette opacité. Il y a aussi la rapidité, le changement permanent qui est complètement désorientant et qui crée aussi une opacité, parce que quand ça change tout le temps, on ne sait pas sur quoi on va tomber. Donc, on ne sait pas. Donc réfléchir à ça.

Et il y a autre chose aussi, et c’est ce que ce qu’on disait aussi là et qui me semble être intéressant, c’est qu’on peut profiter aujourd’hui, on le voit bien, de nous réunir, avec des disciplines totalement différentes, qui ne se rejoignent pas forcément habituellement autour de ce genre de questions éthiques. Et finalement on se retrouve autour de la table en pluridisciplinarité, en transdisciplinarité, à travailler sur ces sujets-là, et ça, c’est extrêmement important. Et, en effet, disons l’individu au centre de cela et qui devrait être présent systématiquement, c’est le travailleur. Et il n’est pas là. Il est rarement là. Et ça, c’est un problème.

Delphine Sabattier : Une remarque, Jean-Christophe Le Toquin ?

Jean-Christophe Le Toquin : Non, tout à fait. Je pense qu’on voit le même phénomène, nous, dans nos métiers d’analyse des contenus. Alors, nous, on est en demande d’avoir plus d’algorithmes pour nous aider à pré-analyser les contenus, c’est une manière aussi de protéger les professionnels, les juristes, les modérateurs, les analystes. Mais on a un temps de décalage, je pense, qui est normal, entre la technologie qui va très vite parfois. Là, dans ce cas, c’est le cœur du business. Après il y a un temps pour la société, pour le social, pour l’humain, pour s’organiser et répondre. Effectivement, on est dans ce moment où on a des algorithmes qui sont déjà très opérationnels, mais tout le tissu humain et social n’est pas là. Donc, du coup, ça crée ces angoisses mais c’est naturel, je pense. Et qu’au bout de cinq, dix ans, ce sont des choses qui vont se régler.

Delphine Sabattier : Oui, l’important est de s’emparer du sujet. Merci beaucoup à tous les deux. Benoît Rottembourg, vous allez nous quitter après cette séquence de REGALIA Inria. Élisabeth Leblanc, de l’ANACT, et Jean-Christophe Le Toquin, de Point de Contact, vous restez avec moi pour la suite, justement une chronique : Le numérique, c’est aussi une question humaine.