« Au bureau, être managé par des algorithmes » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
Ligne 30 : Ligne 30 :
Question : est-ce qu’on est déjà pilotés par des algorithmes au travail ou est-ce qu’on n’a encore rien vu dans le domaine ? Benoît.
Question : est-ce qu’on est déjà pilotés par des algorithmes au travail ou est-ce qu’on n’a encore rien vu dans le domaine ? Benoît.


<b>Benoît Rottembourg : </b>Je pense que ça commence déjà. Il faut savoir que depuis au moins une bonne trentaine d’années, plein de professions qui, d’une manière ou d’une autre, sont planifiées par des algorithmes ; les caissières des supermarchés, ça remonte à au moins vingt ans : elles ne viennent pas à n’importe quelle heure et ce n’est pas n’importe quelle caissière qui vient à n’importe quelle heure. Si on regarde dans les centres d’appels téléphoniques qui interagissent avec nous, que ce soit ceux d’un ministère, que ce soit même, peut-être, Point de Contact, il faut bien, à un moment organiser, les forces de travail en face d’un besoin potentiel d’activité. Il faudra tant de personnes à 9 heures, tant de personnes à 10 heures, etc. Et, comme on ne peut pas trop gâcher du juriste qui coûte très cher, ou du conseiller clientèle, qui coûte cher, quand même, on essaye de planifier la bonne personne au bon moment, sans gâcher. Dès qu’on dit ça, on est dans un algorithme.  
<b>Benoît Rottembourg : </b>Je pense que ça commence déjà. Il faut savoir que depuis au moins une bonne trentaine d’années, plein de professions qui, d’une manière ou d’une autre, sont planifiées par des algorithmes ; les caissières des supermarchés, ça remonte à au moins vingt ans : elles ne viennent pas à n’importe quelle heure et ce n’est pas n’importe quelle caissière qui vient à n’importe quelle heure. Si on regarde dans les centres d’appels téléphoniques qui interagissent avec nous, que ce soit ceux d’un ministère, que ce soit même, peut-être, Point de Contact, il faut bien, à un moment organiser, les forces de travail en face d’un besoin potentiel d’activité. Il faudra tant de personnes à 9 heures, tant de personnes à 10 heures, etc. Et, comme on ne peut pas trop gâcher du juriste qui coûte très cher, ou du conseiller clientèle, qui coûte cher, quand même, on essaye de planifier la bonne personne au bon moment, sans gâcher. Dès qu’on dit ça, on est dans un algorithme.


<b>Delphine Sabattier : </b>Qu’est-ce qui change avec la nouvelle génération algorithmique ?
<b>Delphine Sabattier : </b>Qu’est-ce qui change avec la nouvelle génération algorithmique ?
Ligne 43 : Ligne 43 :


<b>Élisabeth Leblanc : </b>Je dirais que le management est une organisation du travail. Effectivement là, avec les plateformes, on est dans une organisation du travail. Ça rejoint aussi un petit peu les choses sur lesquelles, à mon avis, il faut réfléchir, c’est la part de l’humain là-dedans.<br/>
<b>Élisabeth Leblanc : </b>Je dirais que le management est une organisation du travail. Effectivement là, avec les plateformes, on est dans une organisation du travail. Ça rejoint aussi un petit peu les choses sur lesquelles, à mon avis, il faut réfléchir, c’est la part de l’humain là-dedans.<br/>
Aujourd’hui, on peut remarquer que le management algorithmique semble se dispenser de l’humain, notamment dans la façon dont il calcule les données à partir de l’humain, en tout cas une partie de lui-même, ce qui peut ensuite générer une prescription qui sera à la fois algorithmique et, en même temps, qui sera transmise via des outils numériques. Et l’être humain de l’autre côté, qui a à faire quelque chose, n’a pas accès à un autre humain pour éventuellement en discuter ou pour, éventuellement, signaler quelque chose qui pourrait correspondre en tout cas à quelque chose de plus construit.  
Aujourd’hui, on peut remarquer que le management algorithmique semble se dispenser de l’humain, notamment dans la façon dont il calcule les données à partir de l’humain, en tout cas une partie de lui-même, ce qui peut ensuite générer une prescription qui sera à la fois algorithmique et, en même temps, qui sera transmise via des outils numériques. Et l’être humain de l’autre côté, qui a à faire quelque chose, n’a pas accès à un autre humain pour éventuellement en discuter ou pour, éventuellement, signaler quelque chose qui pourrait correspondre en tout cas à quelque chose de plus construit.


<b>Delphine Sabattier : </b>Donc, on a un algorithme qui va organiser mon travail, mais qui, peut-être, ne m’apporte pas suffisamment de transparence sur ses décisions, en tout cas, avec qui je n’ai pas d’interaction.
<b>Delphine Sabattier : </b>Donc, on a un algorithme qui va organiser mon travail, mais qui, peut-être, ne m’apporte pas suffisamment de transparence sur ses décisions, en tout cas, avec qui je n’ai pas d’interaction.
Ligne 65 : Ligne 65 :
<b>Delphine Sabattier : </b>Sur l’opacité quand même, parce que cet algorithme n’est pas de nulle part. Vous dites, c’est un modèle d’affaires, il sert un modèle d’affaires, un modèle économique, donc il y a des décisionnaires, il y a des responsables.
<b>Delphine Sabattier : </b>Sur l’opacité quand même, parce que cet algorithme n’est pas de nulle part. Vous dites, c’est un modèle d’affaires, il sert un modèle d’affaires, un modèle économique, donc il y a des décisionnaires, il y a des responsables.


<b>Benoît Rottembourg : </b>Oui, tout à fait. Je pense, et d’une, quand on est une start-up — ce qui était le cas par exemple de Deliveroo ou d’Uber Eats à une époque — et qu’on se déploie très vite d’un pays à l’autre, le décideur n’est pas forcément à l’endroit où..., il ne connaît peut-être pas la France. Un exemple marquant : Deliveroo a été condamné en Italie pour avoir utilisé dans l’algorithme de notation des livreurs, qui ensuite distribue les tâches, les jours d’arrêt maladie. Ça ne se fait pas. Jamais moi je n’aurais codé ça, je me serais fait engueuler par quelqu’un, je le sais. Mais là on peut imaginer que le développeur d’un autre pays, qui n’a pas fait attention, qui avait une jolie variable qui était la variable « nombre de fois où j’ai été malade », super !, ça explique que la personne est moins efficace.  
<b>Benoît Rottembourg : </b>Oui, tout à fait. Je pense, et d’une, quand on est une start-up — ce qui était le cas par exemple de Deliveroo ou d’Uber Eats à une époque — et qu’on se déploie très vite d’un pays à l’autre, le décideur n’est pas forcément à l’endroit où..., il ne connaît peut-être pas la France. Un exemple marquant : Deliveroo a été condamné en Italie pour avoir utilisé dans l’algorithme de notation des livreurs, qui ensuite distribue les tâches, les jours d’arrêt maladie. Ça ne se fait pas. Jamais moi je n’aurais codé ça, je me serais fait engueuler par quelqu’un, je le sais. Mais là on peut imaginer que le développeur d’un autre pays, qui n’a pas fait attention, qui avait une jolie variable qui était la variable « nombre de fois où j’ai été malade », super !, ça explique que la personne est moins efficace.


<b>Delphine Sabattier : </b>À partir de quel moment a-t-on vu que ce critère était glissé au sein de l’algorithme ?
<b>Delphine Sabattier : </b>À partir de quel moment a-t-on vu que ce critère était glissé au sein de l’algorithme ?
Ligne 91 : Ligne 91 :
<b>Delphine Sabattier : </b>Justement, comment votre travail ensemble s’organise-t-il ? Que fait le projet REGALIA sur cette question du management par l’algorithme ? Comment peut-on apporter des réponses ?
<b>Delphine Sabattier : </b>Justement, comment votre travail ensemble s’organise-t-il ? Que fait le projet REGALIA sur cette question du management par l’algorithme ? Comment peut-on apporter des réponses ?


<b>Benoît Rottembourg : </b>Le premier devoir que nous avons c’est d’expliquer comment les algorithmes fonctionnent. Si c’était moi qui avais fait l’algorithme de Deliveroo, dire c’est assez logique qu’il se passe ça et qu’il se passe ça. Et en général, rien qu’avec ça, on a des allers-retours disant « je croyais que c’était possible. » Et on dit : non, à priori, il n’y a pas de raisons qu’ils aient fait comme ça. Il y a donc un premier devoir qui est d’un peu de pédagogie : comment un algorithme fonctionne, avec quelles données et pourquoi ça peut déraper ? Pourquoi le dérapage est presque naturel, en quelque sorte, par l’obsession de performance de l’algorithme.  
<b>Benoît Rottembourg : </b>Le premier devoir que nous avons c’est d’expliquer comment les algorithmes fonctionnent. Si c’était moi qui avais fait l’algorithme de Deliveroo, dire c’est assez logique qu’il se passe ça et qu’il se passe ça. Et en général, rien qu’avec ça, on a des allers-retours disant « je croyais que c’était possible. » Et on dit : non, à priori, il n’y a pas de raisons qu’ils aient fait comme ça. Il y a donc un premier devoir qui est d’un peu de pédagogie : comment un algorithme fonctionne, avec quelles données et pourquoi ça peut déraper ? Pourquoi le dérapage est presque naturel, en quelque sorte, par l’obsession de performance de l’algorithme.


La deuxième chose, pour ça il faut des données et on retombe toujours sur le même sujet. En quelque sorte ces données-là, de comportement humain, en vélo ou en insultes sur un réseau social, sont privatisées, appartiennent à la structure qui les a produites, mais, quelque part, pratiquement personne ne peut avoir la main dessus. Notre deuxième devoir c’est donc d’essayer de créer des protocoles de collecte de données, par exemple en associant beaucoup de livreurs, il nous en faudrait quelques centaines idéalement, pour collecter cette information. C’est une réflexion qui a lieu aujourd’hui, comment on peut collecter ces informations, mais ils sont aussi en compétition entre eux.
La deuxième chose, pour ça il faut des données et on retombe toujours sur le même sujet. En quelque sorte ces données-là, de comportement humain, en vélo ou en insultes sur un réseau social, sont privatisées, appartiennent à la structure qui les a produites, mais, quelque part, pratiquement personne ne peut avoir la main dessus. Notre deuxième devoir c’est donc d’essayer de créer des protocoles de collecte de données, par exemple en associant beaucoup de livreurs, il nous en faudrait quelques centaines idéalement, pour collecter cette information. C’est une réflexion qui a lieu aujourd’hui, comment on peut collecter ces informations, mais ils sont aussi en compétition entre eux.
Ligne 106 : Ligne 106 :


<b>Élisabeth Leblanc : </b>Ça n’est pas simple. Juste pour rebondir sur ce que disait Benoît : effectivement, ça développe un système de croyances et, quand on ne sait pas, on croit des tas de choses et on est complètement désorienté.<br/>
<b>Élisabeth Leblanc : </b>Ça n’est pas simple. Juste pour rebondir sur ce que disait Benoît : effectivement, ça développe un système de croyances et, quand on ne sait pas, on croit des tas de choses et on est complètement désorienté.<br/>
On mène effectivement une réflexion pour pouvoir améliorer, on en parlait aussi tout à l’heure. On voit après les résultats des algorithmes, en tout cas de la façon dont ils sont utilisés, encore faut-il les regarder ! C’est toujours pareil et c’est l’être humain, ou le travailleur en tout cas, qui en subit les conséquences et ensuite on dit « tiens, c’était ça. » Bien évidemment, ce serait intéressant d'avoir en amont des réflexions, et c’est un petit peu ce qui se passe aussi dans la prévention, dans la pédagogie et ce genre de choses qui peuvent être mises en place.  
On mène effectivement une réflexion pour pouvoir améliorer, on en parlait aussi tout à l’heure. On voit après les résultats des algorithmes, en tout cas de la façon dont ils sont utilisés, encore faut-il les regarder ! C’est toujours pareil et c’est l’être humain, ou le travailleur en tout cas, qui en subit les conséquences et ensuite on dit « tiens, c’était ça. » Bien évidemment, ce serait intéressant d'avoir en amont des réflexions, et c’est un petit peu ce qui se passe aussi dans la prévention, dans la pédagogie et ce genre de choses qui peuvent être mises en place.


On a un autre problème, c’est l’opacité qui est nécessaire dans ce système-là pour répondre à ce modèle d’affaires, donc réfléchir aussi sur, finalement, le modèle d’affaires qui pourrait peut-être ne pas être tout-puissant de cette façon-là, avec cette opacité.<br/>
On a un autre problème, c’est l’opacité qui est nécessaire dans ce système-là pour répondre à ce modèle d’affaires, donc réfléchir aussi sur, finalement, le modèle d’affaires qui pourrait peut-être ne pas être tout-puissant de cette façon-là, avec cette opacité.<br/>
Il y a aussi la rapidité, le changement permanent qui est complètement désorientant et qui crée aussi une opacité, parce que quand ça change tout le temps, on ne sait pas sur quoi on va tomber. Donc réfléchir à ça.  
Il y a aussi la rapidité, le changement permanent qui est complètement désorientant et qui crée aussi une opacité, parce que quand ça change tout le temps, on ne sait pas sur quoi on va tomber. Donc réfléchir à ça.


Il y a autre chose aussi, c’est ce que ce qu’on disait aussi là et qui me semble être intéressant, c’est qu’on peut en profiter aujourd’hui, on le voit bien, de nous réunir, avec des disciplines totalement différentes, qui ne se rejoignent pas forcément habituellement autour de ce genre de questions éthiques. Finalement on se retrouve autour de la table en pluridisciplinarité, en transdisciplinarité, à travailler sur ces sujets-là et c’est extrêmement important. Mais, en effet, l’individu disons au centre de cela, qui devrait être présent systématiquement, c’est le travailleur et il n’est pas là, il est rarement là et c’est un problème.  
Il y a autre chose aussi, c’est ce que ce qu’on disait aussi là et qui me semble être intéressant, c’est qu’on peut en profiter aujourd’hui, on le voit bien, de nous réunir, avec des disciplines totalement différentes, qui ne se rejoignent pas forcément habituellement autour de ce genre de questions éthiques. Finalement on se retrouve autour de la table en pluridisciplinarité, en transdisciplinarité, à travailler sur ces sujets-là et c’est extrêmement important. Mais, en effet, l’individu disons au centre de cela, qui devrait être présent systématiquement, c’est le travailleur et il n’est pas là, il est rarement là et c’est un problème.


<b>Delphine Sabattier : </b>Une remarque, Jean-Christophe Le Toquin ?
<b>Delphine Sabattier : </b>Une remarque, Jean-Christophe Le Toquin ?

Version du 14 mars 2023 à 11:30


Titre : Au bureau, être managé par des algorithmes

Intervenants : Élisabeth Leblanc (chargée de mission, ANACT) et Benoît Rottembourg (Responsable Regalia, Inria)

Lieu : Émission Smart Tech - B-Smart

Date : 6 février 2023

Durée : 19 min 48

Vidéo

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Transcription

Delphine Sabattier : Les algorithmes[1] prennent déjà beaucoup de part dans nos décisions. Ils vont, en plus, s’occuper de management dans l’entreprise, ils vont, ou ils sont déjà. On va parler tout de suite avec deux experts de ce que change cette vie professionnelle pilotée par des algorithmes et des troubles induits également.
Avec moi, en plateau, Élisabeth Leblanc, chargée de mission à l’ANACT, l’Agence nationale pour l’amélioration des conditions de travail, établissement public qui dépend du ministère du Travail. Vous êtes au département Capitalisation et Développement des connaissances, en contrat CIFRE [Convention industrielle de formation par la recherche] de doctorat avec le laboratoire GREpS [Groupe de recherche en psychologie sociale] de l’Université Lumière Lyon 2. Votre sujet de thèse en psychologie du travail des organisations s’intéresse à l’activité des travailleurs de l’ubérisation, ces livreurs de marchandises que l’on connaît très bien.
Avec vous, pour discuter du sujet du management par les algorithmes, Benoît Rottembourg, qu’on a déjà reçu en plateau dans Smart Tech plusieurs fois, bonjour. Vous êtes responsable du projet REGALIA de l’Inria [2], un projet d’audit des algorithmes des plateformes numériques, sujet important pour apporter davantage de transparence sur ces algorithmes qui pilotent nos choix. REGALIA, partenaire technologique du Pôle d’Expertise de la Régulation Numérique[3], placé sous l’autorité conjointe des ministères chargés de l’Économie, de la Culture et du Numérique.

Est resté avec nous en plateau Jean-Christophe Le Toquin, président de Point de Contact. Vous pouvez intervenir quand vous voulez, Jean-Christophe.

Question : est-ce qu’on est déjà pilotés par des algorithmes au travail ou est-ce qu’on n’a encore rien vu dans le domaine ? Benoît.

Benoît Rottembourg : Je pense que ça commence déjà. Il faut savoir que depuis au moins une bonne trentaine d’années, plein de professions qui, d’une manière ou d’une autre, sont planifiées par des algorithmes ; les caissières des supermarchés, ça remonte à au moins vingt ans : elles ne viennent pas à n’importe quelle heure et ce n’est pas n’importe quelle caissière qui vient à n’importe quelle heure. Si on regarde dans les centres d’appels téléphoniques qui interagissent avec nous, que ce soit ceux d’un ministère, que ce soit même, peut-être, Point de Contact, il faut bien, à un moment organiser, les forces de travail en face d’un besoin potentiel d’activité. Il faudra tant de personnes à 9 heures, tant de personnes à 10 heures, etc. Et, comme on ne peut pas trop gâcher du juriste qui coûte très cher, ou du conseiller clientèle, qui coûte cher, quand même, on essaye de planifier la bonne personne au bon moment, sans gâcher. Dès qu’on dit ça, on est dans un algorithme.

Delphine Sabattier : Qu’est-ce qui change avec la nouvelle génération algorithmique ?

Élisabeth Leblanc : En fait, en écoutant, disons que le « management algorithmique » mériterait quand même d’être défini un peu plus. On peut dire que les algorithmes, en effet, planifient depuis longtemps les activités au bureau, comme vous l’avez spécifié. Mais, en réalité, il y a aussi beaucoup d’autres professions qui ne sont pas au bureau, qui sont sur un autre mode de fonctionnement et un autre régime, qui font qu’on a une grande part d’invisibilité là-dedans.

Delphine Sabattier : Les travailleurs des plateformes ? Vous pensez à eux en particulier.

Élisabeth Leblanc : Je pense aux travailleurs des plateformes, notamment aux indépendants, aux travailleurs indépendants qui, effectivement, sont « managés », entre guillemets, par des algorithmes.

Delphine Sabattier : Comment peut-on définir ce management algorithmique ?

Élisabeth Leblanc : Je dirais que le management est une organisation du travail. Effectivement là, avec les plateformes, on est dans une organisation du travail. Ça rejoint aussi un petit peu les choses sur lesquelles, à mon avis, il faut réfléchir, c’est la part de l’humain là-dedans.
Aujourd’hui, on peut remarquer que le management algorithmique semble se dispenser de l’humain, notamment dans la façon dont il calcule les données à partir de l’humain, en tout cas une partie de lui-même, ce qui peut ensuite générer une prescription qui sera à la fois algorithmique et, en même temps, qui sera transmise via des outils numériques. Et l’être humain de l’autre côté, qui a à faire quelque chose, n’a pas accès à un autre humain pour éventuellement en discuter ou pour, éventuellement, signaler quelque chose qui pourrait correspondre en tout cas à quelque chose de plus construit.

Delphine Sabattier : Donc, on a un algorithme qui va organiser mon travail, mais qui, peut-être, ne m’apporte pas suffisamment de transparence sur ses décisions, en tout cas, avec qui je n’ai pas d’interaction.

Benoît Rottembourg : Par rapport à de la planification traditionnelle qui est supervisée par des hommes, qui a été spécifiée : l’algorithme en question a été spécifié longuement par la directrice des ressources humaines, l’équipe — on parle de maîtrise d’ouvrage, comment on spécifie cet algorithme — et les algorithmiciens qui doivent rendre des comptes régulièrement — est-ce que je ne tire pas trop à droite ?, est-ce que je ne tire pas trop à gauche ?, est-ce que je ne défavorise pas la fin de l’alphabet ou le début de l’alphabet, etc. ? — je pense qu'il y a une vingtaine d'années on prenait le temps de sur-spécifier toutes ces choses-là, j’ai envie de dire. Du coup, l’algorithme ne s’éloignait pas trop des bordures qu’on lui avait humainement imposées.
Là, ce qui change, c’est que, et d’une, ce temps de la spécification n’a pas eu lieu ou, en tout cas, n’a pas été très partagé : un livreur de plateforme n’a jamais participé ou n’a été représenté par personne pour participer à cette discussion. Ça, c’est le premier point. Le deuxième, c’est qu’il y a une innovation permanente, parce que l’algorithme découvre des petites choses : il a créé une zone blanche à un certain endroit, il va donner une pizza plutôt aux livreurs qui sont efficaces le lundi et pas à ceux qui sont efficaces le mardi, etc. Cette découverte-là va être opaque parce qu’elle est non discutée et non partagée avec celui qui reçoit l’algorithme, en tout cas, très peu partagée.
Quand vous travaillez dans un centre d’appels ou avec un agent d’entretien dans un centre de loisirs, par exemple, il y a un retour, c’est-à-dire que la personne va se plaindre à un moment : « Vous avez dit que je pourrais mettre une heure à nettoyer ce cottage, mais, en fait, il était tellement abîmé, il était tellement sale, que je n’ai pas pu le faire en une heure ». Peut-être que ça ne va pas bien se passer au niveau humain, mais, en tout cas, il y a une chaîne de retour entre la personne qui a subi la planification et celle qui a imposé trois couches par jour ou trois cottages par heure, et elle va pouvoir dire « ça ne va pas ». En fait cette opacité augmente.

Delphine Sabattier : L’opacité. Mais il y a quand même, encore aujourd’hui, beaucoup de managers, il y a quand même toujours un manager derrière l’algorithme.

Élisabeth Leblanc : Derrière l’algorithme, peut-être, mais il est invisible, en tout cas pour les travailleurs de l’autre côté.

Delphine Sabattier : Ce que vous nous dites, c’est la disparition du manager ?

Benoît Rottembourg : En nombre de managers par personne, certainement.

Delphine Sabattier : De sa capacité de puissance, finalement.

Élisabeth Leblanc : Oui, on peut dire ça comme ça, ou, tout du moins d’interaction ; c’est presque une barrière. En fait — après ça se discute, d'ailleurs beaucoup de choses peuvent se discuter autour de ça — l’algorithme, aujourd’hui, est, disons, construit dans un objectif précis, c’est-à-dire qu’il est là pour répondre, finalement, à un modèle d’affaires, donc on lui induit aussi une direction de calcul sur ce modèle d’affaires. Quand on regarde bien ces algorithmes, avec toutes les données qui sont utilisées là-dedans, ils vont effectivement très vite dans leurs calculs, avec une masse d’informations considérable. Et qu’est-ce qui se passe pour répondre à ce modèle d’affaires au mieux ? Tout va très vite dans la distribution des attributions, par exemple de courses pour les livreurs, des choses comme ça. Donc, ce système-là, si vous voulez, se construit sur des variables et le travailleur, lui aussi, devient une variable. Pour que la variable puisse finalement s’ajuster au mieux et répondre à ce modèle d’affaires, que se passe-t-il ? Eh bien, finalement, les prescriptions sont opaques, forcément, comme ça, au moins, il n’y a pas de possibilité de réaction derrière. Je ne dis pas que c’est intentionnel, en tout cas c’est ce qui se passe effectivement.

Delphine Sabattier : Sur l’opacité quand même, parce que cet algorithme n’est pas de nulle part. Vous dites, c’est un modèle d’affaires, il sert un modèle d’affaires, un modèle économique, donc il y a des décisionnaires, il y a des responsables.

Benoît Rottembourg : Oui, tout à fait. Je pense, et d’une, quand on est une start-up — ce qui était le cas par exemple de Deliveroo ou d’Uber Eats à une époque — et qu’on se déploie très vite d’un pays à l’autre, le décideur n’est pas forcément à l’endroit où..., il ne connaît peut-être pas la France. Un exemple marquant : Deliveroo a été condamné en Italie pour avoir utilisé dans l’algorithme de notation des livreurs, qui ensuite distribue les tâches, les jours d’arrêt maladie. Ça ne se fait pas. Jamais moi je n’aurais codé ça, je me serais fait engueuler par quelqu’un, je le sais. Mais là on peut imaginer que le développeur d’un autre pays, qui n’a pas fait attention, qui avait une jolie variable qui était la variable « nombre de fois où j’ai été malade », super !, ça explique que la personne est moins efficace.

Delphine Sabattier : À partir de quel moment a-t-on vu que ce critère était glissé au sein de l’algorithme ?

Benoît Rottembourg : Malheureusement quand les gens se plaignent et ce n’est pas simple.

Delphine Sabattier : Et, à ce moment-là, qui porte la responsabilité ?

Benoît Rottembourg : C’est en l’occurrence un syndicat qui a fait le procès à Deliveroo, l’équivalent d’un syndicat des travailleurs dans le transport, mais on peut imaginer que c’est une dissymétrie d’information entre l’algorithme qui dispose d’à peu près tout et le livreur qui est tout seul et qui, en plus, n’est pas syndiqué parce qu’il est indépendant. On a donc quelqu’un de tout seul, qui voit juste des pizzas lui arriver ou une zone blanche lui interdisant d’aller chercher une pizza, c’est la seule chose qu'il voit, et, de l’autre côté, vous avez, omnisciente, la plateforme qui a récolté toutes les infos de tous les livreurs ; à la limite, elle sait peut-être qu’un gaucher est plus efficace qu’un droitier ! J’exagère, mais c’est ce genre de petites choses qu’on va finir par détecter quand on est un bon algorithme obsédé par la performance.

Delphine Sabattier : Là, vous la posez dans le cadre de travailleurs indépendants où, déjà, la relation est un peu distendue entre l’entreprise et le collaborateur. Est-ce qu’on a les mêmes cas de figure dans une entreprise qui a des collaborateurs en son sein de manière traditionnelle ? On sort des plateformes numériques.

Élisabeth Leblanc : C’est moins ma partie, mais on peut quand même déjà constater qu’en effet il y a une dérive à peu près similaire. Plus on se distancie d’humain à humain, plus on aura ce genre de conséquence. C’est-à-dire qu’avec ces algorithmes on arrive, y compris dans les entreprises avec des salariés, à, finalement, réduire les tâches ; dans un objectif de standardisation, on réduit ces tâches-là et on sait ce que ça a comme incidences, puisque ça a déjà été étudié avec le taylorisme, avec des choses comme ça.

Delphine Sabattier : Parlons des incidences quand même. Les incidences, c’est quoi ? C’est une augmentation du stress au travail ?

Élisabeth Leblanc : Oui, ce sont beaucoup de choses, énormément de choses. Je pense qu’aujourd’hui, on a tout intérêt à faire en sorte d’aller chercher ce qui se passe parce qu'il y a tellement d’opacité autour de ça, tellement d’invisibilité, notamment sur l’activité de travail. Comme je le dis souvent, dans le système de livraison, on voit, et c’est très arrangeant quelque part, qu'il y a une livraison, on livre d’un point A à un point B, c’est ce segment qui est payé, ça n’est que celui-là qui est payé, comme si il n’y avait que ça qui existait, mais on n’imagine pas tout ce qu’il y a autour et tout ce que ça implique à plusieurs niveaux. Il n’y a pas que le stress, il y a les accidents sur lesquels on n’a aucune visibilité.

Benoît Rottembourg : L’algorithme ne sait pas qu’il y a eu un accident. Pour lui, c’est une défaillance de livraison. Que vous soyez en train d’agoniser au bord de la route ou que vous soyez en train de boire un café avec votre copain, pour l’algorithme, c’est de l’indisponibilité du livreur à la tâche.

Élisabeth Leblanc : Point. C’est un vrai souci, ça. Il n’y a effectivement aucun regard sur les différences : sur la route, à un moment donné, il y aura de la pluie, il y aura un accident, il y aura ceci ou cela, qui va faire... pour cette profession-là.
Quand on revient au sein de l’entreprise qui a, bien entendu et quand bien même une autre protection du salariat, des salariés, aujourd’hui c’est quand même très tendu, justement parce qu’on revient à une distanciation, d’ailleurs souvent on entend « ah, mais c’est l’algorithme ! », donc on se défausse aussi sur cet algorithme.
Je ne suis pas là pour pointer du doigt certaines choses en disant « c’est bien, ce n’est pas bien », ce n’est pas l’objectif. Ce qu’on se disait avec Benoît c’est qu’aujourd’hui, à un moment donné, on a intérêt à réfléchir, à travailler ensemble, justement à pouvoir se servir de ces systèmes qui sont absolument intéressants quelque part, mais sans perdre le sens de l’humain là-dedans, au-delà même d’un bien-être, parce que ça pourrait aussi, mais on n’en est pas là ! On a des conséquences qui sont graves, qui sont très graves et je pense qu’on a intérêt à les mettre en visibilité pour en faire quelque chose.

Delphine Sabattier : Justement, comment votre travail ensemble s’organise-t-il ? Que fait le projet REGALIA sur cette question du management par l’algorithme ? Comment peut-on apporter des réponses ?

Benoît Rottembourg : Le premier devoir que nous avons c’est d’expliquer comment les algorithmes fonctionnent. Si c’était moi qui avais fait l’algorithme de Deliveroo, dire c’est assez logique qu’il se passe ça et qu’il se passe ça. Et en général, rien qu’avec ça, on a des allers-retours disant « je croyais que c’était possible. » Et on dit : non, à priori, il n’y a pas de raisons qu’ils aient fait comme ça. Il y a donc un premier devoir qui est d’un peu de pédagogie : comment un algorithme fonctionne, avec quelles données et pourquoi ça peut déraper ? Pourquoi le dérapage est presque naturel, en quelque sorte, par l’obsession de performance de l’algorithme.

La deuxième chose, pour ça il faut des données et on retombe toujours sur le même sujet. En quelque sorte ces données-là, de comportement humain, en vélo ou en insultes sur un réseau social, sont privatisées, appartiennent à la structure qui les a produites, mais, quelque part, pratiquement personne ne peut avoir la main dessus. Notre deuxième devoir c’est donc d’essayer de créer des protocoles de collecte de données, par exemple en associant beaucoup de livreurs, il nous en faudrait quelques centaines idéalement, pour collecter cette information. C’est une réflexion qui a lieu aujourd’hui, comment on peut collecter ces informations, mais ils sont aussi en compétition entre eux.

Delphine Sabattier : dans le cas dont vous avez parlé, par exemple, on puisse le détecter en amont de plaintes ?

Benoît Rottembourg : Dire : en moyenne, la personne qui a eu tel comportement le lundi sera favorisée ou défavorisée par l’algorithme le mardi. Ça n’est pas qu’en France ! En Chine, aux États-Unis, vous avez plein de gens qui se plaignent, du coup, ça devient aussi des légendes urbaines : l’algorithme a fait ça ! Parfois ça fait sourire, mais, à la limite, ça fait partie du stress, je n’aimerais pas avoir une légende urbaine sur mon patron ! C’est quelqu’un qui me donne mon travail et ma rémunération, puisqu’elle est liée à la tâche que je reçois. Donc, du coup, ils sont dans une sorte de..., parfois c’est un peu paranoïaque, c’est « si je fais ça, il va m’empêcher d’avoir mes pizzas, etc., ou je vais être défavorisé ». On le disait avec des humains « elle ne m’aime pas, il ne m’aime pas, il ne veut pas que je fasse ça, etc. », c'est possible, on peut s’en sortir.

Delphine Sabattier : Mais là c’est encore plus un sentiment d’impuissance face à un algorithme.

Benoît Rottembourg : Oui, absolument.

Delphine Sabattier : Comment est-ce qu’on peut inventer de nouvelles méthodes d’accompagnement du collaborateur ou de l’indépendant face à ce management ?

Élisabeth Leblanc : Ça n’est pas simple. Juste pour rebondir sur ce que disait Benoît : effectivement, ça développe un système de croyances et, quand on ne sait pas, on croit des tas de choses et on est complètement désorienté.
On mène effectivement une réflexion pour pouvoir améliorer, on en parlait aussi tout à l’heure. On voit après les résultats des algorithmes, en tout cas de la façon dont ils sont utilisés, encore faut-il les regarder ! C’est toujours pareil et c’est l’être humain, ou le travailleur en tout cas, qui en subit les conséquences et ensuite on dit « tiens, c’était ça. » Bien évidemment, ce serait intéressant d'avoir en amont des réflexions, et c’est un petit peu ce qui se passe aussi dans la prévention, dans la pédagogie et ce genre de choses qui peuvent être mises en place.

On a un autre problème, c’est l’opacité qui est nécessaire dans ce système-là pour répondre à ce modèle d’affaires, donc réfléchir aussi sur, finalement, le modèle d’affaires qui pourrait peut-être ne pas être tout-puissant de cette façon-là, avec cette opacité.
Il y a aussi la rapidité, le changement permanent qui est complètement désorientant et qui crée aussi une opacité, parce que quand ça change tout le temps, on ne sait pas sur quoi on va tomber. Donc réfléchir à ça.

Il y a autre chose aussi, c’est ce que ce qu’on disait aussi là et qui me semble être intéressant, c’est qu’on peut en profiter aujourd’hui, on le voit bien, de nous réunir, avec des disciplines totalement différentes, qui ne se rejoignent pas forcément habituellement autour de ce genre de questions éthiques. Finalement on se retrouve autour de la table en pluridisciplinarité, en transdisciplinarité, à travailler sur ces sujets-là et c’est extrêmement important. Mais, en effet, l’individu disons au centre de cela, qui devrait être présent systématiquement, c’est le travailleur et il n’est pas là, il est rarement là et c’est un problème.

Delphine Sabattier : Une remarque, Jean-Christophe Le Toquin ?

Jean-Christophe Le Toquin : Je pense qu’on voit le même phénomène, nous, dans nos métiers d’analyse des contenus. Nous, nous sommes en demande d’avoir plus d’algorithmes pour nous aider à pré-analyser les contenus, c’est une manière aussi de protéger les professionnels, les juristes, les modérateurs, les analystes. Mais on a un temps de décalage, je pense, qui est normal, entre la technologie qui va très vite parfois, dans ce cas, c’est le cœur du business. Après, il y a un temps pour la société, pour le social, pour l’humain, pour s’organiser et répondre. On est effectivement dans ce moment où on a des algorithmes qui sont déjà très opérationnels, mais tout le tissu humain et social n’est pas là. Donc, du coup, ça crée ces angoisses mais c'est naturel et je pense qu'au bout de cinq/dix ans, ce sont des choses qui vont se régler.

Delphine Sabattier : Oui, l’important est de s’emparer du sujet.
Merci beaucoup à tous les deux. Benoît Rottembourg, vous allez nous quitter après cette séquence, de REGALIA Inria. Élisabeth Leblanc, de l’ANACT, et Jean-Christophe Le Toquin, de Point de Contact, vous restez avec moi pour la suite, justement une chronique : Le numérique, c’est aussi une question humaine.