Différences entre les versions de « Cathy O'Neil : pour une éthique des algorithmes - La méthode scientifique »

De April MediaWiki
Aller à la navigationAller à la recherche
(Contenu remplacé par « Catégorie:Transcriptions Publié [https://www.april.org/cathy-o-neil-pour-une-ethique-des-algorithmes-la-methode-scientifique ici] - Janvier 2019 »)
 
(55 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
 
[[Catégorie:Transcriptions]]
 
[[Catégorie:Transcriptions]]
  
'''Titre :''' Cathy O'Neil : pour une éthique des algorithmes
+
Publié [https://www.april.org/cathy-o-neil-pour-une-ethique-des-algorithmes-la-methode-scientifique ici] - Janvier 2019
 
 
'''Intervenants :''' Cathy O'Neil - Marguerite Capelle, traductrice - Nicolas Martin
 
 
 
'''Lieu :''' Émission <em>La méthode scientifique</em> - France Culture
 
 
 
'''Date :''' décembre 2018
 
 
 
'''Durée :''' 1 h
 
 
 
'''[https://www.franceculture.fr/emissions/la-methode-scientifique/cathy-oneil-pour-une-ethique-des-algorithmes Site de l'émission]''' ou '''[http://media.radiofrance-podcast.net/podcast09/14312-31.12.2018-ITEMA_21936391-3.mp3?track=false Podcast]
 
 
 
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]
 
 
 
'''Illustration :'''
 
 
 
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br />
 
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em>
 
 
 
'''Statut :''' Transcrit MO
 
 
 
==Description==
 
 
 
Quel est son parcours et d’où lui est venue sa passion pour les mathématiques ? Pourquoi appelle-t-elle les algorithmes des “armes de destruction mathématiques” ? Comment ces nouveaux pouvoirs algorithmiques transforment-ils les pratiques professionnelles de la société ?
 
 
 
==Transcription==
 
 
 
<b>Nicolas Martin : </b>Merci Garrigou-Lagrange.<br/>
 
Quoi de plus neutre qu’un ordinateur ? Quoi de plus à priori objectif qu’une suite de calculs, qu’une série d’opérations mathématiques ? Quoi de plus éloigné d’une opinion, finalement, qu’un algorithme ? Eh bien tout justement. Parce qu’ils sont programmés par des humains qui sont eux perclus de biais, parce qu’ils tentent d’objectiver des réalités qui sont plus complexes que ce que peut décrire une seule suite mathématique, parce qu’enfin derrière chaque algorithme il y a une intention et qu’une intention n’est pas neutre. Pour notre invitée du jour, les algorithmes sont devenus des <em>weapons of math destruction</em>, des armes de destruction mathématique.<br/>
 
La mathématicienne, informaticienne et activiste Cathy O'Neil est notre toute dernière invitée de l’année. Bienvenue dans <em>La Méthode scientifique</em>. Bonjour Cathy O'Neil.
 
 
 
<b>Cathy O'Neil : </b><em>Hy !</em>
 
 
 
<b>Nicolas Martin : </b>Hello. Mille mercis de nous faire le plaisir d’être avec nous pour cette dernière émission de l’année. Bonjour Marguerite Capelle.
 
 
 
<b>Marguerite Capelle : </b>Bonjour.
 
 
 
<b>Nicolas Martin : </b>C’est vous qui allez assurer la traduction tout au long de cette heure, merci à vous d’être ici. Cathy O'Neil votre nom a souvent été prononcé à ce micro dès qu’il a été question d’algorithmique, de justice numérique notamment sur la question sensible des algorithmes prédictifs. Nous allons retracer votre parcours et vos combats tout au long de cette heure. Mais pour commencer j’ai une question, votre livre manifeste <em>Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy</em> qui a été traduit et publié aux Éditions Les Arènes au mois de novembre dernier sous le titre <em>Algorithmes, la bombe à retardement</em>, mais en anglais vous dites : <em>weapons of math destruction</em> en jouant sur le jeu de mots <em>mass</em> et <em>math</em>, ce trait des algorithmes, des outils, des armes de destruction massive ou mathématiques. C’est très fort comme image de comparer les algorithmes à des bombes nucléaires.
 
 
 
<b>Cathy O'Neil traduite par Marguerite Capelle : </b>D’abord je voudrais vous remercier de m’avoir invitée, je suis très contente d’être ici. Je suis mathématicienne, j’adore vraiment les mathématiques et, d’une certaine façon, j’ai envie de les défendre. De défendre l’intégrité, la confiance qu’on peut avoir dans les mathématiques, l’honneur des mathématiques en quelque sorte. Ce que j’ai vu se produire à la fois dans la finance et dans la <em>data science</em>, quand j’ai travaillé dans ces domaines, c’est une façon d’abuser des mathématiques. Des gens construisent des algorithmes qui ne sont pas mathématiques, qui ne sont pas des maths, qui sont en fait des algorithmes qui ciblent les individus de façon injuste et quand ces personnes posent des questions on leur répond : « Vous ne pouvez pas comprendre ce sont des maths ! » Donc en fait on en a fait une arme. Ce sont des mathématiques utilisées comme des armes et c’est une façon de les utiliser comme des armes qui intimident les gens et contre les gens.<br/>
 
Donc c’est vraiment la manière dont j’ai commencé à réfléchir à ce concept d’armes de destruction mathématiques. L’autre point, c’est que je pense qu’ils sont vraiment extrêmement destructeurs à une échelle massive et, en tout cas dans leur potentiel, ils le sont. Donc ça fait aussi partie de ce choix de jeu de mots parce que, de façon surprenante, ces armes ont vraiment un pouvoir extrêmement puissant si on les laisse fonctionner à plein.
 
 
 
<b>Nicolas Martin : </b>Votre livre, Cathy O’Neil, est sorti il y a plus de deux ans, presque trois ans, en anglais aux États-Unis, il a eu un gros impact dans le monde de l’informatique et du numérique. Est-ce que vous avez le sentiment qu’il a aidé, qu’il a initié en tout cas un début de prise de conscience de la part des citoyens ?
 
 
 
<b>Cathy O'Neil traduite par Marguerite Capelle : </b>Mon livre a été publié juste avant les élections de 2016. L’objectif principal que j’avais pour ce livre, c’était de rompre cette confiance aveugle que les gens ont dans les algorithmes et dans la révolution du <em>big data</em>, parce qu’encore en fois il y a cette idée d’intimider les gens avec les mathématiques. Les gens ont spontanément confiance dans les mathématiques et dans les algorithmes et pensent que la <em>data science</em> est forcément objective. Je voulais montrer qu’il ne faut pas faire confiance aveuglément à cette science des données, qu’il faut, en fait, remettre de la science dans la science des données. Il faut trouver des preuves que cela fonctionne, en fait, exactement comme on le souhaite.
 
 
 
<b>Nicolas Martin : </b>Entre temps vous avez été un peu confirmée ou assistée par le scandale Cambridge Analytica. Pour autant, on a l’impression que ces scandales autour des <em>big data</em>, ils se succèdent, ils s’acculent et que ça ne change pas la pratique des citoyens, que les citoyens continuent à avoir, finalement, une sorte de confiance assez aveugle ou, en tout cas, de confort numérique à utiliser un certains nombres de sites dont on sait pourtant qu’ils utilisent des algorithmes qui vont jouer contre eux.
 
 
 
<b>Cathy O'Neil traduite par Marguerite Capelle : </b>En fait la plupart des exemples que je donne dans mon livre ont relativement peu de choses à voir avec les sites et, à vrai dire, ne parlent pas des données directement. C’est évidemment un mensonge puisque les données sont un ingrédient de tous les algorithmes, mais ce que je voulais mettre en lumière c’est que les exemples, dans mon livre, viennent plutôt de la différence de pouvoir qu’il y a entre deux personnes.<br/>
 
Par exemple quand vous voulez un emploi on vous pose des questions et vos droits à la vie privée n’existent pas. Quand vous voulez aller à l’université, quand vous voulez une carte de crédit, une police d’assurance, etc., vous êtes obligé de répondre aux questions. Il y a des situations en ligne, les publicités ciblées, les médias sociaux, etc., et la publicité prédatrice pour laquelle c’est évidemment intéressant aussi de parler de la façon dont les données sont collectées et utilisées contre nous. Mais de mon point de vue, c’est plus une question de comment les données sont utilisées plutôt que la question de savoir comment ces données sont collectées au départ. Mais bien sûr, une fois qu’on a dit ça, il faut préciser qu’aux États-Unis on a des lois de protection des données qui sont très faibles alors qu’en Europe elles sont bien meilleures. Le dernier exemple en date est la loi européenne sur la protection des données qui a été votée, mais ça n’est pas le seul. En fait, aux États-Unis, nous sommes déjà en difficulté par rapport à ça. Nous n’avons aucun espoir là-dessus, nous vendons nos données.
 
 
 
<b>Nicolas Martin : </b>Donc vous pensez aujourd’hui que la réglementation européenne, justement le RGPD [Règlement européen sur la protection des données], a vraiment permis en tous cas un début de protection des données des citoyens ou, <em>a minima</em>, une prise de conscience. J’insiste sur la prise de conscience parce que notre sentiment – ici dans <em>La Méthode scientifique</em> on parle souvent de la question des algorithmes et de la justice numérique – c’est que finalement les citoyens ne sont pas très préoccupés par ça. Que les scandales ont beau s’accumuler, leur pratique numérique, leur vie numérique, reste la même et qu’on a l’impression que ces problèmes sont un peu lointains, que ça arrive en Chine où on note les citoyens mais que chez nous ça n’arrivera jamais et que, finalement, la vie numérique peut continuer telle qu’on la pratique encore aujourd’hui.
 
 
 
<b>Cathy O'Neil traduite par Marguerite Capelle : </b>Je ne crois pas que la loi européenne traite la question des algorithmes en fait. Il y a peut-être eu quelques petites mentions théoriques qui pourraient être appliquées d’une manière qui pourrait être satisfaisante, mais, en fait, même les parties les plus intéressantes de la loi qui parlent vraiment de l’explication des algorithmes ne sont pas particulièrement encourageantes. En tant qu’ancienne analyste de données, ce ne serait pas très difficile pour moi de fournir une explication à un algorithme sans que celle-ci veuille dire grand-chose. GDPR [<em>General Data Protection Regulation</em>] se consacre principalement à la protection des données privées. Je pense que les Européens pensent avoir un droit à la vie privée sur leurs données mais ne comprennent pas vraiment que la question c’est comment ces données peuvent être utilisées contre eux. C’est une question de rapport de pouvoir, de rapport de forces.<br/>
 
Quand on demande à une entreprise une faveur, un service, et qu’on peut vous le refuser, que cette entreprise a du pouvoir et que c’est sur la base d’un algorithme qu’on vous refuse cette faveur, c’est là qu’il y a un problème. Et les politiques prédictives, vous pouvez voir ça différemment de demander un service, par exemple les services de police dans votre quartier ; en France aussi on commence à utiliser les algorithmes prédictifs pour les services de police dans les quartiers. C’est un véritable problème aux États-Unis. On a tout un historique, en fait, d’inégalités de l’action policière parce qu’on utilise des algorithmes. En fait on ne sait même pas ce qu’on attend de ces services publics, mais ce qu’on en attend, en réalité, c’est de l’équité et de la sécurité en particulier dans ces services policiers rendus en théorie par le gouvernement.
 
 
 
==10’ 02==
 
 
 
<b>Nicolas Martin : </b>Quels sont selon vous, Cathy O’Neil, les algorithmes qui sont aujourd’hui les plus inquiétants, qui sont les plus problématiques et desquels les citoyens devraient se méfier le plus ?
 
 
 
<b>Cathy O'Neil traduite par Marguerite Capelle : </b>Je vais commencer par ceux qui m’inquiètent le plus moi, parce que je ne suis pas experte sur ce qui se passe en Europe et en France en particulier. Les choses qui m’inquiètent le plus et qui sont dans le sous-titre de mon livre, c’est l’augmentation des inégalités. La raison c’est que pour avoir vu fonctionner les choses en tant que <em>data scientist</em> moi-même, ce que j’ai vu c’est qu’on dressait, en fait, un profil des gens et qu’on les catégorisait en fonction de leur classe en particulier. C’est-à-dire en tant que consommateurs ont-ils de l’argent ? Est-ce qu’ils sont Blancs ? Est-ce qu’ils sont éduqués ? Est-ce qu’ils vivent au bon endroit ? Est-ce qu’ils ont acheté des choses par le passé ? À quelle classe sociale est-ce qu’ils appartiennent ? On peut voir les choses comme ceux qui ont des opportunités, ceux qui ont de la chance et ceux qui n’en ont pas. Vous répartissez les gens sur une échelle et il y a une division au-delà de laquelle les gens qui ont de la chance peuvent avoir des opportunités et, si vous êtes en dessous de cette ligne, vous n’avez rien. Ça semble très général, mais en fait ça fonctionne presque toujours comme ça, c’est pour ça que je le dis. C’est la question de savoir qui va avoir une carte de crédit, qui va avoir un bon taux de crédit, qui va avoir une bonne assurance, qui va pouvoir aller à l’université, qui va obtenir un emploi. C’est toujours décidé de cette manière-là et de plus en plus de ces décisions sont prises suivant cette division, cette catégorisation des gens. Donc si vous faites partie des gens qui ont le plus d’opportunités vous avez plus d’opportunités et ceux qui en ont le moins sont maintenus dans cette situation. Beaucoup de moments de nos vies, quasiment tout le temps dans nos vies, le résultat c’est d’augmenter les inégalités.<br/>
 
La partie la plus insidieuse de ça, l’aspect le plus insidieux, c’est que chaque entité qui a créé un algorithme le voit comme un outil scientifique prédictif. Ils n’envisagent pas qu’il joue un rôle dans l’augmentation des inégalités, ils optimisent simplement leur propre profit dans leur propre sphère et on ne peut pas leur en vouloir. Les entreprises veulent faire de l’argent c’est leur rôle, c’est à ça que rime le capitalisme, la raison du capitalisme. Mais puisque c’est fait à très grande échelle, de manière similaire dans tous les secteurs, l’effet est extrêmement négatif.
 
 
 
<b>Nicolas Martin : </b>Que se passe-t-il quand ces algorithmes sont produits par la puissance publique ? En France on a un exemple qui a fait couler beaucoup d’encre : c’est un algorithme qui s’appelle Parcoursup qui est un algorithme qui est censé aider les étudiants à trouver des places à l’université quand ils sortent du lycée ; ça a fait énormément de scandale, justement c’est un algorithme qui a été accusé de créer des zones, c’est-à-dire d’empêcher des étudiants qui viennent de Seine-Saint-Denis par exemple, qui est un quartier qui est plus défavorisé, d’avoir accès à des universités plus prestigieuses. On ne peut pas imaginer que sur ces algorithmes-là il y ait une intentionnalité qui soit dévoyer par le capitalisme puisque ce sont des algorithmes qui sont produits par la puissance publique. Comment expliquer que ces algorithmes-là soient défaillants également, Cathy O’Neil ?
 
 
 
<b>Cathy O'Neil traduite par Marguerite Capelle : </b>J’aimerais beaucoup en savoir davantage sur cet algorithme, c’est une expérience intéressante, merci de la mentionner.<br/>
 
Il y a deux manières d’envisager les choses.<br/>
 
La première c’est donc qu’on rend les gens qui ont déjà de la chance, qu’on leur donne davantage d’opportunités et que les gens qui en ont en moins en ont moins. Les gens comme vous : historiquement les hommes s’en sortaient mieux dans les mathématiques et dans la technologie, donc en fait il faut le même genre de personnes puisque ce genre de personnes s’en sort bien. Les algorithmes, de façon systématique, ont tendance à répéter ce qui s’est passé. Si on utilise les précédents historiques de façon aveugle sans trop y réfléchir, en faisant des prédictions sur les bases du passé, voilà ce qui se passe, ça reproduit les choses.<br/>
 
La deuxième interprétation c’est au contraire de dire : vous choisissez un chemin qui est inhabituel par rapport au type de profil que vous êtes, comment est-ce qu’on peut vous aider ? Comment est-ce qu’on peut aider les gens à choisir une nouvelle voie au lieu d’aider ceux qui ont déjà des opportunités et apporter du soutien ? Ceux qui vont avoir des difficultés pourraient avoir accès à des ressources supplémentaires donc, en gros, donner plus d’opportunités aux gens qui en ont moins. C’est une approche assez inhabituelle et il faudrait qu’elle soit choisie de façon explicite comme objectif. Je ne sais pas quel est l’objectif qui a été choisi pour l’algorithme auquel vous faites référence ici en France, est-ce que c’est <em>business as usual</em> c’est-à-dire les hommes continuent à faire de la technologie et les femmes à se diriger vers des métiers qui payent moins et évidemment, dans ce cas-là, ça ne va pas.
 
 
 
<b>Nicolas Martin : </b>Ce qui est intéressant, est-ce que vraiment ce que vous expliquez dans votre livre Cathy O’Neil, c’est effectivement cela : la méprise est de penser que l’algorithme est une interprétation neutre du réel ? Or l’algorithme, en prenant en compte, en intégrant dans ses calculs les faits majoritaires, finit par penser que ces faits majoritaires sont la normalité et donc ne font que les reproduire et les amplifier. C’est bien cela ?
 
 
 
<b>Cathy O'Neil traduite par Marguerite Capelle : </b>Je vais vous proposer un exemple de ce type de problème. Par exemple les données sur les actes criminels pour la police prédictive et aussi pour la prédiction de risques de récidive. Déjà revenons un petit peu en arrière, essayons de comprendre pourquoi ces scores de risques de récidive ont été créés. L’idée c’est que la justice était raciste, il y avait un manque d’objectivité, donc il s’agissait de rééquilibrer les choses avec un score scientifique. Il s’agissait de prédire le risque pour une personne d’être arrêtée dans les deux années qui suivaient sa sortie de prison. Donc évidemment on peut se demander qu’est-ce qu’on va faire de cette notation ? Évidement l’idée c’est que les gens qui ont un risque élevé de retourner en prison, un risque élevé de récidive, vont être punis plus longtemps, donc les gens sont punis de façon préventive pour quelque chose qu’ils n’ont pas encore fait et ça c’est déjà extrêmement discutable d’un point de vue philosophique. Mais au-delà de cette question de justice, il y a une question d’équité et le problème d’équité est réel.<br/>
 
La vérité, en tout cas aux États-Unis, c’est que nous arrêtons les gens pour toutes sortes de crimes non violents, qui sont plutôt des signes de pauvreté et des problématiques systémiques plutôt que des crimes en tant que tels. Par exemple on arrête les gens qui ont des problèmes mentaux qui ne sont pas soignés ou les gens qui sont accros aux drogues ou juste les gens qui sont pauvres : par exemple ceux qui pissent sur le trottoir parce qu’ils n’ont pas de toilettes ou ceux qui resquillent dans le métro. Donc ce sont vraiment des crimes très mineurs, des délits très mineurs, qui justifient des arrestations, ce qui arrive de plus en plus aux gens pauvres et aussi aux gens issus des minorités. Donc il n’est pas surprenant de constater que les scores de risques de récidive de ces personnes, qui sont optimisés pour être le plus exact possible, incluent des questions comme : avez-vous des problèmes, un historique de santé mentale ? Vivez-vous dans tel ou tel quartier ? Bénéficiez-vous de prestations sociales ? Etc. Forcément ces personnes vont être davantage ciblées par la police.<br/>
 
Pour résumer, la question de la police prédictive et du profilage des criminels continue, en fait, à amplifier et à propager l’historique raciste de la police et du fonctionnement de notre société. En fait ça empêche les choses de changer à l’avenir en punissant à l’avance les personnes concernées.
 
 
 
<b>Voix off : </b><em>La Méthode scientifique</em> – Nicolas Martin
 
 
 
==19’ 03==
 
 
 
<b>Nicolas Martin : </b>Vous écoutez <em>La Méthode scientifique</em> sur France culture.<br/>
 
Nous avons la chance et le plaisir de recevoir Cathy O’Neil tout au long de cette heure pour son ouvrage <em>Algorithmes, la bombe à retardement</em>, c’est aux éditions Les Arènes. J’aime bien redonner le titre original, parce que le titre original est peut-être un peu plus long, un peu plus dense et un peu plus explicite : <em>Weapons of Math Destruction</em> – <em>mass</em> non pas comme une masse, mais comme mathématiques, des armes de destruction mathématiques – <em>How Big Data Increases Inequality and Threatens Democracy</em>, c’est-à-dire qu’on en est effectivement à cet endroit où on pense que la démocratie, Cathy O’Neil estime que la démocratie est en danger à cause de ces algorithmes.<br/>
 
J’aimerais qu’on comprenne un peu comment vous en êtes arrivée là, Cathy O’Neil, parce que votre parcours professionnel est assez passionnant et permet peut-être de comprendre comment s’est structurée votre pensée, votre discours critique autour de ces algorithmes. Vous êtes mathématicienne de formation, diplômée de Harvard où vous travaillez sur la théorie algébrique des nombres. Vous allez faire de la recherche en mathématiques pendant une dizaine d’années. C’est intéressant parce que vous expliquez que le manque de culture, de connaissances en mathématiques est l’une des sources de la confiance aveugle en l’algorithmique et peut-être du manque de défiance envers ces algorithmes. Est-ce que vous pensez aujourd’hui que renforcer la culture mathématique ce serait une des solutions citoyennes pour faire en sorte que les citoyens soient plus vigilants, plus protégés contre ces algorithmes ?
 
 
 
<b>Cathy O'Neil traduite par Marguerite Capelle : </b>Je veux mettre en lumière le fait que je ne veux absolument pas suggérer dans mon livre que tout le monde doit faire des maths et devenir un mathématicien. Évidemment moi je n’ai pas peur des mathématiques parce que je suis une mathématicienne. Ça ne veut pas dire que toute la société doit être comme moi. Ce que je suggère, en fait, c’est qu’on ne devrait pas être impressionné par un côté potion magique que pourraient avoir les mathématiques. Je veux juste qu’on simplifie les choses et qu’on réalise qu’il n’y a pas de mystère en réalité, que les mathématiques sont des systèmes automatisés en fait.<br/>
 
Utilisons une métaphore. Si les Martiens débarquaient aujourd’hui de leur planète sur un vaisseau spatial et nous disaient qu’ils avaient un moyen de nous dire quels enseignants sont bien et quels enseignants sont mauvais pour nous et qu’ils allaient nous donner un score, une notation des enseignants et que nous pourrions virer ceux qui étaient mauvais, eh bien nous pourrions poser la question : comment est-ce qu’on vous fait confiance ? Pourquoi est-ce qu’on fait confiance à votre système de notation ? Et si les Martiens nous répondaient : « Faites-nous confiance parce que nous sommes des Martiens », ce serait risible et on se moquerait d’eux. En fait, c’est exactement ce qui se passe, sauf que la réponse a été : « Vous pouvez nous faire confiance parce que ce sont des mathématiques donc ne posez pas de question ! »<br/>
 
Le système d’évaluation des enseignants auxquels je fais allusion s’est avéré, finalement, à peine mieux qu’un système complètement aléatoire et il a continué à fonctionner sans être remis en question pendant des années, parce que les gens avaient l’impression qu’ils n’avaient pas le droit de le remettre en cause et de demander des preuves qu’il était équitable, qu’il faisait le travail comme il fallait et qu’il était légal.<br/>
 
Récemment six enseignants qui avaient été renvoyés en fonction de leur note ont intenté un procès et ils ont gagné. En fait, personne n’était capable d’expliquer l’algorithme qui avait conduit à leur renvoi donc on a conclu que leur droit à un procès équitable n’était pas respecté. En fait ces algorithmes mathématiques ont une capacité à s’auto-protéger mais pas pour des bonnes raisons. Pourquoi est-ce qu’on ne donnerait pas cette capacité à des Martiens, pourquoi est-ce qu’on la donnerait à des mathématiciens ?<br/>
 
Pour conclure, je voudrais ajouter que je ne propose pas aux gens de devenir tous des mathématiciens, je les invite à revendiquer leurs droits ; c’est un combat politique.
 
 
 
<b>Nicolas Martin : </b>C’est assez intéressant cet exemple que vous évoquez à l’instant Cathy O’Neil, parce qu’est cet outil d’évaluation qui s’appelle Impact (???), qui a été mis en place à la fin des années 2009-2010 dans le district scolaire de Washington et qui avait pour objectif d’optimiser la compétence du staff de professeurs en excluant les professeurs qui auraient les notes les plus basses. Or, très vite on s’est rendu compte que certains des professeurs qui étaient exclus n’étaient pas des mauvais professeurs, mais qu’il y avait un biais dans cet algorithme. Est-ce que vous pouvez nous expliquer cet exemple qui est assez parlant, Cathy O’Neil ?
 
 
 
<b>Cathy O'Neil traduite par Marguerite Capelle : </b>Je devrais préciser d’abord que c’était un système secret, que personne, y compris le ministère de l’Éducation, les gens qui géraient les écoles de Washington, n’avait accès au système. Les notes étaient données des années après la fin des cours donc elles ne permettaient absolument pas de s’améliorer. Les explications que les enseignants ont reçues sur la façon dont les notes avaient été faites, c’était principalement que les résultats de leurs élèves devaient le plus élevé possible à l’examen et notamment plus élevé qu’attendu. Une façon de voir les choses c’était, en gros, qu’il s’agissait d’encourager les enseignants à éduquer exclusivement pour réussir les examens, ce qui n’est pas la façon la plus épanouissante de développer une éducation.<br>
 
En fait, on peut aussi tricher sur le système ; c’est exactement ce qui s’est passé. Les responsables d’écoles donnaient des augmentations à ceux qui obtenaient des meilleurs scores aux examens, aux enseignants dont les élèves avaient des meilleurs scores, donc c’était vraiment une incitation à tricher et c’est ce qui s’est passé. Et bien sûr, le pire c’est que non seulement que cette incitation à tricher a fonctionné mais qu’en plus, l’année suivante, les élèves qui passaient dans la classe suivante avaient des résultats évidemment qui étaient attendus plus élevés. On attendait d’eux des résultats plus élevés et du coup les enseignants de l’année suivante étaient très mal notés parce que vous, l’année précédente, vous aviez triché.
 
 
 
<b>Nicolas Martin : </b>Ça c’était pour un de ces exemples dans le cadre de l’éducation. J’aimerais qu’on revienne quelques instants à votre parcours puisque, après avoir fait un peu moins d’une dizaine d’années de recherche en mathématiques, à un moment donné vous choisissez de devenir tradeuse à Wall Street, c’est-à-dire de passer dans le milieu de la finance, précisément analyste quantitative chez ???. Parlez-nous de cette expérience. Qu’est-ce qui vous engage à aller, d’un seul coup, faire de la finance, Cathy O’Neil ?
 
 
 
<b>Cathy O'Neil traduite par Marguerite Capelle : </b>Je voulais travailler dans les affaires, j’adorais New-York, je voulais faire partie du paysage new-yorkais. C’était avant la crise de 2008, ça semblait un travail formidable que je pouvais avoir parce que j’avais ces compétences en mathématiques. Je ne savais pas grand-chose de la finance ou de la programmation, mais ils m’ont donné ce travail en juin 2007 et, en fait, la crise du crédit a éclaté en août, en tout cas en interne dans le monde de la finance. Il a fallu une année de plus pour que le monde entier s’en rende compte et que ça devienne vraiment une problématique connue de façon plus générale. Du coup ça m’a donné, pendant ce temps-là, une vision de comment ça fonctionnait en interne. Je dois préciser que je n’avais pas une éducation très complète : la seule chose que je connaissais c’était les mathématiques, je ne connaissais rien à la politique, à la sociologie. Donc ce que j’ai vu, en fait, m’a surprise, m’a choquée et m’a fait perdre mes illusions. J’avais vraiment une vision naïve. En rejoignant le secteur des finances je pensais que les mathématiques pouvaient être utilisées pour clarifier les choses, pour aider les marchés à mieux fonctionner. Mais pendant les deux années que j’ai passées chez ??? j’ai vu, à cause de tout ce qui est arrivé, que les notations et les algorithmes utilisés étaient des mensonges mathématiques qui étaient simplement utilisés pour maximiser le profit.
 
 
 
<b>Nicolas Martin : </b>Vous écrivez : « Grâce aux extraordinaires pouvoirs que je vénérais tant, les mathématiques s’étaient associées à la technologie pour décupler le cahot et le malheur, conférant une ampleur et une efficacité redoutable à des systèmes que je savais désormais défectueux. » C’est l’histoire d’une déception personnelle, d’une désillusion par rapport à ce milieu qui était le vôtre, à ce milieu intellectuel qui était le vôtre, Cathy O’Neil ?
 
 
 
<b>Cathy O'Neil traduite par Marguerite Capelle : </b>Oui. D’un point de vue personnel c’était quelque chose qui m’a vraiment fait honte ; j’avais vraiment du mal à dormir et j’avais mal à l’estomac. Et encore une fois, naïvement, j’ai voulu essayer de résoudre le problème que j’avais pu constater avec encore davantage de mathématiques. Je me suis dit : on a besoin d’un meilleur modèle d’analyse des risques et ça ne se reproduira pas. En fait j’ai quitté le fonds d’investissement pour travailler dans une agence d’évaluation des risques, sur des modèles d’évaluation des risques qui étaient exactement les modèles qui avaient failli dans le cadre de la crise de 2008. Mais très rapidement, en développant de nouveaux modèles, je me suis rendu compte que les gens ne voulaient pas s’en servir parce qu’en fait ça risquait de mettre en lumière le fait qu’ils acceptaient beaucoup plus de risques qu’ils n’étaient prêts à le reconnaître, tout simplement ; en fait, ils ne se souciaient pas de ces risques parce qu’ils étaient trop gros pour faire faillite. Et c’est le moment où je me suis tournée vers la politique, où je suis devenue plus politique ; je suis devenue une militante et je me suis dit : ce n’est pas un problème mathématique c’est problème politique ! J’ai donc quitté la finance peu de temps après ça et j’ai rejoint le mouvement Occupy Wall Street.
 
 
 
==29’ 36==
 
 
 
<b>Nicolas Martin : </b>Vous êtes passée un instant
 

Dernière version du 7 janvier 2019 à 17:00


Publié ici - Janvier 2019