Intelligence artificielle, intelligence collective - Algorithmique
Titre : Intelligence artificielle, intelligence collective
Intervenant·es : Théo Alves Da Costa - Karl Pineau - Valentin Hacault - Mathilde Saliou
Lieu : Podcast Algorithmique - Next
Date : 4 décembre 2024
Durée : 34 min 08
Licence de la transcription : Verbatim
Illustration : À prévoir
NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·es mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Description
Au fil des épisodes, Algorithmique a permis de détailler une partie des enjeux politiques, sociaux et environnementaux que soulève l'intelligence artificielle. Mais en tant que citoyenne, citoyen, comment s'emparer du sujet ? Comment, en pratique, s'emparer de ces nouvelles technologies ou, au contraire, la refuser ?
Transcription
Voix off : Next, Next, Next, Next.
Mathilde Saliou : Salut. C’est Mathilde Saliou. Depuis cinq épisodes dans Algorithmique on détaille une partie des enjeux que soulève l’intelligence artificielle. On l’a fait en rencontrant des data scientists, des juristes, des sociologues, des citoyens, mais, sur le terrain, il y a une autre variété d’acteurs qui réfléchit à ces questions. Son but c’est de trouver des leviers d’action à placer dans les mains de tous les gens intéressés par le sujet. Ces acteurs sont très souvent sont des associations qui ont, chacune, choisi des périmètres spécifiques. Certaines s’adressent à des profils techniques qui sont déjà plutôt bien calés en IA. D’autres visent plutôt des designers ou toute autre profession plutôt centrée sur la conception des outils numériques qu’on utilise au quotidien. Et d’autres encore visent à provoquer des discussions entre citoyennes et citoyens. Car, au bout du compte, ces citoyens ce sont eux, c’est nous qui utilisons l’intelligence artificielle ou qui sommes soumis à ses calculs.
??? : On prône un numérique qu’on veut émancipateur, durable et désirable.
Théo Alves Da Costa : On a vraiment ce rôle de techno-pirate dans lequel on n’a peut-être pas d’argent, mais on a plein de citoyens qui ont envie de se bouger au service de l’intérêt général.
Mathilde Saliou : Je suis Mathilde Saliou et vous écoutez Algorithmique, un podcast, produit par Next.
Épisode 6. Intelligence artificielle. Intelligence collective
Mathilde Saliou : Vous allez l’entendre, ces associations s’emparent de la question de l’intelligence artificielle dans le cadre d’une réflexion souvent plus vaste, sur le monde technologique en général. C’est un peu ce qu’on a fait aussi au gré des épisodes d'Algorithmique et c’est peut-être là le début de la conclusion de notre série. Quel que soit le buzz qui a émergé autour d’elle, l’intelligence artificielle a été construite par des acteurs et par une industrie qui sont, en fait, bien installés dans notre paysage. Ceci explique que les différentes associations que je suis allée rencontrer inscrivent leur travail dans un temps beaucoup plus long que le buzz créé par la sortie d’un ChatGPT.
Théo Alves Da Costa : Bonjour, je me rappelle Théo Alves Da Costa Je suis coprésident de l’ONG Data for Good depuis 4 ans et bénévole depuis sa création il y a 9 ans.
Data for Good est une association formidable qui rassemble, aujourd’hui, 6000 bénévoles, citoyens, qui ont des compétences tech, c’est-à-dire que ce sont des profils de la donnée, des algorithmes, des data scientists, des data analysts, des gens qui font du design de produit, qui développent des sites internet et qui ont tous, pour but, de mettre leurs compétences au profit d’intérêt général.
Très concrètement qu’est-ce qu’on fait ? On va chercher des associations qui pourraient avoir besoin d’aide, on va chercher des ONG qui pourraient avoir besoin d’aide, des citoyens qui ont parfois des idées et ont envie de monter des projets et on va créer, tous ensemble, ces projets sur des questions d’intérêt général utilisant la technologie, la data, les algorithmes, pour pouvoir avoir de l’impact social et environnemental.
Mathilde Saliou : Data for Good, ça s’entend un peu dans son nom, a été créée à un moment où on parlait moins d’IA et où, à l’époque, on parlait beaucoup plus de big data. Pour l’expliquer rapidement, cette expression désigne les masses de données qu’on crée au fil de ses activités numériques. Le rapport avec l’IA, vous l’aurez compris maintenant, c’est que sans ces données qui permettent d’entraîner les machines, l’intelligence artificielle, telle qu’on la connaît, n’aurait pas pu émerger.
Théo Alves me raconte que l’association est née d’un constat similaire a celui énoncé par un ingénieur de Meta. Au début des années 2010, cet homme-là avait déclaré : ???, autrement dit, « les esprits les plus brillants de ma génération réfléchissent au moyen de pousser des gens à cliquer sur des publicités, et c’est nul ! »
Théo Alves Da Costa : Ça a été la naissance de l’association. On s’est dit, effectivement, on a plein de gens qui ont ces compétences-là et n’ont pas envie de les dédier à des causes qui sont, peut-être pas détruire le monde et la démocratie, mais juste faire des choses qui ne servent pas à grand-chose quand ils pourraient dédier leur énergie à des causes qui leur tiennent à cœur, à trouver du sens dans leur travail et dans leurs compétences.
Mathilde Saliou : Ce qui m’a intéressée, chez Data for Good, c’est qu’assez tôt ils ont créé un serrement d’Hippocrate du data scientist en s’inspirant de celui des médecins.
Théo Alves Da Costa : Le serment d’Hippocrate data scientist, c’est une liste de principes qu’on a écrits en 2018 avec plus d’une centaine de bénévoles et plusieurs milliers de signataires. Au moment où, quand on refait un peu l’histoire moderne de la data, il y a eu une explosion, une nouvelle explosion à partir des années 2010, dans laquelle à la fois les disciplines sont apparues, les outils sont devenus plus accessibles et aussi, tout simplement, il y a eu plus de données parce que explosion d’Internet, des plateformes, etc. À partir des années 2015, les gens ont commencé à se poser des questions, il y a eu aussi tous les scandales, Cambridge Analytica, il y a eu aussi le RGPD qui est passé en opération. Une mouvance extrêmement importante est arrivée, celle de la data et de l’IA responsable, de tout simplement se dire que, comme disait Spiderman, on ne peut pas faire n’importe quoi et on a une certaine responsabilité quand on manie des outils qui peuvent être aussi puissants.
Donc, en tant que professionnels du domaine et citoyens, avait émergé dans la communauté de Data for Good l’idée de dire « nous voulons écrire nous-mêmes notre propre charte, qu’on va s’auto-appliquer, pour pouvoir appliquer des grands principes étiques, moraux et pratiques sur notre utilisation de la donnée et sur ce qu’on fait au quotidien. Il y a donc plus d’une vingtaine de principes.
Dès le début, on avait écrit un premier principe qui était de penser à la finalité des cas utilisant la donnée et les algorithmes avant les moyens, ce qui est, encore aujourd’hui, quelque chose que globalement pas grand-monde fait, parce qu’il y a une explosion de se dire « je vais utiliser telle technologie pour faire ça, pour faire ça », et on ne se pose même pas la question de « à la fin, à quoi cela va-t-il servir ? ». On va juste utiliser le nouveau truc à la mode et c’est comme ça que ça fonctionne en ce moment avec l’IA générative.
Donc, nous prônons, quoi qu’il arrive, de se dire « je pense à la finalité et je suis capable de refuser si ça n’a pas une bonne finalité ». Et, même quand on se pose les questions sur nos projets d’intérêt général, parfois ce n’est pas si évident que la finalité va vraiment avoir un impact social, environnemental, parce que c’est peut-être un peu détourné, peut-être qu’à la fin les gens ne vont pas s’en servir, peut-être, à la fin, que ce n’est peut-être pas si utile que ça et qu’on est peut-être plus en train de se faire plaisir en tant qu’expert technique, qu’en train de vraiment penser à résoudre un problème important, social et environnemental.
Déjà là, c’est notre premier principe.
Ensuite, il y avait tout un aspect qui était extrêmement important autour de la protection des données, toutes ces questions : comment faire attention aux données personnelles, ne pas aller les collecter si ça ne sert à rien.
Il y avait donc plein de questions très pratiques, comme cela, sur lesquelles on se devait de faire de plus en plus attention.
Il y avait plein de questions sur les algorithmes en tant que tels et l’IA, donc des principes autour de la façon dont aller mesurer les biais des algorithmes qu’on va faire, comment s’assurer que mes algorithmes ne sont pas discriminatoires.
Et, à chaque fois, avec une déclinaison pratique sur la façon dont on l’applique, concrètement, dans son métier.
Mathilde Saliou : Au moment où les membres de Data for Good réunissent les principes qui doivent guider leurs activités, des discussions similaires ont lieu ailleurs dans la société. Ça donne notamment naissance à deux associations : Latitudes et Designers éthiques.
Le but de Latitudes, c’est d’accompagner et de sensibiliser toutes les personnes qui entrent en contact avec le numérique, ce qui, à l’heure actuelle, fait pas mal de monde. Elle intervient aussi bien dans les collèges et les lycées, dans le monde post-bac, que dans le milieu professionnel. Valentin Hacault, son chef de projet animation et formation, résume les choses comme ceci.
Valentin Hacault : L’objectif c’est d’aller conseiller les personnes qui connaissent déjà le monde du numérique à avoir des pratiques plus responsables, mais c’est aussi éveiller les consciences à cela.
Mathilde Saliou : Créée en 2017, Designers éthiques, de son côté, est une association de recherche-action qui travaillent sur le numérique à travers le design. Son but, c’est de défendre un numérique émancipateur, durable et désirable en formant des professionnels.
Quand je rencontre Karl Pineau, qui est enseignant-chercheur en sciences de l’information et de la communication et membre de Designers éthiques, il commence par pointer l’un des nœuds qu’on a essayés de démêler, au moins un peu, au fil d'Algorithmique.
Karl Pineau : On ne travaille pas sur l’IA, parce qu’en fait, aujourd’hui on a du mal à voir ce que c’est qu’l’IA. Le terme « intelligence artificielle », évidemment comme le terme « algorithme », existe dans les communautés scientifiques depuis de nombreuses décennies. Quand il est émerge dans le débat public, il émerge pour qualifier un ensemble de technologiques qui sont fondamentalement différentes les unes des autres. Aujourd’hui, quand on parle d’intelligence artificielle, on met un peu tout et n’importe quoi dans le même panier, c’est donc compliqué de travailler sur l’intelligence artificielle de manière sérieuse. D’une certaine manière, on aurait presque tendance à dire que le fait d’utiliser ce terme d’intelligence artificielle, c’est ce qui caractérise quelqu’un qui ne comprend probablement pas vraiment ce dont on parle : est-ce qu’on est en train de parler d’IA générative ? Est-ce qu’on est en train de parler d’algorithme ? On parle d’intelligence artificielle, parce que ça fait plus vendeur. Cet aspect--là nous fait dire que c’est peu pertinent de travailler sur l’IA en tant que telle.
On a commencé un travail de recherche qui visait précisément à qualifier ce que se représentent les professionnels et les designers quand on mentionne le terme IA. Néanmoins, en ce qui nous concerne, à Designers éthiques, on a tendance à penser que l’IA, aujourd’hui, certes pose des enjeux éthiques, néanmoins, les principaux enjeux éthiques qui se posent encore aujourd’hui ne sont pas liés à l’IA. C’est-à-dire que, pour nous, les questions éthiques qui vont être liées par exemple aux enjeux environnementaux du numérique de façon plus générale sont plus importants que ceux qui peuvent être posés par les questions d’IA, d’autant plus pour les enjeux éthiques qui sont liés notamment aux systèmes algorithmiques classiques, notamment tout ce qui va être lié aux algorithmes de recommandation des plateformes de médias sociaux. Par exemple, en ce moment, on discute énormément : si on a des deepfakes qui apparaissent au moment des élections où, pour, je ne sais pas, faire dire à un candidat quelque chose qu’il n’a pas dit, ça pose un problème en termes de démocratie, etc., ça pose des problèmes ; je ne sais pas si ce sont des problèmes éthiques, en tout cas on met souvent derrière le terme « éthiques ».
Nous avons plutôt tendance à penser que ce qui pose problème là-dedans, ce ne sont pas tellement les deepfakes – évidemment, c’est un problème en soi –, mais le principal problème, dans cette histoire, ce sont plutôt les algorithmes de recommandation qui sont des systèmes éditoriaux automatisés, qui ne vont pas sélectionner l’information et l’éditorialiser de façon pertinente, qui vont jouer sur la polarisation des contenus. En fait, à ce niveau-là, le véritable problème, moins que le deepfake, ça reste l’algorithme de recommandation. C’est donc bien pour ça, qu’il faut encore et toujours continuer à travailler sur la persuasion des systèmes qu’on utilise au quotidien, sur les systèmes de persuasion des médias sociaux, sur la façon dont les interfaces modifient notre interprétation des informations qui nous sont données ou nos comportements, plus que sur les types de l’IA, si tant est qu’on soit capable de définir ce que c’est que l’IA.
Mathilde Saliou : Plutôt que de s’intéresser spécifiquement à l’intelligence artificielle, comme on a pu le faire au fil des épisodes, je déduis des propos de Karl Pineau que son association préfère critiquer les dysfonctionnements du numérique dans son ensemble. D’ailleurs, il me le confirme.
Karl Pineau : Nous avons une posture techno-critique certaine, nous ne sommes donc pas du tout techno-solutionnistes par opposition, c’est-à-dire qu’on ne considère pas que la technologie est à même de résoudre les problèmes de nos sociétés par elle-même. Donc, avant d’introduire une technologie dans notre société, il faut impérativement se poser la question des répercussions de cette technologie. Donc, de ce point de vue-là, évidemment, l’IA générative pose tout un tas de questions qui là, pour le coup, sont effectivement des questions éthiques, puisque, en fait, ça va challenger certaines valeurs morales de nos sociétés. L’IA générative fait exploser la consommation d’énergie des datacenters, voire nécessite la construction de nouveaux datacenters, cela pose une question éthique, c’est-à-dire comment est-ce qu’on réconcilie d’un côté une ambition de neutralité environnementale, si tant est qu’on puisse l’atteindre, versus, de l’autre côté, le déploiement d’une technologie qui va tout simplement largement augmenter la consommation d’énergie, donc l’impact environnemental du numérique. Ça, c’est un enjeu éthique.
Notre propos, c’est effectivement de dire que les enjeux éthiques d’une IA ne doivent pas cacher, venir recouvrir les autres enjeux éthiques qui se posent dans nos sociétés avec les technologies plus classiques, notamment les algorithmes de recommandation. De ce point de vue-là, ce serait encore plus dramatique si le terme IA venait à invisibiliser tout ce qui se cache derrière le code de manière générale.
Les systèmes algorithmiques, c’est une logique qui est bien spécifique, qui vise à avoir des opérations de traitement de données qui vont donner un résultat et qui sont largement opérés par les développeurs qui les mettent en œuvre, ce qui se distingue très largement, de ce que je perçois, n’étant pas développeurs, de ce qui se passe sur l’IA générative. Donc, si l’IA générative a un côté un peu, je vais vous dire magique, parce que, précisément, on est dans ces formes de flou qui visent à marqueter des technologies, les algorithmes de recommandation sont des systèmes qu’on maîtrise extrêmement bien d’un point de vue technique et qui posent, pour autant, tout un tas de défis sociaux et qu’il convient de traiter et de ne pas cacher derrière ce terme d’IA..
Mathilde Saliou : Maintenant qu’on a dit cela, Karl Pineau admet que les technologies relevant du champ de l’intelligence artificielle se glissent déjà dans de multiples endroits de nos existences.
Karl Pineau : Aujourd’hui, des formes d’IA sont extrêmement courantes dans tout un tas de logiciels, que ce soit pour faire de la transcription de contenu, que ce soit pour faire du classement automatique de contenu. Néanmoins, là encore, il s’agit de ne pas penser que l’IA, par essence, est plus à même de résoudre les problèmes qui nous sont posés par le numérique que n’importe quel groupe humain qui va se poser la question des conséquences politiques de nos systèmes techniques, de leur impact sur nos sociétés, de leur impact sur les individus, sur l’environnement. En fait, ce sont des sujets dont on doit discuter en société et avoir une réponse qui soit politique plus que technique.
En fait, le design vise à produire des dispositifs numériques. Un dispositif, ça peut être un média social, ça peut être un site web, ça peut être une application, ça peut être un service. En fait, c’est sur cette base-là que va se focaliser notre critique. Le fait de percevoir le numérique à travers les technologies plus qu’à travers les services qui utilisent ces technologies nous semble être une profonde erreur.
Mathilde Saliou : Cette approche est intéressante, parce que, par certains côtés, elle rejoint celle formulée par les membres de Data for Good, quand bien même ces derniers ont les mains plongées dans le code. Pour preuve, écoutez Théo Alves décrire les axes de travail de l’organisation.
Théo Alves Da Costa : On a tout un volet autour des questions écologiques, sur la préservation du vivant, la défense des écosystèmes, la lutte contre le changement climatique, je vais en reparler un peu.
On a tout un volet qui est plutôt social, sociétal, sur lequel on a énormément de questions sur la santé, aussi sur la démocratie, sur l’aide aux réfugiés, je vais revenir aussi avec des exemples.
Et on a troisième grande taxe d’impact qui est autour des dérives de la technologie, parce qu’en fait, en tant qu’expertes et experts du sujet, on a vu comment ces technologies pouvaient justement être utilisées pour d’autres choses, on a donc aussi tout un axe sur des projets autour de ça.
Sur le volet écologique, par exemple, récemment, on a fait beaucoup de projets avec l’ONG BLOOM. On a créé des algorithmes de détection des bateaux de pêche dans les aires marines protégées. On vient collecter de la donnée pour savoir où ces bateaux sont, ce qu’ils font. Ça permet d’avoir des chiffres permettant d’aider des plaidoyers et des assignations en justice européenne pour dire que ces bateaux ne devraient pas être là, dans les aires marines protégées françaises, que c’est contre la loi. La data et les algorithmes permettent déjà de faire ça.
Sur le volet social, un autre exemple. Depuis quelques mois, depuis six mois, on travaille avec Utopia 56, une ONG qui aide les personnes dans la situation de précarité, notamment les réfugiés, à créer tout un outil de cartographie de l’emplacement des campements, qui va pouvoir être mis dans les mains de plein d’ONG sur le terrain pour pouvoir faire des maraudes de façon efficace et aider le plus possible de personnes qui sont dans la rue. Tout simplement, en collectant de la donnée de plein de questionnaires et en les est mettant au même endroit dans une carte pour leur fournir un outil qui soit utilisable sur le terrain.
Je donne encore quelques exemples sur la partie dérive des technologies. C’est plus en plus important parce qu’avec l’arrivée et l’explosion de l’IA générative, on nous demande de plus en plus, on a de plus en plus envie de parler sur le sujet. Par exemple, on a développé et maintenu le quasi seul outil qui existe dans le monde permettant de mesurer l’empreinte carbone de l’IA et de la data. C’est quelque chose que nous sommes hyper-fiers de pouvoir faire parce que ça veut qu’on s’auto-applique déjà à nous-mêmes ce qu’on recommande et après, ça nous permet surtout de diffuser ça dans le monde entier pour que les gens commencent à mesurer un peu l’empreinte carbone de leur code.
17’ 40
Mathilde Saliou : Ça fait bientôt dix ans