Intelligence artificielle, intelligence collective - Algorithmique
Titre : Intelligence artificielle, intelligence collective
Intervenant·es : Théo Alves Da Costa - Karl Pineau - Valentin Hacault - Mathilde Saliou
Lieu : Podcast Algorithmique - Next
Date : 4 décembre 2024
Durée : 34 min 08
Licence de la transcription : Verbatim
Illustration : À prévoir
NB : Transcription réalisée par nos soins, fidèle aux propos des intervenant·es mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Description
Au fil des épisodes, Algorithmique a permis de détailler une partie des enjeux politiques, sociaux et environnementaux que soulève l'intelligence artificielle. Mais en tant que citoyenne, citoyen, comment s'emparer du sujet ? Comment, en pratique, s'emparer de ces nouvelles technologies ou, au contraire, la refuser ?
Transcription
Voix off : Next, Next, Next, Next.
Mathilde Saliou : Salut. C’est Mathilde Saliou. Depuis cinq épisodes dans Algorithmique on détaille une partie des enjeux que soulève l’intelligence artificielle. On l’a fait en rencontrant des data scientists, des juristes, des sociologues, des citoyens, mais, sur le terrain, il y a une autre variété d’acteurs qui réfléchit à ces questions. Son but c’est de trouver des leviers d’action à placer dans les mains de tous les gens intéressés par le sujet. Ces acteurs sont très souvent sont des associations qui ont, chacune, choisi des périmètres spécifiques. Certaines s’adressent à des profils techniques qui sont déjà plutôt bien calés en IA. D’autres visent plutôt des designers ou toute autre profession plutôt centrée sur la conception des outils numériques qu’on utilise au quotidien. Et d’autres encore visent à provoquer des discussions entre citoyennes et citoyens. Car, au bout du compte, ces citoyens ce sont eux, c’est nous qui utilisons l’intelligence artificielle ou qui sommes soumis à ses calculs.
??? : On prône un numérique qu’on veut émancipateur, durable et désirable.
Théo Alves Da Costa : On a vraiment ce rôle de techno-pirate dans lequel on n’a peut-être pas d’argent, mais on a plein de citoyens qui ont envie de se bouger au service de l’intérêt général.
Mathilde Saliou : Je suis Mathilde Saliou et vous écoutez Algorithmique, un podcast, produit par Next.
Épisode 6. Intelligence artificielle. Intelligence collective
Mathilde Saliou : Vous allez l’entendre, ces associations s’emparent de la question de l’intelligence artificielle dans le cadre d’une réflexion souvent plus vaste, sur le monde technologique en général. C’est un peu ce qu’on a fait aussi au gré des épisodes d'Algorithmique et c’est peut-être là le début de la conclusion de notre série. Quel que soit le buzz qui a émergé autour d’elle, l’intelligence artificielle a été construite par des acteurs et par une industrie qui sont, en fait, bien installés dans notre paysage. Ceci explique que les différentes associations que je suis allée rencontrer inscrivent leur travail dans un temps beaucoup plus long que le buzz créé par la sortie d’un ChatGPT.
Théo Alves Da Costa : Bonjour, je me rappelle Théo Alves Da Costa Je suis coprésident de l’ONG Data for Good depuis 4 ans et bénévole depuis sa création il y a 9 ans.
Data for Good est une association formidable qui rassemble, aujourd’hui, 6000 bénévoles, citoyens, qui ont des compétences tech, c’est-à-dire que ce sont des profils de la donnée, des algorithmes, des data scientists, des data analysts, des gens qui font du design de produit, qui développent des sites internet et qui ont tous, pour but, de mettre leurs compétences au profit d’intérêt général.
Très concrètement qu’est-ce qu’on fait ? On va chercher des associations qui pourraient avoir besoin d’aide, on va chercher des ONG qui pourraient avoir besoin d’aide, des citoyens qui ont parfois des idées et ont envie de monter des projets et on va créer, tous ensemble, ces projets sur des questions d’intérêt général utilisant la technologie, la data, les algorithmes, pour pouvoir avoir de l’impact social et environnemental.
Mathilde Saliou : Data for Good, ça s’entend un peu dans son nom, a été créée à un moment où on parlait moins d’IA et où, à l’époque, on parlait beaucoup plus de big data. Pour l’expliquer rapidement, cette expression désigne les masses de données qu’on crée au fil de ses activités numériques. Le rapport avec l’IA, vous l’aurez compris maintenant, c’est que sans ces données qui permettent d’entraîner les machines, l’intelligence artificielle, telle qu’on la connaît, n’aurait pas pu émerger.
Théo Alves me raconte que l’association est née d’un constat similaire a celui énoncé par un ingénieur de Meta. Au début des années 2010, cet homme-là avait déclaré : ???, autrement dit, « les esprits les plus brillants de ma génération réfléchissent au moyen de pousser des gens à cliquer sur des publicités, et c’est nul ! »
Théo Alves Da Costa : Ça a été la naissance de l’association. On s’est dit, effectivement, on a plein de gens qui ont ces compétences-là et n’ont pas envie de les dédier à des causes qui sont, peut-être pas détruire le monde et la démocratie, mais juste faire des choses qui ne servent pas à grand-chose quand ils pourraient dédier leur énergie à des causes qui leur tiennent à cœur, à trouver du sens dans leur travail et dans leurs compétences.
Mathilde Saliou : Ce qui m’a intéressée, chez Data for Good, c’est qu’assez tôt ils ont créé un serrement d’Hippocrate du data scientist en s’inspirant de celui des médecins.
Théo Alves Da Costa : Le serment d’Hippocrate data scientist, c’est une liste de principes qu’on a écrits en 2018 avec plus d’une centaine de bénévoles et plusieurs milliers de signataires. Au moment où, quand on refait un peu l’histoire moderne de la data, il y a eu une explosion, une nouvelle explosion à partir des années 2010, dans laquelle à la fois les disciplines sont apparues, les outils sont devenus plus accessibles et aussi, tout simplement, il y a eu plus de données parce que explosion d’Internet, des plateformes, etc. À partir des années 2015, les gens ont commencé à se poser des questions, il y a eu aussi tous les scandales, Cambridge Analytica, il y a eu aussi le RGPD qui est passé en opération. Une mouvance extrêmement importante est arrivée, celle de la data et de l’IA responsable, de tout simplement se dire que, comme disait Spiderman, on ne peut pas faire n’importe quoi et on a une certaine responsabilité quand on manie des outils qui peuvent être aussi puissants.
Donc, en tant que professionnels du domaine et citoyens, avait émergé dans la communauté de Data for Good l’idée de dire « nous voulons écrire nous-mêmes notre propre charte, qu’on va s’auto-appliquer, pour pouvoir appliquer des grands principes étiques, moraux et pratiques sur notre utilisation de la donnée et sur ce qu’on fait au quotidien. Il y a donc plus d’une vingtaine de principes.
Dès le début, on avait écrit un premier principe qui était de penser à la finalité des cas utilisant la donnée et les algorithmes avant les moyens, ce qui est, encore aujourd’hui, quelque chose que globalement pas grand-monde fait, parce qu’il y a une explosion de se dire « je vais utiliser telle technologie pour faire ça, pour faire ça », et on ne se pose même pas la question de « à la fin, à quoi cela va-t-il servir ? ». On va juste utiliser le nouveau truc à la mode et c’est comme ça que ça fonctionne en ce moment avec l’IA générative.
Donc, nous prônons, quoi qu’il arrive, de se dire « je pense à la finalité et je suis capable de refuser si ça n’a pas une bonne finalité ». Et, même quand on se pose les questions sur nos projets d’intérêt général, parfois ce n’est pas si évident que la finalité va vraiment avoir un impact social, environnemental, parce que c’est peut-être un peu détourné, peut-être qu’à la fin les gens ne vont pas s’en servir, peut-être, à la fin, que ce n’est peut-être pas si utile que ça et qu’on est peut-être plus en train de se faire plaisir en tant qu’expert technique, qu’en train de vraiment penser à résoudre un problème important, social et environnemental.
Déjà là, c’est notre premier principe.
Ensuite, il y avait tout un aspect qui était extrêmement important autour de la protection des données, toutes ces questions : comment faire attention aux données personnelles, ne pas aller les collecter si ça ne sert à rien.
Il y avait donc plein de questions très pratiques, comme cela, sur lesquelles on se devait de faire de plus en plus attention.
Il y avait plein de questions sur les algorithmes en tant que tels et l’IA, donc des principes autour de la façon dont aller mesurer les biais des algorithmes qu’on va faire, comment s’assurer que mes algorithmes ne sont pas discriminatoires.
Et, à chaque fois, avec une déclinaison pratique sur la façon dont on l’applique, concrètement, dans son métier.
Mathilde Saliou : Au moment où les membres de Data for Good réunissent les principes qui doivent guider leurs activités, des discussions similaires ont lieu ailleurs dans la société. Ça donne notamment naissance à deux associations : Latitudes et Designers éthiques.
Le but de Latitudes, c’est d’accompagner et de sensibiliser toutes les personnes qui entrent en contact avec le numérique, ce qui, à l’heure actuelle, fait pas mal de monde. Elle intervient aussi bien dans les collèges et les lycées, dans le monde post-bac, que dans le milieu professionnel. Valentin Hacault, son chef de projet animation et formation, résume les choses comme ceci.
Valentin Hacault : L’objectif c’est d’aller conseiller les personnes qui connaissent déjà le monde du numérique à avoir des pratiques plus responsables, mais c’est aussi éveiller les consciences à cela.
Mathilde Saliou : Créée en 2017, Designers éthiques, de son côté, est une association de recherche-action qui travaillent sur le numérique à travers le design. Son but, c’est de défendre un numérique émancipateur, durable et désirable en formant des professionnels.
Quand je rencontre Karl Pineau, qui est enseignant-chercheur en sciences de l’information et de la communication et membre de Designers éthiques, il commence par pointer l’un des nœuds qu’on a essayés de démêler, au moins un peu, au fil d'Algorithmique.
Karl Pineau : On ne travaille pas sur l’IA, parce qu’en fait, aujourd’hui on a du mal à voir ce que c’est qu’l’IA. Le terme « intelligence artificielle », évidemment comme le terme « algorithme », existe dans les communautés scientifiques depuis de nombreuses décennies. Quand il est émerge dans le débat public, il émerge pour qualifier un ensemble de technologiques qui sont fondamentalement différentes les unes des autres. Aujourd’hui, quand on parle d’intelligence artificielle, on met un peu tout et n’importe quoi dans le même panier, c’est donc compliqué de travailler sur l’intelligence artificielle de manière sérieuse. D’une certaine manière, on aurait presque tendance à dire que le fait d’utiliser ce terme d’intelligence artificielle, c’est ce qui caractérise quelqu’un qui ne comprend probablement pas vraiment ce dont on parle : est-ce qu’on est en train de parler d’IA générative ? Est-ce qu’on est en train de parler d’algorithme ? On parle d’intelligence artificielle, parce que ça fait plus vendeur. Cet aspect--là nous fait dire que c’est peu pertinent de travailler sur l’IA en tant que telle.
On a commencé un travail de recherche qui visait précisément à qualifier ce que se représentent les professionnels et les designers quand on mentionne le terme IA. Néanmoins, en ce qui nous concerne, à Designers éthiques, on a tendance à penser que l’IA, aujourd’hui, certes pose des enjeux éthiques, néanmoins, les principaux enjeux éthiques qui se posent encore aujourd’hui ne sont pas liés à l’IA. C’est-à-dire que, pour nous, les questions éthiques qui vont être liées par exemple aux enjeux environnementaux du numérique de façon plus générale sont plus importants que ceux qui peuvent être posés par les questions d’IA, d’autant plus pour les enjeux éthiques qui sont liés notamment aux systèmes algorithmiques classiques, notamment tout ce qui va être lié aux algorithmes de recommandation des plateformes de médias sociaux. Par exemple, en ce moment, on discute énormément : si on a des deepfakes qui apparaissent au moment des élections où, pour, je ne sais pas, faire dire à un candidat quelque chose qu’il n’a pas dit, ça pose un problème en termes de démocratie, etc., ça pose des problèmes ; je ne sais pas si ce sont des problèmes éthiques, en tout cas on met souvent derrière le terme « éthiques ».
Nous avons plutôt tendance à penser que ce qui pose problème là-dedans, ce ne sont pas tellement les deepfakes – évidemment, c’est un problème en soi –, mais le principal problème, dans cette histoire, ce sont plutôt les algorithmes de recommandation qui sont des systèmes éditoriaux automatisés, qui ne vont pas sélectionner l’information et l’éditorialiser de façon pertinente, qui vont jouer sur la polarisation des contenus. En fait, à ce niveau-là, le véritable problème, moins que le deepfake, ça reste l’algorithme de recommandation. C’est donc bien pour ça, qu’il faut encore et toujours continuer à travailler sur la persuasion des systèmes qu’on utilise au quotidien, sur les systèmes de persuasion des médias sociaux, sur la façon dont les interfaces modifient notre interprétation des informations qui nous sont données ou nos comportements, plus que sur les types de l’IA, si tant est qu’on soit capable de définir ce que c’est que l’IA.
Mathilde Saliou : Plutôt que de s’intéresser spécifiquement à l’intelligence artificielle, comme on a pu le faire au fil des épisodes, je déduis des propos de Karl Pineau que son association préfère critiquer les dysfonctionnements du numérique dans son ensemble. D’ailleurs, il me le confirme.
Karl Pineau : Nous avons une posture techno-critique certaine, nous ne sommes donc pas du tout techno-solutionnistes par opposition, c’est-à-dire qu’on ne considère pas que la technologie est à même de résoudre les problèmes de nos sociétés par elle-même. Donc, avant d’introduire une technologie dans notre société, il faut impérativement se poser la question des répercussions de cette technologie. Donc, de ce point de vue-là, évidemment, l’IA générative pose tout un tas de questions qui là, pour le coup, sont effectivement des questions éthiques, puisque, en fait, ça va challenger certaines valeurs morales de nos sociétés. L’IA générative fait exploser la consommation d’énergie des datacenters, voire nécessite la construction de nouveaux datacenters, cela pose une question éthique, c’est-à-dire comment est-ce qu’on réconcilie d’un côté une ambition de neutralité environnementale, si tant est qu’on puisse l’atteindre, versus, de l’autre côté, le déploiement d’une technologie qui va tout simplement largement augmenter la consommation d’énergie, donc l’impact environnemental du numérique. Ça, c’est un enjeu éthique.
Notre propos, c’est effectivement de dire que les enjeux éthiques d’une IA ne doivent pas cacher, venir recouvrir les autres enjeux éthiques qui se posent dans nos sociétés avec les technologies plus classiques, notamment les algorithmes de recommandation. De ce point de vue-là, ce serait encore plus dramatique si le terme IA venait à invisibiliser tout ce qui se cache derrière le code de manière générale.
Les systèmes algorithmiques, c’est une logique qui est bien spécifique, qui vise à avoir des opérations de traitement de données qui vont donner un résultat et qui sont largement opérés par les développeurs qui les mettent en œuvre, ce qui se distingue très largement, de ce que je perçois, n’étant pas développeurs, de ce qui se passe sur l’IA générative. Donc, si l’IA générative a un côté un peu, je vais vous dire magique, parce que, précisément, on est dans ces formes de flou qui visent à marqueter des technologies, les algorithmes de recommandation sont des systèmes qu’on maîtrise extrêmement bien d’un point de vue technique et qui posent, pour autant, tout un tas de défis sociaux et qu’il convient de traiter et de ne pas cacher derrière ce terme d’IA..
Mathilde Saliou : Maintenant qu’on a dit cela, Karl Pineau admet que les technologies relevant du champ de l’intelligence artificielle se glissent déjà dans de multiples endroits de nos existences.
Karl Pineau : Aujourd’hui, des formes d’IA sont extrêmement courantes dans tout un tas de logiciels, que ce soit pour faire de la transcription de contenu, que ce soit pour faire du classement automatique de contenu. Néanmoins, là encore, il s’agit de ne pas penser que l’IA, par essence, est plus à même de résoudre les problèmes qui nous sont posés par le numérique que n’importe quel groupe humain qui va se poser la question des conséquences politiques de nos systèmes techniques, de leur impact sur nos sociétés, de leur impact sur les individus, sur l’environnement. En fait, ce sont des sujets dont on doit discuter en société et avoir une réponse qui soit politique plus que technique.
En fait, le design vise à produire des dispositifs numériques. Un dispositif, ça peut être un média social, ça peut être un site web, ça peut être une application, ça peut être un service. En fait, c’est sur cette base-là que va se focaliser notre critique. Le fait de percevoir le numérique à travers les technologies plus qu’à travers les services qui utilisent ces technologies nous semble être une profonde erreur.
Mathilde Saliou : Cette approche est intéressante, parce que, par certains côtés, elle rejoint celle formulée par les membres de Data for Good, quand bien même ces derniers ont les mains plongées dans le code. Pour preuve, écoutez Théo Alves décrire les axes de travail de l’organisation.
Théo Alves Da Costa : On a tout un volet autour des questions écologiques, sur la préservation du vivant, la défense des écosystèmes, la lutte contre le changement climatique, je vais en reparler un peu.
On a tout un volet qui est plutôt social, sociétal, sur lequel on a énormément de questions sur la santé, aussi sur la démocratie, sur l’aide aux réfugiés, je vais revenir aussi avec des exemples.
Et on a troisième grande taxe d’impact qui est autour des dérives de la technologie, parce qu’en fait, en tant qu’expertes et experts du sujet, on a vu comment ces technologies pouvaient justement être utilisées pour d’autres choses, on a donc aussi tout un axe sur des projets autour de ça.
Sur le volet écologique, par exemple, récemment, on a fait beaucoup de projets avec l’ONG BLOOM. On a créé des algorithmes de détection des bateaux de pêche dans les aires marines protégées. On vient collecter de la donnée pour savoir où ces bateaux sont, ce qu’ils font. Ça permet d’avoir des chiffres permettant d’aider des plaidoyers et des assignations en justice européenne pour dire que ces bateaux ne devraient pas être là, dans les aires marines protégées françaises, que c’est contre la loi. La data et les algorithmes permettent déjà de faire ça.
Sur le volet social, un autre exemple. Depuis quelques mois, depuis six mois, on travaille avec Utopia 56, une ONG qui aide les personnes dans la situation de précarité, notamment les réfugiés, à créer tout un outil de cartographie de l’emplacement des campements, qui va pouvoir être mis dans les mains de plein d’ONG sur le terrain pour pouvoir faire des maraudes de façon efficace et aider le plus possible de personnes qui sont dans la rue. Tout simplement, en collectant de la donnée de plein de questionnaires et en les est mettant au même endroit dans une carte pour leur fournir un outil qui soit utilisable sur le terrain.
Je donne encore quelques exemples sur la partie dérive des technologies. C’est plus en plus important parce qu’avec l’arrivée et l’explosion de l’IA générative, on nous demande de plus en plus, on a de plus en plus envie de parler sur le sujet. Par exemple, on a développé et maintenu le quasi seul outil qui existe dans le monde permettant de mesurer l’empreinte carbone de l’IA et de la data. C’est quelque chose que nous sommes hyper-fiers de pouvoir faire parce que ça veut qu’on s’auto-applique déjà à nous-mêmes ce qu’on recommande et après, ça nous permet surtout de diffuser ça dans le monde entier pour que les gens commencent à mesurer un peu l’empreinte carbone de leur code.
17’ 40
Mathilde Saliou : Ça fait bientôt dix ans que l’association travaille sur les enjeux éthiques soulevés par l’usage de la donnée, puis par l’IA. Je demande donc à Théo Alves, si l’apparition d’outils grands publics comme ChatGPT ou Stable Diffusion ou d’autres encore, a changé quelque chose aux activités de Data for Good.
Théo Alves Da Costa : Je ne sais pas si c’est rassurant pas, en tout cas on n’a pas eu tant de projets sur lesquels l’IA générative était au cœur. Par exemple, on n’a pas eu de proposition de chatbots pour l’éducation, pour les personnes dyslexiques ou pour aider la réinsertion de réfugiés dans la société ou je ne sais quoi. On l’a eu comme un outil de travail, pour le coup, qui était utile. Savoir analyser des PDF pour extraire des infos, ce n’est pas de l’IA générative très compliquée, mais c’est très utile d’avoir ça à notre disposition. Analyser des scénarios de films pour comprendre si les femmes ont la parole dans un film ou pas, c’est vachement pratique avec de l’IA générative, ça se fait beaucoup mieux et beaucoup plus vite.
Donc, comme un outil, oui, de plus en plus, mais ce n’est pas non plus le cœur.
Le gros changement qu’on a vu par rapport à avant, c’est que, quand on parlait d’algorithme de machine learning, ce n’était accessible qu’à une petite portion de la société. Quand on a créé le serment d’Hippocrate du data scientist, il était très orienté pour les data scientists, comme son nom l’indique. Il y avait donc des recommandations qui, globalement, ne s’appliquent pas à quelqu’un qui, aujourd’hui, va utiliser de l’IA ChatGPT, qui n’est pas concepteur de cette technologie-là. Donc la création, la baisse de la barrière à l’entrée, et le fait qu’on puisse parler en langage naturel, a fait qu’on parlait de plus de quelques dizaines de milliers de personnes en France à qui il faut, aujourd’hui, faire adopter des bonnes pratiques, et pour le coup, des centaines de millions de personnes dans le monde qui utilisent cette technologie au quotidien, sans trop comprendre comment ça a été fait, à quoi ça sert, pourquoi on s’en sert. Donc, le fait que ce soit beaucoup plus accessible, globalement par tout le monde, il y avait vraiment cette volonté de se dire que si on prend les biais, les discriminations, quand on l’applique à la question de l’IA générative, qu’est-ce que ça veut dire ? Donc vous qui êtes des professionnels du secteur de la publicité ou du film ou de l’art, ou qui commencez à l’utiliser pour pouvoir faire des posts sur LinkedIn, pour générer des images, qu’est-ce que ça veut dire sur la discrimination sociale, ethnique, d’âge, etc. ? Sur la question des données personnelles et de la fiabilité de l’information et de la désinformation, qu’est-ce que ça veut dire, que pouvons-nous en dire en ayant un peu creusé le domaine ? Sur l’impact environnemental, nous sommes globalement une des seules organisations dans le monde à avoir autant poussé le sujet. Nous sommes les premiers, par exemple, à avoir chiffré quelle était l’empreinte de carbone de l’utilisation de ChatGPT, parce que le débat public se concentrait sur l’entraînement de GPT 3.5, et nous avons calculé, pour la première fois, ce que représentait à priori l’utilisation tous les jours par 100 millions de personnes dans le monde – et spoiler c’est beaucoup plus haut que juste l’entraînement. Il y avait donc plein de choses.
Quand on comprend un peu comment ça se passe et qu’on se rend compte que, d’une certaine manière, cette technologie-là, maintenant, il n’y a plus que nous qui nous en servons, au final, il y avait ce besoin de venir appliquer tout ce qu’on savait sur le domaine et dire « ça veut dire ça, en tant que utilisateur de ces technos qu’on en soit conscient ou pas conscient.
Mathilde Saliou : Pour partager tout ce savoir accumulé avec des non-spécialistes, Data for Good a écrit un livre blanc de l’IA générative.
L’association Latitudes qui, de son côté, est spécialisée dans la sensibilisation de tous les publics aux enjeux du numérique, s’en est servi pour fabriquer un atelier dédié.
Valentin Hacault m’explique que Latitudes a pensé ce programme pour qu’il soit adaptable aussi bien auprès des jeunes, auprès des étudiants, qu’auprès de professionnel. Le nom de l’atelier : La bataille de l’IA.
Valentin Hacault : La bataille de l’IA, c’est un atelier qui se fait en deux heures, traditionnellement, en trois parties.
On a une première partie avec des cartes timelines. On a 22 cartes devant soi, sur chacune de ces 22 cartes est inscrit un évènement relatif à l’histoire de l’IA générative, même de l’IA tout court. Comme on voulait créer un atelier qui s’adresserait à la fois des personnes qui connaissaient bien le sujet, mais aussi au grand public pour lui permettre de se familiariser avec l’IA, on a trouvé intéressant de commencer l’atelier par, finalement, une prise en main, une découverte, redécouverte des moments marquants de l’histoire de l’IA.
On va distribuer une carte à chacun et chacune de nos participants. L’objectif, c’est de deviner quand l’événement inscrit sur la carte s’est produit. À la fin de cette partie, on a pu se rafraîchir la mémoire, mais on a commencé aussi à voir qu’il y avait quelques sujets qui étaient assez touchy quand on parle d’IA. Par exemple, si Neuralink obtient l’autorisation de tester des implants cérébraux sur des humains, ce sont déjà des premières cartes qui peuvent lancer des débats, qui peuvent faire un petit peu polémique parmi les participants.
Ça nous permet de faire la transition vers la deuxième partie, qu’on a découpée sous cinq thématiques précises, qui, en fait, sont les thématiques que Data for Good a identifiées comme étant les plus importantes à avoir à l’esprit lorsqu’on parle du sujet des IA génératives. Ce sont les enjeux de biais, les enjeux de créativité, de fiabilité, de société, et puis tout ce qui va être relatif, encore une fois, aux impacts environnementaux.
Pour cette deuxième partie, on a, à chaque fois, trois cartes par thématique. Sur chacune des cartes, on va retrouver une question qui peut parfois être plutôt ouverte, plutôt ludique, l’objectif, c’est toujours de traiter ces sujets de manière ludique pour que ce soit toujours agréable pour les participants.
Par exemple, sur la thématique des biais, on a une première carte où figurent deux images. La première image, c’est une vraie photographie qui est réelle et la deuxième image, c’est cette première photographie qui a été modifiée par l’IA. Pour la décrire, c’est une jeune femme qui, physiquement, voit les traits de son visage assez significativement modifiés entre la première et la deuxième image, la deuxième étant un prompt, une requête IA. Donc le jeu, la question qu’on pose aux participants, c’est de deviner qu’elle a été la question qui a été posée pour générer cette image. Ici, en l’occurrence, la réponse c’est « fais-moi une photo professionnelle LinkedIn ». Pour la décrire à l’oral, à gauche, sur l’image, on a une femme qui, à l’air d’être d’origine plutôt asiatique et, sur le résultat généré par l’IA, son visage est complètement modifié et on a une personne qui a plutôt l’air d’être caucasienne. Elle a les yeux bleus, ce qui n’est pas du tout le cas sur l’image originale.
Donc de manière un petit peu ludique, on se rend compte de certains biais que l’IA peut entraîner.
On fonctionne de la même manière pour les cinq thématiques. C’est assez intéressant puisque ça permet, et c’est surtout le véritable objectif de l’atelier, de créer un cadre d’échanges bienveillant dans lequel chaque personne peut venir exprimer son opinion et le voir enrichi aussi par les autres positions. C’est un format qui fonctionne bien puisqu’il y a beaucoup de sujets sur lesquels on n’a pas de réponse. Ce n’est pas une question de légitimité, d’expertise, etc., tout le monde peut participer à ces discussions, qu’on soit un data scientist qui connaît extrêmement bien le sujet, ou qu’on soit personne complètement néophyte, on a la même légitimité à dire si, personnellement, l’art généré par l’IA c’est de l’art ou ça n’en est pas du tout.
Mathilde Saliou : À la fin des Batailles de l’IA, pour que les participants prennent conscience de la complexité des enjeux, les équipes de Latitudes leur demandent de se répartir en quatre groupes qui représentent différentes parties prenantes et de se projeter sur un scénario prospectif probable. L’idée, c’est de jouer à tour de rôle les politiques, les citoyennes et les citoyens, les data scientists ou d’autres types d’acteurs et, ensuite, il faut argumenter et négocier pour voir dans quelle condition ils et elles acceptent que certaines technologies d’intelligence artificielle soient déployées pour un cas d’usage précis.
Pour clore cet épisode, je demande à mes interlocuteurs, s’ils ont des recommandations à formuler sur la manière de s’emparer de l’intelligence artificielle en tant que société. Théo Alves souligne le rôle des associations et ONG comme celle à laquelle il participe.
Théo Alves Da Costa : Quand j’entends Sam Altman, CEO d’OpenAI, demander à des investisseurs 7000 milliards pour déployer l’IA for everyone, for the benefit of humanity, pour le coup, il promet une vision sociale très forte avec des sommes économiques qui sont complètement délirantes. 7000 milliards, c’est deux fois et demi le PIB de la France et c’est mis, en gros, au service d’une vision de société qui est de dire que dans x années – x dépendant justement l’argent qu’il va avoir – on allait avoir des agents qui feraient des choses à notre place et, qu’en fait, il y aurait sûrement a universal of Basic Compute, « la puissance de calcul universelle », plutôt qu’un Universal of Basic Income dans lequel, si jamais des IA font du travail à notre place dans différentes strates de la société, on pourrait s’attendre à une forme de redistribution de la valeur, de revenu universel, il y a plein de débats là-dessus. Au final, je crois qu’on va plutôt donner un universal of Basic Compute que tout le monde devrait avoir une slice of ChatGPT pour pouvoir, en gros, se sortir les doigts des fesses et faire quelque chose avec ça pour s’enrichir. Globalement, ce sont un peu ses dernières interviews où il raconte ça.
C’est une vision de la société qui m’effraie. L’ultra-libéralisme poussé à l’extrême, concentrer la valeur dans les mains de quelques personnes qui, au final, en ont le contrôle. Toute cette valeur-là, c’est, premièrement, autant d’argent qui n’est pas mis dans les mains d’acteurs de l’intérêt général.
Et quand toujours Sam Altman dit – je dis Sam Altman, mais, en fait, il est représentatif de toutes les personnes qui sont à la tête de ces entreprises en ce moment – « on va complètement changer la manière dont on fait la science, va trouver une nouvelle source d’énergie décarbonée ». Dans une interview, j’ai entendu qu’il a dit qu’avec l’IA on allait imaginer un monde sans pauvreté. Il y a vraiment cet espoir, chez tout le monde, de dire fuite en avant, attendez, on va développer tout ça et ça va résoudre tous les problèmes de nos sociétés.
En pratique, on sait bien que quand on a un objectif indirect, qu’en faisant ça, on va atteindre cet objectif indirect, en pratique, ce n’est pas du tout comme ça que ça fonctionne.
C’est aussi ça qui a justifié que là, on a envie d’accélérer assez fortement. On commence de plus en plus à se dire qu’on a vraiment ce rôle de techno-pirate dans lequel d’un côté, il y a ça, il y a cet état dominant des acteurs économiques du secteur. Et nous, en fait, on n’a peut-être pas d’argent, mais on a plein de citoyens qui ont envie de se bouger. En faisant ça, déjà rien que là, en fait, on peut redistribuer une forme de toute cette énergie-là au service de l’intérêt général et heureusement que ce contre-pouvoir commence à exister ; nous ne sommes pas du tout les seuls à le représenter. On ne peut pas laisser ça comme ça. Je pense que c’est Hok Ham ??? [28 min 41] qui le résume le mieux, une ONG mondiale qui travaille avec les entrepreneurs sociaux, qui dit que le monde de l’intérêt général doit aussi façonner l’IA, que c’est le moment critique pour le faire et je pense que c’est bien de l’incarner.
Mathilde Saliou : Karl Pineau, lui, propose de se décentrer.
Karl Pineau : Je pense que la principale recommandation, ça serait précisément d’essayer de ne pas utiliser ce terme d’IA pour se forcer à décrire la variété de réalités qu’on a derrière. Est-ce qu’on parle de classification automatique ? Est-ce qu’on parle de génération de textes ou d’images ? Est-ce qu’on parle de traduction automatique ? Une fois qu’on décrit ces réalités techniques, plus spécifiquement qu’à travers ce concept d’intelligence artificielle, eh bien précisément le débat citoyen, d’une certaine manière la démocratie technique, peut commencer à revenir. Si on prend une technologie comme la traduction automatique, est-ce qu’on estime, collectivement, que c’est une bonne chose, en mettant en regard d’un côté les apports réels que ça va avoir sur les capacités à accéder à des connaissances ou à produire des connaissances versus les conséquences que ça peut avoir sur certains métiers, notamment le métier de traducteur. C’est beaucoup plus tangible et beaucoup plus concret que simplement de parler d’IA de manière abstraite et techno–solutionniste en disant que l’IA va révolutionner le monde et sauver du changement climatique.
Mathilde Saliou : Quant à Valentin Hacault, il nous partage un jeu de recommandations concrètes.
Valentin Hacault : Beaucoup des conseils sont quand même du bon sens, c’est-à-dire qu’il faut toujours être vigilant, faire preuve d’esprit critique, il faut croiser les sources. En tant que concepteur, il faut être très vigilant aux données qu’on va utiliser pour nourrir les algorithmes pour qu’il n’y ait pas de biais. Faire faire des contrôles, essayer d’avoir de plus en plus de transparence dans la manière dont l’algorithme fonctionne pour que, lorsqu’on a un résultat, on puisse au moins essayer de comprendre d’où provient le résultat.
Pour les personnes qui utilisent les IA, c’est aussi mentionner explicitement qu’on utilise l’IA, être transparent dans son usage.
Ça serait aussi pour les développeurs, par exemple, de permettre aux utilisateurs de choisir le niveau de complexité d’IA qu’ils ont besoin d’utiliser, parce qu’on n’a pas tous besoin d’avoir une IA extrêmement performante pour des utilisations qui sont assez simples, donc pouvoir modifier ça.
Et pour nous, en tant que utilisateurs, se raisonner dans notre utilisation de l’IA et ne l’utiliser que pour vraiment des cas qui le nécessitent, pas juste comme on a pu le faire au début avec ChatGPT, faire des blagues, rigoler un petit peu. Avec les enjeux environnementaux, il faut aussi se raisonner.
En parallèle des lois, des mesures qui sont en train de se mettre en place, il y avait déjà le RGPD notamment sur les données. Avec l’IA Act, on va un pas plus loin avec l’intelligence artificielle, mais tout ne va pas être encadré par ces lois-là. Donc, que ce soit en tant qu’utilisateur, que ce soit en tant que développeur, il faut aussi qu’on se pose la question de sa propre moralité, de sa propre éthique. On essaie, au travers de l’atelier, de comprendre le cadre légal pour savoir à quoi on peut s’en tenir, mais également de donner des recommandations qui sont peut-être plus morales, plus éthiques, à la lueur des enjeux environnementaux, sociaux et de prendre un petit peu les devants sur de futures lois, mais qui vont mettre encore quelques années à arriver.
Mathilde Saliou : Ce qu’ils nous disent tous, Théo Alves, Karl Pineau, Valentin Hacault, c’est que toutes et tous on peut réfléchir aux effets de l’intelligence artificielle à la manière de s’en saisir, ou de la refuser d’ailleurs, pour en faire un outil intéressant pour le collectif.
Nous, chez Next, nous nous sommes précisément dit que, pour s’en saisir, pour en débattre, le mieux c’était d’avoir un aperçu des enjeux que l’émergence de cette technologie soulevait.
Dans les six épisodes d’Algorithmique que vous venez d’écouter, nous avons exploré ceux qui nous ont paru les plus urgents : l’histoire de la technologie, les enjeux de justice sociale, l’impact environnemental, les questions de régulation. Évidemment, il y aurait quantité d’autres sujets à traiter, on pourrait parler de la manière dont l’IA touche le monde de l’art et de la création ou encore de ses effets sur l’espace public et sur l’information. On pourrait aussi s’interroger sur la mesure dans laquelle elle influence l’évolution du travail.
Pour explorer tout cela, abonnez-vous à Next où nous couvrons ces thématiques au long cours. Faites-nous aussi vos retours sur ce podcast. Dites-nous ce qui vous a plu, ce qui vous a manqué et puis, surtout, si une saison 2 d’Algorithmique vous tenterait. Sachez que votre soutien sous forme d’étoiles sous ce podcast, de partage sur les réseaux sociaux, sous forme d’abonnement à Next aussi, est essentiel pour que l’on puisse continuer de vous accompagner dans les méandres de la technologie.
C’était le dernier épisode de la saison 1 d’Algorithmique, un podcast écrit et tourné par moi, Mathilde Saliou, réalisé par Clarice Horn et produit par Next. Pour nous retrouver direction next.ink et sûrement, dans quelque temps, sur ce même fil de podcast. À très vite.