AI Act : peut-on se réjouir de l’accord politique européen sur l'IA

De April MediaWiki
Aller à la navigationAller à la recherche


Titre : AI Act : peut-on se réjouir de l’accord politique européen sur l'IA ? Débat avec la sénatrice Catherine Morin-Desailly

Intervenant·e·s : Catherine Morin-Desailly - Chantal Genermont - Tariq Krim - Bernard Benhamou - Delphine Sabattier

Lieu : Podcast Politiques Numériques alias POL/N

Date : 29 décembre 2023

Durée : 38 min

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Corrections envoyées par Delphine Sabattier reportées par MO

Transcription

Delphine Sabattier : Vous écoutez Politiques numériques, alias POL/N, une série inédite de débats et d'interviews politiques sur les enjeux de l'ère technologique.
Je suis Delphine Sabattier et je reçois ici des décideurs publics et des experts de ce nouveau terrain de jeu réglementaire, législatif et politique que constitue ce monde des plateformes.
Pour cet épisode, mes invités sont la sénatrice Catherine Morin-Desailly et quelques experts. Je vous les présente : Bernard Benhamou, Institut de la souveraineté numérique, Tariq Krim de Cybernetica et Chantal Genermont qui a occupé plusieurs postes dans la tech et la data et est aujourd'hui la directrice générale de Chapsvision CyberGov, une entreprise de la data dans le domaine régalien, n'est-ce pas Chantal ?

Chantal Genermont : Absolument.

Delphine Sabattier : Bonjour à tous. Bienvenue dans cette émission. C'est le deuxième épisode. Très heureuse de vous recevoir Madame Catherine Morin-Desailly, vous êtes très impliquée sur ces questions du numérique et j'avais envie de vous entendre en particulier autour de l’AI Act, c'est vraiment notre sujet de débat. Aujourd'hui, êtes-vous satisfaite de cet accord politique ?

Catherine Morin-Desailly : Oui. Après maints rebondissements, on peut dire qu'on a atterri plutôt bien à l'issue du trilogue. Bien sûr, le texte doit être finalisé ces jours-ci, il y a encore quelques réunions techniques, mais il est représentatif de l'équilibre, en tout cas voulu par le Sénat, voulu aussi par le Parlement européen entre encouragements, soutiens à l’innovation pour faire en sorte que nous ayons une filière de l'IA dynamique et de premier plan et, en même temps, tout cela conforme à nos fondamentaux européens, le respect de nos libertés publiques. Aujourd'hui, on arrive à ce texte après quelques rebondissements puisque vous savez que le Conseil, qui est la représentation des gouvernements en Europe, avait émis un avis beaucoup plus déséquilibré, en quelque sorte, dans le cours des discussions et avait levé les obligations de transparence qui sont très importantes et qui, soi-disant, auraient bridé l'innovation. On arrive enfin, je pense, à quelque chose d'équilibré. Attendons de voir dans les jours que ce soit confirmé.

Delphine Sabattier : Quand vous nous dites « soi-disant », c'est-à-dire que vous considérez que peut-être on aurait eu tendance à laisser de côté l'intérêt général ?

Catherine Morin-Desailly : Oui. L'objectif de la Commission européenne était bien de construire une intelligence artificielle de confiance. Donc, à la fois prendre en compte une numérisation conforme aux valeurs européennes et, en même temps, soutenir l'innovation et le développement de cette filière extrêmement prometteuse et stratégique. Certains, au prétexte de l'innovation, mais c'était déjà le cas au début des années 2000 quand on a construit la législation, la fameuse directive e-commerce, déjà, au prétexte de l'innovation, on n'a pas mis en place les garde-fous, les mécanismes qui construisent un Internet de confiance. Donc, là, il ne faut pas louper, en quelque sorte, faire en sorte que nous soyons comme un étalon d'or, une référence au niveau mondial, comme nous l'avons été pour le RGPD. Donc le trilogue, après maintes discussions entre le Parlement européen qui avait une vision très équilibrée, le Sénat qui a soutenu le Parlement européen et qui a aussi enrichi la proposition, le Conseil européen et la Commission, aboutit, je pense, à un accord, me semble-t-il, satisfaisant.

Delphine Sabattier : Est-ce que c'est la même opinion autour de la table ? Est-ce qu'on est satisfait de cet accord politique qui a été trouvé ? Est-ce qu’on régule peut-être un peu tôt comme peuvent le penser certains ? Bernard Benhamou.

Bernard Benhamou  : Je pense qu'à l'heure actuelle l'essentiel est de ne pas refaire l'erreur qui a été faite, en gros, il y a 20 ans, ce que rappelait Madame la sénatrice, c'est-à-dire ne pas vouloir réguler, ne pas faire porter de responsabilité particulière sur les plateformes de manière, effectivement, à leur laisser le champ économique et la possibilité de se développer. On a vu ce à quoi ça a mené. Ça a mené effectivement au scandale Cambridge Analytica. Puisque Madame la sénatrice rappelait le rôle central du RGPD, des règles européennes sur les données, on peut dire qu'il n'y aurait sans doute pas eu de scandale Cambridge Analytica si les Américains s'étaient dotés d'une loi fédérale sur la protection des données. On voit donc bien que ne pas le faire sur l'IA aujourd’hui serait prendre le risque, effectivement, de dérives tout aussi importantes, voire pires, en matière de désinformation, en matière de contrôle politique des opinions publiques et c'est déjà en train de se tenir et on voit bien déjà l'impact que ça dans les campagnes en cours. On a, je le rappelle, deux milliards de personnes qui vont aller aux urnes dans le monde dans l'année qui vient, dans les 12 mois qui viennent, donc on voit bien à quel point c'est important. Je pense que l'erreur qui a été commise, en particulier à l'époque Obama – on n'a pas voulu réguler les Google et autres à l'époque –, ne doit pas se reproduire maintenant parce que, si on le fait, il sera infiniment difficile de revenir en arrière.

Delphine Sabattier : Tariq Krim, est-ce que la régulation, la réglementation, les lois, peuvent éviter des scandales comme Cambridge Analytica ?

Tariq Krim : Ce qui est clair c'est que dans les technologies telles qu'elles existent, c'était le cas des réseaux sociaux et aujourd'hui de l'IA, il y a deux choses.
La première c'est que dans le cadre de l'AI Act, depuis quelques années, il y a toute une idéologie, peut-être même plusieurs idéologies qui se sont mises en place : d'un côté ce qu'on a appelé les effective altruism, ceux qui pensent que l'IA va être source de problèmes immédiats, qu'il faut soit faire des pauses soit, je dirais, changer les modèles. C'est un agenda qui a d'ailleurs, d'une certaine manière, contaminé l'Europe : quand on voit la dernière réunion qui a eu lieu à Londres, c'était cet agenda, effective altruism, qui était vraiment mis en œuvre. Et, de l'autre côté, les techno-optimistes ou les accélérationnistes, ceux qui disent qu'il faut aller très vite.
Le problème qu'on a aujourd'hui, et c'est la deuxième chose, c'est qu’il faut faire une différence entre l'IA générative et l’IA avec les modèles qu'on a connus depuis une quinzaine d'années, dans laquelle clairement on a fait n'importe quoi, on a introduit des modèles dans Facebook. Ce n'est pas tellement la complexité des produits que la taille : quand on a plusieurs milliards de personnes qui peuvent, chacune d'entre elles, dire ce qu'elles veulent et qu'on a un algorithme dont personne ne comprend véritablement le fonctionnement at scale, comme on dit, à l'échelle, on a des choses qui deviennent complètement incompréhensibles et on l'a vu dans de nombreux pays.
D'une certaine manière, ce qu'a fait Cambridge Analytica ou ce qu'ont fait les Russes, ce qu'ont fait, d'ailleurs, tous les pays du monde c'est exploiter ces failles, c'est exploiter le fait que, parfois, on comprend des choses que même Facebook ne comprend pas et on les utilise.
Dans le cas de l'IA, à mon avis, ce qui me semble une erreur, c'est qu’on parle d'IA générative comme si on parlait de l’IA des cinq/dix dernières années, ce qu'on appelle le deep learning où, effectivement, la machine apprend ce qu’on lui montre, elle apprend toute seule, c'est ça la nouveauté, avant on lui expliquait comment le faire, maintenant elle apprend toute seule. Effectivement, quand elle apprend mal ou quand c'est mal cadré, ça pose des problèmes. Mais, dans le cas de l'IA générative, pour moi c'est une technologie extra-terrestre : elle est arrivée. On l'utilise et on n'est toujours pas capable... Je discute avec les ingénieurs de Mistral, mais aussi ??? [7 min 50] qui est maintenant chez OpenAI, tous les gens qui travaillent sur des LLM, personne ne comprend vraiment comment ce produit fonctionne.

Delphine Sabattier : Moi aussi. Chez Microsoft, en l'occurrence, on me dit qu’il y a eu des surprises au moment où ces IA génératives ont sorti des résultats hyper-pertinents, par exemple sur la traduction, c'était une surprise, sur leur capacité à comprendre l'ironie, elles n'avaient pas été entraînées pour ça, c'est une surprise. Ça pose la question : est-ce qu'on est pas justement, en train de réguler trop tôt, Chantal Genermont ?

Chantal Genermont : Je pense que c'est déjà très positif sur la question de l'opportunité, très positif de montrer qu'on est capable en Europe, au niveau européen, d'arriver à un texte. Ça montre une convergence, c'est déjà un très grand point sur un sujet aussi pointu.
Trop tôt je ne crois pas, au contraire, je trouve que le timing est parfait, puisqu’on a bien vu qu’aux États-Unis l'administration Biden a sorti l'<em<Executive Order il y a deux mois, en octobre, avec une position assez différente sur des guidelines ???, des standards par secteur plutôt que transverses, donc on est quand même sur ce sujet-là. On arrive dans les temps, on n'est pas trop en retard, mais on n’est pas trop en avance. On a vu aussi, au Royaume-uni, encore un autre sujet de débat sur l'IA.
En étant si nombreux, arriver à s'aligner sur un sujet aussi pointu aussi rapidement, à quelques mois des US et de l’UK, je pense, au contraire, qu’on est très clairement dans les temps. Je pense que beaucoup de l'implémentation, de la mise en œuvre de ces réglementations, en tout cas, de ces guidelines va arriver en 2024.

Delphine Sabattier : Vous qui travaillez dans une entreprise la data, vous ne voyez pas ces textes comme des empêcheurs d'innover ?

Chantal Genermont : Au contraire, je trouve que ça permet d'encadrer et de permettre à ceux qui font, en l'occurrence nos ingénieurs, d’avoir à peu près une sorte de garde-fous même dans leur imagination, même dans leur quotidien . Je pense que c'est après, à quel degré et quelles sont les méthodes qu’ils vont encadrer : est-ce qu'on a besoin d'un acteur indépendant, d'une sorte de tiers de confiance pour pouvoir encercler, en tout cas maîtriser tout ce qui peut être propriété intellectuelle des outils. Après, c'est la mise en la mise en œuvre, la mise en place, la façon, le détail dans lequel on rentre. Au contraire, je pense que c'est un garde-fou qui protège même les acteurs de produits.

Delphine Sabattier : Je voulais quand même interroger la sénatrice sur ce point qui est important : finalement, c'est la gouvernance de ce texte, l’AI Act : qui va être aux manettes ? Qui va faire appliquer ? Selon quelles règles ? Comment tout cela va-t-il s'agencer avec le règlement sur la protection des données, le RGPD ? Madame la sénatrice, là on a encore un boulevard de réflexion et de travaux juridiques et politiques.

Catherine Morin-Desailly : Aujourd'hui, il s'agit d'améliorer la gouvernance du règlement afin de garantir sa mise en œuvre uniforme et efficace. Il faut donc donner aux autorités nationales et européennes les moyens de contrôler efficacement cette mise en œuvre.
Je voulais ajouter que c'est important de légiférer maintenant, comme l'a dit Chantal, puisque c'est le troisième volet du triptyque DMA, DSA et IA Act, avec aussi le Data Act qui va arriver en discussion dans le cadre du trilogue. Il faut donc une cohérence entre les trois textes et ça passe par une bonne gouvernance établie tant au niveau européen que déclinée dans les États membres.
Vous savez qu’en France c'est la CNIL qui va être désignée comme autorité compétente pour la surveillance de l'application.

Delphine Sabattier : Ça a été décidé ?

Catherine Morin-Desailly : Oui, c'est en cours de finalisation. C'est ce que nous avions préconisé et puis il faut octroyer aux autorités nationales de contrôle des moyens humains et matériels bien sûr suffisants pour remplir les missions, mais c'est valable de la part de toutes les autorités de contrôle qui, aujourd'hui, comme l'Arcom en France, doivent mettre en œuvre l'application du DSA par exemple. C'est très important.
Il faudra aussi étoffer les missions du Comité européen de l'intelligence artificielle, qui va donc associer les différentes autorités de régulation de chacun des États membres. Bien entendu nous avons préconisé que, dans ce comité, on inclut absolument des scientifiques et des praticiens de l'IA, pas que des fonctionnaires de Bruxelles qui, forcément, auraient une vision strictement technique ou juridique. Il faut aussi que les compétences consultatives du comité soient élargies parce qu’il aura besoin d'être associé étroitement aux modifications apportées au règlement ultérieurement à son adoption.
Il y a toute une série de débats qui vont devoir être établis par la suite.
Je souhaite aussi que le Comité européen ait un droit d'initiative qui lui permette de formuler des avis et aussi des recommandations sans saisine préalable de la Commission.
C'est donc un travail de fond qui nous attend.

Delphine Sabattier : Avec la perspective, finalement, d'application plutôt autour de 2027.
Tariq Krim, sur ce sujet de toutes ces réglementations, toutes ces nouvelles régulations, parce qu'il y a aussi de nombreux textes au niveau international pour traiter ce sujet de l'intelligence artificielle, est-ce qu'on ne risque pas de freiner l'innovation en l'occurrence en Europe ?

13’ 23

Tariq Krim : C'est vrai que c'est une question