Différences entre les versions de « AI Act : peut-on se réjouir de l’accord politique européen sur l'IA »

De April MediaWiki
Aller à la navigationAller à la recherche
Ligne 81 : Ligne 81 :
 
==13’ 23==
 
==13’ 23==
  
<b>Tariq Krim : </b>C'est vrai que c'est une question
+
<b>Tariq Krim : </b>C'est vrai que c'est une question. L'un des problèmes que l’on a avec en général la Commission c'est que l'ensemble des règlements et des régulations qu'elle met en œuvre sont plutôt destinés aux très gros acteurs. Et aujourd'hui, c'est vrai que les très gros acteurs dans le monde du numérique, qu’on appelle les GAFAM, on parle maintenant des Sept Magnifiques, eux seront prêts. Les PME, les startups, probablement moins.<br/>
 +
Il y a un autre sujet. Je pense qu’à travers l'<em>AI Act</em> on essaye beaucoup de déborder sur d'autres sujets. À chaque fois qu'on parle d'IA, en fait on parle de réseaux sociaux, de questions de données, de stockage de données. Autant sur l’IA je suis très circonspect sur les méthodes, parce que, peut-on réguler ce qu'on ne comprend pas ? C'est toujours pareil.
 +
 
 +
<b>Delphine Sabattier : </b>Qu’on ne comprend pas et qu'on ne connaît pas encore parce que ça va très vite !
 +
 
 +
<b>Tariq Krim : </b>Sans oublier que l’IA est un monde non déterministe, c'est-à-dire que vous ne pouvez pas prédire le résultat. C'est d'ailleurs pour ça que c'est de l'intelligence artificielle, c’est qu’elle est capable de traiter des  ??? [14 min 35]
 +
 
 +
<b>Delphine Sabattier : </b>Est-ce qu’il faudrait une approche plus pragmatique ? Mettre à l'épreuve ces modèles de langage ?
 +
 
 +
<b>Tariq Krim : </b>J’aime bien ce qu'a fait ce que fait Biden, il est en charge du Gouvernement fédéral et il l'a dit « voilà comment le Gouvernement fédéral va utiliser les choses, comment ça va se faire, voilà les réglementations. » Ce qui est un peu gênant parfois, on l’a vu avec le RGPD, s’il n’y avait pas eu Max Schrems pour attaquer tous les gens qui sont en contre contrefaçon et qui ne le respectent pas, ce ne sont pas les gouvernements, et surtout pas le Gouvernement français, en ce moment, qui avanceraient dans ce domaine. On a plutôt tendance à essayer de trouver toutes les astuces pour héberger soit les données de santé chez Microsoft soit les donner à la DGSI, Palantir, etc. On a donc une forme d'incohérence, c’est-à-dire que tant que le Gouvernement, les gouvernements, parce qu'on est au niveau européen, ne disent pas « voilà comment on va appliquer les choses et comment on va appliquer les choses qu'on a déjà votées... »
 +
 
 +
<b>Delphine Sabattier : </b>Oui, parce qu'aujourd'hui le RGPD pourrait déjà permettre certaines actions sur ces modèles de langage.
 +
 
 +
<b>Tariq Krim : </b>Absolument. Et le DMA, DSA, qui sont des règlements qui s'appliquent, peuvent également régler un nombre de problèmes. Sur l’IA se pose après la question de la recherche et il ne faut pas oublier que l'<em>AI Act</em>, a un énorme trou que sont les applications dans le domaine du militaire et de la défense où, là, on peut faire absolument ce qu'on veut et c'est probablement quelque chose qui va poser question parce qu’aux États-Unis et en Chine il est évident que dans le domaine du militaire il n’est absolument pas prévu de restreindre quoi que ce soit.
 +
 
 +
<b>Delphine Sabattier : </b>Chantal, une réaction là-dessus, justement sur le régalien. On peut faire tout et n'importe quoi ? Tout ce qu'on veut ?
 +
 
 +
<b>Chantal Genermont : </b>Je ne dirais pas exactement ça, je dirais même l'inverse. C'est précisément parce que c'est régalien, parce que c'est du domaine de la défense et de la sécurité nationale que ça doit être traité par ceux qui maîtrisent et qui supervisent ces domaines. Et précisément, ce qui ouvre beaucoup de débats dans l’<em>AI Act</em> et dans d'autres qui viendront certainement et qui seront impliqués ensuite, il y a un besoin de transparence. Tout réside, effectivement, dans la transparence des modèles des bases de données utilisées pour faire travailler les algos. On peut toujours parler du tiers de confiance, il n'en reste pas moins que le sujet central, en tout cas pour l’<em>AI Act</em> , c'est la transparence des bases de données utilisées par les algos.
 +
 
 +
<b>Delphine Sabattier : </b>Après, il y a quand même des exceptions qui sont prévues dans les textes. Ce qui touche au régalien reste la compétence nationale.
 +
 
 +
<b>Bernard Benhamou : </b>C'est une règle européenne.
 +
 
 +
<b>Delphine Sabattier : </b>J'ai l'impression que Madame la sénatrice voulait réagir.
 +
 
 +
<b>Catherine Morin-Desailly : </b>La question de la transparence est fondamentale et c'est bien là-dessus qu'il y a eu des débats importants dans le cadre du trilogue. Certains, au prétexte de l’innovation, je vous l’ai dit, ne souhaitant pas forcément qu’il y ait ces obligations de transparence ; en fait, c'est aussi tout le lobbying, il faut bien le dire, des <em>Big Tech</em> qui opposent toujours le secret des affaires pour justifier de ne pas donner, en quelque sorte, la recette de leurs algorithmes qui font fonctionner l'intelligence artificielle.<br/>
 +
On a besoin de construire une IA de confiance. C'est donc comme pour le DSA, c'est comme pour les applications. Il est important que ça ne soit pas des boîtes noires et qu'on puisse vérifier aussi les effets potentiellement extrêmement dangereux ou néfastes. C'est important de la garantir.
 +
 
 +
<b>Delphine Sabattier : </b>Je voulais aussi vous faire réagir sur ce qu'a dit le député Philippe Pradal qui est corapporteur de la mission sur l'IA générative à l'Assemblée nationale. Il s'est inquiété de notre acceptabilité d'IA qui serait, finalement, trop lisse, trop responsable. Est-ce que les Européens risquent d'avoir des technologies différentes de celles qu'auront les Américains, les Chinois et des technologies plus fades, finalement, parce que plus contraintes ?
 +
 
 +
<b>Bernard Benhamou : </b>Si elles ne ressemblent pas aux technologies que nous prépare Elon Musk, quelque part on ne pourrait que s'en réjouir. C'est-à-dire que, par définition, la vision américaine qui est d'opposer la vision entre guillemets « californienne », qu’Elon Musk appellerait wokiste, avec effectivement la vision libertarienne de certains, dont lui, mais pas que. Quelque part, je pense que ce sont ces dérives idéologiques, ces dérives par absence, justement, de responsabilisation des plateformes et des acteurs qui ont mené, je dirais, au risque que nous vivons aujourd'hui sur les réseaux sociaux avec, effectivement, une véritable dérive anti-démocratique et qui remet en cause les fondamentaux démocratiques. Je rappellerais que l'invasion du Capitole a été organisée avec des groupes, dont QAnon, qui étaient largement structurés grâce à Facebook et grâce à ses algorithmes de ciblage, de micro-ciblage, de micro-targetting.<br/>
 +
Donc dire : est-ce que l'Europe ne va pas créer une IA qui sera plus fade ? Je dirais que, par définition, le principe d'une démocratie est un processus lent, est un processus qui n'est pas passionnant au jour le jour, mais qui représente des principes et des valeurs. Si on s'échappe vers des IA qui seraient effectivement marquées politiquement, qui seraient capables d'orienter le discours – Yuval Harari, historien dans ces domaines, dit « l'IA pourrait hacker le logiciel culturel de nos sociétés » –, est-ce que c'est souhaitable ? Est-ce que nous souhaitons ce risque-là de quelques acteurs ? Moi je ne pense pas à une IA <em>Terminator</em> qui, effectivement, dominerait les humains. Non ! Je pense à des groupes de personnes qui utiliseraient ces IA, dont les Chinois et les Russes en particulier – dans la période ce n'est pas neutre –, qui pourraient effectivement, et qui le font déjà, influencer durablement le débat de l'opinion publique et le faire à leur profit. Si c'est ça s'opposer et si c'est ça s'opposer effectivement aux dérives américaines ou chinoises dans ces domaines, nous en serons ravis
 +
 
 +
<b>Delphine Sabattier : </b>En fait, ça nous remet en plein dans la confrontation sur notre vision de ce qu'est la liberté d'expression qui est très différente en Europe et aux États-Unis.<br/>
 +
Tariq Krim.
 +
 
 +
<b>Tariq Krim : </b>Je voulais juste rebondir sur l'affaire QAnon. C'est justement l'exemple parfait. On a reproché à Facebook de mettre en avant les news, les magazines et les sites web dont certains, une grande partie faut-il le dire, étaient des <em>fake news</em>, donc, ils ont changé leur algorithme pour focaliser Facebook autour des cercles familiaux. Et là on a eu l'explosion de QAnon.<br/>
 +
En fait, on a toujours cette tendance, je pense que c'est le problème du régulateur et c'est pour cela que je pense que toutes ces lois sont, d'une certaine manière, totalement à côté de la plaque, on peut le dire !
 +
 
 +
<b>Bernard Benhamou : </b>Ah non !
 +
 
 +
<b>Tariq Krim : </b>Elles imaginent le résultat : voilà ce que l'on veut.
 +
 
 +
<b>Delphine Sabattier : </b>C'est-à-dire la théorie, finalement, un résultat théorique.
 +
 
 +
<b>Tariq Krim : </b>C'est le résultat que l'on souhaite et c'est un résultat que tout le monde souhaite. Le problème c'est que pour mettre en œuvre le résultat que l'on souhaite, on oublie deux paramètres : le premier c'est la taille, c'est-à-dire que ces plateformes sont gigantesques, donc, <em>de facto</em>, on n'arrive pas à avoir ce que l'on souhaite ; même pas pour elles-mêmes les plateformes ne sont pas capables de le faire. La deuxième chose, c'est qu'il faut rappeler, encore une fois, qu’on a tendance à anthropomorphiser l’IA, c'est-à-dire à considérer que c'est comme un cerveau humain : si on lui donne telle donnée il va apparaître cela. La réalité, et je le répète encore une fois, s’il y a une chose à comprendre sur l'IA générative c'est qu'on ne sait absolument pas pourquoi les résultats arrivent de cette manière. Si on pose des questions à Grok, la fameuse IA d'Elon Musk, d'une certaine manière, il va répondre de manière très douce ; si on prend ChatGPT, Mistral ou Llama, qu’on leur parle d'une certaine manière, on va avoir des réponses très dures voire inacceptables.<br/>
 +
En fait, on a un vrai sujet : on essaye de réglementer quelque chose qu'on ne comprend pas et le débat qui est posé par les <em<Big Tech</em> et je terminerai là-dessus, c'est pourquoi OpenAI et pourquoi Google disent « régulez-nous ! » ? En fait, eux ont envie que les gros acteurs, c'est-à-dire OpenAI, Google, Microsoft, dominent le monde de l'IA et les IA <em>open source</em>, qui sont effectivement des briques de base, ou Mistral, qui ne sont pas totalement contrôlées mais qui peuvent l'être dès lors que l'on construit une plateforme autonome. Il ne faut pas oublier que ChatGPT n’est pas une IA, c'est une cinquantaine de programmes qui tournent ensemble pour construire un produit qui est utilisable par le consommateur. Ils veulent absolument qu’aucune autre personne ne puisse faire la même chose et c'est pour cela qu'ils font le tour des capitales en disant « régulez-nous ».<br/>
 +
Il y a donc à la fois une problématique d'innovation, une problématique de souveraineté aussi : si tel pays ou telle entité a un LLM, doit-on en avoir un ? Après, il y a la question de construire d’autres choses.<br/>
 +
Il y a quand même pas mal de choses qu'on ne maîtrise pas encore et que la loi nous obligerait à maîtriser. C'est là où, pour répondre à la question de l'innovation, je pense qu'on est encore dans une phase où tout n’est pas très clair.
 +
 
 +
<b>Delphine Sabattier : </b>On a justement une question de Jean-Paul Smets que je voulais vous faire écouter, Catherine Morin-Desailly. Elle s'adresse à vous en tant que décideur public, responsable politique. On l'écoute tout de suite.
 +
 
 +
<b>Jean-Paul Smets, voix off : </b>Bonjour. Je suis Jean-Paul Smets, créateur du <em>cloud</em> résilient Rapid Space.<br/>
 +
Madame la sénatrice, le projet de loi visant à sécuriser et à réguler l'espace numérique, au travers de son article 9, donne à l'État le pouvoir d'imposer des normes et d'exclure ainsi 80 % des offres européennes de logiciel libre de <em>cloud</em>, n imposant, par exemple, la norme de Microsoft plutôt que celle d’OnlyOffice, ou en imposant la norme de la <em>Linux Foundation</em> plutôt que celle du fonds de dotation du Libre.<br/>
 +
Les sénateurs et députés ont été largement alertés sur l'énorme incertitude juridique que crée cet article. Les sénateurs ont cependant voté à l'unanimité cette disposition de nature à détruire l'industrie européenne des logiciels libres de em>cloud</em>, pourtant essentielle à notre autonomie stratégique. Les députés les ont suivis en rejetant les amendements permettant de limiter ce risque.<br/>
 +
Comment en est-on arrivé là ?
 +
 
 +
<b>Delphine Sabattier : </b>On sort un peu du sujet l’<em>AI Act</em>, mais on reste quand même dans cette question de la réglementation et de l'<em>open source</em>. Avez-vous une réponse, Madame Morin-Desailly, déjà à la question de Jean-Paul Smets et ensuite on continuera à ouvrir le débat sur l'<em>open source</em> de manière générale.
 +
 
 +
==25’ 05==
 +
 
 +
<b>Catherine Morin-Desailly : </b>La question de monsieur Smets

Version du 4 janvier 2024 à 19:34


Titre : AI Act : peut-on se réjouir de l’accord politique européen sur l'IA ? Débat avec la sénatrice Catherine Morin-Desailly

Intervenant·e·s : Catherine Morin-Desailly - Chantal Genermont - Tariq Krim - Bernard Benhamou - Delphine Sabattier

Lieu : Podcast Politiques Numériques alias POL/N

Date : 29 décembre 2023

Durée : 38 min

Podcast

Présentation du podcast

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Corrections envoyées par Delphine Sabattier reportées par MO

Transcription

Delphine Sabattier : Vous écoutez Politiques numériques, alias POL/N, une série inédite de débats et d'interviews politiques sur les enjeux de l'ère technologique.
Je suis Delphine Sabattier et je reçois ici des décideurs publics et des experts de ce nouveau terrain de jeu réglementaire, législatif et politique que constitue ce monde des plateformes.
Pour cet épisode, mes invités sont la sénatrice Catherine Morin-Desailly et quelques experts. Je vous les présente : Bernard Benhamou, Institut de la souveraineté numérique, Tariq Krim de Cybernetica et Chantal Genermont qui a occupé plusieurs postes dans la tech et la data et est aujourd'hui la directrice générale de Chapsvision CyberGov, une entreprise de la data dans le domaine régalien, n'est-ce pas Chantal ?

Chantal Genermont : Absolument.

Delphine Sabattier : Bonjour à tous. Bienvenue dans cette émission. C'est le deuxième épisode. Très heureuse de vous recevoir Madame Catherine Morin-Desailly, vous êtes très impliquée sur ces questions du numérique et j'avais envie de vous entendre en particulier autour de l’AI Act, c'est vraiment notre sujet de débat. Aujourd'hui, êtes-vous satisfaite de cet accord politique ?

Catherine Morin-Desailly : Oui. Après maints rebondissements, on peut dire qu'on a atterri plutôt bien à l'issue du trilogue. Bien sûr, le texte doit être finalisé ces jours-ci, il y a encore quelques réunions techniques, mais il est représentatif de l'équilibre, en tout cas voulu par le Sénat, voulu aussi par le Parlement européen entre encouragements, soutiens à l’innovation pour faire en sorte que nous ayons une filière de l'IA dynamique et de premier plan et, en même temps, tout cela conforme à nos fondamentaux européens, le respect de nos libertés publiques. Aujourd'hui, on arrive à ce texte après quelques rebondissements puisque vous savez que le Conseil, qui est la représentation des gouvernements en Europe, avait émis un avis beaucoup plus déséquilibré, en quelque sorte, dans le cours des discussions et avait levé les obligations de transparence qui sont très importantes et qui, soi-disant, auraient bridé l'innovation. On arrive enfin, je pense, à quelque chose d'équilibré. Attendons de voir dans les jours que ce soit confirmé.

Delphine Sabattier : Quand vous nous dites « soi-disant », c'est-à-dire que vous considérez que peut-être on aurait eu tendance à laisser de côté l'intérêt général ?

Catherine Morin-Desailly : Oui. L'objectif de la Commission européenne était bien de construire une intelligence artificielle de confiance. Donc, à la fois prendre en compte une numérisation conforme aux valeurs européennes et, en même temps, soutenir l'innovation et le développement de cette filière extrêmement prometteuse et stratégique. Certains, au prétexte de l'innovation, mais c'était déjà le cas au début des années 2000 quand on a construit la législation, la fameuse directive e-commerce, déjà, au prétexte de l'innovation, on n'a pas mis en place les garde-fous, les mécanismes qui construisent un Internet de confiance. Donc, là, il ne faut pas louper, en quelque sorte, faire en sorte que nous soyons comme un étalon d'or, une référence au niveau mondial, comme nous l'avons été pour le RGPD. Donc le trilogue, après maintes discussions entre le Parlement européen qui avait une vision très équilibrée, le Sénat qui a soutenu le Parlement européen et qui a aussi enrichi la proposition, le Conseil européen et la Commission, aboutit, je pense, à un accord, me semble-t-il, satisfaisant.

Delphine Sabattier : Est-ce que c'est la même opinion autour de la table ? Est-ce qu'on est satisfait de cet accord politique qui a été trouvé ? Est-ce qu’on régule peut-être un peu tôt comme peuvent le penser certains ? Bernard Benhamou.

Bernard Benhamou  : Je pense qu'à l'heure actuelle l'essentiel est de ne pas refaire l'erreur qui a été faite, en gros, il y a 20 ans, ce que rappelait Madame la sénatrice, c'est-à-dire ne pas vouloir réguler, ne pas faire porter de responsabilité particulière sur les plateformes de manière, effectivement, à leur laisser le champ économique et la possibilité de se développer. On a vu ce à quoi ça a mené. Ça a mené effectivement au scandale Cambridge Analytica. Puisque Madame la sénatrice rappelait le rôle central du RGPD, des règles européennes sur les données, on peut dire qu'il n'y aurait sans doute pas eu de scandale Cambridge Analytica si les Américains s'étaient dotés d'une loi fédérale sur la protection des données. On voit donc bien que ne pas le faire sur l'IA aujourd’hui serait prendre le risque, effectivement, de dérives tout aussi importantes, voire pires, en matière de désinformation, en matière de contrôle politique des opinions publiques et c'est déjà en train de se tenir et on voit bien déjà l'impact que ça dans les campagnes en cours. On a, je le rappelle, deux milliards de personnes qui vont aller aux urnes dans le monde dans l'année qui vient, dans les 12 mois qui viennent, donc on voit bien à quel point c'est important. Je pense que l'erreur qui a été commise, en particulier à l'époque Obama – on n'a pas voulu réguler les Google et autres à l'époque –, ne doit pas se reproduire maintenant parce que, si on le fait, il sera infiniment difficile de revenir en arrière.

Delphine Sabattier : Tariq Krim, est-ce que la régulation, la réglementation, les lois, peuvent éviter des scandales comme Cambridge Analytica ?

Tariq Krim : Ce qui est clair c'est que dans les technologies telles qu'elles existent, c'était le cas des réseaux sociaux et aujourd'hui de l'IA, il y a deux choses.
La première c'est que dans le cadre de l'AI Act, depuis quelques années, il y a toute une idéologie, peut-être même plusieurs idéologies qui se sont mises en place : d'un côté ce qu'on a appelé les effective altruism, ceux qui pensent que l'IA va être source de problèmes immédiats, qu'il faut soit faire des pauses soit, je dirais, changer les modèles. C'est un agenda qui a d'ailleurs, d'une certaine manière, contaminé l'Europe : quand on voit la dernière réunion qui a eu lieu à Londres, c'était cet agenda, effective altruism, qui était vraiment mis en œuvre. Et, de l'autre côté, les techno-optimistes ou les accélérationnistes, ceux qui disent qu'il faut aller très vite.
Le problème qu'on a aujourd'hui, et c'est la deuxième chose, c'est qu’il faut faire une différence entre l'IA générative et l’IA avec les modèles qu'on a connus depuis une quinzaine d'années, dans laquelle clairement on a fait n'importe quoi, on a introduit des modèles dans Facebook. Ce n'est pas tellement la complexité des produits que la taille : quand on a plusieurs milliards de personnes qui peuvent, chacune d'entre elles, dire ce qu'elles veulent et qu'on a un algorithme dont personne ne comprend véritablement le fonctionnement at scale, comme on dit, à l'échelle, on a des choses qui deviennent complètement incompréhensibles et on l'a vu dans de nombreux pays.
D'une certaine manière, ce qu'a fait Cambridge Analytica ou ce qu'ont fait les Russes, ce qu'ont fait, d'ailleurs, tous les pays du monde c'est exploiter ces failles, c'est exploiter le fait que, parfois, on comprend des choses que même Facebook ne comprend pas et on les utilise.
Dans le cas de l'IA, à mon avis, ce qui me semble une erreur, c'est qu’on parle d'IA générative comme si on parlait de l’IA des cinq/dix dernières années, ce qu'on appelle le deep learning où, effectivement, la machine apprend ce qu’on lui montre, elle apprend toute seule, c'est ça la nouveauté, avant on lui expliquait comment le faire, maintenant elle apprend toute seule. Effectivement, quand elle apprend mal ou quand c'est mal cadré, ça pose des problèmes. Mais, dans le cas de l'IA générative, pour moi c'est une technologie extra-terrestre : elle est arrivée. On l'utilise et on n'est toujours pas capable... Je discute avec les ingénieurs de Mistral, mais aussi ??? [7 min 50] qui est maintenant chez OpenAI, tous les gens qui travaillent sur des LLM, personne ne comprend vraiment comment ce produit fonctionne.

Delphine Sabattier : Moi aussi. Chez Microsoft, en l'occurrence, on me dit qu’il y a eu des surprises au moment où ces IA génératives ont sorti des résultats hyper-pertinents, par exemple sur la traduction, c'était une surprise, sur leur capacité à comprendre l'ironie, elles n'avaient pas été entraînées pour ça, c'est une surprise. Ça pose la question : est-ce qu'on est pas justement, en train de réguler trop tôt, Chantal Genermont ?

Chantal Genermont : Je pense que c'est déjà très positif sur la question de l'opportunité, très positif de montrer qu'on est capable en Europe, au niveau européen, d'arriver à un texte. Ça montre une convergence, c'est déjà un très grand point sur un sujet aussi pointu.
Trop tôt je ne crois pas, au contraire, je trouve que le timing est parfait, puisqu’on a bien vu qu’aux États-Unis l'administration Biden a sorti l'<em<Executive Order il y a deux mois, en octobre, avec une position assez différente sur des guidelines ???, des standards par secteur plutôt que transverses, donc on est quand même sur ce sujet-là. On arrive dans les temps, on n'est pas trop en retard, mais on n’est pas trop en avance. On a vu aussi, au Royaume-uni, encore un autre sujet de débat sur l'IA.
En étant si nombreux, arriver à s'aligner sur un sujet aussi pointu aussi rapidement, à quelques mois des US et de l’UK, je pense, au contraire, qu’on est très clairement dans les temps. Je pense que beaucoup de l'implémentation, de la mise en œuvre de ces réglementations, en tout cas, de ces guidelines va arriver en 2024.

Delphine Sabattier : Vous qui travaillez dans une entreprise la data, vous ne voyez pas ces textes comme des empêcheurs d'innover ?

Chantal Genermont : Au contraire, je trouve que ça permet d'encadrer et de permettre à ceux qui font, en l'occurrence nos ingénieurs, d’avoir à peu près une sorte de garde-fous même dans leur imagination, même dans leur quotidien . Je pense que c'est après, à quel degré et quelles sont les méthodes qu’ils vont encadrer : est-ce qu'on a besoin d'un acteur indépendant, d'une sorte de tiers de confiance pour pouvoir encercler, en tout cas maîtriser tout ce qui peut être propriété intellectuelle des outils. Après, c'est la mise en la mise en œuvre, la mise en place, la façon, le détail dans lequel on rentre. Au contraire, je pense que c'est un garde-fou qui protège même les acteurs de produits.

Delphine Sabattier : Je voulais quand même interroger la sénatrice sur ce point qui est important : finalement, c'est la gouvernance de ce texte, l’AI Act : qui va être aux manettes ? Qui va faire appliquer ? Selon quelles règles ? Comment tout cela va-t-il s'agencer avec le règlement sur la protection des données, le RGPD ? Madame la sénatrice, là on a encore un boulevard de réflexion et de travaux juridiques et politiques.

Catherine Morin-Desailly : Aujourd'hui, il s'agit d'améliorer la gouvernance du règlement afin de garantir sa mise en œuvre uniforme et efficace. Il faut donc donner aux autorités nationales et européennes les moyens de contrôler efficacement cette mise en œuvre.
Je voulais ajouter que c'est important de légiférer maintenant, comme l'a dit Chantal, puisque c'est le troisième volet du triptyque DMA, DSA et IA Act, avec aussi le Data Act qui va arriver en discussion dans le cadre du trilogue. Il faut donc une cohérence entre les trois textes et ça passe par une bonne gouvernance établie tant au niveau européen que déclinée dans les États membres.
Vous savez qu’en France c'est la CNIL qui va être désignée comme autorité compétente pour la surveillance de l'application.

Delphine Sabattier : Ça a été décidé ?

Catherine Morin-Desailly : Oui, c'est en cours de finalisation. C'est ce que nous avions préconisé et puis il faut octroyer aux autorités nationales de contrôle des moyens humains et matériels bien sûr suffisants pour remplir les missions, mais c'est valable de la part de toutes les autorités de contrôle qui, aujourd'hui, comme l'Arcom en France, doivent mettre en œuvre l'application du DSA par exemple. C'est très important.
Il faudra aussi étoffer les missions du Comité européen de l'intelligence artificielle, qui va donc associer les différentes autorités de régulation de chacun des États membres. Bien entendu nous avons préconisé que, dans ce comité, on inclut absolument des scientifiques et des praticiens de l'IA, pas que des fonctionnaires de Bruxelles qui, forcément, auraient une vision strictement technique ou juridique. Il faut aussi que les compétences consultatives du comité soient élargies parce qu’il aura besoin d'être associé étroitement aux modifications apportées au règlement ultérieurement à son adoption.
Il y a toute une série de débats qui vont devoir être établis par la suite.
Je souhaite aussi que le Comité européen ait un droit d'initiative qui lui permette de formuler des avis et aussi des recommandations sans saisine préalable de la Commission.
C'est donc un travail de fond qui nous attend.

Delphine Sabattier : Avec la perspective, finalement, d'application plutôt autour de 2027.
Tariq Krim, sur ce sujet de toutes ces réglementations, toutes ces nouvelles régulations, parce qu'il y a aussi de nombreux textes au niveau international pour traiter ce sujet de l'intelligence artificielle, est-ce qu'on ne risque pas de freiner l'innovation en l'occurrence en Europe ?

13’ 23

Tariq Krim : C'est vrai que c'est une question. L'un des problèmes que l’on a avec en général la Commission c'est que l'ensemble des règlements et des régulations qu'elle met en œuvre sont plutôt destinés aux très gros acteurs. Et aujourd'hui, c'est vrai que les très gros acteurs dans le monde du numérique, qu’on appelle les GAFAM, on parle maintenant des Sept Magnifiques, eux seront prêts. Les PME, les startups, probablement moins.
Il y a un autre sujet. Je pense qu’à travers l'AI Act on essaye beaucoup de déborder sur d'autres sujets. À chaque fois qu'on parle d'IA, en fait on parle de réseaux sociaux, de questions de données, de stockage de données. Autant sur l’IA je suis très circonspect sur les méthodes, parce que, peut-on réguler ce qu'on ne comprend pas ? C'est toujours pareil.

Delphine Sabattier : Qu’on ne comprend pas et qu'on ne connaît pas encore parce que ça va très vite !

Tariq Krim : Sans oublier que l’IA est un monde non déterministe, c'est-à-dire que vous ne pouvez pas prédire le résultat. C'est d'ailleurs pour ça que c'est de l'intelligence artificielle, c’est qu’elle est capable de traiter des  ??? [14 min 35]

Delphine Sabattier : Est-ce qu’il faudrait une approche plus pragmatique ? Mettre à l'épreuve ces modèles de langage ?

Tariq Krim : J’aime bien ce qu'a fait ce que fait Biden, il est en charge du Gouvernement fédéral et il l'a dit « voilà comment le Gouvernement fédéral va utiliser les choses, comment ça va se faire, voilà les réglementations. » Ce qui est un peu gênant parfois, on l’a vu avec le RGPD, s’il n’y avait pas eu Max Schrems pour attaquer tous les gens qui sont en contre contrefaçon et qui ne le respectent pas, ce ne sont pas les gouvernements, et surtout pas le Gouvernement français, en ce moment, qui avanceraient dans ce domaine. On a plutôt tendance à essayer de trouver toutes les astuces pour héberger soit les données de santé chez Microsoft soit les donner à la DGSI, Palantir, etc. On a donc une forme d'incohérence, c’est-à-dire que tant que le Gouvernement, les gouvernements, parce qu'on est au niveau européen, ne disent pas « voilà comment on va appliquer les choses et comment on va appliquer les choses qu'on a déjà votées... »

Delphine Sabattier : Oui, parce qu'aujourd'hui le RGPD pourrait déjà permettre certaines actions sur ces modèles de langage.

Tariq Krim : Absolument. Et le DMA, DSA, qui sont des règlements qui s'appliquent, peuvent également régler un nombre de problèmes. Sur l’IA se pose après la question de la recherche et il ne faut pas oublier que l'AI Act, a un énorme trou que sont les applications dans le domaine du militaire et de la défense où, là, on peut faire absolument ce qu'on veut et c'est probablement quelque chose qui va poser question parce qu’aux États-Unis et en Chine il est évident que dans le domaine du militaire il n’est absolument pas prévu de restreindre quoi que ce soit.

Delphine Sabattier : Chantal, une réaction là-dessus, justement sur le régalien. On peut faire tout et n'importe quoi ? Tout ce qu'on veut ?

Chantal Genermont : Je ne dirais pas exactement ça, je dirais même l'inverse. C'est précisément parce que c'est régalien, parce que c'est du domaine de la défense et de la sécurité nationale que ça doit être traité par ceux qui maîtrisent et qui supervisent ces domaines. Et précisément, ce qui ouvre beaucoup de débats dans l’AI Act et dans d'autres qui viendront certainement et qui seront impliqués ensuite, il y a un besoin de transparence. Tout réside, effectivement, dans la transparence des modèles des bases de données utilisées pour faire travailler les algos. On peut toujours parler du tiers de confiance, il n'en reste pas moins que le sujet central, en tout cas pour l’AI Act , c'est la transparence des bases de données utilisées par les algos.

Delphine Sabattier : Après, il y a quand même des exceptions qui sont prévues dans les textes. Ce qui touche au régalien reste la compétence nationale.

Bernard Benhamou : C'est une règle européenne.

Delphine Sabattier : J'ai l'impression que Madame la sénatrice voulait réagir.

Catherine Morin-Desailly : La question de la transparence est fondamentale et c'est bien là-dessus qu'il y a eu des débats importants dans le cadre du trilogue. Certains, au prétexte de l’innovation, je vous l’ai dit, ne souhaitant pas forcément qu’il y ait ces obligations de transparence ; en fait, c'est aussi tout le lobbying, il faut bien le dire, des Big Tech qui opposent toujours le secret des affaires pour justifier de ne pas donner, en quelque sorte, la recette de leurs algorithmes qui font fonctionner l'intelligence artificielle.
On a besoin de construire une IA de confiance. C'est donc comme pour le DSA, c'est comme pour les applications. Il est important que ça ne soit pas des boîtes noires et qu'on puisse vérifier aussi les effets potentiellement extrêmement dangereux ou néfastes. C'est important de la garantir.

Delphine Sabattier : Je voulais aussi vous faire réagir sur ce qu'a dit le député Philippe Pradal qui est corapporteur de la mission sur l'IA générative à l'Assemblée nationale. Il s'est inquiété de notre acceptabilité d'IA qui serait, finalement, trop lisse, trop responsable. Est-ce que les Européens risquent d'avoir des technologies différentes de celles qu'auront les Américains, les Chinois et des technologies plus fades, finalement, parce que plus contraintes ?

Bernard Benhamou : Si elles ne ressemblent pas aux technologies que nous prépare Elon Musk, quelque part on ne pourrait que s'en réjouir. C'est-à-dire que, par définition, la vision américaine qui est d'opposer la vision entre guillemets « californienne », qu’Elon Musk appellerait wokiste, avec effectivement la vision libertarienne de certains, dont lui, mais pas que. Quelque part, je pense que ce sont ces dérives idéologiques, ces dérives par absence, justement, de responsabilisation des plateformes et des acteurs qui ont mené, je dirais, au risque que nous vivons aujourd'hui sur les réseaux sociaux avec, effectivement, une véritable dérive anti-démocratique et qui remet en cause les fondamentaux démocratiques. Je rappellerais que l'invasion du Capitole a été organisée avec des groupes, dont QAnon, qui étaient largement structurés grâce à Facebook et grâce à ses algorithmes de ciblage, de micro-ciblage, de micro-targetting.
Donc dire : est-ce que l'Europe ne va pas créer une IA qui sera plus fade ? Je dirais que, par définition, le principe d'une démocratie est un processus lent, est un processus qui n'est pas passionnant au jour le jour, mais qui représente des principes et des valeurs. Si on s'échappe vers des IA qui seraient effectivement marquées politiquement, qui seraient capables d'orienter le discours – Yuval Harari, historien dans ces domaines, dit « l'IA pourrait hacker le logiciel culturel de nos sociétés » –, est-ce que c'est souhaitable ? Est-ce que nous souhaitons ce risque-là de quelques acteurs ? Moi je ne pense pas à une IA Terminator qui, effectivement, dominerait les humains. Non ! Je pense à des groupes de personnes qui utiliseraient ces IA, dont les Chinois et les Russes en particulier – dans la période ce n'est pas neutre –, qui pourraient effectivement, et qui le font déjà, influencer durablement le débat de l'opinion publique et le faire à leur profit. Si c'est ça s'opposer et si c'est ça s'opposer effectivement aux dérives américaines ou chinoises dans ces domaines, nous en serons ravis

Delphine Sabattier : En fait, ça nous remet en plein dans la confrontation sur notre vision de ce qu'est la liberté d'expression qui est très différente en Europe et aux États-Unis.
Tariq Krim.

Tariq Krim : Je voulais juste rebondir sur l'affaire QAnon. C'est justement l'exemple parfait. On a reproché à Facebook de mettre en avant les news, les magazines et les sites web dont certains, une grande partie faut-il le dire, étaient des fake news, donc, ils ont changé leur algorithme pour focaliser Facebook autour des cercles familiaux. Et là on a eu l'explosion de QAnon.
En fait, on a toujours cette tendance, je pense que c'est le problème du régulateur et c'est pour cela que je pense que toutes ces lois sont, d'une certaine manière, totalement à côté de la plaque, on peut le dire !

Bernard Benhamou : Ah non !

Tariq Krim : Elles imaginent le résultat : voilà ce que l'on veut.

Delphine Sabattier : C'est-à-dire la théorie, finalement, un résultat théorique.

Tariq Krim : C'est le résultat que l'on souhaite et c'est un résultat que tout le monde souhaite. Le problème c'est que pour mettre en œuvre le résultat que l'on souhaite, on oublie deux paramètres : le premier c'est la taille, c'est-à-dire que ces plateformes sont gigantesques, donc, de facto, on n'arrive pas à avoir ce que l'on souhaite ; même pas pour elles-mêmes les plateformes ne sont pas capables de le faire. La deuxième chose, c'est qu'il faut rappeler, encore une fois, qu’on a tendance à anthropomorphiser l’IA, c'est-à-dire à considérer que c'est comme un cerveau humain : si on lui donne telle donnée il va apparaître cela. La réalité, et je le répète encore une fois, s’il y a une chose à comprendre sur l'IA générative c'est qu'on ne sait absolument pas pourquoi les résultats arrivent de cette manière. Si on pose des questions à Grok, la fameuse IA d'Elon Musk, d'une certaine manière, il va répondre de manière très douce ; si on prend ChatGPT, Mistral ou Llama, qu’on leur parle d'une certaine manière, on va avoir des réponses très dures voire inacceptables.
En fait, on a un vrai sujet : on essaye de réglementer quelque chose qu'on ne comprend pas et le débat qui est posé par les <em<Big Tech et je terminerai là-dessus, c'est pourquoi OpenAI et pourquoi Google disent « régulez-nous ! » ? En fait, eux ont envie que les gros acteurs, c'est-à-dire OpenAI, Google, Microsoft, dominent le monde de l'IA et les IA open source, qui sont effectivement des briques de base, ou Mistral, qui ne sont pas totalement contrôlées mais qui peuvent l'être dès lors que l'on construit une plateforme autonome. Il ne faut pas oublier que ChatGPT n’est pas une IA, c'est une cinquantaine de programmes qui tournent ensemble pour construire un produit qui est utilisable par le consommateur. Ils veulent absolument qu’aucune autre personne ne puisse faire la même chose et c'est pour cela qu'ils font le tour des capitales en disant « régulez-nous ».
Il y a donc à la fois une problématique d'innovation, une problématique de souveraineté aussi : si tel pays ou telle entité a un LLM, doit-on en avoir un ? Après, il y a la question de construire d’autres choses.
Il y a quand même pas mal de choses qu'on ne maîtrise pas encore et que la loi nous obligerait à maîtriser. C'est là où, pour répondre à la question de l'innovation, je pense qu'on est encore dans une phase où tout n’est pas très clair.

Delphine Sabattier : On a justement une question de Jean-Paul Smets que je voulais vous faire écouter, Catherine Morin-Desailly. Elle s'adresse à vous en tant que décideur public, responsable politique. On l'écoute tout de suite.

Jean-Paul Smets, voix off : Bonjour. Je suis Jean-Paul Smets, créateur du cloud résilient Rapid Space.
Madame la sénatrice, le projet de loi visant à sécuriser et à réguler l'espace numérique, au travers de son article 9, donne à l'État le pouvoir d'imposer des normes et d'exclure ainsi 80 % des offres européennes de logiciel libre de cloud, n imposant, par exemple, la norme de Microsoft plutôt que celle d’OnlyOffice, ou en imposant la norme de la Linux Foundation plutôt que celle du fonds de dotation du Libre.
Les sénateurs et députés ont été largement alertés sur l'énorme incertitude juridique que crée cet article. Les sénateurs ont cependant voté à l'unanimité cette disposition de nature à détruire l'industrie européenne des logiciels libres de em>cloud, pourtant essentielle à notre autonomie stratégique. Les députés les ont suivis en rejetant les amendements permettant de limiter ce risque.
Comment en est-on arrivé là ?

Delphine Sabattier : On sort un peu du sujet l’AI Act, mais on reste quand même dans cette question de la réglementation et de l'open source. Avez-vous une réponse, Madame Morin-Desailly, déjà à la question de Jean-Paul Smets et ensuite on continuera à ouvrir le débat sur l'open source de manière générale.

25’ 05

Catherine Morin-Desailly : La question de monsieur Smets