« L’impact des algorithmes sur nos vies » : différence entre les versions

De April MediaWiki
Aller à la navigationAller à la recherche
Ligne 88 : Ligne 88 :
==22’ 35==
==22’ 35==


<b>Hélène Jeannin : </b>Bonjour à tous.
<b>Hélène Jeannin : </b>Bonjour à tous. Merci pour cette possibilité d'intervention. Je vous prie de m'excuser pour le retard, j'ai eu quelques difficultés de connexion, mais me voici.<br/>
Je vais vous parler des questions de surveillance au sein des États, des pays, la surveillance par l'État qui se généralise, c'est le sujet dans mon article. C'est un sujet de recherche assez nouveau parce que le thème, en lui-même, est nouveau. Il existait déjà des outils permettant de la surveillance, la question de la surveillance, en soi, n'est pas une question nouvelle, elle a déjà été traitée depuis plusieurs décennies. Mais, avec l'intelligence artificielle, on constate un accroissement des technologies de surveillance dans les pays qui dépasse les prévisions des experts. Ils ne pensaient pas que ça allait augmenter de façon aussi rapide, avec de nombreuses modalités techniques qui viennent se rajouter à ce qui existait déjà, qui étaient, jusque-là, le fait de l'économie numérique, interconnectées. Maintenant on voit apparaître des plateformes de villes intelligentes, des systèmes de drones fonctionnant par l'intelligence artificielle, des systèmes biométriques avec tout un ensemble de bases de données qui sont interconnectées et gérées par des systèmes d’IA ou des briques d'intelligence artificielle.
 
Je me suis basée sur ça pour commencer un peu une tentative de cartographie en fait de l'existant, sur un rapport de Carnegie Endowmen qui, lui-même, a travaillé à partir de sources de données ouvertes. Les données que j'ai citées, notamment le fait qu'il y a 75 pays sur 176 étudiés qui utiliseraient des technologies de surveillance à base d'IA, sont extraites de ce rapport, étant entendu qu’ il est parfois assez difficile d'avoir des informations sur ce sujet parce que les pays ne le disent pas forcément, parce que les entreprises qui vendent des technologies d'IA soit veulent se valoriser ou, au contraire, veulent cacher certaines choses. Il y a donc toujours un potentiel de biais ou un potentiel d'omission ou, au contraire, d'exagération.
 
Toujours est-il que lorsqu'on regarde les grands acteurs de la surveillance dans le monde, ce qu’on sait et ce qui frappe aux yeux c'est la Chine. La Chine est considérée comme le moteur de la surveillance, d'une part parce qu’elle a des fabricants, notamment Huawei qui est le premier fabricant des technologies de surveillance par l'IA loin devant les autres, les autres étant notamment, par exemple, NEC, le Japonais, ou des sociétés comme Cisco, IBM, Palantir aux États-Unis. La Chine a développé un système de reconnaissance faciale, ce qu'on a appelé le crédit social, ce système qui fonctionne à base de bâtons et de carottes, qui vise à attribuer des bonus ou des malus aux citoyens selon les actes qu'ils effectuent dans la vie quotidienne, qui peuvent être considérés comme étant louables ou, au contraire, répréhensibles, ce qui permet, en fait, de classer, en quelque sorte, les citoyens en bons, mauvais ou citoyens corrects à partir de des actes de la vie quotidienne. La reconnaissance faciale va être utilisée de plus en plus pour effectuer des paiements, pour tracer les activités des gens : traversent-ils bien dans les passages cloutés, traversent-ils bien au vert ? Toutes sortes de choses qui sont notées en fonction de critères établis dans une base de données, cette base de données étant elle-même constituée de données qui peuvent être disparates, puisqu'elles peuvent provenir à la fois d'institutions, d'organismes publics ou privés, et il existe une véritable collusion entre les deux qui permet, en fait, l'interconnexion, le partage et l'échange de ces données.
 
En dehors de ces facteurs, la Chine a une politique d'expansion de ses technologies de surveillance, politique menée notamment depuis 2013 avec sa politique de la soie, la route de la soie, prolongée en 2017 parce ce qu'elle a appelé, je traduis en français, « Initiative Ceinture et Route », qui se traduit aussi par des subventions avec des prêts à taux réduit envers certains pays, par exemple le Kenya, le Laos, la Mongolie, l’Ouganda, l’Ouzbékistan, qui va faire en sorte que ce type de technologie va pouvoir devenir accessible à certains pays alors qu’elle ne le serait pas sans ça.
 
Ce qui permet aussi le développement de ces technologies de surveillance, c’est le développement urbain à l'échelle planétaire, puisqu’il y a une concentration de la population dans les villes : la démographie, au niveau planétaire, va se concentrer dans les villes, même s'il y a des villes qui rétrécissent, mais la majorité c'est l'urbanisation croissante. Le modèle de la <em>smart city</em>, un terme qui recouvre des réalités bien différentes selon les villes en elle-mêmes, mais, dans l'objectif un peu techno-centré qui prévaut, c'est l'idée d'une ville servicielle qui va produire des services automatisés pour les habitants des pays, services qui vont faire l'objet d'une supervision, qui vont pouvoir être gérés en temps réel et fournir des analyses en temps réel.<br/>
Tout cela repose sur le recueil et l'exploitation de données, mais on observe aussi, pour faire face aux violences urbaines, à un glissement sémantique : on parle de moins en moins de <em>smart city</em>, qui était un terme très à la mode il y a quelques années, et de plus en plus de <em>safe city</em>, de ville sûre, de ville sécurisée, qui est basée sur l'observation du comportement des citadins.
 
Certes la Chine est un moteur de ces technologies de surveillance parce qu'elle les utilise en son sein mais aussi parce qu’elle cherche à les disséminer par des systèmes de vente à prix réduit, mais on voit aussi que les démocraties dites libérales – les pays européens, les États-Unis, Israël, le Japon – sont aussi des démocraties qui adoptent les technologies d'IA, voire qui les vendent à des pays qui, parfois, les utilisent à des fins peut-être pas toujours louables.<br/>
Toujours est-il que la surveillance par l’IA se développe dans un certain nombre de pays qui peuvent être autant des autocraties que des démocraties dites libérales, donc le régime politique n'est pas le paramètre qui va permettre de savoir si un pays est susceptible, ou pas, d'adopter ou de développer des technologies en IA. Les études montrent que ce qu’il est important de regarder ce sont les dépenses militaires de chaque pays : plus un pays dépense pour sa sécurité et sa défense, plus il est potentiellement sujet à adopter des technologies de surveillance par l'IA. Une des raisons étant que ce sont des pays qui ont des moyens économiques financiers et technologiques plus importants, mais aussi parce qu’ils estiment devoir faire face à certaines menaces, par exemple, pour l’Europe, ça peut être le terrorisme, ça peut être la surveillance des frontières ; pour d'autres pays ça pourrait être, par exemple, la menace de dissidence en interne, de mouvements activistes ou militants qui pourraient être considérés comme susceptibles de déstabiliser le pouvoir en place. Donc les technologies de surveillance peuvent être adoptées par différents pays, mais être utilisés à des finalités différentes selon le régime politique et selon la visée et la gouvernance. La gouvernance est quelque chose d'absolument crucial notamment pour nos démocraties, y a-t-il un régime de droits de l'homme ? Tout cela peut rentrer en ligne de compte pour savoir comment ces technologies vont être utilisées.
 
À quoi servent- ? Elles servent au contrôle social, c'est-à-dire la société de contrôle qui peut se caractériser par une supervision automatisée, par l'automatisation informatique et qui va permettre, justement, de gérer, de contrôler et de faire un traitement différencié des populations, parce que qui dit surveillance dit segmentation et tri de la population avec ce traitement différencié qui est susceptible d'apparaître.
 
On voit aussi que les technologies de surveillance sont rendues visibles : il y a des caméras de surveillance, il y a des capteurs. Elles ne sont pas toujours invisibilisées, comme c'est le cas, parfois, pour nos technologies numériques où on sait qu'on est tracé quand on fait, par exemple, des recherches sur Internet. Elles sont rendues visibles et l'intérêt de les rendre visibles c'est que ça provoque un auto-ajustement des comportements de la part des citoyens : on connaît le fameux « Souriez vous êtes filmés ». On est pas aussi spontané que cela quand on sait qu'on est surveillé, ça permet donc déjà d'avoir, de façon intrinsèque, une espèce de censure qui peut déjà être le fait des individus en eux-mêmes.
 
On voit de plus en plus d'articles sur le crédit social en Chine, sur ce sujet, mais un autre volet qu'on voit moins c'est le fait que développer des technologies de surveillance par l'IA va aider à stimuler l'innovation, à stimuler la recherche et développement. Les algorithmes d'IA ont déjà beaucoup progressé avec les grandes masses de données, la puissance de calcul, les compétences aussi qui sont venues des ingénieurs, des développeurs, la baisse des coûts de certaines infrastructures, tout cela a pu contribuer à l'essor de l'intelligence artificielle, mais certains pays vont utiliser ça comme un outil de politique industrielle. Je n'en ai pas parlé au sujet de la Chine, mais d'autres pays font de même. Ce qui est déjà utilisé en interne sur les populations va pouvoir, éventuellement, être translaté sur d'autres applications et, comme on sait que les technologies d'intelligence artificielle fonctionnent sur un système d'apprentissage, d'auto-correction, eh bien ces systèmes-là vont pouvoir, éventuellement, être utilisés pour autre chose ou bien à d'autres fins.<br/>
Il y a donc une course à la suprématie en IA qui est engagée dans le monde avec, bien sûr, deux pôles : l'un les États-Unis, l'autre la Chine, Chine qui veut devenir le leader en IA d'ici 2030. Il s'agit pas seulement d'avoir une suprématie technologique, mais cette suprématie technologique se double d'une suprématie géostratégique puisque, de l'IA, vont pouvoir dépendre des systèmes de défense avancée, la 5G, par exemple, fait partie aussi des systèmes de défense sur lesquels des pays comptent pour assurer leur suprématie.
 
Il semblerait, d'après certaines études, qu'on soit à un tournant. On ne sait pas encore comment tout cela va évoluer, dans quel sens, mais quand on fait le match, en quelque sorte, États-Unis/Chine, on voit que les atouts des États-Unis sont, d’un côté, la créativité, l'excellence de certaines institutions ou de ses chercheurs, tandis que la Chine a, de son côté, l'avantage du nombre : nombre de chercheurs, nombre d'entrepreneurs, nombre de données, puisque les expérimentations de crédit social qui ont commencé dès 2014 se sont peu à peu étendues dans tout pays, donc peuvent toucher plus d'un milliard, 1,4 millard d’individus. En fait la Chine, au lieu de faire peut-être de la recherche fondamentale comme le font les États-Unis, fait directement des mises en application avec des processus de réajustement, de correction, qui sont propres à l'intelligence artificielle et qui sont aussi fortement aidés par le contexte qui est la réglementation plus faible en Chine avec une approbation sociale aussi qui est beaucoup plus affirmée en Chine que dans les pays européens ou aux États-Unis où là il y a une plus grande frilosité. Et les consommateurs, en Chine, semblent être beaucoup moins attentifs, beaucoup moins sourcilleux sur le type d'utilisation éventuelle.
 
Au cœur de tout cela c'est la donnée : qui va gérer la donnée ? Qu'est-ce qu'on va en faire ? Le contrôle de la donnée est au cœur de tout cela, du développement de ces systèmes, et au cœur, éventuellement, des inquiétudes puisqu’on voit qu’il y a des délégations de données qui sont faites pour certains systèmes – je crois qu'on parlera des systèmes de santé tout à l'heure – avec la question de la délégation de la donnée par des États à des entreprises étrangères, ce qui fait qu’entreprises et États peuvent potentiellement être en concurrence avec le risque, pour les États, de perdre leur souveraineté ou une part de contrôle. Ils tentent de s'en prémunir en édictant des réglementations, ces réglementations étant, autant que faire se peut, à l'échelle européenne, documents de stratégie en IA et un ensemble de réglementations pour se prémunir des abus éventuels et pour essayer de sauvegarder cette souveraineté.
 
Les données sont beaucoup contrôlées par les acteurs du numérique, pas seulement des acteurs publics mais des acteurs privés, surtout aux États-Unis. C'est notamment grâce aux GAFAM que les États-Unis réussissent à développer leur politique d'intelligence artificielle ; les Américains sont beaucoup plus internationalisés que les BATX chinois. Tout ce qui importe maintenant c'est d'anticiper les risques et les Américains commencent à en prendre conscience puisqu’il y a aussi un mouvement en faveur de l'éthique, un mouvement autour de la question de l'éthique de l'intelligence artificielle, mouvement de l'IA responsable, donc la question de la donnée reste toujours au centre : les données sont-elles de qualité ? Sont-elles justes ? Ne sont-elles pas doubles ou dupliquées, parce qu’il s'agit de prévenir les risques et les mésusages de l'IA et, lorsqu'on parle de questions surveillance, il faut absolument prendre en compte tous ces paramètres. Donc enjeux éthiques autour de la surveillance qui, je pense, ne sont parfois pas suffisamment explicités et pas suffisamment soulevés.
 
<b>Gauthier Fradois : </b>Merci beaucoup pour votre présentation. C'est au tour de Simon Woillet de nous parler des données médicales.
 
==39’ 08==
 
<b>Simon Woillet : </b>Bonjour.

Version du 17 octobre 2023 à 10:57


Titre : L’impact des algorithmes sur nos vies

Intervenant·e·s : Fabrice Flipo - Hélène Jeannin - Matthieu Trubert - Simon Woillet - Gauthier Fradois

Lieu : En ligne - Silo, Fondation Gabriel Péri, Le Vent Se Lève

Date : 22 octobre 2022

Durée : 1 h 23 min 17

Vidéo

Licence de la transcription : Verbatim

Illustration : À prévoir

NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Présentation

De Parcoursup à nos navigations sur le web ou les réseaux sociaux en passant par les rencontres amoureuses et l’achat d’un billet de train, notre vie quotidienne est désormais conditionnée par les algorithmes. Il en va de même dans le travail, dans le management des entreprises et dans celui des salariés, dans l’attribution et le contrôle des prestations sociales, dans la santé ou encore dans la finance. Cette question est souvent considérée comme étant l’apanage de spécialistes, alors qu’elle est en fait très politique et nous concerne toutes et tous. Elle est directement liée à la question du pouvoir qui s’exerce aux différents niveaux. En effet, les algorithmes sont avant tout la traduction de la volonté de quantifier le monde et d’imposer des critères de décision et d’évaluation qui relèvent des partis pris des classes qui dominent la société.

Transcription

Gauthier Fradois : Bonjour à toutes et à tous. Je vais très brièvement introduire cette rencontre avant de laisser la parole aux intervenants et aux intervenantes qui présenteront leur texte en 10/15 minutes, que je remercie chaleureusement d'avoir accepté d'être avec nous ce soir. Suivront 30 minutes de discussion collective et dans ce cadre, si vous souhaitez poser des questions, c'est dans l'onglet QR qu'il faut les poser et on les lira après la présentation des intervenants qui durera une heure.
Cette soirée est coorganisée par la fondation Gabriel Péri et Le Vent Se Lève. Elle est consacrée au dernier numéro de la revue <em<Silomag, qui porte sur le pouvoir algorithmique.
Notion floue, qui plus est grossière pour les non-initiés du code binaire et des mystères de l'informatique, l'algorithme qu'on peut définir comme une série d'instructions pour un ensemble d'opérations mathématiques, relève bien souvent d'un savoir technique peu accessible au commun des mortels. Mais, en s'interrogeant sur les usages sociaux de cette technologie, il est néanmoins possible d'en comprendre quelque chose, à commencer par les enjeux politiques qui sous-tendent son expansion actuelle. C'est le pari qu'on a fait en préparant ce dossier.
Cet intérêt pour la place qu'occupent les algorithmes dans nos vies est partie de la question du travail, de l'immixtion croissante de cette technologie dans le monde du travail, notamment dans le management dont nous parlera Matthieu Trubert, ingénieur chez Microsoft France et coanimateur du collectif numérique UGICT-CGT.
Loin de se cantonner au monde du travail, l'essor des algorithmes participe de la transformation actuelle du capitalisme. À n'en pas douter, le développement du marché de l'informatique, ces 30 dernières années, a radicalement transformé les rapports de production économique, que ce soit par l'automatisation d'un nombre croissant de tâches professionnelles grâce aux systèmes d'intelligence artificielle, que ce soit par le trading haute fréquence ou encore par le changement du modèle logistique de distribution des marchandises, toujours plus interconnectées les unes aux autres.
De nouvelles firmes ont ainsi pu se construire des positions dominantes et parfois quasi monopolistiques, fondées sur une économie de l'information numérique : Amazon,Facebook, Google Alibaba, Tinder, pour citer les plus connues.
On peut poser ici la question des conséquences écologiques de cette croissance numérique dont discutera Fabrice Flipo, philosophe et chercheur au Laboratoire de Changement Social et Politique de l’université Paris-Cité. En effet la rationalisation des ressources, vantée par les promoteurs de la révolution numérique, oblitère l'explosion d'une consommation nouvelle de biens technologiques dont les coûts écologiques sont loin d'être négligeables bien que trop souvent négligés.
Peu de secteurs de l'activité humaine échappent aujourd'hui à la mesure chiffrée, au tri et au traitement des conséquentes bases de données constituées et analysées par des entreprises privées. Celles-ci concurrencent désormais, pour les plus puissantes d'entre elles, les États, dans la production de données biographiques sur les populations. Mais les États ne sont pas en reste dans l'usage des algorithmes grâce aux systèmes d'intelligence artificielle et à une armée de caméras fixes ou mobiles toujours plus nombreuses. Les États surveillent tout autant les comportements qu'ils cherchent à les orienter. C'est cet aspect que présentera plus amplement Hélène Jeannin, sociologue et chercheuse à Orange Innovation.
La surveillance n'est pas que collective, elle peut être également individualisée comme en témoignent les pratiques de data mining au sein des entreprises publiques pour contrôler les allocataires ou les usages récents des algorithmes pour les assurances santé. Simon Woillet, responsable de la rubrique idées du média en ligne Le Vent Se Lève, membre de l’Institut Rousseau et co-auteur avec Audrey Boulard et Eugène Favier de l'ouvrage Le business de nos données médicales, interrogera ainsi les enjeux économiques et politiques de la mise en place de partenariats entre des entreprises privées et l'État, pour le dire vite, afin de stocker et de traiter Les données médicales initialement produites dans le cadre du service public de santé français.
Je n'en dis pas plus, je m'arrête là et je laisse la parole de suite à Matthieu Trubert pour 10/15 minutes de présentation.

Matthieu Trubert : Merci Gauthier. Bonsoir tout le monde.
Il faut revenir rapidement sur l'origine du management algorithmique. Effectivement, depuis même pas quelques années, on en parle de plus en plus, mais c'est à une terminologie qui est assez récente, de 2015, qui coïncide avec l'apparition des plateformes. C’est une fameuse étude d'une université américaine justement sur l'impact de ce management qui est basé sur les données, cet impact sur les travailleurs humains et les pratiques de travail ; c’était dans le contexte d'Uber et de Lift ??? [4 min 37]. Donc apparition conjointe avec les plateformes.
On a un donc concept qui associe ces deux mots de management et d'algorithmes. Ce qui est intéressant c'est que le mot management vient du vieux français « ménager », tenir les rênes d'un cheval. C'est un mot qui a été repris aux États-Unis et qui n'est pas si vieux que ça puisque ça se répand au début des années 50 avec le livre de Peter Drucker sur les pratiques du management, mot qui a posé énormément de problèmes à la traduction. C'est intéressant, je pense, de revenir à cette notion de « celui qui tient les rênes de l'attelage ou du cheval ».
Algorithme est effectivement un très vieux mot, qui date de bien avant l'informatique, qui dérive du nom d'un mathématicien persan du 9e siècle, Al-Khwârizmî, je le prononce très mal je suis désolé. Il y a aussi une étymologie que je trouve intéressante si on la ramène au grec, à la fois algos et aritmos, le calcul douloureux, sous-entendu à faire à la main.
Du coup, si on applique ça au management, il y a cette idée qu’on est arrivé à une époque et à des organisations du travail où, finalement, tenir les rênes de l'attelage pour le management et comprendre le management de proximité est devenu quelque chose de pénible, de douloureux, de fastidieux.

Si on se penche un peu plus sur l'usage et la pratique du management algorithmique, un point que je trouve fondamental et très intéressant c'est qu'il va concerner toutes les catégories socio-professionnelles.
Dans un très grand écart, le premier exemple qui peut venir en tête ce sont les entrepôts d'Amazon, la partie distribution d'Amazon avec des travailleurs dans ces entrepôts qui se font dicter leurs consignes de travail par une machine, directement dans l'oreillette, avec, du coup, la suppression du management, quelque part, puisqu'il est remplacé complètement par une machine, par un système informatique, et eux sont également départis d'une certaine autonomie entre le travail prescrit et travail réel. On pourrait citer à nouveau les plateformes évidemment. Ne serait-ce que si on prend l'exemple des VTC, c'est le système informatique qui va dicter la ou les prochaines courses à proximité pour les chauffeurs, donc, quelque part, ordonnancer, cadencer le travail.

Néanmoins il y a toujours cette spécificité, même si on est sur toutes les catégories socio-professionnelles, sur deux rôles et deux profils plus particuliers.
En premier, c'est le management de proximité. Bien évidemment, si on remplace le management par des algorithmes, ce management de proximité, qui pourtant est de plus en plus départi de ses prérogatives depuis quelques décennies maintenant, il n'est plus partie prenante dans les décisions stratégiques de l'entreprise, là on en est à le départir vraiment de ses dernières prérogatives d'organisation du travail et d'organisation des collectifs de travail.
La deuxième catégorie, le deuxième profil intéressant qui se voit vraiment concerné par ce management algorithmique, ce sont les ressources humaines et, à fortiori, les ressources humaines de proximité qui sont un des deux piliers, avec le management de proximité, dans la vie de l'entreprise et l'organisation dans l'entreprise, pour ceux qui sont ce qu'on appelle contributeurs individuels, ceux qui ne sont pas managers. Sur ces ressources humaines, tous les champs sont à peu près touchés, en tout cas en capacité de l'être, aussi bien le recrutement que l'évaluation, jusqu'à la rupture des contrats. On a eu un exemple récent dans la presse avec des décisions de rupture de contrat qui étaient purement induites par un algorithme.
Le dernier exemple qui, lui, est très récent et qui est encore plus parlant, mais ça répond à des questions qui s'étaient posées il y a déjà quelques années, c'est une entreprise, en Chine, qui se retrouve dirigée par une IA et non plus par un PDG ou un DG humains. C'était une question déjà posée à l'époque : est-ce qu'un jour mon patron sera une IA ou un algorithme ? Avec cet exemple ça en prend le chemin, à voir ce que ça donne, évidemment.

Un autre point, et tu l'as évoqué, Gauthier. Tu as indiqué la définition d’algorithme un petit peu en tiroir. J’aimerais indiquer, rappeler celle de Gérard Berry qui est professeur au Collège de France sur la chaire « Algorithmes, machines et langages » qui est pour moi vraiment extrêmement pertinente. Il dit que l'algorithmique c'est la science de l'organisation des opérations à effectuer – jusque-là on est complètement raccord avec la définition que tu as évoquée – et il ajoute son petit grain de sel en disant que le but final c'est d'évacuer la pensée du calcul afin de le rendre exécutable par un ordinateur, par un système informatique, qui est fabuleusement rapide et exact, mais qui est fabuleusement stupide et dénué de pensée. Ça met vraiment le doigt sur les toutes les problématiques sous-jacentes du sujet. Si on déborde un petit peu sur la partie IA – on l'appellera intelligence artificielle ou informatique avancée, ce n'est pas forcément le débat ce soir, on pourrait en parler longtemps –, en fait, la vraie problématique sous-jacente c'est que ces systèmes-là sont, malheureusement, implémentés et pensés la plupart du temps pour décider plus vite que pour décider mieux.
On en revient donc à ce qui est assez prescrit et recommandé un petit peu partout dans différents textes, différentes études sur le sujet : il faut absolument éviter de tomber dans le piège que l'humain n'est plus en contrôle et que l'outil n'est plus un outil mais que l'outil devient presque une sorte de d'allégorie quasi-divine, qui est à la fois une boîte noire, qui n'est pas questionnable, dont on ne remet pas en cause les décisions, qu'elles soient déterministes ou non, et qui enlève vraiment cette dernière part d'autonomie qu'on peut avoir dans le travail pour organiser, penser et vivre son activité au quotidien.

Je ne serai pas plus long, Gauthier. Je pense plus intéressant de laisser du temps pour les questions à la fin.

Gauthier Fradois : OK. Très bien. Merci beaucoup Matthieu. Sans transition, du coup, je cède la parole à Fabrice Flippo.

11’ 30

Fabrice Flippo : Moi aussi je reviens un petit peu sur la définition du numérique. Le numérique ça fait deux choses en fait : ça permet de transmettre l'information, là-dessus on est d'accord, mais ça permet de créer des espaces publics disons nouveaux, ce qu'on voit un petit peu sur les réseaux sociaux par exemple, mais pas seulement, tout type d'espace public, que ce soit des publics très restreints comme dans les réseaux sociaux d'entreprise ou des publics plus larges comme on voit là en ce moment, par exemple un webinaire avec Gabriel Péri. Tout cela ce sont des espaces publics alternatifs ou nouveaux permis par le numérique qui, du coup, s'inscrit un peu dans la suite de l'imprimerie ou d'autres inventions de ce type. C'est une première partie.
Il y a une deuxième partie qui a été évoquée par la personne qui a parlé avant moi qui est la commande : le numérique c'est aussi commander des machines, commander le déplacement d'objets. Ce c'est pas un hasard si Amazon est une très grande entreprise du numérique, c'est avant tout une entreprise de logistique ; ce n'est pas un hasard non plus pour Tesla. En fait, beaucoup d'entreprises du numérique sont des entreprises de logistique, qui vont donc programmer le déplacement de biens et de services à l'échelle mondiale, avec des effets assez comparables à l'automatisation d'une manière générale. Ce n'est pas plus bête, ce n'est pas plus intelligent qu'une machine. Le numérique, finalement, c'est une machine un peu perfectionnée mais ça reste une machine, donc ça répète un peu toujours les mêmes opérations.

Je ferai très très vite sur l'histoire du numérique, on a pas trop le temps. Je vais aller vite au résultat en termes d'écologie.
Quand on voit, aujourd'hui, que la hausse du trafic internet est de 26 % par an, ça vous dira peut-être rien mais c'est fois 10 en 10 ans, fois 1000 en 30 ans. On a donc une accélération extrêmement importante du trafic de data, donc de la puissance de calcul et ce n'est pas près de s'arrêter puisque : voitures autonomes, intelligence artificielle – il faut entraîner l'intelligence artificielle, donc il faut calculer en grandes quantités –, résolution des vidéos, le métavers, l'industrie 4.0. Tout cela utilise des quantités très importantes de data, donc des centres de données parce que ce ne sont pas nos petits ordinateurs et nos petits smartphones qui peuvent mener ce genre d'opération. Ce sont de très grosses machines, toujours plus grosses. Vous savez peut-être que Météo France a acheté l'un des plus gros, un des plus puissants calculateurs de la planète, qui consomme 10 ou 20 mégawatts, pour prévoir le l'évolution du climat, essayer d'anticiper l'évolution du climat et de la météo. Cet investissement, du point de vue de la prévision météo, d'après eux – c'est quand même un peu de la pub – permet de prévoir la météo une heure de plus que le précédent calculateur, une heure seulement ! Il y a donc une course à la puissance un peu partout, une accumulation de puissance de calcul. Pour la sécurité aussi : la sécurité informatique dépend de la puissance de calcul, en gros il s'agit de décourager l'adversaire en lui offrant une résistance par la puissance de calcul, c'est donc là-dessus que fonctionne par exemple bitcoin. Bref ! Il y a plein d'investissements très importants dans l'augmentation de la puissance de calcul.
Le résultat c'est que ça augmente la consommation d'énergie même si, pour le moment, c'est en grande partie compensé par les gains en efficacité énergétique pour diverses raisons, là aussi je n'ai pas trop le temps de détailler, mais ce n’est pas lié à des soucis du climat, c’est lié, par exemple, au fait quand vous calculez beaucoup avec votre smartphone, à la fin de la journée il est vide. Comme il est vide, ça se vend mal parce qu’on attend qu’un portable ait une autonomie, du coup que fait le portable ? Le smartphone va déporter le calcul sur le centre de données : c'est le centre de données qui va calculer pour économiser l'énergie sur les smartphones. Le smartphone va demander le calcul, le résultat va revenir sur le smartphone. C'est le centre de données qui va calculer. Il y a donc toute une infrastructure numérique un peu masquée à l'usager lambda qui permet quand même d'obtenir les résultats qu'on a. Vous avez pu le constater : le smartphone dure toujours une journée pour un usage standard.

Aujourd'hui on est entre 3 et 4 % des émissions de gaz à effet de serre pour le numérique, sachant qu’en 2007 on était à 2 %. C'est le secteur qui croît le plus en termes de gaz à effet de serre de tous les secteurs.

Il n’y a pas que ça. Aujourd'hui un iPhone ce sont 78 métaux différents et, pour extraire ces métaux et, d’une manière générale, tout ce qu'on extrait de la croûte terrestre pour nos modes de vie à l'échelle globale ça représente à peu près 10 % de l'énergie consommée et plus les métaux sont rares, évidemment plus on va consommer de l'énergie. Vous avez compris que tout cela n’est pas très bon pour le climat.
Pourquoi 78 métaux dans un iPhone ? En grande partie pour obtenir les résultats d'efficacité énergétique qui permettent de baisser la consommation de l'iPhone, le truc un petit peu absurde !
C'est ce qu'on appelle le green IT, la consommation du numérique et les efforts qui sont plus ou moins faits pour essayer de réduire sa consommation qui ne sont nettement pas suffisants, comme vous avez compris.
Quand on dit « le numérique pollue », moi ça fait quasiment 20 ans que je suis sujet, en général les entreprises répondent « ça pollue mais c'est bon pour les autres secteurs, ça permet de baisser les émissions de gaz à effet de serre. Regardez, on fait une visio. Si nous étions tous venus à la Fondation Gabriel Péri, nous aurions pris les transports, la voiture, ça aurait pollué, et tout ».
Évidemment rien de tout ça ne tient pour toutes sortes de raisons que je n'ai pas le temps de détailler. En gros, il y a plus une complémentarité entre les modes de transport et les modes de communication qu'une substitution. Une entreprise qui peut pas communiquer avec l'Australie, elle ne va pas en Australie physiquement, elle ne prend pas l'avion pour aller en Australie. Si elle peut communiquer avec l'Australie de manière régulière et fiable, donc grâce à Internet, elle va aller en Australie avec l'avion. C’est donc plutôt une complémentarité. Quand on regarde les 150 dernières années, il y a eu une complémentarité entre la croissance de la communication et la croissance du transport et pas du tout une substitution. Pour qu’il y ait une substitution, il faudrait nous expliquer comment ça se passe.
Du côté des entreprises, ce ne sont que des exemples de ce type-là, des trucs qui ne tiennent pas la route et qui sont peu démontrés, mais, avec ça, elles prétendent que le numérique va permettre de réduire massivement les émissions de gaz à effet de serre un peu partout, d'où les investissements dans la voiture autonome et dans tout un tas de choses qui ne marcheront pas, j'en prends le pari ce soir. Vous pouvez enregistrer, on se retrouve dans cinq ans, il n'y a pas de problème. J'ai déjà dit exactement la même chose en 2007/2008, on est 14 ans après et j'ai gagné mon pari : ça n'a pas marché, donc je reprends le pari.

Ce qui reste aussi c'est l'enjeu de la sobriété. Comme c'est à la mode en ce moment dans le langage gouvernemental, il s'agit de faire un peu une mise au point de ce que ça veut dire. Effectivement, la sobriété c'est la question des usages : un usage efficace d'un point de vue écologique, c'est dire « regardez, on fait une visio comme ce soir, mais j’ai un ordinateur qui consomme le moins possible, j'ai de la fibre optique, j'ai tout ce qui va bien pour consommer le moins possible pour faire notre visio », ça c'est de l'efficacité.
La sobriété c'est de dire : est-ce qu'on a vraiment besoin de cette visio, peut-être que oui, peut-être que non, mais c'est la bonne question qu'il faut se poser quand on parle de sobriété. Quand on regarde le questionnement qu'il y a dans l'espace public aujourd'hui – est-ce qu'on a besoin, est-ce qu'on n'a pas besoin ? – c'est en partie le bon sujet.
Il y a un autre aspect de la sobriété qui remonte à la philosophie grecque : la sobriété c'est la lutte contre l'excès. Le problème, évidemment, c'est de savoir qui exagère. J'aurais tendance à dire qu'en termes de sobriété énergétique c'est bien de limiter à 19 degrés, mais peut-être qu'on pourrait regarder les mètres carrés, donc ne pas tomber sur ceux qui ont 45 m2, mais sur ceux qui ont 200 m2, 300 m2, vous voyez ce que je veux dire, donc plutôt ceux qui exagèrent beaucoup, les plus riches qui consomment énormément. On s'aperçoit que ce n'est pas vraiment ce qui est à l'ordre du jour alors que c'est ce qui a quand même été porté, en grande partie, par les Gilets jaunes et d'autres mouvements.
La sobriété pose une question de justice sociale, déjà à l'époque d'Aristote puisque la sobriété est une vertu qui est liée à la démocratie : on ne peut être dans une démocratie que si personne n'exagère. Rechercher la richesse matérielle, comme le prône Emmanuel Macron, n'est pas associé à la démocratie dans l'Antiquité, ce n'est pas associé à la sobriété, pas du tout, c'est bien le contraire. Que tout le monde devienne millionnaire, comme il a dit une fois, c'est tout le contraire de la sobriété, donc une espèce de discours complètement incohérent que le « en même temps ». En même temps je prends prendre l'argent dans la poche des pauvres et, en même temps, je dis que je fais de la justice sociale, le en même temps macronien qu'on retrouve dans la question du numérique où on va dire que ça serait bien que ça consomme un peu moins, mais on va pousser, sous peine de revenir aux Amish, le métavers, la 5G et tout un tas d'innovations dont on sait très bien, à l'avance, qu'elles vont être fortement consommatrices.

Je vais m'arrêter là et on reprendra peut-être la discussion par la suite. Merci.

Gauthier Fradois : Merci à vous. Je cède la parole à Hélène Jeannin.

22’ 35

Hélène Jeannin : Bonjour à tous. Merci pour cette possibilité d'intervention. Je vous prie de m'excuser pour le retard, j'ai eu quelques difficultés de connexion, mais me voici.
Je vais vous parler des questions de surveillance au sein des États, des pays, la surveillance par l'État qui se généralise, c'est le sujet dans mon article. C'est un sujet de recherche assez nouveau parce que le thème, en lui-même, est nouveau. Il existait déjà des outils permettant de la surveillance, la question de la surveillance, en soi, n'est pas une question nouvelle, elle a déjà été traitée depuis plusieurs décennies. Mais, avec l'intelligence artificielle, on constate un accroissement des technologies de surveillance dans les pays qui dépasse les prévisions des experts. Ils ne pensaient pas que ça allait augmenter de façon aussi rapide, avec de nombreuses modalités techniques qui viennent se rajouter à ce qui existait déjà, qui étaient, jusque-là, le fait de l'économie numérique, interconnectées. Maintenant on voit apparaître des plateformes de villes intelligentes, des systèmes de drones fonctionnant par l'intelligence artificielle, des systèmes biométriques avec tout un ensemble de bases de données qui sont interconnectées et gérées par des systèmes d’IA ou des briques d'intelligence artificielle.

Je me suis basée sur ça pour commencer un peu une tentative de cartographie en fait de l'existant, sur un rapport de Carnegie Endowmen qui, lui-même, a travaillé à partir de sources de données ouvertes. Les données que j'ai citées, notamment le fait qu'il y a 75 pays sur 176 étudiés qui utiliseraient des technologies de surveillance à base d'IA, sont extraites de ce rapport, étant entendu qu’ il est parfois assez difficile d'avoir des informations sur ce sujet parce que les pays ne le disent pas forcément, parce que les entreprises qui vendent des technologies d'IA soit veulent se valoriser ou, au contraire, veulent cacher certaines choses. Il y a donc toujours un potentiel de biais ou un potentiel d'omission ou, au contraire, d'exagération.

Toujours est-il que lorsqu'on regarde les grands acteurs de la surveillance dans le monde, ce qu’on sait et ce qui frappe aux yeux c'est la Chine. La Chine est considérée comme le moteur de la surveillance, d'une part parce qu’elle a des fabricants, notamment Huawei qui est le premier fabricant des technologies de surveillance par l'IA loin devant les autres, les autres étant notamment, par exemple, NEC, le Japonais, ou des sociétés comme Cisco, IBM, Palantir aux États-Unis. La Chine a développé un système de reconnaissance faciale, ce qu'on a appelé le crédit social, ce système qui fonctionne à base de bâtons et de carottes, qui vise à attribuer des bonus ou des malus aux citoyens selon les actes qu'ils effectuent dans la vie quotidienne, qui peuvent être considérés comme étant louables ou, au contraire, répréhensibles, ce qui permet, en fait, de classer, en quelque sorte, les citoyens en bons, mauvais ou citoyens corrects à partir de des actes de la vie quotidienne. La reconnaissance faciale va être utilisée de plus en plus pour effectuer des paiements, pour tracer les activités des gens : traversent-ils bien dans les passages cloutés, traversent-ils bien au vert ? Toutes sortes de choses qui sont notées en fonction de critères établis dans une base de données, cette base de données étant elle-même constituée de données qui peuvent être disparates, puisqu'elles peuvent provenir à la fois d'institutions, d'organismes publics ou privés, et il existe une véritable collusion entre les deux qui permet, en fait, l'interconnexion, le partage et l'échange de ces données.

En dehors de ces facteurs, la Chine a une politique d'expansion de ses technologies de surveillance, politique menée notamment depuis 2013 avec sa politique de la soie, la route de la soie, prolongée en 2017 parce ce qu'elle a appelé, je traduis en français, « Initiative Ceinture et Route », qui se traduit aussi par des subventions avec des prêts à taux réduit envers certains pays, par exemple le Kenya, le Laos, la Mongolie, l’Ouganda, l’Ouzbékistan, qui va faire en sorte que ce type de technologie va pouvoir devenir accessible à certains pays alors qu’elle ne le serait pas sans ça.

Ce qui permet aussi le développement de ces technologies de surveillance, c’est le développement urbain à l'échelle planétaire, puisqu’il y a une concentration de la population dans les villes : la démographie, au niveau planétaire, va se concentrer dans les villes, même s'il y a des villes qui rétrécissent, mais la majorité c'est l'urbanisation croissante. Le modèle de la smart city, un terme qui recouvre des réalités bien différentes selon les villes en elle-mêmes, mais, dans l'objectif un peu techno-centré qui prévaut, c'est l'idée d'une ville servicielle qui va produire des services automatisés pour les habitants des pays, services qui vont faire l'objet d'une supervision, qui vont pouvoir être gérés en temps réel et fournir des analyses en temps réel.
Tout cela repose sur le recueil et l'exploitation de données, mais on observe aussi, pour faire face aux violences urbaines, à un glissement sémantique : on parle de moins en moins de smart city, qui était un terme très à la mode il y a quelques années, et de plus en plus de safe city, de ville sûre, de ville sécurisée, qui est basée sur l'observation du comportement des citadins.

Certes la Chine est un moteur de ces technologies de surveillance parce qu'elle les utilise en son sein mais aussi parce qu’elle cherche à les disséminer par des systèmes de vente à prix réduit, mais on voit aussi que les démocraties dites libérales – les pays européens, les États-Unis, Israël, le Japon – sont aussi des démocraties qui adoptent les technologies d'IA, voire qui les vendent à des pays qui, parfois, les utilisent à des fins peut-être pas toujours louables.
Toujours est-il que la surveillance par l’IA se développe dans un certain nombre de pays qui peuvent être autant des autocraties que des démocraties dites libérales, donc le régime politique n'est pas le paramètre qui va permettre de savoir si un pays est susceptible, ou pas, d'adopter ou de développer des technologies en IA. Les études montrent que ce qu’il est important de regarder ce sont les dépenses militaires de chaque pays : plus un pays dépense pour sa sécurité et sa défense, plus il est potentiellement sujet à adopter des technologies de surveillance par l'IA. Une des raisons étant que ce sont des pays qui ont des moyens économiques financiers et technologiques plus importants, mais aussi parce qu’ils estiment devoir faire face à certaines menaces, par exemple, pour l’Europe, ça peut être le terrorisme, ça peut être la surveillance des frontières ; pour d'autres pays ça pourrait être, par exemple, la menace de dissidence en interne, de mouvements activistes ou militants qui pourraient être considérés comme susceptibles de déstabiliser le pouvoir en place. Donc les technologies de surveillance peuvent être adoptées par différents pays, mais être utilisés à des finalités différentes selon le régime politique et selon la visée et la gouvernance. La gouvernance est quelque chose d'absolument crucial notamment pour nos démocraties, y a-t-il un régime de droits de l'homme ? Tout cela peut rentrer en ligne de compte pour savoir comment ces technologies vont être utilisées.

À quoi servent- ? Elles servent au contrôle social, c'est-à-dire la société de contrôle qui peut se caractériser par une supervision automatisée, par l'automatisation informatique et qui va permettre, justement, de gérer, de contrôler et de faire un traitement différencié des populations, parce que qui dit surveillance dit segmentation et tri de la population avec ce traitement différencié qui est susceptible d'apparaître.

On voit aussi que les technologies de surveillance sont rendues visibles : il y a des caméras de surveillance, il y a des capteurs. Elles ne sont pas toujours invisibilisées, comme c'est le cas, parfois, pour nos technologies numériques où on sait qu'on est tracé quand on fait, par exemple, des recherches sur Internet. Elles sont rendues visibles et l'intérêt de les rendre visibles c'est que ça provoque un auto-ajustement des comportements de la part des citoyens : on connaît le fameux « Souriez vous êtes filmés ». On est pas aussi spontané que cela quand on sait qu'on est surveillé, ça permet donc déjà d'avoir, de façon intrinsèque, une espèce de censure qui peut déjà être le fait des individus en eux-mêmes.

On voit de plus en plus d'articles sur le crédit social en Chine, sur ce sujet, mais un autre volet qu'on voit moins c'est le fait que développer des technologies de surveillance par l'IA va aider à stimuler l'innovation, à stimuler la recherche et développement. Les algorithmes d'IA ont déjà beaucoup progressé avec les grandes masses de données, la puissance de calcul, les compétences aussi qui sont venues des ingénieurs, des développeurs, la baisse des coûts de certaines infrastructures, tout cela a pu contribuer à l'essor de l'intelligence artificielle, mais certains pays vont utiliser ça comme un outil de politique industrielle. Je n'en ai pas parlé au sujet de la Chine, mais d'autres pays font de même. Ce qui est déjà utilisé en interne sur les populations va pouvoir, éventuellement, être translaté sur d'autres applications et, comme on sait que les technologies d'intelligence artificielle fonctionnent sur un système d'apprentissage, d'auto-correction, eh bien ces systèmes-là vont pouvoir, éventuellement, être utilisés pour autre chose ou bien à d'autres fins.
Il y a donc une course à la suprématie en IA qui est engagée dans le monde avec, bien sûr, deux pôles : l'un les États-Unis, l'autre la Chine, Chine qui veut devenir le leader en IA d'ici 2030. Il s'agit pas seulement d'avoir une suprématie technologique, mais cette suprématie technologique se double d'une suprématie géostratégique puisque, de l'IA, vont pouvoir dépendre des systèmes de défense avancée, la 5G, par exemple, fait partie aussi des systèmes de défense sur lesquels des pays comptent pour assurer leur suprématie.

Il semblerait, d'après certaines études, qu'on soit à un tournant. On ne sait pas encore comment tout cela va évoluer, dans quel sens, mais quand on fait le match, en quelque sorte, États-Unis/Chine, on voit que les atouts des États-Unis sont, d’un côté, la créativité, l'excellence de certaines institutions ou de ses chercheurs, tandis que la Chine a, de son côté, l'avantage du nombre : nombre de chercheurs, nombre d'entrepreneurs, nombre de données, puisque les expérimentations de crédit social qui ont commencé dès 2014 se sont peu à peu étendues dans tout pays, donc peuvent toucher plus d'un milliard, 1,4 millard d’individus. En fait la Chine, au lieu de faire peut-être de la recherche fondamentale comme le font les États-Unis, fait directement des mises en application avec des processus de réajustement, de correction, qui sont propres à l'intelligence artificielle et qui sont aussi fortement aidés par le contexte qui est la réglementation plus faible en Chine avec une approbation sociale aussi qui est beaucoup plus affirmée en Chine que dans les pays européens ou aux États-Unis où là il y a une plus grande frilosité. Et les consommateurs, en Chine, semblent être beaucoup moins attentifs, beaucoup moins sourcilleux sur le type d'utilisation éventuelle.

Au cœur de tout cela c'est la donnée : qui va gérer la donnée ? Qu'est-ce qu'on va en faire ? Le contrôle de la donnée est au cœur de tout cela, du développement de ces systèmes, et au cœur, éventuellement, des inquiétudes puisqu’on voit qu’il y a des délégations de données qui sont faites pour certains systèmes – je crois qu'on parlera des systèmes de santé tout à l'heure – avec la question de la délégation de la donnée par des États à des entreprises étrangères, ce qui fait qu’entreprises et États peuvent potentiellement être en concurrence avec le risque, pour les États, de perdre leur souveraineté ou une part de contrôle. Ils tentent de s'en prémunir en édictant des réglementations, ces réglementations étant, autant que faire se peut, à l'échelle européenne, documents de stratégie en IA et un ensemble de réglementations pour se prémunir des abus éventuels et pour essayer de sauvegarder cette souveraineté.

Les données sont beaucoup contrôlées par les acteurs du numérique, pas seulement des acteurs publics mais des acteurs privés, surtout aux États-Unis. C'est notamment grâce aux GAFAM que les États-Unis réussissent à développer leur politique d'intelligence artificielle ; les Américains sont beaucoup plus internationalisés que les BATX chinois. Tout ce qui importe maintenant c'est d'anticiper les risques et les Américains commencent à en prendre conscience puisqu’il y a aussi un mouvement en faveur de l'éthique, un mouvement autour de la question de l'éthique de l'intelligence artificielle, mouvement de l'IA responsable, donc la question de la donnée reste toujours au centre : les données sont-elles de qualité ? Sont-elles justes ? Ne sont-elles pas doubles ou dupliquées, parce qu’il s'agit de prévenir les risques et les mésusages de l'IA et, lorsqu'on parle de questions surveillance, il faut absolument prendre en compte tous ces paramètres. Donc enjeux éthiques autour de la surveillance qui, je pense, ne sont parfois pas suffisamment explicités et pas suffisamment soulevés.

Gauthier Fradois : Merci beaucoup pour votre présentation. C'est au tour de Simon Woillet de nous parler des données médicales.

39’ 08

Simon Woillet : Bonjour.