https://wiki.april.org/api.php?action=feedcontributions&user=D+O&feedformat=atomApril MediaWiki - Contributions de l’utilisateur [fr]2024-03-28T12:39:34ZContributions de l’utilisateurMediaWiki 1.35.13https://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_12_novembre_2019&diff=86422Libre à vous ! Radio Cause Commune - Transcription de l'émission du 12 novembre 20192019-11-14T21:27:50Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 12 novembre 2019 sur radio Cause Commune<br />
<br />
'''Intervenant·e·s :''' - Frédéric Couchet - à la régie<br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 12 novembre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[https://media.april.org/audio/radio-cause-commune/libre-a-vous/backups/output-2019-11-12-15h29.ogg Écouter ou enregistrer le podcast PROVISOIRE]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-12-novembre-2019-sur-radio-cause-commune Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
<br />
==Transcription==<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 FM en Île-de-France et partout dans le monde sur le site causecommune.fm. Cause Commune, la radio, c’est de midi à 17 heures puis de 21 heures à 4 heures en semaine, du vendredi 21 heures au samedi 16 heures et le dimanche de 14 heures à 22 heures. C’est un peu dur à suivre parce que c’est un temps partagé avec une autre radio. Toutes les infos sont sur le site de la radio.<br/><br />
La radio dispose également d’une application Cause Commune pour téléphone mobile.<br />
<br />
Merci d’être avec nous aujourd’hui pour cette nouvelle édition de <em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.<br />
<br />
Nous sommes mardi 12 novembre 2019, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.<br />
<br />
La radio dispose d’un salon web, utilisez votre navigateur web, allez sur causecommune.fm, cliquez sur « chat » et vous pouvez nous rejoindre sur le salon dédié à l’émission pour réagir ou poser des questions aux personnes invitées aujourd’hui.<br />
<br />
Le site web de l’April c’est april.org et vous y retrouverez une page consacrée à l’émission avec les références utiles et les moyens de nous contacter.<br/><br />
Si vous souhaitez réagir en direct, vous pouvez utiliser le salon web ou vous pouvez également tout à l’heure nous appeler au 09 50 39 67 59, je répète 09 50 39 67 59.<br />
<br />
Nous vous souhaitons une excellente écoute.<br />
<br />
On va commencer par le programme de l’émission.<br/><br />
Nous commencerons dans quelques secondes par la chronique de Christophe Becquet, président de l’April, qui portera sur la musique, le domaine public, les droits voisins, avec notamment le projet Musopen, la musique classique libérée.<br/><br />
D’ici dizaine de minutes nous aborderons notre sujet principal qui portera Open Food Facts, une base de données sur les produits alimentaires, faite par tout le monde et pour tout le monde. <br/><br />
En fin d’émission nous aurons la chronique de Vincent Calame, bénévole à l’April, qui portera sur la clause Pas d’usage commercial de certaines licences Creative Commons.<br/><br />
À la réalisation de l’émission aujourd’hui mon collègue Étienne Gonnu. Bonjour Étienne.<br />
<br />
<b> Étienne Gonnu : </b>Salut Fred.<br />
<br />
<b>Frédéric Couchet : </b>On va vous proposer, comme à chaque émission, un petit quiz et on donnera les réponses au fur et à mesure. Évidemment vous pouvez communiquer les réponses les réseaux sociaux ou nous appeler.<br/><br />
Aujourd’hui nous allons parler d’Open Food Facts qui utilise notamment un système d’étiquetage nutritionnel et un système de classification concernant la répartition des aliments en quatre groupe en fonction du degré de transformation des matières dont ils sont constitués. Les questions : quels sont les noms de ces deux systèmes ? Évidemment vous aurez la réponse dans le cadre du sujet long avec des explications détaillées.<br/><br />
Deuxième question. Lors de l’émission de la semaine dernière, du 5 novembre 2019, notre sujet principal portait sur les femmes et l’informatique. Sauriez-vous citer les noms des associations créées par des femmes, réservées aux femmes, pour notamment qu’elles puissent s’exprimer librement, échanger, rassembler les voix des femmes dans l’informatique et également mener des actions. La réponse en fin d’émission.<br />
<br />
Tout de suite place au premier sujet.<br />
<br />
[Virgule musicale]<br />
<br />
===Chronique de Jean-Christophe Becquet « Pépites libres »===<br />
<b>Frédéric Couchet : </b>Textes, images, vidéos ou bases de données, sélectionnés pour leur intérêt artistique, pédagogique, insolite, utile, Jean-Christophe Becquet, président de l’April, nous présente une ressource sous une licence libre. Les auteurs de ces pépites ont choisi de mettre l’accent sur les libertés accordées à leur public, parfois avec la complicité du chroniqueur, c’est la chronique « Pépites libres ». Jean-Christophe, tu es normalement avec nous au téléphone depuis Digne-les-Bains.<br />
<br />
<b>Jean-Christophe Becquet : </b>Oui. Bonjour Fred, bonjour à tous, bonjour à toutes.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour Jean-Christophe. Le sujet du jour c’est la musique, le domaine public, les droits voisins et Musopen, la musique classique libérée.<br />
<br />
<b>Jean-Christophe Becquet : </b>En effet. Le droit d'auteur réserve au créateur d'une œuvre un monopole temporaire sur l'exploitation de son travail. Ce privilège, qu'on appelle le droit patrimonial, interdit toute reproduction ou représentation de l'œuvre sans l'autorisation expresse de l'auteur. En droit français, cette restriction se prolonge 70 ans après la mort de l'auteur. Ensuite, les œuvres basculent dans ce que l’on appelle le domaine public.<br/><br />
Le domaine public désigne donc l'ensemble des œuvres pour lesquelles les droits patrimoniaux ont expiré et dont le public devrait pouvoir profiter librement. Malheureusement, c'est un petit peu plus compliqué que cela et d'autres droits se superposent au droit d'auteur pour venir restreindre encore les usages. Ce sont, entre autres, les droits voisins du droit d'auteur. Dans le cas de la musique, les droits voisins recouvrent les droits des producteurs et des interprètes.<br />
<br />
Ainsi, pour la musique classique, s'il ne fait aucun doute que les compositions de Mozart, Beethoven ou Chopin appartiennent au domaine public, la plupart des enregistrements sont encore sous le joug de restrictions pour plusieurs décennies. En effet, la durée des droits voisins des interprètes a été prolongée de 50 à 70 ans par le Parlement européen en 2011. Cette directive a été transposée dans le droit français en 2015.<br />
<br />
C'est pour dépasser ces restrictions qu'Aaron Dunn a lancé en 2005 le projet Musopen, ma pépite du jour. Musopen est une organisation américaine à but non lucratif dont l’objectif est de libérer les enregistrements de musique classique. Comment ? Eh bien en proposant à des musiciens professionnels d'enregistrer des œuvres pour les offrir au public. Musopen sollicite le soutien à travers des campagnes de financement participatif. Les artistes sont rémunérés. Simplement, au lieu d'une rente basée sur la diffusion de chaque enregistrement, ils perçoivent une rétribution pour leur travail au moment de son exécution. Ensuite, on leur demande de donner leur accord pour une diffusion libre, donc de renoncer contractuellement à leurs droits voisins d'interprète.<br />
<br />
En 2012, le projet Musopen a par exemple levé 68 000 dollars, environ 62 000 euros, six fois l'objectif initialement fixé, auprès de plus de 1 200 contributeurs. Cet argent a permis de financer l'Orchestre symphonique de Prague pour enregistrer des œuvres de Beethoven, Brahms ou Tchaïkovski. En partageant librement les fruits de ce travail, Musopen a contribué à rendre accessibles à tous ces trésors de notre patrimoine musical.<br />
<br />
Le site Musopen propose aujourd'hui un catalogue musical riche de plus de 5000 enregistrements partagés selon le régime du domaine public ou une licence libre, la licence Creative Commons BY-SA. D'autres enregistrements sont sous des licences de libre diffusion, c'est-à-dire qu'elles restreignent les utilisations commerciales ou la production de versions modifiées, licences Creative Commons NC ou ND, on ne peut donc pas les considérer comme libres. Pour chaque fichier, Musopen indique de manière très claire sous quelle licence il est disponible. On peut donc faire des recherches en filtrant selon la licence.<br/><br />
Musopen propose aussi un espace de partage de partitions musicales d'œuvres également passées dans le domaine public.<br/><br />
Musopen propose un accès gratuit mais limité aux téléchargements. Pour bénéficier de l'ensemble des services, il faut souscrire un abonnement payant. Notons que ce n'est absolument antinomique avec les licences libres que d'exiger une participation financière, par exemple, dans le cas de Musopen, pour télécharger plus de cinq fichiers par jour. Comme pour les logiciels, le gratuit n'est pas automatiquement libre et libre n'est pas forcément gratuit !<br />
<br />
On trouve d'autres initiatives similaires comme Open Goldberg Variations qui a permis de libérer l'enregistrement et la partition des Variations Goldberg, une œuvre pour clavecin composée par Jean-Sébastien Bach.<br/><br />
Citons également Florence Robineau, pianiste et professeure au conservatoire de Rungis. Elle enregistre des morceaux de musique classique et les partage sous licence libre Creative Commons BY-SA.<br />
<br />
Ces projets constituent un bel exemple d'utilisation des licences libres. Il est important de rappeler que ces licences s'appuient sur le droit d'auteur. En effet, dans le cas des interprétations musicales libérées par Musopen, Open Goldberg Variations ou Florence Robineau, c'est précisément parce que l’Internet [l'interprète, NdT] dispose d'un privilège sur son œuvre qu'il peut choisir de la partager sous licence libre.<br />
<br />
<b>Frédéric Couchet : </b>Merci Jean-Christophe. En fait ce n’était pas « l’Internet », c’est « l’interprète », même Étienne rigole en régie ; je trouve que ce lapsus est assez révélateur. Je précise qu’on a écouté un extrait d’Open Goldberg Variations, de mémoire c’était l’émission du 9 juillet 2019, les références sont sur April et sur le site de Cause Commune, causecommune.fm. On rajoutera aussi le site de Florence Robineau qui partage ses musiques [interprétations] sous licence libre. C’est assez marrant parce que juste avant le début de l’émission je parlais avec Pierre Slamich, qui est l’un des invités pour le sujet d’après, justement de cette difficulté à trouver des morceaux de musique classique sous licence libre. J’espère que ta chronique permet aux gens de comprendre qu’en dehors du droit d’auteur il y a les fameux droits voisins ce qui fait que ça rend aujourd’hui effectivement, alors que, comme tu le dis, toutes ces musiques, toutes ces partitions sont dans le domaine public, le fait de trouver des interprétations disponibles librement très compliqué.<br />
<br />
<b>Jean-Christophe Becquet : </b>Oui, en effet. Je rajouterai sur la page de l’émission les références du site Musopen, musopen.org, les Open Goldberg Variations, le site de Florence Robineau et quelques articles de presse, notamment sur <em>Numerama</em>, qui expliquent un petit peu la genèse et le succès de ces projets, notamment la levée de fonds dont je parlais tout à l’heure pour le projet Musopen.<br />
<br />
<b>Frédéric Couchet : </b>Excellent. Comme tu parles de musique classique et de Musopen on va faire une pause musicale qui est intégrée dans ta chronique. Tu nous as suggéré d’écouter Peer Gynt, <em>Morning Mood</em> composé par Edvard Grieg. On se retrouve juste après. Belle journée à l’écoute de Cause Commune.<br />
<br />
<b>Pause musicale : </b><em>Morning Mood</em>, suite no. 1, Op. 46 interprétée par Peer Gynt composée par Edvard Grieg.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter Peer Gynt, <em>Morning Mood</em> composé par Edvard Grieg, disponible sous licence libre marque du domaine public et vous retrouverez les informations sur le site de l’April, april.org, et sur le site de la radio causecommune.fm.<br />
<br />
Vous écoutez l’émission toujours <em>Libre à vous !</em> sur radio Cause commune 93.1 FM en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
Nous allons maintenant attaquer notre sujet principal.<br />
<br />
[Virgule musicale]<br />
<br />
===Open Food Facts===<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre par notre sujet principal qui porte sur Open Food Facts, base de données sur les produits alimentaires, faite par tout le monde pour tout le monde. Avec nos invités, Anca Luca. <br />
<br />
<b>Anca Luca : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Et Pierre Slamich. Bonjour Pierre.<br />
<br />
<b>Pierre Slamich : </b>Bonjour Frédéric.<br />
<br />
<b>Frédéric Couchet : </b>De l’association Open Food Facts France. Avant de leur passer la parole pour une petite introduction et pour lancer la discussion, je ne sais pas si vous avez vu, il y en ce moment un pub pour une soupe industrielle qui passe à la télé et qui remercie les consommateurs et les consommatrices d’avoir fait grandir les soupes. Dans cette pub il y a plusieurs messages, le premier c’est « merci d’avoir râlé au sujet des soupes toutes prêtes ». On voit une personne qui mange une soupe et qui dit : « C’est tellement salé qu’on pourrait déneiger avec », une autre s’interroge : « E621, c’est quoi comme légume ? » Cette pub est là évidemment pour nous indiquer que le fabricant a amélioré la recette de ses soupes en mettant de l’eau, des bons légumes, des ingrédients naturels, enfin ! Si on en croit la pub évidemment ! Mais que nous dit l’étiquette ? Eh bien c’est l’un des sujets qu’on va aborder aujourd’hui avec Open Food Facts qui, comme je l’ai dit tout à l’heure, est une base de données sur les produits alimentaires, faite par tout le monde et pour tout le monde. Évidemment, les personnes qui nous écoutent vont être intéressées par l‘utilisation et éventuellement par la contribution.<br/><br />
D’abord petite question personnelle, votre parcours. Est-ce que vous pourriez vous présenter ? On va commencer par Anca Luca.<br />
<br />
<b>Anca Luca : </b>Bonjour. Je suis ingénieure informatique à la base, c’est ça mon métier et j’ai fait du développement de logiciel libre pendant toute ma vie professionnelle depuis 12 ans maintenant et, depuis quelques années, j’ai découvert Open Food Facts. J’ai participé, j’ai fait des contributions de données libres au début. J’ai fait quelques contributions, très peu, de logiciel, de code ; après j’ai participé à la vie de l’association, j’ai tenu des stands, j’ai présenté le projet à plusieurs endroits. Depuis quelques mois je suis présidente de cette association. <br />
<br />
<b>Frédéric Couchet : </b>D’accord. Et tu travailles professionnellement pour une société qui s’appelle XWiki, qui fait du logiciel libre et qu’on salue au passage. Pierre Slamich.<br />
<br />
<b>Pierre Slamich : </b>Je ne suis pas du tout programmeur à la base. Dans une vie antérieure j’ai été dans la finance et dans la science politique et, en fait, je suis tombé sur le sujet de l’alimentation un peu par hasard. En 2012, on a constaté que c’était très compliqué de se repérer dans les supermarchés, donc on s’est dit « si on créait le Wikipédia des aliments ». On a cofondé l’association Open Food Facts pour apporter plus de transparence sur les produits quotidiens. <br />
<br />
<b>Frédéric Couchet : </b>D’accord. Donc tu l’as cofondée avec Stéphane Gigandet. On attaque directement après la présentation personnelle rapide avec la première question. Effectivement c’est de plus en plus connu, j’ai l’impression qu’on voit de plus en plus de gens dans les magasins avec leur tablette ou ordinateur enfin téléphone mobile pour scanner les aliments. C’est quoi une application mobile de base de données de produits alimentaires et la genèse du projet Open Food Facts ? Quel problème vous vouliez résoudre, en tout cas un des cofondateurs, Pierre on va commencer par toi. Pierre Slamich.<br />
<br />
<b>Pierre Slamich : </b>On s’était rendu compte, par exemple si on veut choisir les céréales de petit déjeuner pour ses enfants et qu’on va au supermarché, eh bien qu’on se retrouve face à un rayon qui fait dix mètres de long, où il va y avoir des dizaines et des dizaines de paquets, une quarantaine, une cinquantaine de paquets différents et, au final, on se demande « comment est-ce que je fais ? » Il faudrait retourner les paquets un à un, noter les ingrédients. Enfin en 2012 il fallait noter les ingrédients et ensuite comparer. Personnellement je n’ai jamais compris ce que voulait dire le tableau nutritionnel. L’idée c’était de voir si on pouvait collecter toutes ces données de manière citoyenne, de manière participative, et, du coup, de pouvoir en faire des choses utiles, on en parlera plus tard, calculer le Nutri-Score etce genre de choses.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Open Foods Facts le démarrage c’est donc 2012, c’est ça ?<br />
<br />
<b>Pierre Slamich : </b>C’est ça. On démarre en 2012 avec zéro produit et là on vient d’arriver à un million, donc beaucoup de chemin parcouru en quelques années.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Question avant de passer la parole à Anca, est-ce qu’il y avait à l’époque d’autres outils de ce même genre ? Est-ce qu’il en existait déjà ?<br />
<br />
<b>Pierre Slamich : </b>Les bases de données nutritionnelles ce n’est pas une idée neuve, il y en avait déjà sur le Minitel.<br />
<br />
<b>Frédéric Couchet : </b>Je parle avec un téléphone mobile qui permet de scanner.<br />
<br />
<b> Pierre Slamich : </b>C’était une idée absolument nouvelle à l’époque, c’est-à-dire que non seulement il n’y avait pas de bases de données ouvertes, il y avait juste des bases qui appartenaient aux fabricants agroalimentaires et, en plus, on ne pouvait pas scanner le code barre pour obtenir, en un instant, une fraction de seconde, des résultats clairs et synthétiques. Donc ça a été une grosse nouveauté d’Open Food Facts et la deuxième grosse nouveauté d’Open Food Facts c’était que chacun pouvait participer à la révolution alimentaire en ajoutant des produits qui n’existaient pas encore dans la base.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. On va y revenir dans la partie contribution. En tout cas les objectifs c’est quoi ? Un meilleur bien-être ? C’est de consommer en toute connaissance de cause, quitte à consommer des choses qui sont peut-être nutritionnellement pas très bonnes mais gustativement très addictives. C’est quoi les objectifs au fond ? Par exemple toi qu’est-ce qui t’a intéressé à participer à ce projet et à partir de quand tu as participé à ce projet ?<br />
<br />
<b>Anca Luca : </b>Je vais parler pour moi seulement parce que je ne peux pas parler des objectifs de chacun. Open Food Facts, comme le nom le dit, il y a quand même le mot « Facts » dedans qui veut dire des faits. Donc on essaie de présenter les faits et de faire en sorte que les gens, que les citoyens, connaissent les faits sur les produits alimentaires. C’est assez difficile à trancher entre ce qui est un fait et ce qui est une opinion. On essaie de rester dans des choses qui sont très proches d’informations claires. C’est pour ça qu’aujourd’hui notre base de données est construite à partir des informations qui viennent des étiquettes de produits. Pour expliquer un peu comment ça marche pour les gens qui nous écoutent : on scanne un produit avec son téléphone mobile, donc on scanne le code barre de ce produit et, pour contribuer [ajouter] ce produit à la base de données, on prend des photos de l’emballage de ce produit, une photo du devant de l’emballage et après la liste des ingrédients, le tableau nutritionnel. Après on extrait ces informations de ces images et on les met dans la base de données. Pourquoi l’emballage du produit ? Parce que les lois agissent sur les emballages. Un producteur industriel qui produit des produits alimentaires est tenu par la loi à dire le maximum de vérité sur l’emballage. Je dis « maximum de vérité » parce que des fois on n’est pas sûr, mais bon ! Les lois agissent là-dessus et pas sur d’autres sources d’information.<br/><br />
Donc mon objectif, tel que moi je le vois, c’est de fournir ces informations aux gens et de laisser la possibilité aux gens de se faire leur propre opinion en essayant de donner ce qui est connu et accepté comme étant vrai et pas forcément sujet à discussion. C’est assez flou, c’est assez large.<br />
Pourquoi je suis venue dans le projet, je pense que c’était 2014-2015, je ne rappelle plus.<br/><br />
<br />
<b>Pierre Slamich : </b>2014.<br />
<br />
<b>Anca Luca : </b>2014 peut-être, c’est à cause des soupes, d’une marque.<br />
<br />
<b>Pierre Slamich : </b>Ces fameuses soupes !<br />
<br />
<b>Anca Luca : </b>Ces fameuses soupes !<br />
<br />
<b>Frédéric Couchet : </b>En fait j’avais préparé, je savais qu’Anca était venue par les soupes.<br />
<br />
<b>Anca Luca : </b>Tout à fait. Moi je suis arrivée par les soupes. J’ai croisé Stéphane Gigandet sur un salon, j’ai découvert le projet, j’ai installé l’application et après j’ai commencé à regarder un peu dans mon frigo, dans mon placard. Et, à cause des soupes : j’ai découvert qu’il y avait un additif dans une de ces briques de soupe, il y avait un additif qui n’était pas forcément un légume – je ne pense que c’était le même E de la pub, mais bon ! – et j’étais curieuse de savoir si cet additif se retrouvait dans toutes les soupes en brique. C’était notamment le glutamate monosodique, je ne sais pas exactement le nom, c’est un exhausteur de goût, donc je me suis dit « ça doit être normal parce que les légumes en brique n’ont pas trop de goût, donc il doit y en avoir dans toutes les soupes ». Je suis allée sur le site openfoodfacts.org et j’ai découvert que non, il y a des soupes en brique qui n’ont pas du tout cet additif, donc un meilleur choix est possible et après c’est à moi de faire ce choix-là. Je me suis dit « c’est très intéressant, tout le monde devrait avoir la possibilité de faire ce genre de chose, ce genre de recherche, de comparaison de produits et avoir l’accès à la donnée qui leur permettra de comprendre un peu plus ce qu’ils mangent ». <br />
<br />
<b>Frédéric Couchet : </b>D’accord. La question qui me vient, qui va être une question un peu centrale parce que je pense que c’est l’un des points que les gens qui nous écoutent doivent comprendre. Moi par exemple, la première fois que j’ai lancé Open Food Facts c’est un peu le truc qui m’a le plus perturbé, c’est qu’il y a deux notions, il y a deux systèmes de notation, en tout cas de valeur, je ne sais pas, qui sont le Nutri-Score et l’indice NOVA. Donc on va expliquer que quand on est dans un magasin, on scanne, comme l’a dit Anca, le code barre avec l’application Open Food Facts et là on a l’image, la photo du produit qui s’affiche et on a deux éléments qui apparaissent tout de suite : le Nutri-Score et l’indice NOVA.<br/><br />
Pierre, est-ce que tu pourrais nous expliquer ces deux systèmes et à quoi ils servent exactement. Est-ce que l’un est plus important que l’autre ou pas ? Je ne sais. Pierre Slamich.<br />
<br />
<b>Pierre Slamich : </b>Comme vient de la dire Anca, un des buts d’Open Food Facts c’est vraiment de collecter cette information et d’offrir des clés de déchiffrage face à la complexité des étiquettes et on veut que ces clés de déchiffrage soient basées sur des faits, sur des travaux scientifiques éprouvés. Donc on affiche deux scores importants, très importants. Le Nutri-Score c’est cette note de A à E qu’on commence à voir apparaître sur les emballages et qu’on a calculé dès sa création, qui permet donc d’avoir la qualité nutritionnelle d’un produit. Ça prend en compte des choses comme les protéines, les fibres, donc les points positifs de ce genre de nutriments qui sont favorables à la santé et des points négatifs pour les choses un peu plus défavorables comme le sel, le sucre, le gras, etc. Donc c’est le Nutri-Score de A à E comme une note à l’école, ça permet vraiment de voir la qualité nutritionnelle.<br/><br />
Et le deuxième indicateur qu’on affiche c’est le groupe NOVA, là ça va de 1 à 4 et ça indique le niveau de transformation d’un produit alimentaire. Est-ce qu’un produit alimentaire est brut, par exemple les légumes, les choses qu’on peut acheter sur le marché, ou est-ce qu’il est transformé, voire ultra-transformé, par exemple le cas de vos soupes, elles sont probablement NOVA 4.<br/><br />
Le Nutri-Score est un score français créé par le professeur Hercberg, la personne qui a notamment créé les cinq fruits et légumes par jour qu’on connaît tous. Le NOVA est un score de recherche brésilien, par le professeur Monteiro, sur cette problématique de est-ce que les aliments qu’on mange sont ultra-transformés, sachant que le programme national Nutrition Santé recommande de réduire cette part d’aliments transformés dans l’alimentation parce que ça pose des problèmes au niveau de la santé.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Je viens d’ouvrir Open Food Facts. Je précise que pour la fameuse soupe dont on ne va pas citer la marque le Nutri-Score c’est B et l’indice NOVA c’est 4. En gros le Nutri-Score B c’est surtout parce qu’il y a du sel mais en quantité quand même modérée.<br />
<br />
<b>Pierre Slamich : </b>C’est déconcertant.<br />
<br />
<b>Frédéric Couchet : </b>Justement, je vais en venir à la question. Je n’utilisais pas l’app, par contre, préparant l’émission j’ai appris qu’il y avait une autre application qui existait, ce sera peut-être l’occasion d’en parler sur le fonctionnement tout à l’heure, qui s’appelle Yuca. La personne à qui j’ai demandé de tester m’a dit : « Yuca, elle, affiche une note de 1 à 100 et une évaluation sur quatre critères – excellent très bon, moyen et insuffisant – quelque chose comme ça. En tout cas la personne m’a dit : « Ça c’est beaucoup plus clair, pour moi c’est facile à comprendre si c’est 80 sur 100 c’est que c’est bon ». En testant Open Food Facts, la personne m’a dit : « Je n’y comprends rien parce là tu as un Nutri-Score qui est à B, donc plutôt pas trop mal, et tu as un NOVA qui est 4 et, bien sûr, le NOVA 4 apparaît en rouge parce que c’est le pire ». C’est ce côté-là qui peut être un peu perturbant. Là-dessus, qu’est-ce que vous avez à répondre Pierre et Anca ?<br />
<br />
<b>Pierre Slamich : </b>C’est justement ça qui est très intéressant. On a choisi de montrer le paradoxe du produit. Je prends un exemple extrême : le Coca-Cola zéro va avoir un Nutri-Score B parce qu’effectivement il n’y a pas de sucre dans le Coca, il n’y a pas de graisses, etc., par contre il y a plein d’additifs dans le Coca zéro, il y en a même encore plus que dans le Coca classique, donc il va être NOVA 4, produit ultra transformé.<br/><br />
On a choisi de ne pas tout agglomérer, littéralement de ne pas mélanger les fruits et les légumes, les pommes et les bananes ensemble, mais plutôt de montrer : ce produit va être bon nutritionnellement, par contre les ingrédients vont être bizarres. On affiche même, depuis peu, l’impact environnemental du produit, l’impact carbone du produit et des produits qui sont bons pour vous vont parfois être mauvais pour la planète. En fait ce sont des paradoxes et après on tient à donner les cartes en main aux gens pour leur permettre de faire leurs propres choix personnels : ne pas leur imposer, ne pas remplacer la confiance aveugle dans un label de qualité d’une marque ou le Label rouge sur des choses par la confiance aveugle dans une application, mais permettre aux gens de développer leur esprit critique et de prendre du recul face à ces applications qui font florès.<br />
<br />
<b>Frédéric Couchet : </b>Avant de laisser la parole à Anca, j’avais une question de Pierre Bresson qui est la personne qui a développé l’application Cause Commune qui me demandait justement : concernant l’empreinte carbone des produits j’aimerais savoir quand cette fonctionnalité sera disponible. L’empreinte carbone est déjà disponible, Pierre ?<br />
<br />
<b>Pierre Slamich : </b>Oui. Elle est disponible. Il y a quelques limitations parce que l’empreinte carbone est quelque chose d’extrêmement complexe, ça se passe en fait sur les ingrédients. On essaye par exemple d’estimer le pourcentage de viande dans des lasagnes au bœuf. On a des données gouvernementales de l’Ademe [Agence de l’environnement et de la maîtrise de l’énergie] pour la France qui permettent de dire « un kilo de bœuf c’est tant de kilos de carbone », donc on fait ce calcul-là déjà sur les produits dont on a les ingrédients, typiquement les plats préparés à base de bœuf, de poisson. Ce n’est pas encore disponible sur tous les produits et ce n’est pas encore disponible dans tous les pays du monde.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Anca tu voulais compléter. <br />
<br />
<b>Anca Luca : </b>Je voulais compléter sur cette question d’affichage qualificatif des aliments versus données différentes qui ont l’air contradictoires. C’est aussi parce que les choix alimentaires sont divers et personnels à chacun. Personnellement, c’est mon avis,, c’est très compliqué de dire ce qui est bon et ce qui n’est pas bon, pour les raisons que Pierre a expliquées : ce qui est bon pour soi peut être mauvais pour la planète, mais également parce que chacun fait ses choix en fonction de ses paramètres. Par exemple le Nutri-Score est intéressant parce qu’il y a des produits que vous allez trouver avec le Nutri-Score E et là, les gens ont plutôt tendance à fuir, à se dire « ah non, il ne faut pas toucher à ça parce qu’il y a un Nutri-Score E ». Ce n’est pas ça que veut dire Nutri-Score E. Nutri-Score E veut dire « ne mange pas que ça toute la journée, mais tu peux le toucher de temps en temps, il n’y a aucun problème ». Tu peux manger du chocolat. Je ne sais pas s’il y a un chocolat D, mais la plupart des chocolats ont des Nutri-Score dans les D et dans les E, ça voudrait dire qu’on ne touche plus jamais de chocolat. Ça veut juste dire : ne mangeons pas que ça et ne mangeons pas ça toute la journée. Donc les choix sont compliqués.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. J’ai une question sur le salon web de la radio : comment interpréter le fait que le Nutri-Score affiché sur un emballage soit différent du Nutri-Score donné par Open Food Facts. Il me semble être déjà tombé sur ce cas de figure, mais je n’en suis plus très sûr. Je ne sais pas si c’est le cas. Est-ce que sur certains emballages le Nutri-Score affiché est différent de celui que vous donnez ?<br />
<br />
<b>Pierre Slamich : </b>En fait le Nutri-Score est une série de calculs assez complexes qui se base sur les informations qu’on est capables de connecter sur les emballages. Il y a notamment le taux de fruits et légumes et le taux de fibres que, malheureusement, la législation n’impose pas aux fabricants d’afficher systématiquement sur les emballages. Parfois il peut se faire qu’on n’ait pas les données sur les fibres et les fruits et légumes ce qui va faire sauter le Nutri-Score de B à C par manque de données. Donc on affiche des avertissements et on encourage tous les producteurs, s’il y en a qui nous écoutent à l’antenne, à nous envoyer directement les données les plus précises possible avec les fruits et légumes et les fibres pour qu’on puisse calculer le Nutri-Score de la manière la plus précise possible. Mais généralement, dans 98 % des cas, c’est toujours le même.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Concernant le Nutri-Score toujours j’ai vu qu’il y avait une initiative citoyenne européenne pro Nutri-Score qui viserait à imposer l’affichage de cet étiquetage simplifié Nutri-Score sur tous les produits alimentaires. Donc deux questions : je suppose que ce n’est pas obligatoire aujourd’hui s’il y a une initiative citoyenne et est-ce que vous êtes en faveur de cette initiative ? Pierre, Anca, qui veut répondre ? Anca.<br />
<br />
<b>Anca Luca : </b>Je peux répondre assez rapidement. Moi je n’ai pas d’avis arrêté là-dessus ; c’est bien de fournir de l’information. En même temps, comme Pierre disait, le Nutri-Score ce n’est qu’un paramètre des produits qu’on choisit. Il y a plein d’autres paramètres, mais je pense que ça serait plutôt bénéfique de pouvoir voir plus rapidement l’évaluation d’un produit.<br />
<br />
<b>Frédéric Couchet : </b>Pierre Slamich.<br />
<br />
<b>Pierre Slamich : </b>Oui. C’est-à-dire que dans un monde parfait Open food Facts n’existerait pas, donc on est pour que le Nutri-Score devienne obligatoire et qu’on n’ait pas à utiliser forcément une application, une béquille pour pouvoir faire son choix en rayon. C’est à-dire que devoir scanner les produits un à un pour voir le Nutri-Score, on commence à le voir en France, c’est tellement mieux quand on peut comparer d’un seul coup d’œil le soir quand on fait son marché. Effectivement le Nutri-Score et après, si les fabricants voulaient afficher des choses comme le NOVA ou l’impact carbone, ça serait génial.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Là on comprend mieux ce que sont le Nutri-Score et l’indice NOVA. On va passer rapidement à la partie comment on crée ce type d’application, à la fois sur la partie logicielle et aussi sur la partie base de données. Est-ce que ce sont des licences libres dans les deux cas ? Est-ce que c’est créé uniquement par des bénévoles ? Est-ce que vous avez des gens qui sont financés pour développer l’application et maintenir la base de données ? Et question annexe aussi : tout à l’heure, Pierre, tu as parlé un petit peu des fournisseurs, des fabricants, est-ce que vous êtes en contact avec des fabricants pour récupérer automatiquement, enfin qui vous envoient des informations nutritionnelles concernant les aliments ? Ça fait plein de questions. Qui veut commencer ? Pierre, peut-être, puisque tu as fondé, ou Anca, je ne sais pas.<br />
<br />
<b>Pierre Slamich : </b>Effectivement il y a plein de questions. J’essaye de me remémorer.<br />
<br />
<b>Frédéric Couchet : </b>Sur la partie logicielle, la partie base de données. Comment vous faites ? Est-ce que ce ne sont que des bénévoles ? Est-ce qu’il y a des personnes qui sont financées pour développer la partie logicielle et peut-être la partie base de données ? Anca Luca.<br />
<br />
<b>Anca Luca : </b>D’un point de vue technique, on va dire qu’il y a trois composantes techniques. Il y a le code du serveur qui fait le site web, donc openfoodfacts.org et tout ça, c’est un logiciel libre, c’est écrit en Perl, s’il y a des gens qui veulent venir participer. Après il y a l’application mobile, plus précisément les applications mobiles parce qu’il y en a pour chaque plateforme ; je pense que les développements natifs aujourd’hui, si je me rappelle bien, c’est Android, iOS et c’est tout.<br />
<br />
<b>Pierre Slamich : </b>Ubuntu aussi.<br />
<br />
<b>Anca Luca : </b>Ubuntu aussi. On avait aussi Firefox OS, mais comme c’est mort ! Ce n’est pas mort, je pense qu’il est toujours maintenu par la communauté, donc je demande pardon aux gens qui font ça ! Désolée.<br />
<br />
<b>Frédéric Couchet : </b>Un logiciel libre n’est jamais mort il est gelé. On attend le retour à la vie<br />
<br />
<b>Anca Luca : </b>Le Libre n’est jamais mort, c’est l’avantage du Libre !<br/><br />
Et la troisième composante technique c’est la maintenance de tous les serveurs et toutes les opérations qui font que ça tient debout.<br/> <br />
Tous les logiciels sont libres, développés au début par des bénévoles, donc tout ce qui a été développé a été développé par des bénévoles sur leur temps libre et, depuis très peu de temps, on a du financement pour des projets auxquels on participe qui nous permettent de financer des personnes qui participent, qui font tourner l’association on va dire et aussi du développement par-ci par-là, je pense. Je ne pense pas qu’on a des permanents développeurs. Si ? Si on en a. Pardon ! Tu es permanent développeur.<br />
<br />
<b>Frédéric Couchet : </b>Pierre Slamich.<br />
<br />
<b>Pierre Slamich : </b>Ça permet de faire le lien avec ce que tu mentionnes, justement sur les financements. On parlait des producteurs, ça nous permet typiquement de créer une plateforme qui va permettre à tous les producteurs d’importer leurs données directement dans Open Food Facts. Effectivement on a des producteurs quasiment depuis le début du projet qui nous disent : « C’est génial, comment on met nos données, comment on met nos produits dans Open Food Facts ? » Là on est en train de mettre en place une plateforme qui nous permettra justement d’avoir des données à jour, complètes et plus détaillées sur les produits, du coup grâce au soutien de Santé publique France qui est l’organisme qui s’occupe de la prévention de la santé en France.<br />
<br />
<b>Frédéric Couchet : </b>On a parlé de la partie logicielle, ce sont des logiciels libres. La partie base de données, une spécificité, c’est qu’elle est disponible sous une licence libre spécifique aux bases de données.<br />
<br />
<b>Pierre Slamich : </b>Voilà. Logiciel libre, données ouvertes et tout est gratuit. Ça ce sont des grands principes de l’association. Effectivement on a les logiciels qui permettent de générer ces données ouvertes. D’ailleurs on l’appelle le <em>product opener</em>, c’est-à-dire décapsuleur en français, et, du coup, on a ce logiciel qui permet de générer les données. Après les données sont reversées sous forme d’export, sous forme d’API.<br />
<br />
<b>Frédéric Couchet : </b>Interface de programmation.<br />
<br />
<b>Pierre Slamich : </b>C’est-à-dire qu’on a une API, une interface de programmation logicielle qui permet à d’autres applications, d’autres services, de pouvoir bâtir sur Open Food Facts des expériences logicielles dédiées par exemple à des diabétiques, à des publics…<br />
<br />
<b>Frédéric Couchet : </b>Des publics végans par exemple ?<br />
<br />
<b>Pierre Slamich : </b>Oui, effectivement on a des applications basées sur Open Food Facts pour les végans. D’ailleurs on va même bientôt lancer, c’est déjà disponible pour les gens qui sont sur F-doid et bientôt sur Play Store, la détection des produits végans, végétariens et avec de l’huile de palme.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Je précise que F-Droid c’est un magasin d’applications libres. Je vous encourage à l’installer comme ça vous aurez plein d’applications libres dont Open Food Facts et plein d’autres, vous avez OpenStreetMap et compagnie.<br/><br />
Sur la partie modèle économique, les coûts c’est l’hébergement des serveurs et vous avez des financements via des partenariats qui permettent de financer de gens qui vont contribuer techniquement.<br />
<br />
<b>Pierre Slamich : </b>Il faut voir que de 2012 jusqu’à cette année, on a fait tourner l’association avec un budget de 600 euros par an. Ça paraît un peu fou mais c’était essentiellement les coûts serveur, un petit serveur pour faire tourner le projet, et on est arrivé comme ça à libérer des centaines de milliers de produits. Là on a cette chance de pouvoir vraiment accélérer grâce au soutien de Santé Publique France sur plus de sujets, dans plus de pays. On a effectivement les deux premiers permanents, Stéphane et moi, et on peut se consacrer à 100 % à pouvoir faire grandir l’association, encadrer : on a de plus en plus de développeurs qui veulent investir du temps pour améliorer les applications mobiles, on est aussi en train de faire de l’intelligence artificielle pour pouvoir extraire les informations automatiquement des étiquettes, donc ce sont plein de choses qu’il faut arriver à pouvoir accompagner, faire grandir pour suivre l’augmentation ; on a plus d’un million et demi d’utilisateurs, donc il faut arriver à tenir en termes humains la croissance du projet.<br />
<br />
<b>Frédéric Couchet : </b>C’est une excellente nouvelle. Je ne savais pas du tout que vous étiez, Stéphane et toi, permanents et c’est une excellente nouvelle. J’ai une remarque sur le salon web et peut-être une demande d’évolution de l’application, je ne sais pas si c’est possible, mais je vais la relayer. C’est mu_man dit : « Le seul souci que j’ai avec l’appli mobile c’est qu’elle a besoin d’être connectée, donc sur ma tablette ça ne marche pas. » Est-ce qu’il est prévu, est-ce qu’il est techniquement possible d’avoir une version déconnectée d’Open Food Facts, c’est-à-dire avec la base de données téléchargées directement, un peu comme OpenStreetMap le fait avec je ne sais plus quelle application. Est-ce que c’est faisable ? Qui veut répondre ?<br />
<br />
<b>Anca Luca : </b>Ce n’est pas uniquement faisable, c’est fait !<br />
<br />
<b>Pierre Slamich : </b>C’est à moitié fait !<br />
<br />
<b>Frédéric Couchet : </b>Attention !Écoute bien mum_man, c’est fait !<br />
<br />
<b>Pierre Slamich : </b>On va commencer par un troll. Ça veut dire que mu_man n’est pas sur iPhone parce que les utilisateurs d’iPhone ont déjà la possibilité de scanner leur connexion et, sur Android, ça arrive, comme le dit Anca, effectivement ça arrive. On a des premiers prototypes, donc on est arrivé à comprimer le million de produits d’Open Food Facts sur l’équivalent de quatre selfies, donc on est arrivé à réduire la taille, à comprimer ça sur un téléphone, c’est assez fou ! On a besoin d’aide. Si vous voulez rejoindre l’équipe Android pour aller plus vite sur les fonctionnalités, n’hésitez pas ! Mais ça arrive, on est en train de travailler dessus.<br />
<br />
<b>Frédéric Couchet : </b>Il confirme effectivement qu’il n’est pas sur iPhone. Il le confirme directement. La base de données représente quelle taille ? Vous avez une idée ? Tu dis que ça compresse en quatre selfies, mais la base originale ? Mais si tu n’a pas d’idée, ce n’est pas grave !<br />
<br />
<b>Pierre Slamich : </b>Je crois que ça se compte en gigaoctets.<br />
<br />
<b>Frédéric Couchet : </b>Sur un téléphone, effectivement, on arrive vite à saturer.<br />
<br />
<b>Pierre Slamich : </b>Et là ce n’est que le texte, que la base de données textuelles, mais on a aussi des millions de photos et là ce sont des millions de téraoctets de photos, donc c’est un terrain de jeu absolument formidable pour les gens qui s’intéressent à l’intelligence artificielle. La vision sur ordinateur assure deux choses parce que, du coup, on a un impact absolument démesuré quand on travaille sur Open Food Facts.<br />
<br />
<b>Frédéric Couchet : </b>Vas-y Anca.<br />
<br />
<b>Anca Luca : </b>Je voudrais aussi ajouter, puisqu’on parle de la taille de cette base de données et de tout ça, on n’a pas complètement expliqué comment ça s’est passé. Ce sont des contributions des gens qui ont téléchargé l’application, scanné des produits, envoyés des photos, rempli des fiches de produits au début, avec l’aide des bases de données que les industriels ont pu nous envoyer pour les importer et participer à la base de données, mais à la base il y a énormément de contributions des utilisateurs qu’on remercie. C’est comme ça qu’on est arrivé à un million de produits, on en est très fier. <br />
<br />
<b>Frédéric Couchet : </b>La contribution, on va y revenir en détail juste après la pause musicale, mais je crois que vous venez de gagner un développeur parce que mu_man, qui continue sur le salon web, a dit : « Il faut dire que la base mériterait peut-être d’être un peu structurée aussi : sur beaucoup de champs il y a plein de doublons parce que ce sont des champs en texte libre ». Comme mu_man sait développer, je vous enverrai ses coordonnées. Je pense que vous avez gagné un contributeur. Il nous répondra directement sur le salon.<br />
<br />
<b>Pierre Slamich : </b>À bientôt !<br />
<br />
<b>Frédéric Couchet : </b>On va faire une pause musicale. On va écouter <em>Scully's Reel</em> par Sláinte. On se retrouve juste après. Belle journée à l’écoute de Cause Commune.<br />
<br />
<b>Pause musicale : </b><em>Scully's Reel</em> par Sláinte.<br />
<br />
===Deuxième partie===<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Scully's Reel</em> par Sláinte, disponible sous licence libre Creative Commons Partage dans les mêmes conditions.<br />
<br />
Vous écoutez toujours l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 FM et sur le site causecommune.fm partout ailleurs.<br />
<br />
Nous continuons notre discussion sur Open Food Facts avec Pierre Slamich et Anca Luca. Juste avant la pause Anca avait commencé à parler de l’importance de la contribution des personnes qui utilisent l’application. Justement on va voir un petit peu comment contribuer. La première contribution, tu avais commencé à l’expliquer, c’est l’ajout de produits. Comment ça fonctionne Anca ?<br />
<br />
<b>Anca Luca : </b>On va au supermarché ou chez soi, dans le frigo ou dans le placard, on scanne un produit, le code barre du produit, on télécharge l’application d’abord je ne l’ai pas dit, pardon. On télécharge l’application, on scanne le code barre, il y a un bouton sur l’application qui dit « scanner », on scanne le code barre d’un produit, ça va reconnaître les chiffres du code barre et ça va chercher le produit dans la base de données. Si ce produit est trouvé on peut améliorer le produit en envoyant des nouvelles images ou des images avec les ingrédients, par exemple si les ingrédients ne sont pas remplis, ou avec le tableau nutritionnel si les informations nutritionnelles ne sont pas remplies. Il y a aussi la possibilité de modifier directement la fiche produit pour mettre à jour ces informations-là mais c’est très important de nous envoyer la source de cette information. Par exemple si quelqu’un veut mettre à jour le tableau, les informations nutritionnelles du tableau nutritionnel, c’est important aussi de mettre la photo pour avoir la preuve, effectivement, que ce sont les vraies données, les bonnes données. Ça c’est si le produit existe.<br/><br />
Si le produit n’existe pas, on commence à prendre des photos et à remplir, il y a trois écrans à remplir, il n’y a pas plus que ça :<br/><br />
le premier écran qui demande une photo du devant de l’emballage du produit, le nom du produit et la catégorie du produit ;<br/><br />
le deuxième écran qui demande un photo de la liste des ingrédients qui vont être reconnus automatiquement par un logiciel de reconnaissance de texte, donc on va essayer d’extraire pour vous la liste des ingrédients à partir d’une image, donc vous n’avez pas besoin de taper du texte sur mobile, heureusement. S’il y a des erreurs vous pouvez les corriger après, mais ça marche en fonction de la taille de l’étiquette du produit qui est un sujet ! Mais en fonction de la taille l’étiquette, donc du texte sur cette étiquette, ça peut marcher très bien directement. <br/><br />
Et le troisième écran c’est le tableau nutritionnel, donc pareil, image et les chiffres qui sont dans le tableau nutritionnel du produit.<br/><br />
Une fois qu’on a fait ça on a un produit qui est correctement rempli et le Nutri-Score et le score NOVA sont calculés automatiquement. Donc on va dire maximum en deux minutes et demie si on a du mal à trouver un bon angle pour la photo, on a le Nutri-Score et le score NOVA pour un produit qu’on s’apprête à manger et on peut en savoir un peu plus sur ce qu’on va manger.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Est-ce que le produit est ajouté automatiquement dans la base ou est-ce qu’il y a une validation ou une modération pour vérifier les éléments ?<br />
<br />
<b>Anca Luca : </b>Il est ajouté automatiquement à la base par le même principe que Wikipédia. On ajoute l’information et on espère qu’avec suffisamment de paires d’yeux, tous les bogues seront découverts. C’est en fait le principe du Libre.<br />
<br />
<b>Frédéric Couchet : </b>La loi de Linus Torvalds. Justement, une question me vient, toujours posée tout à l’heure en préparant l’émission de la part de Pierre Besson sur la fiabilité des données. Est-ce que vous avez noté de la triche ou des données erronées, qui sont deux sujets différents évidemment ? Pierre Slamich.<br />
<br />
<b>Pierre Slamich : </b>Pour compléter, effectivement il y a ce côté collaboratif : on a la chance d’avoir une communauté. On a un million et demi d’utilisateurs, on a plus de 25 000 personnes qui vérifient ces fiches en fait de manière continue et ce qu’on a fait monter ces dernières années, ce sont plusieurs choses. Ce sont d’abord des algorithmes spécialisés de qualité qui vérifient, par exemple, que la somme des nutriments fait bien 100 grammes, etc., donc ont des écarts à la moyenne : est-ce que ces lasagnes bolognaises ressemblent bien à des lasagnes bolognaises d’un point de vue ingrédients et d’un point de vue nutrition ? L’intelligence artificielle aide pas mal. Et puis le troisième pilier sur la qualité c’est qu’on a les imports producteurs qui sont, en fait, en train de monter en puissance, donc on a de la donnée directement validée à la source. Évidemment on applique les mêmes vérifications.<br />
<br />
<b>Frédéric Couchet : </b>Vous ne leur faites pas confiance par défaut, quand même !<br />
<br />
<b>Pierre Slamich : </b>On s’assure quand même. Sachant que c’est tellement radioactif et s’ils s’amusaient à mentir sur les choses sur les emballages ils auraient des conséquences légales, directement de l’État, et puis, en termes de relations publiques, ça serait un peu radioactif pour eux.<br/><br />
Voilà les trois piliers : la modération citoyenne, des algorithmes qui viennent renforcer ça et puis les producteurs qui viennent renforcer directement leurs données. Sachant qu’on a la chance d’avoir un sujet qui est effectivement passionné, l’alimentation c’est un sujet passionné, mais c’est plus factuel qu’un article sur la Guerre de Cent Ans ou sur des choses qui peuvent porter à polémique.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Ls gens qui scannent dans les magasins soit pour vérifier un aliment soit pour le rajouter, est-ce que c’est bien vu aujourd’hui par les supermarchés ou autres ? Eu est-ce qu’un agent, une personne de la sécurité vous dit non ? Comment c’est vu ?<br />
<br />
<b>Anca Luca : </b>C’est très intéressant parce qu’il y a des histoires personnelles différentes. Personnellement je n’ai jamais eu de problèmes dans les supermarchés et je ne me cache même pas : je sors mon téléphone, je prends des photos, je scanne des trucs. Après j’ai appris que ça dépend aussi des pays. Il y a d’autres personnes qui ont d’autres expériences.<br />
<br />
<b>Pierre Slamich : </b>J’ai une anecdote à ce sujet. Open Food Facts est présent dans plein de pays, plus de 150 pays, on a un contributeur russe qui s’est fait expulser <em>manu militari</em> de son supermarché local. Donc vraiment, effectivement ça varie.<br />
<br />
<b>Anca Luca : </b>Ça dépend des pays. Après il y a des histoires un peu moins heureuses que la mienne en France. J’allais parler de cette histoire de pays, c’est important de savoir qu’Open Food Facts est fait pour être international, pour marcher dans tous les pays du monde. Ça peut être très intéressant de retrouver les mêmes produits dans deux pays différents et de pouvoir comparer les ingrédients. Il y a d’ailleurs des gens qui ont eu des expériences un peu malheureuses dans mon pays, je viens de Roumanie à la base, et il y a des Français qui sont allés scanner en Roumanie parce qu’ils étaient en visite et ils m’ont raconté des histoires dont je ne suis pas très fière.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. C’est intéressant parce qu’effectivement, une des façons de contribuer aussi à Open Food facts c’est d’adapter l’application à une langue. Aujourd’hui c’est disponible dans combien de langues, dans combien de pays ? 150 tu as dit, c’est ça Anca ?<br />
<br />
<b>Anca Luca : </b>C’est Pierre qui l’a dit.<br />
<br />
<b>Pierre Slamich : </b>Effectivement on a des produits dans à peu près 150 pays. On n’a pas des traductions dans autant de langues que ça, mais on essaye vraiment, on a ce credo que l’information alimentaire est un droit fondamental qui doit être accessible quelle que soit sa langue, quel que soit son pays, même si le pays n’est pas, entre guillemets, « rentable » pour une start-up ou pour un grand groupe. L’idée c’est vraiment quel que soit le téléphone qu’on a, Android, iOS et qu’on n’ait pas aussi à payer avec sa vie privée. Du coup, typiquement sur Open Foof Facts, on n’a pas besoin de s’inscrire, donc on peut utiliser l’application sans filer de données personnelles, il n’y a pas de trackers dans l’application.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. J’ai une question. Tout à l’heure on a parlé de Yuka, une des fonctionnalités de Yuka dont on m’a parlé c’est le fait que quand vous avez un produit scanné qui est produit, on va dire, avec une note mauvaise, Yuka affiche des alternatives. La personne m’a dit : « Ça c’est vachement bien parce que je n’ai pas à me prendre la tête, je vais dans la liste des alternatives et je choisis ». J’ai regardé sur Open Food Facts, il n’y a pas à priori pour le moment, sauf erreur en tout cas, cette liste d’alternatives, est-ce que c’est prévu ? Yuka, c’est une startup machin on peut peut-être se dire « comment ils mettent les alternatives, est-ce que derrière il y a des financements », alors qu’avec une base de données ouvertes on sait comment ça fonctionne ? Pierre.<br />
<br />
<b>Pierre Slamich : </b>Il y a deux points. Déjà, effectivement, c’est la transparence des algorithmes, ça c’est important. Nous, si on doit faire quelque chose, ça sera totalement transparent. Il y a aussi un deuxième point qui est important c’est la personnalisation, c’est-à-dire que quelqu’un qui est végan, quelqu’un qui est musulman, n’a pas envie d’avoir les mêmes recommandations selon ses préférences personnelles ou religieuses ou ses problèmes de santé. Nous on veut que ça soit ultra-personnalisé selon qui on aide, d’où on vient et ce qui nous préoccupe.<br/><br />
Et troisième point – ça on est en train de préparer la fonctionnalité, ça va prendre encore un peu de temps – et en attendant, sur Android, on a cette fonctionnalité assez sympa qui permet de comparer, de faire un peu son mini UFC-Que Choisir en rayon. Parce que typiquement, si on a une recommandation et qu’elle n’est pas dispo en rayon parce qu’il est 19 heures, que tous les produits sont partis et que ce n’est pas disponible dans son supermarché local, ça ne sert pas à grand-chose. Si, en plus, elle trop vertueuse, si on veut une alternative au Nutella et que l’application propose des trucs un peu trop vertueux, « inintéressants » entre guillemets pour la personne, c’est un peu dommage. Donc nous, ce qu’on permet de faire, on fait sa présélection en rayon et puis on compare : typiquement les lasagnes au bœuf, on peut les comparer entre elles en un instant et voir le Nutri-Score, le NOVA et l’impact carbone pour après faire son choix sans contrainte parmi ce qu’on a dans le rayon au moment où on fait ses courses. <br />
<br />
<b>Frédéric Couchet : </b>Anca. <br />
<br />
<b>Anca Luca : </b>Ça vaut peut-être aussi de mentionner tous les outils pas forcément de comparaison mais d’analyse de la base de données des produits qui sont disponibles. Déjà il y a toute la taxinomie des produits, donc les catégories de produits. C’est facile de trouver des alternatives sans l’influence d’un algorithme qu’on ne connaît pas. La méthode la plus facile c’est d’aller naviguer sur tous les produits dans la même catégorie, parce que finalement c’est ça la liste d’alternatives : c’est un classement et sans l’influence, on va dire, d’une source externe.<br />
<br />
<b>Pierre Slamich : </b>En une minute, sur Open Food Facts, on peut créer son graphe en trois clics.<br />
<br />
<b>Anca Luca : </b>Et il y a aussi l’outil pour créer un graphe. Donc les catégories, la navigation par catégories, et après l’outil de graphe qui permet de faire des graphiques assez intéressants, avec les différents paramètres nutritionnels des produits qui font partie d’une certaine catégorie, qui ne sont pas bio et ainsi de suite. Ces outils ne sont pas disponibles dans l’application mobile à ma connaissance. Peut-être qu’un jour on va les mettre dans l’application mobile, mais ces outils existent et, puisque la base de données est libre, on peut toujours être un peu plus confiant dans l’algorithme de classification. <br />
<br />
<b>Frédéric Couchet : </b>Donc la vérification est possible, ce qui n’est pas le cas…<br />
<br />
<b>Anca Luca : </b>Une vérification est possible. Je ne dis que ce n’est pas le cas, je ne veux pas dire que les autres applications ne sont bonnes parce que je ne le sais pas plus que ça, mais il y a cette confiance avec la transparence. Il y a la transparence qui donne confiance dans le résultat, la possibilité de le vérifier.<br />
<br />
<b>Frédéric Couchet : </b>Exactement. Ce qui est valable ici est valable en sécurité, partout.<br/><br />
À l’instant, Pierre, tu as parlé des données envoyées par les producteurs. Est-ce qu’il y a des données importantes qui manquent encore ou est-ce qu’il y a des données qui pourraient être plus définies, plus précises ?<br />
<br />
<b>Pierre Slamich : </b>Oui, il y en a. C’est-à-dire qu’en fait, quand on a commencé Open Food Facts, on s’intéressait aux ingrédients et globalement à la nutrition. Et une personne est venue nous voir en nous disant « moi, ce qui m’intéresse, c’est l’environnement. La nutrition, OK ! » Du coup on a rajouté les emballages, le carton, le plastique, etc. Et en fait, au fur et à mesure où Open Food Facts se développe, on se rend compte des nouvelles préoccupations des gens. Par exemple la question climatique, la question de l’environnement a beaucoup grossi ces dernières années et, pour pouvoir faire des calculs par exemple d’impact carbone ou de responsabilité sociale et environnementale des entreprises, il y a besoin de beaucoup de données. Et les entreprises, en fait, quand on discute avec les fabricants, quand on importe leurs données, eux-mêmes ne sont même pas capables de calculer l’impact carbone de leurs produits, parce que notamment les logiciels qui permettent de calculer ces empreintes carbone ne sont pas libres et les données sous-jacentes, pour faire des hypothèses sur ces empreintes carbone, ne sont pas libres non plus. Donc ils sont obligés de payer des cabinets de conseil très cher pour pouvoir calculer ces impacts carbone, donc il y a vraiment cet enjeu à créer de la donnée sur la traçabilité environnementale et sociale et ensuite à la rendre lisible et exploitable par les consommateurs.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Anca.<br />
<br />
<b>Anca Luca : </b>Ce qui est intéressant au sujet de quelles sont les données qui manquent ou quelles données manquent c’est qu’aujourd’hui, par rapport à 2012, il y a aussi de nouvelles possibilités qui s’ouvrent grâce à l’existence de ce type d’application et de base de données. Puisqu’on a libéré de la donnée, les ingrédients, le tableau nutritionnel, c’est bon on est d’accord, c’est intéressant, etc., mais où est-ce qu’on peut aller plus loin ? Est-ce qu’on peut aller encore plus loin ? Est-ce qu’on peut trouver encore d’autres informations qui soient intéressantes ? Et ces questions-là on se les pose aujourd’hui parce qu’on a vu que c’était possible avec les ingrédients et les informations nutritionnelles. Donc la transparence fait que la transparence est demandée, en fait. Plus il y en a plus on en demande.<br />
<br />
<b>Pierre Slamich : </b>En fait en 2012 les gens nous prenaient pour des fous furieux quand on leur disait : « On va créer une base de données avec tous les produits du monde ». Du coup maintenant, quand on leur parle d’impact carbone, de responsabilité sociale, comme tu disais effectivement Anca, ils disent : « Ah oui ! Ils l’ont fait sur la nutrition, ils ont été assez fous pour le faire sur la nutrition, pourquoi ça ne serait pas possible sur des choses pour lesquelles on estimait que c’était infaisable jusqu’à présent ? »<br />
<br />
<b>Frédéric Couchet : </b>Je pense qu’on disait aussi que les gens étaient fous quand ils ont lancé Wikipédia et d’autres projets du même genre.<br/><br />
On va avancer parce que le temps passe très vite et je voudrais quand même quelques mots sur votre travail avec des partenaires, parce que c’est important, et notamment l’un des partenaires qui est EREN l’Équipe de recherche en épidémiologie nutritionnelle. Est-ce que vous pouvez m’en dire plus ?<br />
<br />
<b>Pierre Slamich : </b>L’EREN, en fait, c’est une équipe de chercheurs français qui a conçu en 2014 quelque chose qui s’appelait le code cinq couleurs à l’époque, qui est devenu aujourd’hui le Nutri-Score : l’équipe du professeur Hercberg s’occupe d’analyser la qualité nutritionnelle des aliments et de voir leur impact sur la santé des gens. Ils ont notamment une cohorte énorme qui s’appelle NutriNet. NutriNet ce sont des centaines de milliers de Français qui vont noter leur état de santé, qui vont noter également ce qu’ils mangent et ça permet aux chercheurs d’effectuer des corrélations entre surconsommation par exemple d’un additif et dégradation de l’état de santé. Par exemple ils ont montré l’impact des aliments ultra-transformés sur la santé, sur les questions de diabète, etc. C’est vraiment une équipe qui génère de la donnée pour pouvoir mieux évaluer les questions de l’impact de l’alimentation sur la santé.<br/><br />
Donc on est très heureux de collaborer avec eux parce que, du coup, ils se servent d’Open Foods Facts pour pouvoir mieux comprendre ce que mangent les gens, quels additifs sont contenus dans ce qu’ils mangent, donc grâce à des données ouvertes ils peuvent faire avancer la science. Ça c’est quelque chose qui est très motivant pour les contributeurs d’Open Food Facts, ce n’est pas un scan juste pour soi mais c’est aussi un scan altruiste qui permet de faire progresser la science. <br />
<br />
<b>Frédéric Couchet : </b>Anca.<br />
<br />
<b>Anca Luca : </b>D’ailleurs ça vaut le coup de mentionner que la base de données Open Food Facts, telle qu’elle était à ce moment-là, a été utilisée pour tester la formule Nutri-Score. C’est à-dire que le fait que cette base de données libre existe permet à des scientifiques de vérifier leur travail et de tester le calcul complexe qu’est le Nutri-Score avec des produits qui existent et des informations sur des produits de la vie réelle. Ça c’est quelque chose qu’uniquement un commun peut apporter, un commun c’est-à-dire une ressource partagée.<br />
<br />
<b>Frédéric Couchet : </b>Une ressource partagée et ??? par tout le monde.<br/><br />
L’étude dont vient de parler Pierre, donc c’est NutriNet-Santé et j’encourage les gens à y participer.<br/> Inversement, j’aimerais savoir comment réagit notamment l’ANIA, l’Association nationale des industries alimentaires, à Open Food Facts. Est-ce que vous avez des liens ou vous savez comment ils réagissent par rapport à ça ?<br />
<br />
<b>Pierre Slamich : </b>L’ANIA c’est effectivement « le lobby des lobbies » entre guillemets de l’industrie agroalimentaire. Ce sont des gens qui défendent bien évidemment leur industrie, leurs intérêts. Ils avaient pris position contre le Nutri-Score à l’époque et là, maintenant, ils ont annoncé qu’ils voulaient mettre en place un clone d’Open Food Facts, donc une base de données faite par l’industrie qui s’appelle Numa Lime et qui est, en fait, une tentative de reprendre la main sur ces questions qui leur ont échappé d’information alimentaire et d’information du consommateur.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. C’est une tentative d’essayer de contrecarrer le développement d’Open Food Facts pour diffuser ses propres informations ?<br />
<br />
<b>Pierre Slamich : </b>L’avantage d’avoir une base de données ouverte, c’est qu’on peut faire des choses. Typiquement le Nutri-Score c’était une formule sur un papier quand on l’a découvert. On a demandé l’algorithme au professeur Hercberg et on a pu le calculer, on a pu lui donner une existence concrète. Les gens ont pu se l’approprier beaucoup plus facilement et ça a contribué à sa démocratisation.<br/><br />
Le problème de l’ERN, de l’équipe du professeur Hercberg mais aussi de toutes les équipes scientifiques dans le monde c’est qu’avant elles devaient quémander de la donnée aux distributeurs, à l’industrie, avec des conditions de réutilisation, elles ne pouvaient pas faire n’importe quoi avec la donnée. Là la puissance des données ouvertes c’est que, du coup, ça permet aux startups d’innover avec plein de création d’apps. Ça permet aux chercheurs de mieux chercher et ça permet aux data journalistes, par exemple du <em>Monde</em>, <em>Les Décodeurs</em> du <em>Monde</em> se sont servis des données d’Open Food Facts pour pouvoir, entre guillemets, « alimenter » le débat public.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Une suggestion sur le salon web de notre régisseur du jour, donc Étienne, une suggestion de développement : croiser avec une base de données de recettes pour pouvoir soi-même, à partir de produits bruts… donc santé plus environnement. Une idée de développement, une idée tout à fait intéressante.<br/><br />
Le temps passe très vite, il nous reste quelques minutes. Avant d’oublier il me paraît important de parler peut-être de vos projets. Tout à l’heure on a parlé de financements, peut-être qu’il y a des appels à don, des appels à contribution, donc si vous avez des appels c’est maintenant avant qu’on oublie. Pierre Slamich.<br />
<br />
<b>Pierre Slamich : </b>On est en train de préparer le budget 2020 de l’association parce que, du coup, ça doit tourner et on lance notre campagne de dons de fin d’année, donc donner.openfoddfacts.org. Ça permettra de financer de l’hébergement, des gens pour bosser sur le projet, de l’infrastructure, de faire progresser les apps plus rapidement.<br />
<br />
<b>Frédéric Couchet : </b>Les apps ce sont les applications.<br />
<br />
<b>Pierre Slamich : </b>Les applications mobiles, de pouvoir faire plus de choses sur plus de sujets.<br />
<br />
<b>Frédéric Couchet : </b>D’ailleurs pour préciser, quand tu dis les applications mobiles, il y en effectivement plusieurs en fait, est-ce que tu peux en citer une ou deux ? Ou Anca.<br />
<br />
<b>Anca Luca : </b>Ce sont les différentes versions de l’application Open Food Facts, donc l’application Android, l’application iOS et l’application Ubuntu.<br />
<br />
<b>Pierre Slamich : </b>Par exemple on avait traditionnellement du mal sur iPhone à avoir une version qui soit à jour par rapport à l’application Android, l’année dernière, grâce aux dons du public, on a pu financer une toute nouvelle version de l’application iPhone avec le scanner connexion, l’historique, etc. Donc ça a vraiment un impact massif parce que ce qu’on arrive à construire pour la France est, du coup, disponible dans plein de langues ; ça va permettre à des utilisateurs aux États-Unis, au Puerto Rico, etc., de bénéficier vraiment de cette transparence alimentaire. Donc ça a vraiment un impact sur Open Food Facts et dans tous les pays du monde<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Une autre façon, je suppose, de relayer votre appel, c’est aussi d’encourager les producteurs et autres à vous proposer leurs données directement pour enrichir encore la base.<br />
<br />
<b>Pierre Slamich : </b>Il y a vraiment plein de façon de contribuer. Si on est producteur on peut contribuer avec les données de ses produits. Si on est contributeur, développeur, traducteur, on peut. Même, si on a envie de rédiger des textes d’explication d’Open Food Facts c’est bienvenu parce que, du coup, ça permet de faire parler du projet, ça permet de faire avancer, d’avoir de nouvelles fonctionnalités, etc. Donc si on n’a pas de temps, on peut faire un don à l’association soit, directement, contribuer avec son temps pour faire progresser la transparence alimentaire en France et aussi dans le monde entier.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Je regarde sur le salon web s’il y a des questions. J’en avais une qui vient complètement de m’échapper, mais elle va me revenir. Je vais vous poser la question, je crois que Anca y a répondu un petit peu au début, est-ce qu’il y a des risques à vouloir contrôler tout ce qu’on mange et pour reprendre une célèbre chanson de Stéphane Eicher, est-ce qu’on peut encore déjeuner en paix sans avoir son smartphone à côté pour vérifier tout ce qu’on mange ?<br />
<br />
<b>Anca Luca : </b>Personnellement je déjeune toujours tranquille, même si je mange plein de choses.<br />
<br />
<b>Pierre Slamich : </b>Qu’est-ce que tu as mangé à midi, Anca ?<br />
<br />
<b>Anca Luca : </b>Pas « scannable » parce qu’il n’y a pas de code barre. On peut toujours déjeuner en paix. Le fait qu’on essaie de s’informer un peu ou un peu plus ou un peu moins, je ne sais pas, le fait qu’on essaie de s’informer ne veut dire qu’il faut devenir paranoïaque, qu’il ne faut rien manger. Les gens peuvent s’informer et, au-delà des gens individuellement, je pense qu’en tant que société on a besoin de ce genre de collecte d’informations pour pouvoir savoir des choses sur ce qu’on est en train de faire. L’action citoyenne, donc le fait qu’on utilise cette base de données pour la science, c’est un exemple. Donc on ne le fait pas uniquement pour soi-même. Oui, je pense qu’on peut manger parfaitement tranquille. Ce n’est parce qu’on utilise une application qu’on va tomber dans la paranoïa de ne rien manger de ce qui a le score nutritionnel E, par exemple.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Je me souviens de ma question. Vas-y Pierre.<br />
<br />
<b>Pierre Slamich : </b>Personnellement, sur la nutrition ça m’a fait un petit peu évoluer : surtout sur la transformation, c’est sur les produits ultra-transformés que moi j’ai complètement eu un déclic. Après, on ne peut pas changer son alimentation comme ça, radicalement du jour au lendemain, mais ça permet d’avoir cette prise de recul face à son alimentation.<br />
<br />
<b>Anca Luca : </b>Je pense que c’est la possibilité de découvrir qui est la plus importante. On se sent potentiellement sans choix ou coincés en se disant « qu’est-ce que je vais manger ou autre ? Est-ce que c’est rapide à préparer ? » et ainsi de suite et l’existence de cette information et de ces données qui existent et qu’on peut consulter permet de découvrir de choses beaucoup plus facilement que de s’asseoir et de réfléchir soi-même. Réfléchir sans source d’information, c’est compliqué.<br />
<br />
<b>Frédéric Couchet : </b>Si on le fait, c’est compliqué.<br />
<br />
<b>Anca Luca : </b>Comme dit Francis Bacon, la connaissance, le savoir rend plus puissant, en fait.<br />
<br />
<b>Frédéric Couchet : </b>Ça aurait pu être une excellente conclusion, mais je me souviens quand même de ma question, donc ma dernière question c’est un, comment on peut vous contacter si on a envie de contribuer et deux, est-ce qu’on peut vous voir sur des évènements libristes ou autres, je peux penser aux Ubuntu Party, par exemple ce week-end à Toulouse il y a le Capitole du Libre, bientôt il y a un salon libriste ? Deux questions : comment on peut vous contacter ? Est-ce qu’on peut vous retrouver sur des évènements ?<br />
<br />
<b>Anca Luca : </b>Moi je serai à Toulouse mais avec mon tee-shirt XWiki, pas avec mon Tee-shirt Open Food Facts ; vous allez me trouver sur le stand XWiki ; si vous voulez venir me parler, je serai ravie de vous parler d’Open Food Facts aussi.<br />
<br />
<b>Pierre Slamich : </b>On sera au FOSDEM.<br />
<br />
<b>Frédéric Couchet : </b>Donc à Bruxelles, en février.<br />
<br />
<b>Pierre Slamich : </b>On participe régulièrement à plein d’évènements. On est très heureux de pouvoir intervenir dans des évènements et. du coup, pour nous contacter c’est très simple c’est contact@openfoodfacts.org et aussi sur nos espaces de discussion en ligne.<br />
<br />
<b>Frédéric Couchet : </b>Excellent. Je vous remercie de cet échange sur Open Food Facts. C’était Pierre Slamich et Anca Luca. Je vous souhaite de passer une belle journée et à bientôt.<br />
<br />
<b>Pierre Slamich : </b>Bonne journée.<br />
<br />
<b>Anca Luca : </b>Bonne journée.<br />
<br />
<b>Frédéric Couchet : </b>On va faire une petite pause musicale.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>On va écouter <em>Nomad</em> par MELA. On se retrouve juste après. Belle journée à l’écoute de Cause Commune.<br />
<br />
<b>Pause musicale : </b><em>Nomad</em> par MELA.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Nomad</em> par MELA, disponible sous licence libre Creative Commons Partage dans les mêmes conditions. Vous retrouverez les références sur le site de l’April, april.org, et sur le site de Cause Commune, causecommune.fm.<br />
<br />
Vous écoutez toujours <em>Libre à vous !</em> sur radio Cause Commune 93.1 FM en Île-de-France.<br/><br />
Nous allons passer au sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
<br />
===Chronique de Vincent Calame ===<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre avec la chronique « Jouons collectif » de Vincent Calame, bénévole à l’April. Bonjour Vincent.<br />
<br />
<b> Vincent Calame : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b> Alors aujourd'hui, tu souhaites nous parler de la clause «Pas d'usage commercial» de certaines licences Creative Commons.<br />
<br />
<b>Vincent Calame : </b> Oui tout à fait. Pour cette chronique, j'ai un peu marché sur les plates-bandes de Jean-Christophe Becquet qui tient ici même une chronique «Pépite libre» qui présente des ressources justement sous licence libre. Et dans sa toute première chronique que l'on peut télécharger sur le site de l'April, il évoquait le cas d'une vidéo d'une conférence qui était sous licence Creative Commons mais qui ne pouvait pas rééutiliser dans une formation parce que ce n'est pas cette clause et qu'est-ce qu'elle avait justement cette clause usage non commercial. Et donc, dans sa chronique il parle de l'échange qu'il a eu avec l'auteur pour lui faire retirer cette clause. Et c'est ça dont je voudrais parler aujourd'hui.<br />
<br />
<b>Frédéric Couchet : </b> Alors : clause, licence, Creative Commons... Trois mots de jargon d'un coup, explique nous ça.<br />
<br />
<b>Vincent Calame : </b> Voilà alors, les habitués connaissent ça par coeur mais il faut préciser pour les personnes qui nous rejoignent. La licence c'est un document juridique qui indique les conditions d'utilisation d'un logiciel ou de toute autre production. Je parle sous contrôle. Vous savez, c'est souvent ce long texte que vous faites défiler rapidement sans lire pour faire activer le bouton «J'accepte» sans poser de questions. Il y a donc de très nombreuses licences différentes. Et dans le cas des logiciels libres, on dit qu'un logiciel est libre quand l'auteur lui a attaché une licence qui assure à l'utilisateur donc quatres libertés : la liberté d'utilisation, la liberté d'examen du code, de modification du code et de distribution de codes modifiés. La plus célèbre des licences libres et la première c'est la GNU GPL. Ces licences qui sont très utilisées dans le monde du logiciel libre ont inspiré d'autres licences plus adaptées à d'autres productions intellectuelles comme les textes et les vidéos. Et une des plus connues c'est la Creative Commons.<br />
<br />
<b>Frédéric Couchet : </b> Attention Vincent, attention ! On ne dit pas la licence Creative Commons mais les licences Creative Commons.<br />
<br />
<b>Vincent Calame : </b> Voilà, parce que nous approchons du problème. En fait, le système des Creative Commons, c'est une famille de licences. Et quand vous avez votre document, vous êtes l'auteur, vous voulez le mettre sous licence Creative Commons, vous choisissez un certain nombre de clauses parmi celles disponible. Il y a par exemple, la clause attribution qui demande que l'auteur initial soit bien cité, la clause «Partage à l'identique» qui impose de distribuer les modifications sous les mêmes conditions et la clause NC pour Non-Commercial qui interdit l'usage commercial.<br />
<br />
<b>Frédéric Couchet : </b> Alors nous y sommes. Alors pourquoi pose-t-elle problème cette clause «Pas d'usage commercial» ?<br />
<br />
<b>Vincent Calame : </b>Alors parce que une licence Creative Commons avec cette clause est une licence non libre. En effet, la première liberté des licences libres c'est celle de la liberté d'utilisation donc y compris dans un usage commercial. Et donc, avec une clause non commercial, vous limitez la liberté de l'utilisateur. Le problème en fait de cette clause, c'est que elle apparaît comme assez naturelle même très naturelle en particulier pour une association qui en France est régie par la fameuse loi de 1901.<br />
<br />
<b>Frédéric Couchet : </b>Donc la loi qui parle d'associations à but non lucratif.<br />
<br />
<b>Vincent Calame : </b> Exactement. Et pour les associations, il y a une légitime fierté à faire partie d'un secteur non marchand. Du coup, je pense qu'elles ont le sentiment que la clause NC est faite pour elles. Donc la difficulté du côté des millitants du libre, c'est de montrer en quoi cette clause est un frein à la diffusion de leurs productions. Donc un exemple, une photo ne peut pas être mise dans une production papier même si cette production a été vendue à un prix coûtant, juste au prix de l'impression. Je pense que pour les associations aussi, cette clause rassure parce que derrière ça, il y a quelqu'un, la crainte que quelqu'un profite du travail. Qu'il se fasse de l'argent dans le dos de l'association. <br />
<br />
<b>Frédéric Couchet : </b> Oui oui. Ça c'est un fantasme en fait. Non ?<br />
<br />
<b>Vincent Calame : </b> Oui. Je pense que oui dans le sens où moi je n'ai pas d'exemple concret d'un vol de données, d'informations ou de quelque chose qui serait de l'argent là-dessus. Mais je pense qu'il n'y a pas d'exemple concret mais en revanche il y a un environnement dont il faut être conscient quand on est aussi millitant du libre dans le sens où le monde associatif est en ce moment soumis à une très forte pression de rentabilité. Il y a des suppressions de subventions, il y a des exigences de redevabilité excessives, de rendre les comptes, des évalutations comptables et très tatillonnes et très financières, il faut faire du chiffre. Il y a également ce phénomène dans certains secteurs qui relève de l'économie sociale et solidaire comme les aides à la personne, à l'insertion etc. D'arrivées (???) de nouveaux acteurs adossés souvent à des grands groupes de services qui les mettent en concurrence et qui leur mettent une pression grâce entre guillemets à «l'efficacité du monde de l'entreprise» en fait aussi au fait qu'ils sont adossés à des groupes capitalistiques qui ont des moyens importants. Donc quand vous êtes avec un millitant de l'économie sociale et solidaire, quand on lui parle d'entrepreneur social voire même d'un ??? impact social, c'est la dernière trouvaille venue du Royaume-Uni qui en fait lie les obligations au financement du monde associatif. En général quand vous lui parlez de ça, ça lui donne des boutons. Parce que ça l'attaque aussi dans son fondement, dans sa raison d'être. Voilà donc tout ça pour dire que c'est un terrain sensible la question du non-commercial. Donc je pense qu'il faut marcher un peu sur des oeufs lorsqu'on aborde cette question avec une association.<br />
<br />
<b>Frédéric Couchet : </b> Alors, comment il faut procéder selon toi ?<br />
<br />
<b>Vincent Calame : </b> Alors, moi je pense que le mieux est de procéder en deux temps. Je ne pense pas être le seul à avoir cette expérience. Le premier temps c'est déjà de convaincre l'association de l'intérêt d'avoir une licence. Parce que tout simplement, beaucoup d'associations, leurs documents qui est comme ça sans indication. Quand il n'y aucune licence, ça dépend juste du droit d'auteur donc il n'y a rien d'autorisé. Et donc déjà, les convaincre d'indiquer une licence. Dans ce premier temps, la clause Non-Commercial parfois ça peut rassurer. Ça peut rassurer l'association qui limite un peu cette diffusion libre à laquelle elle n'était pas forcément préparée. Et je pense que c'est dans un second temps, qu'on peut à partir d'exemples concrets montrer en quoi cette clause Non-Commercial constitue un frein et n'est pas très utile et finalement pour être supprimée. Par exemple si l'association gère des données géographiques on parle de géolocaliser, la clause Non-Commercial va interdire de les réutiliser dans une base de données comme OpenStreetMap qui est la grande base de données géographiques. Donc c'est une valorisation en moins des données pour l'association et c'est dommage. Dans sa chronique, Jean-Christophe avait procédé comme suit : il avait d'abord félicité l'auteur parce que il avait déjà fait l'effort de mettre sous licence Creative Commons avec clause non-commercial et ensuite une fois qu'il l'avait félicité, il lui a montré l'intérêt qu'il avait à abandonner cette clause pour permettre une meilleure valorisation, une meilleure diffusion du contenu et de la production parce que au final, c'est ça le but. C'est aussi de diffuser au maximum sa production.<br />
<br />
<b>Frédéric Couchet : </b> Tout à fait. Donc il ne faut pas y aller comme un bourrin, de façon aggressive. Il faut tenir compte du contexte de la personne et effectivement commencer à féliciter la démarche parce que la personne a entamé en choisissant une licence de la gamme Creative Commons une démarche de partage. Et il faut dire aussi que Creatives Commons n'explique pas trop quand on choisit les licences, les impacts potentiels. Mais bon évidemment, «Pas d'usage commercial», il peut y avoir différentes interprétations et je trouve qu'il y a peut-être un manque d'explications. Et donc il faut y aller en expliquant et puis en positivant au départ en saluant le travail et puis en respectant le choix final de la personne au fond.<br />
<br />
<b>Vincent Calame : </b> Oui complètement. Et dire que finalement une des clauses les plus importantes c'est la clause d'attribution qui est de dire «Oui, c'est important votre travail» soit on garde la source de qui la produit initialement. Je pense que d'ailleurs c'est des meilleures protections contre le vol parce que quelqu'un ne va pas s'amuser à faire entre guillemets «de l'argent» en indiquant la source et en montrant que sa source n'est pas lui et que c'est une petite association. En terme d'image, ce n'est pas terrible. Donc le plus important c'est sans doute cette clause d'attribution et de la faire respecter. <br />
<br />
<b>Frédéric Couchet : </b> Alors il y a peut-être aussi la clause... C'est peut-être aussi l'occasion de nous expliquer l'importance de la clause de «Partage à l'identique Copyleft», on pourra peut-être en reparler, qui est une clause qui permet de protéger beaucoup plus finalement que la clause non-commercial. Puis sur le terme de vol, bon on va rappeler que dans le numérique il n'y a pas vraiment de vol parce que on n'en soustrait pas quelque chose. C'est juste un terme d'idéologie. La conférence dont tu parles c'est un faible degré d'originalité et donc la chronique de Jean-Christophe Becquet c'était dans l'émission du 15 janvier 2019 donc les podcasts sont disponibles sur causecommune.fm et sur april.org. On peut aussi quand tu parlais des freins, expliquer par exemple un frein potentiel. Tu as parlé de Open Street Map mais on vient de parler d'Open Food Facts. D'expliquer qu'Open Food Facts, la licence choisie n'est pas une licence Creative Commons parce que c'est spécial ??? de données mais c'est une licence qui autorise la réutilisation commerciale et que finalement quelque part, c'est un commun numérique qu'on développe et qu'effectivement, il y a une discussion à avoir avec les personnes pour qu'elles comprennent la démarche et qu'elles fassent la démarche en toute connaissance de cause au final.<br />
<br />
<b>Vincent Calame : </b> Tout à fait. <br />
<br />
<b>Frédéric Couchet : </b> Écoute Jean... J'allais t'appeler Jean-Christophe. Vincent, est-ce que tu veux ajouter quelque chose ?<br />
<br />
<b>Vincent Calame : </b> Non c'est bon.<br />
<br />
<b>Frédéric Couchet : </b> Non ? Bon alors écoute, merci Vincent et puis on se voit le mois prochain. Donc, c'était la chronique «Jouons collectif» de Vincent Calame.<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
===Annonces===<br />
<br />
<b>Frédéric Couchet : </b>On va terminer par des annonces. D’abord la réponse à la deuxième question du quiz.<br/><br />
Je vous rappelle la question. Lors de l’émission du 5 novembre 2019 notre sujet principal portait sur les femmes et l’informatique, la question était : sauriez-vous citer les noms des associations créées par des femmes, réservées aux femmes pour notamment qu’elles puissent s’exprimer librement, échanger, rassembler les voix des femmes dans l’informatique et mener des actions ? Les réponses étaient : Open Heroines, le site web est openheroines.org et pour le chapitre français vous pouvez le trouver sur le site codefor.fr ; la deuxième structure c’était Duchess France, duchess-france.org, sans « e » à Duchess et vous verrez sur le site pourquoi il y a une référence à Duchess. Je vous encourage vraiment à écouter le podcast consacré à cette émission, il est en ligne à la fois sur le site de l’April, april.org, et sur le site de Cause Commune, causecommune.fm, car c’était une discussion très riche et vraiment très intéressante.<br />
<br />
Dans les annonces d’évènements, il y en a pas mal en ce moment.<br/><br />
Ce soir, mardi 12 novembre, de 18 heures à 21 heures, il y a l’évènement Lumière sur les Éditeurs de Logiciels Libres, ça se passe à Paris. Je crois qu’il reste encore des places. C’est de 18 heures à 21 heures, Lumière sur les Éditeurs de Logiciels Libres.<br/><br />
En ce moment à Grenoble il y a une initiative intéressante à partir de ce soir 18 heures 30 jusqu’à samedi 30 novembre 18 heures 30, c’est Protège tes données perso, c’est organisé à la Turbine.Coop, 3-5 Esplanade Andry Farcy à Grenoble. Vous retrouverez les informations évidemment sur le site agendadulibre.org.<br/><br />
Jeudi soir à la FHP où Vincent officie, il y a la soirée de contribution au Libre, comme tous les jeudis de 19 heures 30 à 22 heures.<br/><br />
Pour les personnes qui ont un petit peu soif, il y a l’apéro parisien du Libre, c’est vendredi 15 novembre de 19 heures à 23 heures au Zig Zag Cafe à Paris. L’apéro parisien du Libre c’est tous les 15 du mois donc c’est assez facile, par contre le lieu change à chaque fois, donc il faut aller sur agendadulibre.org pour avoir les informations.<br />
<br />
Deux évènements importants ce week-end.<br/><br />
Le premier c’est à Toulouse Capitole du Libre, samedi 16 novembre et dimanche 17 novembre, c’est clairement l’un des évènements les plus sympas de la planète des évènements libristes et, en plus, vous aurez la change de pouvoir retrouver de mémoire je crois que ce sont trois conférences April : Christian Momon qui est administrateur de l’April donne deux conférences je crois et Étienne Gonnu en donne une, mon collègue Étienne Gonnu en charge des affaires publiques. Ils vous parleront notamment des actions institutionnelles de l’April et également du Chapril, donc notre contribution à vous Dégoogliser d’Internet avec des services libres et loyaux. Le site c’est capitoledulibre.org.<br/><br />
Et le même week-end – eh oui ça tombe mal mais c’est comme ça – il y a l’Ubuntu Party à la Cité des sciences et de l’industrie, samedi 16 novembre et dimanche 17 novembre. Il y aura un stand de l’April, tout comme au Capitole du Libre d’ailleurs, vous aurez le plaisir de retrouver un stand de l’April et il y a normalement une conférence April que j’animerai pour présenter justement l’émission de radio. Pour l’instant je n’ai pas encore la date, j’espère juste que d’un point de vue pratique ce sera dimanche après-midi, ça m’arrangerait en termes de planning personnel.<br />
<br />
Tous les autres évènements vous les retrouvez sur le site de l’Agenda du Libre, agendadulibre.org.<br />
<br />
Notre émission se termine. Je remercie les personnes qui ont participé à l'émission du jour : Jean-Christophe Becquet, Anca Luca, Pierre Slamich, Vincent Calame. Aux manettes de la régie aujourd’hui Éienne Gonnu. <br/><br />
Gand merci également à Sylvain Keutsman et à Olivier Grieco pour le traitement des podcasts et je les remercie notamment pour le traitement du podcast de la semaine dernière, nous avons eu beaucoup de problèmes techniques.<br />
<br />
Vous retrouverez sur le site de l'April, april.org, et sur le site de la radio, causecommune.fm, toutes les références utiles et les moyens de nous contacter. N’hésitez pas à nous faire des remarques, des questions, elles sont toutes bienvenues.<br />
<br />
Nous vous remercions d'avoir écouté l'émission du jour. Si vous avez aimé cette émission, n'hésitez pas à en parler le plus possible autour de vous. Donc faites connaître <em>Libre à vous !</em> et faites connaître la radio Cause Commune.<br />
<br />
La prochaine émission aura lieu en direct mardi 19 novembre à 15 heures 30. Notre sujet principal portera sur la vie d’Ada Lovelace, considérée comme la première personne à avoir écrit un programme informatique. Nous diffuserons une interview de Catherine Dufour qui vient de publier le livre <em>Ada ou la beauté des nombres</em>.<br />
<br />
Nous vous souhaitons de passer une belle fin de journée. On se retrouve en direct mardi 19 novembre 2019 et d’ici là portez-vous bien.<br />
<br />
<b>Générique de fin d'émission :</b><em>Wesh Tone</em> par Realaze.</div>D Ohttps://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_12_novembre_2019&diff=86421Libre à vous ! Radio Cause Commune - Transcription de l'émission du 12 novembre 20192019-11-14T21:12:36Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 12 novembre 2019 sur radio Cause Commune<br />
<br />
'''Intervenant·e·s :''' - Frédéric Couchet - à la régie<br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 12 novembre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[https://media.april.org/audio/radio-cause-commune/libre-a-vous/backups/output-2019-11-12-15h29.ogg Écouter ou enregistrer le podcast PROVISOIRE]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-12-novembre-2019-sur-radio-cause-commune Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
<br />
==Transcription==<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 FM en Île-de-France et partout dans le monde sur le site causecommune.fm. Cause Commune, la radio, c’est de midi à 17 heures puis de 21 heures à 4 heures en semaine, du vendredi 21 heures au samedi 16 heures et le dimanche de 14 heures à 22 heures. C’est un peu dur à suivre parce que c’est un temps partagé avec une autre radio. Toutes les infos sont sur le site de la radio.<br/><br />
La radio dispose également d’une application Cause Commune pour téléphone mobile.<br />
<br />
Merci d’être avec nous aujourd’hui pour cette nouvelle édition de <em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.<br />
<br />
Nous sommes mardi 12 novembre 2019, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.<br />
<br />
La radio dispose d’un salon web, utilisez votre navigateur web, allez sur causecommune.fm, cliquez sur « chat » et vous pouvez nous rejoindre sur le salon dédié à l’émission pour réagir ou poser des questions aux personnes invitées aujourd’hui.<br />
<br />
Le site web de l’April c’est april.org et vous y retrouverez une page consacrée à l’émission avec les références utiles et les moyens de nous contacter.<br/><br />
Si vous souhaitez réagir en direct, vous pouvez utiliser le salon web ou vous pouvez également tout à l’heure nous appeler au 09 50 39 67 59, je répète 09 50 39 67 59.<br />
<br />
Nous vous souhaitons une excellente écoute.<br />
<br />
On va commencer par le programme de l’émission.<br/><br />
Nous commencerons dans quelques secondes par la chronique de Christophe Becquet, président de l’April, qui portera sur la musique, le domaine public, les droits voisins, avec notamment le projet Musopen, la musique classique libérée.<br/><br />
D’ici dizaine de minutes nous aborderons notre sujet principal qui portera Open Food Facts, une base de données sur les produits alimentaires, faite par tout le monde et pour tout le monde. <br/><br />
En fin d’émission nous aurons la chronique de Vincent Calame, bénévole à l’April, qui portera sur la clause Pas d’usage commercial de certaines licences Creative Commons.<br/><br />
À la réalisation de l’émission aujourd’hui mon collègue Étienne Gonnu. Bonjour Étienne.<br />
<br />
<b> Étienne Gonnu : </b>Salut Fred.<br />
<br />
<b>Frédéric Couchet : </b>On va vous proposer, comme à chaque émission, un petit quiz et on donnera les réponses au fur et à mesure. Évidemment vous pouvez communiquer les réponses les réseaux sociaux ou nous appeler.<br/><br />
Aujourd’hui nous allons parler d’Open Food Facts qui utilise notamment un système d’étiquetage nutritionnel et un système de classification concernant la répartition des aliments en quatre groupe en fonction du degré de transformation des matières dont ils sont constitués. Les questions : quels sont les noms de ces deux systèmes ? Évidemment vous aurez la réponse dans le cadre du sujet long avec des explications détaillées.<br/><br />
Deuxième question. Lors de l’émission de la semaine dernière, du 5 novembre 2019, notre sujet principal portait sur les femmes et l’informatique. Sauriez-vous citer les noms des associations créées par des femmes, réservées aux femmes, pour notamment qu’elles puissent s’exprimer librement, échanger, rassembler les voix des femmes dans l’informatique et également mener des actions. La réponse en fin d’émission.<br />
<br />
Tout de suite place au premier sujet.<br />
<br />
[Virgule musicale]<br />
<br />
===Chronique de Jean-Christophe Becquet « Pépites libres »===<br />
<b>Frédéric Couchet : </b>Textes, images, vidéos ou bases de données, sélectionnés pour leur intérêt artistique, pédagogique, insolite, utile, Jean-Christophe Becquet, président de l’April, nous présente une ressource sous une licence libre. Les auteurs de ces pépites ont choisi de mettre l’accent sur les libertés accordées à leur public, parfois avec la complicité du chroniqueur, c’est la chronique « Pépites libres ». Jean-Christophe, tu es normalement avec nous au téléphone depuis Digne-les-Bains.<br />
<br />
<b>Jean-Christophe Becquet : </b>Oui. Bonjour Fred, bonjour à tous, bonjour à toutes.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour Jean-Christophe. Le sujet du jour c’est la musique, le domaine public, les droits voisins et Musopen, la musique classique libérée.<br />
<br />
<b>Jean-Christophe Becquet : </b>En effet. Le droit d'auteur réserve au créateur d'une œuvre un monopole temporaire sur l'exploitation de son travail. Ce privilège, qu'on appelle le droit patrimonial, interdit toute reproduction ou représentation de l'œuvre sans l'autorisation expresse de l'auteur. En droit français, cette restriction se prolonge 70 ans après la mort de l'auteur. Ensuite, les œuvres basculent dans ce que l’on appelle le domaine public.<br/><br />
Le domaine public désigne donc l'ensemble des œuvres pour lesquelles les droits patrimoniaux ont expiré et dont le public devrait pouvoir profiter librement. Malheureusement, c'est un petit peu plus compliqué que cela et d'autres droits se superposent au droit d'auteur pour venir restreindre encore les usages. Ce sont, entre autres, les droits voisins du droit d'auteur. Dans le cas de la musique, les droits voisins recouvrent les droits des producteurs et des interprètes.<br />
<br />
Ainsi, pour la musique classique, s'il ne fait aucun doute que les compositions de Mozart, Beethoven ou Chopin appartiennent au domaine public, la plupart des enregistrements sont encore sous le joug de restrictions pour plusieurs décennies. En effet, la durée des droits voisins des interprètes a été prolongée de 50 à 70 ans par le Parlement européen en 2011. Cette directive a été transposée dans le droit français en 2015.<br />
<br />
C'est pour dépasser ces restrictions qu'Aaron Dunn a lancé en 2005 le projet Musopen, ma pépite du jour. Musopen est une organisation américaine à but non lucratif dont l’objectif est de libérer les enregistrements de musique classique. Comment ? Eh bien en proposant à des musiciens professionnels d'enregistrer des œuvres pour les offrir au public. Musopen sollicite le soutien à travers des campagnes de financement participatif. Les artistes sont rémunérés. Simplement, au lieu d'une rente basée sur la diffusion de chaque enregistrement, ils perçoivent une rétribution pour leur travail au moment de son exécution. Ensuite, on leur demande de donner leur accord pour une diffusion libre, donc de renoncer contractuellement à leurs droits voisins d'interprète.<br />
<br />
En 2012, le projet Musopen a par exemple levé 68 000 dollars, environ 62 000 euros, six fois l'objectif initialement fixé, auprès de plus de 1 200 contributeurs. Cet argent a permis de financer l'Orchestre symphonique de Prague pour enregistrer des œuvres de Beethoven, Brahms ou Tchaïkovski. En partageant librement les fruits de ce travail, Musopen a contribué à rendre accessibles à tous ces trésors de notre patrimoine musical.<br />
<br />
Le site Musopen propose aujourd'hui un catalogue musical riche de plus de 5000 enregistrements partagés selon le régime du domaine public ou une licence libre, la licence Creative Commons BY-SA. D'autres enregistrements sont sous des licences de libre diffusion, c'est-à-dire qu'elles restreignent les utilisations commerciales ou la production de versions modifiées, licences Creative Commons NC ou ND, on ne peut donc pas les considérer comme libres. Pour chaque fichier, Musopen indique de manière très claire sous quelle licence il est disponible. On peut donc faire des recherches en filtrant selon la licence.<br/><br />
Musopen propose aussi un espace de partage de partitions musicales d'œuvres également passées dans le domaine public.<br/><br />
Musopen propose un accès gratuit mais limité aux téléchargements. Pour bénéficier de l'ensemble des services, il faut souscrire un abonnement payant. Notons que ce n'est absolument antinomique avec les licences libres que d'exiger une participation financière, par exemple, dans le cas de Musopen, pour télécharger plus de cinq fichiers par jour. Comme pour les logiciels, le gratuit n'est pas automatiquement libre et libre n'est pas forcément gratuit !<br />
<br />
On trouve d'autres initiatives similaires comme Open Goldberg Variations qui a permis de libérer l'enregistrement et la partition des Variations Goldberg, une œuvre pour clavecin composée par Jean-Sébastien Bach.<br/><br />
Citons également Florence Robineau, pianiste et professeure au conservatoire de Rungis. Elle enregistre des morceaux de musique classique et les partage sous licence libre Creative Commons BY-SA.<br />
<br />
Ces projets constituent un bel exemple d'utilisation des licences libres. Il est important de rappeler que ces licences s'appuient sur le droit d'auteur. En effet, dans le cas des interprétations musicales libérées par Musopen, Open Goldberg Variations ou Florence Robineau, c'est précisément parce que l’Internet [l'interprète, NdT] dispose d'un privilège sur son œuvre qu'il peut choisir de la partager sous licence libre.<br />
<br />
<b>Frédéric Couchet : </b>Merci Jean-Christophe. En fait ce n’était pas « l’Internet », c’est « l’interprète », même Étienne rigole en régie ; je trouve que ce lapsus est assez révélateur. Je précise qu’on a écouté un extrait d’Open Goldberg Variations, de mémoire c’était l’émission du 9 juillet 2019, les références sont sur April et sur le site de Cause Commune, causecommune.fm. On rajoutera aussi le site de Florence Robineau qui partage ses musiques [interprétations] sous licence libre. C’est assez marrant parce que juste avant le début de l’émission je parlais avec Pierre Slamich, qui est l’un des invités pour le sujet d’après, justement de cette difficulté à trouver des morceaux de musique classique sous licence libre. J’espère que ta chronique permet aux gens de comprendre qu’en dehors du droit d’auteur il y a les fameux droits voisins ce qui fait que ça rend aujourd’hui effectivement, alors que, comme tu le dis, toutes ces musiques, toutes ces partitions sont dans le domaine public, le fait de trouver des interprétations disponibles librement très compliqué.<br />
<br />
<b>Jean-Christophe Becquet : </b>Oui, en effet. Je rajouterai sur la page de l’émission les références du site Musopen, musopen.org, les Open Goldberg Variations, le site de Florence Robineau et quelques articles de presse, notamment sur <em>Numerama</em>, qui expliquent un petit peu la genèse et le succès de ces projets, notamment la levée de fonds dont je parlais tout à l’heure pour le projet Musopen.<br />
<br />
<b>Frédéric Couchet : </b>Excellent. Comme tu parles de musique classique et de Musopen on va faire une pause musicale qui est intégrée dans ta chronique. Tu nous as suggéré d’écouter Peer Gynt, <em>Morning Mood</em> composé par Edvard Grieg. On se retrouve juste après. Belle journée à l’écoute de Cause Commune.<br />
<br />
<b>Pause musicale : </b><em>Morning Mood</em>, suite no. 1, Op. 46 interprétée par Peer Gynt composée par Edvard Grieg.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter Peer Gynt, <em>Morning Mood</em> composé par Edvard Grieg, disponible sous licence libre marque du domaine public et vous retrouverez les informations sur le site de l’April, april.org, et sur le site de la radio causecommune.fm.<br />
<br />
Vous écoutez l’émission toujours <em>Libre à vous !</em> sur radio Cause commune 93.1 FM en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
Nous allons maintenant attaquer notre sujet principal.<br />
<br />
[Virgule musicale]<br />
<br />
===Open Food Facts===<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre par notre sujet principal qui porte sur Open Food Facts, base de données sur les produits alimentaires, faite par tout le monde pour tout le monde. Avec nos invités, Anca Luca. <br />
<br />
<b>Anca Luca : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Et Pierre Slamich. Bonjour Pierre.<br />
<br />
<b>Pierre Slamich : </b>Bonjour Frédéric.<br />
<br />
<b>Frédéric Couchet : </b>De l’association Open Food Facts France. Avant de leur passer la parole pour une petite introduction et pour lancer la discussion, je ne sais pas si vous avez vu, il y en ce moment un pub pour une soupe industrielle qui passe à la télé et qui remercie les consommateurs et les consommatrices d’avoir fait grandir les soupes. Dans cette pub il y a plusieurs messages, le premier c’est « merci d’avoir râlé au sujet des soupes toutes prêtes ». On voit une personne qui mange une soupe et qui dit : « C’est tellement salé qu’on pourrait déneiger avec », une autre s’interroge : « E621, c’est quoi comme légume ? » Cette pub est là évidemment pour nous indiquer que le fabricant a amélioré la recette de ses soupes en mettant de l’eau, des bons légumes, des ingrédients naturels, enfin ! Si on en croit la pub évidemment ! Mais que nous dit l’étiquette ? Eh bien c’est l’un des sujets qu’on va aborder aujourd’hui avec Open Food Facts qui, comme je l’ai dit tout à l’heure, est une base de données sur les produits alimentaires, faite par tout le monde et pour tout le monde. Évidemment, les personnes qui nous écoutent vont être intéressées par l‘utilisation et éventuellement par la contribution.<br/><br />
D’abord petite question personnelle, votre parcours. Est-ce que vous pourriez vous présenter ? On va commencer par Anca Luca.<br />
<br />
<b>Anca Luca : </b>Bonjour. Je suis ingénieure informatique à la base, c’est ça mon métier et j’ai fait du développement de logiciel libre pendant toute ma vie professionnelle depuis 12 ans maintenant et, depuis quelques années, j’ai découvert Open Food Facts. J’ai participé, j’ai fait des contributions de données libres au début. J’ai fait quelques contributions, très peu, de logiciel, de code ; après j’ai participé à la vie de l’association, j’ai tenu des stands, j’ai présenté le projet à plusieurs endroits. Depuis quelques mois je suis présidente de cette association. <br />
<br />
<b>Frédéric Couchet : </b>D’accord. Et tu travailles professionnellement pour une société qui s’appelle XWiki, qui fait du logiciel libre et qu’on salue au passage. Pierre Slamich.<br />
<br />
<b>Pierre Slamich : </b>Je ne suis pas du tout programmeur à la base. Dans une vie antérieure j’ai été dans la finance et dans la science politique et, en fait, je suis tombé sur le sujet de l’alimentation un peu par hasard. En 2012, on a constaté que c’était très compliqué de se repérer dans les supermarchés, donc on s’est dit « si on créait le Wikipédia des aliments ». On a cofondé l’association Open Food Facts pour apporter plus de transparence sur les produits quotidiens. <br />
<br />
<b>Frédéric Couchet : </b>D’accord. Donc tu l’as cofondée avec Stéphane Gigandet. On attaque directement après la présentation personnelle rapide avec la première question. Effectivement c’est de plus en plus connu, j’ai l’impression qu’on voit de plus en plus de gens dans les magasins avec leur tablette ou ordinateur enfin téléphone mobile pour scanner les aliments. C’est quoi une application mobile de base de données de produits alimentaires et la genèse du projet Open Food Facts ? Quel problème vous vouliez résoudre, en tout cas un des cofondateurs, Pierre on va commencer par toi. Pierre Slamich.<br />
<br />
<b>Pierre Slamich : </b>On s’était rendu compte, par exemple si on veut choisir les céréales de petit déjeuner pour ses enfants et qu’on va au supermarché, eh bien qu’on se retrouve face à un rayon qui fait dix mètres de long, où il va y avoir des dizaines et des dizaines de paquets, une quarantaine, une cinquantaine de paquets différents et, au final, on se demande « comment est-ce que je fais ? » Il faudrait retourner les paquets un à un, noter les ingrédients. Enfin en 2012 il fallait noter les ingrédients et ensuite comparer. Personnellement je n’ai jamais compris ce que voulait dire le tableau nutritionnel. L’idée c’était de voir si on pouvait collecter toutes ces données de manière citoyenne, de manière participative, et, du coup, de pouvoir en faire des choses utiles, on en parlera plus tard, calculer le Nutri-Score etce genre de choses.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Open Foods Facts le démarrage c’est donc 2012, c’est ça ?<br />
<br />
<b>Pierre Slamich : </b>C’est ça. On démarre en 2012 avec zéro produit et là on vient d’arriver à un million, donc beaucoup de chemin parcouru en quelques années.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Question avant de passer la parole à Anca, est-ce qu’il y avait à l’époque d’autres outils de ce même genre ? Est-ce qu’il en existait déjà ?<br />
<br />
<b>Pierre Slamich : </b>Les bases de données nutritionnelles ce n’est pas une idée neuve, il y en avait déjà sur le Minitel.<br />
<br />
<b>Frédéric Couchet : </b>Je parle avec un téléphone mobile qui permet de scanner.<br />
<br />
<b> Pierre Slamich : </b>C’était une idée absolument nouvelle à l’époque, c’est-à-dire que non seulement il n’y avait pas de bases de données ouvertes, il y avait juste des bases qui appartenaient aux fabricants agroalimentaires et, en plus, on ne pouvait pas scanner le code barre pour obtenir, en un instant, une fraction de seconde, des résultats clairs et synthétiques. Donc ça a été une grosse nouveauté d’Open Food Facts et la deuxième grosse nouveauté d’Open Food Facts c’était que chacun pouvait participer à la révolution alimentaire en ajoutant des produits qui n’existaient pas encore dans la base.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. On va y revenir dans la partie contribution. En tout cas les objectifs c’est quoi ? Un meilleur bien-être ? C’est de consommer en toute connaissance de cause, quitte à consommer des choses qui sont peut-être nutritionnellement pas très bonnes mais gustativement très addictives. C’est quoi les objectifs au fond ? Par exemple toi qu’est-ce qui t’a intéressé à participer à ce projet et à partir de quand tu as participé à ce projet ?<br />
<br />
<b>Anca Luca : </b>Je vais parler pour moi seulement parce que je ne peux pas parler des objectifs de chacun. Open Food Facts, comme le nom le dit, il y a quand même le mot « Facts » dedans qui veut dire des faits. Donc on essaie de présenter les faits et de faire en sorte que les gens, que les citoyens, connaissent les faits sur les produits alimentaires. C’est assez difficile à trancher entre ce qui est un fait et ce qui est une opinion. On essaie de rester dans des choses qui sont très proches d’informations claires. C’est pour ça qu’aujourd’hui notre base de données est construite à partir des informations qui viennent des étiquettes de produits. Pour expliquer un peu comment ça marche pour les gens qui nous écoutent : on scanne un produit avec son téléphone mobile, donc on scanne le code barre de ce produit et, pour contribuer [ajouter] ce produit à la base de données, on prend des photos de l’emballage de ce produit, une photo du devant de l’emballage et après la liste des ingrédients, le tableau nutritionnel. Après on extrait ces informations de ces images et on les met dans la base de données. Pourquoi l’emballage du produit ? Parce que les lois agissent sur les emballages. Un producteur industriel qui produit des produits alimentaires est tenu par la loi à dire le maximum de vérité sur l’emballage. Je dis « maximum de vérité » parce que des fois on n’est pas sûr, mais bon ! Les lois agissent là-dessus et pas sur d’autres sources d’information.<br/><br />
Donc mon objectif, tel que moi je le vois, c’est de fournir ces informations aux gens et de laisser la possibilité aux gens de se faire leur propre opinion en essayant de donner ce qui est connu et accepté comme étant vrai et pas forcément sujet à discussion. C’est assez flou, c’est assez large.<br />
Pourquoi je suis venue dans le projet, je pense que c’était 2014-2015, je ne rappelle plus.<br/><br />
<br />
<b>Pierre Slamich : </b>2014.<br />
<br />
<b>Anca Luca : </b>2014 peut-être, c’est à cause des soupes, d’une marque.<br />
<br />
<b>Pierre Slamich : </b>Ces fameuses soupes !<br />
<br />
<b>Anca Luca : </b>Ces fameuses soupes !<br />
<br />
<b>Frédéric Couchet : </b>En fait j’avais préparé, je savais qu’Anca était venue par les soupes.<br />
<br />
<b>Anca Luca : </b>Tout à fait. Moi je suis arrivée par les soupes. J’ai croisé Stéphane Gigandet sur un salon, j’ai découvert le projet, j’ai installé l’application et après j’ai commencé à regarder un peu dans mon frigo, dans mon placard. Et, à cause des soupes : j’ai découvert qu’il y avait un additif dans une de ces briques de soupe, il y avait un additif qui n’était pas forcément un légume – je ne pense que c’était le même E de la pub, mais bon ! – et j’étais curieuse de savoir si cet additif se retrouvait dans toutes les soupes en brique. C’était notamment le glutamate monosodique, je ne sais pas exactement le nom, c’est un exhausteur de goût, donc je me suis dit « ça doit être normal parce que les légumes en brique n’ont pas trop de goût, donc il doit y en avoir dans toutes les soupes ». Je suis allée sur le site openfoodfacts.org et j’ai découvert que non, il y a des soupes en brique qui n’ont pas du tout cet additif, donc un meilleur choix est possible et après c’est à moi de faire ce choix-là. Je me suis dit « c’est très intéressant, tout le monde devrait avoir la possibilité de faire ce genre de chose, ce genre de recherche, de comparaison de produits et avoir l’accès à la donnée qui leur permettra de comprendre un peu plus ce qu’ils mangent ». <br />
<br />
<b>Frédéric Couchet : </b>D’accord. La question qui me vient, qui va être une question un peu centrale parce que je pense que c’est l’un des points que les gens qui nous écoutent doivent comprendre. Moi par exemple, la première fois que j’ai lancé Open Food Facts c’est un peu le truc qui m’a le plus perturbé, c’est qu’il y a deux notions, il y a deux systèmes de notation, en tout cas de valeur, je ne sais pas, qui sont le Nutri-Score et l’indice NOVA. Donc on va expliquer que quand on est dans un magasin, on scanne, comme l’a dit Anca, le code barre avec l’application Open Food Facts et là on a l’image, la photo du produit qui s’affiche et on a deux éléments qui apparaissent tout de suite : le Nutri-Score et l’indice NOVA.<br/><br />
Pierre, est-ce que tu pourrais nous expliquer ces deux systèmes et à quoi ils servent exactement. Est-ce que l’un est plus important que l’autre ou pas ? Je ne sais. Pierre Slamich.<br />
<br />
<b>Pierre Slamich : </b>Comme vient de la dire Anca, un des buts d’Open Food Facts c’est vraiment de collecter cette information et d’offrir des clés de déchiffrage face à la complexité des étiquettes et on veut que ces clés de déchiffrage soient basées sur des faits, sur des travaux scientifiques éprouvés. Donc on affiche deux scores importants, très importants. Le Nutri-Score c’est cette note de A à E qu’on commence à voir apparaître sur les emballages et qu’on a calculé dès sa création, qui permet donc d’avoir la qualité nutritionnelle d’un produit. Ça prend en compte des choses comme les protéines, les fibres, donc les points positifs de ce genre de nutriments qui sont favorables à la santé et des points négatifs pour les choses un peu plus défavorables comme le sel, le sucre, le gras, etc. Donc c’est le Nutri-Score de A à E comme une note à l’école, ça permet vraiment de voir la qualité nutritionnelle.<br/><br />
Et le deuxième indicateur qu’on affiche c’est le groupe NOVA, là ça va de 1 à 4 et ça indique le niveau de transformation d’un produit alimentaire. Est-ce qu’un produit alimentaire est brut, par exemple les légumes, les choses qu’on peut acheter sur le marché, ou est-ce qu’il est transformé, voire ultra-transformé, par exemple le cas de vos soupes, elles sont probablement NOVA 4.<br/><br />
Le Nutri-Score est un score français créé par le professeur Hercberg, la personne qui a notamment créé les cinq fruits et légumes par jour qu’on connaît tous. Le NOVA est un score de recherche brésilien, par le professeur Monteiro, sur cette problématique de est-ce que les aliments qu’on mange sont ultra-transformés, sachant que le programme national Nutrition Santé recommande de réduire cette part d’aliments transformés dans l’alimentation parce que ça pose des problèmes au niveau de la santé.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Je viens d’ouvrir Open Food Facts. Je précise que pour la fameuse soupe dont on ne va pas citer la marque le Nutri-Score c’est B et l’indice NOVA c’est 4. En gros le Nutri-Score B c’est surtout parce qu’il y a du sel mais en quantité quand même modérée.<br />
<br />
<b>Pierre Slamich : </b>C’est déconcertant.<br />
<br />
<b>Frédéric Couchet : </b>Justement, je vais en venir à la question. Je n’utilisais pas l’app, par contre, préparant l’émission j’ai appris qu’il y avait une autre application qui existait, ce sera peut-être l’occasion d’en parler sur le fonctionnement tout à l’heure, qui s’appelle Yuca. La personne à qui j’ai demandé de tester m’a dit : « Yuca, elle, affiche une note de 1 à 100 et une évaluation sur quatre critères – excellent très bon, moyen et insuffisant – quelque chose comme ça. En tout cas la personne m’a dit : « Ça c’est beaucoup plus clair, pour moi c’est facile à comprendre si c’est 80 sur 100 c’est que c’est bon ». En testant Open Food Facts, la personne m’a dit : « Je n’y comprends rien parce là tu as un Nutri-Score qui est à B, donc plutôt pas trop mal, et tu as un NOVA qui est 4 et, bien sûr, le NOVA 4 apparaît en rouge parce que c’est le pire ». C’est ce côté-là qui peut être un peu perturbant. Là-dessus, qu’est-ce que vous avez à répondre Pierre et Anca ?<br />
<br />
<b>Pierre Slamich : </b>C’est justement ça qui est très intéressant. On a choisi de montrer le paradoxe du produit. Je prends un exemple extrême : le Coca-Cola zéro va avoir un Nutri-Score B parce qu’effectivement il n’y a pas de sucre dans le Coca, il n’y a pas de graisses, etc., par contre il y a plein d’additifs dans le Coca zéro, il y en a même encore plus que dans le Coca classique, donc il va être NOVA 4, produit ultra transformé.<br/><br />
On a choisi de ne pas tout agglomérer, littéralement de ne pas mélanger les fruits et les légumes, les pommes et les bananes ensemble, mais plutôt de montrer : ce produit va être bon nutritionnellement, par contre les ingrédients vont être bizarres. On affiche même, depuis peu, l’impact environnemental du produit, l’impact carbone du produit et des produits qui sont bons pour vous vont parfois être mauvais pour la planète. En fait ce sont des paradoxes et après on tient à donner les cartes en main aux gens pour leur permettre de faire leurs propres choix personnels : ne pas leur imposer, ne pas remplacer la confiance aveugle dans un label de qualité d’une marque ou le Label rouge sur des choses par la confiance aveugle dans une application, mais permettre aux gens de développer leur esprit critique et de prendre du recul face à ces applications qui font florès.<br />
<br />
<b>Frédéric Couchet : </b>Avant de laisser la parole à Anca, j’avais une question de Pierre Bresson qui est la personne qui a développé l’application Cause Commune qui me demandait justement : concernant l’empreinte carbone des produits j’aimerais savoir quand cette fonctionnalité sera disponible. L’empreinte carbone est déjà disponible, Pierre ?<br />
<br />
<b>Pierre Slamich : </b>Oui. Elle est disponible. Il y a quelques limitations parce que l’empreinte carbone est quelque chose d’extrêmement complexe, ça se passe en fait sur les ingrédients. On essaye par exemple d’estimer le pourcentage de viande dans des lasagnes au bœuf. On a des données gouvernementales de l’Ademe [Agence de l’environnement et de la maîtrise de l’énergie] pour la France qui permettent de dire « un kilo de bœuf c’est tant de kilos de carbone », donc on fait ce calcul-là déjà sur les produits dont on a les ingrédients, typiquement les plats préparés à base de bœuf, de poisson. Ce n’est pas encore disponible sur tous les produits et ce n’est pas encore disponible dans tous les pays du monde.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Anca tu voulais compléter. <br />
<br />
<b>Anca Luca : </b>Je voulais compléter sur cette question d’affichage qualificatif des aliments versus données différentes qui ont l’air contradictoires. C’est aussi parce que les choix alimentaires sont divers et personnels à chacun. Personnellement, c’est mon avis,, c’est très compliqué de dire ce qui est bon et ce qui n’est pas bon, pour les raisons que Pierre a expliquées : ce qui est bon pour soi peut être mauvais pour la planète, mais également parce que chacun fait ses choix en fonction de ses paramètres. Par exemple le Nutri-Score est intéressant parce qu’il y a des produits que vous allez trouver avec le Nutri-Score E et là, les gens ont plutôt tendance à fuir, à se dire « ah non, il ne faut pas toucher à ça parce qu’il y a un Nutri-Score E ». Ce n’est pas ça que veut dire Nutri-Score E. Nutri-Score E veut dire « ne mange pas que ça toute la journée, mais tu peux le toucher de temps en temps, il n’y a aucun problème ». Tu peux manger du chocolat. Je ne sais pas s’il y a un chocolat D, mais la plupart des chocolats ont des Nutri-Score dans les D et dans les E, ça voudrait dire qu’on ne touche plus jamais de chocolat. Ça veut juste dire : ne mangeons pas que ça et ne mangeons pas ça toute la journée. Donc les choix sont compliqués.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. J’ai une question sur le salon web de la radio : comment interpréter le fait que le Nutri-Score affiché sur un emballage soit différent du Nutri-Score donné par Open Food Facts. Il me semble être déjà tombé sur ce cas de figure, mais je n’en suis plus très sûr. Je ne sais pas si c’est le cas. Est-ce que sur certains emballages le Nutri-Score affiché est différent de celui que vous donnez ?<br />
<br />
<b>Pierre Slamich : </b>En fait le Nutri-Score est une série de calculs assez complexes qui se base sur les informations qu’on est capables de connecter sur les emballages. Il y a notamment le taux de fruits et légumes et le taux de fibres que, malheureusement, la législation n’impose pas aux fabricants d’afficher systématiquement sur les emballages. Parfois il peut se faire qu’on n’ait pas les données sur les fibres et les fruits et légumes ce qui va faire sauter le Nutri-Score de B à C par manque de données. Donc on affiche des avertissements et on encourage tous les producteurs, s’il y en a qui nous écoutent à l’antenne, à nous envoyer directement les données les plus précises possible avec les fruits et légumes et les fibres pour qu’on puisse calculer le Nutri-Score de la manière la plus précise possible. Mais généralement, dans 98 % des cas, c’est toujours le même.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Concernant le Nutri-Score toujours j’ai vu qu’il y avait une initiative citoyenne européenne pro Nutri-Score qui viserait à imposer l’affichage de cet étiquetage simplifié Nutri-Score sur tous les produits alimentaires. Donc deux questions : je suppose que ce n’est pas obligatoire aujourd’hui s’il y a une initiative citoyenne et est-ce que vous êtes en faveur de cette initiative ? Pierre, Anca, qui veut répondre ? Anca.<br />
<br />
<b>Anca Luca : </b>Je peux répondre assez rapidement. Moi je n’ai pas d’avis arrêté là-dessus ; c’est bien de fournir de l’information. En même temps, comme Pierre disait, le Nutri-Score ce n’est qu’un paramètre des produits qu’on choisit. Il y a plein d’autres paramètres, mais je pense que ça serait plutôt bénéfique de pouvoir voir plus rapidement l’évaluation d’un produit.<br />
<br />
<b>Frédéric Couchet : </b>Pierre Slamich.<br />
<br />
<b>Pierre Slamich : </b>Oui. C’est-à-dire que dans un monde parfait Open food Facts n’existerait pas, donc on est pour que le Nutri-Score devienne obligatoire et qu’on n’ait pas à utiliser forcément une application, une béquille pour pouvoir faire son choix en rayon. C’est à-dire que devoir scanner les produits un à un pour voir le Nutri-Score, on commence à le voir en France, c’est tellement mieux quand on peut comparer d’un seul coup d’œil le soir quand on fait son marché. Effectivement le Nutri-Score et après, si les fabricants voulaient afficher des choses comme le NOVA ou l’impact carbone, ça serait génial.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Là on comprend mieux ce que sont le Nutri-Score et l’indice NOVA. On va passer rapidement à la partie comment on crée ce type d’application, à la fois sur la partie logicielle et aussi sur la partie base de données. Est-ce que ce sont des licences libres dans les deux cas ? Est-ce que c’est créé uniquement par des bénévoles ? Est-ce que vous avez des gens qui sont financés pour développer l’application et maintenir la base de données ? Et question annexe aussi : tout à l’heure, Pierre, tu as parlé un petit peu des fournisseurs, des fabricants, est-ce que vous êtes en contact avec des fabricants pour récupérer automatiquement, enfin qui vous envoient des informations nutritionnelles concernant les aliments ? Ça fait plein de questions. Qui veut commencer ? Pierre, peut-être, puisque tu as fondé, ou Anca, je ne sais pas.<br />
<br />
<b>Pierre Slamich : </b>Effectivement il y a plein de questions. J’essaye de me remémorer.<br />
<br />
<b>Frédéric Couchet : </b>Sur la partie logicielle, la partie base de données. Comment vous faites ? Est-ce que ce ne sont que des bénévoles ? Est-ce qu’il y a des personnes qui sont financées pour développer la partie logicielle et peut-être la partie base de données ? Anca Luca.<br />
<br />
<b>Anca Luca : </b>D’un point de vue technique, on va dire qu’il y a trois composantes techniques. Il y a le code du serveur qui fait le site web, donc openfoodfacts.org et tout ça, c’est un logiciel libre, c’est écrit en Perl, s’il y a des gens qui veulent venir participer. Après il y a l’application mobile, plus précisément les applications mobiles parce qu’il y en a pour chaque plateforme ; je pense que les développements natifs aujourd’hui, si je me rappelle bien, c’est Android, iOS et c’est tout.<br />
<br />
<b>Pierre Slamich : </b>Ubuntu aussi.<br />
<br />
<b>Anca Luca : </b>Ubuntu aussi. On avait aussi Firefox OS, mais comme c’est mort ! Ce n’est pas mort, je pense qu’il est toujours maintenu par la communauté, donc je demande pardon aux gens qui font ça ! Désolée.<br />
<br />
<b>Frédéric Couchet : </b>Un logiciel libre n’est jamais mort il est gelé. On attend le retour à la vie<br />
<br />
<b>Anca Luca : </b>Le Libre n’est jamais mort, c’est l’avantage du Libre !<br/><br />
Et la troisième composante technique c’est la maintenance de tous les serveurs et toutes les opérations qui font que ça tient debout.<br/> <br />
Tous les logiciels sont libres, développés au début par des bénévoles, donc tout ce qui a été développé a été développé par des bénévoles sur leur temps libre et, depuis très peu de temps, on a du financement pour des projets auxquels on participe qui nous permettent de financer des personnes qui participent, qui font tourner l’association on va dire et aussi du développement par-ci par-là, je pense. Je ne pense pas qu’on a des permanents développeurs. Si ? Si on en a. Pardon ! Tu es permanent développeur.<br />
<br />
<b>Frédéric Couchet : </b>Pierre Slamich.<br />
<br />
<b>Pierre Slamich : </b>Ça permet de faire le lien avec ce que tu mentionnes, justement sur les financements. On parlait des producteurs, ça nous permet typiquement de créer une plateforme qui va permettre à tous les producteurs d’importer leurs données directement dans Open Food Facts. Effectivement on a des producteurs quasiment depuis le début du projet qui nous disent : « C’est génial, comment on met nos données, comment on met nos produits dans Open Food Facts ? » Là on est en train de mettre en place une plateforme qui nous permettra justement d’avoir des données à jour, complètes et plus détaillées sur les produits, du coup grâce au soutien de Santé publique France qui est l’organisme qui s’occupe de la prévention de la santé en France.<br />
<br />
<b>Frédéric Couchet : </b>On a parlé de la partie logicielle, ce sont des logiciels libres. La partie base de données, une spécificité, c’est qu’elle est disponible sous une licence libre spécifique aux bases de données.<br />
<br />
<b>Pierre Slamich : </b>Voilà. Logiciel libre, données ouvertes et tout est gratuit. Ça ce sont des grands principes de l’association. Effectivement on a les logiciels qui permettent de générer ces données ouvertes. D’ailleurs on l’appelle le <em>product opener</em>, c’est-à-dire décapsuleur en français, et, du coup, on a ce logiciel qui permet de générer les données. Après les données sont reversées sous forme d’export, sous forme d’API.<br />
<br />
<b>Frédéric Couchet : </b>Interface de programmation.<br />
<br />
<b>Pierre Slamich : </b>C’est-à-dire qu’on a une API, une interface de programmation logicielle qui permet à d’autres applications, d’autres services, de pouvoir bâtir sur Open Food Facts des expériences logicielles dédiées par exemple à des diabétiques, à des publics…<br />
<br />
<b>Frédéric Couchet : </b>Des publics végans par exemple ?<br />
<br />
<b>Pierre Slamich : </b>Oui, effectivement on a des applications basées sur Open Food Facts pour les végans. D’ailleurs on va même bientôt lancer, c’est déjà disponible pour les gens qui sont sur F-doid et bientôt sur Play Store, la détection des produits végans, végétariens et avec de l’huile de palme.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Je précise que F-Droid c’est un magasin d’applications libres. Je vous encourage à l’installer comme ça vous aurez plein d’applications libres dont Open Food Facts et plein d’autres, vous avez OpenStreetMap et compagnie.<br/><br />
Sur la partie modèle économique, les coûts c’est l’hébergement des serveurs et vous avez des financements via des partenariats qui permettent de financer de gens qui vont contribuer techniquement.<br />
<br />
<b>Pierre Slamich : </b>Il faut voir que de 2012 jusqu’à cette année, on a fait tourner l’association avec un budget de 600 euros par an. Ça paraît un peu fou mais c’était essentiellement les coûts serveur, un petit serveur pour faire tourner le projet, et on est arrivé comme ça à libérer des centaines de milliers de produits. Là on a cette chance de pouvoir vraiment accélérer grâce au soutien de Santé Publique France sur plus de sujets, dans plus de pays. On a effectivement les deux premiers permanents, Stéphane et moi, et on peut se consacrer à 100 % à pouvoir faire grandir l’association, encadrer : on a de plus en plus de développeurs qui veulent investir du temps pour améliorer les applications mobiles, on est aussi en train de faire de l’intelligence artificielle pour pouvoir extraire les informations automatiquement des étiquettes, donc ce sont plein de choses qu’il faut arriver à pouvoir accompagner, faire grandir pour suivre l’augmentation ; on a plus d’un million et demi d’utilisateurs, donc il faut arriver à tenir en termes humains la croissance du projet.<br />
<br />
<b>Frédéric Couchet : </b>C’est une excellente nouvelle. Je ne savais pas du tout que vous étiez, Stéphane et toi, permanents et c’est une excellente nouvelle. J’ai une remarque sur le salon web et peut-être une demande d’évolution de l’application, je ne sais pas si c’est possible, mais je vais la relayer. C’est mu_man dit : « Le seul souci que j’ai avec l’appli mobile c’est qu’elle a besoin d’être connectée, donc sur ma tablette ça ne marche pas. » Est-ce qu’il est prévu, est-ce qu’il est techniquement possible d’avoir une version déconnectée d’Open Food Facts, c’est-à-dire avec la base de données téléchargées directement, un peu comme OpenStreetMap le fait avec je ne sais plus quelle application. Est-ce que c’est faisable ? Qui veut répondre ?<br />
<br />
<b>Anca Luca : </b>Ce n’est pas uniquement faisable, c’est fait !<br />
<br />
<b>Pierre Slamich : </b>C’est à moitié fait !<br />
<br />
<b>Frédéric Couchet : </b>Attention !Écoute bien mum_man, c’est fait !<br />
<br />
<b>Pierre Slamich : </b>On va commencer par un troll. Ça veut dire que mu_man n’est pas sur iPhone parce que les utilisateurs d’iPhone ont déjà la possibilité de scanner leur connexion et, sur Android, ça arrive, comme le dit Anca, effectivement ça arrive. On a des premiers prototypes, donc on est arrivé à comprimer le million de produits d’Open Food Facts sur l’équivalent de quatre selfies, donc on est arrivé à réduire la taille, à comprimer ça sur un téléphone, c’est assez fou ! On a besoin d’aide. Si vous voulez rejoindre l’équipe Android pour aller plus vite sur les fonctionnalités, n’hésitez pas ! Mais ça arrive, on est en train de travailler dessus.<br />
<br />
<b>Frédéric Couchet : </b>Il confirme effectivement qu’il n’est pas sur iPhone. Il le confirme directement. La base de données représente quelle taille ? Vous avez une idée ? Tu dis que ça compresse en quatre selfies, mais la base originale ? Mais si tu n’a pas d’idée, ce n’est pas grave !<br />
<br />
<b>Pierre Slamich : </b>Je crois que ça se compte en gigaoctets.<br />
<br />
<b>Frédéric Couchet : </b>Sur un téléphone, effectivement, on arrive vite à saturer.<br />
<br />
<b>Pierre Slamich : </b>Et là ce n’est que le texte, que la base de données textuelles, mais on a aussi des millions de photos et là ce sont des millions de téraoctets de photos, donc c’est un terrain de jeu absolument formidable pour les gens qui s’intéressent à l’intelligence artificielle. La vision sur ordinateur assure deux choses parce que, du coup, on a un impact absolument démesuré quand on travaille sur Open Food Facts.<br />
<br />
<b>Frédéric Couchet : </b>Vas-y Anca.<br />
<br />
<b>Anca Luca : </b>Je voudrais aussi ajouter, puisqu’on parle de la taille de cette base de données et de tout ça, on n’a pas complètement expliqué comment ça s’est passé. Ce sont des contributions des gens qui ont téléchargé l’application, scanné des produits, envoyés des photos, rempli des fiches de produits au début, avec l’aide des bases de données que les industriels ont pu nous envoyer pour les importer et participer à la base de données, mais à la base il y a énormément de contributions des utilisateurs qu’on remercie. C’est comme ça qu’on est arrivé à un million de produits, on en est très fier. <br />
<br />
<b>Frédéric Couchet : </b>La contribution, on va y revenir en détail juste après la pause musicale, mais je crois que vous venez de gagner un développeur parce que mu_man, qui continue sur le salon web, a dit : « Il faut dire que la base mériterait peut-être d’être un peu structurée aussi : sur beaucoup de champs il y a plein de doublons parce que ce sont des champs en texte libre ». Comme mu_man sait développer, je vous enverrai ses coordonnées. Je pense que vous avez gagné un contributeur. Il nous répondra directement sur le salon.<br />
<br />
<b>Pierre Slamich : </b>À bientôt !<br />
<br />
<b>Frédéric Couchet : </b>On va faire une pause musicale. On va écouter <em>Scully's Reel</em> par Sláinte. On se retrouve juste après. Belle journée à l’écoute de Cause Commune.<br />
<br />
<b>Pause musicale : </b><em>Scully's Reel</em> par Sláinte.<br />
<br />
===Deuxième partie===<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Scully's Reel</em> par Sláinte, disponible sous licence libre Creative Commons Partage dans les mêmes conditions.<br />
<br />
Vous écoutez toujours l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 FM et sur le site causecommune.fm partout ailleurs.<br />
<br />
Nous continuons notre discussion sur Open Food Facts avec Pierre Slamich et Anca Luca. Juste avant la pause Anca avait commencé à parler de l’importance de la contribution des personnes qui utilisent l’application. Justement on va voir un petit peu comment contribuer. La première contribution, tu avais commencé à l’expliquer, c’est l’ajout de produits. Comment ça fonctionne Anca ?<br />
<br />
<b>Anca Luca : </b>On va au supermarché ou chez soi, dans le frigo ou dans le placard, on scanne un produit, le code barre du produit, on télécharge l’application d’abord je ne l’ai pas dit, pardon. On télécharge l’application, on scanne le code barre, il y a un bouton sur l’application qui dit « scanner », on scanne le code barre d’un produit, ça va reconnaître les chiffres du code barre et ça va chercher le produit dans la base de données. Si ce produit est trouvé on peut améliorer le produit en envoyant des nouvelles images ou des images avec les ingrédients, par exemple si les ingrédients ne sont pas remplis, ou avec le tableau nutritionnel si les informations nutritionnelles ne sont pas remplies. Il y a aussi la possibilité de modifier directement la fiche produit pour mettre à jour ces informations-là mais c’est très important de nous envoyer la source de cette information. Par exemple si quelqu’un veut mettre à jour le tableau, les informations nutritionnelles du tableau nutritionnel, c’est important aussi de mettre la photo pour avoir la preuve, effectivement, que ce sont les vraies données, les bonnes données. Ça c’est si le produit existe.<br/><br />
Si le produit n’existe pas, on commence à prendre des photos et à remplir, il y a trois écrans à remplir, il n’y a pas plus que ça :<br/><br />
le premier écran qui demande une photo du devant de l’emballage du produit, le nom du produit et la catégorie du produit ;<br/><br />
le deuxième écran qui demande un photo de la liste des ingrédients qui vont être reconnus automatiquement par un logiciel de reconnaissance de texte, donc on va essayer d’extraire pour vous la liste des ingrédients à partir d’une image, donc vous n’avez pas besoin de taper du texte sur mobile, heureusement. S’il y a des erreurs vous pouvez les corriger après, mais ça marche en fonction de la taille de l’étiquette du produit qui est un sujet ! Mais en fonction de la taille l’étiquette, donc du texte sur cette étiquette, ça peut marcher très bien directement. <br/><br />
Et le troisième écran c’est le tableau nutritionnel, donc pareil, image et les chiffres qui sont dans le tableau nutritionnel du produit.<br/><br />
Une fois qu’on a fait ça on a un produit qui est correctement rempli et le Nutri-Score et le score NOVA sont calculés automatiquement. Donc on va dire maximum en deux minutes et demie si on a du mal à trouver un bon angle pour la photo, on a le Nutri-Score et le score NOVA pour un produit qu’on s’apprête à manger et on peut en savoir un peu plus sur ce qu’on va manger.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Est-ce que le produit est ajouté automatiquement dans la base ou est-ce qu’il y a une validation ou une modération pour vérifier les éléments ?<br />
<br />
<b>Anca Luca : </b>Il est ajouté automatiquement à la base par le même principe que Wikipédia. On ajoute l’information et on espère qu’avec suffisamment de paires d’yeux, tous les bogues seront découverts. C’est en fait le principe du Libre.<br />
<br />
<b>Frédéric Couchet : </b>La loi de Linus Torvalds. Justement, une question me vient, toujours posée tout à l’heure en préparant l’émission de la part de Pierre Besson sur la fiabilité des données. Est-ce que vous avez noté de la triche ou des données erronées, qui sont deux sujets différents évidemment ? Pierre Slamich.<br />
<br />
<b>Pierre Slamich : </b>Pour compléter, effectivement il y a ce côté collaboratif : on a la chance d’avoir une communauté. On a un million et demi d’utilisateurs, on a plus de 25 000 personnes qui vérifient ces fiches en fait de manière continue et ce qu’on a fait monter ces dernières années, ce sont plusieurs choses. Ce sont d’abord des algorithmes spécialisés de qualité qui vérifient, par exemple, que la somme des nutriments fait bien 100 grammes, etc., donc ont des écarts à la moyenne : est-ce que ces lasagnes bolognaises ressemblent bien à des lasagnes bolognaises d’un point de vue ingrédients et d’un point de vue nutrition ? L’intelligence artificielle aide pas mal. Et puis le troisième pilier sur la qualité c’est qu’on a les imports producteurs qui sont, en fait, en train de monter en puissance, donc on a de la donnée directement validée à la source. Évidemment on applique les mêmes vérifications.<br />
<br />
<b>Frédéric Couchet : </b>Vous ne leur faites pas confiance par défaut, quand même !<br />
<br />
<b>Pierre Slamich : </b>On s’assure quand même. Sachant que c’est tellement radioactif et s’ils s’amusaient à mentir sur les choses sur les emballages ils auraient des conséquences légales, directement de l’État, et puis, en termes de relations publiques, ça serait un peu radioactif pour eux.<br/><br />
Voilà les trois piliers : la modération citoyenne, des algorithmes qui viennent renforcer ça et puis les producteurs qui viennent renforcer directement leurs données. Sachant qu’on a la chance d’avoir un sujet qui est effectivement passionné, l’alimentation c’est un sujet passionné, mais c’est plus factuel qu’un article sur la Guerre de Cent Ans ou sur des choses qui peuvent porter à polémique.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Ls gens qui scannent dans les magasins soit pour vérifier un aliment soit pour le rajouter, est-ce que c’est bien vu aujourd’hui par les supermarchés ou autres ? Eu est-ce qu’un agent, une personne de la sécurité vous dit non ? Comment c’est vu ?<br />
<br />
<b>Anca Luca : </b>C’est très intéressant parce qu’il y a des histoires personnelles différentes. Personnellement je n’ai jamais eu de problèmes dans les supermarchés et je ne me cache même pas : je sors mon téléphone, je prends des photos, je scanne des trucs. Après j’ai appris que ça dépend aussi des pays. Il y a d’autres personnes qui ont d’autres expériences.<br />
<br />
<b>Pierre Slamich : </b>J’ai une anecdote à ce sujet. Open Food Facts est présent dans plein de pays, plus de 150 pays, on a un contributeur russe qui s’est fait expulser <em>manu militari</em> de son supermarché local. Donc vraiment, effectivement ça varie.<br />
<br />
<b>Anca Luca : </b>Ça dépend des pays. Après il y a des histoires un peu moins heureuses que la mienne en France. J’allais parler de cette histoire de pays, c’est important de savoir qu’Open Food Facts est fait pour être international, pour marcher dans tous les pays du monde. Ça peut être très intéressant de retrouver les mêmes produits dans deux pays différents et de pouvoir comparer les ingrédients. Il y a d’ailleurs des gens qui ont eu des expériences un peu malheureuses dans mon pays, je viens de Roumanie à la base, et il y a des Français qui sont allés scanner en Roumanie parce qu’ils étaient en visite et ils m’ont raconté des histoires dont je ne suis pas très fière.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. C’est intéressant parce qu’effectivement, une des façons de contribuer aussi à Open Food facts c’est d’adapter l’application à une langue. Aujourd’hui c’est disponible dans combien de langues, dans combien de pays ? 150 tu as dit, c’est ça Anca ?<br />
<br />
<b>Anca Luca : </b>C’est Pierre qui l’a dit.<br />
<br />
<b>Pierre Slamich : </b>Effectivement on a des produits dans à peu près 150 pays. On n’a pas des traductions dans autant de langues que ça, mais on essaye vraiment, on a ce credo que l’information alimentaire est un droit fondamental qui doit être accessible quelle que soit sa langue, quel que soit son pays, même si le pays n’est pas, entre guillemets, « rentable » pour une start-up ou pour un grand groupe. L’idée c’est vraiment quel que soit le téléphone qu’on a, Android, iOS et qu’on n’ait pas aussi à payer avec sa vie privée. Du coup, typiquement sur Open Foof Facts, on n’a pas besoin de s’inscrire, donc on peut utiliser l’application sans filer de données personnelles, il n’y a pas de trackers dans l’application.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. J’ai une question. Tout à l’heure on a parlé de Yuka, une des fonctionnalités de Yuka dont on m’a parlé c’est le fait que quand vous avez un produit scanné qui est produit, on va dire, avec une note mauvaise, Yuka affiche des alternatives. La personne m’a dit : « Ça c’est vachement bien parce que je n’ai pas à me prendre la tête, je vais dans la liste des alternatives et je choisis ». J’ai regardé sur Open Food Facts, il n’y a pas à priori pour le moment, sauf erreur en tout cas, cette liste d’alternatives, est-ce que c’est prévu ? Yuka, c’est une startup machin on peut peut-être se dire « comment ils mettent les alternatives, est-ce que derrière il y a des financements », alors qu’avec une base de données ouvertes on sait comment ça fonctionne ? Pierre.<br />
<br />
<b>Pierre Slamich : </b>Il y a deux points. Déjà, effectivement, c’est la transparence des algorithmes, ça c’est important. Nous, si on doit faire quelque chose, ça sera totalement transparent. Il y a aussi un deuxième point qui est important c’est la personnalisation, c’est-à-dire que quelqu’un qui est végan, quelqu’un qui est musulman, n’a pas envie d’avoir les mêmes recommandations selon ses préférences personnelles ou religieuses ou ses problèmes de santé. Nous on veut que ça soit ultra-personnalisé selon qui on aide, d’où on vient et ce qui nous préoccupe.<br/><br />
Et troisième point – ça on est en train de préparer la fonctionnalité, ça va prendre encore un peu de temps – et en attendant, sur Android, on a cette fonctionnalité assez sympa qui permet de comparer, de faire un peu son mini UFC-Que Choisir en rayon. Parce que typiquement, si on a une recommandation et qu’elle n’est pas dispo en rayon parce qu’il est 19 heures, que tous les produits sont partis et que ce n’est pas disponible dans son supermarché local, ça ne sert pas à grand-chose. Si, en plus, elle trop vertueuse, si on veut une alternative au Nutella et que l’application propose des trucs un peu trop vertueux, « inintéressants » entre guillemets pour la personne, c’est un peu dommage. Donc nous, ce qu’on permet de faire, on fait sa présélection en rayon et puis on compare : typiquement les lasagnes au bœuf, on peut les comparer entre elles en un instant et voir le Nutri-Score, le NOVA et l’impact carbone pour après faire son choix sans contrainte parmi ce qu’on a dans le rayon au moment où on fait ses courses. <br />
<br />
<b>Frédéric Couchet : </b>Anca. <br />
<br />
<b>Anca Luca : </b>Ça vaut peut-être aussi de mentionner tous les outils pas forcément de comparaison mais d’analyse de la base de données des produits qui sont disponibles. Déjà il y a toute la taxinomie des produits, donc les catégories de produits. C’est facile de trouver des alternatives sans l’influence d’un algorithme qu’on ne connaît pas. La méthode la plus facile c’est d’aller naviguer sur tous les produits dans la même catégorie, parce que finalement c’est ça la liste d’alternatives : c’est un classement et sans l’influence, on va dire, d’une source externe.<br />
<br />
<b>Pierre Slamich : </b>En une minute, sur Open Food Facts, on peut créer son graphe en trois clics.<br />
<br />
<b>Anca Luca : </b>Et il y a aussi l’outil pour créer un graphe. Donc les catégories, la navigation par catégories, et après l’outil de graphe qui permet de faire des graphiques assez intéressants, avec les différents paramètres nutritionnels des produits qui font partie d’une certaine catégorie, qui ne sont pas bio et ainsi de suite. Ces outils ne sont pas disponibles dans l’application mobile à ma connaissance. Peut-être qu’un jour on va les mettre dans l’application mobile, mais ces outils existent et, puisque la base de données est libre, on peut toujours être un peu plus confiant dans l’algorithme de classification. <br />
<br />
<b>Frédéric Couchet : </b>Donc la vérification est possible, ce qui n’est pas le cas…<br />
<br />
<b>Anca Luca : </b>Une vérification est possible. Je ne dis que ce n’est pas le cas, je ne veux pas dire que les autres applications ne sont bonnes parce que je ne le sais pas plus que ça, mais il y a cette confiance avec la transparence. Il y a la transparence qui donne confiance dans le résultat, la possibilité de le vérifier.<br />
<br />
<b>Frédéric Couchet : </b>Exactement. Ce qui est valable ici est valable en sécurité, partout.<br/><br />
À l’instant, Pierre, tu as parlé des données envoyées par les producteurs. Est-ce qu’il y a des données importantes qui manquent encore ou est-ce qu’il y a des données qui pourraient être plus définies, plus précises ?<br />
<br />
<b>Pierre Slamich : </b>Oui, il y en a. C’est-à-dire qu’en fait, quand on a commencé Open Food Facts, on s’intéressait aux ingrédients et globalement à la nutrition. Et une personne est venue nous voir en nous disant « moi, ce qui m’intéresse, c’est l’environnement. La nutrition, OK ! » Du coup on a rajouté les emballages, le carton, le plastique, etc. Et en fait, au fur et à mesure où Open Food Facts se développe, on se rend compte des nouvelles préoccupations des gens. Par exemple la question climatique, la question de l’environnement a beaucoup grossi ces dernières années et, pour pouvoir faire des calculs par exemple d’impact carbone ou de responsabilité sociale et environnementale des entreprises, il y a besoin de beaucoup de données. Et les entreprises, en fait, quand on discute avec les fabricants, quand on importe leurs données, eux-mêmes ne sont même pas capables de calculer l’impact carbone de leurs produits, parce que notamment les logiciels qui permettent de calculer ces empreintes carbone ne sont pas libres et les données sous-jacentes, pour faire des hypothèses sur ces empreintes carbone, ne sont pas libres non plus. Donc ils sont obligés de payer des cabinets de conseil très cher pour pouvoir calculer ces impacts carbone, donc il y a vraiment cet enjeu à créer de la donnée sur la traçabilité environnementale et sociale et ensuite à la rendre lisible et exploitable par les consommateurs.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Anca.<br />
<br />
<b>Anca Luca : </b>Ce qui est intéressant au sujet de quelles sont les données qui manquent ou quelles données manquent c’est qu’aujourd’hui, par rapport à 2012, il y a aussi de nouvelles possibilités qui s’ouvrent grâce à l’existence de ce type d’application et de base de données. Puisqu’on a libéré de la donnée, les ingrédients, le tableau nutritionnel, c’est bon on est d’accord, c’est intéressant, etc., mais où est-ce qu’on peut aller plus loin ? Est-ce qu’on peut aller encore plus loin ? Est-ce qu’on peut trouver encore d’autres informations qui soient intéressantes ? Et ces questions-là on se les pose aujourd’hui parce qu’on a vu que c’était possible avec les ingrédients et les informations nutritionnelles. Donc la transparence fait que la transparence est demandée, en fait. Plus il y en a plus on en demande.<br />
<br />
<b>Pierre Slamich : </b>En fait en 2012 les gens nous prenaient pour des fous furieux quand on leur disait : « On va créer une base de données avec tous les produits du monde ». Du coup maintenant, quand on leur parle d’impact carbone, de responsabilité sociale, comme tu disais effectivement Anca, ils disent : « Ah oui ! Ils l’ont fait sur la nutrition, ils ont été assez fous pour le faire sur la nutrition, pourquoi ça ne serait pas possible sur des choses pour lesquelles on estimait que c’était infaisable jusqu’à présent ? »<br />
<br />
<b>Frédéric Couchet : </b>Je pense qu’on disait aussi que les gens étaient fous quand ils ont lancé Wikipédia et d’autres projets du même genre.<br/><br />
On va avancer parce que le temps passe très vite et je voudrais quand même quelques mots sur votre travail avec des partenaires, parce que c’est important, et notamment l’un des partenaires qui est EREN l’Équipe de recherche en épidémiologie nutritionnelle. Est-ce que vous pouvez m’en dire plus ?<br />
<br />
<b>Pierre Slamich : </b>L’EREN, en fait, c’est une équipe de chercheurs français qui a conçu en 2014 quelque chose qui s’appelait le code cinq couleurs à l’époque, qui est devenu aujourd’hui le Nutri-Score : l’équipe du professeur Hercberg s’occupe d’analyser la qualité nutritionnelle des aliments et de voir leur impact sur la santé des gens. Ils ont notamment une cohorte énorme qui s’appelle NutriNet. NutriNet ce sont des centaines de milliers de Français qui vont noter leur état de santé, qui vont noter également ce qu’ils mangent et ça permet aux chercheurs d’effectuer des corrélations entre surconsommation par exemple d’un additif et dégradation de l’état de santé. Par exemple ils ont montré l’impact des aliments ultra-transformés sur la santé, sur les questions de diabète, etc. C’est vraiment une équipe qui génère de la donnée pour pouvoir mieux évaluer les questions de l’impact de l’alimentation sur la santé.<br/><br />
Donc on est très heureux de collaborer avec eux parce que, du coup, ils se servent d’Open Foods Facts pour pouvoir mieux comprendre ce que mangent les gens, quels additifs sont contenus dans ce qu’ils mangent, donc grâce à des données ouvertes ils peuvent faire avancer la science. Ça c’est quelque chose qui est très motivant pour les contributeurs d’Open Food Facts, ce n’est pas un scan juste pour soi mais c’est aussi un scan altruiste qui permet de faire progresser la science. <br />
<br />
<b>Frédéric Couchet : </b>Anca.<br />
<br />
<b>Anca Luca : </b>D’ailleurs ça vaut le coup de mentionner que la base de données Open Food Facts, telle qu’elle était à ce moment-là, a été utilisée pour tester la formule Nutri-Score. C’est à-dire que le fait que cette base de données libre existe permet à des scientifiques de vérifier leur travail et de tester le calcul complexe qu’est le Nutri-Score avec des produits qui existent et des informations sur des produits de la vie réelle. Ça c’est quelque chose qu’uniquement un commun peut apporter, un commun c’est-à-dire une ressource partagée.<br />
<br />
<b>Frédéric Couchet : </b>Une ressource partagée et ??? par tout le monde.<br/><br />
L’étude dont vient de parler Pierre, donc c’est NutriNet-Santé et j’encourage les gens à y participer.<br/> Inversement, j’aimerais savoir comment réagit notamment l’ANIA, l’Association nationale des industries alimentaires, à Open Food Facts. Est-ce que vous avez des liens ou vous savez comment ils réagissent par rapport à ça ?<br />
<br />
<b>Pierre Slamich : </b>L’ANIA c’est effectivement « le lobby des lobbies » entre guillemets de l’industrie agroalimentaire. Ce sont des gens qui défendent bien évidemment leur industrie, leurs intérêts. Ils avaient pris position contre le Nutri-Score à l’époque et là, maintenant, ils ont annoncé qu’ils voulaient mettre en place un clone d’Open Food Facts, donc une base de données faite par l’industrie qui s’appelle Numa Lime et qui est, en fait, une tentative de reprendre la main sur ces questions qui leur ont échappé d’information alimentaire et d’information du consommateur.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. C’est une tentative d’essayer de contrecarrer le développement d’Open Food Facts pour diffuser ses propres informations ?<br />
<br />
<b>Pierre Slamich : </b>L’avantage d’avoir une base de données ouverte, c’est qu’on peut faire des choses. Typiquement le Nutri-Score c’était une formule sur un papier quand on l’a découvert. On a demandé l’algorithme au professeur Hercberg et on a pu le calculer, on a pu lui donner une existence concrète. Les gens ont pu se l’approprier beaucoup plus facilement et ça a contribué à sa démocratisation.<br/><br />
Le problème de l’ERN, de l’équipe du professeur Hercberg mais aussi de toutes les équipes scientifiques dans le monde c’est qu’avant elles devaient quémander de la donnée aux distributeurs, à l’industrie, avec des conditions de réutilisation, elles ne pouvaient pas faire n’importe quoi avec la donnée. Là la puissance des données ouvertes c’est que, du coup, ça permet aux startups d’innover avec plein de création d’apps. Ça permet aux chercheurs de mieux chercher et ça permet aux data journalistes, par exemple du <em>Monde</em>, <em>Les Décodeurs</em> du <em>Monde</em> se sont servis des données d’Open Food Facts pour pouvoir, entre guillemets, « alimenter » le débat public.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Une suggestion sur le salon web de notre régisseur du jour, donc Étienne, une suggestion de développement : croiser avec une base de données de recettes pour pouvoir soi-même, à partir de produits bruts… donc santé plus environnement. Une idée de développement, une idée tout à fait intéressante.<br/><br />
Le temps passe très vite, il nous reste quelques minutes. Avant d’oublier il me paraît important de parler peut-être de vos projets. Tout à l’heure on a parlé de financements, peut-être qu’il y a des appels à don, des appels à contribution, donc si vous avez des appels c’est maintenant avant qu’on oublie. Pierre Slamich.<br />
<br />
<b>Pierre Slamich : </b>On est en train de préparer le budget 2020 de l’association parce que, du coup, ça doit tourner et on lance notre campagne de dons de fin d’année, donc donner.openfoddfacts.org. Ça permettra de financer de l’hébergement, des gens pour bosser sur le projet, de l’infrastructure, de faire progresser les apps plus rapidement.<br />
<br />
<b>Frédéric Couchet : </b>Les apps ce sont les applications.<br />
<br />
<b>Pierre Slamich : </b>Les applications mobiles, de pouvoir faire plus de choses sur plus de sujets.<br />
<br />
<b>Frédéric Couchet : </b>D’ailleurs pour préciser, quand tu dis les applications mobiles, il y en effectivement plusieurs en fait, est-ce que tu peux en citer une ou deux ? Ou Anca.<br />
<br />
<b>Anca Luca : </b>Ce sont les différentes versions de l’application Open Food Facts, donc l’application Android, l’application iOS et l’application Ubuntu.<br />
<br />
<b>Pierre Slamich : </b>Par exemple on avait traditionnellement du mal sur iPhone à avoir une version qui soit à jour par rapport à l’application Android, l’année dernière, grâce aux dons du public, on a pu financer une toute nouvelle version de l’application iPhone avec le scanner connexion, l’historique, etc. Donc ça a vraiment un impact massif parce que ce qu’on arrive à construire pour la France est, du coup, disponible dans plein de langues ; ça va permettre à des utilisateurs aux États-Unis, au Puerto Rico, etc., de bénéficier vraiment de cette transparence alimentaire. Donc ça a vraiment un impact sur Open Food Facts et dans tous les pays du monde<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Une autre façon, je suppose, de relayer votre appel, c’est aussi d’encourager les producteurs et autres à vous proposer leurs données directement pour enrichir encore la base.<br />
<br />
<b>Pierre Slamich : </b>Il y a vraiment plein de façon de contribuer. Si on est producteur on peut contribuer avec les données de ses produits. Si on est contributeur, développeur, traducteur, on peut. Même, si on a envie de rédiger des textes d’explication d’Open Food Facts c’est bienvenu parce que, du coup, ça permet de faire parler du projet, ça permet de faire avancer, d’avoir de nouvelles fonctionnalités, etc. Donc si on n’a pas de temps, on peut faire un don à l’association soit, directement, contribuer avec son temps pour faire progresser la transparence alimentaire en France et aussi dans le monde entier.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Je regarde sur le salon web s’il y a des questions. J’en avais une qui vient complètement de m’échapper, mais elle va me revenir. Je vais vous poser la question, je crois que Anca y a répondu un petit peu au début, est-ce qu’il y a des risques à vouloir contrôler tout ce qu’on mange et pour reprendre une célèbre chanson de Stéphane Eicher, est-ce qu’on peut encore déjeuner en paix sans avoir son smartphone à côté pour vérifier tout ce qu’on mange ?<br />
<br />
<b>Anca Luca : </b>Personnellement je déjeune toujours tranquille, même si je mange plein de choses.<br />
<br />
<b>Pierre Slamich : </b>Qu’est-ce que tu as mangé à midi, Anca ?<br />
<br />
<b>Anca Luca : </b>Pas « scannable » parce qu’il n’y a pas de code barre. On peut toujours déjeuner en paix. Le fait qu’on essaie de s’informer un peu ou un peu plus ou un peu moins, je ne sais pas, le fait qu’on essaie de s’informer ne veut dire qu’il faut devenir paranoïaque, qu’il ne faut rien manger. Les gens peuvent s’informer et, au-delà des gens individuellement, je pense qu’en tant que société on a besoin de ce genre de collecte d’informations pour pouvoir savoir des choses sur ce qu’on est en train de faire. L’action citoyenne, donc le fait qu’on utilise cette base de données pour la science, c’est un exemple. Donc on ne le fait pas uniquement pour soi-même. Oui, je pense qu’on peut manger parfaitement tranquille. Ce n’est parce qu’on utilise une application qu’on va tomber dans la paranoïa de ne rien manger de ce qui a le score nutritionnel E, par exemple.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Je me souviens de ma question. Vas-y Pierre.<br />
<br />
<b>Pierre Slamich : </b>Personnellement, sur la nutrition ça m’a fait un petit peu évoluer : surtout sur la transformation, c’est sur les produits ultra-transformés que moi j’ai complètement eu un déclic. Après, on ne peut pas changer son alimentation comme ça, radicalement du jour au lendemain, mais ça permet d’avoir cette prise de recul face à son alimentation.<br />
<br />
<b>Anca Luca : </b>Je pense que c’est la possibilité de découvrir qui est la plus importante. On se sent potentiellement sans choix ou coincés en se disant « qu’est-ce que je vais manger ou autre ? Est-ce que c’est rapide à préparer ? » et ainsi de suite et l’existence de cette information et de ces données qui existent et qu’on peut consulter permet de découvrir de choses beaucoup plus facilement que de s’asseoir et de réfléchir soi-même. Réfléchir sans source d’information, c’est compliqué.<br />
<br />
<b>Frédéric Couchet : </b>Si on le fait, c’est compliqué.<br />
<br />
<b>Anca Luca : </b>Comme dit Francis Bacon, la connaissance, le savoir rend plus puissant, en fait.<br />
<br />
<b>Frédéric Couchet : </b>Ça aurait pu être une excellente conclusion, mais je me souviens quand même de ma question, donc ma dernière question c’est un, comment on peut vous contacter si on a envie de contribuer et deux, est-ce qu’on peut vous voir sur des évènements libristes ou autres, je peux penser aux Ubuntu Party, par exemple ce week-end à Toulouse il y a le Capitole du Libre, bientôt il y a un salon libriste ? Deux questions : comment on peut vous contacter ? Est-ce qu’on peut vous retrouver sur des évènements ?<br />
<br />
<b>Anca Luca : </b>Moi je serai à Toulouse mais avec mon tee-shirt XWiki, pas avec mon Tee-shirt Open Food Facts ; vous allez me trouver sur le stand XWiki ; si vous voulez venir me parler, je serai ravie de vous parler d’Open Food Facts aussi.<br />
<br />
<b>Pierre Slamich : </b>On sera au FOSDEM.<br />
<br />
<b>Frédéric Couchet : </b>Donc à Bruxelles, en février.<br />
<br />
<b>Pierre Slamich : </b>On participe régulièrement à plein d’évènements. On est très heureux de pouvoir intervenir dans des évènements et. du coup, pour nous contacter c’est très simple c’est contact@openfoodfacts.org et aussi sur nos espaces de discussion en ligne.<br />
<br />
<b>Frédéric Couchet : </b>Excellent. Je vous remercie de cet échange sur Open Food Facts. C’était Pierre Slamich et Anca Luca. Je vous souhaite de passer une belle journée et à bientôt.<br />
<br />
<b>Pierre Slamich : </b>Bonne journée.<br />
<br />
<b>Anca Luca : </b>Bonne journée.<br />
<br />
<b>Frédéric Couchet : </b>On va faire une petite pause musicale.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>On va écouter <em>Nomad</em> par MELA. On se retrouve juste après. Belle journée à l’écoute de Cause Commune.<br />
<br />
<b>Pause musicale : </b><em>Nomad</em> par MELA.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Nomad</em> par MELA, disponible sous licence libre Creative Commons Partage dans les mêmes conditions. Vous retrouverez les références sur le site de l’April, april.org, et sur le site de Cause Commune, causecommune.fm.<br />
<br />
Vous écoutez toujours <em>Libre à vous !</em> sur radio Cause Commune 93.1 FM en Île-de-France.<br/><br />
Nous allons passer au sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
<br />
===Chronique de Vincent Calame ===<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre avec la chronique « Jouons collectif » de Vincent Calame, bénévole à l’April. Bonjour Vincent.<br />
<br />
<b> Vincent Calame : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b> Alors aujourd'hui, tu souhaites nous parler de la clause «Pas d'usage commercial» de certaines licences Creative Commons.<br />
<br />
<b>Vincent Calame : </b> Oui tout à fait. Pour cette chronique, j'ai un peu marché sur les plates-bandes de Jean-Christophe Becquet qui tient ici même une chronique «Pépite libre» qui présente des ressources justement sous licence libre. Et dans sa toute première chronique que l'on peut télécharger sur le site de l'April, il évoquait le cas d'une vidéo d'une conférence qui était sous licence Creative Commons mais qui ne pouvait pas rééutiliser dans une formation parce que ce n'est pas cette clause et qu'est-ce qu'elle avait justement cette clause usage non commercial. Et donc, dans sa chronique il parle de l'échange qu'il a eu avec l'auteur pour lui faire retirer cette clause. Et c'est ça dont je voudrais parler aujourd'hui.<br />
<br />
<b>Frédéric Couchet : </b> Alors : clause, licence, Creative Commons... Trois mots de jargon d'un coup, explique nous ça.<br />
<br />
<b>Vincent Calame : </b> Voilà alors, les habitués connaissent ça par coeur mais il faut préciser pour les personnes qui nous rejoignent. La licence c'est un document juridique qui indique les conditions d'utilisation d'un logiciel ou de toute autre production. Je parle sous contrôle. Vous savez, c'est souvent ce long texte que vous faites défiler rapidement sans lire pour faire activer le bouton «J'accepte» sans poser de questions. Il y a donc de très nombreuses licences différentes. Et dans le cas des logiciels libres, on dit qu'un logiciel est libre quand l'auteur lui a attaché une licence qui assure à l'utilisateur donc quatres libertés : la liberté d'utilisation, la liberté d'examen du code, de modification du code et de distribution de codes modifiés. La plus célèbre des licences libres et la première c'est la GNU GPL. Ces licences qui sont très utilisées dans le monde du logiciel libre ont inspiré d'autres licences plus adaptées à d'autres productions intellectuelles comme les textes et les vidéos. Et une des plus connues c'est la Creative Commons.<br />
<br />
<b>Frédéric Couchet : </b> Attention Vincent, attention ! On ne dit pas la licence Creative Commons mais les licences Creative Commons.<br />
<br />
<b>Vincent Calame : </b> Voilà, parce que nous approchons du problème. En fait, le système des Creative Commons, c'est une famille de licences. Et quand vous avez votre document, vous êtes l'auteur, vous voulez le mettre sous licence Creative Commons, vous choisissez un certain nombre de clauses parmi celles disponible. Il y a par exemple, la clause attribution qui demande que l'auteur initial soit bien cité, la clause «Partage à l'identique» qui impose de distribuer les modifications sous les mêmes conditions et la clause NC pour Non-Commercial qui interdit l'usage commercial.<br />
<br />
<b>Frédéric Couchet : </b> Alors nous y sommes. Alors pourquoi pose-t-elle problème cette clause «Pas d'usage commercial» ?<br />
<br />
<b>Vincent Calame : </b>Alors parce que une licence Creative Commons avec cette clause est une licence non libre. En effet, la première liberté des licences libres c'est celle de la liberté d'utilisation donc y compris dans un usage commercial. Et donc, avec une clause non commercial, vous limitez la liberté de l'utilisateur. Le problème en fait de cette clause, c'est que elle apparaît comme assez naturelle même très naturelle en particulier pour une association qui en France est régie par la fameuse loi de 1901.<br />
<br />
<b>Frédéric Couchet : </b>Donc la loi qui parle d'associations à but non lucratif.<br />
<br />
<b>Vincent Calame : </b> Exactement. Et pour les associations, il y a une légitime fierté à faire partie d'un secteur non marchand. Du coup, je pense qu'elles ont le sentiment que la clause NC est faite pour elles. Donc la difficulté du côté des millitants du libre, c'est de montrer en quoi cette clause est un frein à la diffusion de leurs productions. Donc un exemple, une photo ne peut pas être mise dans une production papier même si cette production a été vendue à un prix coûtant, juste au prix de l'impression. Je pense que pour les associations aussi, cette clause rassure parce que derrière ça, il y a quelqu'un, la crainte que quelqu'un profite du travail. Qu'il se fasse de l'argent dans le dos de l'association. <br />
<br />
<b>Frédéric Couchet : </b> Oui oui. Ça c'est un fantasme en fait. Non ?<br />
<br />
<b>Vincent Calame : </b> Oui. Je pense que oui dans le sens où moi je n'ai pas d'exemple concret d'un vol de données, d'informations ou de quelque chose qui serait de l'argent là-dessus. Mais je pense qu'il n'y a pas d'exemple concret mais en revanche il y a un environnement dont il faut être conscient quand on est aussi millitant du libre dans le sens où le monde associatif est en ce moment soumis à une très forte pression de rentabilité. Il y a des suppressions de subventions, il y a des exigences de redevabilité excessives, de rendre les comptes, des évalutations comptables et très tatillonnes et très financières, il faut faire du chiffre. Il y a également ce phénomène dans certains secteurs qui relève de l'économie sociale et solidaire comme les aides à la personne, à l'insertion etc. D'arrivées (???) de nouveaux acteurs adossés souvent à des grands groupes de services qui les mettent en concurrence et qui leur mettent une pression grâce entre guillemets à «l'efficacité du monde de l'entreprise» en fait aussi au fait qu'ils sont adossés à des groupes capitalistiques qui ont des moyens importants. Donc quand vous êtes avec un millitant de l'économie sociale et solidaire, quand on lui parle d'entrepreneur social voire même d'un ??? impact social, c'est la dernière trouvaille venue du Royaume-Uni qui en fait lie les obligations au financement du monde associatif. En général quand vous lui parlez de ça, ça lui donne des boutons. Parce que ça l'attaque aussi dans son fondement, dans sa raison d'être. Voilà donc tout ça pour dire que c'est un terrain sensible la question du non-commercial. Donc je pense qu'il faut marcher un peu sur des oeufs lorsqu'on aborde cette question avec une association.<br />
<br />
<b>Frédéric Couchet : </b> Alors, comment il faut procéder selon toi ?<br />
<br />
<b>Vincent Calame : </b> Alors, moi je pense que le mieux est de procéder en deux temps. Je ne pense pas être le seul à avoir cette expérience. Le premier temps c'est déjà de convaincre l'association de l'intérêt d'avoir une licence. Parce que tout simplement, beaucoup d'associations, leurs documents qui est comme ça sans indication. Quand il n'y aucune licence, ça dépend juste du droit d'auteur donc il n'y a rien d'autorisé. Et donc déjà, les convaincre d'indiquer une licence. Dans ce premier temps, la clause Non-Commercial parfois ça peut rassurer. Ça peut rassurer l'association qui limite un peu cette diffusion libre à laquelle elle n'était pas forcément préparée. Et je pense que c'est dans un second temps, qu'on peut à partir d'exemples concrets montrer en quoi cette clause Non-Commercial constitue un frein et n'est pas très utile et finalement pour être supprimée. Par exemple si l'association gère des données géographiques on parle de géolocaliser, la clause Non-Commercial va interdire de les réutiliser dans une base de données comme OpenStreetMap qui est la grande base de données géographiques. Donc c'est une valorisation en moins des données pour l'association et c'est dommage. Dans sa chronique, Jean-Christophe avait procédé comme suit : il avait d'abord félicité l'auteur parce que il avait déjà fait l'effort de mettre sous licence Creative Commons avec clause non-commercial et ensuite une fois qu'il l'avait félicité, il lui a montré l'intérêt qu'il avait à abandonner cette clause pour permettre une meilleure valorisation, une meilleure diffusion du contenu et de la production parce que au final, c'est ça le but. C'est aussi de diffuser au maximum sa production.<br />
<br />
<b>Frédéric Couchet : </b> Tout à fait. Donc il ne faut pas y aller comme un bourrin, de façon aggressive. Il faut tenir compte du contexte de la personne et effectivement commencer à féliciter la démarche parce que la personne a entamé en choisissant une licence de la gamme Creative Commons une démarche de partage. Et il faut dire aussi que Creatives Commons n'explique pas trop quand on choisit les licences, les impacts potentiels. Mais bon évidemment, «Pas d'usage commercial», il peut y avoir différentes interprétations et je trouve qu'il y a peut-être un manque d'explications. Et donc il faut y aller en expliquant et puis en positivant au départ en saluant le travail et puis en respectant le choix final de la personne au fond.<br />
<br />
<b>Vincent Calame : </b> Oui complètement. Et dire que finalement une des clauses les plus importantes c'est la clause d'attribution qui est de dire «Oui, c'est important votre travail» soit on garde la source de qui la produit initialement. Je pense que d'ailleurs c'est des meilleures protections contre le vol parce que quelqu'un ne va pas s'amuser à faire entre guillemets «de l'argent» en indiquant la source et en montrant que sa source n'est pas lui et que c'est une petite association. En terme d'image, ce n'est pas terrible. Donc le plus important c'est sans doute cette clause d'attribution et de la faire respecter. <br />
<br />
<b>Frédéric Couchet : </b> Alors il y a peut-être aussi la clause... C'est peut-être aussi l'occasion de nous expliquer l'importance de la clause de «Partage à l'identique<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
===Annonces===<br />
<br />
<b>Frédéric Couchet : </b>On va terminer par des annonces. D’abord la réponse à la deuxième question du quiz.<br/><br />
Je vous rappelle la question. Lors de l’émission du 5 novembre 2019 notre sujet principal portait sur les femmes et l’informatique, la question était : sauriez-vous citer les noms des associations créées par des femmes, réservées aux femmes pour notamment qu’elles puissent s’exprimer librement, échanger, rassembler les voix des femmes dans l’informatique et mener des actions ? Les réponses étaient : Open Heroines, le site web est openheroines.org et pour le chapitre français vous pouvez le trouver sur le site codefor.fr ; la deuxième structure c’était Duchess France, duchess-france.org, sans « e » à Duchess et vous verrez sur le site pourquoi il y a une référence à Duchess. Je vous encourage vraiment à écouter le podcast consacré à cette émission, il est en ligne à la fois sur le site de l’April, april.org, et sur le site de Cause Commune, causecommune.fm, car c’était une discussion très riche et vraiment très intéressante.<br />
<br />
Dans les annonces d’évènements, il y en a pas mal en ce moment.<br/><br />
Ce soir, mardi 12 novembre, de 18 heures à 21 heures, il y a l’évènement Lumière sur les Éditeurs de Logiciels Libres, ça se passe à Paris. Je crois qu’il reste encore des places. C’est de 18 heures à 21 heures, Lumière sur les Éditeurs de Logiciels Libres.<br/><br />
En ce moment à Grenoble il y a une initiative intéressante à partir de ce soir 18 heures 30 jusqu’à samedi 30 novembre 18 heures 30, c’est Protège tes données perso, c’est organisé à la Turbine.Coop, 3-5 Esplanade Andry Farcy à Grenoble. Vous retrouverez les informations évidemment sur le site agendadulibre.org.<br/><br />
Jeudi soir à la FHP où Vincent officie, il y a la soirée de contribution au Libre, comme tous les jeudis de 19 heures 30 à 22 heures.<br/><br />
Pour les personnes qui ont un petit peu soif, il y a l’apéro parisien du Libre, c’est vendredi 15 novembre de 19 heures à 23 heures au Zig Zag Cafe à Paris. L’apéro parisien du Libre c’est tous les 15 du mois donc c’est assez facile, par contre le lieu change à chaque fois, donc il faut aller sur agendadulibre.org pour avoir les informations.<br />
<br />
Deux évènements importants ce week-end.<br/><br />
Le premier c’est à Toulouse Capitole du Libre, samedi 16 novembre et dimanche 17 novembre, c’est clairement l’un des évènements les plus sympas de la planète des évènements libristes et, en plus, vous aurez la change de pouvoir retrouver de mémoire je crois que ce sont trois conférences April : Christian Momon qui est administrateur de l’April donne deux conférences je crois et Étienne Gonnu en donne une, mon collègue Étienne Gonnu en charge des affaires publiques. Ils vous parleront notamment des actions institutionnelles de l’April et également du Chapril, donc notre contribution à vous Dégoogliser d’Internet avec des services libres et loyaux. Le site c’est capitoledulibre.org.<br/><br />
Et le même week-end – eh oui ça tombe mal mais c’est comme ça – il y a l’Ubuntu Party à la Cité des sciences et de l’industrie, samedi 16 novembre et dimanche 17 novembre. Il y aura un stand de l’April, tout comme au Capitole du Libre d’ailleurs, vous aurez le plaisir de retrouver un stand de l’April et il y a normalement une conférence April que j’animerai pour présenter justement l’émission de radio. Pour l’instant je n’ai pas encore la date, j’espère juste que d’un point de vue pratique ce sera dimanche après-midi, ça m’arrangerait en termes de planning personnel.<br />
<br />
Tous les autres évènements vous les retrouvez sur le site de l’Agenda du Libre, agendadulibre.org.<br />
<br />
Notre émission se termine. Je remercie les personnes qui ont participé à l'émission du jour : Jean-Christophe Becquet, Anca Luca, Pierre Slamich, Vincent Calame. Aux manettes de la régie aujourd’hui Éienne Gonnu. <br/><br />
Gand merci également à Sylvain Keutsman et à Olivier Grieco pour le traitement des podcasts et je les remercie notamment pour le traitement du podcast de la semaine dernière, nous avons eu beaucoup de problèmes techniques.<br />
<br />
Vous retrouverez sur le site de l'April, april.org, et sur le site de la radio, causecommune.fm, toutes les références utiles et les moyens de nous contacter. N’hésitez pas à nous faire des remarques, des questions, elles sont toutes bienvenues.<br />
<br />
Nous vous remercions d'avoir écouté l'émission du jour. Si vous avez aimé cette émission, n'hésitez pas à en parler le plus possible autour de vous. Donc faites connaître <em>Libre à vous !</em> et faites connaître la radio Cause Commune.<br />
<br />
La prochaine émission aura lieu en direct mardi 19 novembre à 15 heures 30. Notre sujet principal portera sur la vie d’Ada Lovelace, considérée comme la première personne à avoir écrit un programme informatique. Nous diffuserons une interview de Catherine Dufour qui vient de publier le livre <em>Ada ou la beauté des nombres</em>.<br />
<br />
Nous vous souhaitons de passer une belle fin de journée. On se retrouve en direct mardi 19 novembre 2019 et d’ici là portez-vous bien.<br />
<br />
<b>Générique de fin d'émission :</b><em>Wesh Tone</em> par Realaze.</div>D Ohttps://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_12_novembre_2019&diff=86411Libre à vous ! Radio Cause Commune - Transcription de l'émission du 12 novembre 20192019-11-14T03:59:49Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 12 novembre 2019 sur radio Cause Commune<br />
<br />
'''Intervenant·e·s :''' - Frédéric Couchet - à la régie<br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 12 novembre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[https://media.april.org/audio/radio-cause-commune/libre-a-vous/backups/output-2019-11-12-15h29.ogg Écouter ou enregistrer le podcast PROVISOIRE]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-12-novembre-2019-sur-radio-cause-commune Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
<br />
==Transcription==<br />
<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 en Île-de-France et partout dans le monde sur le site causecommune.fm.<br />
<br />
<br />
<br />
<br />
[Virgule musicale]<br />
<br />
===Chronique de Jean-Christophe Becquet « Pépite libre »===<br />
<br />
<b>Frédéric Couchet : </b><br />
<br />
<br />
<br />
<br />
<br />
<br />
[Virgule musicale]<br />
<br />
===Open Food Facts===<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre par notre sujet principal<br />
<br />
<br />
<br />
<br />
<br />
[Virgule musicale]<br />
<br />
===Chronique de Vincent Calame ===<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre avec la chronique « Jouons collectif » de Vincent Calame, bénévole à l’April. Bonjour Vincent.<br />
<br />
<b> Vincent Calame : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b> Alors aujourd'hui, tu souhaites nous parler de la clause «Pas d'usage commercial» de certaines licences Creative Commons.<br />
<br />
<b>Vincent Calame : </b> Oui tout à fait. Pour cette chronique, j'ai un peu marché sur les plates-bandes de Jean-Christophe Becquet qui tient ici même une chronique «Pépite libre» qui présente des ressources justement sous licence libre. Et dans sa toute première chronique que l'on peut télécharger sur le site de l'April, il évoquait le cas d'une vidéo d'une conférence qui était sous licence Creative Commons mais qui ne pouvait pas rééutiliser dans une formation parce que ce n'est pas cette clause et qu'est-ce qu'elle avait justement cette clause usage non commercial. Et donc, dans sa chronique il parle de l'échange qu'il a eu avec l'auteur pour lui faire retirer cette clause. Et c'est ça dont je voudrais parler aujourd'hui.<br />
<br />
<b>Frédéric Couchet : </b> Alors : clause, licence, Creative Commons... Trois mots de jargon d'un coup, explique nous ça.<br />
<br />
<b>Vincent Calame : </b> Voilà alors, les habitués connaissent ça par coeur mais il faut préciser pour les personnes qui nous rejoignent. La licence c'est un document juridique qui indique les conditions d'utilisation d'un logiciel ou de toute autre production. Je parle sous contrôle. Vous savez, c'est souvent ce long texte que vous faites défiler rapidement sans lire pour faire activer le bouton «J'accepte» sans poser de questions. Il y a donc de très nombreuses licences différentes. Et dans le cas des logiciels libres, on dit qu'un logiciel est libre quand l'auteur lui a attaché une licence qui assure à l'utilisateur donc quatres libertés : la liberté d'utilisation, la liberté d'examen du code, de modification du code et de distribution de codes modifiés. La plus célèbre des licences libres et la première c'est la GNU GPL. Ces licences qui sont très utilisées dans le monde du logiciel libre ont inspiré d'autres licences plus adaptées à d'autres productions intellectuelles comme les textes et les vidéos. Et une des plus connues c'est la Creative Commons.<br />
<br />
<b>Frédéric Couchet : </b> Attention Vincent, attention ! On ne dit pas la licence Creative Commons mais les licences Creative Commons.<br />
<br />
<b>Vincent Calame : </b> Voilà, parce que nous approchons du problème. En fait, le système des Creative Commons, c'est une famille de licences. Et quand vous avez votre document, vous êtes l'auteur, vous voulez le mettre sous licence Creative Commons, vous choisissez un certain nombre de clauses parmi celles disponible. Il y a par exemple, la clause attribution qui demande que l'auteur initial soit bien cité, la clause «Partage à l'identique» qui impose de distribuer les modifications sous les mêmes conditions et la clause NC pour Non-Commercial qui interdit l'usage commercial.<br />
<br />
<b>Frédéric Couchet : </b> Alors nous y sommes. Alors pourquoi pose-t-elle problème cette clause «Pas d'usage commercial» ?<br />
<br />
<b>Vincent Calame : </b>Alors parce que une licence Creative Commons avec cette clause est une licence non libre. En effet, la première liberté des licences libres c'est celle de la liberté d'utilisation donc y compris dans un usage commercial. Et donc, avec une clause non commercial, vous limitez la liberté de l'utilisateur. Le problème en fait de cette clause, c'est que elle apparaît comme assez naturelle même très naturelle en particulier pour une association qui en France est régie par la fameuse loi de 1901.<br />
<br />
<b>Frédéric Couchet : </b>Donc la loi qui parle d'associations à but non lucratif.<br />
<br />
<b>Vincent Calame : </b> Exactement. Et pour les associations, il y a une légitime fierté à faire partie d'un secteur non marchand. Du coup, je pense qu'elles ont le sentiment que la clause NC est faite pour elles. Donc la difficulté du côté des millitants du libre, c'est de montrer en quoi cette clause est un frein à la diffusion de leurs productions. Donc un exemple, une photo ne peut pas être mise dans une production papier même si cette production a été vendue à un prix coûtant, juste au prix de l'impression. Je pense que pour les associations aussi, cette clause rassure parce que derrière ça, il y a quelqu'un, la crainte que quelqu'un profite du travail. Qu'il se fasse de l'argent dans le dos de l'association. <br />
<br />
<b>Frédéric Couchet : </b> Oui oui. Ça c'est un fantasme en fait. Non ?<br />
<br />
<b>Vincent Calame : </b> Oui. Je pense que oui dans le sens où moi je n'ai pas d'exemple concret d'un vol de données, d'informations ou de quelque chose qui serait de l'argent là-dessus. Mais je pense qu'il n'y a pas d'exemple concret mais en revanche il y a un environnement dont il faut être conscient quand on est aussi millitant du libre dans le sens où le monde associatif est en ce moment soumis à une très forte pression de rentabilité. Il y a des suppressions de subventions, il y a des exigences de redevabilité excessives, de rendre les comptes, des évalutations comptables et très tatillonnes et très financières, il faut faire du chiffre. Il y a également ce phénomène dans certains secteurs qui relève de l'économie sociale et solidaire comme les aides à la personne, à l'insertion etc,</div>D Ohttps://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_5_novembre_2019&diff=86354Libre à vous ! Radio Cause Commune - Transcription de l'émission du 5 novembre 20192019-11-08T03:33:20Z<p>D O : Début de la transcription de l'interview de Julie Bideux</p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 5 novembre 2019 sur radio Cause Commune<br />
<br />
'''Intervenant·e·s :''' - Frédéric Couchet - à la régie<br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 5 novembre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[https://media.april.org/audio/radio-cause-commune/libre-a-vous/backups/output-2019-11-05-15h29.ogg Podcast provisoire]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-5-novembre-2019-sur-radio-cause-commune#Pauses_musicales Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
<br />
Transcrit <br />
<br />
==Transcription==<br />
==Transcription==<br />
<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 en Île-de-France et partout dans le monde sur le site causecommune.fm. La radio dispose également d’une application Cause Commune pour téléphone mobile.<br/><br />
Merci à vous d’être avec nous aujourd’hui.<br/><br />
La radio dispose également d’un salon web, utilisez votre navigateur web, rendez-vous sur le site de la radio, causecommune.fm, cliquez sur « chat » et retrouvez-nous ainsi sur le salon dédié à l’émission.<br/><br />
Nous sommes mardi 5 novembre 2019, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.<br />
<br />
Soyez les bienvenus pour cette nouvelle édition de <em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.<br/><br />
Le site web de l’April c’est april.org et vous pouvez y trouver une page consacrée à cette émission avec tous les liens et références utiles, les détails sur les pauses musicales et toute autre information utile en complément de l’émission et également les moyens de nous contacter. N’hésitez pas à nous faire des retours pour indiquer ce qui vous a plu mais aussi des points d’amélioration.<br/><br />
Si vous souhaitez réagir, poser une question pendant ce direct, n’hésitez pas à vous connecter sur le salon web de la radio, donc sur causecommune.fm.<br />
<br />
Nous vous souhaitons une excellente écoute.<br />
<br />
Nous allons maintenant passer au programme de l’émission du jour.<br/><br />
Nous commencerons par la chronique « La pituite de Luk » qui portera sur Google la presse et les droits voisins.<br/><br />
D’ici dizaine de minutes nous aborderons notre sujet principal qui portera sur les femmes et les métiers et communautés de l’informatique et du logiciel libre. <br/><br />
En fin d’émission nous aurons une présentation du Pacte pour la Transition <br/><br />
À la réalisation de l’émission aujourd’hui ma collègue Isabella Vanni. Bonjour Isabella.<br />
<br />
<b>Isabella Vanni : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Comme à chaque début d’émission on va vous proposer un petit quiz. Je vous donnerai les réponses en cours d’émission et vous pouvez proposer des réponses soit sur le salon web de la radio, soit via, par exemple, les réseaux sociaux.<br/><br />
Première question : l’émission du 29 octobre 2019 était la 42e émission de <em>Libre à vous !</em> 42 est un nombre fétiche dans la culture geek, la culture informatique, la culture de l’imaginaire et nous avons donc fait quelques clins d’œil et références à une œuvre. Quelle est cette œuvre ?<br/><br />
Deuxième question. Aujourd’hui notre sujet principal portera sur les femmes et les métiers de l’informatique et du logiciel libre. Sauriez-vous dire qui est la première personne à avoir réalisé un programme informatique. Petit indice : c’est une femme.<br />
<br />
Tout de suite place au premier sujet.<br />
<br />
==Chronique « La pituite de Luk », Google, la presse et les droits voisins==<br />
<br />
<b>Frédéric Couchet : </b>Nous allons commencer l’émission avec la chronique « La pituite de Luk » qui va porter sur Google, la presse et les droits voisins. Luk n’est pas avec nous aujourd’hui et la chronique est enregistrée, donc on se retrouve juste après.<br />
<br />
<br />
<br />
<br />
<br />
<br />
==Les femmes et les métiers et communautés de l'informatique et du logiciel libre avec Catherine Dufour, Katia Aresti et Caroline Corbal==<br />
<br />
<b>Frédéric Couchet : </b>Nous allons donc poursuivre par notre sujet principal qui va porter sur les femmes et l’informatique et aussi le logiciel libre avec nos invitées : Catherine Dufour ingénieure en informatique, autrice de <em>Ada ou la beauté des nombres</em> qui vient de paraître chez Fayard en septembre 2019. Bonjour Catherine.<br />
<br />
<b>Catherine Dufour : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Katia Aresti, ingénieure logiciel chez Red Hat, membre de Duchess France. Bonjour Katia.<br />
<br />
<b>Katia Aresti : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Et normalement au téléphone avec nous Caroline Corbal de Code for France et membre d'Open Heroines France. Bonjour Caroline.<br />
<br />
<b>Caroline Corbal : </b>Bonjour, je suis là.<br />
<br />
<b>Frédéric Couchet : </b>Super, on n’a pas eu ce problème technique téléphonique comme tout à l’heure. Bienvenue à vous trois. Première question même si je vous ai présentées très rapidement, une petite présentation personnelle, on va commencer par Caroline qui est au téléphone, c’est la situation la moins facile, donc Caroline.<br />
<br />
<b>Caroline Corbal : </b>Bonjour. Tu m’as présentée, je suis membre du collectif Open Heroines que, je pense, on pourra présenter à nouveau tout à l’heure et sinon je suis cofondatrice d’une association qui s’appelle Code for France et je gravite dans le milieu du Libre depuis quatre/cinq ans.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Katia Aresti.<br />
<br />
<b>Katia Aresti : </b>Je suis ingénieure informatique chez Red Hat et je suis membre de Duchess France qu’on présentera tout à l’heure aussi depuis 2010. Je fais de l’<em>open source</em> en Java, particulièrement<br />
<br />
<b>Frédéric Couchet : </b>Je précise qu’on a déjà eu l’occasion d’avoir Katia Aresti dans notre émission sur le métier du développement logiciel libre, le podcast est disponible, et on a déjà eu aussi Caroline Corbal, je ne sais plus à quel moment c’était, mais pareil le podcast est disponible sur les sites de Cause Commune et de l’April. Catherine Dufour.<br />
<br />
<b>Catherine Dufour : </b>Bonjour. Je m’appelle Catherine Dufour, je suis aussi ingénieure en informatique, je fais des bibliothèques numériques. Je fais des chroniques au <em>Monde diplomatique</em>,je donne des cours à Sciences Po et je suis auteure de science-fiction.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Le sujet qu’on va aborder aujourd’hui, on ne va pas aborder tous les thèmes du sujet parce qu’il est très vaste, c’est une première émission sur le sujet, mais déjà première question, le constat, pourquoi on parle de ce sujet-là, la place des femmes dans l’informatique et du logiciel libre alors qu’en fait, initialement, ce n’était pas la situation qu’on connaît aujourd’hui. Qui veut commencer peut-être sur l’histoire, rappeler les premières… Je précise qu’à la radio elles se font des signes pour se passer la parole. On va commencer sans doute par Catherine Dufour, notamment est-ce que les femmes ont toujours absentes, en tout cas moins présentes que les hommes dans l’informatique ? Comment ça se passait il y a quelques années ?<br />
<br />
<b>Catherine Dufour : </b>Elles ont toujours été très présentes. Avant elles étaient très présentes. L’informatique a commencé à la Seconde guerre mondiale, on va dire en gros, même si c’est vrai qu’IBM a été créée genre en 1890 par Hollerith, mais globalement la partie noble de l’informatique c’était le <em>hard</em> c’est-à-dire la machine et puis le <em>soft</em>, la programmation, c’était la partie moins noble, donc on employait des femmes. Celle qui a inventé le premier programme informatique c’est Ada Lovelace, c’était en 1843, c’était un peu lointain. La première codeuse d’un des premiers gros ordinateurs, le Mark 1, c’était Grace Hopper, qui est donc l’ingénieure américaine et après il y avait un autre gros ordinateur à l’époque, là je vous parle c’est Seconde guerre mondiale ou juste après, c’était l’ENIAC, qui a été programmé par six mathématiciennes. Donc la programmation est longtemps restée une prérogative féminine. Et dans les années 70 – il y a un très bon article de Chantal Morley sur le sujet, à mon avis vous le trouverez sur <em>Slate</em> – l’informatique est devenue de plus en plus prégnante, l’informatique s’est répandue partout et les salaires ont commencé à monter. Il y a eu une réaction en Angleterre où c’était quand même l’État qui était le plus gros employeur d’informaticiens et d’informaticiennes, ils se sont vraiment dit « on ne va donner des payes pareilles à des femmes », et ils ont arrêté d’embaucher des programmeuses. Je crois qu’à l’époque il y a 50 % de femmes dans l’informatique ; dans les années 80, je ne sais plus les chiffres exacts, c’est passé 40 ou 30. Et maintenant, selon les paroisses, on dit que les femmes sont 12 % ou 20 % du secteur, mais il y a eu une volonté ferme de renvoyer les dames à la maison et de ne pas leur servir les gros salaires des informaticiens.<br />
<br />
<b>Frédéric Couchet : </b>En fait, concrètement, c’est quand l’argent a commencé à arriver et le prestige on a dit : « Mesdames dehors, laissez la place aux hommes ! » C’est un peu ça.<br />
<br />
<b>Catherine Dufour : </b>C’est toujours comme ça.<br />
<br />
<b>Frédéric Couchet : </b>C’est toujours comme ça. Est-ce que Caroline ou Katia vous voulez compléter sur cette partie constat ou historique ou même le constat actuel ? Katia Aresti.<br />
<br />
<b>Katia Aresti : </b>Oui, pour l’historique je pense que c’est très bien résumé, merci. Pour le constat actuel, oui, aujourd’hui on avance dans notre carrière pour travailler en tant que développeuse et plus on veut rester technique et avancer, du coup tu avances dans ta carrière, plus on voit qu’il y a plus de femmes qui quittent et qui vont être poussées plutôt à faire du <em>management</em>, du <em>product owner</em>, du fonctionnel. Très tôt dans notre carrière, on nous pousse plutôt à aller vers ça plus que les hommes je dirais. C’est comme si on voyait que comme les hommes, de toute manière, sont plus geeks, qu’ils vont peut-être plus s’épanouir pour devenir techniquement très forts avec les années et que nous on a quand même derrière un peu ce cliché qu’on va mieux faire de la gestion, qu’on va être plus sociales, etc., du coup on va nous pousser vers d’autres trucs très tôt dans notre carrière. Donc oui, quand tu as 14 ans d’expérience comme moi, eh bien on voit qu’il y a moins de femmes et dans l’<em>open source</em> encore moins.<br />
<br />
<b>Frédéric Couchet : </b>On reviendra tout à l’heure sur la spécificité effectivement du Libre. Caroline Corbal est-ce que tu veux ajouter quelque chose ?<br />
<br />
<b>Caroline Corbal : </b>Oui, que je partage tout à fait ce qui vient d’être dit et je pense, en effet, que ça fait un moment qu’on parle de la place des femmes dans le numérique et que concrètement la situation évolue beaucoup trop lentement. On voit qu’il n’y a pas assez de femmes encore qui contribuent à des projets libres. Il y a encore trop d’évènements avec une majorité d’intervenants masculins voire 100 % masculins et ça j’en ai encore vus récemment et je pense que c’est juste plus possible. Il y a encore trop peu de femmes dans les comités de direction des entreprises et puis encore, au quotidien, trop de situations de sexisme ordinaire qu’on doit subir. En échangeant entre femmes on se rend vraiment que beaucoup ne se sentent pas légitimes à prendre la parole que ce soit en public ou parfois dans des environnements fermés, ce qui me semble très problématique.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Avant de repasser la parole à Catherine Dufour, j’ai une petite question collective. Catherine dans son introduction a parlé des années 40/50 jusqu’aux années 70 on va dire, mais dans les années 80 il y a eu un moment important c’est l’arrivée des ordinateurs personnels. Est-ce que l’arrivée des ordinateurs personnels a aggravé la situation dans le sens où ils ont été peut-être plus été donnés à des garçons qu’à des filles ou, au contraire, est-ce que ça n’a joué aucun rôle ? C’est une question ouverte. Je redonne la parole à Catherine Dufour.<br />
<br />
<b>Catherine Dufour : </b>Je n’aurai pas de réponse. Je dirais que très probablement, de toute façon, on a plus tendance à offrir des petits ordinateurs aux garçons et puis des petites machines à repasser aux filles, mais c’est juste du feeling. Je n’ai pas de données chiffrées là-dessus.<br/><br />
Pour reprendre, ce qu’a dit Katia est très important, c’est qu’il ne s’agit pas uniquement de plafond de verre. Un plafond de verre, vous montez en même temps que les hommes et à un moment pouf ! vous arrêtez, eux continuent. C’est ce qu’on appelle le couloir de verre. Là je voulais vous raconter une petite anecdote : une fois je suis intervenue dans une grosse société où il y avait une espèce de raout « féminisme et diversité ». C’est-à-dire qu’en gros on met dans une salle les femmes, les Noirs et les handicapés et on fait une grande conférence pour parler de ces soucis-là et à quel point la société essaye, justement, de détruire les inégalités. L’introduction a été faite par monsieur le PDG et puis il y a eu une petite allocution de monsieur le directeur financier et après ils nous ont dit : « Ce n’est pas tout ça, mais nous on a conseil d’administration, on va vous laisser discuter entre vous » [prononcé avec une voix mielleuse, NdT]. Ces messieurs sont allés exercer leurs fonctions régaliennes en nous laissant entre femmes, c’est-à-dire la responsable de la communication, la responsable des ressources humaines, c’est-à-dire, comme disait effectivement Katia, toutes les fonctions un petit peu molles, un petit peu dans le social, mais qui ne ont pas le nerf de la guerre, qui ne sont pas les vraies décisionnaires. Et à ce moment-là à la pause, en discutant avec les jeunes filles et les moins jeunes qui travaillaient dans cette société que j’ai compris que ce n’est pas tellement qu’on les empêchait de monter, c’est que dès le départ on les met dans un couloir de verre qui les emmènera de toute façon vers les fonctions molles où on est facilement remplaçable et où on ne prend pas les décisions importantes. Les hommes gardent en attribution, je dirais, le cœur du métier et le nerf de la guerre.<br/><br />
On ne raisonne plus forcément maintenant en fonction de plafond de verre mais en fonction de couloir de verre et c’est très bien fléché depuis le début de la carrière. Donc je félicite Katia pour avoir résisté à la pression de prendre ce couloir.<br />
<br />
<b>Frédéric Couchet : </b>Avant de redonner la parole à Katia, sur le métier de développeuse, j’insiste : écoutez le podcast de l’émission avec Katia et Emmanuel Raviart où ils ont expliqué qu’on pouvait être développeur et développeuse de logiciels en l’occurrence de logiciels libres pendant des années et des années, que devenir chef de projet ou faire du marketing ce n’était pas la voie absolue ; je vous encourage vraiment à l’écouter. Je voulais juste savoir, par rapport à ma question sur les ordinateurs personnels des années 80, est-ce que Katia ou Caroline vous avez un commentaire là-dessus ou, pareil, vous n’avez pas de réponse ? Katia.<br />
<br />
<b>Katia Aresti : </b>Effectivement je n’ai pas vécu ça parce que, justement, je pense que mon père m’a un peu mis dans la tête que je devais être une ingénieure. Depuis toute petite, quand j’avais trois/quatre et qu’on me demandait ce que je voulais être quand je serais grande, moi je disais que je voulais être ingénieure, parce que lui disait « tu vas être ingénieure ». Après j’ai fait ça parce que j’ai appris à coder plus tard et j’ai aimé coder. Donc c’est pour ça que j’ai pris cette voie, pas parce que mon père m’a dit de faire ceci ou cela, c’est vraiment qui moi ai choisi. Mais ce qui était intéressant dans mon cas c’est que lui m’a poussée à beaucoup de choses : c’est lui qui apportait les Lego à la maison, il achetait des jouets typiquement plus orientés pour des garçons ou, disons,<em> marketisés</em> pour les garçons, donc pas roses, mais j’avais aussi des poupées, énormément de poupées, je faisais de la peinture, je faisais de la danse, etc. Disons que j’ai été exposée à tout et je n’ai pas vécu ça. J’ai eu un ordinateur après. Oui, je crois que ça peut avoir une grosse influence la façon dont on te pousse à la maison et tous les stéréotypes de jouets, etc. Ce à quoi on joue quand on est petit et qu’on grandit avec ça, ça joue forcément quand même. Du coup je pense qu’il y a forcément eu une influence à mon avis, mais c’est empirique en même temps je n’ai pas de data, de données.<br />
<br />
<b>Frédéric Couchet : </b>On reviendra sur ce sujet dans le cours de l’émission, sur le rôle de l’éducation, des parents, de l’école, etc. Juste après on va aborder aussi de ce qui aggrave la situation aujourd’hui, de ce qui peut aussi l’améliorer, on va parler d’aujourd’hui. Caroline, est-ce que sur la partie expérience des années 80, même si, de mémoire, tu es un peu plus jeune peut-être que nous, est-ce que tu as une expérience ou des commentaires à faire ?<br />
<br />
<b>Caroline Corbal : </b>Je rejoins Katia. Moi j’ai eu de la chance parce que mes parents m’ont tout de suite mis un ordinateur dans les mains, c’était dans les années 90, donc j’ai pu essayer ça dès le début et c’est là où je pense que l’école va avoir un rôle fondamental pour gommer les discriminations qu’on peut avoir dans certains foyers. J’espère de toute façon qu’à terme, dans les foyers aussi, on aura de moins en moins ces discriminations-là.<br />
<br />
<b>Frédéric Couchet : </b>OK. On va parler un petit peu de ce qui, même si Caroline a commencé, sur ce qui aggrave la situation, sur ce qui peut améliorer la situation, les propositions concrètes, on parlera aussi peut-être des spécificités du logiciel libre s’il y en a par rapport à l’informatique en général parce qu’il peut y avoir. Catherine Dufour, vous vouliez intervenir ?<br />
<br />
<b>Catherine Dufour : </b>Oui. Je voulais juste dire que la notion de père est très importante. J’ai écrit un livre.<br />
<br />
<b>Frédéric Couchet : </b>Pair, p, a,i, r ?<br />
<br />
<b>Catherine Dufour : </b>P, e, r, e, avec un accent.<br />
<br />
<b>Frédéric Couchet : </b>Père, OK. <br />
<br />
<b>Catherine Dufour : </b>J’ai écrit un livre le <em>Guide des métiers pour les petites filles qui ne veulent pas finir princesses</em> où je donne des modèles c’est-à-dire des biographies de femmes informaticiennes, mathématiciennes, chercheuses d’or, agentes secrètes, surfeuses, bref, tout un tas de métiers rigolos et que les femmes ne font pas traditionnellement. Donc je me suis intéressée aux biographies de ces femmes-là, celles qui font de la voile, celles qui font du combat rapproché, enfin bref, des choses vues comme masculines. Systématiquement c’est le père qui autorise. Émilie du Châtelet qui est une grosse génie mathématique du 18e siècle, c’est son père qui lui a donné l’autorisation de faire et je retrouve très souvent le père comme moteur du fait qu’une femme s’affranchisse des limites imposées à son genre. Donc messieurs, si vous vous sentez féministes, le meilleur service que vous pouvez rendre aux femmes c’est d’autoriser votre fille à sortir justement de ces limites, l’autoriser et lui donner les moyens. Véritablement, ça se retrouve systématiquement.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Excellente intervention. On reviendra sur la partie éducation encore plus en détail après. Caroline, tout à l’heure tu avais commencé à citer quelques points qui aggravent la situation. On a bien compris l’historique mais aujourd’hui il y a des choses qui aggravent. Est-ce qu’on peut faire un petit peu tour d’horizon rapide et peut-être les choses qui permettent, justement, de corriger ces points négatifs et les propositions concrètes ? Là on parlera un peu plus de vos structures et de vos actions. Qu’est-ce qui aggrave aujourd’hui la situation qui n’est déjà pas très belle ?<br />
<br />
<b>Caroline Corbal : </b>Déjà, je dirais que ça dépend du point de vue où se place. Si on se place au niveau des organisations, par exemple des entreprises et des associations qui sont deux milieux que j’ai pu pas mal expérimenter, ce que j’ai observé c’est que le manque de dialogue est vraiment un souci. Entre équipes on a vraiment besoin de se parler, de se dire quelles sont nos attentes sur ces sujets-là au risque d’entretenir des situations qui sont non satisfaisantes. Ensuite, je pense qu’un des soucis c’est le manque de prise de risque : par exemple prise de risque lors d’évènements à inviter des intervenantes qui sont moins expérimentées, en disant qu’on veut tel ou tel nom masculin parce que c’est une valeur sûre. En fait, je pense qu’il faut vraiment qu’on apprenne à faire confiance à des femmes plus jeunes et si on ne le fait c’est un cercle vicieux et ces femmes-là ne pourront jamais se former.<br/><br />
Ensuite je pense que la manière dont les enjeux de diversité et d’inclusion sont traités aggravent parfois le problème parce que soit c’est traité soit comme des enjeux de communication sans action concrète derrière ce qui peut les desservir, sauf, en fait, c’est l’inverse, on n’en parle pas parce qu’on a peur de mal faire, de mal en parler, de ne pas utiliser les bons termes, par exemple de faire peur à ses clients en public et ça je pense que c’est vraiment regrettable.<br/><br />
Et dernier mot là-dessus, au niveau global aussi, je pense que l’absence de rôle modèle joue un rôle parce que nos cultures numériques sont vraiment peuplées d’icônes masculines, que ces hommes-là nous inspirent ou non, on peut tous citer leurs noms alors que ce n’est pas le cas de la plupart des femmes qui aujourd’hui excellent dans le milieu informatique. Je pense que ça aggrave vraiment le problème parce que les jeunes filles ne peuvent pas s’identifier à des rôles modèles féminins.<br />
<br />
<b>Frédéric Couchet : </b>Très bien. En plus ça me fait rebondir sur le livre de Catherine Dufour, <em>Guide des métiers pour les petites filles qui ne veulent pas devenir princesses</em> où vous avez justement des rôles modèles.<br />
<br />
<b>Catherine Dufour : </b>Des rôles modèles, c’était le but.<br />
<br />
<b>Frédéric Couchet : </b>Anciennes et actuelles, ça c’est important et on reviendra tout à l’heure sur le rôle important joué sur ce rôle modèle notamment avec Duchess France pour la mise en valeur des rôles modèles. Est-ce que vous voulez compléter, Katia ou Catherine, sur cette partie vraiment aggravation de la situation ou est-ce qu’on passe directement aux choses plutôt positives, c’est-à-dire comment améliorer les choses ?<br />
<br />
<b>Catherine Dufour : </b>Je suis tout à fait d’accord avec Caroline. En plus, moins il y a d’intervenantes moins il y a d’intervenantes. C’est-à-dire que quand on veut convier et avoir un minimum de parité et qu’on convie une femme, elle a déjà 80 invitations parce qu’elle est un peu toute seule. C’est un problème que je rencontre fréquemment. Il y a quand même des solutions, il y a un site qui s’appelle expertes.fr, qui est très bien, où vous allez trouver des femmes d’absolument toutes les couleurs dans toutes les disciplines. Surtout n’hésitez pas à aller sur ce site-là, il est génial pour trouver de la ressource.<br />
<br />
<b>Frédéric Couchet : </b>Katia.<br />
<br />
<b>Katia Aresti : </b>Rien. Tout a été dit et très bien expliqué.<br />
<br />
<b>Frédéric Couchet : </b>On va parler des propositions concrètes ou en tout cas pour résoudre ce problème. Ça va être aussi l’occasion de présenter un peu vos initiatives et sans doute d’autres initiatives, il n’y a pas que les vôtres, évidemment. On va peut-être commencer par Duchess France avec Katia Aresti. Comme tu l’as dit tu es développeuse chez Red Hat, entreprise du logiciel libre, et tu fais partie de Duchess France. Quel est l’objectif de Duchess France et quelles sont vos principales actions ?<br />
<br />
<b>Katia Aresti : </b>Duchess France est une association qui a été créée début 2010 par quatre femmes qui avaient fait un constat : justement, elles faisaient des soirées techniques à Paris et elles se disaient « pourquoi il n’y a pas plus de femmes ? Elles sont où les autres femmes, etc. ? Peut-être qu’elles ne sont pas motivées à venir à des soirées, etc. » Du coup elles ont créé ça avec justement l’idée de dire « vous n’êtes pas toutes seules, il y a plus de développeuses et des gens de femmes techniques donc rencontrons-nous et créons ». Ça c’était l’origine du groupe. Je me suis inscrite au groupe dès le départ, dès la création en mars 2010, et ensuite j’ai rejoint en tant que membre organisatrice, deux/trois mois après. Donc je ne suis pas fondatrice, mais je suis là depuis la fondation. En fait nos actions sont principalement pour mettre en avant justement des femmes pour que d’autres femmes s’inspirent des différents parcours, mettre en place toute une communauté sur Slack dans laquelle aujourd’hui on peut discuter.<br />
<br />
<b>Frédéric Couchet : </b>Précise ce qu’est Slack.<br />
<br />
<b>Katia Aresti : </b>Slack c’est un <em>chat</em>, un logiciel qui sert à créer des canaux de <em>chat</em>.<br />
<br />
<b>Frédéric Couchet : </b>De communication.<br />
<br />
<b>Katia Aresti : </b>Voilà. Du coup on peut poster sur différents sujets, échanger, etc., des trucs techniques comme personnels, n’importe quoi. On organise aussi des soirées techniques à Paris. On essaye que les intervenants dans les soirées techniques soient des femmes ou un homme et une femme. Parfois ce n’est pas possible, du coup on ne veut refuser quelqu’un qui veut venir parler à Duchess parce que c’est un homme, mais le but c’est vraiment de pousser les femmes à parler, à partager leurs connaissances techniques, donc on fait des soirées autour de ça. Ça peut aussi être simplement un apéro. On fait plein de choses, le truc n’est pas méga structuré dans le sens où on n’a pas une soirée tous les mois, je ne sais pas comment, c’est vraiment selon les besoins.<br />
<br />
<b>Frédéric Couchet : </b>Au feeling.<br />
<br />
<b>Katia Aresti : </b>Au feeling et selon les disponibilités de chacune parce qu’on fait quand même tout ça en bénévolat et du coup ça prend quand même un temps fou et la plupart on a une vie de travail plus famille plus mille trucs. La communauté est quand même assez grande et sur Meetup qui est un site pour justement rassembler, pour organiser des évènements et faire en sorte que les gens s’inscrivent, on était pas loin de 2500 inscrits ou 3000. En fait il y a plein de <em>meetups</em> donc de soirées techniques comme ça sur Paris et mon constat est que quand c’est Duchess qui l’organise la moitié des personnes qui assistent, sur des soirées très techniques, ce sont souvent des femmes. Alors que d’autres soirées techniques organisées par d’autres groupes, peut-être pas une femme, voire zéro, le pourcentage est vraiment beaucoup plus petit. Mais nous on n’organise pas que pour les femmes, on ne ferme à personne, en fait.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. On reviendra sur ta remarque, notamment sur les réunions mixtes ou non-mixtes, les réunions non-mixtes peuvent avoir leur importance. Je relaie une question ou plutôt une suggestion qui est sur le salon web – n’hésitez pas à vous joindre à nous sur causecommune.fm – Marie-Odile qui suggère sous forme de question d’enregistrer les conférences et de les publier et en plus je pense qu’elle pourrait rajouter qu’elle va les transcrire parce Marie-Odile c’est la personne qui transcrit les conférences. Question : est-ce que ces conférences sont enregistrées ?<br />
<br />
<b>Katia Aresti : </b>Celles qu’on fait avec Duchess ?<br />
<br />
<b>Frédéric Couchet : </b>Oui.<br />
<br />
<b>Katia Aresti : </b>Si dans la salle qui nous héberge il y a moyen, oui. Mais sinon non et parfois ce sont juste des ateliers de <em>coding</em>, c’est pour les pros. Souvent, ce qu’on fait, c’est pour les pros, ce n’est pas pour initier les gens au code, c’est vraiment pour les pros qu’on est là, donc ce sont des choses techniquement assez poussées en fait.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Caroline Corbal, de ton côté Open Heroines je pense que c’est assez proche. Tu vas nous expliquer ça. D’où vient Open Heroines et qu’est-ce que vous faites ?<br />
<br />
<b>Caroline Corbal : </b>Il y a quelques similitudes avec ce que vient de dire Katia. Open Heroines, en fait, c’est un collectif international qui a été créé il y a quatre ans pour rassembler les voix de femmes qui agissent dans le numérique ouvert. Par numérique ouvert on entend le logiciel libre, l’<em>open data</em>, l’<em>open gov</em>, les communs numériques, etc. C’est un réseau international. Pour le coup c’est fermé aux hommes, c’est uniquement pour les femmes. Elles se retrouvent sur un Slack international et avec une amie, Cécile Le Guen, on a décidé il y a deux ans d’ouvrir le chapitre français de ce réseau face au constat qu’on rencontrait encore dans nos environnements professionnels trop de situations de sexisme ordinaire et qu’on avait besoin d’en parler entre femmes dans des espaces <em>safes</em>, où on se sent en sécurité pour en parler. Open Heroines en France est un réseau de confiance dans lequel chacune est bienvenue. C’est complètement informel, il n’y a pas de <em>bullshit</em>, pas de ???<br />
<br />
<b>Frédéric Couchet : </b>Pas de quoi ?<br />
<br />
<b>Caroline Corbal : </b>De <em>bullshit</em>. Comment on dit en français ? On parle de choses sérieuses quoi ! On parle de choses sérieuses, il n’y a pas de ???, pas d’ordre du jour, pas de feuille de route. On va avoir des ??? régulièrement. On a une boucle sur l’application Telegram pour échanger, sur laquelle toutes les femmes sont les bienvenues. Il y a d’ailleurs aussi des femmes qui ne sont pas dans le numérique qui nous rejoignent parce qu’elles sont intéressées par nos discussions. De temps en temps on monte des projets quand le besoin s’en fait ressentir. Par exemple récemment on a organisé une soirée sur les femmes et la politique pour aider des jeunes femmes à s’engager en politique. Là ça dépasse un peu le sujet du numérique. Si vous souhaitez nous rejoindre n’hésitez pas à me contacter et je vous rajouterai dans la boucle des discussions.<br />
<br />
<b>Catherine Dufour : </b>Volontiers. Oui.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Invitation lancée. Petite question tout à l’heure sur la partie justement les ateliers ou en tout cas les rencontres non-mixtes, est-ce que tu pourrais expliquer l’importance de ces rencontres non-mixtes ? C’est un sujet qui a souvent été un sujet de discussion dans les communautés et mal compris. Est-ce que tu peux nous expliquer, ou bien sûr Katia et Catherine, l’importance de ces rencontres entre femmes ?<br />
<br />
<b>Caroline Corbal : </b>En fait c’est vraiment là, pour le coup, venu du constat qu’entre femmes on ne se parle pas de la manière que quand il y a des hommes et qu’il y a aussi beaucoup de femmes qui ne viennent pas à des réunions où il y a des hommes ou alors si elles viennent elles n’osent pas prendre la parole de la même manière. Vu l’ensemble des problèmes qu’on rencontrait, on avait besoin d’espaces où on se sent en sécurité, on se sent bien pour aborder ces problèmes. Parfois on parle de soucis liés justement au sexisme ordinaire, de tous ces sujets-là, là on est encore mieux pour en parler entre femmes puisqu’on peut en parler librement. Mais on parle aussi d’autres sujets. Je pense que la non-mixité ce n’est pas l’unique solution mais c’est une solution, c’est déjà quelque chose qui est déjà fondamental pour que les femmes puissent s’organiser entre elles et trouver des solutions.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. On va revenir sur ce sujet-là, les propositions concrètes, parce que j’ai vu sur vos sites que vous avez pas mal de propositions, notamment on reviendra sur l’organisation des conférences, quels conseils on peut donner justement aux structures qui organisent des conférences. <br />
<br />
On va faire une pause musicale. On va écouter <em>Age of Feminine</em> par Kellee Maize. On se retrouve juste après. Belle journée à l’écoute de Cause Commune.<br />
<br />
<b>Pause musicale : </b><em>Age of Feminine</em> par Kellee Maize.<br />
<br />
==???==<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<b>Pause musicale : </b><em>Balloon girl</em> par Hungry Lucy.<br />
<br />
<b>Frédéric Couchet : </b><em>Balloon girl</em> par Hungry Lucy, disponible sous licence libre Creative Commons BY SA c’est-à-dire Partage dans les mêmes conditions. Vous retrouverez les références évidemment sur le site de l’April, april.org et sur le site de Cause commune causecommune.fm.<br />
<br />
Vous écoutez toujours l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 FM en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
Nous allons maintenant passer au sujet suivant.<br />
<br />
==[Interview de Julie Bideux, chargée d'accompagnement au Pacte pour la Transition]==<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre avec une interview de présentation du Pacte pour la Transition avec Julie Bideux chargée d’accompagnement au Pacte pour la Transition. Le site c’est pacte-transition.org. Bonjour Julie.<br />
<br />
<b>Julie Bideux : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Est-ce que tu nous entends bien ? <br />
<br />
<b>Julie Bideux : </b> Je vous entends très bien.<br />
<br />
<b>Frédéric Couchet : </b> Super. Alors première question toute simple : Qu'est-ce que le pacte pour la transition ?<br />
<br />
<b>Julie Bideux : </b> Alors le pacte c'est un projet qui est porté par une soixantaine d'associations dont l'April qui vise à favoriser la participation et la mobilisation citoyenne au niveau local sur la transition écologique et démocratique et notamment dans le contexte des prochaines élections municipales. Euh...<br />
<br />
<b>Frédéric Couchet : </b> Oui vas y vas y.<br />
<br />
<b>Julie Bideux : </b>Concrètement, le pacte c'est 32 mesures et défis techniques qui les accompagent pour qu'on fasse la transition dans les communes. Et donc ces mesures sont à destination à la fois des élus et des candidats mais surtout des associations et collectifs citoyens qui ont ??? ces candidats sur les questions de transition dans les prochains mois et les prochaines années et nous on accompagne également dans cette démarche.<br />
<br />
<b>Frédéric Couchet : </b> D'accord. On va rappeler que les élections municipales c'est les 15 et 22 mars 2020 mais que la mobilisation commence. D'ailleurs les candidats et candidates commencent à se déclarer en fonction des villes. Donc le pacte comme tu l'as dit est porté par des collectifs avec pas mal d'organisations et initialement par le collectif pour une transition citoyenne. Alors tu as cité l'April, effectivement on fait partie des partenaires. Est-ce que tu peux nous citer quelques autres partenaires un petit peu entre guillemets «emblématiques», la diversité de ce collectif ?<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
==Annonces==</div>D Ohttps://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_29_octobre_2019&diff=86260Libre à vous ! Radio Cause Commune - Transcription de l'émission du 29 octobre 20192019-11-01T02:31:42Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 29 octobre 2019 sur radio Cause Commune<br />
<br />
'''Intervenant·e·s :''' Marie-Odile Morandi - Jean-Baptiste Kempf - Jean-Christophe Becquet - Frédéric Couchet - à la régie<br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 29 octobre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20191029/libre-a-vous-20191029.ogg Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-29-octobre-2019-sur-radio-cause-commune-espaces-publics-numeriques-droit Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
<br />
Transcrit<br />
<br />
==Transcription==<br />
<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 en Île-de-France et partout dans le monde sur le site causecommune.fm. La radio dispose également d’une application Cause Commune pour téléphone mobile.<br/><br />
Merci à vous d’être avec nous aujourd’hui.<br/><br />
La radio dispose également d’un salon web, utilisez votre navigateur web, rendez-vous sur le site de la radio, causecommune.fm, cliquez sur « chat » et retrouvez-nous ainsi sur le salon dédié à l’émission.<br/><br />
Nous sommes mardi 29 octobre 2019, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast. [prononcé p-o-d cast]. Je repends mes vieilles habitudes de prononciation !<br />
<br />
Soyez les bienvenus pour cette nouvelle édition de <em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.<br/><br />
<br />
Aujourd’hui c’est une émission exceptionnelle, car c’est la 42ᵉ émission de <em>Libre à vous !</em> et 42 est un nombre fétiche dans la culture geek, informatique, la culture de l’imaginaire. C’est issu de l’œuvre de science-fiction de Douglas Adams qui était originellement un feuilleton radiophonique sur la BBC, totalement déjanté, et ensuite une série de livres <em>Le guide du voyageur galactique</em>. Imaginez un peuple extraterrestre, intelligent, qui construit le plus puissant ordinateur de tous les temps pour trouver la réponse à la question sur la vie, l’univers et le reste. Après 7,5 millions d’années de calcul et de réflexion, l’ordinateur propose la réponse : 42. Le problème, c’est que personne n’a jamais su vraiment la question précise.<br/><br />
Pour connaître la suite de l’histoire, je vous invite à lire l’œuvre de Douglas Adams et nous allons faire dans l’émission quelques clins d’œil à cette œuvre de Douglas Adams.<br/><br />
Déjà pour les personnes qui partent en vacances ou autre, n’oubliez pas, évidemment, de prendre avec vous des podcasts de Cause Commune pour accompagner votre voyage et n’oubliez pas, surtout, votre serviette c’est en effet l’outil indispensable pour tout voyageur galactique qu’il doit avoir ou qu’elle doit avoir en permanence.<br />
<br />
Le site web de l’April c’est april.org et vous y trouvez d’ores et déjà une page consacrée à l’émission avec toutes les références utiles, les détails sur les pauses musicales et les moyens de nous contacter.<br />
<br />
Si vous souhaitez réagir, poser une question pendant ce direct, n’hésitez pas à vous connecter sur le salon web de la radio, donc sur causecommune.fm, et vous pouvez également nous appeler 09 50 39 67 59 ; je répète 09 50 39 67 59.<br/><br />
<br />
Nous vous souhaitons une excellente écoute.<br />
<br />
Voici maintenant le programme de l’émission.<br/><br />
Dans quelques secondes nous allons commencer par la chronique de Marie-Odile Morandi, animatrice du groupe Transcriptions, qui va nous parler de communs numériques.<br/><br />
D’ici dix à quinze minutes nous aborderons notre sujet principal qui portera sur le fameux lecteur multimédia libre VLC avec notre invité Jean-Baptiste Kempf.<br/><br />
En fin d’émission nous aurons la chronique de Jean-Christophe Becquet, président de l’April, sur Wikidata, relier tous les serveurs du monde.<br/><br />
À la réalisation de l’émission aujourd’hui Étienne Gonnu. Bonjour Étienne.<br />
<br />
<b>Étienne Gonnu : </b>Salut Fred.<br />
<br />
<b>Frédéric Couchet : </b>Comme à chaque émission on va vous proposer un petit quiz. Vous pouvez proposer des réponses soit sur le salon web, soit sur les réseaux sociaux.<br/><br />
Première question : lors de l’émission du 15 octobre 2019, nous avons parlé de Google et des assistants personnels connectés. Par quel prénom et pourquoi on a proposé de renommer les assistants personnels connectés ?<br />
Deuxième question : nous allons parler du lecteur multimédia libre VLC au cours de cette émission. Savez-vous pourquoi l’icône de VLC est un cône de chantier ?<br/><br />
<br />
Tout de suite place au premier sujet.<br />
<br />
[Virgule musicale]<br />
<br />
==[Chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi]==<br />
<br />
<b>Frédéric Couchet : </b>Les choix voire les coups de cœur de Marie-Odile Morandi qui met en valeur deux ou trois transcriptions dont elle conseille la lecture, c’est la chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi, animatrice du groupe Transcriptions. Bonjour Marie-Odile.<br />
<br />
<b>Marie-Odile Morandi : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Le sujet du jour dont tu souhaites nous parler aujourd’hui : les communs numériques. Nous t’écoutons. <br />
<br />
<b>Marie-Odile Morandi : </b>Effectivement ce mois-ci dans la chronique j’ai souhaité faire une rétrospective des transcriptions de conférences et interventions de Lionel Maurel, publiées par notre groupe, de « La dictature du copyright » à « Faire atterrir les communs numériques » sur le sol terrestre.<br />
Les transcriptions auxquelles je vais me référer sont listées à l’onglet références de la page relative à l’émission d’aujourd’hui sur le site april.org, mais il y en a aussi d’autres que vous pouvez retrouver sur la partie consacrée aux transcriptions, toujours sur le site de l’April.<br />
<br />
Pour savoir qui est Lionel Maurel et quels sont ses sujets de prédilection, je vais m’appuyer sur la transcription de l’émission 13 du <em>Vinvinteur</em> qui date de 2013, d’une durée d’une quarantaine de minutes ; à noter que cette émission n’existe plus. Lionel Maurel y était interviewé par Jean-Marc Manach. Il nous explique que le pseudo qu’il a choisi, Calimaq, fait référence à un certain Callimaque de Cyrène, un des premiers bibliothécaires de la bibliothèque d'Alexandrie dans l’Antiquité. En effet, Lionel est à la fois bibliothécaire et juriste d’où aussi le nom de son blog : <em>lex</em>, la loi et SI sciences de l’information donc SI.Lex. Avec cette double casquette, Lionel s’intéresse aux problèmes juridiques liés au droit d’auteur et aux licences libres qui, dit-il, « mettent le droit d'auteur sens dessus dessous en laissant l’auteur au centre du dispositif ».<br />
Dans cet entretien il explique ce que sont les biens communs avec la nécessaire prise de conscience qu'il y a un écosystème numérique dans lequel il faut défendre la neutralité du Net et préserver certaines libertés essentielles avec des références au logiciel libre et à l’intelligence collective.<br />
<br />
Je vous laisse lire cette transcription avec en bonus les explications que donne Lionel Maurel concernant la compilation hebdomadaire qu’il réalise, le Copyright Madness, c’est-à-dire les dérives de la propriété intellectuelle, du droit des marques et du droit des brevets, ce qui, généralement, ne manque pas de sel.<br />
<br />
Concernant le droit d’auteur, nous avions transcrit une intervention de Lionel Maurel à l’université de Compiègne en 2016 intitulée « Contenus numériques : droit d'auteur et licences libres » qui dure une heure et 40 minutes. Cette intervention est un cours complet et j’invite toutes les personnes qui sont intéressées par ce sujet, soit personnellement, soit dans un cadre professionnel, à écouter ce cours et à relire sa transcription : les thèmes abordés vont des notions de base du droit d’auteur, son fonctionnement, sa gestion, ses exceptions, pour arriver à l’application de ce droit sur Internet et terminer par les licences Creative Commons auxquelles est faite une large part. C’est un ensemble très complet qui mérite vraiment d’être relu régulièrement. <br />
<br />
Toujours concernant les licences libres, Lionel Maurel avait fait une intervention d’une dizaine de minutes au Paris Open Source Summit de 2017 intitulée : « Creative Commons. Où en est-on en 2017 ? »<br />
Il rappelle l’origine de ces licences, c’est-à-dire la façon dont Lawrence Lessig aux États-Unis, suite à sa défaite en tant qu’avocat pour empêcher l’allongement de 50 à 70 ans du copyright après la mort de l’auteur, souhaite « redonner directement aux créateurs le pouvoir de changer les choses et d’ouvrir leurs œuvres directement à la base en utilisant leur droit d’auteur non pas pour mettre des restrictions, mais pour donner des autorisations ». Il rappelle que certaines de ces licences ne le sont pas au sens classique des termes des licences pour les logiciels libres dont elles s’inspirent. Je mentionne que les musiques qui sont diffusées durant les émissions <em>Libre à vous !</em> sont réellement libres, c’est-à-dire Attribution et Partage à l’identique si elles sont publiées sous une licence Creative Commons.<br/><br />
Je vous laisse lire les conclusions de cette intervention, somme toutes optimistes, ce qui est de bonne augure, avec la présentation de belles réussites d’œuvres placées sous ces licences Creative Commons.<br />
<br />
Lionel Maurel s’intéresse aussi au matériel et il avait tenu une conférence d’environ une heure au festival Pas Sage En Seine de 2016 intitulée : « Que manque-t-il pour avoir des licences Open Hardware qui fonctionnent ».<br />
Avoir du matériel vraiment libre est un enjeu fort, mais difficile parce qu’on entre dans le champ de la propriété industrielle qui comporte d’autres droits, les dessins et modèles, les marques, les brevets. Le droit d’auteur et la propriété industrielle ne fonctionnent pas du tout de la même manière, les règles sont différentes : pour obtenir un droit de propriété industrielle il faut notamment faire un dépôt.<br/><br />
Actuellement ce mouvement se développe. Une fondation s’est montée, donne des instructions sur comment on doit faire pour être dans une démarche d’open source hardware et propose une définition : « conceptions réalisées publiquement et disponibles de manière à ce que n’importe qui puisse étudier, modifier, distribuer, créer et vendre un design ou un produit basé sur ce design », ce qui ressemble beaucoup à la définition du logiciel libre.<br />
<br />
Lionel Maurel estime qu’il y a trois stratégies possibles pour libérer le matériel :<br/><br />
<ul><br />
<li>la première serait de publier la documentation de ce qu’on a produit et verser directement l’invention dans le domaine public. Sauf qu’il existe aux États-Unis les <em>patent trolls</em> qui pourraient s’en servir. Ce sont ces sociétés qui ne fabriquent rien, déposent le plus de brevets possibles et vivent de la menace des procès qu’elles peuvent faire ;</li><br />
<li>deuxième pratique : documenter le projet : expliquer la démarche, le processus de fabrication, publier les plans, les fichiers de conception, préparer un maximum de documentation et tout publier sous licence libre. Sauf que la seule chose qui peut être protégée par le droit d’auteur c’est le texte de la documentation et absolument pas l’objet réalisé à partir de cette documentation ;</li><br />
<li>la dernière stratégie c’est de se dire, puisqu’il faut un brevet, eh bien déposons des brevets et ensuite ouvrons-les. Sauf qu’il faudra engager la procédure de dépôt, payer les coûts et, pour un petit constructeur, un petit inventeur, ce n’est certainement pas possible.</li><br />
</ul><br />
Lionel Maurel propose des solutions que je laisse découvrir aux auditeurs qui liront la transcription. Pour lui il y a là un champ sur lequel faire de la recherche. Il appelle les personnes intéressées à participer car, dit-il, c’est un peu sous-estimé par le monde du Libre qui devrait être beaucoup plus présent sur le sujet.<br />
<br />
La dernière conférence en date qui a été transcrite est son intervention au Colloque « Territoires solidaires en commun : controverses à l'horizon du translocalisme », de juin 2019 et qui dure environ une heure.<br />
<br />
Là encore, il nous propose quelque chose de très complet, très documenté, avec des références à de nombreux auteurs ce qui permettra aux personnes qui le souhaitent d’approfondir leurs connaissances.<br />
<br />
Habituellement, dans notre esprit, nous distinguons les communs matériels, tangibles, des communs de la connaissance, des communs informationnels qui vont être des communs immatériels, intangibles.<br />
<br />
Charlotte Hess, qui a travaillé avec Elinor Ostrom, se pose la question : « C’est quoi Internet ? C’est la machine que j’ai devant moi. Il y a un fil. Le fil va à un serveur. Le serveur va à d’autres fils. D’autres ordinateurs sont reliés à ce serveur qui est relié à un système d’information. Ce réseau est relié par des câbles au réseau des réseaux qu’est Internet », et elle fait ainsi une description qui n’a absolument rien d’immatériel : Internet est indissociable d'un certain nombre d'objets – ordinateurs, câbles, serveurs. Donc, nous dit-elle : « On peut penser Internet comme un commun local et global », montrant que les communs de la connaissance ont une dimension matérielle.<br />
Sur Internet, tout ce que vous allez échanger va laisser une trace quelque part et cette trace n’est pas du tout virtuelle, elle est matérielle parce qu’elle est inscrite dans une infrastructure physique. Nos données ne sont pas du tout stockées dans un nuage, elles sont stockées dans des <em>datacenters</em>, ces immenses hangars extrêmement matériels ; c’est la fameuse phrase « le cloud, le nuage, c’est toujours l’ordinateur de quelqu’un d’autre. »<br/><br />
Donc le fait de nous présenter Internet comme quelque chose d’immatériel est extrêmement faux. L’idée selon laquelle le numérique allait nous permettre de produire les choses avec moins de matière est elle aussi fausse. On lit régulièrement que la consommation électrique due à Internet est préoccupante, à laquelle il faut ajouter les coûts de production des machines, sans oublier les déchets en fin de course qui sont difficilement recyclables. D’où les problèmes sur l’environnement. On en revient à des sujets d’actualité.<br />
<br />
Selon un des auteurs cités, une réelle émancipation « impliquera de se réapproprier toute cette chaîne logistique numérique aujourd’hui intégralement privatisée et aliénée ». Il faut qu’on fasse des centres de stockage des données autogérés et contrôlés par nous-mêmes.<br />
<br />
Lionel Maurel nous rappelle alors l’existence des fournisseurs d’accès à Internet associatifs, c’est-à-dire ces associations qui disent : « L’accès à Internet est un droit fondamental, donc nous allons tirer des câbles et nous gérerons nous-mêmes la couche physique du réseau. »<br />
Lionel Maurel nous rappelle les projets de l’association Framasoft et l’excellente idée du collectif d’hébergeurs CHATONS. Nos données se trouveront à un niveau local, sur les serveurs d’une entreprise ou d’une association proche de chez nous, qui a signé une charte avec notamment la clause de ne pas utiliser nos données personnelles, donc respect de la vie privée.<br />
Ainsi Internet redevient « translocal », thème de cette conférence.<br/><br />
Actuellement de nombreux penseurs s’interrogent sur la matérialité d’Internet et sur son coût écologique que nous avons sans doute négligé.<br />
<br />
Cette dernière conférence m’a particulièrement intéressée, avec, il me semble, une évolution de la pensée, et j’ai souhaité partager.<br />
Transcrire les conférences de Lionel Maurel, défenseur de longue date des logiciels libres, est toujours un plaisir. N’hésitez pas à rejoindre notre groupe Transcriptions, vous ne le regretterez pas.<br />
<br />
<b>Frédéric Couchet : </b>Merci Marie-Odile. Tu nous a donné envie de lire ces conférences de Lionel Maurel. <br/><br />
Je précise que le collectif CHATONS est le Collectif des Hébergeurs Alternatifs Transparents Ouverts Neutres et Solidaires dont nous avons déjà parlé dans les émissions <em>Libre à vous!</em> du 18 juin et du 16 avril 2019. Vous retrouverez les podcasts sur april.org et causecommune.fm. Je précise également que tu as parlé des <em>patent trolls</em>, de ces trolls de brevets. On en reparlera rapidement en fin d’émission parce que c’est dans l’actualité.<br/><br />
Marie-Odile je te remercie et je te souhaite de passer une belle journée.<br />
<br />
<b>Marie-Odile Morandi : </b>À vous de même. Bonne soirée.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>On va passer une pause musicale. Nous allons écouter <em>La fin de Saint Valéry</em> par Ehma. On se retrouve juste après. Belle journée à l’écoute de Cause Commune.<br />
<br />
<b>Pause musicale : </b>< em>La fin de Saint Valéry</em> par Ehma.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>La fin de Saint Valéry</em> par Ehma, disponible en licence Art libre. Vous retrouverez les références sur le site de l’April, april.org et sur le site de Cause Commune, causecommune.fm.<br />
<br />
Ne paniquez pas, vous êtes toujours sur l’émission <em>Libre à vous !</em> sur radio Cause commune 93.1 FM en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
<br />
Nous allons passer à notre sujet principal.<br />
<br />
[Virgule musicale]<br />
<br />
<br />
==[Le lecteur multimédia libre VLC - Jean-Baptiste Kempf]==<br />
<br />
<b>Frédéric Couchet : </b>Nous allons donc poursuivre par notre sujet principal qui porte aujourd’hui sur le célèbre lecteur multimédia libre VLC dont l’icône est un cône de chantier et nous allons bientôt apprendre les raisons de ce choix. Notre invité est donc Jean-Baptiste Kempf président de VideoLAN, l’association qui gère VLC, et fondateur de la société Videolabs qui crée des services autour de VLC et plus généralement des nouveautés autour de la vidéo. Bonjour Jean-Baptiste.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>On a déjà eu l’occasion d’avoir Jean-Baptiste dans l’émission en octobre 2018 pour nous parler de DRM, les fameuses menottes numériques sur lesquelles on reviendra très rapidement au cours de l’émission ; vous pouvez écouter évidemment le podcast. Déjà une première petite question, une présentation personnelle. Jean-Baptiste, d’où viens-tu ? Qui es-tu ? Quel est ton parcours ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Je m’appelle Jean-Baptiste. Je suis un geek, j’ai 36 ans, je suis Parisien, j’ai vécu la plupart de ma vie à Paris. Ça fait un bout de temps, à peu près 13 ou 14 ans, que je fais du VLC et que ça a pris de plus en plus de temps dans ma vie jusqu’à être mon métier principal.<br />
<br />
<b>Frédéric Couchet : </b>C’est quoi un geek ? Tu as employé ce mot-là au début.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Oui. Quelqu’un qui adore coder et être sur son ordinateur. Moi j’ai toujours été dans le logiciel libre dès que je me suis mis à l’informatique, pendant que j’étais en école.<br />
<br />
<b>Frédéric Couchet : </b>Donc un passionné notamment d’informatique.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Principalement.<br />
<br />
<b>Frédéric Couchet : </b>Principalement.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Mais aussi de bons bouquins de fantaisie comme le <em>Le Guide du voyageur galactique</em> ??? de l’espace.<br />
<br />
[Rires]<br />
<br />
<b>Frédéric Couchet : </b>En plus c’est un grand honneur de te recevoir car, depuis le 15 novembre 2018, tu as eu le grade de chevalier de l’ordre national du Mérite, c’est l’une des plus importantes décorations françaises. Ça a l’air de te faire soupirer mais en même temps ça récompense une dizaine d’années de contribution à la fois dans ta société et dans la communauté du Libre.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Ça va te faire rigoler parce je suis un gros boulet : je n’ai toujours pas récupéré cette décoration parce qu’il faut organiser une cérémonie, avoir quelqu’un qui te la remet, et je dois avouer que ce n’était pas vraiment dans mes priorités, notamment personnelles, cette année. Il faut absolument que je m’en occupe parce que sinon je ne vais jamais avoir le droit de la porter. C’est génial ; c’est clair, c’est génial parce que ça montre notamment qu’on a eu des gens dans l’État qui commencent à comprendre ce qu’est le logiciel libre et pourquoi c’est important pour l’État et pour la France. Ça c’est vraiment très cool. C’était Mounir, à l’époque, qui m’avait proposé. <br />
<br />
<b>Frédéric Couchet : </b>Mahjoubi, ministre du numérique [secrétaire d’État chargé du numérique].<br />
<br />
<b>Jean-Baptiste Kempf : </b>Maintenant c’est Cédric O, je crois, qui l’a remplacé. Donc c’est très cool. Par contre, ce que je n’aime pas, c’est que c’est une décoration personnelle pour un projet qui est un projet commun. C’est sûr que je suis la personne qui a passé le plus de temps autour de VLC et d’autres projets autour de VideoLAN, mais je suis toujours un peu mal à l’aise avec ça.<br />
<br />
<b>Frédéric Couchet : </b>C’est le côté starisation qui ne te plaît pas.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Ouais. Il y a beaucoup trop de starisation dans tout ce qui est tech, tout ce qui est startup, on parle plus souvent, on voit plus souvent à propos de startups des photos des fondateurs que de leurs produits. Ça me gêne un peu ; ce n’est pas très grave, mais ça me gêne un peu.<br />
<br />
<b>Frédéric Couchet : </b>OK. Avant d’oublier je précise que si des personnes qui écoutent veulent appeler pour faire une intervention et notamment poser une question à Jean-Baptiste, vous pouvez appeler le 09 50 39 67 59 et Étienne Gonnu, en régie, attend vos appels.<br/><br />
Déjà une petite première question. En fait de très nombreuses personnes utilisent VLC souvent sans savoir que c’est un logiciel libre et ça permet à ces personnes de lire des vidéos. Mais toi, quand tu présentes par exemple peut-être en soirée ce que tu fais, comment tu présentes VLC, en une ou deux phrases ? Petit résumé.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Ça dépend de qui est en face, du public, et ça dépend de si je veux troller ou pas. En général, ce que je dis, c’est que c’est un lecteur multimédia qui est capable de lire tous les formats de fichiers audio, vidéo et qui marche partout. Ça c’est l’accroche et après, surtout, je dis que c’est un logiciel libre, développé par une communauté, pour le bien commun.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. C’est intéressant parce qu’une des forces, effectivement, de VLC c’est de lire à peu près tous les formats de fichiers et on va y revenir dans la partie plus technique, présentation des fonctionnalités. Tu dis que c’est une communauté qui développe ça, justement on va parler de l’histoire de ce projet. Comment c’est né ? Parce que c’est un projet très ancien, il y a de nombreuses années. Est-ce que tu peux nous raconter comment est né ce projet à l’École centrale de Paris, si j’ai bien suivi.<br />
<br />
<b>Jean-Baptiste Kempf : </b>En fait, ce qui est marrant dans VLC, c’est qu’il n’y a pas eu de créateur de VLC et surtout il n’y a personne qui a voulu faire VLC. Souvent les gens, quand je leur raconte ça, ça les déçoit un peu, il n’y a personne qui s’est dit « Je vais faire un nouveau lecteur vidéo, ça va être mieux que le reste ». En fait c’est une succession de projets qui commence il y a très longtemps, et une partie du projet du projet est devenu VLC. Je vais m’expliquer un petit peu parce sinon c’est un peu flou.<br />
<br />
<b>Frédéric Couchet : </b>Avec des dates.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Le projet originel date du fait que dans les années 60 du fait que l’École centrale Paris a déménagé de la gare de Lyon à Châtenay-Malabry dans le sud de Paris, pour des raisons un peu bizarres, mais notamment parce que l’Éducation nationale n’avait pas l’argent pour le faire. On s’est retrouvé avec une grande école française qi était sur un campus géré par des anciens élèves, donc privé. Et tout dans l’organisation du campus était fait par des étudiants : le téléphone, la télé, la radio, la cafeteria et le réseau informatique. Dans les années 80 ils mettent un réseau informatique et c’est un réseau informatique qui était basé sur <em>token ring</em>, donc un réseau très lent. Vers le milieu des années 90, ils veulent avoir un réseau plus rapide et quand ils vont voir l’École pour dire « on a besoin d’un nouveau réseau plus rapide », en particulier pour jouer, il ne faut pas mentir.<br />
<br />
<b>Frédéric Couchet : </b>Pour jouer en réseau au début.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Pour jouer en réseau et l’École leur dit : « Écoutez, vous allez être gentils, vous allez l’utiliser pour jouer en réseau et pas du tout pour travailler » et surtout la raison principale de l’École c’est « vous comprenez, le campus est privé, nous on ne peut rien y faire » ; ils disent : « Allez voir les partenaires ». C’est là que le projet qui s’appelle Network 2000 – à l’époque, on est en 1995, évidemment tout projet s’appelle 2000 sinon ce n’est pas un vrai projet – ils vont voir des partenaires, ils vont voir notamment TF1 qui dit : « Le futur de la vidéo c’est le satellite — aujourd’hui c’est facile de rigoler mais en 1995 c’était important — et pour 1500 étudiants s’il faut mettre 1500 décodeurs et 1500 antennes ça va coûter une fortune. Ce qu’on vous propose, c’est de mettre juste un réseau très rapide, numérique – ce sont les débuts de la vidéo numérique – on met une grosse antenne et on diffuse la vidéo sur tout le réseau hyper-rapide. Évidemment on est en 1994/95, les ordinateurs les plus puissants ce sont des 486DX-33, DX-66 ou des Pentium 60, c’est absolument impossible sans avoir des grosses machines pour faire du décodage vidéo SD en taille DVD à l’époque, sans matériel, mais ils le font quand même et c’est comme ça qu’ils justifient l’achat d’un nouveau réseau pour ce projet dans l’association des étudiants qui gérait le réseau informatique. À ce moment-là il n’y a pas du tout de VLC. Ça finit, il y a une démo qui marche, ça crashe au bout de 50 secondes ; on fait une démo de 42 secondes, comme ça c’est nickel, c’était <em>cross-platform</em>, ça marchait grosso modo sous BeOS et Linux, rien d’autre, mais on montrait que c’était possible. Pendant un an il ne se passe plus rien. Il y a des étudiants en 98 qui disent : «C’est un projet qui est marrant, de diffusion de vidéos sur un réseau, il y a peut-être d’autres campus ou des réseaux d’entreprise qui sont intéressés ». Donc ils remontent un projet qui, à ce moment-là, s’appelle VideoLAN, LAN qui veut dire réseau local en anglais. Donc ils montent le projet VideolAN. Ils sont en 98, ils ont comme objectif de devenir <em>open source</em> et d’être <em>cross-platform</em>. Mais dans VideoLAN, il y avait une partie serveur, une partie réseau, une autre partie un truc un peu compliqué, et il y avait une partie cliente. Mais la partie cliente ce n’était pas forcément le focus, parce que ce n’était pas forcément l’endroit le plus compliqué. La partie cliente s’appelle VideoLAN <em>client</em>.<br />
<br />
<b>Frédéric Couchet : </b>Donc VLC.<br />
<br />
<b>Jean-Baptiste Kempf : </b>À ce moment-là tout le monde l’appelle VideoLAN <em>client</em>. Ça ne va s’appeler VLC que trois ou quatre ans plus tard. Au moment où en 2001, après une bataille de longue haleine l’École autorise le changement de licence pour que ça passe d’une licence propriétaire vers une licence <em>open source</em><br />
<br />
<b>Frédéric Couchet : </b>Une licence libre, en l’occurrence la licence GNU GPL, <em>General Public License</em>.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Exactement. Ils ne précisent pas la version, ils disent <em>GNU General Public License</em> et ils ne précisent pas VLC, ils précisent pour l’ensemble des logiciels du projet VideoLAN. Donc c’est en fait comme ça que naît le projet. VLC c’est une petite partie du projet VideoLAN, qui est projet dont le but a été d’être libre, mais qui, au début ne l’était pas, basé sur un projet qui était originellement de faire un nouveau réseau parce qu’il y avait un réseau informatique lent à l’époque. À ce moment-là, quand ça passe en logiciel libre, c’est à ce moment-là qu’il y a des contributions extérieures importantes qui font que ça passe sous Windows et sous Mac OS rapidement et pas à l’initiative des élèves et que ça commence à démarrer à l’extérieur.<br/><br />
En fait il n’y a personne qui s’est dit « je vais faire un nouveau lecteur, je vais le porter partout ». Ce sont vraiment des étudiants, plusieurs générations d’étudiants parce qu’on parle de 1994 à 2002 pour le début de l’explosion et il n’y a personne qui s’est dit « je vais créer VLC ! »<br />
<br />
<b>Frédéric Couchet : </b>D’accord. L’École centrale de Paris c’est une école d’ingénieur. Toi tu intègres l’École centrale à quelle date ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>En 2003.<br />
<br />
<b>Frédéric Couchet : </b>En 2003. Je suppose, comme tu l’as dit en introduction tu es un geek et tu es là pour apprendre, tout de suite le projet te plaît. Est-ce que tu contribues tout de suite ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>C’est pire que ça. Moi j’ai choisi l’École centrale Paris parce que je savais que c’était une école où il y avait une association informatique qui faisait du Libre.<br />
<br />
<b>Frédéric Couchet : </b>Tu as choisi l’école pour ça ! D’accord !<br />
<br />
<b>Jean-Baptiste Kempf : </b>J’avais rencontré en vacances quelqu’un ; j’ai eu le choix entre plusieurs grandes écoles et je suis allé à Centrale parce que je savais que un, il n’y avait pas beaucoup de cours et deux, parce qu’il y avait une association qui faisait du réseau qui était sous Linux. Je n’y connaissais rien, c’était clair à l’époque. Donc ça a été mon choix, c’est pour ça que ça que je suis allé à Centrale.<br />
<br />
<b>Frédéric Couchet : </b>C’est marrant parce que ça me rappelle ma propre histoire à Paris 8, mais des années avant parce que je suis un peu plus vieux que toi. Donc tu arrives à Centrale en 2003. À l’époque il n’y a pas d’association qui porte ce projet et, si j’ai bien suivi, c’est toi qui vas initier l’idée de créer une association qui va s’appeler VideoLAN.<br />
<br />
<b>Jean-Baptiste Kempf : </b>En fait ça arrive bien plus tard parce qu’à l’époque les gens du réseau ??? et les gens VideoLAN c’était très interconnecté. Je deviens vice-président de l’association du réseau et c’est moi, avec notamment un autre développeur qui s’appelle Rémi, qui portons pendant une année cette association, donc on fait des choses sur VideoLAN. La première chose que je fais sur VideoLAN c’est gérer la diffusion interne de la télévision pour le campus de Centrale. Et ça, ça doit être fin 2003/début 2004 que je commence à toucher au projet VideolAN, mais pas du tout par la partie code, vraiment par la partie infrastructure. En fait, je fais un stage plus tard en 2005/2006 et je m’emmerde pendant ce stage.<br />
<br />
<b>Frédéric Couchet : </b>C’est aux États-Unis, ce stage ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Pas du tout. J’étais au CEA [Commissariat à l'énergie atomique], à la direction des applications militaires. Le stage était génial, mais j’avais beaucoup trop de temps. Je me suis vraiment amusé sur le stage, mais c’est juste que ça n’allait pas assez vite pour moi. Donc j’ai fait deux choses : j’ai fait pas mal de documentation et j’ai commencé à aider sur VLC. En fait on s’est retrouvé un peu avec le problème que le projet était trop gros pour l’école, trop gros pour des étudiants, trop d’utilisateurs et c’était très difficile de faire quoi que ce soit, surtout parce qu’en 2006/2007/2008 la nouvelle génération d’étudiants n’est vraiment pas intéressée par le projet. C’est à ce moment-là, fin 2007 et début 2008, que je lance l’idée de se séparer de l’école. Je crée l’association au VideoLAN Dev Days en décembre 2008, hébergée chez, Free et c’est là où on fait un vote, où on décide de créer une association. Début 2007 il n’y avait plus que deux personnes et demie active sur le projet. Quand j’étais dans mon stage, comme tu l’as dit aux États-Unis, j’ai passé beaucoup de temps à retrouver des mondes, des anciens et des nouveaux, pour se remotiver autour de projet et ça va prendre quelques années pour qu’on arrive à la version 1.0 de VLC.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. On va y arriver. Petite question : le choix du cône chantier comme icône, c’était à cette époque-là ou pas ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Quand je suis arrivé, le cône de chantier était déjà là. <br />
<br />
<b>Frédéric Couchet : </b>Est-ce que tu sais pourquoi le cône de chantier a été choisi ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Oui, je sais, évidemment !<br />
<br />
<b>Frédéric Couchet : </b>Vas-y.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Il faut savoir et je suis désolé pour les auditeurs, qu’il y a une bataille d’anciens pour expliquer quelle est la raison du cône, mais quand moi je suis arrivé à Centrale, c’est sûr, on avait des étages de 24 étudiants et sur l’étage du 2H, l’étage du réseau, il y avait à peu près une centaine de cônes, il y avait une armoire à cônes.<br />
<br />
<b>Frédéric Couchet : </b>Le culte du cône !<br />
<br />
<b>Jean-Baptiste Kempf : </b>Le culte avec des jeux physiques comme le cône acrobatique, le « côneball », des batailles , des montages de batailles moitié laser moitié cône. Il y avait vraiment un culte sur le cône qui était très drôle, pas du tout malsain, attention pour ceux qui ont peur, très marrant et hyper deuxième ou troisième degré. À l’origine ils avaient besoin de parler à un étudiant qui ne voulait pas leur ouvrir la porte. En fait, après une soirée probablement un peu arrosée, ils ont utilisé le cône comme porte-voix pour l’appeler et l’alpaguer depuis sa fenêtre. Plutôt que d’avoir une petite mandoline pour chanter une sérénade, ils ont pris un cône qui était là. Ça c’était des gens autour du réseau et, en fait, dans la première sortie sous Linux X11.<br />
<br />
<b>Frédéric Couchet : </b>X11 c’est l’environnement de fenêtrage graphique, on va dire.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Avant, la première version était en framebuffer, c’est encore au niveau plus bas. Ça passe à la première version. En fait tout le monde se tirait un peu la bourre dans VLC à l’origine, ce qui est normal, parce qu’il y avait toujours plein de choses à faire, c’est super marrant, donc celui qui met la première version X11, en fait il commit à quatre heures du matin, même si ce n’est pas fini, mais juste parce qu’il a quand même fait le plus gros du boulot, il envoie sa version et, pour montrer que ce n’est pas fini, il met comme icône le petit cône de chantier pour dire que c’est en travaux.<br/><br />
Ensuite Sam Hocevar, qui est un des génies qu’il y a eu autour du projet, dessine la première icône et ça reste. C’est une idée absolument pas réfléchie, c’est complètement débile d’utiliser un cône de chantier pour un lecteur multimédia, mais c’est un coup marketing absolument génial parce que c’est hyper-reconnaissable. Là, maintenant, je vais partout dans le monde, quand je parle de VLC les gens connaissent déjà beaucoup plus que l’École centrale Paris ou des choses comme ça, mais, surtout, il y a plein de gens qui font : « Je ne sais pas trop » et tu dis : « Mais si le cône qui lit des vidéos » et là, c’est universel. <br />
<br />
<b>Frédéric Couchet : </b>Le cône de chantier. C’était un excellent souhait et on salue Samuel Hocevar qui a aussi été le responsable du projet Debian, qui est aussi un grand fan de cinéma et notamment de <em>La Classe américaine</em> dont on parlera peut-être un jour. En tout cas allez chercher sur un moteur de recherche Samuel Hocevar, c’est un génie.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Et qui a été un des premiers à introduire Wikipédia en France.<br />
<br />
<b>Frédéric Couchet : </b>Exactement. C’est aussi un des fondateurs de Wikipédia France, Wikimedia France aussi.<br/><br />
J’ai une petite question sur le salon web de la radio, je rappelle que c’est sur causecommune.fm, une réponse rapide, Marie-Odile qui demande : « Est-ce que cette école est toujours aussi sympa afin de la conseiller aux jeunes qui vont prochainement passer des concours ? » L’ECP ? Est-ce que tu conseillerais d’aller à l’ECP aujourd’hui ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Désolé, je n’en sais rien du tout. Maintenant elle s’appelle CentraleSupélec, ça a fusionné avec Supélec. J’y vais de temps en temps parce que je suis toujours administrateur de l’association du réseau, je trouve que les gens sont toujours aussi <em>cools</em>, par contre je trouve que leur campus est quand même moins marrant que le nôtre. <br />
<br />
<b>Frédéric Couchet : </b>D’accord. Voilà la réponse par rapport à ça. On a bien compris qu’au départ il y a pas mal d’étudiants et d’étudiantes qui ont contribué. On va revenir tout à l’heure sur la contribution concrète, aujourd’hui, à VLC, parce que les gens doivent se dire qu’il doit y avoir des centaines de personnes qui contribuent tous les jours à VLC. On va aussi parler du financement, mais dans une deuxième partie. On va revenir un petit peu, une fois passé cet historique, on remarque que c’est un logiciel libre qui existe depuis très longtemps, qui se développe. Aujourd’hui c‘est la version 3.0, c’est ça ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>C’est ça.<br />
<br />
<b>Frédéric Couchet : </b>3.0. Tu l’as dit tout à l’heure, l’un des grands atouts de VLC en termes de fonctionnalité, c’est que ça intègre les codecs nécessaires à la lecture de la plupart des formats audio et vidéo et que VLC peut lire aussi à peu près tous les flux réseau. Donc le choix de VLC, pour beaucoup de gens, c’est aussi la qualité et la capacité d’accéder à peu près à tous les contenus. Une autre caractéristique c’est la capacité de lire des flux un petit peu endommagés et de les réparer à la volée, c’est assez magique ! Un autre avantage, et là j’aimerais bien que tu expliques comment vous faites, c’est le côté multiplateforme, parce que souvent les logiciels libres sont disponibles sur environnement, on va dire, Windows, Mac, GNU/Linux, mais vous allez encore plus loin, c’est de l’Android, c’est de l’iPhone, c’est OS2. C’est intégré dans certaines box et ça serait intéressant d’en reparler tout à l’heure. Comment vous faites pour ce côté multiplateforme ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Il y a plusieurs raisons. La première raison c’est que VLC est hyper-modulaire, contrairement par exemple à un autre lecteur multimédia qui est sur Linux qui s’appelle MPlayer, qui était là avant. Le cœur de VLC est tout petit, ça doit être un dixième du code, un vingtième du code, et après on a plein de modules. La raison pour laquelle VLC est passé en modules, ça n’est pas du tout une idée, une grande idée en disant « il faut absolument faire ça », c’était, je suis désolé pour le terme technique, pour raccourcir les temps de compilation à l’époque. Quand on faisait une modification on modifiat juste un module et on compilait, c’était beaucoup plus rapide que de tout compiler.<br />
<br />
<b>Frédéric Couchet : </b>La compilation c’est partir du code source pour arriver à la version compréhensible par l’ordinateur.<br />
<br />
<b>Jean-Baptiste Kempf : </b>C’est ça. En fait, pour faire plus simple, c’était juste plus facile de développer, mais ça n’était pas dans le but d’être plus <em>cross platform</em>, c’était vraiment Sam qui voulait coder plus rapidement, donc pour aller plus rapidement dans son développement il est passé en modules. Et ce passage en modules, en fait c’est vraiment un coup de génie, qui n’était peut-être pas forcément vu à l’époque, c’est que ça a permis d’être justement sur plein de plateformes, parce que quand tu vas sur une autre plateforme tu fais juste une nouvelle sortie audio, une sortie vidéo et une nouvelle interface et puis c’est tout ; tu n’as pas à modifier tout le reste. Et, deuxième effet <em>cool</em> qui est très bien, c’est que ça permet aux gens qui rentrent dans le projet de commencer à contribuer sans être capables de comprendre ce qui se passe au cœur. Moi pendant quasiment deux ans, depuis le premier moment où j’ai codé sur VLC, je n’ai jamais rien fait dans le cœur de VLC parce que c’est compliqué, mais ce n’est pas grave, comme ce sont des modules, tu rajoutes juste une fonctionnalité. Tu veux un nouveau format, tu rajoutes juste un module. Et quand tu veux placer sur d’autres plateformes, que tu as mentionnées, mais on est aussi sur Apple TV, sur Android TV, on a une version sur la PS4 – elle n’est pas publique parce que, pour des raisons de liberté, on ne peut pas la publier. En fait, ce que je dis, c’est que VLC est un des logiciels le plus porté sur plein d’autres plateformes, en tout cas interfaces. On est sur plus de plateformes que Chrome, on est sur plus de plateformes que Firefox, que LibreOffice et je ne parle même pas, évidemment, de logiciels propriétaires comme Office ou Apple. Il faut comprendre que, évidemment, ça prend beaucoup de temps, mais, en fait, le cœur de VLC est géré par cinq personnes. C’est important. Ce sont des gens très bons et je suis poli, à part moi ce sont vraiment des gens exceptionnels au niveau code, qui sont vraiment de classe internationale, qui sont hyper-bons, qui savent ce qu’ils font et c’est ça qui permet de supporter plein de plateformes. Ensuite on est très conservateurs sur notre approche du code. On écrit tout en C, un petit peu de C ++.<br />
<br />
<b>Frédéric Couchet : </b>C, c’est un langage de programmation.<br />
<br />
<b>Jean-Baptiste Kempf : </b>En langage de programmation C, donc vraiment du bas niveau, parce que c’est un langage qui est très limité mais qui est relativement simple, dont on connaît très bien les limites, donc ça permet à VLC de garder cette qualité. Et un truc important aussi pour VLC, la marque, c’est que les gens normaux, c’est-à-dire pas les gens qui passent leurs journées à recompiler leur VLC sur Linux, font confiance au code. Et ça c’est hyper-important. La deuxième raison c’est que dans VLC il y a des gens comme moi qui ont été hyper-embêtants sur la qualité du produit. J’ai emmerdé les autres développeurs des centaines de fois en disant « non, ça ce n’est pas possible, ça casse ce problème pour l’utilisateur ». J’ai passé des heures et des heures sur les forums, sur Twitter, etc., à écouter ce que voulaient nos utilisateurs, c’est hyper-important, ce n’est pas la partie la plus marrante. Pour moi c’est important d’avoir du produit qui fonctionne.<br />
<br />
<b>Frédéric Couchet : </b>Justement sur la partie support j’ai une question : est-ce que globalement l’équipe reçoit plus d’encouragements ou de remerciements que de plaintes, ou traditionnellement… ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Non !On n’entend que des plaintes, voire des insultes ou des menaces de mort.<br />
<br />
<b>Frédéric Couchet : </b>À ce point-là !<br />
<br />
<b>Jean-Baptiste Kempf : </b>Oui. Des gens ont envoyé des lettres anonymes que j’ai reçues chez mes parents. Il y a des tarés partout ! Par rapport aux centaines de millions d’utilisateurs, en fait c’est ridicule les plaintes. Évidemment, quand tu es de l’autre côté, tu ne vois que la partie négative et c’est vrai que de temps en temps tu as des mecs qui te dises : « C’est trop bien ! » Il y a des mecs qui m’ont envoyé de la bière parce que sur un <em>thread reddit</em> j’ai dû raconter qu’une des bières que j’adore c’est la Kasteel Rouge et il y a quelqu’un qui m’a envoyé chez mes parents une caisse de Kasteel Rouge, que j’ai bue.<br />
<br />
<b>Frédéric Couchet : </b>Est-ce que tu es invité au <em>Dernier Restaurant avant la fin du monde</em> ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Non, on ne m’a pas encore invité au <em>Dernier Restaurant avant la fin du monde</em>, mais on m’a déjà invité pas mal de fois au Dernier bar avant la fin du monde soit celui de Paris soit dans d’autres endroits.<br />
<br />
<b>Frédéric Couchet : </b>Il y en a dans d’autres endroits ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Oui. Il y en a dans d’autres endroits.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. OK. Tu parlais à l’instant de la qualité notamment par rapport à l’expérience utilisateur et utilisatrice, il y a un autre sujet qui doit sans doute te faire stresser c’est la sécurité. D’ailleurs je ne sais pas sur combien de machines , si c’est estimable, VLC est installé, mais le problème de sécurité soit par un bug soit par une injection de code malveillant ça doit te faire flipper !<br />
<br />
<b>Jean-Baptiste Kempf : </b>C’est clair que c’est un vrai sujet qui est très compliqué. Je vais d’abord répondre à ta première question qui est combien il y a de VLC installés. On ne fait pas de télémétrie – moi j’appelle ça de l’espionnage, certains appellent ça de la télémétrie, ça s’appelle de l’espionnage même quand c’est Mozilla qui le fait, nous on ne fait pas d’espionnage –, par contre c’est vrai qu’on peut savoir des choses. On peut savoir le nombre de téléchargements sur notre site web, sachant qu’il y a évidemment plein d’autres sites de téléchargement comme Download.com, Telecharger.fr et toutes les distributions Linux qui redistribuent sans passer pas nous, donc on n’a pas cette information. Mais là, déjà, on voit qu’on est à peu près à 25 millions, 30 millions de téléchargement par mois. Deux tiers, en fait, ce sont les <em>updates</em>, mais le reste ça ne l’est pas. Déjà le fait qu’il y ait pas mal d’<em>updates</em> ça nous donne des informations.<br />
<br />
<b>Frédéric Couchet : </b>Les <em>updates</em> ce sont les mises à jour.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Les mises à jour. Après, on a des informations de Microsoft, du nombre d’utilisateurs, notamment pour les <em>crash report</em>. En fait, on n’a pas d’infos fiables, mais on a une estimation. En nombre d’utilisateurs actifs, ce que tu définis comme une personne qui utilise VLC une fois dans le mois, sous Windows on a 300 millions d’utilisateurs actifs.<br />
<br />
<b>Frédéric Couchet : </b>Waouh !<br />
<br />
<b>Jean-Baptiste Kempf : </b>Donc tu peux considérer qu’en nombre d’installations on doit être au moins au double, en nombre d’installations !<br />
<br />
<b>Frédéric Couchet : </b>Sous les environnements Linux, FreebSD et autres, libres, on n’a pas d’estimations.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Si. J’avais fait des estimations à une époque. Grosso modo on prend le nombre sur Windows, on divise par dix et on a la part de marché qu’on a sous Mac OS et on prend exactement la même chose sous Linux, donc ça fait 30 millions. Sur les machines bureau on pense qu’on a 350 millions d’actifs, donc en nombre d’installés c’est peut-être 600 millions, 700 millions. Après il y a les mobiles. On a eu, par exemple sur Android 250 millions de téléchargements, de compte qui l’ont téléchargé et 60 millions d’actifs et sur iOS quelque chose de similaires. Ça donne un ordre d’idée.<br />
<br />
<b>Frédéric Couchet : </b>C’est une grosse masse.<br />
<br />
<b>Jean-Baptiste Kempf : </b>C’est une grosse masse.<br />
<br />
<b>Frédéric Couchet : </b>La partie sécurité soit être stressante.<br />
<br />
<b>Jean-Baptiste Kempf : </b>En particulier parce que nous on fait du C, on est vraiment en bas niveau, on n’a pas un langage qui nous aide parce que dans le multimédia, on n’a pas le choix, il faut être hyper-performant. On va le plus proche du matériel, donc on a accès au bas niveau, donc on a accès, en fait, vraiment à tout. Pour ceux qui comprennent, quand on est dans VLC on est vraiment en mode kernel quasiment partout.<br />
<br />
<b>Frédéric Couchet : </b>C’est-à-dire qu’on est au plus proche du matériel, donc on peut quasiment tout faire.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Et surtout j’ai accès à tout, j’ai accès à tous tes fichiers, si tu crashes VLC, normalement. C’est le même problème qu’a Chrome, sauf que Chrome ils ont une approche, ils ont mis des millions pour améliorer ça. On a vu, par exemple, la CIA qui a utilisé une fausse version de VLC et, en même temps que tu regardais ton film, il y avait un petit plugin qu’ils avaient rajouté, un petit module de VLC qu’ils avaient rajouté qui, en fait, chiffrait tous tes documents dans ton dossier Mes documents sous Windows et les envoyait quelque part. Ce n’était pas notre version de VLC mais c’était une version récupérée quelque part qu’ils redistribuaient et tu ne t’en rends pas compte : tu regardes un film, ça dure deux heures ou trois heures quand c’est <em>Avengers games</em>, donc ton PC travaille, il y a un peu de bruit, ça ne t’étonne pas.<br/><br />
Ça c’est un vrai problème et puis il y a des failles de sécurité, comme pour tous les logiciels, mais les gens font un peu moins les mises à jour que pour Chrome ; pour ton navigateur, tu passes ton temps à faire ça. On a une approche, notamment depuis trois ans, qui est très proactive, où on va notamment analyser le code et faire des choses comme ça pour, justement, trouver des bugs en amont. On a eu un <em>bug bounty</em> par la Commission européenne qui payait des hackers pour essayer de trouver des problèmes dans VLC et ensuite nous on allait réparer.<br />
<br />
<b>Frédéric Couchet : </b>C’est le projet FOSSA [Free and Open Source Software Audit] ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Sur le projet FOSSA.<br />
<br />
<b>Frédéric Couchet : </b>Le projet FOSSA de la Commission européenne.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Évidemment c’est grâce à Julia Reda.<br />
<br />
<b>Frédéric Couchet : </b>L’ancienne eurodéputée du Parti pirate.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Évidemment il n’y a qu’elle qui est intéressée par ce genre de truc. Cétait vraiment très cool et ça permet de faire remonter des problèmes, mais ça ne règle pas le problème fondamental. Pour régler le problème fondamental on a une idée avec un système de <em>sandboxing</em>, c’est très compliqué et surtout ce sont des choses qui n’ont jamais été faites.<br />
<br />
<b>Frédéric Couchet : </b>Est-ce que tu peux expliquer en une phrase ce qu’est le <em>sandboxing</em> ? Ou après la pause musicale si tu veux.<br />
<br />
<b>Jean-Baptiste Kempf : </b>L’idée du <em>sandboxing</em> et je ne pourrai pas faire plus technique que ça…<br />
<br />
<b>Frédéric Couchet : </b>Moins technique que ça.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Ouais, pardon, c’est que quand VLC a un problème, en fait, il est dans son petit environnement et donc il n’a accès à rien sur ta machine, donc ça n’est pas grave.<br />
<br />
<b>Frédéric Couchet : </b>C’est un bac à sable juste pour VLC.<br />
<br />
<b>Jean-Baptiste Kempf : </b>C’est ça. En fait ça c‘est la théorie. En pratique il va falloir mettre une dizaine de bacs à sable à l’intérieur de VLC et c’est très compliqué.<br />
<br />
<b>Frédéric Couchet : </b>On va permettre aux gens de réfléchir en écoutant une pause musicale. Nous allons écouter <em>Jack’s Playing Ball</em> par Jono Bacon. On se retrouve juste après. Belle journée à l’écoute de Cause Commune.<br />
<br />
<b>Pause musicale : </b><em>Jack’s Playing Ball</em> par Jono Bacon.<br />
<br />
==45’ 23==<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Jack’s Playing Ball</em> par Jono Bacon, disponible sous licence Creative Commons BY SA, c’est-à-dire Partage dans les mêmes conditions. Vous retrouverez les références sur le site de l’April, april.org et sur le site de la radio, causecommune.fm.<br />
<br />
Vous écoutez toujours l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 FM en Île-de-France et partout ailleurs sur le site causecommune.fm. Je vous rappelle que vous pouvez nous appeler si vous voulez poser une question en direct au 09 50 39 67 59.<br />
<br />
Nous allons poursuivre notre discussion sur VLC, le lecteur multimédia libre, avec Jean-Baptiste Kempf du projet VideoLAN et de la société Videolabs dont on parlera tout à l’heure.<br/><br />
Juste avant on parlait de technique et notamment de <em>sandboxing</em>, bac à sable, et pendant la pause musicale Jean-Baptiste m’expliquait un petit peu les projets pour la version à priori 5, ça a l’air d’être quand même un sacré enjeu technique. Là on va parler un petit peu des problématiques juridiques. On va les aborder rapidement parce que chacune de ces problématiques juridiques est complexe en tant que telle. Déjà j’ai une première question parce que tu es connu pour avoir reçu des propositions, parait-il de plusieurs dizaines de millions d’euros, en l’échange de l’insertion de publicité et de logiciels malicieux dans VLC et tu as refusé. Pourquoi ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>C’est tout à fait exact. Ça m’est arrivé au moins trois fois, des mecs qui voulaient : en même temps que ça installe VLC, il t’installe un antivirus Avast ou Avira, changer ta page de démarrage ou d’installer des ???. Ça c’est hostile à l’utilisateur donc pour moi c’est <em>no way</em>, quel que soit le montant.<br/><br />
J’ai des gens qui m’ont proposé de racheter le nom de domaine videolan.org, ils étaient déjà un peu plus malins parce que c’est un peu plus malin que d’essayer de mettre de la merde dans VLC, mais pareil, ça ne correspond pas à quelque chose qui est bien pour mes utilisateurs ni à la philosophie que j’ai autour du projet. Je ne suis pas contre l’argent en soi, mais l’argent ça doit être fait de façon morale.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Au niveau des problématiques juridiques, on va parler de deux problématiques juridiques précises assez rapidement, les DRM, les menottes numériques et ensuite brevets.<br/><br />
Les DRM, les menottes numériques, on en a déjà parlé avec toi et Marie Duponchelle dans l’émission d’octobre 2018, vous retrouverez le podcast évidemment en ligne, donc les menottes numériques qui empêchent un certain nombre d’usages. Il y a quelques années VLC avait saisi l’Hadopi parce que beaucoup de gens ignorent que l’Hadopi, au-delà de son activité bien connue, a normalement la régulation de ce qu’on appelle les mesures techniques de protection, ce que nous on appelle les menottes numériques, et notamment vous l’aviez saisie concernant les Blu-ray, le format des Blu-ray : est-ce que VLC avait les capacités juridiques – non pas techniques parce que techniquement vous saviez le faire, évidemment, mais juridiques – pour lire ces fameux Blu-ray. Première question : pourquoi vous avez dû saisir l’Hadopi ? Quelle était la réponse de l’Hadopi et quelle est la situation aujourd’hui par rapport à la lecture notamment de ces Blu-ray ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>VLC est capable de lire des CD depuis 2001 et, en fait, c’était avant les lois LCEN, EUCD...<br />
<br />
<b>Frédéric Couchet : </b>LCEN : loi pour la confiance dans l’économie numérique et EUCD c’est la version française de la directive droit d’auteur.<br />
<br />
<b>Jean-Baptiste Kempf : </b>C’était des lois qui avaient été faites. On était passé avant ça. Quand on veut mettre la lecture du Blu-ray dans VLC on est après ça et il y a notamment une agence de régulation des mesures techniques de protection qui avait été créée et qui n’avait jamais rien foutu. Ils n’avaient même pas rendu le rapport annuel qu’ils devaient rendre, donc on a <em>mergé</em> ça dans Hadopi au moment de la loi Hadopi. En théorie, c’était à eux de nous aider parce qu’en fait il y a un problème fondamental qui est l’interopérabilité et les mesures techniques de protection. Grosso modo, ce sont deux concepts qui sont impossibles et puis la loi était hyper peu claire, donc on est allé poser des questions, puisqu’en théorie c’était eux le régulateur. On n’a rien compris à la réponse, en particulier parce qu’ils n’ont rien compris à la question. Ils ont fait ça avec une mauvaise foi absolument forte. Ils n’ont jamais réussi à comprendre, ça a mis deux ans avant qu’on réussisse à avoir une question au gouvernement par un député et c’est à ce moment-là qu’ils ont commencé à se bouger. Grosso modo ils n’ont rien compris à la question, ils ne nous ont même pas posé la question. En fait ils étaient dans un mode complètement politique avec Franck Riester.<br />
<br />
<b>Frédéric Couchet : </b>Actuellement ministre de la Culture et anciennement rapporteur du projet de loi Hadopi.<br />
<br />
<b>Jean-Baptiste Kempf : </b>À la fin il s’est rendu compte qu’en fait qu’il y avait quelque chose à faire et qu’on n’était pas là juste pour les emmerder, qu’on posait vraiment une question ! Et puis il y avait le secrétaire général de la Hadopi dont j’ai oublié le nom.<br />
<br />
<b>Frédéric Couchet : </b>Éric Walter.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Éric Walter, qui a essayé de bouger, mais c’était trop tard. J’ai dit publiquement que c’était des gros nuls. Je le redirai publiquement.<br />
<br />
<b>Frédéric Couchet : </b>Tu es en train de le dire publiquement.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Je peux le redire une fois de plus, ça ne me dérange pas. Jacques Toubon qui, évidemment, ne se souvient pas de moi parce que c’était mon maire quand j’habitais dans le 13e arrondissement de Paris, qui a écrit dans la presse que j’étais un méchant, grosso modo.<br />
<br />
<b>Frédéric Couchet : </b>Jacques Toubon qui est aussi un ancien ministre de la Culture et qui, à l’époque, devait être député européen, je pense.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Peut-être. Ce qui est bizarre c’est qu’aujourd’hui il fait un travail qui est plutôt bien en tant que médiateur civique de la République [Défenseur des droits], je crois que ce qu’il fait est plutôt pas mal. Il m’avait gonflé. Une fois je l’ai croisé, je lui ai dit qu’il n’avait rien compris au sujet et je crois qu’il m’a dit : « C’est possible, je n’ai rien compris ! »<br />
<br />
<b>Frédéric Couchet : </b>Donc l’Hadopi a répondu à côté ou n’a pas compris le sujet, aujourd’hui, légalement, comment ça se passe ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Je ne sais pas. Tu peux lire les Blu-ray qui ne sont pas chiffrés, qui n’ont pas de DRM, c’est peut-être 1 % des Blu-ray, notamment pas mal d’imports japonais, ensuite il faut que tu trouves une façon de contourner la protection. Par exemple, sur le site de VideoLAN, tu peux télécharger une bibliothèque qui peut te permettre ça, mais elle n’a pas les clefs. Donc ensuite il faut aller trouver des clefs sur Internet. Ce n’est pas très compliqué, ça marche très bien, mais en tout cas, légalement, je n’ai pas le droit de le diffuser ; peut-être un jour ! Peut-être qu’aujourd’hui j’ai le droit de diffuser la bibliothèque, mais les clefs je ne pense pas. Mais je n’en sais rien.<br />
<br />
<b>Frédéric Couchet : </b>On ne sait pas. Et l’autorité qui est en charge de donner la réponse ne sait pas.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Non. Ce sont des gros nuls aussi bien l’ARMT [Autorité de régulation des mesures techniques] que Hadopi et maintenant ils ne savent tellement pas quoi faire de ce gouffre financier, de cette connerie du début jusqu’à la fin qu’ils vont essayer de la <em>merger</em> dans le CSA. Le CSA est quand même un petit peu plus compétent, mais, pour avoir déjà discuté avec sur les questions de TNT numérique, c’est absolument noyauté par des lobbies, c’est absolument une catastrophe.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Ça ce sont les DRM, la base juridique c’est le droit d’auteur. On va passer aux brevets et notamment aux formats des fameux codecs audio ou vidéo. Il y a des codecs libres, des formats qui sont libres, mais, dans la vidéo et dans l’audio, il y a des formats qui ont des brevets. Comment VLC gère cette situation ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Il y a deux endroits, les deux pires endroits au monde pour les brevets, c’est le multimédia et la 3G, grosso modo. Ce sont ce qu’on appelle des <em>minefields</em>, c’est-à-dire des champs de mines au niveau brevet. Tout est breveté. Le concept de base est breveté. Philips a attaqué plein de boîtes jusqu’à il y a trois ans sur les sous-titres parce que le concept de sous-titre était breveté.<br />
<br />
<b>Frédéric Couchet : </b>Sérieusement ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Oui, sérieusement. Et ce n’est que des trucs comme ça. C’est pour ça que beaucoup de gens n’aiment pas trop le multimédia parce qu’ils ont très peur. Notamment il y a pas mal de distributions Linux qui sont basées aux États-Unis et qui ont très peur de ça parce qu’il y a beaucoup d’attaques qui se font et on parle de grosses sommes. Donc c‘est pour ça que c’est un peu l’enfer. Nous, VLC, on n’est pas à supporter un ou deux formats, on supporte tous les formats.<br />
<br />
<b>Frédéric Couchet : </b>Donc les formats brevetés.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Si je devais payer les prix de toutes les licences, je pense que pour chaque VLC on serait à peu près à une centaine, cent cinquantaine d’euros par VLC distribué. Évidemment ça n’a aucun sens. Là on a la chance d’être en France et la France est un des derniers pays occidentaux à avoir une législation sur les brevets logiciels à peu près saine. Je dis « à peu près saine » parce que ça bouge beaucoup, en fait on est les moins pires, on peut déjà dire ça. En théorie les brevets logiciels ne sont pas valables au niveau européen, ça a été rejeté plusieurs fois par le Parlement. Malgré tout, notamment les Allemands et l’Office européen des brevets acceptent des brevets logiciels s’ils apportent vraiment une innovation donc ce n’est pas très clair. En tout cas, en France, c’est assez clair et surtout personne n’a envie de savoir la vérité, parce qu’ils savent que s’ils se mettent à nous attaquer, d’abord il n’y a pas d’argent à récupérer chez VideoLAN, mais surtout ils savent qu’on va les faire chier et qu’on ira jusqu’à la Cour européenne des droits de l’homme ; on va faire tout le process, ça prendra dix ans, mais à la fin, le risque, c’est que tous les brevets logiciels seront invalidés et ça, ils ne veulent pas. Donc leur statu quo ne les arrange pas mal. Pour le moment on n’a pas ce problème-là. Ensuite moi, en fait, non seulement je suis technique, mais je comprends le droit. Je reçois souvent des lettres d’avocat qui me disent « Oh la, la, tu violes ce brevet ». Moi je lis le brevet je dis « non ». Ils font : « Si ». Je fais « Eh bien non, parce que je ne fais pas le <em>claim</em>, comme ça, etc. »<br />
<br />
<b>Frédéric Couchet : </b>Le quoi ? Le <em>claim</em> ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Les brevets c’est très compliqué.<br />
<br />
<b>Frédéric Couchet : </b>Ah oui, le <em>claim</em>, c, l, a, i, m. Comment on dit en français ? La prétention.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Ouais, tu prétends plein de choses, tu en as une centaine et, à partir du moment où tu montres que la prétention est fausse, tu ne valides pas le brevet. Sauf que moi je suis suffisamment bête pour passer une heure à aller lire le brevet, à essayer de comprendre ce qui se passe et dire « en fait vote brevet n’est pas vraiment valide parce que... » Ça m’est arrivé plusieurs fois de leur montrer que ce qu’ils brevetaient été déjà dans VLC et que j’avais l’historique git, donc je pouvais savoir quand ça avait été commité. Là déjà tu sens que les mecs ??? et qu’on ne va pas trop t’embêter et surtout je leur dis « votre brevet parce qu’il y a déjà quelqu’un qui a déjà fait ou alors moi je peux le contourner ». Et ils ne sont pas habitués parce que c’est un système mafieux. En fait, ils arrivent, ils te font peur, ils te disent : « Si jamais je t’attaque ça va te coûter un million d’euros ou alors tu peux me payer la licence de 50 000 » ; donc tu ne prends pas le risques, tu payes. Moi je n’ai pas d’argent et surtout je n’ai rien à perdre. Donc je leur réponds et, résultat, ça fait partir la plupart de ces gens-là. <br />
<br />
<b>Frédéric Couchet : </b>D’accord. C’est excellent parce que, comme j’ai dit tout à l’heure, en fin d’émission on va reparler de ce sujet, notamment avec un brevet dans un autre domaine qui est celui des images avec GNOME qui a exactement la même réaction, qui se fait attaquer et qui réagit.<br/><br />
Comme le temps fil et tout à l’heure tu as dit qu’aujourd’hui VLC était développé principalement, enfin en tout cas le cœur, par cinq personnes, en fait qui paye ces gens-là ? Comment est financé le développement de VLC ? Et je te demanderai aussi de faire le lien avec ta société, Videolabs, qui contribue au financement de VLC.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Sur la plupart de l’histoire de VLC, ce n’était que des gens qui travaillaient sur leur temps libre, des étudiants, c’est comme ça que j’ai fait jusqu’en 2012, j’avais une deuxième vie le soir, le week-end, en vacances. On a eu un petit problème qui a commencé et que j’avais vu, notamment en discutant avec GNOME et les gens de KDE, de se rendre compte qu’en fait que le pic du logiciel libre desktop c‘était 2009/2012, tous les cadors c’étaient les mecs qui faisaient ça et après on a vu les contributions commencer à se réduire, notamment parce que les étudiants veulent faire une nouvelle start-up, ils veulent faire un nouveau jeu vidéo ; maintenant grâce aux plateformes ça n’a jamais été aussi facile de publier sur Android, sur iOS ou faire <em>Flappy Bird</em> que bosser sur VLC.<br/><br />
Et il y a eu une professionnalisation autour de l’<em>open source</em> c’est-à-dire vraiment la partie non libre, c’est-à-dire la partie Google, Facebook, etc., qui est surtout la partie serveur <em>side</em>.<br />
<br />
<b>Frédéric Couchet : </b>Le côté serveur.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Oui, côté serveur. La partie vraiment logiciel libre sur le bureau c’est quelque chose qui se raréfie, en tout cas en proportion, donc c’est de plus en plus difficile d’avoir des gens qui veulent bien travailler là-dessus et sur leur temps libre, parce que sur leur temps libre ils préfèrent faire des apps et, surtout, ils se sont tous fait rafler par Google, Facebook et autres. Le deuxième truc c’est qu’on s’est rendu compte que pour travailler pour le futur VLC il fallait passer par les Smart TV et les smartphones, qui sont tout sauf <em>smart</em>, mais en tout cas c’est beaucoup plus contraignant de travailler dans ces environnements, de développer pour ces environnements-là. Tu ne peux pas demander aux gens sur le temps libre d’avoir une version professionnelle de VLC là-dessus.<br/><br />
Je voulais créer une sous-société de VideoLAN, comme fait Mozilla, Mozilla org et Mozilla Foundation. L’association m’a dit que ce n’était pas une bonne idée, donc j’ai créé une société à côté et j’ai embauché des gens de la communauté pour faire avancer VLC. Maintenant j’ai une boîte qui s’appelle Videolabs, qui ne produit quasiment exclusivement que du logiciel libre. On fait un peu de conseil, mais on fait surtout du logiciel libre et ça permet d’accélérer VLC et une grosse partie du travail de l’entreprise, c’est-à-dire plus de 50 %, n’a pas de clients, c’est juste améliorer VLC. Il y a encore des gros développeurs qui ne sont pas dans la société et c’est comme ça. Malheureusement il y a un problème, tu parlais de problème de financement, c’est qu’aujourd’hui il n’existe pas de business modèle B2C [<em> business to consumer</em>] <em>open source</em>.<br />
<br />
<b>Frédéric Couchet : </b>B2C ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Pour le grand public, donc c’est très difficile de trouver de l’argent pour payer les gens pour continuer à faire développer VLC. Les gens me disent : « Pourquoi tu continues à faire développer VLC ? » En fait, c’est justement parce que tu ne t’en rends pas compte que ça marche. Il y a toujours de nouveaux formats, H.264, H.265, HEVC, on parle de 4k, on parle de HDR et nous on travaille énormément derrière pour que VLC suive les évolutions en même temps, comme ça les utilisateurs ne se rendent pas compte ils disent : « Ça marche toujours ! » Ça marche toujours justement parce qu’on fait cet effort. Et ça, ça coûte de l’argent !<br />
<br />
<b>Frédéric Couchet : </b>En parlant d’argent, rapidement, pendant la pause musicale, tu me parlais techniquement du <em<sandboxing</em>, donc le bac à sable pour la partie sécurisation et tu m’as dit un chiffre…<br />
<br />
<b>Jean-Baptiste Kempf : </b>Un million d’euros. Pour améliorer énormément la sécurité de VLC, il faut le faire, il faut un million d’euros et je vais aller demander un peu d’argent au ministère de la Défense pour une subvention, je vais utiliser les techniques de start-up pour aller vérifier si ça ne peut pas intéresser le ministère de la Défense.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Il nous reste peu de temps. Je vais relayer une question que j’ai eue en préparant l’émission sur le salon web et qui concerne une façon de contribuer à VLC qui est moins technique, qui concerne la documentation, même si la documentation ça reste quand même un petit peu technique mais moins que coder en langage C. La question portait sur l’opération Google Season of Docs, donc la saison de la documentation, qui est une manière pour des rédacteurs et des rédactrices techniques d’être rémunérés par Google pour travailler sur des projets libres et améliorer la documentation. Visiblement VLC a eu recours à cette opération. Est-ce que tu as un retour d’expérience ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Oui, On a toujours fait partie de Summer of Code. Là il y avait Season of Docs qui était quelque chose de nouveau. On l’a fait. On a une étudiante qui s’appelle Edi, en fait son nom est un peu long j’ai un peu de mal à le prononcer, on l’appelle Edi ; c’est une femme qui habite à Lagos au Nigéria et elle en train de refaire la documentation utilisateur de VLC qui est un sujet dont on parle depuis dix ans. C’est vrai que la documentation de VLC est vraiment honteuse par rapport à la qualité du logiciel. Je ne dirais que c’est moins technique je pense que c’est plus difficile que coder. Moi je ne suis pas capable de coder (???), je serais incapable de faire une documentation, c‘est vraiment très long, très difficile et je pense que c’est quasiment aussi difficile que les transcriptions de Marie-Odile. <br />
<br />
<b>Frédéric Couchet : </b>C’est vrai. Tu as tout à fait raison. Deux petites question, pareil, que j’ai reçues en préparant. À quand une vidéothèque où on pourra classer, chercher films et séries ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>4.0. C’est en bêta. Tu prends les <em>nightly builds</em> de VLC, il y a tout ça.<br />
<br />
<b>Frédéric Couchet : </b>Les <em>nightly builds</em>. les compilations de tous les soirs. Mais pour quelqu’un qui veut installer sur sa distribution GNU/Linux ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Fin de l’année.<br />
<br />
<b>Frédéric Couchet : </b>Fin de l’année, 2019 donc. Pour Noël.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Fin de l’année 2019 plus quelques mois de retard, mais c’est à peu près ça. C’est quasiment fini. On a justement tout ça, justement une sorte de iTunes mais beaucoup plus simple, beaucoup plus rapide et sans avoir un média center complet comme ???, un truc un peu simple et absolument optionnel. Si les gens veulent juste garder le VLC, ils ont juste le VLC.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Autre question qu’on m’a relayée ou une suggestion : ce serait bien que les devs de VLC, donc les personnes qui développent VLC, y ajoutent un coupeur de vidéo intégré pour couper des longues vidéos en plusieurs petites séquences de trois à cinq minutes. Est-ce que c’est prévu ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Techniquement tu peux déjà le faire dans VLC, c’est juste hyper-compliqué à faire parce que tu as le bouton « record » qui permet de le faire. La fonctionnalité, si je comprends bien, c’est la fonctionnalité qui ressemble à celle que QuickTime avait, qui permet de couper. En fait, ça met juste des marqueurs dans la vidéo et ce n’est pas très compliqué à faire. Ce qui est plus compliqué c’est de trouver une interface correcte pour le faire, je ne sais pas comment on pourrait faire ça dans une interface. Je vais y réfléchir. Il faut que je démarre mon Mac pour voir comment fait QuickTime et je pourrai faire ça.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Dernière question. Je te laisse le mot de la fin. On a beaucoup parlé de vidéos et j’ai une petite question personnelle parce que j’ai cru comprendre que tu appréciais les séries, les films, est-ce que tu as des conseils de séries ou de films pour les personnes qui nous écoutent ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>De séries ou de films ? Moi j’ai plutôt des conseils de bouquins en fait.<br />
<br />
<b>Frédéric Couchet : </b>Bouquins, vas-y.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Le meilleur livre au monde s’appelle <em>Le Nom du vent</em> de Patrick Rothfuss. Je suis désolé, je vais vous le conseiller, vous allez me détester après quelques mois. En fait il n’y a que deux volumes qui sont sortis et c’est absolument addictif. Dans le même style je vous conseille à peu près tous les Brandon Sanderson mais pareil, il ne faut pas commencer son grand chef-d’œuvre, parce qu’il n’a que trois bouquins de 1200 pages et il y en 14 qui sont prêts. En tout cas, il a fait plein de nouvelles et c’est absolument génial. Donc Brandon Sanderson et Patrick Rothfuss, ce sont mes grands coups de cœur dernièrement de bouquins.<br />
<br />
<b>Frédéric Couchet : </b>Super. Est-ce que tu as quelque chose à ajouter ou une annonce à faire en cette fin de sujet ?<br />
<br />
<b>Jean-Baptiste Kempf : </b>Rien de spécial. Utilisez VLC. Continuez à soutenir VLC. Bizarrement VLC est très connu à l’étranger et, en France, il y a parfois un petit désamour ; je pense qu’on n’est jamais prophète en son pays ! En tout cas continuez à parler de VLC parce qu’on en a besoin même si on a l’impression que tout le monde connaît. Vu l’émergence des plateformes qui arrivent avec Netflix et des plateformes qui ne sont pas très ouvertes, par très loyales, c’est important plus que jamais de libérer la vidéo.<br />
<br />
<b>Frédéric Couchet : </b>En tout cas merci Jean-Batiste. C’était jean-Baptiste Kempf de VLC, du projet VideoLAN, de Videolabs. En tout cas merci pour ce que vous faites et je te souhaite une belle journée.<br />
<br />
<b>Jean-Baptiste Kempf : </b>Je te remercie.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons faire une pause musicale. Avant ça je vais répondre à la première question du quiz. Lors de l’émission du 22 octobre 2019 nous avons parlé de Google et des assistants personnels connectés. La question c’est : par quel prénom et pourquoi on avait proposé de renommer les assistants personnels connectés ? La réponse c’est le prénom Harry en référence au film <em>Harry, un ami qui vous veut du bien</em>, un film de 2000 où Michel retrouve par hasard un ami d’enfance prénommé Harry. Harry va s’insinuer progressivement dans la vie de Michel et va se mettre à éliminer toutes les personnes qui, selon lui, peuvent nuire à l’épanouissement de Michel. C’est pour ça qu’on avait proposé de renommer les assistants personnels par Harry.<br />
<br />
La pause musicale. Nous allons écouter <em>For Such a Thing to Land</em> par Mela. On se retrouve juste après. Belle journée à l’écoute de Cause Commune.<br />
<br />
<b>Pause musicale : </b><em>For Such a Thing to Land</em> par Mela.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>For Such a Thing to Land</em> par Mela, disponible sous licence libre Creative Commons Partage dans les mêmes conditions.<br/><br />
<br />
Vous êtes toujours avec l’April pour l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 FM en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
Nous allons passer au sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
== [Chronique de Jean-Christophe Becquet, président de l'April, sur Wikidata (relier tous les savoirs du monde)]==<br />
<br />
<b>Frédéric Couchet : </b>Textes, images, vidéos ou bases de données, sélectionnés pour leur intérêt artistique, pédagogique, insolite, utile, Jean-Christophe Becquet, président de l’April, nous présente une ressource sous une licence libre. Les auteurs de ces pépites ont choisi de mettre l’accent sur les libertés accordées à leur public, parfois avec la complicité du chroniqueur. C’est donc la chronique « Pépites libres ».Bonjour Jean-Christophe.<br />
<br />
<b>Jean-Christophe Becquet : </b>Bonjour. Bonjour à tous et à toutes.<br />
Wikipédia est le projet le plus connu parmi les projets libres portés par la Fondation Wikimedia mais c'est loin d'être le seul. Je pense par exemple à la médiathèque Wikimedia Commons sur laquelle s'appuie le concours mondial de photos libres Wiki Loves Monuments dont je parlais dans ma dernière chronique. On peut citer également sans prétendre à l'exhaustivité : Wikiquote, le répertoire libre de citations, Wikispecies, le catalogue libre des espèces vivantes ou encore MediaWiki, le logiciel libre qui sert de socle technique à l'ensemble de ces travaux.<br />
<br />
Wikidata qui fête aujourd'hui son septième anniversaire est beaucoup moins connu et beaucoup moins visible. Il vise pourtant à relever un défi impressionnant que je résumerai par cette maxime : « relier tous les savoirs du monde ».<br />
<br />
Un des principes fondamentaux de l'open data défini par la Sunlight Foundation en 2007 est que les données doivent être « lisibles par une machine ». Les articles Wikipédia, même s'ils sont souvent disponibles dans plusieurs dizaines de langues, sont rédigés à destination de lecteurs humains. Ils ne répondent pas à ce critère. Il faut en effet accéder à la compréhension du texte pour extraire les informations pertinentes et surtout les liens entre les concepts. Par exemple, la page Wikipédia de la ville de Digne-les-Bains dans sa section « Personnalités liées à la commune » mentionne le scientifique Pierre Gassendi. Mais il faut savoir que sa commune de naissance, Champtercier est un village voisin de la cité préfectorale pour comprendre le lien avec le personnage. Quant à l'exploratrice Alexandra David-Néel, on doit analyser une phrase complexe qui croise diverses informations pour comprendre qu'elle est morte à Digne en 1969.<br />
<br />
Wikidata offre un accès à l'information un peu moins convivial mais plus structuré que Wikipédia. Pour chaque objet qui peut être une ville, un personnage, une œuvre d'art… il énonce des faits comme sa population, sa date de naissance ou son lieu d'exposition. Et surtout il décrit de manière extrêmement précise les relations entre ces éléments. On pourra ainsi par exemple retrouver la liste des œuvres réalisées par un artiste né dans une ville donnée. De nombreux autres champs de connaissances sont couverts par Wikidata comme la politique, la philosophie, la biologie, l'anatomie, l'astronomie… Wikidata a dépassé récemment les 70 millions d'éléments, c'est vraiment impressionnant !<br />
<br />
Un langage de requête dénommé SPARQL permet de poser toutes sortes de questions sur la base Wikidata. C'est un peu compliqué au début, mais on trouve plein d'exemples en ligne et il existe un assistant visuel pour écrire ses premières requêtes. Il devient alors absolument fascinant de parcourir les liens entre toutes ces graines de savoir.<br />
<br />
Cette énorme base de données est sous licence Creative Commons Zéro. Cette licence très permissive cherche à se rapprocher le plus possible du domaine public selon les lois en vigueur dans chaque pays. En effet, en droit français par exemple, il n'est pas possible de verser volontairement une œuvre dans le domaine public. Il faut attendre 70 ans après la mort de l'auteur.<br />
<br />
Pour terminer, j'ai demandé à Wikidata de rechercher tous les éléments qui ont la valeur 42 pour une de leurs propriétés. La requête donne 38 407 résultats. Il peut s'agir de l'altitude d'un aéroport en Inde, le nombre de mariages pour l'année 2016 d'une commune belge, de la longueur d'une voie expresse en Corée du Sud, de nombre de matchs joués par un joueur de football brésilien, de la pression de vapeur d'un composé chimique ou de la durée de gestation du lièvre de Californie… Vous l'aurez compris, ça donne le vertige. Et bien sûr, l'item numéroté Q42 décrit Douglas Adams, l'écrivain britannique auteur du célèbre <em>Guide du voyageur galactique</em>.<br />
<br />
<b>Frédéric Couchet : </b> Merci Jean-Christophe. Tu indiques dans ta chronique donc que la licence donc c'est la Creative Common Zéro. En préparant l'émission, j'ai vu que la page Wikipédia consacrée à Wikidata évoque un risque possible. Je lis. Le risque c'est que le fait que les données de wikidata sous licence Creative Common CC0 puissent être réutilisées par Google ou tout autre moteur de recherche pourrait alors amener moins de consultations de Wikipedia du fait que les quelques 20 % de requêtes de web sémentiques pourraient être directement résolues par le moteur de Google. Quel est ton sentiment sur cette question ?<br />
<br />
<b>Jean-Christophe Becquet : </b> Alors effectivement, c'est un sujet délicat lorsqu'on doit choisir une licence libre. C'est la question de la clause copyleft en fait. Les autres projets dont j'ai parlé dans les chroniques précédentes Wikipédia, Wikimedia commons, sont des projets qui ont fait le choix d'une licence copyleft. C'est le cas aussi d'Openstreet map dont on a déjà parlé dans <em>Libre à vous !</em>. C'est-à-dire que toute base dérivée de la base initialement sous licence libre, si elle fait l'objet d'une publication doit à son tour être partagée sous licence libre. Dans le cas de Wikidata, on a une licence qui est non copyleft. C'est-à-dire qu'il est permis de rééutiliser cette base de données sans obligation de publier les versions dérivées, de partager les versions dérivées sous licence libre. L'inconvénient c'est qu'effectivement, ça permet à des acteurs du monde propriétaire de récupérer ces données et d'en faire usage sans reverser au libre leurs éventuelles améliorations. L'avantage par contre, c'est plus d'opportunités d'utlisation. C'est-à-dire qu'on ne se prive pas des rééutilisateurs qui seraient gênés par la clause copyleft et qui iraient voir ailleurs. Donc voilà, je pense que c'est ce qui a porté en fait en 2012 lorsque les fondateurs, des membres de la communauté wikimedia allemande ont initié le projet wikidata. Je pense qu'ils ont choisi cette licence Creative Commons Zero pour son ouverture et en renoncant du coup à la clause copyleft qui fait obligation aux rééutilisateurs de partager leurs modifications à leur tour sous licence libre. <br />
<br />
<b>Frédéric Couchet : </b></div>D Ohttps://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_29_octobre_2019&diff=86256Libre à vous ! Radio Cause Commune - Transcription de l'émission du 29 octobre 20192019-10-31T02:40:37Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 29 octobre 2019 sur radio Cause Commune<br />
<br />
'''Intervenant·e·s :''' Marie-Odile Morandi - Jean-Baptiste Kempf - Jean-Christophe Becquet - Frédéric Couchet - à la régie<br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 29 octobre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20191029/libre-a-vous-20191029.ogg Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-29-octobre-2019-sur-radio-cause-commune-espaces-publics-numeriques-droit Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
<br />
Transcrit<br />
<br />
==Transcription==<br />
<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 en Île-de-France et partout dans le monde sur le site causecommune.fm. La radio dispose également d’une application Cause Commune pour téléphone mobile.<br/><br />
Merci à vous d’être avec nous aujourd’hui.<br/><br />
La radio dispose également d’un salon web, utilisez votre navigateur web, rendez-vous sur le site de la radio, causecommune.fm, cliquez sur « chat » et retrouvez-nous ainsi sur le salon dédié à l’émission.<br/><br />
Nous sommes mardi 29 octobre 2019, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast. [prononcé p-o-d cast]. Je repends mes vieilles habitudes de prononciation !<br />
<br />
Soyez les bienvenus pour cette nouvelle édition de <em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.<br/><br />
<br />
Aujourd’hui c’est une émission exceptionnelle, car c’est la 42ᵉ émission de <em>Libre à vous !</em> et 42 est un nombre fétiche dans la culture geek, informatique, la culture de l’imaginaire. C’est issu de l’œuvre de science-fiction de Douglas Adams qui était originellement un feuilleton radiophonique sur la BBC, totalement déjanté, et ensuite une série de livres <em>Le guide du voyageur galactique</em>. Imaginez un peuple extraterrestre, intelligent, qui construit le plus puissant ordinateur de tous les temps pour trouver la réponse à la question sur la vie, l’univers et le reste. Après 7,5 millions d’années de calcul et de réflexion, l’ordinateur propose la réponse : 42. Le problème, c’est que personne n’a jamais su vraiment la question précise.<br/><br />
Pour connaître la suite de l’histoire, je vous invite à lire l’œuvre de Douglas Adams et nous allons faire dans l’émission quelques clins d’œil à cette œuvre de Douglas Adams.<br/><br />
Déjà pour les personnes qui partent en vacances ou autre, n’oubliez pas, évidemment, de prendre avec vous des podcasts de Cause Commune pour accompagner votre voyage et n’oubliez pas, surtout, votre serviette c’est en effet l’outil indispensable pour tout voyageur galactique qu’il doit avoir ou qu’elle doit avoir en permanence.<br />
<br />
Le site web de l’April c’est april.org et vous y trouvez d’ores et déjà une page consacrée à l’émission avec toutes les références utiles, les détails sur les pauses musicales et les moyens de nous contacter.<br />
<br />
Si vous souhaitez réagir, poser une question pendant ce direct, n’hésitez pas à vous connecter sur le salon web de la radio, donc sur causecommune.fm, et vous pouvez également nous appeler 09 50 39 67 59 ; je répète 09 50 39 67 59.<br/><br />
<br />
Nous vous souhaitons une excellente écoute.<br />
<br />
Voici maintenant le programme de l’émission.<br/><br />
Dans quelques secondes nous allons commencer par la chronique de Marie-Odile Morandi, animatrice du groupe Transcriptions, qui va nous parler de communs numériques.<br/><br />
D’ici dix à quinze minutes nous aborderons notre sujet principal qui portera sur le fameux lecteur multimédia libre VLC avec notre invité Jean-Baptiste Kempf.<br/><br />
En fin d’émission nous aurons la chronique de Jean-Christophe Becquet, président de l’April, sur Wikidata, relier tous les serveurs du monde.<br/><br />
À la réalisation de l’émission aujourd’hui Étienne Gonnu. Bonjour Étienne.<br />
<br />
<b>Étienne Gonnu : </b>Salut Fred.<br />
<br />
<b>Frédéric Couchet : </b>Comme à chaque émission on va vous proposer un petit quiz. Vous pouvez proposer des réponses soit sur le salon web, soit sur les réseaux sociaux.<br/><br />
Première question : lors de l’émission du 15 octobre 2019, nous avons parlé de Google et des assistants personnels connectés. Par quel prénom et pourquoi on a proposé de renommer les assistants personnels connectés ?<br />
Deuxième question : nous allons parler du lecteur multimédia libre VLC au cours de cette émission. Savez-vous pourquoi l’icône de VLC est un cône de chantier ?<br/><br />
<br />
Tout de suite place au premier sujet.<br />
<br />
[Virgule musicale]<br />
<br />
==[Chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi]==<br />
<br />
<b>Frédéric Couchet : </b>Les choix voire les coups de cœur de Marie-Odile Morandi qui met en valeur deux ou trois transcriptions dont elle conseille la lecture, c’est la chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi, animatrice du groupe Transcriptions. Bonjour Marie-Odile.<br />
<br />
<b>Marie-Odile Morandi : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Le sujet du jour dont tu souhaites nous parler aujourd’hui : les communs numériques. Nous t’écoutons. <br />
<br />
<b>Marie-Odile Morandi : </b>Effectivement ce mois-ci dans la chronique j’ai souhaité faire une rétrospective des transcriptions de conférences et interventions de Lionel Maurel, publiées par notre groupe, de « La dictature du copyright » à « Faire atterrir les communs numériques » sur le sol terrestre.<br />
Les transcriptions auxquelles je vais me référer sont listées à l’onglet références de la page relative à l’émission d’aujourd’hui sur le site april.org, mais il y en a aussi d’autres que vous pouvez retrouver sur la partie consacrée aux transcriptions, toujours sur le site de l’April.<br />
<br />
Pour savoir qui est Lionel Maurel et quels sont ses sujets de prédilection, je vais m’appuyer sur la transcription de l’émission 13 du <em>Vinvinteur</em> qui date de 2013, d’une durée d’une quarantaine de minutes ; à noter que cette émission n’existe plus. Lionel Maurel y était interviewé par Jean-Marc Manach. Il nous explique que le pseudo qu’il a choisi, Calimaq, fait référence à un certain Callimaque de Cyrène, un des premiers bibliothécaires de la bibliothèque d'Alexandrie dans l’Antiquité. En effet, Lionel est à la fois bibliothécaire et juriste d’où aussi le nom de son blog : <em>lex</em>, la loi et SI sciences de l’information donc SI.Lex. Avec cette double casquette, Lionel s’intéresse aux problèmes juridiques liés au droit d’auteur et aux licences libres qui, dit-il, « mettent le droit d'auteur sens dessus dessous en laissant l’auteur au centre du dispositif ».<br />
Dans cet entretien il explique ce que sont les biens communs avec la nécessaire prise de conscience qu'il y a un écosystème numérique dans lequel il faut défendre la neutralité du Net et préserver certaines libertés essentielles avec des références au logiciel libre et à l’intelligence collective.<br />
<br />
Je vous laisse lire cette transcription avec en bonus les explications que donne Lionel Maurel concernant la compilation hebdomadaire qu’il réalise, le Copyright Madness, c’est-à-dire les dérives de la propriété intellectuelle, du droit des marques et du droit des brevets, ce qui, généralement, ne manque pas de sel.<br />
<br />
Concernant le droit d’auteur, nous avions transcrit une intervention de Lionel Maurel à l’université de Compiègne en 2016 intitulée « Contenus numériques : droit d'auteur et licences libres » qui dure une heure et 40 minutes. Cette intervention est un cours complet et j’invite toutes les personnes qui sont intéressées par ce sujet, soit personnellement, soit dans un cadre professionnel, à écouter ce cours et à relire sa transcription : les thèmes abordés vont des notions de base du droit d’auteur, son fonctionnement, sa gestion, ses exceptions, pour arriver à l’application de ce droit sur Internet et terminer par les licences Creative Commons auxquelles est faite une large part. C’est un ensemble très complet qui mérite vraiment d’être relu régulièrement. <br />
<br />
Toujours concernant les licences libres, Lionel Maurel avait fait une intervention d’une dizaine de minutes au Paris Open Source Summit de 2017 intitulée : « Creative Commons. Où en est-on en 2017 ? »<br />
Il rappelle l’origine de ces licences, c’est-à-dire la façon dont Lawrence Lessig aux États-Unis, suite à sa défaite en tant qu’avocat pour empêcher l’allongement de 50 à 70 ans du copyright après la mort de l’auteur, souhaite « redonner directement aux créateurs le pouvoir de changer les choses et d’ouvrir leurs œuvres directement à la base en utilisant leur droit d’auteur non pas pour mettre des restrictions, mais pour donner des autorisations ». Il rappelle que certaines de ces licences ne le sont pas au sens classique des termes des licences pour les logiciels libres dont elles s’inspirent. Je mentionne que les musiques qui sont diffusées durant les émissions <em>Libre à vous !</em> sont réellement libres, c’est-à-dire Attribution et Partage à l’identique si elles sont publiées sous une licence Creative Commons.<br/><br />
Je vous laisse lire les conclusions de cette intervention, somme toutes optimistes, ce qui est de bonne augure, avec la présentation de belles réussites d’œuvres placées sous ces licences Creative Commons.<br />
<br />
Lionel Maurel s’intéresse aussi au matériel et il avait tenu une conférence d’environ une heure au festival Pas Sage En Seine de 2016 intitulée : « Que manque-t-il pour avoir des licences Open Hardware qui fonctionnent ».<br />
Avoir du matériel vraiment libre est un enjeu fort, mais difficile parce qu’on entre dans le champ de la propriété industrielle qui comporte d’autres droits, les dessins et modèles, les marques, les brevets. Le droit d’auteur et la propriété industrielle ne fonctionnent pas du tout de la même manière, les règles sont différentes : pour obtenir un droit de propriété industrielle il faut notamment faire un dépôt.<br/><br />
Actuellement ce mouvement se développe. Une fondation s’est montée, donne des instructions sur comment on doit faire pour être dans une démarche d’open source hardware et propose une définition : « conceptions réalisées publiquement et disponibles de manière à ce que n’importe qui puisse étudier, modifier, distribuer, créer et vendre un design ou un produit basé sur ce design », ce qui ressemble beaucoup à la définition du logiciel libre.<br />
<br />
Lionel Maurel estime qu’il y a trois stratégies possibles pour libérer le matériel :<br/><br />
<ul><br />
<li>la première serait de publier la documentation de ce qu’on a produit et verser directement l’invention dans le domaine public. Sauf qu’il existe aux États-Unis les <em>patent trolls</em> qui pourraient s’en servir. Ce sont ces sociétés qui ne fabriquent rien, déposent le plus de brevets possibles et vivent de la menace des procès qu’elles peuvent faire ;</li><br />
<li>deuxième pratique : documenter le projet : expliquer la démarche, le processus de fabrication, publier les plans, les fichiers de conception, préparer un maximum de documentation et tout publier sous licence libre. Sauf que la seule chose qui peut être protégée par le droit d’auteur c’est le texte de la documentation et absolument pas l’objet réalisé à partir de cette documentation ;</li><br />
<li>la dernière stratégie c’est de se dire, puisqu’il faut un brevet, eh bien déposons des brevets et ensuite ouvrons-les. Sauf qu’il faudra engager la procédure de dépôt, payer les coûts et, pour un petit constructeur, un petit inventeur, ce n’est certainement pas possible.</li><br />
</ul><br />
Lionel Maurel propose des solutions que je laisse découvrir aux auditeurs qui liront la transcription. Pour lui il y a là un champ sur lequel faire de la recherche. Il appelle les personnes intéressées à participer car, dit-il, c’est un peu sous-estimé par le monde du Libre qui devrait être beaucoup plus présent sur le sujet.<br />
<br />
La dernière conférence en date qui a été transcrite est son intervention au Colloque « Territoires solidaires en commun : controverses à l'horizon du translocalisme », de juin 2019 et qui dure environ une heure.<br />
<br />
Là encore, il nous propose quelque chose de très complet, très documenté, avec des références à de nombreux auteurs ce qui permettra aux personnes qui le souhaitent d’approfondir leurs connaissances.<br />
<br />
Habituellement, dans notre esprit, nous distinguons les communs matériels, tangibles, des communs de la connaissance, des communs informationnels qui vont être des communs immatériels, intangibles.<br />
<br />
Charlotte Hess, qui a travaillé avec Elinor Ostrom, se pose la question : « C’est quoi Internet ? C’est la machine que j’ai devant moi. Il y a un fil. Le fil va à un serveur. Le serveur va à d’autres fils. D’autres ordinateurs sont reliés à ce serveur qui est relié à un système d’information. Ce réseau est relié par des câbles au réseau des réseaux qu’est Internet », et elle fait ainsi une description qui n’a absolument rien d’immatériel : Internet est indissociable d'un certain nombre d'objets – ordinateurs, câbles, serveurs. Donc, nous dit-elle : « On peut penser Internet comme un commun local et global », montrant que les communs de la connaissance ont une dimension matérielle.<br />
Sur Internet, tout ce que vous allez échanger va laisser une trace quelque part et cette trace n’est pas du tout virtuelle, elle est matérielle parce qu’elle est inscrite dans une infrastructure physique. Nos données ne sont pas du tout stockées dans un nuage, elles sont stockées dans des <em>datacenters</em>, ces immenses hangars extrêmement matériels ; c’est la fameuse phrase « le cloud, le nuage, c’est toujours l’ordinateur de quelqu’un d’autre. »<br/><br />
Donc le fait de nous présenter Internet comme quelque chose d’immatériel est extrêmement faux. L’idée selon laquelle le numérique allait nous permettre de produire les choses avec moins de matière est elle aussi fausse. On lit régulièrement que la consommation électrique due à Internet est préoccupante, à laquelle il faut ajouter les coûts de production des machines, sans oublier les déchets en fin de course qui sont difficilement recyclables. D’où les problèmes sur l’environnement. On en revient à des sujets d’actualité.<br />
<br />
Selon un des auteurs cités, une réelle émancipation « impliquera de se réapproprier toute cette chaîne logistique numérique aujourd’hui intégralement privatisée et aliénée ». Il faut qu’on fasse des centres de stockage des données autogérés et contrôlés par nous-mêmes.<br />
<br />
Lionel Maurel nous rappelle alors l’existence des fournisseurs d’accès à Internet associatifs, c’est-à-dire ces associations qui disent : « L’accès à Internet est un droit fondamental, donc nous allons tirer des câbles et nous gérerons nous-mêmes la couche physique du réseau. »<br />
Lionel Maurel nous rappelle les projets de l’association Framasoft et l’excellente idée du collectif d’hébergeurs CHATONS. Nos données se trouveront à un niveau local, sur les serveurs d’une entreprise ou d’une association proche de chez nous, qui a signé une charte avec notamment la clause de ne pas utiliser nos données personnelles, donc respect de la vie privée.<br />
Ainsi Internet redevient « translocal », thème de cette conférence.<br/><br />
Actuellement de nombreux penseurs s’interrogent sur la matérialité d’Internet et sur son coût écologique que nous avons sans doute négligé.<br />
<br />
Cette dernière conférence m’a particulièrement intéressée, avec, il me semble, une évolution de la pensée, et j’ai souhaité partager.<br />
Transcrire les conférences de Lionel Maurel, défenseur de longue date des logiciels libres, est toujours un plaisir. N’hésitez pas à rejoindre notre groupe Transcriptions, vous ne le regretterez pas.<br />
<br />
<b>Frédéric Couchet : </b>Merci Marie-Odile. Tu nous a donné envie de lire ces conférences de Lionel Maurel. <br/><br />
Je précise que le collectif CHATONS est le Collectif des Hébergeurs Alternatifs Transparents Ouverts Neutres et Solidaires dont nous avons déjà parlé dans les émissions <em>Libre à vous!</em> du 18 juin et du 16 avril 2019. Vous retrouverez les podcasts sur april.org et causecommune.fm. Je précise également que tu as parlé des <em>patent trolls</em>, de ces trolls de brevets. On en reparlera rapidement en fin d’émission parce que c’est dans l’actualité.<br/><br />
Marie-Odile je te remercie et je te souhaite de passer une belle journée.<br />
<br />
<b>Marie-Odile Morandi : </b>À vous de même. Bonne soirée.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>On va passer une pause musicale. Nous allons écouter <em>La fin de Saint Valéry</em> par Ehma. On se retrouve juste après. Belle journée à l’écoute de Cause Commune.<br />
<br />
<b>Pause musicale : </b>< em>La fin de Saint Valéry</em> par Ehma.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>La fin de Saint Valéry</em> par Ehma, disponible en licence Art libre. Vous retrouverez les références sur le site de l’April, april.org et sur le site de Cause Commune, causecommune.fm.<br />
<br />
Ne paniquez pas, vous êtes toujours sur l’émission <em>Libre à vous !</em> sur radio Cause commune 93.1 FM en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
<br />
Nous allons passer à notre sujet principal.<br />
<br />
[Virgule musicale]<br />
<br />
<br />
==[Le lecteur multimédia libre VLC - Jean-Baptiste Kempf,] 52 min 14 s==<br />
<br />
<b>Frédéric Couchet : </b>Nous allons donc poursuivre par notre sujet principal<br />
<br />
<br />
<br />
<br />
<br />
<br />
== [Chronique de Jean-Christophe Becquet, président de l'April, sur Wikidata (relier tous les savoirs du monde)]==<br />
<br />
<b>Frédéric Couchet : </b>Textes, images, vidéos ou bases de données, sélectionnés pour leur intérêt artistique, pédagogique, insolite, utile, Jean-Christophe Becquet, président de l’April, nous présente une ressource sous une licence libre. Les auteurs de ces pépites ont choisi de mettre l’accent sur les libertés accordées à leur public, parfois avec la complicité du chroniqueur. C’est donc la chronique « Pépites libres ».Bonjour Jean-Christophe.<br />
<br />
<b>Jean-Christophe Becquet : </b>Bonjour. Bonjour à tous et à toutes.<br />
Wikipédia est le projet le plus connu parmi les projets libres portés par la Fondation Wikimedia mais c'est loin d'être le seul. Je pense par exemple à la médiathèque Wikimedia Commons sur laquelle s'appuie le concours mondial de photos libres Wiki Loves Monuments dont je parlais dans ma dernière chronique. On peut citer également sans prétendre à l'exhaustivité : Wikiquote, le répertoire libre de citations, Wikispecies, le catalogue libre des espèces vivantes ou encore MediaWiki, le logiciel libre qui sert de socle technique à l'ensemble de ces travaux.<br />
<br />
Wikidata qui fête aujourd'hui son septième anniversaire est beaucoup moins connu et beaucoup moins visible. Il vise pourtant à relever un défi impressionnant que je résumerai par cette maxime : « relier tous les savoirs du monde ».<br />
<br />
Un des principes fondamentaux de l'open data défini par la Sunlight Foundation en 2007 est que les données doivent être « lisibles par une machine ». Les articles Wikipédia, même s'ils sont souvent disponibles dans plusieurs dizaines de langues, sont rédigés à destination de lecteurs humains. Ils ne répondent pas à ce critère. Il faut en effet accéder à la compréhension du texte pour extraire les informations pertinentes et surtout les liens entre les concepts. Par exemple, la page Wikipédia de la ville de Digne-les-Bains dans sa section « Personnalités liées à la commune » mentionne le scientifique Pierre Gassendi. Mais il faut savoir que sa commune de naissance, Champtercier est un village voisin de la cité préfectorale pour comprendre le lien avec le personnage. Quant à l'exploratrice Alexandra David-Néel, on doit analyser une phrase complexe qui croise diverses informations pour comprendre qu'elle est morte à Digne en 1969.<br />
<br />
Wikidata offre un accès à l'information un peu moins convivial mais plus structuré que Wikipédia. Pour chaque objet qui peut être une ville, un personnage, une œuvre d'art… il énonce des faits comme sa population, sa date de naissance ou son lieu d'exposition. Et surtout il décrit de manière extrêmement précise les relations entre ces éléments. On pourra ainsi par exemple retrouver la liste des œuvres réalisées par un artiste né dans une ville donnée. De nombreux autres champs de connaissances sont couverts par Wikidata comme la politique, la philosophie, la biologie, l'anatomie, l'astronomie… Wikidata a dépassé récemment les 70 millions d'éléments, c'est vraiment impressionnant !<br />
<br />
Un langage de requête dénommé SPARQL permet de poser toutes sortes de questions sur la base Wikidata. C'est un peu compliqué au début, mais on trouve plein d'exemples en ligne et il existe un assistant visuel pour écrire ses premières requêtes. Il devient alors absolument fascinant de parcourir les liens entre toutes ces graines de savoir.<br />
<br />
Cette énorme base de données est sous licence Creative Commons Zéro. Cette licence très permissive cherche à se rapprocher le plus possible du domaine public selon les lois en vigueur dans chaque pays. En effet, en droit français par exemple, il n'est pas possible de verser volontairement une œuvre dans le domaine public. Il faut attendre 70 ans après la mort de l'auteur.<br />
<br />
Pour terminer, j'ai demandé à Wikidata de rechercher tous les éléments qui ont la valeur 42 pour une de leurs propriétés. La requête donne 38 407 résultats. Il peut s'agir de l'altitude d'un aéroport en Inde, le nombre de mariages pour l'année 2016 d'une commune belge, de la longueur d'une voie expresse en Corée du Sud, de nombre de matchs joués par un joueur de football brésilien, de la pression de vapeur d'un composé chimique ou de la durée de gestation du lièvre de Californie… Vous l'aurez compris, ça donne le vertige. Et bien sûr, l'item numéroté Q42 décrit Douglas Adams, l'écrivain britannique auteur du célèbre <em>Guide du voyageur galactique</em>.<br />
<br />
<b>Frédéric Couchet : </b> Merci Jean-Christophe. Tu indiques dans ta chronique donc que la licence donc c'est la Creative Common Zéro</div>D Ohttps://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_22_octobre_2019&diff=86192Libre à vous ! Radio Cause Commune - Transcription de l'émission du 22 octobre 20192019-10-25T01:31:40Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 22 octobre 2019 sur radio Cause Commune<br />
<br />
'''Intervenant·e·s :''' Noémis Bergez - Mélissa Richard - Manuela Geirnaert - Vincent Calame - Frédéric Couchet - Patrick Creusot à la régie<br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 22 octobre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20191022/libre-a-vous-20191022.ogg Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-22-octobre-2019-sur-radio-cause-commune-espaces-publics-numeriques-droit Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
<br />
Transcrit MO<br />
<br />
==Transcription==<br />
<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 FM en Île-de-France et partout dans le monde sur le site causecommune.fm. La radio dispose également d’une application pour téléphone mobile que vous pouvez télécharger sur toutes les bonnes boutiques et notamment le magasin libre Fdroid.<br/><br />
Merci à vous d’être avec nous aujourd’hui.<br/><br />
La radio dispose également d’un <em>webchat</em>, utilisez votre navigateur, allez sur causecommune.fm, cliquez sur « chat » et vous pouvez nous rejoindre le salon dédié web à l’émission pour nous poser de questions, faire des remarques et vous pouvez également intervenir à l’antenne en direct en appelant le 09 50 39 67 59. N’hésitez surtout pas à appeler.<br/><br />
Nous sommes mardi 22 octobre 2019, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.<br />
<br />
Soyez les bienvenus pour cette nouvelle édition de <em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, son délégué général.<br/><br />
Le site web de l’association c’est april.org et vous y trouvez d’ores et déjà une page consacrée à l’émission avec des références que nous mettrons à jour évidemment après l’émission. N’hésitez pas également à nous faire des retours via les points de contact.<br/><br />
Nous vous souhaitons une excellente écoute.<br />
<br />
On va passer au programme de l’émission.<br/><br />
Nous allons commencer dans quelques secondes par la chronique de Noémie Bergez qui portera sur le droit au déréférencement.<br/><br />
D’ici dix/quinze minutes nous aborderons notre sujet principal qui portera sur les espaces publics numériques et les logiciels libres.<br/><br />
En fin d’émission nous aurons la chronique de Vincent Calame sur le thème « Google est ton ami ».<br/><br />
À la réalisation de l’émission aujourd’hui Patrick Creusot. Bonjour Patrick.<br />
<br />
<b>Patrick Creusot : </b>Bonjour à tout le monde et bonne émission.<br />
<br />
<b>Frédéric Couchet : </b>Merci Patrick.<br/><br />
Comme à chaque émission on va commencer par un petit quiz et on vous donnera les réponses au cours de l’émission.<br/><br />
Première question : lors de l’émission de la semaine dernière, 15 octobre 2019, nous étions avec le collectif Regards Citoyens. Vous connaissez sans doute les sites NosDéputés.fr et NosSénateurs.fr proposés par ce collectif, mais saurez-vous citer leur autre site qui facilite le suivi des travaux législatifs ?<br/><br />
Deuxième question : une de nos invitées d’aujourd’hui travaille au Carrefour numérique de la Cité des sciences et de l’industrie. Savez-vous de quand date le premier évènement logiciel libre d’importance à la Cité des sciences et de l’industrie ?<br/><br />
Les réponses en cours d’émission.<br/><br />
<br />
Tout de suite place au premier sujet.<br />
<br />
==2’ 27 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20191022/libre-a-vous-20191022-chronique-in-code-we-trust-noemie-bergez-droit-dereferencement.mp3 Chronique « <em>In code we trust</em> » de Noémie Bergez, avocate au cabinet Dune, sur le droit au déréférencement] 11 min 30 s ==<br />
<br />
<b>Frédéric Couchet : </b>Évoquer le code à la main une règle de droit ou un procès en lien avec les œuvres, les données, les logiciels ou les technologies c’est la chronique « <em>In code we trust</em> », « Dans le code nous croyons », de Noémie Bergez, avocate au cabinet Dune. Bonjour Noémie.<br />
<br />
<b>Noémie Bergez : </b>Bonjour Fred.<br />
<br />
<b>Frédéric Couchet : </b>Aujourd’hui tu souhaites nous parler du droit au déréférencement <br />
<br />
<b>Noémie Bergez : </b><br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<b>Frédéric Couchet : </b>Merci Noémie. Tu as cité beaucoup de références, évidemment, et j’invite les personnes qui écoutent l’émission à se rendre sur le site de l’April, april.org, ou sur le site de la radio causecommune.fm pour retrouver toutes les références que tu as citées. Nul doute que nous reviendrons sur ce sujet qui va prendre de plus en plus d’importance dans les années à venir.<br />
C’était la chronique de Noémie Bergez « <em>In code we trust</em> ». Je te souhaite une belle journée et puis au mois prochain ?<br />
<br />
<b>Noémie Bergez : </b>Merci. À très bientôt.<br />
<br />
<b>Frédéric Couchet : </b>On va faire une pause musicale.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons écouter <em>The Crosses of Annagh</em> par Sláinte, je ne sais pas trop comment ça se prononce, avec mon accent ce n’est pas terrible. et on se retrouve juste après. Belle journée sur Cause Commune.<br />
<br />
<b>Pause musicale : </b><em>The Crosses of Annagh</em> par Sláinte.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>The Crosses of Annagh</em> par Sláinte. Melissa, qui intervient juste, après me dit que ça se prononce à peu près comme ça, mais je ne pense pas l’avoir dit totalement correctement. En tout cas c’est un très beau morceau disponible sous licence Creative Commons Partage dans les mêmes conditions. Vous retrouverez les références sur april.org et sur causecommune.fm.<br />
<br />
Vous écoutez toujours l’émission <em>Libre à vous !</em> sur radio Cause commune 93.1 FM en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
<br />
Nous allons passer maintenant à notre sujet principal.<br />
<br />
[Virgule musicale]<br />
<br />
==18’ 30 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20191022/libre-a-vous-20191022-espaces-publices-numeriques-logiciels-libres-melissa-richard-manuela-geirnaert.mp3 Espaces publics numériques et logiciels libres avec Mélissa Richard, médiatrice numérique au Carrefour numérique, Cité des sciences et de l'industrie, et Manuela Geirnaert responsable du pôle multimédia de la Bibliothèque francophone multimédia de Limoges] 52 min 14 s==<br />
<br />
<b>Frédéric Couchet : </b>Nous allons donc poursuivre avec le sujet principal qui va porter aujourd’hui sur les espaces publics numériques et les logiciels libres. Nos invitées : Mélissa Richard, médiatrice numérique au Carrefour numérique de la Cité des sciences et de l'industrie. Bonjour Mélissa.<br />
<br />
<b>Mélissa Richard : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Et par téléphone Manuela Geirnaert, responsable du pôle Multimédia de la Bibliothèque francophone multimédia de Limoges. Bonjour Manuela.<br />
<br />
<b>Manuela Geirnaert : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Excuse-moi pour le démarrage, il est difficile.<br/><br />
Nous allons parler des espaces publics numériques et on va définir assez rapidement le terme parce qu’en préparant l’émission je pensais que beaucoup de gens connaissaient ce terme ; en fait on m’a dit que ce terme n’était pas forcément très connu. On va d’abord commencer par une petite présentation personnelle rapide de votre parcours. On va commencer par Mélissa, en quelques mots.<br />
<br />
<b>Mélissa Richard : </b>En quelques mots ! Hou là ! Je travaille au Carrefour numérique, je suis médiatrice numérique. J’y travaille depuis, on a dit quoi tout à l’heure ? six ans. Avant ça j’ai travaillé à la Quadrature du Net, je faisais notamment l’animation de communautés, donc une association de défense des libertés à l’ère du numérique. Pour en arriver là j’ai fait des études de droit et de journalisme, donc je ne travaille absolument pas dans mon domaine d’études.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Et toi Manuela ?<br />
<br />
<b>Manuela Geirnaert : </b>Je travaille à la Bibliothèque francophone multimédia de Limoges depuis 1997, donc ça remonte à quelques années. J’ai fait des études d’histoire et, en fait, ça n’a pas vraiment abouti à ce que je fais maintenant puisque depuis 1997 je m’occupe à la bibliothèque des ressources numériques, des ouvrages sur l’informatique et de l’animation à l’espace multimédia, donc accueil du public, animation d’ateliers, coordination d’animations. Depuis janvier 2017 j’ai pris la responsabilité du pôle Multimédia de la Bfl.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Merci. Déjà, première question, j’ai choisi le titre, le terme « espaces publics numériques » pour essayer de recouvrir des réalités assez différentes, on va le voir tout à l’heure. On va peut-être commencer par définir ce qu’est, selon vous, un espace public numérique. Manuela. <br />
<br />
<b>Manuela Geirnaert : </b>Pour moi, effectivement, un espace public numérique ça recouvre plusieurs réalités. Nous, à la Bibliothèque francophone multimédia, on l’appelle espace multimédia, mais on fait de la formation, on fait de l’accueil de public pour l’accès à Internet, on fait des animations. C’est vrai que ça recouvre quand même plus de choses. En plus, nous on est en train d’évoluer au niveau des services qu’on propose aux usagers, donc ça va quand même ressembler de plus en plus à un tiers-lieu.<br />
<br />
<b>Frédéric Couchet : </b>D’accord et de ton côté Mélissa, comment tu présenterais ça ?<br />
<br />
<b>Mélissa Richard : </b>Chez nous c’est pareil, c’est assez complexe parce qu’il y a aussi une bibliothèque à la Cité des sciences et de l’industrie qui a aussi des activités autour de la médiation numérique, notamment un espace d’autoformation et, du coup, eux aussi, sont un espace public numérique. On a un <em>fab lab</em>, <em>un living lab</em>, j’imagine qu’on définira tout ça après.<br />
<br />
<b>Frédéric Couchet : </b>On définira ça après.<br />
<br />
<b>Mélissa Richard : </b>Et ce n’est pas forcément à ça qu’on pense quand on pense à un espace public numérique. Moi, en tout cas dans mon imaginaire, c’est un endroit où on va avoir accès aux ordinateurs, on va pouvoir soit s’autoformer soit suivre des formations. Or nous, ce n’est pas tellement ça qu’on propose ; on propose plutôt un espace où effectivement les gens peuvent venir apprendre par eux-mêmes ; on essaye de sortir du savoir descendant, de la transmission de savoir descendante, donc on est vraiment beaucoup plus proches de la définition des tiers-lieu, même si j’ai aussi quelques petites choses à redire sur la définition des tiers-lieux ; c’est un peu mixte comme espace.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Donc c’est un espace physique. Pour répondre à une question de Tangui, je vais le citer, qui ce midi, à table, me posait la question de savoir ce qu’est espace un numérique parce qu’il ne voyait pas trop ce que c’est. Donc c’est à la fois un lieu physique et ce sont aussi des personnes. Donc il y a une partie initiation à l‘informatique et aussi une partie, notamment plus spécifiquement dans les deux structures invitées, sur le fait de faire par soi-même, d’apprendre par soi-même. Ce n’est pas uniquement utiliser en libre-service des ordinateurs, c’est aussi partager, cocréer des choses et progresser dans sa compréhension de l’informatique. Est-ce que c’est à peu près ça ? Manuela.<br />
<br />
<b>Manuela Geirnaert : </b>Je dirais que c’est ça. Nous on a quand même aussi, mais c’est peut-être le fait d’être dans une bibliothèque, on a aussi vraiment un rôle d’accompagnement des utilisateurs, pas seulement sur l’outil numérique mais aussi sur tout ce qui est démarches en ligne. On essaye de les accompagner dans l’acquisition de compétences et de les aider dans des démarches qu’ils doivent faire ce et qu’ils ne savent pas faire tout seuls.<br />
<br />
<b>Frédéric Couchet : </b>D’accord.<br />
<br />
<b>Manuela Geirnaert : </b>Je crois qu’on est reconnus ; je pense que les gens viennent à la bibliothèque aussi pour ce côté-là : l’espace public numérique c’est un endroit où on peut se faire aider.<br />
<br />
<b>Frédéric Couchet : </b>Mélissa, tu voulais compléter ?<br />
<br />
<b>Mélissa Richard : </b>Je suis assez d’accord avec ça. On ne fait pas l’accompagnement aux démarches, parce que justement c’est le délégué à la bibliothèque, enfin c’est la bibliothèque qui s’en charge.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Comme le disait tout à l’heure dans l’introduction la radio a un salon web sur le site causecommune.fm, n’hésitez pas à nous rejoindre. Vous avez une remarque de Marie-Odile qui nous dit : « Vous faites de bien beaux métiers, mesdames ». Je salue Marie-Odile, c’est la personne qui notamment va transcrire vos interventions, c’est Marie-Odile Morandi de l’April, qui s’occupe du groupe Transcriptions à l’April.<br/><br />
Ça c’est une présentation un petit peu rapide de ce terme générique « espace public numérique », qui recouvre effectivement différentes réalités. L’idée de cette émission aujourd’hui, c’est une première émission sur le sujet parce qu’en fait on y reviendra, évidemment, sans doute avec d’autres personnes, c’est de faire un petit peu un tour d’horizon des activités que vous pouvez faire avec les types de publics, vos retours d’expérience, avec deux structures différentes, une, la Cité des sciences et de l’industrie qui est à Paris à la Villette et la Bibliothèque francophone multimédia qui est à Limoges.<br/><br />
J’ai envie de vous poser comme question : quel type de public accueillez-vous ? Est-ce que vous accueillez tout public, de 7 à 77 comme on dit, ou est-ce que vos structures sont réservées à un certain type de public ? Manuela. <br />
<br />
<b>Manuela Geirnaert : </b>Nous, en tant que bibliothèque municipale, forcément on accueille tous les publics, quel que soit l’âge, quels que soient les besoins. C’est vrai que nous, au niveau du numérique, sur les initiations aux débutants on va dire qu’on accueille beaucoup de personnes âgées, mais pas uniquement. On peut aussi accueillir des migrants primo-arrivants, des gens qui n’ont aucune formation, qui ont quitté le système scolaire assez tôt et qui n’ont pas de formation, pas de bagage en numérique et qui en ont besoin pour pouvoir travailler. <br/><br />
Après, sur ce qui est accompagnement de tous les jours, c’est pareil, ça dépend, on a vraiment de tout. Et puis sur les animations, on a des animations qui sont plus dédiées aux jeunes, du style coding goûters, ce genre de choses, ou, pour les adultes, ça va être des ateliers thématiques d’acquisition de certaines compétences, ça peut-être sur la photo numérique, ça peut être, je ne sais pas, bien protéger son ordinateur, des thèmes très variés. Donc accueille quand même tout public.<br />
<br />
<b>Frédéric Couchet : </b>Est-ce qu’il y a un âge minimal ou il n’y a pas d’âge minimal ?<br />
<br />
<b>Manuela Geirnaert : </b>Non, il n’y a pas vraiment d’âge minimal. La seule chose c’est qu’il faut que les enfants en dessous de sept ans soient accompagnés par un adulte. Nous, à la bibliothèque du centre-ville – parce que moi je suis responsable du pôle Multimédia de la bibliothèque centre-ville – , on accueille relativement peu de jeunes, on a un public plutôt adulte, sauf sur les animations. Par contre, parce qu’il y a aussi des espaces multimédia dans des annexes à Limoges, plutôt dans les quartiers, et mes collègues accueillent plus de jeunes, sur de l’aide aux devoirs, sur des jeux, sur de la recherche internet.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Et côté Carrefour numérique ? Mélissa.<br />
<br />
<b>Mélissa Richard : </b>Eh bien on va accueillir pas mal de publics différents. Après, c’est pareil, ça dépend des moments. Par exemple en ce moment ce sont des vacances scolaires, donc on a des animations qui sont un peu différentes de ce qu’on fait d’habitude, qui sont ouvertes à partir de huit ans. Par contre, quand on parle du <em>fab lab</em>, on a petit panneau à l’entrée qui dit que ce n’est accessible aux personnes qu’à partir de 15 ans. En réalité, les plus jeunes peuvent également venir, mais il faut qu’ils soient accompagnés d’un adulte ou d’une adulte. En fait, ce sont les personnes à partir de 15 ans toutes seules parce qu’on a des machines, il y a des outils, c’est un espace où il y a besoin d’être un peu responsabilisé. Ensuite l’espace est un espace qui est ouvert dans la Cité des sciences et de l’industrie, en fait on a pas mal de public de passage et là, pendant les vacances par exemple, on a beaucoup de familles.<br/><br />
Dans le <em>fab lab</em>, il y a un espace de fabrication avec des machines à commande numérique et de l’outillage plus classique, donc c’est un atelier et là on va avoir, eh bien ça dépend des moments de la journée. On accueille des groupes. On a pas mal de groupes de jeunes qu’on accueille, ce qu’on appelle les groupes constitués quiu viennent avec leurs animateurs et animatrices, et ensuite on a des personnes qui viennent individuellement pour du loisir, pour travailler.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Dans les deux cas, je suppose que l’accès aux activités, pour la plupart, est gratuit et qu’il y a certains ateliers qui peuvent peut-être sur réservation et sur abonnement ? Mélissa.<br />
<br />
<b>Mélissa Richard : </b>Tout est gratuit dans les activités qu’on propose. Il y a certaines initiations pour lesquelles il faut s’inscrire. On n’a pas de système d’abonnement à part pour une machine, c’est un point de détail, et on essaye au maximum de ne pas demander de réserver à l’avance, notamment pour les ateliers des vacances où, en fait, c’est souvent sur un coup tête.<br />
<br />
<b>Frédéric Couchet : </b>Que les gens viennent. Et côté Bibliothèque francophone multimédia ?<br />
<br />
<b>Manuela Geirnaert : </b>Effectivement tout est gratuit aussi, par contre on demande une inscription pour ce qui est ateliers et pour les animations ça dépend, mais si le nombre de places est limité parce qu’on a des ateliers où, effectivement, on ne va pas pouvoir prendre plus de six ou huit enfants, dans ces cas-là on prend aussi une inscription. Je pense aussi qu’il y a moins de passage, ce n’est pas comme la Cité des sciences. Nous, en général pour les animations – sauf si vraiment ce sont des animations où on peut accueillir beaucoup de public où là on ne demande pas d’inscription – on demande des inscriptions aussi pour les ateliers.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. J’invite clairement les personnes qui nous écoutent à aller sur le site du Carrefour numérique, donc cité-sciences.fr, et vous retrouverez le lien directement parce que sinon l’URL est trop longue ; et côté Bfl c’est bfl.limoges.fr et vous retrouverez toutes les activités. On ne va pas toutes les détailler aujourd’hui, on va rentrer dans certaines, notamment les ateliers et, comme Mélissa a parlé tout à l’heure du <em>fab lab</em> et aussi des événements, de certains évènements qui sont récurrents, soit annuels soit mensuels.<br/><br />
On va peut-être commencer par le début en fait, les postes en libre accès, notamment à la Bibliothèque francophone multimédia a des postes qui sont en libre accès sans doute pour ceux qui veulent faire des démarches, pour se balader sur Internet. Quelle est la place du logiciel libre dans ces postes en libre accès ?<br />
<br />
<b>Manuela Geirnaert : </b>Déjà ces postes sont sous un système GNU/Linux : on a des postes sous Debian, on a des postes sous Ubuntu et les logiciels qui sont dessus sont tous des logiciels libres, du navigateur jusqu’au logiciel de bureautique, au logiciel de traitement d’image, on n’a que du logiciel libre sur nos postes en accès libre. <br />
<br />
<b>Frédéric Couchet : </b>D’accord. Est-ce que côté Cité des sciences il y a des postes en accès libre sur le même principe, je ne me souviens plus.<br />
<br />
<b>Mélissa Richard : </b>Au Carrefour numérique, parce que pour le reste de la bibliothèque c’est particulier. <br />
<br />
<b>Frédéric Couchet : </b>On va dire au Carrefour numérique.<br />
<br />
<b>Mélissa Richard : </b>Au Carrefour Numérique on a des postes qui sont en accès restreint. En fait ils sont en accès libre mais pour les personnes qui viennent concevoir des fichiers pour les utiliser au <em>fab lab</em>, ce n’est effectivement pas tout le monde. Ils tournent sous un <em>double boot</em> donc Windows et Ubuntu <br />
<br />
<b>Frédéric Couchet : </b>On explique em>double boot</em> : ça permet, en fait, de démarrer la machine soit sur un environnement soit sur un autre, donc soit sous Microsoft Windows, soit sous un environnement libre. <br />
<br />
<b>Mélissa Richard : </b>En l’occurrence nous c’est Ubuntu. Par contre, quel que soit le système qu’on utilise, les logiciels qu’on met à disposition – sur Windows il y a des logiciels de base qui ne sont pas libres –, mais les logiciels de conception qu’on utilise sont libres.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. On va faire revenir sur la partie conception. Est-ce qu’il y a des formations ou des initiations, des accompagnements on va dire sur les outils de bureautique de base, c’est-à-dire la bureautique, LibreOffice, le navigateur internet, les courrielleurs. Est-ce, que dans vos structures, vous faites ce genre de formation on va dire vraiment de base, c’est-à-dire pour la personne qui ne connaît pas forcément l’informatique ou qui découvre, qui veut se former, donc une initiation basique. Manuela ?<br />
<br />
<b>Manuela Geirnaert : </b>Oui. Nous on propose un cycle débutants. Je dois avouer que le cycle débutants, donc la découverte de l’ordinateur, on propose quand même l’environnement Windows dans cette formation de débutants parce que, après, les gens utilisent leur machine et, en règle générale, sont sous Windows. Par contre, dès qu’on aborde Internet, le traitement de texte ou éventuellement le tableur, on le fait sur LibreOffice ou sur Firefox.<br />
<br />
<b>Frédéric Couchet : </b>C’est donc LibreOffice et Firefox installés sur Windows. C’est ça.<br />
<br />
<b>Manuela Geirnaert : </b>Oui.<br />
<br />
<b>Frédéric Couchet : </b>C’est important à préciser parce que pour les gens qui découvrent le monde du logiciel libre, ces logiciels libres sont ce qu’on appelle multiplateformes, c’est-à-dire qu’ils fonctionnent sur environnement Windows et pour certains sur environnement Mac, mais également sur environnement libre. C’est une façon de découvrir facilement, sans changer son système, des logiciels libres, soit LibreOffice, VLC ou par exemple Thunderbird pour le courrier électronique, et ensuite, dans le cas d’une migration vers un système libre, on retrouve les mêmes outils. Ça c’est effectivement important.<br/><br />
Est-ce qu’à la Cité des sciences ce genre d’animation de base existe ou est-ce que vous ne faites pas ça ? Au carrefour numérique, je précise.<br />
<br />
<b>Mélissa Richard : </b>En fait, on ne le fait plus. Depuis que le <em>fab lab</em> et le <em>living lab</em> ont été créés, donc en 2013, tout ce qui correspond en fait à ce que fait Manuela actuellement, nous on ne le fait plus ; on le faisait avant, mais maintenant c’est terminé. Les initiations de base sur les logiciels, l’initiation à l’informatique de manière générale et au logiciel libre plus particulièrement, on ne le fait plus.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Je précise qu’il y a beaucoup d’espaces publics numériques, qu’ils soient labellisés espaces publics numériques ou qu’ils soient bibliothèques multimédia, qui font des initiations basées dur du logiciel libre, souvent avec un double amorçage dont on parlait tout à l’heure. Notamment, en région parisienne, il y a la Cyberbase de Saint-Denis, il y a Pierrefitte-sur-Seine avec l’Arobase qui est une structure historique qu’on aura sans doute l’occasion d’inviter. On retrouve souvent de genre de pratique, de découverte de l’informatique à partir de l’informatique libre.<br/><br />
On va parler un petit peu des ateliers un peu plus au niveau au-dessus, on va dire, et notamment on va commencer par le Carrefour numérique où vous faites beaucoup de choses. Tu as cité tout à l’heure le <em>fab lab</em>. Déjà est-ce que tu pourrais nous expliquer ce qu’est un <em>fab lab</em> et qu’est-ce qu’on trouve dans ce <em>fab lab</em>. Mélissa.<br />
<br />
<b>Mélissa Richard : </b><em>fab lab</em> c’est une contraction de l’anglais – je n’aurais pas dû dire ça parce que je vais avoir un accent terrible – <em>fabrication laboratory</em>, donc laboratoire de fabrication. En gros c’est un atelier, c’est un grand garage, on a plein d’outils. On a notamment des machines à commande numérique, c’est ce qui caractérise le <em>fab lab</em>, par exemple des imprimantes 3D, des découpeuses laser, une brodeuse à commande numérique. On a aussi de l’outillage manuel ou plus classique, des marteaux, des scies, etc. On a des machines à coudre qui, elles, sont tout à fait manuelles. L’idée c’est que l’espace est ouvert à tout le monde, avec les restrictions d’âge que je donnais tout à l’heure, pour venir apprendre à utiliser ces machines.<br/><br />
Comme ce sont des machines à commande numérique, il faut pouvoir maîtriser un petit peu avant la partie numérique et en fait, ce qui nous intéresse, c’est d’avoir des personnes qui viennent pour utiliser ces machines, mais justement c’est ça qui va leur servir de prétexte pour se mettre les mains dans le numérique. On n’a pas des gens qui sont déjà hyper-calés en informatique. On en a quelques-uns, mais globalement les personnes qui viennent sont là pour apprendre quelque chose et la fabrication numérique est un prétexte.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. On va revenir tout à l’heure sur les explications du lien entre les logiciels utilisés et les aspects matériels. Est-ce qu’à la Bfl de Limoges ou ailleurs à Limoges vous avez ce genre d’atelier ? Manuela.<br />
<br />
<b>Manuela Geirnaert : </b>Pas pour l’instant. Le service est en train d’évoluer, comme je disais tout à l’heure. On en est en train de refaire notre projet de services et on a prévu dans notre espace un petit <em>fab lab</em>, mais vraiment un petit puisque l’idée c’est surtout de sensibiliser, de faire découvrir, pas forcément de développer d’énormes projets sur notre structure. Normalement il devrait se mettre en place soit fin 2020 soit début 2021, pour des questions de travaux, de commande de matériel. L’idée c’est d’avoir, en fait, différents types d’usage dans notre espace. Actuellement on a donc déjà l’accès à Internet et à des logiciels classiques avec de l’accompagnement aux usagers. On a ouvert récemment un espace jeux vidéos accès sur le <em>retrogaming</em>.<br />
<br />
<b>Frédéric Couchet : </b>Est-ce que tu peux expliquer ce qu’est le <em>retrogaming</em> ?<br />
<br />
<b>Manuela Geirnaert : </b>Le <em>retrogaming</em> c’est le fait de jouer, éventuellement de collectionner, des vieilles consoles de jeu et de jouer sur des vieux jeux. On a trois télés, on a acheté des consoles qui émulent les anciennes consoles et qui sont déjà préchargées de jeux. Donc on a une dizaine de consoles, ça fait à peu près 400 jeux. L’idée c’est de faire découvrir la culture jeux vidéos et puis, autour, de faire vivre cet espace aussi par des interventions sur tous les aspects du jeu vidéo, que ce soit la création à des aspects plus sociologiques.<br/><br />
Donc le dernier espace ce sera le <em>fab lab</em> avec un espace de travail collaboratif : mettre en place un travail collaboratif et développer, en fait, l’idée du faire ensemble, du découvrir ensemble.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Est-ce que ça correspond à une demande du public qui en a entendu parler ou c’est vous en tant qu’animateurs, animatrices, qui avez décidé de proposer ce nouvel espace ?<br />
<br />
<b>Manuela Geirnaert : </b>C’est plutôt nous, même si on a déjà fait quelques présentations les années passées sur les imprimantes 3D, sur Arduino, ce genre de choses, donc, du coup, eh bien on sent quand même que ça attire du public. Il y a un public pour ça. Donc c’est essayer d’utiliser tous les leviers pour faire monter les publics en compétence, c’est un petit peu l’idée ; en fait c’est aider tout le public à comprendre et pas seulement utiliser l’informatique sans savoir ce qui se passe.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Justement en parlant de <em>fab lab</em>, Mélissa est-ce que tu peux nous expliquer un petit peu comment ça fonctionne, notamment entre la partie logicielle et la partie matérielle et la place du logiciel libre dans le <em>fab lab</em> du Carrefour numérique ?<br />
<br />
<b>Mélissa Richard : </b>Comme on est dans une logique d’apprentissage et d’émancipation des personnes qui viennent chez nous au niveau de l’informatique, on a fait le choix d’utiliser des logiciels libres de manière à ce que, très basiquement, ces personnes puissent installer ces logiciels chez elles et/ou sur leur ordinateur portable. En termes de configuration, les ordinateurs pour faire la conception ne sont pas dans le même espace que le <em>fab lab</em> lui-même ce qui, quand on est dans une logique d’apprentissage avec les autres, est un peu problématique parce que, du coup, on peut moins discuter. Le fait d’avoir des logiciels libres, matériellement c’est déjà beaucoup plus simple s’ils peuvent les avoir sur leur ordinateur portable. Ça c’est une première chose très matérielle.<br/><br />
Sur les machines elles-mêmes, il y a certaines machines qui sont <em>open source</em>, pas libres, mais les imprimantes 3D qu’on a sont <em>open source</em>, donc on peut utiliser des logiciels libres pour piloter ces machines. Par contre il y en a d’autres, les découpeuses laser, elles, sont complètement propriétaires, complètement fermées donc le logiciel qui les pilote l’est aussi. Par contre, on a des utilisateurs qui se sont amusés à faire un petit script, un petit bout de code, qui nous permet d’utiliser un logiciel libre qui s’appelle Inskape, qui est un logiciel de dessin.<br />
<br />
<b>Frédéric Couchet : </b>De dessin vectoriel.<br />
<br />
<b>Mélissa Richard : </b>Exactement. Donc on peut faire son dessin sur ce logiciel-là et, en utilisant ce petit bout de code, l’envoyer directement au logiciel propriétaire qui pilote la découpeuse laser. Ce petit bout de code-là, qui nous facilite la vie avec l’espace tel qu’il est aménagé, on n’aurait pas pu le faire si on n’avait pas eu un logiciel libre à la base. En fait, c’est ça notre objectif : que ce soit simplement pour l’utilisation, ce que nos utilisateurs et utilisatrices ont besoin d’utiliser comme logiciels, même si c’est juste ça, juste faire le dessin c’est déjà bien, mais si, en plus, ça leur permet de s’emparer, en fait, de nos logiciels, de nos machines, c’est encore mieux puisqu’en fait ils apprennent en faisant ces bouts-là de code : ils apprennent comment ça fonctionne, ils peuvent transmettre à d’autres personnes. C’est ça qui nous intéresse, c’est qu’un maximum de choses soient bidouillables chez nous.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Est-ce que le terme « bidouillable », donc la bidouillabilité te parle, Manuela, dans tes pratiques ?<br />
<br />
<b>Manuela Geirnaert : </b>Oui effectivement, peut-être. On a aussi commencé un petit peu sur certaines animations qu’on a pu proposer, on a vu que les gens aimaient quand même bien bidouiller, donc c’est aussi ça, en fait. Quand je parlais d’espace collaboratif tout à l’heure, c’est un peu ça, c’est que les gens essayent des choses, puis échangent entre eux et essayent d’avancer ensemble. C’est ce qu’on essaye de faire aussi un petit peu avec les coding goûters. On faisait essentiellement des coding goûters pendant les vacances scolaires.<br />
<br />
<b>Frédéric Couchet : </b>Manuela, est-ce que tu peux rappeler ce qu’est un coding goûter ?<br />
<br />
<b>Manuela Geirnaert : </b>Un coding goûter, comme on le pratique en tout cas, c’est un moment où on a un groupe, c’est plutôt avec les enfants, on a un groupe et on propose une activité ludique autour de l’apprentissage du code, de la programmation. Et puis il y a un temps, à la fin, pour un goûter à partager tous ensemble.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. J’en profite pour signaler qu’on a consacré une émission aux coding goûters, je n’ai pas la date en tête, mais vous retrouverez le podcast sur causecommune.fm et sur april.org. Tout à l’heure Mélissa parlait notamment des personnes âgées ; on a consacré une récente émission sur la question des personnes âgées et du logiciel libre début octobre. Pareil, vous retrouverez le podcast sur causecommune.fm et sur april.org.<br/><br />
Je tentais désespéramment de signaler à la régie qu’on allait faire une pause musicale. On va faire une pause musicale et on va retrouver juste après nos invitées.<br/><br />
Nous allons écouter – c’est un choix de Mélissa Richard, c’est peut-être la troisième ou la quatrième fois qu’on écoute ce morceau, mais on ne s’en lasse pas effectivement – <em>Agger</em> de l’album <em>Break A Leg</em> par Stone From The Sky et on se retrouve juste après. Belle journée à l’écoute de Cause Commune.<br />
<br />
<b>Pause musicale : </b><em>Agger</em> par Stone From The Sky.<br />
<br />
==45’ 23==<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Agger</em> de l’album <em>Break A Leg</em> par Stone From The Sky, disponible sous licence libre Art libre et nous avons interviewé Dimitri je crois, si je me souviens bien de son prénom, il y a 15 jours, de Stone From The Sky. Vous retrouverez le podcast sur le site de l’April, april.org. et sur causecommune.fm. En tout cas c’est de la très bonne musique et merci Mélissa de nous donner l’occasion d’écouter à nouveau ce morceau.<br/><br />
Je vais en profiter pour répondre à la première question du quiz. Je vous demandais, en début d’émission : lors de l’émission du 15 octobre 2019 nous étions avec le collectif Regards Citoyens. Vous connaissez sans doute les sites NosDéputés.fr et NosSénateurs.fr proposés par le collectif et la question était : sauriez-vous citer le nom de leur autre site qui facilite le suivi des travaux législatifs. Ce site c’est lafabriquedelaloi.fr. Je vous invite à aller voir ce site qui permet de suivre les travaux législatifs avec notamment l’évolution des textes, les amendements.<br />
<br />
Vous écoutez toujours l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 FM en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
Nous allons continuer notre discussion sur les espaces publics numériques à prendre dans le sens large et les logiciels libres, mais pas que logiciels libres. Juste avant la pause musicale, Manuela, de la Bibliothèque francophone multimédia, tu as prononcé le mot Arduino et je n’ai pas réagi. Est-ce que tu peux nous expliquer ce qu’est Arduino et à quoi ça sert ?<br />
<br />
<b>Manuela Geirnaert : </b>C’est une carte qui permet de programmer, en fait ça permet de faire de la domotique : c’est vraiment de l’électronique pour moi.<br />
<br />
<b>Frédéric Couchet : </b>C’est une carte programmable, il faut préciser.<br />
<br />
<b>Manuela Geirnaert : </b>C’est une carte programmable, oui c’est ça. On l’avait montrée effectivement pour l’utiliser en domotique. Après je ne sais plus ce qu’on avait pu faire avec. On avait tenté de faire un compteur pour nos propres besoins, mais on l’avait fait avec des usagers.<br />
<br />
<b>Frédéric Couchet : </b>En tout cas c’est quelque chose qui est très utilisé. Au Carrefour numérique je crois que vous l’utilisez aussi, même si vous n’avez pas d’initiation, Mélissa.<br />
<br />
<b>Mélissa Richard : </b>En fait on prête des cartes et les composants qui vont avec, etc., mais effectivement on n’a pas d’initiation dédiée, en tout cas plus sur la programmation de cette année.<br />
<br />
<b>Frédéric Couchet : </b>On va préciser que ce sont des cartes matérielles libres. Vous allez sur un moteur de recherche, vous cherchez « Arduino » et vous trouverez les références.<br/><br />
Aussi avant la pause, Mélissa, tu parlais du <em>fab lab</em> et notamment des aspects logiciel et matériel et, avant l’émission, tu me parlais des outils de modélisation 3D, notamment le fait que vous avez trois logiciels de modélisation 3D différents et pour des usages différents. Est-ce que tu pourrais nous expliquer un petit peu ?<br />
<br />
<b>Mélissa Richard : </b>On a donc effectivement – il y en a plus – mais on utilise beaucoup trois logiciels de modélisation 3D libres : Blender, FreeCAD et Open SCAD. En fait on peut arriver à la modélisation 3D par plusieurs aspects, dont trois aspects qui sont couverts par ces logiciels-là, ce qui permet de s’adapter à la façon qu’on a de concevoir les choses.<br/><br />
Blender c’est un logiciel qui fait énormément de choses, mais dans le cas de l’impression 3D spécifiquement, en fait on va manipuler l’objet directement. C’est-à-dire que quand on arrive dans l’interface de Blender on a un cube et ensuite on va déformer ce cube en touchant directement l’objet avec sa souris. C’est vraiment du modelage à proprement parler.<br/><br />
FreeCAD, ça va être plus une logique pour des personnes qui ont par l’exemple l’habitude du dessin industriel, c’est-à-dire qu’on va rentrer des cotes. En fait on ne modèle autant, je vais dire, que dans Blender.<br/><br />
Open SCAD c’est plus dans une logique de code, une logique mathématique. En fait c’est un logiciel paramétrique, donc on lui donne une fonction et des paramètres. Si on veut on veut un cube, on lui dit « je veux un cube » et, entre parenthèses, de tant de millimètres d’arête. Et on rafraîchit la page, on lui demande un aperçu et là pouf ! on a un cube qui apparaît. En fait, on ne fait que taper du texte.<br/><br />
Ça se sont trois possibilités pour accéder à la modalisation 3D qui dépendent vraiment des gens : il y a des gens à qui le modelage parle tout de suite ; il y en a d’autres qui ont une logique mathématique et qui, du coup, sont très contents avec un logiciel paramétrique. Donc ça, ça nous permet d’avoir une bonne palette à proposer à nos utilisateurs et utilisatrices.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Précisons que ces trois logiciels – Blender, FreeCAD et Open SCAD – sont des logiciels libres. On a parlé de Blender dans une précédente émission <em>Libre à vous !</em>. Les podcasts sont disponibles, comme je le dis à chaque fois.<br/><br />
On va poursuivre notre discussion et, pour ne pas oublier, on va passer à la partie évènements. Là on a vu la partie ateliers, certaines activités, mais une spécificité de la Bibliothèque francophone multimédia et du Carrefour numérique ce sont les évènements récurrents.<br/><br />
On va commencer par un évènement important de la Bibliothèque francophone multimédia par rapport au logiciel libre c’est le Mois du Logiciel Libre qui a lieu chaque année en mars, je ne sais pas depuis combien de temps mais Manuela va nous le dire. Manuela est-ce que tu peux nous expliquer ce qu’est ce principe de Mois du Logiciel Libre à la Bibliothèque francophone multimédia de Limoges ?<br />
<br />
<b>Manuela Geirnaert : </b>Le Mois du Logiciel Libre est un évènement qu’on a mis en place en 2005, il a quand même pas mal de temps. À l’époque on devait le faire au mois de novembre, je pense qu’on a changé à un moment donné pour que l’évènement ait lieu en même temps que la Semaine du libre ou Libre en Fête, je ne sais plus.<br />
<br />
<b>Frédéric Couchet : </b>C’est Libre en Fête autour du 20 mars.<br />
<br />
<b>Manuela Geirnaert : </b>Au mois de mars. Du coup on avait déplacé du mois de novembre au mois de mars pour profiter de la communication autour de cet évènement et pour pouvoir inscrire nos propositions dans Libre en Fête. <br/><br />
En fait au début, quand on l’a créé, c’était en partenariat avec une association locale d’utilisateurs de logiciels libres et on avait décidé, dès le début, de faire un mois avec différents types d’évènements : des ateliers pour le public, des ateliers de découverte, parfois un petit peu plus poussés et puis des évènements un peu plus importants avec généralement une conférence sur un thème autour des logiciels libres ou des ressources libres et puis des présentations. Ça dépend des années, en fait. Donc on continue depuis 2005.<br />
<br />
<b>Frédéric Couchet : </b>Cette année, si je me souviens bien, la conférence, j’essaye de vérifier mais peut-être que tu vas pouvoir me le dire, c’était une conférence de Stéphane Bortzmeyer ? <br />
<br />
<b>Manuela Geirnaert : </b>Oui, c’est ça, sur vie privée et Internet, oui, c’était ça. <br />
<br />
<b>Frédéric Couchet : </b>Et vous avez aussi affiché l’Expolibre proposée par l’April à la Bibliothèque. Donc depuis 2005 vous faites ça. Est-ce que le public habituel vient à cet évènement et, autre question, est-ce que vous accueillez un nouveau public qui vient spécifiquement pour cet évènement ?<br />
<br />
<b>Manuela Geirnaert : </b>Oui, tout à fait. C’est oui pour les deux, en fait. Notre public est curieux en général. Ça nous permet de sensibiliser des personnes qui ne l’auraient peut-être pas été autrement pendant cet évènement et ça nous permet aussi de faire venir des publics qui sont plus férus d’informatique donc qui n’ont pas forcément besoin de venir à l’espace multimédia mais qui, du coup, sont intéressés par ces problématiques et qui viennent.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. J’en profite pour signaler que Stéphane Bortzmeyer a publié récemment un livre qui s’appelle <em>Cyberstructure - L'internet, un espace politique</em> si je me souviens bien.<br />
<br />
<b>Manuela Geirnaert : </b>C’était peu de temps avant qu’il vienne.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Et qu’on a reçu dans <em>Libre à vous !</em>, le podcast est également disponible, livre tout à fait passionnant.<br/><br />
Je vois que sur le site, la version 2019 du Mois du Logiciel Libre, il y a ce qu’on appelle des install-parties, des fêtes d’installation. Est-ce que tu peux expliquer ce qu’est une fête d’installation ce qui permettra, ensuite, de faire le lien avec le Carrefour numérique ?<br />
<br />
<b>Manuela Geirnaert : </b>On le propose en partenariat avec deux associations, Alternatives 87 et PULLCO, qui sont des associations de promotion du logiciel libre, Alternatives 87 sur Limoges et PULLCO qui est plus sur la Corrèze. On accueille le public qui vient avec ses machines pour qu’on l’aide. En fait, les personnes viennent pour qu’on les aide à installer un système GNU/Linux sur leur machine. On a des personnes qui viennent simplement pour se renseigner, pour voir, qui ne sont pas encore prêtes à passer le pas, mais qui, ensuite, peuvent prendre contact éventuellement avec les associations pour le faire, mais on a des gens qui vont vraiment installer ce jour-là Linux sur leur machine. Cette année, en mars, on a accueilli 39 personnes sur cet évènement ; ça fait quand même pas mal de personnes qui se sont intéressées à la question, donc qui sont vraiment prêtes ou qui ont passé le pas.<br />
<br />
<b>Frédéric Couchet : </b>Très bien. Mélissa, au Carrefour numérique de la Cité des sciences et de l’industrie il y a un évènement qui s’appelle le Premier samedi dans lequel il y a aussi une fête d’installation, mais pas que. Est-ce que tu peux nous expliquer un petit peu ce Premier samedi ? Comment ça se passe ?<br />
<br />
<b>Mélissa Richard : </b>En fait on va avoir plusieurs associations qui s’occupent, finalement, de cette après-midi-là, donc ce Premier samedi du mois ; on prête les espaces, on accueille. Dans les associations qui viennent, il y a Parinux qui est l’association des utilisateurs de logiciels libres de Paris Île-de-France. Eux vont effectivement s’occuper de l’install-partie et ensuite on va accueillir Wikimédia qui va faire des initiations à la contribution sur Wikipédia, entre autres choses, mais c’est le gros de leur activité. On a Franciliens qui vient également. Franciliens c’est un fournisseur d’accès associatif à Internet en Île-de-France. Eux viennent parler de l’auto-hébergement, ils viennent parler de la Brique Internet, un petit dispositif qui permet d’héberger ses propres services internet chez soi.<br />
<br />
<b>Frédéric Couchet : </b>Donc héberger un serveur web, son courriel par exemple.<br />
<br />
<b>Mélissa Richard : </b>Son courriel, souvent c’est l’exemple qu’on donne. Et on a le BUG, le Blender User Group, qui vient justement parler Blender. Maintenant les personnes qui viennent assister à cet après-midi-là commencent à être bien avancées. Du coup avant on se reposait un peu sur eux pour faire l’initiation qu’on n’avait pas forcément la possibilité de faire, mais là ils sont bien avancés et surtout ils ne parlent pas que de fabrication numérique, ils vont parler aussi film d’animation, enfin toutes les possibilités de ce logiciel.<br/><br />
<br />
<b>Frédéric Couchet : </b>D’accord. Précisons d’ailleurs que Blender a publié récemment un nouveau film d’animation très court 10/12 minutes, je ne me souviens plus du titre, mais on le retrouve sur le site blender.org, qui est fait avec l’outil de modélisation libre Blender.<br/><br />
Le Carrefour numérique héberge, quelque part, l’évènement, propose l’accès, donc accès libre pareil, comme tous les autres évènements. C’est organisé par les groupes locaux.<br />
<br />
<b>Mélissa Richard : </b>Ils s’organisent entre eux et nous on leur donne l’espace, les moyens techniques, D’ailleurs je ne l’ai pas dit, il y a quelques conférences, des mini-conférences qui sont aussi proposées par les bénévoles de ces associations-là. C’est quelque chose qu’on fait en collaboration depuis plus d’une dizaine d’années, j’essayais de calculer tout à l’heure.<br />
<br />
<b>Frédéric Couchet : </b>Je précise d’ailleurs que dans la partie fête d’installation et je demanderai à Manuela si c’est aussi le cas, il n’y a pas que sur ordinateur on va dire mobile, il y a aussi les téléphones mobiles, c’est-à-dire l’installation soit d’applications libres sur téléphone mobile, soit l’installation d’un système entièrement libre, enfin presque entièrement libre parce que c’est compliqué sur un téléphone mobile, que ce soit Replicant ou LineageOs, il y a aussi ces ateliers-là pour les personnes qui ne veulent pas passer le pas de kle faire elles-mêmes ou qui ne peuvent pas acheter un téléphone qui est déjà préinstallé. Il y a cet aspect atelier.<br/><br />
Avant de passer la parole à Manuela je vais répondre à la deuxième question vu que c’est justement en lien avec le Premier samedi. La première question que j’ai posée tout à l’heure dans le quiz c’était : une de nos invités, en l’occurrence Mélissa Richard, travaille aujourd’hui au Carrefour numérique de la Cité des sciences et de l’industrie. La question était : de quand date le premier évènement logiciel libre d’importance à la Cité des sciences. Eh bien ça date d’octobre 1998, et c’était organisé notamment par l’April et d’autres structures, pendant une semaine ; on avait appelé ça la Semaine du Libre. J’en profite pour faire un petit coucou aux personnes qui étaient à l’époque à la Cité, certaines y sont encore : Jérémie Nestel, notamment, Pierre Ricono et Thomas Séchet ; c’était il y a plus de 20 ans ce premier évènement et ça se poursuit. Tout à l’heure Mélissa disait qu’on essayait de calculer la date du Premier samedi, c’est qu’après cet évènement on avait lancé les dimanches du Libre, après c’est passé au samedi. C’est une longue histoire le logiciel libre à la Cité des sciences et de l’industrie.<br/><br />
Manuela, dans vos fêtes d’installation, est-ce que dans les demandes du public il y a des demandes autour de la téléphonie mobile ? Ou est-ce que pour l’instant c’est un sujet qui n’est pas traité ?<br />
<br />
<b>Manuela Geirnaert : </b>Non, pas tellement. On peut avoir des demandes à l’espace multimédia. D’ailleurs il me semble que cette année on avait fait un atelier sur des applications libres sous Android que les animateurs de l’espace avaient animé eux-mêmes, mais pendant l’install-partie, non. Je dois avouer que je ne sais pas trop si les bénévoles à des associations… On n’en a pas encore discuté avec eux. C’est vrai qu’on pourrait en discuter. Jusqu’à présent nous c’est vraiment sur du matériel PC.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Ta remarque par rapport aux groupes locaux est intéressante parce que ça me fait penser qu’il a beaucoup d’espaces publics numériques, que ce soit bibliothèques ou autres, qui s’appuient sur des groupes d’utilisateurs et d’utilisatrices locaux, notamment le Carrefour numérique avec Parinux, vous avec Alternative 87 et PULLCO. Inversement, j’encourage les groupes d’utilisateurs et d’utilisatrices à aller voir ces espaces, que ce soit espaces publics numériques, cyberbases ou autres, pour proposer de la compétence, que ce soit de la compétence évidemment sur ordinateur de type PC, sur de la téléphonie mobile ou simplement sur des outils parce que ce genre de partenariat est important. Tout le monde en profite, ça permet de sensibiliser, d’initier des gens à des pratiques collaboratives. Ça fait combien d’années que vous travaillez d’abord avec Alternative 87 et PULLCO ?<br />
<br />
<b>Manuela Geirnaert : </b>Alternative 87 c’est depuis la mise en place du premier Mois du Logiciel Libre donc depuis début 2005. PULLCO ça doit faire deux ou trois ans, je dirais. On les a rencontrés un peu par hasard, je ne sais plus, je crois que c’était sur une démonstration d’imprimante 3D qu’on avait organisée à la Bibliothèque. Il y avait quelqu’un de PULLCO qui était venu assister, du coup on leur a proposé de participer aussi à notre install-partie. Ça nous permet d’avoir plus de monde donc d’accueillir plus facilement les usagers sur un temps qui est quand même très prenant. C’est vrai qu’installer sur une machine ça prend quand même du temps, donc plus il y a de volontaires, de bénévoles, plus on peut accueillir de gens. Ça s’est très bien passé dès la première année. On continue maintenant avec eux aussi.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Super !<br />
<br />
<b>Manuela Geirnaert : </b>Nous on a petit peu le souci d’être excentré. C’est vrai que sur Paris il y a quand même plus de ressources disponibles, je dirais, de personnes sur lesquelles s’appuyer, d’associations sur lesquelles s’appuyer. C’est vrai que pour nous, c’est un petit peu la difficulté, il faut vraiment faire avec les gens qui sont autour et parfois ça manque, parce que c’est vrai qu’il y a des choses qu’on aimerait faire et on ne va pas forcément trouver les compétences autour et les gens ne vont pas forcément vouloir venir jusqu’à Limoges pour participer à une démonstration ou à un atelier ou à des choses comme ça.<br />
<br />
<b>Frédéric Couchet : </b>Tout à fait. C’est vrai. Tout à l’heure Mélissa parlait de La Quadrature, souvent La Quadrature, Framasoft ou l’April, on est sollicités pour des interventions et on ne peut pas être partout. Framasoft ils sont beaucoup à Lyon et ailleurs, La Quadrature en partie à Paris et l’April aussi. C’est pour ça que j’encourage vraiment les gens qui sont dans les régions à aller voir les espaces publics ou les bibliothèques pour proposer leurs services et pour aider parce que c’est comme ça qu’on progresse. C’est vrai qu’à Paris il y a beaucoup plus de ressources, on va dire, globalement.<br/><br />
On va continuer un petit peu la discussion et peut-être aborder d’autres sujets, notamment d’autres activités. L’un qui n’est pas directement lié au logiciel libre mais qui est dans la même philosophie : Mélissa, j’ai vu qu’ à la Cité des Sciences vous aviez un <em>repair café</em> pour apprendre à réparer des objets. Est-ce que tu peux nous expliquer ce qu’est un <em>repair café</em>, s’il te plaît ?<br />
<br />
<b>Mélissa Richard : </b>En fait, Repair Café c’est une association qui ne dépend pas du Carrefour numérique, qui est quelque chose de complètement à part, qui propose aux gens, souvent c’est sur des samedis après-midi, d’apporter des objets à réparer. Ils ont des bénévoles qui réparent ces objets. On a accueilli un <em>repair café</em> ça doit faire trois ans maintenant, un premier <em>repair café</em>, et de là, en discutant avec les bénévoles, on s’est dit que ça pourrait être intéressant d’utiliser le <em>fab lab</em> et de rester dans cette démarche d’apprentissage par soi-même et avec les autres, en faisant de la co-réparation. C’est-à-dire qu’au lieu d’apporter un objet qu’on fait réparer par quelqu’un, on vient apprendre à diagnostiquer une panne et à réparer des choses, d’ailleurs pas forcément son propre objet. Il arrive qu’on ait des sessions de co-réparation où on n’a pas d’objets à réparer puisque personne n’a rien apporté ; les gens viennent pour apprendre, mais finalement on n’a pas grand-chose à réparer à ce moment-là. On fait ça les mardis de 17 heures à 18 heures 30. Là idéalement c’est sur inscription, mais il y a toujours un petit peu de place disponible, donc tous les mardis sauf pendant les vacances scolaires de la zone de Paris. L’idée c’est de venir apprendre à réparer des choses, une bouilloire. Qu’est-ce que j’ai réparé ? Mon ampli. Plein de choses, tout ce qui est transportable.<br />
<br />
<b>Frédéric Couchet : </b>Tout ce qui est transportable et en utilisant aussi les ressources du Carrefour numérique, notamment l’imprimante 3D.<br />
<br />
<b>Mélissa Richard : </b>L’imprimante 3D tourne beaucoup à ce moment-là.<br />
<br />
<b>Frédéric Couchet : </b>Ce qu’on appelle la réparabilité, ce qui est important. Je rappelle aux personnes qui nous écoutent qu’actuellement il y a un projet de loi autour de l’économie circulaire qui va arriver l’Assemblée nationale bientôt et je pense que mon collègue Gonnu fera un point peut-être la semaine prochaine ou dans deux semaines par rapport aux amendements qui ont été votés en première lecture au Sénat. La réparabilité est un point essentiel et la notion d’obsolescence et d’obsolescence programmée aussi malheureusement. Je vous invite à écouter l’émission qu’on a déjà consacrée à ce sujet-là, à l’économie circulaire et à l’obsolescence programmée. Pareil, les podcasts sont disponibles sur april.org et sur causecommune.fm.<br/><br />
Manuela, est-ce que vous avez ce genre de demande autour justement de la réparabilité ou est-ce que pour l’instant c’est quelque chose qui… ?<br />
<br />
<b>Manuela Geirnaert : </b>Non. Pas pour l’instant. Mais c’est pareil, je pense que ça viendra plus quand on aura effectivement une partie <em>fab lab</em> et qu’on aura mis en place une espèce de petite communauté, en tout cas des évènements et réussi à attirer un public qui a envie de travailler ensemble sur ce genre de choses. L’idée, quand il y aura le <em>fab lab</em>, c‘est vraiment d’avoir un espace – la partie <em>fab lab</em> c’est vraiment un espace où il n’y aura que des machines et juste à côté on a un espace qui sera vraiment un espace de travail collaboratif – l’idée c’est que les gens fassent en fonction de leurs envies, de leurs besoins. Ça peut être effectivement pour réparer, mais ça peut être pour bricoler quelque chose de totalement nouveau, ça peut être simplement de l’apprentissage du code, ça peut être autour de la robotique puisqu’on essaie de travailler pas mal cet aspect-là avec les enfants dans les coding goûters et on aimerait bien continuer avec, derrière, toujours la sensibilisation au code et le fait de comprendre ce qui se passe et ce qu’on fait.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Mélissa parlait des vacances, là on a les vacances scolaires qui sont identiques pour toutes les zones en fait. Est-ce que vous avez des activités spécifiques dont vous souhaiteriez parler par rapport à ces vacances scolaires ? Manuela.<br />
<br />
<b>Manuela Geirnaert : </b>Comme on a ouvert l’espace <em>retrogaming</em> il n’y a pas très longtemps, on a fait un tournoi pour les 8/13 ans, un Super Mario kart sur des Super NES. Ça s’est bien passé, ils étaient contents. La semaine prochaine on a proposé aux enfants de participer à la décoration de l’espace. Donc ils vont participer à un atelier Pixel Art avec des perles à repasser et on essaie de leur faire comprendre le principe, enfin on essaye de combiner ça avec une sensibilisation au binaire. Donc il y avait deux propositions pendant les vacances scolaires pour les enfants.<br/><br />
On a fait aussi une Code Week. Oui, on a fait quelque chose pour la Code Week samedi dernier, un parcours d’énigmes numériques.<br />
<br />
<b>Frédéric Couchet : </b>C’est quoi la Code Week ?<br />
<br />
<b>Manuela Geirnaert : </b>La Code Week c’est une semaine de sensibilisation au code informatique, là en l’occurrence ça a duré quinze jours ; c’est un évènement européen. On s’est inscrits dedans pour un parcours d’énigmes numériques, en fait c’était une sorte d’enquête à faire en famille qui mêlait binaire – il fallait qu’ils traduisent du binaire –, il y avait un petit programme à faire pour faire avancer les robots Thymio qui permettait de découvrir d’autres indices et, dernière étape, c’était avec une carte Touch Board qui permet de faire des sons en reliant des objets avec des fils électriques, en programmant des sons à l’avance. Tout ça leur permettait de découvrir un livre qu’il fallait protéger des robots.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Mélissa, tu me disais tout à l’heure avant l’émission que dans les parties vacances scolaires tu avais un atelier sur les femmes scientifiques et techniciennes. C’est ça ?<br />
<br />
<b>Mélissa Richard : </b>Oui. C’est un jeu de chronologie. On a des fiches, il faut replacer dans l’ordre chronologique les femmes scientifiques et techniciennes à travers les époques. C’est un jeu qu’on a adapté et l’adaptation est sous licence libre, elle est téléchargeable sur notre site. Donc on fait deux ateliers pendant les vacances, je n’ai plus les dates exactes, autour de ce jeu-là et on a deux autres ateliers : un truc autour de comment utiliser les ressources du <em>fab lab</em> pour rendre des jeux de société accessibles. Là on essaie plutôt de focaliser sur les personnes aveugles ou malvoyantes.<br />
<br />
<b>Frédéric Couchet : </b>Donc les personnes en situation de handicap.<br />
<br />
<b>Mélissa Richard : </b>Oui. Là on essaie spécifiquement sur le handicap visuel, mais l’idée c’est de voir ce qu’on a déjà pu faire et de réfléchir avec le public sur comment on pourrait faire autrement. On a un dernier atelier autour de la réutilisation de sacs plastique pour protéger par exemple des carnets, des passeports, des choses comme ça.<br />
<br />
<b>Frédéric Couchet : </b>Une petite dernière question parce que la fin du sujet approche. On a diffusé de la musique libre tout à l’heure. Est-ce que vous avez des actions, des activités autour de la musique, plus précisément autour de la musique libre, que ce soit autour du Carrefour numérique ou à la Bfl. On va commencer autour du Carrefour numérique.<br />
<br />
<b>Mélissa Richard : </b>On en a eu, je pense que ça va revenir. Notre collègue qui est féru de musique est actuellement en congé paternité. On a eu des initiations à Audacity. Au moment de la Fête de la musique on essaye souvent d’avoir des activités autour de la musique et du coup, comme on utilise des logiciels libres, ça va avec.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Et côté Bibliothèque francophone multimédia de Limoges, Manuela.<br />
<br />
<b>Manuela Geirnaert : </b>Nous, en fait on a une borne de contenus libres. Les gens peuvent récupérer sur clef USB du contenu libre, ça va d’une distribution Linux à des livres numériques ou à de la musique libre. On a ça et on a en projet, on n’a pas trop le temps, mais on ne va pas trader à le développer, une BiblioBox pour permettre, pareil, la récupération de contenus libres mais par Wifi, que les usagers puissent récupérer des contenus libres ; on travaille aussi cet aspect-là.<br />
<br />
<b>Frédéric Couchet : </b>Écoutez, super. Est-ce que vous avez un mot de conclusion, une annonce à faire sur ce sujet-là ou autre ? Mélissa Richard pour le Carrefour numérique.<br />
<br />
<b>Mélissa Richard : </b>Oui. Le prochain gros évènement : l’Ubuntu Party pour découvrir le système d’exploitation Ubuntu les 16 et 17 novembre au Carrefour numérique.<br />
<br />
<b>Frédéric Couchet : </b>Normalement nous y serons présents pour une conférence autour de l’émission. J’en profite pour saluer Charlotte et Olive qui animent l’émission <em>Dissonances</em> sur radio Cause Commune le lundi.<br/><br />
Et de ton côté Manuela ?<br />
<br />
<b>Manuela Geirnaert : </b>Nous, en gros évènement, ce sera le prochain Mois du Logiciel Libre qui aura lieu au mois de mars 2020.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. J’espère qu’il y aura du monde. En tout cas je vous remercie toutes les deux de votre présence. Comme je l’ai dit tout à l’heure, il y a un lien particulier entre l’April et le Carrefour numérique de la Cité des sciences et de l’industrie parce que le premier gros évènement qu’on a organisé c’était au Carrefour numérique et, depuis, la place du logiciel libre s’est étendue et très largement. Et Limoges qui fait notamment depuis 2005 le Mois du Logiciel Libre et, en plus, à titre familial, j’ai des liens avec Limoges, donc je suis très content de votre intervention.<br/><br />
C’était Manuela Geirnaert qui est responsable du pôle Multimédia de la Bibliothèque francophone multimédia de Limoges. Merci Manuela de ta participation.<br />
<br />
<b>Manuela Geirnaert : </b>Merci à vous.<br />
<br />
<b>Frédéric Couchet : </b>Et Mélissa Richard, médiatrice numérique au Carrefour numérique Cité des sciences et de l’industrie. Merci Mélissa.<br />
<br />
<b>Mélissa Richard : </b>Merci à toi.<br />
<br />
<b>Frédéric Couchet : </b>Bonne journée à toutes les deux.<br/><br />
On va faire une pause musicale.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons écouter <em>All The Regrets</em> par Loik Brédolèse. On se retrouve juste après. Belle journée à l’écoute de Cause Commune.<br />
<br />
<b>Pause musicale : </b><em>All The Regrets</em> par Loik Brédolèse.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>All The Regrets</em> par Loik Brédolèse, disponible sous licence libre Creative Commons Attribution.<br/> <br />
Vous écoutez l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
Nous allons passer au sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 13’ 15 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20191022/libre-a-vous-20191022-chronique-jouons-collectif-vincent-calame-google-est-ton-ami.mp3 Chronique « Jouons collectif » de Vincent Calame, bénévole à l'April, sur le thème « Google est ton ami »] 8 min 43 s==<br />
<br />
<b>Frédéric Couchet : </b>Le sujet suivant c’est la chronique « Jouons collectif » de Vincent Calame qui est bénévole à l’April et qui m’a envoyé le thème du jour. Le thème du jour c’est « Google est ton ami ».<br />
<br />
<b>Vincent Calame : </b>Oui, quand j’ai envoyé ce sujet à Isabella et à l’équipe de l’émission, Isabella m’a demandé en plaisantant si je n’avais pas oublié le point d’interrogation à la fin de ma phrase. C’est sûr que la volonté de Google et de ses comparses d’être présents partout dans notre vie, des téléphones aux voitures en passant par les assistants domestiques qui nous écoutent toute la journée, fait que moi, mis dans le cadre de « Google est mon ami » nous fait plutôt évoquer le titre du film <em>Harry, un ami qui vous veut du bien</em> que le titre du livre <em>L'Ami retrouvé</em>.<br/><br />
Sur le moment je n’avais pas la volonté d’être ironique dans le choix de mon titre, pas trop ! En fait, je pensais plutôt à une époque où Google n’était pas encore devenu Alphabet qui est le nom de la maison mère actuelle et où il n’était encore que le moteur de recherche qui a fait sa célébrité. À cette époque, il y a plus de dix ans, « Google est ton ami » n’était pas une plaisanterie sur Google lui-même, mais plutôt une pique qu’on utilisait pour taquiner son interlocuteur.<br />
<br />
<b>Frédéric Couchet : </b>On va peut-être préciser, pour les personnes qui ne connaissent pas, que <em>Harry, un ami qui vous veut du bien</em> en fait c’est un film de 2000 où Michel retrouve par hasard un ami d’enfance prénommé Harry et Harry va s’insinuer progressivement dans la vie de Michel et va se mettre à éliminer toutes les personnes qui, selon lui, peuvent nuire à l’épanouissement de Michel. À l’inverse, <em>L'Ami retrouvé</em> est un livre de Fred Uhlman qui raconte la forte amitié entre le narrateur, fils d’un médecin juif, et un jeune aristocrate pendant la montée en puissance du régime nazi en 1932 à Stuttgart.<br/><br />
Pour revenir au thème, à la plaisanterie « Google est ton ami » qui était une pique, comme tu disais, pour taquiner son interlocuteur, à quelle occasion utilisait-on cette expression ?<br />
<br />
<b>Vincent Calame : </b>Très souvent c’était dans les forums ou les listes de discussion d’entraide quand une personne posait une question dont la réponse se révélait être à la portée d’un seul clic ou de quelques mots clés. Souvent la bonne âme qui lui répondait malgré tout, le faisait en rajoutant « Google est ton ami », histoire de rappeler à la première personne qu’elle aurait pu faire l’effort de faire la recherche elle-même.<br/><br />
Moi-même, dans mon cadre professionnel, je pense souvent à cette phrase « Google est ton ami » quand on me pose une question, mais je ne le dis pas parce là mon but n’est pas de taquiner ou de mettre mal à l’aise mon interlocuteur, parce que je sais que j’ai trouvé la réponse souvent en faisant une recherche sur Internet.<br/><br />
Cependant, pour la défense des personnes qui posent ce type de question, il faut quand même rappeler que chercher s’apprend, ce ne sont pas les documentalistes qui me contrediront. Toutes les réponses ne se trouvent pas du premier coup. Quand on fait une recherche, il est parfois nécessaire d’affiner la recherche quand il y a trop de résultats sans rapport à la question qu’on avait en tête. Quand le sujet est technique, il faut aussi savoir que c’est souvent dans la traduction anglaise de ce qu’on cherche qu’il y a de fortes chances que la réponse se trouve dans cet angle.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Les moteurs de recherche, en fait, restent une porte d’entrée majeure aujourd’hui sur Internet. On peut peut-être mettre le point d’interrogation à « Google est ton ami ? », non ?<br />
<br />
<b>Vincent Calame : </b>Oui, surtout si on se place de l’autre côté, pas celui de l’internaute qui circule sur Internet mais plutôt sur celui des gestionnaires de sites. Je m’occupe du développement technique de plusieurs sites de ressources documentaires. Il y a quelque temps j’ai reçu un appel angoissé du responsable d’un de ces sites qui avait vu les statistiques de fréquentation s’effondrer du jour au lendemain. Ça s’est effondré parce que plus aucune visite ne venait d’une recherche Google. Au final, on s’est rendu compte que le problème venait de chez nous, c’était un certificat sécurité non renouvelé, mais c’est vrai que pendant quelque temps nous avons craint d’avoir été mis sur la liste noire par Google, sans pouvoir en repérer la raison, surtout qu’aucun contenu particulier n’avait été mis en ligne au moment de la chute ; c’était un vendredi en milieu de journée, donc sans raison.<br/><br />
C’est vrai que pour les sites que je suis, les statistiques de fréquentation sont implacables. Plus de 80 % des visiteurs arrivent via un moteur de recherche et parmi eux plus de 90 % c’est Google. Donc là, effectivement, pour ces sites ne plus être présent sur Google, c’est pratiquement la mort numérique.<br />
<br />
<b>Frédéric Couchet : </b>Tu parles de mort numérique. Est-ce qu’il y a un espoir face à ce monopole ?<br />
<br />
<b>Vincent Calame : </b>Oui, bien sûr. On existe toujours sur Internet. Même si on a moins de fréquentation, ce n’est pas non plus dramatique. Simplement c’est plutôt vis-à-vis des bailleurs de fonds, des choses comme ça, que ça peut poser problème d’avoir des mauvaises statistiques. Évidemment, nombreux sont ceux qui s’interrogent sur cette situation. D’autres moteurs de recherche existent et tentent de se faire une place, citons le dernier-né qui est Qwant, une initiative française.<br/><br />
Ce qui est intéressant c’est que du point de vue du logiciel libre je dirais que le problème ce n’est pas tant le logiciel lui-même, l’algorithme. Google a son propre algorithme, des moteurs de recherche libres existent comme Lucene. Le problème c’est tout simplement l’infrastructure nécessaire pour faire tourner un tel moteur, à la fois pour fournir des réponses rapidement et indexer toutes les pages de la toile en permanence qui sont en nombre incommensurable. À titre de comparaison, on a récemment l’encyclopédie Wikipédia qui a fait une campagne de dons comme elle le fait régulièrement, rappelant que l’infrastructure pour héberger une telle encyclopédie a un coût. Je pense que pour un moteur qui serait libre et sans publicité il faudrait, pour financer son infrastructure, une collecte de dons bien supérieure, je pense, même à celle de Wikipédia et nous en sommes encore loin.<br/><br />
Je pense qu’une des pistes en attendant, ça vaut aussi pour ne pas être dépendants de ces moteurs de recherche quels qu’ils soient, c’est de réfléchir à des modes accès alternatifs à l’information, peut-être quitter le réflexe de juste taper dans sa barre de recherche. Je pense à la diffusion via des réseaux sociaux libres et puis, pourquoi pas, penser à une nouvelle génération, une nouvelle forme des portails internet ; c’est un concept qui fleure bon les années 90 et qui ont été balayés par l’efficacité de Google, mais je me dis que c’est peut-être un chantier à reprendre ou à repenser pour, justement, essayer de perdre aussi ce réflexe de la recherche.<br />
<br />
<b>Frédéric Couchet : </b>Réflexe de la recherche qui est aussi renforcé par le fait aujourd’hui que la plupart des gens confondent navigateur web et moteur de recherche, parce qu’en fait quand ils lancent un navigateur web, que ce soit le navigateur de Microsoft ou Firefox, leur premier réflexe c’est de taper dans la barre d’adresse en haut et, en fait, ils pensent finalement que le navigateur web et le moteur de recherche c’est exactement la même chose.<br />
<br />
<b>Vincent Calame : </b>Oui. D’ailleurs l’interface même a évolué parce qu’avant il y avait deux champs différents, un champ pour taper l’adresse et un champ pour taper la recherche et sous des prétextes...<br />
<br />
<b>Frédéric Couchet : </b>De simplicité.<br />
<br />
<b>Vincent Calame : </b>De simplicité à mon avis fallacieuse on a une confusion complète des deux actions là-dessus. Effectivement, les outils eux-mêmes nous poussent à agir là-dessus en recherche. Je ne parle même pas des assistanats personnels où là c’est carrément je pose une question orale et un algorithme est censé me trouver l’information.<br />
<br />
<b>Frédéric Couchet : </b>Assistant personnel qui aujourd’hui enregistre les conversations. Maintenant, quand on va chez des amis, il faut leur demander s’ils ont un assistant personnel pour demander qu’il soit déconnecté pour avoir une discussion tranquille.<br />
<br />
<b>Vincent Calame : </b>Voilà. Là c’est encore un autre aspect. Il y a toujours le piège de dépendre de la simplicité, effectivement les amis qui vous veulent du bien, qui veulent vous simplifier la vie, qui veulent vous vendre des produits qui répondent à des besoins que vous n’aviez pas avant et qui font naître ces besoins sont toujours suspects. Il faut toujours se poser la question de s’il n’y a pas une idée derrièreou s’il n’y a pas un loup derrière.<br />
<br />
<b>Frédéric Couchet : </b>Finalement les assistants personnels ne devraient pas s’appeler Alexa ou je ne sais quoi, ils devraient en fait s’appeler Harry en référence au film <em>Harry, un ami qui vous veut du bien</em> ;: on pourrait le mettre entre le guillemets.<br/><br />
En tout cas merci Vincent. C’était donc la chronique de Vincent Calame « Jouons collectif ». Je te souhaite une belle journée et au mois prochain !<br />
<br />
<b>Vincent Calame : </b>Merci. Au mois prochain.<br />
<br />
<b>Frédéric Couchet : </b>On approche de la fin de l´émission, nous allons passer quelques annonces.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 22’ 10 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20191022/libre-a-vous-20191022-annonces.mp3 Annonces] 7 min 31 s]==<br />
<br />
<b>Frédéric Couchet : </b> Alors Quelques annonces. Tout à l'heure, Mélissa Richard a annoncé l'Ubuntu Party de Paris les 16 et 17 novembre au carrefour numérique de la cité des sciences et de l'industrie. Il y a l'appel à conférences, ateliers et stands. Donc n'hésitez pas à vous rendre sur le site, ubuntu-paris.org je crois et pour proposer une conférence et sinon le site sera en référence sur le site de l'April, april.org et sur le site causecommune.fm. Dans les annonces, nous avons parlé il y a quelques mois du documentaire <em>La bataille du libre</em>`de Philippe Borel et bien il y a une campagne de financement pour participer à la traduction en Anglais de ce documentaire. Pareil, les références sont sur le site de l'April et sur le site de la radio. J'en profite pour signaler qu'il y a deux projections cette semaine de <em>La bataille du libre</em> : une à Montélimar dans la drôme ce soir, l'autre à Lamastre le 23 octobre donc mercredi 23 octobre 2019, donc Lamastre c'est en Ardèche. Les références sont sur le site de l'Agenda du libre, agendadulibre.org. Dans les autres événements, le forum PHP donc PHP c'est un langage de programmation web se déroule à Paris les 24 et 25 octobre 2019 donc dans le 14e arrondissement. Tous les autres événements, vous les retrouverez sur le site de l'Agenda du Libre : agendadulibre.org. <br />
<br />
Notre émission se termine. Je remercie les personnes qui ont participé à l'émission : Noémie Bergez, Mélissa Richard, Manuela Geirnaert, Vincent Calame. Aux manettes de la régie aujourd'hui, Patrick Creusot. Vous retrouverez sur le site web de l'April, april.org et sur le site de la radio, causecommune.fm, toutes les références utiles ainsi que les moyens de nous contacter pour nous faire des retours, pour indiquer ce qui vous a plu mais aussi des points d'amélioration. Également, toutes vos remarques et questions sont les bienvenues à l'adresse courriel libreavous@april.org. Nous vous remercions d'avoir écouté l'émission. Si vous avez aimé cette émission, n'hésitez pas à en parler le plus possible autour de vous. La prochaine émission aura lieu... Ah ! Vincent Calame veut faire une intervention, vas-y Vincent. <br />
<br />
<b>Vincent Calame : </b></div>D Ohttps://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_24_septembre_2019&diff=85869Libre à vous ! Radio Cause Commune - Transcription de l'émission du 24 septembre 20192019-09-26T14:44:00Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 24 septembre 2019 sur radio Cause Commune<br />
<br />
'''Intervenant·e·s :''' <br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 24 septembre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190917/libre-a-vous-20190924.ogg Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-24-septembre-2019-sur-radio-cause-commune Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
Transcrit<br />
<br />
==Transcription==<br />
<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 en Île-de-France et partout dans le monde sur causecommune.fm. Merci d’être avec nous aujourd’hui.<br/><br />
La radio dispose d’un webchat, utilisez votre navigateur web, rendez-vous sur le site de la radio, causecommune.fm, cliquez sur « chat » et ainsi retrouvez-nous sur le salon dédié à l’émission. La radio dispose également d’une application, Cause Commune, pour téléphone mobile.<br />
<br />
Nous sommes mardi 24 septembre 2019, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.<br/><br />
Soyez les bienvenus pour cette nouvelle édition de <em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.<br/><br />
Le site web de l’association est april.org et vous y retrouvez d’ores et déjà une page web consacrée à cette émission avec les références qui seront citées et la page sera évidemment mise à jour après l’émission si besoin.<br/><br />
N’hésitez pas également à nous faire des retours pour indiquer ce qui vous a plu mais aussi des points d’amélioration.<br/><br />
Si vous souhaitez réagir, poser une question pendant ce direct, n’hésitez pas à vous connecter sur le salon web de la radio, donc sur causecommune.fm, ou même à nous appeler au 09 50 39 67 59, je répète 09 50 39 67 59.<br/><br />
Nous vous souhaitons une excellente écoute.<br />
<br />
Nous allons passer au programme de cette émission.<br/><br />
Nous allons commencer dans quelques secondes par la chorionique d’Isabella Vanni « Le libre fait sa comm’ ».<br/><br />
D’ici 10 à 15 minutes nous aborderons notre sujet principal qui portera sur OpenStreetMap, un projet de cartographie qui a pour but de constituer une base de données géographiques libres du monde avec Christian Quest porte-parole d’OpenStreetMap France.<br/><br />
En fin d’émission nous aurons un échange avec Laurent Costy pour présenter le logiciel Bénévalibre.<br/><br />
À la réalisation de l’émission aujourd’hui Étienne Gonnu. Bonjour Étienne.<br />
<br />
<b>Étienne Gonnu : </b>Salut Fred.<br />
<br />
<b>Frédéric Couchet : </b>On va commencer comme d’habitude par un petit quiz. Je vous donnerai les réponses en fin d’émission et vous pouvez proposer des réponses évidemment sur le salon web de la radio, sur les réseaux sociaux ou tout autre moyen de nous contacter.<br/><br />
Première question : lors de l’émission du 17 septembre 2019, nous avons parlé d’un concours auquel il est encore possible de participer jusqu’au 30 septembre 2019. Quel est ce concours<br/><br />
Deuxième question : quel est le nom d’un célèbre noyau d’exploitation libre, sans doute le plus connu, et d’où vient son nom ?<br/><br />
Tout de suite place au premier sujet.<br />
<br />
[Virgule musicale]<br />
<br />
==2’37 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190924/libre-a-vous-20190924-chronique-le-libre-fait-sa-comm-isabella-vanni-interview-montpellibre.ogg Chronique « Le libre fait sa comm’ » de Isabella Vanni : interview de Montpel'libre] 15 min 20s== <br />
<br />
<b>Frédéric Couchet : </b>Parler d’actions de type sensibilisation menées par l’April, annoncer des évènements libristes avec éventuellement des interviews de personnes qui organisent des évènements, donner la parole à des groupes d’utilisateurs et d’utilisatrices du logiciel libre, c’est la chronique « Le libre fait sa comm’ » de ma collègue Isabella Vanni qui est coordinatrice vie associative et responsable projets à l’April. Bonjour Isabella.<br />
<br />
<b>Isabella Vanni : </b>Bonjour à tout le monde.<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<b>Frédéric Couchet : </b>Merci Pascal, merci Myriam, merci Isabella. C’était Montpel’libre avec Myriam Criquet et Pascal Arnoux. On va faire une pause musicale.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons passer une pause musicale. Nous allons écouter <em>Neutron star</em> par Ghandizilla et on se retrouve juste après.<br />
<br />
<b>Pause musicale : </b><em>Neutron star</em> par Ghandizilla.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Neutron star</em> par Ghandizilla/Raphaël Badawi. C’est sous licence libre Creative Commons Partage dans les mêmes conditions. Vous retrouverez les références sur le site de l’April, april.org,<br />
<br />
Vous écoutez toujours l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 en Île-de-France et partout ailleurs sur le site causecommune.fm. <br />
<br />
Avant de passer au sujet suivant je vais passer à la deuxième question du quiz car dans l’interview précédente le mot a été cité. Je rappelle la question : quel est le nom d’un célèbre système d’exploitation libre et d’où vient le nom ? Nos amis de Montpel’libre ont cité le nom « Linux » et ça vient du nom de son créateur qui s’appelle Linus Torvalds. Linux est un noyau, ce n’est pas un système d’exploitation complet. Je vous renvie à l’écoute de l’émission du 30 avril 2019 que nous avons consacrée aux distributions GNU/Linux et vous verrez pourquoi nous, on utilise le terme « GNU/Linux> » quand on fait référence à la distribution entière. Voilà ! C’était la réponse à la deuxième question du quiz et, pour la réponse à la première, nous attendrons la fin de l’émission.<br/><br />
Nous allons donc maintenant passer au sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
==22’ 10 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190924/libre-a-vous-20190924-openstreetmap-state-of-the-map-avec-christian-quest.ogg Open Street Map et State of the Map avec Christian Quest] 46 min 51 s== <br />
<br />
<b>Frédéric Couchet : </b><b>Frédéric Couchet : </b>Nous allons poursuivre avec notre sujet principal qui va porter sur OpenStreetMap avec Christian Quest porte-parole d’OpenStreetMap France. Bonjour Christian.<br />
<br />
<b>Christian Quest : </b>Bonjour.<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<b>Frédéric Couchet : </b>Évidemment tu peux rester. On va faire une pause musicale.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>On va écouter <em>God is Gone</em> par Big Albert et on se retrouve juste après.<br />
<br />
<b>Pause musicale : </b><em>God is Gone</em>par Big Albert .<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>God is Gone</em>par Big Albert que je remercie parce que c’est un membre de l’April qui nous signale régulièrement ses musiques libres. Celle-ci est sous licence libre Creative Commons Partage dans les mêmes conditions. Vous retrouverez évidemment les références sur le site de l’April, april.org, et sur le site de Cause Commune causecommune.fm.<br/><br />
Vous écoutez l’émission <em>Libre à vous !</em> sur radio Cause Commune sur 93.1 en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
Nous allons passer au sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 12’ 17 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190924/libre-a-vous-20190924-benevalibre-laurent-costy.ogg Bénévalibre avec Laurent Costy] 14 min 27 s==<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre avec une présentation de Bénévalibre, logiciel libre pour faciliter la gestion et la valorisation du bénévolat dans les associations. Notre invité c'est Laurent Costy, vice-président de l'Aptil, co-animateur du groupe de travail libre-association de l'April et directeur adjoint de la fédération française des MJC, des Maisons des Jeunes et de la Culture. Bpnjour plutôt rebonjour Laurent. <br />
<br />
<b>Laurent Costy : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Tu as intervenu dans le sujet...<br />
<br />
<b>Laurent Costy : </b>Même si on a coupé mon micro à un moment donné.<br />
<br />
<b>Frédéric Couchet : </b>Oui voilà. Étienne, il est facétieux en régie mais en même temps il a, à gérer ma fille qui est un peu dissipée. Alors d'abord, une petite question personnellle. Une petite question... Une présentation tout simplement personnelle de ton parcours. <br />
<br />
<b>Laurent Costy : </b> Tu m'as déjà un petit peu présenté puisque professionnellement effectivement, je travaille à la fédération française des MJC et puis évidemment je suis impliqué bénévolement au sein de l'April. Peut-être par rapport au projet dire que à l'époque où l'idée du projet s'est montée, j'étais dans le cadre plutôt en lien avec mon travail, président du CRAJEP. Donc : Comité Régional des Associations de Jeunesse et d'Éducation Populaire. Donc encore un bel acronyme désolé. Pour la faire claire, un peu plus clair pour les gens, ça regroupe à un échelon régional et là en l'occurrence c'était la Bourgogne Franche-Comté, des associations de jeunesse et d'éducation populaire. Pour ceux qui les côtoient au quotidien, vous en connaissez sans doute : la ligue de l'enseignement, l'UFCV, les CMEA, les Francas etc, les foyers ruraux, les centres sociaux... Voilà, toutes ces associations que vous côtoyez dont vous ne connaissez pas forcément le nom mais qui contribuent sur les territoires au quotidien pour améliorer la vie des gens.<br />
<br />
<b>Frédéric Couchet : </b>Des associations très importantes. Donc Bénévalibre, c'est un logiciel libre pour faciliter la gestion et la valorisation du bénévolat dans les associations. Première question évidemment : C'est quoi la valorisation du bénévolat et pourquoi des associations pratiquent cette valorisation et est-ce uniquement une valorisation comptable ?<br />
<br />
<b>Laurent Costy : </b> Il faut quand même savoir que toutes les associations ne sont pas d'accord sur la nécessité ou la volonté de valoriser le bénévolat. Pour expliquer un petit peu ce que c'est valoriser finalement c'est montrer tout ce que ça représente. On peut peut-être faire le lien avec ce qu'on a vu tout à l'heure sur OpenStreetMap. C'est vrai que... Un jour on m'a dit «Ouais il y a beaucoup de contributeurs à OpenStreetMap». Ouais, OK. Il y a beaucoup de contributeurs très bien. Il y en a 1 million, 2 millions j'en sais rien. Mais par contre quand j'ai vu le site en direct live des contributions, c'est là que j'ai vraiment pris conscience de ce que ça représentait et de la force que ça avait derrière en terme de bénévolat, d'implication et de don de soi. <br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<b>Frédéric Couchet : </b>On approche de la fin de l’émission. Nous allons faire des annonces.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 26’ 54 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190924/libre-a-vous-20190924-annonces.ogg Annonces] 3 min 3 s==<br />
<br />
<b>Frédéric Couchet : </b>Dans la partie annonces, malheureusement nous allons commencer par une annonce très triste. Nous avons appris aujourd'hui, par un courriel de Pierre-Yves Gosset, le décès de Jean-Yves Royer à l’âge de 81 ans. Je reprends une partie du courriel de Pierre-Yves qui disait que Jean-Yves Royer était un militant du Libre d'une constance rare dans sa militance, ses engagements son humilité et son éthique. Il a notamment été pour des associations comme l’ALDIL, un groupe d’utilisateurs et d’utilisatrices de logiciels libres sur la région de Lyon ou La Mouette dont on a déjà parlé dans l’émission autour de la bureautique libre. Jean-Yves était un infatigable promoteur de OpenOffice puis de LibreOffice et des formats ouverts et cela jusqu'en prison où il formait bénévolement des détenus à l'informatique. Il était aussi un membre actif du réseau des Espaces Publics Numériques du Lyonnais et un bénévole régulier dans l'organisation des Journées Du Logiciel Libre de Lyon. C'était en plus quelqu'un d'adorable que nous avons eu le plaisir et la chance de côtoyer.<br/><br />
Évidemment nos condoléances et nos pensées vont vers sa famille et ses amis. Il y a un billet de Loïc Gervais qui donne un peu plus d'informations sur Jean-Yves Royer. On mettra la référence sur le site de l'April et sur le site de Cause Commune.<br />
<br />
Sans transition comme on dit dans ces cas-là, réponse au quiz de la première question, je ne me souviens même plus, en fait je me suis trompé tout à l’heure, ce n’était pas la première question. J'ai un trou de mémoire. Je vous demandais quel était le projet dont on a parlé la semaine dernière, le concours mondial qui se poursuit jusqu'au 30 septembre 2019. Ce concours c'est Wiki Lives Monuments. Vous retrouverez les références sur le site de l'April, vous pouvez proposer des photos de monuments jusqu'au 30 septembre 2019. Excusez-moi pour cet oubli.<br />
<br />
Dans l'actualité, ça va aller rapidement parce que je vois que le temps passe.<br/><br />
Il y a le projet de loi relatif à la lutte contre le gaspillage et à l'économie circulaire qui commence aujourd'hui au Sénat. Nous en avons longuement parlé dans l'émission du 17 septembre 2019. Nous avons mis en ligne une actualité avec les amendements et un certain nombre d'informations concernant ce projet de loi. Je vous invite à le consulter.<br/><br />
Il y a des appels à conférences, mais je les passerai la semaine prochaine parce que sinon je n’arriverai pas à tenir sur les évènements.<br/><br />
Simplement vous signaler quand même que nos amis de Next INpact, dont Xavier Berne qui intervient régulièrement dans l'émission font une rencontre le 27 septembre 2019 à Paris<br />
<br />
L’émission se termine.<br/><br />
Je remercie toutes les personnes qui ont participé : Isabella Vanni, Pascal Arnoux, Myriam Criquet, Christian Quest, Laurent Costy. Aux manettes à la régi Étienne Gonnu aidé de ma fille.<br/><br />
Vous retrouvez sur notre site april.org, les références pour l’émission.<br/><br />
Nous vous remercions d'avoir écouté l'émission.<br/><br />
La prochaine émission aura lieu en direct le 1<sup>er</sup> octobre 2019 à 15 heures 30. Nous parlerons de logiciel libre audio et la musique assistée par ordinateur.<br />
<br />
Nous vous souhaitons de passer une belle fin de journée. On se retrouve en direct mardi 1<sup>er</sup> octobre et d'ici là, portez-vous bien.<br />
<br />
<b>Générique de fin d’émission : </b><em>Wesh Tone</em> par Realaze.</div>D Ohttps://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_24_septembre_2019&diff=85868Libre à vous ! Radio Cause Commune - Transcription de l'émission du 24 septembre 20192019-09-26T14:27:38Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 24 septembre 2019 sur radio Cause Commune<br />
<br />
'''Intervenant·e·s :''' <br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 24 septembre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190917/libre-a-vous-20190924.ogg Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-24-septembre-2019-sur-radio-cause-commune Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
Transcrit<br />
<br />
==Transcription==<br />
<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 en Île-de-France et partout dans le monde sur causecommune.fm. Merci d’être avec nous aujourd’hui.<br/><br />
La radio dispose d’un webchat, utilisez votre navigateur web, rendez-vous sur le site de la radio, causecommune.fm, cliquez sur « chat » et ainsi retrouvez-nous sur le salon dédié à l’émission. La radio dispose également d’une application, Cause Commune, pour téléphone mobile.<br />
<br />
Nous sommes mardi 24 septembre 2019, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.<br/><br />
Soyez les bienvenus pour cette nouvelle édition de <em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.<br/><br />
Le site web de l’association est april.org et vous y retrouvez d’ores et déjà une page web consacrée à cette émission avec les références qui seront citées et la page sera évidemment mise à jour après l’émission si besoin.<br/><br />
N’hésitez pas également à nous faire des retours pour indiquer ce qui vous a plu mais aussi des points d’amélioration.<br/><br />
Si vous souhaitez réagir, poser une question pendant ce direct, n’hésitez pas à vous connecter sur le salon web de la radio, donc sur causecommune.fm, ou même à nous appeler au 09 50 39 67 59, je répète 09 50 39 67 59.<br/><br />
Nous vous souhaitons une excellente écoute.<br />
<br />
Nous allons passer au programme de cette émission.<br/><br />
Nous allons commencer dans quelques secondes par la chorionique d’Isabella Vanni « Le libre fait sa comm’ ».<br/><br />
D’ici 10 à 15 minutes nous aborderons notre sujet principal qui portera sur OpenStreetMap, un projet de cartographie qui a pour but de constituer une base de données géographiques libres du monde avec Christian Quest porte-parole d’OpenStreetMap France.<br/><br />
En fin d’émission nous aurons un échange avec Laurent Costy pour présenter le logiciel Bénévalibre.<br/><br />
À la réalisation de l’émission aujourd’hui Étienne Gonnu. Bonjour Étienne.<br />
<br />
<b>Étienne Gonnu : </b>Salut Fred.<br />
<br />
<b>Frédéric Couchet : </b>On va commencer comme d’habitude par un petit quiz. Je vous donnerai les réponses en fin d’émission et vous pouvez proposer des réponses évidemment sur le salon web de la radio, sur les réseaux sociaux ou tout autre moyen de nous contacter.<br/><br />
Première question : lors de l’émission du 17 septembre 2019, nous avons parlé d’un concours auquel il est encore possible de participer jusqu’au 30 septembre 2019. Quel est ce concours<br/><br />
Deuxième question : quel est le nom d’un célèbre noyau d’exploitation libre, sans doute le plus connu, et d’où vient son nom ?<br/><br />
Tout de suite place au premier sujet.<br />
<br />
[Virgule musicale]<br />
<br />
==2’37 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190924/libre-a-vous-20190924-chronique-le-libre-fait-sa-comm-isabella-vanni-interview-montpellibre.ogg Chronique « Le libre fait sa comm’ » de Isabella Vanni : interview de Montpel'libre] 15 min 20s== <br />
<br />
<b>Frédéric Couchet : </b>Parler d’actions de type sensibilisation menées par l’April, annoncer des évènements libristes avec éventuellement des interviews de personnes qui organisent des évènements, donner la parole à des groupes d’utilisateurs et d’utilisatrices du logiciel libre, c’est la chronique « Le libre fait sa comm’ » de ma collègue Isabella Vanni qui est coordinatrice vie associative et responsable projets à l’April. Bonjour Isabella.<br />
<br />
<b>Isabella Vanni : </b>Bonjour à tout le monde.<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<b>Frédéric Couchet : </b>Merci Pascal, merci Myriam, merci Isabella. C’était Montpel’libre avec Myriam Criquet et Pascal Arnoux. On va faire une pause musicale.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons passer une pause musicale. Nous allons écouter <em>Neutron star</em> par Ghandizilla et on se retrouve juste après.<br />
<br />
<b>Pause musicale : </b><em>Neutron star</em> par Ghandizilla.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Neutron star</em> par Ghandizilla/Raphaël Badawi. C’est sous licence libre Creative Commons Partage dans les mêmes conditions. Vous retrouverez les références sur le site de l’April, april.org,<br />
<br />
Vous écoutez toujours l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 en Île-de-France et partout ailleurs sur le site causecommune.fm. <br />
<br />
Avant de passer au sujet suivant je vais passer à la deuxième question du quiz car dans l’interview précédente le mot a été cité. Je rappelle la question : quel est le nom d’un célèbre système d’exploitation libre et d’où vient le nom ? Nos amis de Montpel’libre ont cité le nom « Linux » et ça vient du nom de son créateur qui s’appelle Linus Torvalds. Linux est un noyau, ce n’est pas un système d’exploitation complet. Je vous renvie à l’écoute de l’émission du 30 avril 2019 que nous avons consacrée aux distributions GNU/Linux et vous verrez pourquoi nous, on utilise le terme « GNU/Linux> » quand on fait référence à la distribution entière. Voilà ! C’était la réponse à la deuxième question du quiz et, pour la réponse à la première, nous attendrons la fin de l’émission.<br/><br />
Nous allons donc maintenant passer au sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
==22’ 10 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190924/libre-a-vous-20190924-openstreetmap-state-of-the-map-avec-christian-quest.ogg Open Street Map et State of the Map avec Christian Quest] 46 min 51 s== <br />
<br />
<b>Frédéric Couchet : </b><b>Frédéric Couchet : </b>Nous allons poursuivre avec notre sujet principal qui va porter sur OpenStreetMap avec Christian Quest porte-parole d’OpenStreetMap France. Bonjour Christian.<br />
<br />
<b>Christian Quest : </b>Bonjour.<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<b>Frédéric Couchet : </b>Évidemment tu peux rester. On va faire une pause musicale.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>On va écouter <em>God is Gone</em> par Big Albert et on se retrouve juste après.<br />
<br />
<b>Pause musicale : </b><em>God is Gone</em>par Big Albert .<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>God is Gone</em>par Big Albert que je remercie parce que c’est un membre de l’April qui nous signale régulièrement ses musiques libres. Celle-ci est sous licence libre Creative Commons Partage dans les mêmes conditions. Vous retrouverez évidemment les références sur le site de l’April, april.org, et sur le site de Cause Commune causecommune.fm.<br/><br />
Vous écoutez l’émission <em>Libre à vous !</em> sur radio Cause Commune sur 93.1 en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
Nous allons passer au sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 12’ 17 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190924/libre-a-vous-20190924-benevalibre-laurent-costy.ogg Bénévalibre avec Laurent Costy] 14 min 27 s==<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre avec une présentation de Bénévalibre, logiciel libre pour faciliter la gestion et la valorisation du bénévolat dans les associations. Notre invité c'est Laurent Costy, vice-président de l'Aptil, co-animateur du groupe de travail libre-association de l'April et directeur adjoint de la fédération française des MJC, des Maisons des Jeunes et de la Culture. Bpnjour plutôt rebonjour Laurent. <br />
<br />
<b>Laurent Costy : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Tu as intervenu dans le sujet...<br />
<br />
<b>Laurent Costy : </b>Même si on a coupé mon micro à un moment donné.<br />
<br />
<b>Frédéric Couchet : </b>Oui voilà. Étienne, il est facétieux en régie mais en même temps il a, à gérer ma fille qui est un peu dissipée. Alors d'abord, une petite question personnellle. Une petite question... Une présentation tout simplement personnelle de ton parcours. <br />
<br />
<b>Laurent Costy : <b> Tu m'as déjà un petit peu présenté puisque professionnellement effectivement, je travaille à la fédération française des MJC et puis évidemment je suis impliqué bénévolement au sein de l'April. Peut-être par rapport au projet dire que à l'époque où l'idée du projet s'est montée, j'étais dans le cadre plutôt en lien avec mon travail, président du CRAJEP. Donc : Comité Régional des Associations de Jeunesse et d'Éducation Populaire. Donc encore un bel acronyme désolé. Pour la faire claire, un peu plus clair pour les gens, ça regroupe à un échelon régional et là en l'occurrence c'était la Bourgogne Franche-Comté, des associations de jeunesse et d'éducation populaire. Pour ceux qui <br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<b>Frédéric Couchet : </b>On approche de la fin de l’émission. Nous allons faire des annonces.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 26’ 54 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190924/libre-a-vous-20190924-annonces.ogg Annonces] 3 min 3 s==<br />
<br />
<b>Frédéric Couchet : </b>Dans la partie annonces, malheureusement nous allons commencer par une annonce très triste. Nous avons appris aujourd'hui, par un courriel de Pierre-Yves Gosset, le décès de Jean-Yves Royer à l’âge de 81 ans. Je reprends une partie du courriel de Pierre-Yves qui disait que Jean-Yves Royer était un militant du Libre d'une constance rare dans sa militance, ses engagements son humilité et son éthique. Il a notamment été pour des associations comme l’ALDIL, un groupe d’utilisateurs et d’utilisatrices de logiciels libres sur la région de Lyon ou La Mouette dont on a déjà parlé dans l’émission autour de la bureautique libre. Jean-Yves était un infatigable promoteur de OpenOffice puis de LibreOffice et des formats ouverts et cela jusqu'en prison où il formait bénévolement des détenus à l'informatique. Il était aussi un membre actif du réseau des Espaces Publics Numériques du Lyonnais et un bénévole régulier dans l'organisation des Journées Du Logiciel Libre de Lyon. C'était en plus quelqu'un d'adorable que nous avons eu le plaisir et la chance de côtoyer.<br/><br />
Évidemment nos condoléances et nos pensées vont vers sa famille et ses amis. Il y a un billet de Loïc Gervais qui donne un peu plus d'informations sur Jean-Yves Royer. On mettra la référence sur le site de l'April et sur le site de Cause Commune.<br />
<br />
Sans transition comme on dit dans ces cas-là, réponse au quiz de la première question, je ne me souviens même plus, en fait je me suis trompé tout à l’heure, ce n’était pas la première question. J'ai un trou de mémoire. Je vous demandais quel était le projet dont on a parlé la semaine dernière, le concours mondial qui se poursuit jusqu'au 30 septembre 2019. Ce concours c'est Wiki Lives Monuments. Vous retrouverez les références sur le site de l'April, vous pouvez proposer des photos de monuments jusqu'au 30 septembre 2019. Excusez-moi pour cet oubli.<br />
<br />
Dans l'actualité, ça va aller rapidement parce que je vois que le temps passe.<br/><br />
Il y a le projet de loi relatif à la lutte contre le gaspillage et à l'économie circulaire qui commence aujourd'hui au Sénat. Nous en avons longuement parlé dans l'émission du 17 septembre 2019. Nous avons mis en ligne une actualité avec les amendements et un certain nombre d'informations concernant ce projet de loi. Je vous invite à le consulter.<br/><br />
Il y a des appels à conférences, mais je les passerai la semaine prochaine parce que sinon je n’arriverai pas à tenir sur les évènements.<br/><br />
Simplement vous signaler quand même que nos amis de Next INpact, dont Xavier Berne qui intervient régulièrement dans l'émission font une rencontre le 27 septembre 2019 à Paris<br />
<br />
L’émission se termine.<br/><br />
Je remercie toutes les personnes qui ont participé : Isabella Vanni, Pascal Arnoux, Myriam Criquet, Christian Quest, Laurent Costy. Aux manettes à la régi Étienne Gonnu aidé de ma fille.<br/><br />
Vous retrouvez sur notre site april.org, les références pour l’émission.<br/><br />
Nous vous remercions d'avoir écouté l'émission.<br/><br />
La prochaine émission aura lieu en direct le 1<sup>er</sup> octobre 2019 à 15 heures 30. Nous parlerons de logiciel libre audio et la musique assistée par ordinateur.<br />
<br />
Nous vous souhaitons de passer une belle fin de journée. On se retrouve en direct mardi 1<sup>er</sup> octobre et d'ici là, portez-vous bien.<br />
<br />
<b>Générique de fin d’émission : </b><em>Wesh Tone</em> par Realaze.</div>D Ohttps://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_17_septembre_2019&diff=85773Libre à vous ! Radio Cause Commune - Transcription de l'émission du 17 septembre 20192019-09-18T22:55:53Z<p>D O : Finalisation de la transcription des annonces</p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 3 septembre 2019 sur radio Cause Commune<br />
<br />
'''Intervenants :''' à la régie<br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 17 septembre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[ Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-17-septembre-2019-sur-radio-cause-commune Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
<br />
==Transcription==<br />
<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 FM en Île-de-France et partout dans le monde sur le site causecommune.fm. Merci d’être avec nous pour cette nouvelle édition de <em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.<br/><br />
La radio dispose d’un webchat, utilisez votre navigateur web, rendez-vous sur le site de la radio, causecommune.fm, cliquez sur « chat » et ainsi retrouvez-nous sur le salon dédié à l’émission. La radio dispose également d’une application, Cause Commune, pour téléphone mobile.<br/><br />
Nous sommes mardi 17 septembre 2019, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.<br/><br />
Le site web de l’April est april.org et vous pouvez déjà trouver une page consacrée à cette émission avec tous les liens et références utiles, les détails sur les pauses musicales et toute autre information utile en complément de l’émission et également les moyens de nous contacter. N’hésitez pas à nous faire des retours pour indiquer ce qui vous a plu mais aussi des points d’amélioration.<br/><br />
Nous vous souhaitons une excellente écoute.<br />
<br />
Maintenant le programme du jour.<br/><br />
Nous commencerons par la chronique « les Transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi qui portera sur le thème de « L’État de droit à l’État de surveillance ».<br/><br />
D’ici 10 à 15 minutes nous aborderons notre sujet principal qui portera sur l’obsolescence programmée et le projet de loi relatif à la lutte contre le gaspillage et à l’économie circulaire.<br/><br />
En fin d’émission nous aurons la chronique « Pépites libres » de Jean-Christophe Becquet qui portera sur le concours mondial de photos libres Wiki Loves Monuments.<br/><br />
À la réalisation de l’émission Étienne Gonnu. Bonjour Étienne.<br />
<br />
<b>Étienne Gonnu : </b>Salut Fred.<br />
<br />
<b>Frédéric Couchet : </b>Nous allons vous proposer un petit quiz, comme à chaque émission. Je vous donnerai les réponses en fin d’émission et vous pouvez proposer vos réponses soit sur le salon web de la radio, je rappelle sur causecommune.fm, soit sur les différents réseaux sociaux que nous fréquentons.<br/><br />
Les deux questions, la première : lors de l’émission du 10 septembre 2019, donc la semaine dernière, nous avons évoqué une nouvelle école d’informatique conçue avant tout par des femmes et qui s’adresse aux femmes post-bac. Quel est le nom de cette école ?<br/><br />
Deuxième question : on va parler dans l’émission du jour d’économie circulaire, de durée de vie, de réparabilité. Nous vous avions présenté il y a quelques mois des projets libres visant à rendre les terminaux mobiles non seulement plus libres mais aussi plus durables. Est-ce que vous pourriez citer un ou deux de ces projets ?<br/><br />
Tout de suite place au premier sujet.<br />
<br />
[Virgule musicale]<br />
<br />
==2’38 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190917/libre-a-vous-20190917-chronique-transcription-redonnent-gout-lecture-marie-odile-morandi-etat-de-droid-a-etat-de-surveillance.ogg Chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi 9 min 4 s== <br />
<br />
<b>Frédéric Couchet : </b>Les choix voire les coups de cœur de Marie-Odile Morandi qui mettent en valeur deux-trois transcriptions dont elle conseille la lecture, c’est la chronique « Les transcriptions qui redonnent le goût de la lecture » donc de Marie-Odile Morandi, animatrice du groupe de travail Transcriptions de l’April. Bonjour Marie-Odile.<br />
<br />
<b>Marie-Odile Morandi : </b>Bonjour à tous.<br />
<br />
<b>Frédéric Couchet : </b>Quel est ton coup de cœur aujourd’hui ?<br />
<br />
<b>Marie-Odile Morandi : </b>Effectivement, ce mois-ci c’est véritablement un coup de cœur. Il s’agit d’une conférence donnée à l’Ubuntu Party qui a eu lieu à Paris au mois de mai dernier, que j’avais écoutée en partie, parce que c’est quand même formidable ce réseau des réseaux qui nous permet de suivre en direct des conférences à distance, et je m’étais dit « dès que c’est en ligne, c’est absolument à transcrire ». Il s’agit de l’intervention de Asma Mhalla, maître de conférences à Sciences Po, qui dure une cinquantaine de minutes et est intitulée « De l’État de droit à l’État de surveillance ».<br />
<br />
Asma Mhalla nous explique que l’État de droit repose sur trois éléments :<br />
<ul><br />
<li>la loi,</li><br />
<li>le contrôle de la loi donc la surveillance</li><br />
<li>et la bienveillance</li><br />
</ul><br />
Concernant la loi, elle estime que nous sommes très bons en France, elle parle de logorrhée juridique, puisqu’à chaque événement particulier on a ce réflexe, mot qu’elle préfère au mot dérive, de pousser une loi supplémentaire : loi antiterroriste, loi anti-<em>fake news</em>, loi anti-casseurs.<br/><br />
Le contrôle est exercé par l’État et par ce qu’elle appelle les méta-plateformes que sont les GAFAM.<br/><br />
Au sujet de la bienveillance, elle se demande si l’État est toujours en train de maintenir un État de droit pour le bien commun, pour l’intérêt général, ou si l’État, c’est-à-dire l’ensemble des institutions, l’ensemble des fonctionnaires, des hauts-fonctionnaires, est en train de jouer sa survie au service de son propre intérêt parce qu’elle trouve ces lois tellement vagues qu’elles pourront faire dire et faire faire n’importe quoi à n’importe qui si elles sont mal manipulées. <br />
<br />
Le constat est établi qu’aujourd’hui la demande de la part des citoyens, c’est-à-dire nous, est une demande sécuritaire ; elle parle de discours obsessionnel : on vit pour la sécurité ; la sécurité n’est plus le moyen d’assurer la vie paisible de tous, mais devient l’objectif.<br />
<br />
Asma Mhalla constate une différence fondamentale entre l’État et les méta-plateformes : ces dernières portent une vision du monde, une vision de l’humanité et elles savent où elles veulent aller. Grâce à leurs fonds pharamineux elles financent la recherche fondamentale, les expérimentations, les développements par exemple sur l’intelligence artificielle et aujourd’hui, les meilleurs chercheurs vont chez Facebook et chez Google offrir leurs compétences. La recherche fondamentale ne se fait quasiment plus dans les universités, dans les centres de recherche. Ce qui pose d’autres interrogations que je vous laisse découvrir.<br/><br />
Les questions fusent : est-ce qu’on partage cette vision du monde ? Est-ce que c’est le monde que nous souhaitons, vers lequel nous voulons aller ? Est-ce que collectivement, donc via l’État, il nous est donné la possibilité d’en débattre ?<br/><br />
Ces méta-plateformes arrivent à un moment d’affaiblissement de l’État social et disent : « nous allons préempter un certain nombre de fonctions sociales qui initialement étaient, entre guillemets, « gratuites » et collectives, comme l’éducation, la santé ».<br />
<br />
Et que se passe-t-il ? L'État cherche à se transformer en État-plateforme, à se mettre au niveau de ces méta-plateformes dont il accepte les règles et la concurrence qu’elles vont lui faire. La fonction sociale de l’État va disparaître, ses prérogatives seront de plus en plus sécuritaires, de moins en moins sociales. Donc la collusion entre ces plateformes de l’économie numérique et l’État fait apparaître une nouvelle gouvernance mondiale.<br />
<br />
Elle rappelle un discours du président de la République dans lequel il a lancé le concept de co-régulation entre État et plateformes, avec une répartition des tâches laissant ce qu’elle appelle le punitif à l’État.<br/><br />
En effet, si tout d’un coup les plateformes entraient dans une logique punitive on pourrait ne plus les utiliser de façon aussi massive, parce qu’on aurait alors peur ; ce qui ne ferait pas leur affaire parce que tout leur modèle économique est basé sur notre désir de nous exposer.<br/> <br />
L’État a aussi besoin de ces plateformes parce que c’est là où il va chercher nos données personnelles, d'où la surveillance, qui est bien organisée sur la base de nos données personnelles.<br />
<br />
Sa conclusion est claire : le contrat social qui était « liberté contre sécurité » ou « sécurité contre liberté, est devenu « liberté contre sécurité contre vie privée ».<br />
<br />
<b>Frédéric Couchet : </b>D’accord. C’est ton coup de cœur et selon toi la transcription de cette conférence doit être lue et relue ?<br />
<br />
<b>Marie-Odile Morandi : </b>Tout à fait. Je me permets de vous inciter à écouter cette conférence, à lire ou relire sa transcription. J’ai trouvé la réflexion de Asma Mhallah personnelle et pertinente, donc à partager. Cela nous concerne tous. Elle nous conseille de nous documenter, de nous renseigner, de porter un regard critique. Pour elle, à l’école on ne doit pas se limiter à l’étude du code : il faut une formation à l’éthique, à l’économie numérique, car il s’agit de comprendre les enjeux d’autonomie individuelle et collective qui ne sont absolument pas des enjeux de codage, qui ne sont pas des enjeux d’informaticiens. Ce sont des enjeux de vivre ensemble, de vision du monde et, fondamentalement des enjeux de démocratie.<br />
<br />
Je vais répéter l’intitulé de cette conférence « De l’État de droit à l’État de surveillance » et vous trouverez le lien vers la transcription sur le site de l’April sur la page des références concernant l’émission d’aujourd’hui.<br />
<br />
<b>Frédéric Couchet : </b>Effectivement sur april.org. Est-ce que tu voulais mentionner autre chose, une autre transcription ?<br />
<br />
<b>Marie-Odile Morandi : </b>Tout à fait. Comme dit précédemment, on en revient toujours à la formation de base et à ce qui est enseigné ou devrait être enseigné dans les écoles. Peut-être, diront certains, que c’est quelque chose de convenu en ce mois de septembre traditionnellement mois de rentrée scolaire, mais je voulais rappeler les transcriptions de diverses conférences tenues par Richard Stallman en France et en français, depuis 2013, dans lesquelles il répète inlassablement que « les écoles devraient utiliser exclusivement du logiciel libre. »<br/><br />
Là aussi vous trouverez les liens concernant ces transcriptions à l’onglet références sur la page consacrée à l’émission d’aujourd’hui et vous pourrez relire les explications données par Richard Stallman dans chacune de ces conférences.<br/><br />
<br />
Pour approfondir le sujet, je tiens à rappeler la transcription de la chronique de Véronique Bonnet dans l’émission <em>Libre à vous !</em> du 9 avril de cette année. Elle montre que Richard Stallman, dans ses arguments, commence toujours par ce qui est le moins important, l’argument monétaire, pour arriver à ce qui est le plus essentiel, l’éducation morale, l’habitude d’aider les autres.<br />
<br />
Je vais faire miennes les paroles prononcées par le lieutenant-colonel Stéphane Dumond de la Gendarmerie nationale dans l’émission <em>Libre à vous !</em> du 3 septembre, j’ouvre des guillemets, « j’insiste, je martèle, mais la marteau thérapie a parfois du bon ». Je pense donc qu’il est nécessaire de rappeler inlassablement les fondamentaux concernant l’enseignement de l’informatique au sein de nos établissements, d’autant plus que de nouveaux programmes doivent être mis en place au cours de cette année scolaire en particulier au lycée. Souhaitons que les préconisations de Richard Stallman concernant l’utilisation du logiciel libre de la maternelle à l’université soient respectées et sincèrement mises en œuvre.<br />
<br />
Voilà pour la chronique « Les transcriptions qui redonnent le goût de la lecture » de ce mois de septembre 2019.<br />
<br />
<b>Frédéric Couchet : </b>Écoute Marie-Odile merci pour ces transcriptions. Tu as parlé en introduction de l’Ubuntu Party à Paris du mois de mai dernier donc 2019, j’en profite pour signaler que la prochaine Ubuntu Party aura lieu les 16 et 17 novembre 2019 à la Cité des sciences et de l’industrie. Comme tu viens de parler de Richard Stallman qui est dans l’actualité, je signale que je ferai un petit point sur l’actualité en fin d’émission concernant Richard Stallman.<br/><br />
Merci Marie-Odile. On se retrouve le mois prochain, je te souhaite de passer une belle fin de journée.<br />
<br />
<b>Marie-Odile Morandi : </b>Merci. À vous tous et toutes aussi, bonne soirée.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons passer une pause musicale. Nous allons écouter <em>Beyond the door</em> par Les journées musicales de Ziklibrenbib et on se retrouve juste après.<br />
<br />
<b>Pause musicale : </b><em>Beyond the door</em> par Les journées musicales de Ziklibrenbib.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Beyond the door</em> par Les journées musicales de Ziklibrenbib disponible sous licence libre Creative Commons Partage dans les mêmes conditions. Vous retrouverez les références sur le site de l’April, april.org, et, pour en savoir plus sur Ziklibrenbib vous pouvez écouter l’émission du 9 juillet 2019.<br />
<br />
Vous écoutez toujours l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 en Île-de-France et partout ailleurs sur le site causecommune.fm. Nous allons passer maintenant au sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre avec notre sujet principal qui a été enregistré ce matin, qui porte sur l’obsolescence programmée, le projet de loi relatif à la lutte contre le gaspillage et à l’économie circulaire avec nos invités Adèle Chasson de Halte à l'Obsolescence Programmée et Frédéric Bordage de GreenIT.fr.<br />
<br />
<br />
==16’ 18 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190917/libre-a-vous-20190917-obsolescence-programmee-et-projet-loi-economie-circulaire-avec-adele-chasson-de-HOP-et-frederic-bordage-de-greenit-fr.ogg Obsolescence programmée et projet de loi économie circulaire avec Adèle Chasson de Halte à l'Obsolescence Programmée et Frédéric Bordage de GreenIT.fr 48 min 53 s== <br />
<br />
<b>Étienne Gonnu : </b>Bonjour.<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
Nous allons faire une pause musicale<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons écouter <em>Seven Sisters</em> par Bert Jerred et on se retrouve juste après.<br />
<br />
<b>Pause musicale : </b><em>Seven Sisters</em> par Bert Jerred.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Seven Sisters</em> par Bert Jerred, musique libre disponible sous licence libre Creative Commons Attribution. Vous retrouverez les références sur le site de l’April, april.org.<br/><br />
Vous écoutez toujours l’émission <em>Libre à vous !</em> sur radio Cause Commune sur 93.1 en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
Nous allons passer sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 08’ 38 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190917/libre-a-vous-20190917-chronique-pepites-libres-jean-christophe-becquet-concours-mondial-photos-libres-wiki-loves-monuments.ogg Chronique « Pépites libres » de Jean-Christophe Becquet sur le concours mondial de photos libres Wiki Loves Monuments] 9 min 25 s ==<br />
<br />
<b>Frédéric Couchet : </b>Textes, images, vidéos ou bases de données, sélectionnés pour leur intérêt artistique, pédagogique, insolite, utile, Jean-Christophe Becquet nous présente une ressource sous une licence libre. Les auteurs à l’origine de ces pépites ont choisi de mettre l’accent sur les libertés accordées à leur public, parfois avec la complicité du chroniqueur. C’est donc la chronique « Pépites libres » de Jean-Christophe Becquet, président de l’April. Bonjour Jean-Christophe.<br />
<br />
<b>Jean-Christophe Becquet : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Aujourd’hui tu vas nous parler du concours mondial de photos libres Wiki Loves Monuments.<br />
<br />
<b>Jean-Christophe Becquet : </b>Oui ! Wiki Loves Monuments est, comme tu l’as dit, un concours mondial de photos libres qui se déroule pendant tous le mois de septembre. Il porte sur le patrimoine architectural et vise notamment à illustrer les articles de l'encyclopédie libre Wikipédia.<br />
<br />
Le concours, initié en 2010 aux Pays-Bas, a été officiellement reconnu comme le plus grand concours de photographie du monde en 2012. Il se décline aujourd'hui dans 48 pays et a déjà permis d'enrichir la médiathèque libre Wikimedia Commons de plus d'un million et demi d'images partagées par 60 000 contributeurs.<br/><br />
Dans chaque pays participant, un jury choisit les dix meilleures photos qui participent ensuite à la sélection mondiale.<br />
<br />
En France, l'édition 2019 porte sur quelque 200 000 bâtiments et autres trésors du patrimoine. Le site du concours donne la liste des monuments éligibles que l'on peut localiser sur une carte. Il suffit de zoomer sur votre commune pour trouver les monuments à photographier autour de chez vous. N'hésitez pas à profiter des Journées européennes du patrimoine pour participer à votre tour. Vous pouvez prendre de nouvelles photos ou fouiller vos disques durs pour sélectionner vos meilleurs clichés. Il suffit ensuite de les partager sous licence libre Creative Commons CC BY-SA (Attribution – Partage à l'identique). Il n'est pas obligatoire que les photos aient été prises en septembre. C'est la date de dépôt sur Wikimedia Commons qui fait foi. Aussi n'oubliez pas, vos anciennes photos sont également éligibles.<br />
<br />
Chaque contributeur peut soumettre plusieurs photos, il n'y a pas de limitation.<br />
<br />
Wiki Loves Monuments a reçu le soutien de l'UNESCO qui souhaite encourager la création de contenus sous licence libre.<br/><br />
Dans le cadre des Journées européennes du patrimoine l'association Wikimédia France tiendra un stand à la Maison de l'UNESCO, ce week-end, samedi 21 et dimanche 22 septembre, de 10 heures 30 à 18 heures. Ils invitent le public à « devenir acteur de la promotion et de la protection du patrimoine de manière ludique ». Si vous êtes sur Paris, n'hésitez pas à venir à leur rencontre.<br />
<br />
Au printemps a lieu un autre concours, Wiki Loves Earth. Celui-ci, consacré au patrimoine naturel, se déroule chaque année en mai. En attendant de connaître les finalistes du millésime 2019 Wiki Loves Earth, on peut déjà parcourir les photos gagnantes de l'édition française et de plusieurs autres pays. Vous pouvez me croire, on y trouve plusieurs pépites !<br />
<br />
<b>Frédéric Couchet : </b>Merci Jean-Christophe. On va indiquer que le site de Wiki Loves Monuments est wikilovesmonuments tout attaché point fr. C’est bien ça ?<br />
<br />
<b>Jean-Christophe Becquet : </b>Exact, pour l’édition française.<br />
<br />
<b>Frédéric Couchet : </b>Pour l’édition française parce que c’est une édition mondiale et c’est important effectivement, le site précise quels monuments sont éligibles. Tiens, je vais poser une question : est-ce que tous les monuments sont éligibles avec notamment les questions de droit des photographes ou des éclairages ? Est-ce que tous les monuments sont éligibles à ce concours ?<br />
<br />
<b>Jean-Christophe Becquet : </b>Éligibles au concours au sens où effectivement on souhaite avoir des photos libres du plus grand nombre possible de monuments, mais les organisateurs du concours précisent très bien que des contributeurs doivent vérifier les autres droits attachés aux photos qui sont soumises dans le cadre du concours. Effectivement, en France il n’y a pas ce qu’on appelle la liberté de panorama qui permet d’avoir le droit de photographier des bâtiments dont les droits de l’architecte ou d’éclairage, comme dans le cas de la Tour Eiffel à Paris, sont protégés. Ça, effectivement, c’est une restriction sur les contributions possibles.<br/><br />
Il n’en demeure pas moins qu’aujourd’hui il y a un très grand nombre de bâtiments qui ne sont plus protégés par des droits et qu’on peut aller librement photographier pour illustrer Wikipédia et contribuer au concours Wiki Loves Monuments.<br />
<br />
<b>Frédéric Couchet : </b>On peut contribuer jusqu’à quelle date ?<br />
<br />
<b>Jean-Christophe Becqquet : </b>C’est tout le mois de septembre, jusqu’au dernier jour de septembre à minuit. Comme je l’ai dit c’est la date de dépôt, la date de mise en ligne des photos dans le cadre du concours qui fait foi. Même si on a des photos qui datent d’il y a quelques années ou qui ont été prises à une autre saison, on peut tout à fait les soumettre, la seule condition c’est de respecter le délai de mise en ligne dans le cadre du concours avant le 30 septembre à minuit.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Peut-être une question piège parce que je ne sais pas si tu sais, mais qui sont les membres du jury qui vont choisir ces dix meilleures photos ?<br />
<br />
<b>Jean-Christophe Becquet : </b>Pour l’édition française, le jury est composé d’experts, de contributeurs à Wikipédia experts en patrimoine, de photographes professionnels et je crois qu’il y a également le ou des vainqueurs de précédentes éditions du concours Wiki Loves Monuments.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Est-ce que toi, à titre personnel, tu as déjà participé ? Tu vas participer ?<br />
<br />
<b>Jean-Christophe Becquet : </b>Non, je n’ai jamais participé, je ne suis pas photographe. Par contre, à plusieurs reprises, j’ai utilisé des photos de ces concours Wiki Loves Monuments et Wiki Loves Earth pour illustrer des activités, des conférences. Pour la précédente édition Wiki Loves Earth, avec la médiathèque de ma ville Digne-les-Bains, on a accompagné des publics de la médiathèque à participer au concours et là, à nouveau pour l’édition Wiki Loves Monuments, des personnes présentes à Digne qui voudraient participer au concours mais qui ne maîtrisent pas la mise en ligne de leurs photos, les questions de licence, etc., peuvent venir à la médiathèque pour être aidées, pour être accompagnées dans leur participation au concours.<br />
<br />
<b>Frédéric Couchet : </b>D'accord. Donc comme tu l’as dit tout à l’heure il y a une présentation qui a lieu par Wikipédia France qui est la structure qui organise ce concours à la Maison de l'UNESCO qui est à Paris, donc ce week-end samedi 21, dimanche 22 septembre. On rappelle que c’est aussi dans le cadre des Journées européennes du patrimoine. Je suppose qu’il y a d’autres évènements qui se passent dans d’autres régions et qui doivent être annoncés sur le site de l’Agenda du libre, agendadulibre.oprg.<br />
<br />
<b>Jean-Christophe Becquet : </b>Oui, tout à fait. En France je n’en ai pas vu pour Wiki Loves Monuments, mais j’ai vu qu’en Italie, par exemple, de plus en plus de territoires s’emparent de ce concours Wiki Loves Monuments pour organiser des éditions locales qui donnent lieu, ensuite, à des petites remises de prix, à des expositions locales. Les concours, en fait, s’imbriquent les uns dans les autres par territoires croissants, c’est-à-dire qu’on a d’abord les éditions locales – nous à Digne, on avait organisé un Wiki Loves Earth sur la région Sud PACA – ensuite les concours nationaux, Wiki Loves Monuments France, Wiki Loves Monuments Espagne, Italie, etc., et ensuite le concours mondial. L’objectif, en fait, c’est d’encourager le plus grand nombre de contributeurs à participer à ce concours.<br />
<br />
<b>Frédéric Couchet : </b>Je précise que pour les contributeurs ou contributrices francophones, sur le site wikilovesmunments.fr il est indiqué qu’il y a aussi des actions en Tunisie, au Maroc, en Algérie ainsi qu’au Canada. Donc il y a un lien qui permet de voir si le pays participe à cet évènement, à ce concours mondial de photos libres. Donc wikilovesmonuments.fr.<br/><br />
Est-ce que tu souhaites ajouter quelque chose, cher Jean-Christophe.<br />
<br />
<b>Jean-Christophe Becquet : </b>Non. C’est tout pour aujourd’hui, merci.<br />
<br />
<b>Frédéric Couchet : </b>D'accord. On se retrouve le mois prochain pour la prochaine chronique « Pépites libres ». Je te souhaite une belle journée. <br />
<br />
<b>Jean-Christophe Becquet : </b>Entendu. Merci. Belle journée à tous les auditeurs et auditrices. Au revoir.<br />
<br />
<b>Frédéric Couchet : </b>Nous approchons de la fin de l’émission. Nous allons terminer par quelques annonces.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 18’ 13 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190917/libre-a-vous-20190917-annonces.ogg Annonces] 11 min 44 s==<br />
<br />
<b>Frédéric Couchet : </b>On a un peu de temps parce qu'on est un petit peu en avance. Donc les annonces. D'abord, je vais répondre aux questions du quiz. Parce que évidemment si j'oublie les réponses... Donc la première question c'était : Lors de l'émission du 10 septemnbre 2019, nous avions évoqué une nouvelle école d'informatique conçue avant tout par des femmes et qui s'adresse aux femmes post-bac. La question c'était : Quel est le nom de cette école ? Et bien le nom c'est : Ada Tech School. Le site web c'est, ada-school.com. Ça se passe en France, je crois de mémoire que c'est à Paris. Et j'en profite pour signaler d'ailleurs concernant Ada donc Ada Lovelace qui est la première programmeuse de l'histoire, le livre de Catherine Dufour qui s'intitule <em>Ada ou la beauté des nombres</em> et je pense qu'on va envoyer une invitation prochainement une invitation à Catherine Dufour pour venir nous parler un petit peu de Ada Lovelace. <br />
<br />
La deuxième question concernait le sujet du jour : l'économie circulaire, l'obsolescence programmée, la durée de vie, la réparabilité de nos outils informatiques. Et la question c'était : nous vous avions présenté il y a quelques mois, des projets libres visant à rendre des terminaux mobiles non seulement plus libres mais aussi plus durables et on vous demandait si vous pouviez en citer un ou deux de ces projets. C'était dans l'émission du 6 novembre 2018. Le podcast et la transcription sont en ligne sur le site de l'april, april.org et sur causecommune.fm. Et parmi ces projets notamment, il y a : LineageOS, Replicant, il y a le Fairphone, Librem donc qui sont à la fois du matériel du logiciel libre. Donc écoutez l'émission du 6 novembre 2018 et vous en saurez plus sur ces outils libres.<br />
<br />
Je vais continuer ensuite... D'abord, avant les annonces, dans le premier sujet du jour, Marie-Odile nous a parlé de textes de Richard Stallman qui est une des personnes à lorigine du mouvement du logiciel libre dans les années 80. Qui est fondateur et qui était jusqu'à tout récemment toujours président de la fondation pour le logiciel libre. Je disais dans le sujet que Richard Stallman est dans l'actualité depuis ce week-end mais pas pour de bonnes raisons. Il a été annoncé hier soir la démission de Richard Stallman de son poste de président de la fondation pour le logiciel libre. Cela fait suite à des publications d'échanges de courriels sur une liste interne du MIT. Une université et institut de recherche américain dans lequel Richard Stallman a travaillé dans le passé, dans lequel il a toujours un bureau. Ces échanges porte sur les conséquences de l'affaire Jeffrey Epstein donc le traffic de personnes mineures. Conséquences au MIT notamment l'implication d'un ancien collègue de Richard Stallman : Marvin Minsky, grand scientiique américain et qui a travaillé de très nombreuses années au MIT. Je crois que de mémoire, il dirigeait le laboratoire d'intelligence artificielle. À noter que Marvin Minsky et Jeffrey Epstein sont tous les deux décédés. Jeffrey Epstein récemment en août 2019 et Marvin Minsky en 2019. Donc des échanges de courriels qui ont générés un certain nombre de réactions. La fondation pour le logiciel libre n'a pas donné de détails concernant la démission de Richard Stallman et on va éviter de réagir à chaud. Mais, nous publierons une réaction sur notre site. Et en attendant, si vous souhaitez en savoir plus, je vous invite à consulter l'article du <em>monde</em> publié aujourd'hui qui relate l'affaire avec les extraits d'échanges, les articles de presse américains, la façon dont ils ont relayés l'information. Donc c'est sur le site du monde.fr. Je n'ai pas en tête le titre de l'article mais je crois que ça fait la une en tout cas, c'est sur la page d'accueil du <em>monde</em>. Donc voilà, nous ferons une réaction écrite sur le site de l'April et je vous en parlerai sans doute la semaine prochaine. <br />
<br />
Alors je regarde le temps, il reste encore quelques minutes pour des annonces. D'abord, <em>Paris Open Source Summit</em> se déroule à Paris le 10 et 11 décembre 2019. Plus précisément à Aubervilliers aux docks Pullman. L'appel à conférences est ouvert donc vous pouvez proposer des conférences pour cette édition de <em>Paris Open Source</em> 2019, 10 et 11 décembre. Alors le 10 décembre étant un mardi, il est fort possible que nous diffusions en direct l'émission <em>Libre à vous !</em> depuis <em>Paris Open Source Summit</em>. Nous vous confirmerons ça rapidement. Toujours dans les appels à conférences, il y a le <em>capitole du libre</em> qui se déroule à Toulouse les 16 et 17 novembre. L'appel à propositions de conférences et de stands est également ouvert jusqu'au 6 octobre 2019. J'en profite pour rappeler que le même week-end, les 16 et 17 novembre, il y a à Paris l'<em>Ubuntu Party</em> donc bientôt il y aura aussi l'appel à propositions de conférences et de stands. En ce moment se déroule également <em>la fête des possibles</em> du 14 au 29 septembre. Alors, c'est des organisations de la transition. Des centaines de rendez-vous sont prévus en France pour rendre visible des initiatives locales qui embellissent la société et construisent un avenir plus durable et solidaire. Le mot d'ordre de cette fête c'est : «C'est possible». C'est possible de manger bio et à moindre coût, c'est possible de se déplacer au quotidien sans polluer, c'est possible d'utiliser des logiciels libres. Donc évidemment, il y a des événements de sensibilisation au logiciel libre qui sont organisés. Le site c'est : fete-des-possibles.org. À Nantes cette semaine, se déroulent les rencontres régionales du logiciel libre donc le 19 septemnbre. Ces rencontres s'adressent aussi bien aux services informatiques qu'aux services métiers notamment donc des collectivités qui trouveront des réponses à leurs problématiques techniques et besoins fonctionnels. Le site c'est sur alliance-libre.org qui est un regroupement d'entreprises du logiciel libre sur la région Nantaise. Ça se passe le 19 septembre à Nantes. Cette semaine encore, jeudi soir, il y a la soirée de contribution au libre à la FPH à Paris dans le 11e et c'est également la réunion du groupe de travail sensibilisation dans le cadre de cette soirée de contribution au libre donc c'est à partir de 19 heures 30 à la FPH dans le 11e. Et le même soir, à Montpellier, il y a un apéro April qui est organisé par Montpel'libre. Je précise d'ailleurs que Montpel'libre qui est un groupe d'utilisateurs et d'utilisatrices de logiciels libres de Montpellier seront nos invités pour une interview téléphonique la semaine prochaine donc dans l'émission du 24 septembre. Évidemment, tous ces événements sont annoncés sur le site de l'April, april.org et également sur le site de <em>L'agenda du libre</em><br />
<br />
Alors je poursuis dans les annonces, cette semaine il y en a beaucoup mais comme on a le temps, ça va. Ce n'est pas juste pour combler. On m'a signalé sur le salon Web, la semaine québécoise de l'informatique libre dans la région de Montréal du 21 au 29 septembre 2019. Donc pareil, les informations sont sur le site de l'April. Donc ça dure plus d'une semaine avec des événements de sensibilisation au logiciel libre autour de Montréal et c'est organisé par l'association qui s'appelle FACIL qui sont des camarades, un petit peu comme l'April en France.<br />
<br />
Alors, est-ce que il y a d'autres annonces ? Oui ! Je vais en faire une petite rapide. Alors, je me mets simplement sur la bonne page pour le pas me tromper. Elle est où ? Voilà. Associations, si vous voulez tester un logiciel libre pour faciliter la valorisation du bénévolat et bien a été lancé il y a quelques jours Bénévalibre donc un logiciel libre destiné à faciliter la valorisation du bénévolat dans les associations avec notamment à l'initiative le CRAJEP, Comité Régional des Associations de Jeunesse Éducation Populaire de Bourgogne-Franche-Comté avec le soutien de la région Bourgogne-Franche-Comté, de la fondation du crédit coopératif avec les conseils et l'appui technique de Framasoft et de l'April. Le développement a été confié à une entreprise du logiciel libre du Nord qui s'appelle Cliss XXI. Donc le site Web c'est, benevalibre.org et nous aurons la semaine prochaine si je ne me trompe pas, une interview de Laurent Costy qui a piloté ce projet donc dans l'émission du 24 septembre 2019.<br />
<br />
Je crois que j'ai fait le tour des annonces. Si vous pensez que j'en ai oublié, elles sont sur le site, agendadulibre.org. Je vérifie sur le salon Web si on me signale quelque chose, non à priori. Ah oui ! On me signale simplement que l'article du <em>monde</em>, le titre de l'article du <em>monde</em> dont je parlais tout à l'heure c'est : <em>Richard Stallman, précurseur du logiciel libre, démissionne du MIT et de la Free Software Foundation</em> donc de la fondation pour le logiciel libre en bon Français.<br />
<br />
Notre émission se termine. Je remercie les personnes qui ont participé à l'émission : Marie-Odile Morandi, Adèle Chasson, Frédéric Bordage, Étienne Gonnu, Jean-Christophe Becquet. Je remercie également Isabella Vanni qui a assuré la régie ce matin lors de l'enregistrement du sujet sur l'’obsolescence programmée. Vous retrouvez sur notre site web april.org, toutes les références utiles ainsi que sur le site de la radio, causecommune.fm. Évidemment, n'hésitez pas à nous faire des retours pour nous indiquer ce qui vous a plu mais aussi des points d'amélioration. Toutes vos remarques et questions sont les bienvenues à l'adresse courriel libreavous@april.org. «libreavous» tout attaché. Nous vous remercions très sincèrement d'avoir écouté l'émission. Si vous avez aimé cette émission, n'hésitez à en parler le plus possible autour de vous. La prochaine émission aura lieu en direct mardi 24 septembre 2019 à 15 heures 30 et ce coup-ci, ça sera totalement en direct. Notre sujet principal portera sur OpenStreetMap, le projet de cartographie du monde de manière libre et coopératif. C'est la deuxième émission consacrée à ce sujet-là. N'hésitez pas à nous envoyer des questions avant l'émission que ce soit par courriel, sur les réseaux sociaux, sur le salon web de l'émission, par tous les moyens que vous voulez. Christian Quest sera notre invité pour nous parler d'OpenStreetMap y répondra avec plaisir. Nous vous souhaitons de passer une très belle fin de journée. On se retrouve donc en direct mardi 24 septembre et d'ici là, portez-vous bien.</div>D Ohttps://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_17_septembre_2019&diff=85772Libre à vous ! Radio Cause Commune - Transcription de l'émission du 17 septembre 20192019-09-18T22:18:53Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 3 septembre 2019 sur radio Cause Commune<br />
<br />
'''Intervenants :''' à la régie<br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 17 septembre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[ Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-17-septembre-2019-sur-radio-cause-commune Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
<br />
==Transcription==<br />
<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 FM en Île-de-France et partout dans le monde sur le site causecommune.fm. Merci d’être avec nous pour cette nouvelle édition de <em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.<br/><br />
La radio dispose d’un webchat, utilisez votre navigateur web, rendez-vous sur le site de la radio, causecommune.fm, cliquez sur « chat » et ainsi retrouvez-nous sur le salon dédié à l’émission. La radio dispose également d’une application, Cause Commune, pour téléphone mobile.<br/><br />
Nous sommes mardi 17 septembre 2019, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.<br/><br />
Le site web de l’April est april.org et vous pouvez déjà trouver une page consacrée à cette émission avec tous les liens et références utiles, les détails sur les pauses musicales et toute autre information utile en complément de l’émission et également les moyens de nous contacter. N’hésitez pas à nous faire des retours pour indiquer ce qui vous a plu mais aussi des points d’amélioration.<br/><br />
Nous vous souhaitons une excellente écoute.<br />
<br />
Maintenant le programme du jour.<br/><br />
Nous commencerons par la chronique « les Transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi qui portera sur le thème de « L’État de droit à l’État de surveillance ».<br/><br />
D’ici 10 à 15 minutes nous aborderons notre sujet principal qui portera sur l’obsolescence programmée et le projet de loi relatif à la lutte contre le gaspillage et à l’économie circulaire.<br/><br />
En fin d’émission nous aurons la chronique « Pépites libres » de Jean-Christophe Becquet qui portera sur le concours mondial de photos libres Wiki Loves Monuments.<br/><br />
À la réalisation de l’émission Étienne Gonnu. Bonjour Étienne.<br />
<br />
<b>Étienne Gonnu : </b>Salut Fred.<br />
<br />
<b>Frédéric Couchet : </b>Nous allons vous proposer un petit quiz, comme à chaque émission. Je vous donnerai les réponses en fin d’émission et vous pouvez proposer vos réponses soit sur le salon web de la radio, je rappelle sur causecommune.fm, soit sur les différents réseaux sociaux que nous fréquentons.<br/><br />
Les deux questions, la première : lors de l’émission du 10 septembre 2019, donc la semaine dernière, nous avons évoqué une nouvelle école d’informatique conçue avant tout par des femmes et qui s’adresse aux femmes post-bac. Quel est le nom de cette école ?<br/><br />
Deuxième question : on va parler dans l’émission du jour d’économie circulaire, de durée de vie, de réparabilité. Nous vous avions présenté il y a quelques mois des projets libres visant à rendre les terminaux mobiles non seulement plus libres mais aussi plus durables. Est-ce que vous pourriez citer un ou deux de ces projets ?<br/><br />
Tout de suite place au premier sujet.<br />
<br />
[Virgule musicale]<br />
<br />
==2’38 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190917/libre-a-vous-20190917-chronique-transcription-redonnent-gout-lecture-marie-odile-morandi-etat-de-droid-a-etat-de-surveillance.ogg Chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi 9 min 4 s== <br />
<br />
<b>Frédéric Couchet : </b>Les choix voire les coups de cœur de Marie-Odile Morandi qui mettent en valeur deux-trois transcriptions dont elle conseille la lecture, c’est la chronique « Les transcriptions qui redonnent le goût de la lecture » donc de Marie-Odile Morandi, animatrice du groupe de travail Transcriptions de l’April. Bonjour Marie-Odile.<br />
<br />
<b>Marie-Odile Morandi : </b>Bonjour à tous.<br />
<br />
<b>Frédéric Couchet : </b>Quel est ton coup de cœur aujourd’hui ?<br />
<br />
<b>Marie-Odile Morandi : </b>Effectivement, ce mois-ci c’est véritablement un coup de cœur. Il s’agit d’une conférence donnée à l’Ubuntu Party qui a eu lieu à Paris au mois de mai dernier, que j’avais écoutée en partie, parce que c’est quand même formidable ce réseau des réseaux qui nous permet de suivre en direct des conférences à distance, et je m’étais dit « dès que c’est en ligne, c’est absolument à transcrire ». Il s’agit de l’intervention de Asma Mhalla, maître de conférences à Sciences Po, qui dure une cinquantaine de minutes et est intitulée « De l’État de droit à l’État de surveillance ».<br />
<br />
Asma Mhalla nous explique que l’État de droit repose sur trois éléments :<br />
<ul><br />
<li>la loi,</li><br />
<li>le contrôle de la loi donc la surveillance</li><br />
<li>et la bienveillance</li><br />
</ul><br />
Concernant la loi, elle estime que nous sommes très bons en France, elle parle de logorrhée juridique, puisqu’à chaque événement particulier on a ce réflexe, mot qu’elle préfère au mot dérive, de pousser une loi supplémentaire : loi antiterroriste, loi anti-<em>fake news</em>, loi anti-casseurs.<br/><br />
Le contrôle est exercé par l’État et par ce qu’elle appelle les méta-plateformes que sont les GAFAM.<br/><br />
Au sujet de la bienveillance, elle se demande si l’État est toujours en train de maintenir un État de droit pour le bien commun, pour l’intérêt général, ou si l’État, c’est-à-dire l’ensemble des institutions, l’ensemble des fonctionnaires, des hauts-fonctionnaires, est en train de jouer sa survie au service de son propre intérêt parce qu’elle trouve ces lois tellement vagues qu’elles pourront faire dire et faire faire n’importe quoi à n’importe qui si elles sont mal manipulées. <br />
<br />
Le constat est établi qu’aujourd’hui la demande de la part des citoyens, c’est-à-dire nous, est une demande sécuritaire ; elle parle de discours obsessionnel : on vit pour la sécurité ; la sécurité n’est plus le moyen d’assurer la vie paisible de tous, mais devient l’objectif.<br />
<br />
Asma Mhalla constate une différence fondamentale entre l’État et les méta-plateformes : ces dernières portent une vision du monde, une vision de l’humanité et elles savent où elles veulent aller. Grâce à leurs fonds pharamineux elles financent la recherche fondamentale, les expérimentations, les développements par exemple sur l’intelligence artificielle et aujourd’hui, les meilleurs chercheurs vont chez Facebook et chez Google offrir leurs compétences. La recherche fondamentale ne se fait quasiment plus dans les universités, dans les centres de recherche. Ce qui pose d’autres interrogations que je vous laisse découvrir.<br/><br />
Les questions fusent : est-ce qu’on partage cette vision du monde ? Est-ce que c’est le monde que nous souhaitons, vers lequel nous voulons aller ? Est-ce que collectivement, donc via l’État, il nous est donné la possibilité d’en débattre ?<br/><br />
Ces méta-plateformes arrivent à un moment d’affaiblissement de l’État social et disent : « nous allons préempter un certain nombre de fonctions sociales qui initialement étaient, entre guillemets, « gratuites » et collectives, comme l’éducation, la santé ».<br />
<br />
Et que se passe-t-il ? L'État cherche à se transformer en État-plateforme, à se mettre au niveau de ces méta-plateformes dont il accepte les règles et la concurrence qu’elles vont lui faire. La fonction sociale de l’État va disparaître, ses prérogatives seront de plus en plus sécuritaires, de moins en moins sociales. Donc la collusion entre ces plateformes de l’économie numérique et l’État fait apparaître une nouvelle gouvernance mondiale.<br />
<br />
Elle rappelle un discours du président de la République dans lequel il a lancé le concept de co-régulation entre État et plateformes, avec une répartition des tâches laissant ce qu’elle appelle le punitif à l’État.<br/><br />
En effet, si tout d’un coup les plateformes entraient dans une logique punitive on pourrait ne plus les utiliser de façon aussi massive, parce qu’on aurait alors peur ; ce qui ne ferait pas leur affaire parce que tout leur modèle économique est basé sur notre désir de nous exposer.<br/> <br />
L’État a aussi besoin de ces plateformes parce que c’est là où il va chercher nos données personnelles, d'où la surveillance, qui est bien organisée sur la base de nos données personnelles.<br />
<br />
Sa conclusion est claire : le contrat social qui était « liberté contre sécurité » ou « sécurité contre liberté, est devenu « liberté contre sécurité contre vie privée ».<br />
<br />
<b>Frédéric Couchet : </b>D’accord. C’est ton coup de cœur et selon toi la transcription de cette conférence doit être lue et relue ?<br />
<br />
<b>Marie-Odile Morandi : </b>Tout à fait. Je me permets de vous inciter à écouter cette conférence, à lire ou relire sa transcription. J’ai trouvé la réflexion de Asma Mhallah personnelle et pertinente, donc à partager. Cela nous concerne tous. Elle nous conseille de nous documenter, de nous renseigner, de porter un regard critique. Pour elle, à l’école on ne doit pas se limiter à l’étude du code : il faut une formation à l’éthique, à l’économie numérique, car il s’agit de comprendre les enjeux d’autonomie individuelle et collective qui ne sont absolument pas des enjeux de codage, qui ne sont pas des enjeux d’informaticiens. Ce sont des enjeux de vivre ensemble, de vision du monde et, fondamentalement des enjeux de démocratie.<br />
<br />
Je vais répéter l’intitulé de cette conférence « De l’État de droit à l’État de surveillance » et vous trouverez le lien vers la transcription sur le site de l’April sur la page des références concernant l’émission d’aujourd’hui.<br />
<br />
<b>Frédéric Couchet : </b>Effectivement sur april.org. Est-ce que tu voulais mentionner autre chose, une autre transcription ?<br />
<br />
<b>Marie-Odile Morandi : </b>Tout à fait. Comme dit précédemment, on en revient toujours à la formation de base et à ce qui est enseigné ou devrait être enseigné dans les écoles. Peut-être, diront certains, que c’est quelque chose de convenu en ce mois de septembre traditionnellement mois de rentrée scolaire, mais je voulais rappeler les transcriptions de diverses conférences tenues par Richard Stallman en France et en français, depuis 2013, dans lesquelles il répète inlassablement que « les écoles devraient utiliser exclusivement du logiciel libre. »<br/><br />
Là aussi vous trouverez les liens concernant ces transcriptions à l’onglet références sur la page consacrée à l’émission d’aujourd’hui et vous pourrez relire les explications données par Richard Stallman dans chacune de ces conférences.<br/><br />
<br />
Pour approfondir le sujet, je tiens à rappeler la transcription de la chronique de Véronique Bonnet dans l’émission <em>Libre à vous !</em> du 9 avril de cette année. Elle montre que Richard Stallman, dans ses arguments, commence toujours par ce qui est le moins important, l’argument monétaire, pour arriver à ce qui est le plus essentiel, l’éducation morale, l’habitude d’aider les autres.<br />
<br />
Je vais faire miennes les paroles prononcées par le lieutenant-colonel Stéphane Dumond de la Gendarmerie nationale dans l’émission <em>Libre à vous !</em> du 3 septembre, j’ouvre des guillemets, « j’insiste, je martèle, mais la marteau thérapie a parfois du bon ». Je pense donc qu’il est nécessaire de rappeler inlassablement les fondamentaux concernant l’enseignement de l’informatique au sein de nos établissements, d’autant plus que de nouveaux programmes doivent être mis en place au cours de cette année scolaire en particulier au lycée. Souhaitons que les préconisations de Richard Stallman concernant l’utilisation du logiciel libre de la maternelle à l’université soient respectées et sincèrement mises en œuvre.<br />
<br />
Voilà pour la chronique « Les transcriptions qui redonnent le goût de la lecture » de ce mois de septembre 2019.<br />
<br />
<b>Frédéric Couchet : </b>Écoute Marie-Odile merci pour ces transcriptions. Tu as parlé en introduction de l’Ubuntu Party à Paris du mois de mai dernier donc 2019, j’en profite pour signaler que la prochaine Ubuntu Party aura lieu les 16 et 17 novembre 2019 à la Cité des sciences et de l’industrie. Comme tu viens de parler de Richard Stallman qui est dans l’actualité, je signale que je ferai un petit point sur l’actualité en fin d’émission concernant Richard Stallman.<br/><br />
Merci Marie-Odile. On se retrouve le mois prochain, je te souhaite de passer une belle fin de journée.<br />
<br />
<b>Marie-Odile Morandi : </b>Merci. À vous tous et toutes aussi, bonne soirée.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons passer une pause musicale. Nous allons écouter <em>Beyond the door</em> par Les journées musicales de Ziklibrenbib et on se retrouve juste après.<br />
<br />
<b>Pause musicale : </b><em>Beyond the door</em> par Les journées musicales de Ziklibrenbib.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Beyond the door</em> par Les journées musicales de Ziklibrenbib disponible sous licence libre Creative Commons Partage dans les mêmes conditions. Vous retrouverez les références sur le site de l’April, april.org, et, pour en savoir plus sur Ziklibrenbib vous pouvez écouter l’émission du 9 juillet 2019.<br />
<br />
Vous écoutez toujours l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 en Île-de-France et partout ailleurs sur le site causecommune.fm. Nous allons passer maintenant au sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre avec notre sujet principal qui a été enregistré ce matin, qui porte sur l’obsolescence programmée, le projet de loi relatif à la lutte contre le gaspillage et à l’économie circulaire avec nos invités Adèle Chasson de Halte à l'Obsolescence Programmée et Frédéric Bordage de GreenIT.fr.<br />
<br />
<br />
==16’ 18 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190917/libre-a-vous-20190917-obsolescence-programmee-et-projet-loi-economie-circulaire-avec-adele-chasson-de-HOP-et-frederic-bordage-de-greenit-fr.ogg Obsolescence programmée et projet de loi économie circulaire avec Adèle Chasson de Halte à l'Obsolescence Programmée et Frédéric Bordage de GreenIT.fr 48 min 53 s== <br />
<br />
<b>Étienne Gonnu : </b>Bonjour.<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
Nous allons faire une pause musicale<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons écouter <em>Seven Sisters</em> par Bert Jerred et on se retrouve juste après.<br />
<br />
<b>Pause musicale : </b><em>Seven Sisters</em> par Bert Jerred.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Seven Sisters</em> par Bert Jerred, musique libre disponible sous licence libre Creative Commons Attribution. Vous retrouverez les références sur le site de l’April, april.org.<br/><br />
Vous écoutez toujours l’émission <em>Libre à vous !</em> sur radio Cause Commune sur 93.1 en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
Nous allons passer sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 08’ 38 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190917/libre-a-vous-20190917-chronique-pepites-libres-jean-christophe-becquet-concours-mondial-photos-libres-wiki-loves-monuments.ogg Chronique « Pépites libres » de Jean-Christophe Becquet sur le concours mondial de photos libres Wiki Loves Monuments] 9 min 25 s ==<br />
<br />
<b>Frédéric Couchet : </b>Textes, images, vidéos ou bases de données, sélectionnés pour leur intérêt artistique, pédagogique, insolite, utile, Jean-Christophe Becquet nous présente une ressource sous une licence libre. Les auteurs à l’origine de ces pépites ont choisi de mettre l’accent sur les libertés accordées à leur public, parfois avec la complicité du chroniqueur. C’est donc la chronique « Pépites libres » de Jean-Christophe Becquet, président de l’April. Bonjour Jean-Christophe.<br />
<br />
<b>Jean-Christophe Becquet : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Aujourd’hui tu vas nous parler du concours mondial de photos libres Wiki Loves Monuments.<br />
<br />
<b>Jean-Christophe Becquet : </b>Oui ! Wiki Loves Monuments est, comme tu l’as dit, un concours mondial de photos libres qui se déroule pendant tous le mois de septembre. Il porte sur le patrimoine architectural et vise notamment à illustrer les articles de l'encyclopédie libre Wikipédia.<br />
<br />
Le concours, initié en 2010 aux Pays-Bas, a été officiellement reconnu comme le plus grand concours de photographie du monde en 2012. Il se décline aujourd'hui dans 48 pays et a déjà permis d'enrichir la médiathèque libre Wikimedia Commons de plus d'un million et demi d'images partagées par 60 000 contributeurs.<br/><br />
Dans chaque pays participant, un jury choisit les dix meilleures photos qui participent ensuite à la sélection mondiale.<br />
<br />
En France, l'édition 2019 porte sur quelque 200 000 bâtiments et autres trésors du patrimoine. Le site du concours donne la liste des monuments éligibles que l'on peut localiser sur une carte. Il suffit de zoomer sur votre commune pour trouver les monuments à photographier autour de chez vous. N'hésitez pas à profiter des Journées européennes du patrimoine pour participer à votre tour. Vous pouvez prendre de nouvelles photos ou fouiller vos disques durs pour sélectionner vos meilleurs clichés. Il suffit ensuite de les partager sous licence libre Creative Commons CC BY-SA (Attribution – Partage à l'identique). Il n'est pas obligatoire que les photos aient été prises en septembre. C'est la date de dépôt sur Wikimedia Commons qui fait foi. Aussi n'oubliez pas, vos anciennes photos sont également éligibles.<br />
<br />
Chaque contributeur peut soumettre plusieurs photos, il n'y a pas de limitation.<br />
<br />
Wiki Loves Monuments a reçu le soutien de l'UNESCO qui souhaite encourager la création de contenus sous licence libre.<br/><br />
Dans le cadre des Journées européennes du patrimoine l'association Wikimédia France tiendra un stand à la Maison de l'UNESCO, ce week-end, samedi 21 et dimanche 22 septembre, de 10 heures 30 à 18 heures. Ils invitent le public à « devenir acteur de la promotion et de la protection du patrimoine de manière ludique ». Si vous êtes sur Paris, n'hésitez pas à venir à leur rencontre.<br />
<br />
Au printemps a lieu un autre concours, Wiki Loves Earth. Celui-ci, consacré au patrimoine naturel, se déroule chaque année en mai. En attendant de connaître les finalistes du millésime 2019 Wiki Loves Earth, on peut déjà parcourir les photos gagnantes de l'édition française et de plusieurs autres pays. Vous pouvez me croire, on y trouve plusieurs pépites !<br />
<br />
<b>Frédéric Couchet : </b>Merci Jean-Christophe. On va indiquer que le site de Wiki Loves Monuments est wikilovesmonuments tout attaché point fr. C’est bien ça ?<br />
<br />
<b>Jean-Christophe Becquet : </b>Exact, pour l’édition française.<br />
<br />
<b>Frédéric Couchet : </b>Pour l’édition française parce que c’est une édition mondiale et c’est important effectivement, le site précise quels monuments sont éligibles. Tiens, je vais poser une question : est-ce que tous les monuments sont éligibles avec notamment les questions de droit des photographes ou des éclairages ? Est-ce que tous les monuments sont éligibles à ce concours ?<br />
<br />
<b>Jean-Christophe Becquet : </b>Éligibles au concours au sens où effectivement on souhaite avoir des photos libres du plus grand nombre possible de monuments, mais les organisateurs du concours précisent très bien que des contributeurs doivent vérifier les autres droits attachés aux photos qui sont soumises dans le cadre du concours. Effectivement, en France il n’y a pas ce qu’on appelle la liberté de panorama qui permet d’avoir le droit de photographier des bâtiments dont les droits de l’architecte ou d’éclairage, comme dans le cas de la Tour Eiffel à Paris, sont protégés. Ça, effectivement, c’est une restriction sur les contributions possibles.<br/><br />
Il n’en demeure pas moins qu’aujourd’hui il y a un très grand nombre de bâtiments qui ne sont plus protégés par des droits et qu’on peut aller librement photographier pour illustrer Wikipédia et contribuer au concours Wiki Loves Monuments.<br />
<br />
<b>Frédéric Couchet : </b>On peut contribuer jusqu’à quelle date ?<br />
<br />
<b>Jean-Christophe Becqquet : </b>C’est tout le mois de septembre, jusqu’au dernier jour de septembre à minuit. Comme je l’ai dit c’est la date de dépôt, la date de mise en ligne des photos dans le cadre du concours qui fait foi. Même si on a des photos qui datent d’il y a quelques années ou qui ont été prises à une autre saison, on peut tout à fait les soumettre, la seule condition c’est de respecter le délai de mise en ligne dans le cadre du concours avant le 30 septembre à minuit.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Peut-être une question piège parce que je ne sais pas si tu sais, mais qui sont les membres du jury qui vont choisir ces dix meilleures photos ?<br />
<br />
<b>Jean-Christophe Becquet : </b>Pour l’édition française, le jury est composé d’experts, de contributeurs à Wikipédia experts en patrimoine, de photographes professionnels et je crois qu’il y a également le ou des vainqueurs de précédentes éditions du concours Wiki Loves Monuments.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Est-ce que toi, à titre personnel, tu as déjà participé ? Tu vas participer ?<br />
<br />
<b>Jean-Christophe Becquet : </b>Non, je n’ai jamais participé, je ne suis pas photographe. Par contre, à plusieurs reprises, j’ai utilisé des photos de ces concours Wiki Loves Monuments et Wiki Loves Earth pour illustrer des activités, des conférences. Pour la précédente édition Wiki Loves Earth, avec la médiathèque de ma ville Digne-les-Bains, on a accompagné des publics de la médiathèque à participer au concours et là, à nouveau pour l’édition Wiki Loves Monuments, des personnes présentes à Digne qui voudraient participer au concours mais qui ne maîtrisent pas la mise en ligne de leurs photos, les questions de licence, etc., peuvent venir à la médiathèque pour être aidées, pour être accompagnées dans leur participation au concours.<br />
<br />
<b>Frédéric Couchet : </b>D'accord. Donc comme tu l’as dit tout à l’heure il y a une présentation qui a lieu par Wikipédia France qui est la structure qui organise ce concours à la Maison de l'UNESCO qui est à Paris, donc ce week-end samedi 21, dimanche 22 septembre. On rappelle que c’est aussi dans le cadre des Journées européennes du patrimoine. Je suppose qu’il y a d’autres évènements qui se passent dans d’autres régions et qui doivent être annoncés sur le site de l’Agenda du libre, agendadulibre.oprg.<br />
<br />
<b>Jean-Christophe Becquet : </b>Oui, tout à fait. En France je n’en ai pas vu pour Wiki Loves Monuments, mais j’ai vu qu’en Italie, par exemple, de plus en plus de territoires s’emparent de ce concours Wiki Loves Monuments pour organiser des éditions locales qui donnent lieu, ensuite, à des petites remises de prix, à des expositions locales. Les concours, en fait, s’imbriquent les uns dans les autres par territoires croissants, c’est-à-dire qu’on a d’abord les éditions locales – nous à Digne, on avait organisé un Wiki Loves Earth sur la région Sud PACA – ensuite les concours nationaux, Wiki Loves Monuments France, Wiki Loves Monuments Espagne, Italie, etc., et ensuite le concours mondial. L’objectif, en fait, c’est d’encourager le plus grand nombre de contributeurs à participer à ce concours.<br />
<br />
<b>Frédéric Couchet : </b>Je précise que pour les contributeurs ou contributrices francophones, sur le site wikilovesmunments.fr il est indiqué qu’il y a aussi des actions en Tunisie, au Maroc, en Algérie ainsi qu’au Canada. Donc il y a un lien qui permet de voir si le pays participe à cet évènement, à ce concours mondial de photos libres. Donc wikilovesmonuments.fr.<br/><br />
Est-ce que tu souhaites ajouter quelque chose, cher Jean-Christophe.<br />
<br />
<b>Jean-Christophe Becquet : </b>Non. C’est tout pour aujourd’hui, merci.<br />
<br />
<b>Frédéric Couchet : </b>D'accord. On se retrouve le mois prochain pour la prochaine chronique « Pépites libres ». Je te souhaite une belle journée. <br />
<br />
<b>Jean-Christophe Becquet : </b>Entendu. Merci. Belle journée à tous les auditeurs et auditrices. Au revoir.<br />
<br />
<b>Frédéric Couchet : </b>Nous approchons de la fin de l’émission. Nous allons terminer par quelques annonces.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 18’ 13 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190917/libre-a-vous-20190917-annonces.ogg Annonces] 11 min 44 s==<br />
<br />
<b>Frédéric Couchet : </b>On a un peu de temps parce qu'on est un petit peu en avance. Donc les annonces. D'abord, je vais répondre aux questions du quiz. Parce que évidemment si j'oublie les réponses... Donc la première question c'était : Lors de l'émission du 10 septemnbre 2019, nous avions évoqué une nouvelle école d'informatique conçue avant tout par des femmes et qui s'adresse aux femmes post-bac. La question c'était : Quel est le nom de cette école ? Et bien le nom c'est : Ada Tech School. Le site web c'est, ada-school.com. Ça se passe en France, je crois de mémoire que c'est à Paris. Et j'en profite pour signaler d'ailleurs concernant Ada donc Ada Lovelace qui est la première programmeuse de l'histoire, le livre de Catherine Dufour qui s'intitule <em>Ada ou la beauté des nombres</em> et je pense qu'on va envoyer une invitation prochainement une invitation à Catherine Dufour pour venir nous parler un petit peu de Ada Lovelace. <br />
<br />
La deuxième question concernait le sujet du jour : l'économie circulaire, l'obsolescence programmée, la durée de vie, la réparabilité de nos outils informatiques. Et la question c'était : nous vous avions présenté il y a quelques mois, des projets libres visant à rendre des terminaux mobiles non seulement plus libres mais aussi plus durables et on vous demandait si vous pouviez en citer un ou deux de ces projets. C'était dans l'émission du 6 novembre 2018. Le podcast et la transcription sont en ligne sur le site de l'april, april.org et sur causecommune.fm. Et parmi ces projets notamment, il y a : LineageOS, Replicant, il y a le Fairphone, Librem donc qui sont à la fois du matériel du logiciel libre. Donc écoutez l'émission du 6 novembre 2018 et vous en saurez plus sur ces outils libres.<br />
<br />
Je vais continuer ensuite... D'abord, avant les annonces, dans le premier sujet du jour, Marie-Odile nous a parlé de textes de Richard Stallman qui est une des personnes à lorigine du mouvement du logiciel libre dans les années 80. Qui est fondateur et qui était jusqu'à tout récemment toujours président de la fondation pour le logiciel libre. Je disais dans le sujet que Richard Stallman est dans l'actualité depuis ce week-end mais pas pour de bonnes raisons. Il a été annoncé hier soir la démission de Richard Stallman de son poste de président de la fondation pour le logiciel libre. Cela fait suite à des publications d'échanges de courriels sur une liste interne du MIT. Une université et institut de recherche américain dans lequel Richard Stallman a travaillé dans le passé, dans lequel il a toujours un bureau. Ces échanges porte sur les conséquences de l'affaire Jeffrey Epstein donc le traffic de personnes mineures. Conséquences au MIT notamment l'implication d'un ancien collègue de Richard Stallman : Marvin Minsky, grand scientiique américain et qui a travaillé de très nombreuses années au MIT. Je crois que de mémoire, il dirigeait le laboratoire d'intelligence artificielle. À noter que Marvin Minsky et Jeffrey Epstein sont tous les deux décédés. Jeffrey Epstein récemment en août 2019 et Marvin Minsky en 2019. Donc des échanges de courriels qui ont générés un certain nombre de réactions. La fondation pour le logiciel libre n'a pas donné de détails concernant la démission de Richard Stallman et on va éviter de réagir à chaud. Mais, nous publierons une réaction sur notre site. Et en attendant, si vous souhaitez en savoir plus, je vous invite à consulter l'article du <em>monde</em> publié aujourd'hui qui relate l'affaire avec les extraits d'échanges, les articles de presse américains, la façon dont ils ont relayés l'information. Donc c'est sur le site du monde.fr. Je n'ai pas en tête le titre de l'article mais je crois que ça fait la une en tout cas, c'est sur la page d'accueil du <em>monde</em>. Donc voilà, nous ferons une réaction écrite sur le site de l'April et je vous en parlerai sans doute la semaine prochaine. <br />
<br />
Alors je regarde le temps, il reste encore quelques minutes pour des annonces. D'abord, <em>Paris Open Source Summit</em> se déroule à Paris le 10 et 11 décembre 2019. Plus précisément à Aubervilliers aux docks Pullman. L'appel à conférences est ouvert donc vous pouvez proposer des conférences pour cette édition de <em>Paris Open Source</em> 2019, 10 et 11 décembre. Alors le 10 décembre étant un mardi, il est fort possible que nous diffusions en direct l'émission <em>Libre à vous !</em> depuis <em>Paris Open Source Summit</em>. Nous vous confirmerons ça rapidement. Toujours dans les appels à conférences, il y a le <em>capitole du libre</em> qui se déroule à Toulouse les 16 et 17 novembre. L'appel à propositions de conférences et de stands est également ouvert jusqu'au 6 octobre 2019. J'en profite pour rappeler que le même week-end, les 16 et 17 novembre, il y a à Paris l'<em>Ubuntu Party</em> donc bientôt il y aura aussi l'appel à propositions de conférences et de stands. En ce moment se déroule également <em>la fête des possibles</em> du 14 au 29 septembre. Alors, c'est des organisations de la transition. Des centaines de rendez-vous sont prévus en France pour rendre visible des initiatives locales qui embellissent la société et construisent un avenir plus durable et solidaire. Le mot d'ordre de cette fête c'est : «C'est possible». C'est possible de manger bio et à moindre coût, c'est possible de se déplacer au quotidien sans polluer, c'est possible d'utiliser des logiciels libres. Donc évidemment, il y a des événements de sensibilisation au logiciel libre qui sont organisés. Le site c'est : fete-des-possibles.org. À Nantes cette semaine, se déroulent les rencontres régionales du logiciel libre donc le 19 septemnbre. Ces rencontres s'adressent aussi bien aux services informatiques qu'aux services métiers notamment donc des collectivités qui trouveront des réponses à leurs problématiques techniques et besoins fonctionnels. Le site c'est sur alliance-libre.org qui est un regroupement d'entreprises du logiciel libre sur la région Nantaise. Ça se passe le 19 septembre à Nantes. Cette semaine encore, jeudi soir, il y a la soirée de contribution au libre à la FPH à Paris dans le 11e et c'est également la réunion du groupe de travail sensibilisation dans le cadre de cette soirée de contribution au libre donc c'est à partir de 19 heures 30 à la FPH dans le 11e. Et le même soir, à Montpellier, il y a un apéro April qui est organisé par Montpel'libre. Je précise d'ailleurs que Montpel'libre qui est un groupe d'utilisateurs et d'utilisatrices de logiciels libres de Montpellier seront nos invités pour une interview téléphonique la semaine prochaine donc dans l'émission du 24 septembre. Évidemment, tous ces événements sont annoncés sur le site de l'April, april.org et également sur le site de <em>L'agenda du libre</em><br />
<br />
Alors je poursuis dans les annonces, cette semaine il y en a beaucoup mais comme on a le temps, ça va. Ce n'est pas juste pour combler. On m'a signalé sur le salon Web, la semaine québécoise de l'informatique libre dans la région de Montréal du 21 au 29 septembre 2019. Donc pareil, les informations sont sur le site de l'April. Donc ça dure plus d'une semaine avec des événements de sensibilisation au logiciel libre autour de Montréal et c'est organisé par l'association qui s'appelle FACIL qui sont des camarades, un petit peu comme l'April en France.<br />
<br />
Alors, est-ce que il y a d'autres annonces ? Oui ! Je vais en faire une petite rapide. Alors, je me mets simplement sur la bonne page pour le pas me tromper. Elle est où ? Voilà. Associations, si vous voulez tester un logiciel libre pour faciliter la valorisation du bénévolat et bien a été lancé il y a quelques jours Bénévalibre donc un logiciel libre destiné à faciliter la valorisation du bénévolat dans les associations avec notamment à l'initiative le CRAJEP, Comité Régional des Associations de Jeunesse Éducation Populaire de Bourgogne-Franche-Comté avec le soutien de la région Bourgogne-Franche-Comté, de la fondation du crédit coopératif avec les conseils et l'appui technique de Framasoft et de l'April. Le développement a été confié à une entreprise du logiciel libre du Nord qui s'appelle Cliss XXI. Donc le site Web c'est, benevalibre.org et nous aurons la semaine prochaine si je ne me trompe pas, une interview de Laurent Costy qui a piloté ce projet donc dans l'émission du 24 septembre 2019.<br />
<br />
Je crois que j'ai fait le tour des annonces. Si vous pensez que j'en ai oublié, elles sont sur le site, agendadulibre.org. Je vérifie sur le salon Web si on me signale quelque chose, non à priori. Ah oui ! On me signale simplement que l'article du <em>monde</em>, le titre de l'article du <em>monde</em> dont je parlais tout à l'heure c'est : <em>Richard Stallman, précurseur du logiciel libre, démissionne du MIT et de la Free Software Foundation</em> donc la fondation pour le logiciel libre en bon Français.<br />
<br />
Notre émission se termine. Je remercie les personnes qui ont participé à l'émission : Marie-Odile Morandi, A</div>D Ohttps://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_17_septembre_2019&diff=85771Libre à vous ! Radio Cause Commune - Transcription de l'émission du 17 septembre 20192019-09-18T22:18:11Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 3 septembre 2019 sur radio Cause Commune<br />
<br />
'''Intervenants :''' à la régie<br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 17 septembre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[ Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-17-septembre-2019-sur-radio-cause-commune Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
<br />
==Transcription==<br />
<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 FM en Île-de-France et partout dans le monde sur le site causecommune.fm. Merci d’être avec nous pour cette nouvelle édition de <em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.<br/><br />
La radio dispose d’un webchat, utilisez votre navigateur web, rendez-vous sur le site de la radio, causecommune.fm, cliquez sur « chat » et ainsi retrouvez-nous sur le salon dédié à l’émission. La radio dispose également d’une application, Cause Commune, pour téléphone mobile.<br/><br />
Nous sommes mardi 17 septembre 2019, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.<br/><br />
Le site web de l’April est april.org et vous pouvez déjà trouver une page consacrée à cette émission avec tous les liens et références utiles, les détails sur les pauses musicales et toute autre information utile en complément de l’émission et également les moyens de nous contacter. N’hésitez pas à nous faire des retours pour indiquer ce qui vous a plu mais aussi des points d’amélioration.<br/><br />
Nous vous souhaitons une excellente écoute.<br />
<br />
Maintenant le programme du jour.<br/><br />
Nous commencerons par la chronique « les Transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi qui portera sur le thème de « L’État de droit à l’État de surveillance ».<br/><br />
D’ici 10 à 15 minutes nous aborderons notre sujet principal qui portera sur l’obsolescence programmée et le projet de loi relatif à la lutte contre le gaspillage et à l’économie circulaire.<br/><br />
En fin d’émission nous aurons la chronique « Pépites libres » de Jean-Christophe Becquet qui portera sur le concours mondial de photos libres Wiki Loves Monuments.<br/><br />
À la réalisation de l’émission Étienne Gonnu. Bonjour Étienne.<br />
<br />
<b>Étienne Gonnu : </b>Salut Fred.<br />
<br />
<b>Frédéric Couchet : </b>Nous allons vous proposer un petit quiz, comme à chaque émission. Je vous donnerai les réponses en fin d’émission et vous pouvez proposer vos réponses soit sur le salon web de la radio, je rappelle sur causecommune.fm, soit sur les différents réseaux sociaux que nous fréquentons.<br/><br />
Les deux questions, la première : lors de l’émission du 10 septembre 2019, donc la semaine dernière, nous avons évoqué une nouvelle école d’informatique conçue avant tout par des femmes et qui s’adresse aux femmes post-bac. Quel est le nom de cette école ?<br/><br />
Deuxième question : on va parler dans l’émission du jour d’économie circulaire, de durée de vie, de réparabilité. Nous vous avions présenté il y a quelques mois des projets libres visant à rendre les terminaux mobiles non seulement plus libres mais aussi plus durables. Est-ce que vous pourriez citer un ou deux de ces projets ?<br/><br />
Tout de suite place au premier sujet.<br />
<br />
[Virgule musicale]<br />
<br />
==2’38 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190917/libre-a-vous-20190917-chronique-transcription-redonnent-gout-lecture-marie-odile-morandi-etat-de-droid-a-etat-de-surveillance.ogg Chronique « Les transcriptions qui redonnent le goût de la lecture » de Marie-Odile Morandi 9 min 4 s== <br />
<br />
<b>Frédéric Couchet : </b>Les choix voire les coups de cœur de Marie-Odile Morandi qui mettent en valeur deux-trois transcriptions dont elle conseille la lecture, c’est la chronique « Les transcriptions qui redonnent le goût de la lecture » donc de Marie-Odile Morandi, animatrice du groupe de travail Transcriptions de l’April. Bonjour Marie-Odile.<br />
<br />
<b>Marie-Odile Morandi : </b>Bonjour à tous.<br />
<br />
<b>Frédéric Couchet : </b>Quel est ton coup de cœur aujourd’hui ?<br />
<br />
<b>Marie-Odile Morandi : </b>Effectivement, ce mois-ci c’est véritablement un coup de cœur. Il s’agit d’une conférence donnée à l’Ubuntu Party qui a eu lieu à Paris au mois de mai dernier, que j’avais écoutée en partie, parce que c’est quand même formidable ce réseau des réseaux qui nous permet de suivre en direct des conférences à distance, et je m’étais dit « dès que c’est en ligne, c’est absolument à transcrire ». Il s’agit de l’intervention de Asma Mhalla, maître de conférences à Sciences Po, qui dure une cinquantaine de minutes et est intitulée « De l’État de droit à l’État de surveillance ».<br />
<br />
Asma Mhalla nous explique que l’État de droit repose sur trois éléments :<br />
<ul><br />
<li>la loi,</li><br />
<li>le contrôle de la loi donc la surveillance</li><br />
<li>et la bienveillance</li><br />
</ul><br />
Concernant la loi, elle estime que nous sommes très bons en France, elle parle de logorrhée juridique, puisqu’à chaque événement particulier on a ce réflexe, mot qu’elle préfère au mot dérive, de pousser une loi supplémentaire : loi antiterroriste, loi anti-<em>fake news</em>, loi anti-casseurs.<br/><br />
Le contrôle est exercé par l’État et par ce qu’elle appelle les méta-plateformes que sont les GAFAM.<br/><br />
Au sujet de la bienveillance, elle se demande si l’État est toujours en train de maintenir un État de droit pour le bien commun, pour l’intérêt général, ou si l’État, c’est-à-dire l’ensemble des institutions, l’ensemble des fonctionnaires, des hauts-fonctionnaires, est en train de jouer sa survie au service de son propre intérêt parce qu’elle trouve ces lois tellement vagues qu’elles pourront faire dire et faire faire n’importe quoi à n’importe qui si elles sont mal manipulées. <br />
<br />
Le constat est établi qu’aujourd’hui la demande de la part des citoyens, c’est-à-dire nous, est une demande sécuritaire ; elle parle de discours obsessionnel : on vit pour la sécurité ; la sécurité n’est plus le moyen d’assurer la vie paisible de tous, mais devient l’objectif.<br />
<br />
Asma Mhalla constate une différence fondamentale entre l’État et les méta-plateformes : ces dernières portent une vision du monde, une vision de l’humanité et elles savent où elles veulent aller. Grâce à leurs fonds pharamineux elles financent la recherche fondamentale, les expérimentations, les développements par exemple sur l’intelligence artificielle et aujourd’hui, les meilleurs chercheurs vont chez Facebook et chez Google offrir leurs compétences. La recherche fondamentale ne se fait quasiment plus dans les universités, dans les centres de recherche. Ce qui pose d’autres interrogations que je vous laisse découvrir.<br/><br />
Les questions fusent : est-ce qu’on partage cette vision du monde ? Est-ce que c’est le monde que nous souhaitons, vers lequel nous voulons aller ? Est-ce que collectivement, donc via l’État, il nous est donné la possibilité d’en débattre ?<br/><br />
Ces méta-plateformes arrivent à un moment d’affaiblissement de l’État social et disent : « nous allons préempter un certain nombre de fonctions sociales qui initialement étaient, entre guillemets, « gratuites » et collectives, comme l’éducation, la santé ».<br />
<br />
Et que se passe-t-il ? L'État cherche à se transformer en État-plateforme, à se mettre au niveau de ces méta-plateformes dont il accepte les règles et la concurrence qu’elles vont lui faire. La fonction sociale de l’État va disparaître, ses prérogatives seront de plus en plus sécuritaires, de moins en moins sociales. Donc la collusion entre ces plateformes de l’économie numérique et l’État fait apparaître une nouvelle gouvernance mondiale.<br />
<br />
Elle rappelle un discours du président de la République dans lequel il a lancé le concept de co-régulation entre État et plateformes, avec une répartition des tâches laissant ce qu’elle appelle le punitif à l’État.<br/><br />
En effet, si tout d’un coup les plateformes entraient dans une logique punitive on pourrait ne plus les utiliser de façon aussi massive, parce qu’on aurait alors peur ; ce qui ne ferait pas leur affaire parce que tout leur modèle économique est basé sur notre désir de nous exposer.<br/> <br />
L’État a aussi besoin de ces plateformes parce que c’est là où il va chercher nos données personnelles, d'où la surveillance, qui est bien organisée sur la base de nos données personnelles.<br />
<br />
Sa conclusion est claire : le contrat social qui était « liberté contre sécurité » ou « sécurité contre liberté, est devenu « liberté contre sécurité contre vie privée ».<br />
<br />
<b>Frédéric Couchet : </b>D’accord. C’est ton coup de cœur et selon toi la transcription de cette conférence doit être lue et relue ?<br />
<br />
<b>Marie-Odile Morandi : </b>Tout à fait. Je me permets de vous inciter à écouter cette conférence, à lire ou relire sa transcription. J’ai trouvé la réflexion de Asma Mhallah personnelle et pertinente, donc à partager. Cela nous concerne tous. Elle nous conseille de nous documenter, de nous renseigner, de porter un regard critique. Pour elle, à l’école on ne doit pas se limiter à l’étude du code : il faut une formation à l’éthique, à l’économie numérique, car il s’agit de comprendre les enjeux d’autonomie individuelle et collective qui ne sont absolument pas des enjeux de codage, qui ne sont pas des enjeux d’informaticiens. Ce sont des enjeux de vivre ensemble, de vision du monde et, fondamentalement des enjeux de démocratie.<br />
<br />
Je vais répéter l’intitulé de cette conférence « De l’État de droit à l’État de surveillance » et vous trouverez le lien vers la transcription sur le site de l’April sur la page des références concernant l’émission d’aujourd’hui.<br />
<br />
<b>Frédéric Couchet : </b>Effectivement sur april.org. Est-ce que tu voulais mentionner autre chose, une autre transcription ?<br />
<br />
<b>Marie-Odile Morandi : </b>Tout à fait. Comme dit précédemment, on en revient toujours à la formation de base et à ce qui est enseigné ou devrait être enseigné dans les écoles. Peut-être, diront certains, que c’est quelque chose de convenu en ce mois de septembre traditionnellement mois de rentrée scolaire, mais je voulais rappeler les transcriptions de diverses conférences tenues par Richard Stallman en France et en français, depuis 2013, dans lesquelles il répète inlassablement que « les écoles devraient utiliser exclusivement du logiciel libre. »<br/><br />
Là aussi vous trouverez les liens concernant ces transcriptions à l’onglet références sur la page consacrée à l’émission d’aujourd’hui et vous pourrez relire les explications données par Richard Stallman dans chacune de ces conférences.<br/><br />
<br />
Pour approfondir le sujet, je tiens à rappeler la transcription de la chronique de Véronique Bonnet dans l’émission <em>Libre à vous !</em> du 9 avril de cette année. Elle montre que Richard Stallman, dans ses arguments, commence toujours par ce qui est le moins important, l’argument monétaire, pour arriver à ce qui est le plus essentiel, l’éducation morale, l’habitude d’aider les autres.<br />
<br />
Je vais faire miennes les paroles prononcées par le lieutenant-colonel Stéphane Dumond de la Gendarmerie nationale dans l’émission <em>Libre à vous !</em> du 3 septembre, j’ouvre des guillemets, « j’insiste, je martèle, mais la marteau thérapie a parfois du bon ». Je pense donc qu’il est nécessaire de rappeler inlassablement les fondamentaux concernant l’enseignement de l’informatique au sein de nos établissements, d’autant plus que de nouveaux programmes doivent être mis en place au cours de cette année scolaire en particulier au lycée. Souhaitons que les préconisations de Richard Stallman concernant l’utilisation du logiciel libre de la maternelle à l’université soient respectées et sincèrement mises en œuvre.<br />
<br />
Voilà pour la chronique « Les transcriptions qui redonnent le goût de la lecture » de ce mois de septembre 2019.<br />
<br />
<b>Frédéric Couchet : </b>Écoute Marie-Odile merci pour ces transcriptions. Tu as parlé en introduction de l’Ubuntu Party à Paris du mois de mai dernier donc 2019, j’en profite pour signaler que la prochaine Ubuntu Party aura lieu les 16 et 17 novembre 2019 à la Cité des sciences et de l’industrie. Comme tu viens de parler de Richard Stallman qui est dans l’actualité, je signale que je ferai un petit point sur l’actualité en fin d’émission concernant Richard Stallman.<br/><br />
Merci Marie-Odile. On se retrouve le mois prochain, je te souhaite de passer une belle fin de journée.<br />
<br />
<b>Marie-Odile Morandi : </b>Merci. À vous tous et toutes aussi, bonne soirée.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons passer une pause musicale. Nous allons écouter <em>Beyond the door</em> par Les journées musicales de Ziklibrenbib et on se retrouve juste après.<br />
<br />
<b>Pause musicale : </b><em>Beyond the door</em> par Les journées musicales de Ziklibrenbib.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Beyond the door</em> par Les journées musicales de Ziklibrenbib disponible sous licence libre Creative Commons Partage dans les mêmes conditions. Vous retrouverez les références sur le site de l’April, april.org, et, pour en savoir plus sur Ziklibrenbib vous pouvez écouter l’émission du 9 juillet 2019.<br />
<br />
Vous écoutez toujours l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 en Île-de-France et partout ailleurs sur le site causecommune.fm. Nous allons passer maintenant au sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre avec notre sujet principal qui a été enregistré ce matin, qui porte sur l’obsolescence programmée, le projet de loi relatif à la lutte contre le gaspillage et à l’économie circulaire avec nos invités Adèle Chasson de Halte à l'Obsolescence Programmée et Frédéric Bordage de GreenIT.fr.<br />
<br />
<br />
==16’ 18 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190917/libre-a-vous-20190917-obsolescence-programmee-et-projet-loi-economie-circulaire-avec-adele-chasson-de-HOP-et-frederic-bordage-de-greenit-fr.ogg Obsolescence programmée et projet de loi économie circulaire avec Adèle Chasson de Halte à l'Obsolescence Programmée et Frédéric Bordage de GreenIT.fr 48 min 53 s== <br />
<br />
<b>Étienne Gonnu : </b>Bonjour.<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
Nous allons faire une pause musicale<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons écouter <em>Seven Sisters</em> par Bert Jerred et on se retrouve juste après.<br />
<br />
<b>Pause musicale : </b><em>Seven Sisters</em> par Bert Jerred.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Seven Sisters</em> par Bert Jerred, musique libre disponible sous licence libre Creative Commons Attribution. Vous retrouverez les références sur le site de l’April, april.org.<br/><br />
Vous écoutez toujours l’émission <em>Libre à vous !</em> sur radio Cause Commune sur 93.1 en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
Nous allons passer sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 08’ 38 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190917/libre-a-vous-20190917-chronique-pepites-libres-jean-christophe-becquet-concours-mondial-photos-libres-wiki-loves-monuments.ogg Chronique « Pépites libres » de Jean-Christophe Becquet sur le concours mondial de photos libres Wiki Loves Monuments] 9 min 25 s ==<br />
<br />
<b>Frédéric Couchet : </b>Textes, images, vidéos ou bases de données, sélectionnés pour leur intérêt artistique, pédagogique, insolite, utile, Jean-Christophe Becquet nous présente une ressource sous une licence libre. Les auteurs à l’origine de ces pépites ont choisi de mettre l’accent sur les libertés accordées à leur public, parfois avec la complicité du chroniqueur. C’est donc la chronique « Pépites libres » de Jean-Christophe Becquet, président de l’April. Bonjour Jean-Christophe.<br />
<br />
<b>Jean-Christophe Becquet : </b>Bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Aujourd’hui tu vas nous parler du concours mondial de photos libres Wiki Loves Monuments.<br />
<br />
<b>Jean-Christophe Becquet : </b>Oui ! Wiki Loves Monuments est, comme tu l’as dit, un concours mondial de photos libres qui se déroule pendant tous le mois de septembre. Il porte sur le patrimoine architectural et vise notamment à illustrer les articles de l'encyclopédie libre Wikipédia.<br />
<br />
Le concours, initié en 2010 aux Pays-Bas, a été officiellement reconnu comme le plus grand concours de photographie du monde en 2012. Il se décline aujourd'hui dans 48 pays et a déjà permis d'enrichir la médiathèque libre Wikimedia Commons de plus d'un million et demi d'images partagées par 60 000 contributeurs.<br/><br />
Dans chaque pays participant, un jury choisit les dix meilleures photos qui participent ensuite à la sélection mondiale.<br />
<br />
En France, l'édition 2019 porte sur quelque 200 000 bâtiments et autres trésors du patrimoine. Le site du concours donne la liste des monuments éligibles que l'on peut localiser sur une carte. Il suffit de zoomer sur votre commune pour trouver les monuments à photographier autour de chez vous. N'hésitez pas à profiter des Journées européennes du patrimoine pour participer à votre tour. Vous pouvez prendre de nouvelles photos ou fouiller vos disques durs pour sélectionner vos meilleurs clichés. Il suffit ensuite de les partager sous licence libre Creative Commons CC BY-SA (Attribution – Partage à l'identique). Il n'est pas obligatoire que les photos aient été prises en septembre. C'est la date de dépôt sur Wikimedia Commons qui fait foi. Aussi n'oubliez pas, vos anciennes photos sont également éligibles.<br />
<br />
Chaque contributeur peut soumettre plusieurs photos, il n'y a pas de limitation.<br />
<br />
Wiki Loves Monuments a reçu le soutien de l'UNESCO qui souhaite encourager la création de contenus sous licence libre.<br/><br />
Dans le cadre des Journées européennes du patrimoine l'association Wikimédia France tiendra un stand à la Maison de l'UNESCO, ce week-end, samedi 21 et dimanche 22 septembre, de 10 heures 30 à 18 heures. Ils invitent le public à « devenir acteur de la promotion et de la protection du patrimoine de manière ludique ». Si vous êtes sur Paris, n'hésitez pas à venir à leur rencontre.<br />
<br />
Au printemps a lieu un autre concours, Wiki Loves Earth. Celui-ci, consacré au patrimoine naturel, se déroule chaque année en mai. En attendant de connaître les finalistes du millésime 2019 Wiki Loves Earth, on peut déjà parcourir les photos gagnantes de l'édition française et de plusieurs autres pays. Vous pouvez me croire, on y trouve plusieurs pépites !<br />
<br />
<b>Frédéric Couchet : </b>Merci Jean-Christophe. On va indiquer que le site de Wiki Loves Monuments est wikilovesmonuments tout attaché point fr. C’est bien ça ?<br />
<br />
<b>Jean-Christophe Becquet : </b>Exact, pour l’édition française.<br />
<br />
<b>Frédéric Couchet : </b>Pour l’édition française parce que c’est une édition mondiale et c’est important effectivement, le site précise quels monuments sont éligibles. Tiens, je vais poser une question : est-ce que tous les monuments sont éligibles avec notamment les questions de droit des photographes ou des éclairages ? Est-ce que tous les monuments sont éligibles à ce concours ?<br />
<br />
<b>Jean-Christophe Becquet : </b>Éligibles au concours au sens où effectivement on souhaite avoir des photos libres du plus grand nombre possible de monuments, mais les organisateurs du concours précisent très bien que des contributeurs doivent vérifier les autres droits attachés aux photos qui sont soumises dans le cadre du concours. Effectivement, en France il n’y a pas ce qu’on appelle la liberté de panorama qui permet d’avoir le droit de photographier des bâtiments dont les droits de l’architecte ou d’éclairage, comme dans le cas de la Tour Eiffel à Paris, sont protégés. Ça, effectivement, c’est une restriction sur les contributions possibles.<br/><br />
Il n’en demeure pas moins qu’aujourd’hui il y a un très grand nombre de bâtiments qui ne sont plus protégés par des droits et qu’on peut aller librement photographier pour illustrer Wikipédia et contribuer au concours Wiki Loves Monuments.<br />
<br />
<b>Frédéric Couchet : </b>On peut contribuer jusqu’à quelle date ?<br />
<br />
<b>Jean-Christophe Becqquet : </b>C’est tout le mois de septembre, jusqu’au dernier jour de septembre à minuit. Comme je l’ai dit c’est la date de dépôt, la date de mise en ligne des photos dans le cadre du concours qui fait foi. Même si on a des photos qui datent d’il y a quelques années ou qui ont été prises à une autre saison, on peut tout à fait les soumettre, la seule condition c’est de respecter le délai de mise en ligne dans le cadre du concours avant le 30 septembre à minuit.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Peut-être une question piège parce que je ne sais pas si tu sais, mais qui sont les membres du jury qui vont choisir ces dix meilleures photos ?<br />
<br />
<b>Jean-Christophe Becquet : </b>Pour l’édition française, le jury est composé d’experts, de contributeurs à Wikipédia experts en patrimoine, de photographes professionnels et je crois qu’il y a également le ou des vainqueurs de précédentes éditions du concours Wiki Loves Monuments.<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Est-ce que toi, à titre personnel, tu as déjà participé ? Tu vas participer ?<br />
<br />
<b>Jean-Christophe Becquet : </b>Non, je n’ai jamais participé, je ne suis pas photographe. Par contre, à plusieurs reprises, j’ai utilisé des photos de ces concours Wiki Loves Monuments et Wiki Loves Earth pour illustrer des activités, des conférences. Pour la précédente édition Wiki Loves Earth, avec la médiathèque de ma ville Digne-les-Bains, on a accompagné des publics de la médiathèque à participer au concours et là, à nouveau pour l’édition Wiki Loves Monuments, des personnes présentes à Digne qui voudraient participer au concours mais qui ne maîtrisent pas la mise en ligne de leurs photos, les questions de licence, etc., peuvent venir à la médiathèque pour être aidées, pour être accompagnées dans leur participation au concours.<br />
<br />
<b>Frédéric Couchet : </b>D'accord. Donc comme tu l’as dit tout à l’heure il y a une présentation qui a lieu par Wikipédia France qui est la structure qui organise ce concours à la Maison de l'UNESCO qui est à Paris, donc ce week-end samedi 21, dimanche 22 septembre. On rappelle que c’est aussi dans le cadre des Journées européennes du patrimoine. Je suppose qu’il y a d’autres évènements qui se passent dans d’autres régions et qui doivent être annoncés sur le site de l’Agenda du libre, agendadulibre.oprg.<br />
<br />
<b>Jean-Christophe Becquet : </b>Oui, tout à fait. En France je n’en ai pas vu pour Wiki Loves Monuments, mais j’ai vu qu’en Italie, par exemple, de plus en plus de territoires s’emparent de ce concours Wiki Loves Monuments pour organiser des éditions locales qui donnent lieu, ensuite, à des petites remises de prix, à des expositions locales. Les concours, en fait, s’imbriquent les uns dans les autres par territoires croissants, c’est-à-dire qu’on a d’abord les éditions locales – nous à Digne, on avait organisé un Wiki Loves Earth sur la région Sud PACA – ensuite les concours nationaux, Wiki Loves Monuments France, Wiki Loves Monuments Espagne, Italie, etc., et ensuite le concours mondial. L’objectif, en fait, c’est d’encourager le plus grand nombre de contributeurs à participer à ce concours.<br />
<br />
<b>Frédéric Couchet : </b>Je précise que pour les contributeurs ou contributrices francophones, sur le site wikilovesmunments.fr il est indiqué qu’il y a aussi des actions en Tunisie, au Maroc, en Algérie ainsi qu’au Canada. Donc il y a un lien qui permet de voir si le pays participe à cet évènement, à ce concours mondial de photos libres. Donc wikilovesmonuments.fr.<br/><br />
Est-ce que tu souhaites ajouter quelque chose, cher Jean-Christophe.<br />
<br />
<b>Jean-Christophe Becquet : </b>Non. C’est tout pour aujourd’hui, merci.<br />
<br />
<b>Frédéric Couchet : </b>D'accord. On se retrouve le mois prochain pour la prochaine chronique « Pépites libres ». Je te souhaite une belle journée. <br />
<br />
<b>Jean-Christophe Becquet : </b>Entendu. Merci. Belle journée à tous les auditeurs et auditrices. Au revoir.<br />
<br />
<b>Frédéric Couchet : </b>Nous approchons de la fin de l’émission. Nous allons terminer par quelques annonces.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 18’ 13 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190917/libre-a-vous-20190917-annonces.ogg Annonces] 11 min 44 s==<br />
<br />
<b>Frédéric Couchet : </b>On a un peu de temps parce qu'on est un petit peu en avance. Donc les annonces. D'abord, je vais répondre aux questions du quiz. Parce que évidemment si j'oublie les réponses... Donc la première question c'était : Lors de l'émission du 10 septemnbre 2019, nous avions évoqué une nouvelle école d'informatique conçue avant tout par des femmes et qui s'adresse aux femmes post-bac. La question c'était : Quel est le nom de cette école ? Et bien le nom c'est : Ada Tech School. Le site web c'est, ada-school.com. Ça se passe en France, je crois de mémoire que c'est à Paris. Et j'en profite pour signaler d'ailleurs concernant Ada donc Ada Lovelace qui est la première programmeuse de l'histoire, le livre de Catherine Dufour qui s'intitule <em>Ada ou la beauté des nombres</em> et je pense qu'on va envoyer une invitation prochainement une invitation à Catherine Dufour pour venir nous parler un petit peu de Ada Lovelace. <br />
<br />
La deuxième question concernait le sujet du jour : l'économie circulaire, l'obsolescence programmée, la durée de vie, la réparabilité de nos outils informatiques. Et la question c'était : nous vous avions présenté il y a quelques mois, des projets libres visant à rendre des terminaux mobiles non seulement plus libres mais aussi plus durables et on vous demandait si vous pouviez en citer un ou deux de ces projets. C'était dans l'émission du 6 novembre 2018. Le podcast et la transcription sont en ligne sur le site de l'april, april.org et sur causecommune.fm. Et parmi ces projets notamment, il y a : LineageOS, Replicant, il y a le Fairphone, Librem donc qui sont à la fois du matériel du logiciel libre. Donc écoutez l'émission du 6 novembre 2018 et vous en saurez plus sur ces outils libres.<br />
<br />
Je vais continuer ensuite... D'abord, avant les annonces, dans le premier sujet du jour, Marie-Odile nous a parlé de textes de Richard Stallman qui est une des personnes à lorigine du mouvement du logiciel libre dans les années 80. Qui est fondateur et qui était jusqu'à tout récemment toujours président de la fondation pour le logiciel libre. Je disais dans le sujet que Richard Stallman est dans l'actualité depuis ce week-end mais pas pour de bonnes raisons. Il a été annoncé hier soir la démission de Richard Stallman de son poste de président de la fondation pour le logiciel libre. Cela fait suite à des publications d'échanges de courriels sur une liste interne du MIT. Une université et institut de recherche américain dans lequel Richard Stallman a travaillé dans le passé, dans lequel il a toujours un bureau. Ces échanges porte sur les conséquences de l'affaire Jeffrey Epstein donc le traffic de personnes mineures. Conséquences au MIT notamment l'implication d'un ancien collègue de Richard Stallman : Marvin Minsky, grand scientiique américain et qui a travaillé de très nombreuses années au MIT. Je crois que de mémoire, il dirigeait le laboratoire d'intelligence artificielle. À noter que Marvin Minsky et Jeffrey Epstein sont tous les deux décédés. Jeffrey Epstein récemment en août 2019 et Marvin Minsky en 2019. Donc des échanges de courriels qui ont générés un certain nombre de réactions. La fondation pour le logiciel libre n'a pas donné de détails concernant la démission de Richard Stallman et on va éviter de réagir à chaud. Mais, nous publierons une réaction sur notre site. Et en attendant, si vous souhaitez en savoir plus, je vous invite à consulter l'article du <em>monde</em> publié aujourd'hui qui relate l'affaire avec les extraits d'échanges, les articles de presse américains, la façon dont ils ont relayés l'information. Donc c'est sur le site du monde.fr. Je n'ai pas en tête le titre de l'article mais je crois que ça fait la une en tout cas, c'est sur la page d'accueil du <em>monde</em>. Donc voilà, nous ferons une réaction écrite sur le site de l'April et je vous en parlerai sans doute la semaine prochaine. <br />
<br />
Alors je regarde le temps, il reste encore quelques minutes pour des annonces. D'abord, <em>Paris Open Source Summit</em> se déroule à Paris le 10 et 11 décembre 2019. Plus précisément à Aubervilliers aux docks Pullman. L'appel à conférences est ouvert donc vous pouvez proposer des conférences pour cette édition de <em>Paris Open Source</em> 2019, 10 et 11 décembre. Alors le 10 décembre étant un mardi, il est fort possible que nous diffusions en direct l'émission <em>Libre à vous !</em> depuis <em>Paris Open Source Summit</em>. Nous vous confirmerons ça rapidement. Toujours dans les appels à conférences, il y a le <em>capitole du libre</em> qui se déroule à Toulouse les 16 et 17 novembre. L'appel à propositions de conférences et de stands est également ouvert jusqu'au 6 octobre 2019. J'en profite pour rappeler que le même week-end, les 16 et 17 novembre, il y a à Paris l'<em>Ubuntu Party</em> donc bientôt il y aura aussi l'appel à propositions de conférences et de stands. En ce moment se déroule également <em>la fête des possibles</em> du 14 au 29 septembre. Alors, c'est des organisations de la transition. Des centaines de rendez-vous sont prévus en France pour rendre visible des initiatives locales qui embellissent la société et construisent un avenir plus durable et solidaire. Le mot d'ordre de cette fête c'est : «C'est possible». C'est possible de manger bio et à moindre coût, c'est possible de se déplacer au quotidien sans polluer, c'est possible d'utiliser des logiciels libres. Donc évidemment, il y a des événements de sensibilisation au logiciel libre qui sont organisés. Le site c'est : fete-des-possibles.org. À Nantes cette semaine, se déroulent les rencontres régionales du logiciel libre donc le 19 septemnbre. Ces rencontres s'adressent aussi bien aux services informatiques qu'aux services métiers notamment donc des collectivités qui trouveront des réponses à leurs problématiques techniques et besoins fonctionnels. Le site c'est sur alliance-libre.org qui est un regroupement d'entreprises du logiciel libre sur la région Nantaise. Ça se passe le 19 septembre à Nantes. Cette semaine encore, jeudi soir, il y a la soirée de contribution au libre à la FPH à Paris dans le 11e et c'est également la réunion du groupe de travail sensibilisation dans le cadre de cette soirée de contribution au libre donc c'est à partir de 19 heures 30 à la FPH dans le 11e. Et le même soir, à Montpellier, il y a un apéro April qui est organisé par Montpel'libre. Je précise d'ailleurs que Montpel'libre qui est un groupe d'utilisateurs et d'utilisatrices de logiciels libres de Montpellier seront nos invités pour une interview téléphonique la semaine prochaine donc dans l'émission du 24 septembre. Évidemment, tous ces événements sont annoncés sur le site de l'April, april.org et également sur le site de <em>L'agenda du libre</em><br />
<br />
Alors je poursuis dans les annonces, cette semaine il y en a beaucoup mais comme on a le temps, ça va. Ce n'est pas juste pour combler. On m'a signalé sur le salon Web, la semaine québécoise de l'informatique libre dans la région de Montréal du 21 au 29 septembre 2019. Donc pareil, les informations sont sur le site de l'April. Donc ça dure plus d'une semaine avec des événements de sensibilisation au logiciel libre autour de Montréal et c'est organisé par l'association qui s'appelle FACIL qui sont des camarades, un petit peu comme l'April en France.<br />
<br />
Alors, est-ce que il y a d'autres annonces ? Oui ! Je vais en faire une petite rapide. Alors, je me mets simplement sur la bonne page pour le pas me tromper. Elle est où ? Voilà. Associations, si vous voulez tester un logiciel libre pour faciliter la valorisation du bénévolat et bien a été lancé il y a quelques jours Bénévalibre donc un logiciel libre destiné à faciliter la valorisation du bénévolat dans les associations avec notamment à l'initiative le CRAJEP, Comité Régional des Associations de Jeunesse Éducation Populaire de Bourgogne-Franche-Comté avec le soutien de la région Bourgogne-Franche-Comté, de la fondation du crédit coopératif avec les conseils et l'appui technique de Framasoft et de l'April. Le développement a été confié à une entreprise du logiciel libre du Nord qui s'appelle Cliss XXI. Donc le site Web c'est, benevalibre.org et nous aurons la semaine prochaine si je ne me trompe pas, une interview de Laurent Costy qui a piloté ce projet donc dans l'émission du 24 septembre 2019.<br />
<br />
Je crois que j'ai fait le tour des annonces. Si vous pensez que j'en ai oublié, elles sont sur le site, agendadulibre.org. Je vérifie sur le salon Web si on me signale quelque chose, non à priori. Ah oui ! On me signale simplement que l'article du <em>monde</em>, le titre de l'article du <em>monde</em> dont je parlais tout à l'heure c'est : <em>Richard Stallman, précurseur du logiciel libre, démissionne du MIT et de la Free Software Foundation</em> donc la fondation pour le logiciel libre en bon Français.<br />
<br />
Notre émission se termine. Je remercie les personnes qui ont participé à l'émission : Marie-Odile Morandi, A</div>D Ohttps://wiki.april.org/index.php?title=Protection_des_donn%C3%A9es_personnelles_:_souriez,_vous_%C3%AAtes_traqu%C3%A9s_!_-_La_m%C3%A9thode_scientifique&diff=85764Protection des données personnelles : souriez, vous êtes traqués ! - La méthode scientifique2019-09-17T21:36:58Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Protection des données personnelles : souriez, vous êtes traqués<br />
<br />
'''Intervenants :''' Anne Debet - Antoinette Rouvroy - Nicolas Martin - Céline Loozen - Alain Livartowski - Thomas Balezeau<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 23 mai 2018<br />
<br />
'''Durée :''' 58 min 45<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-23.05.2018-ITEMA_21688156-0.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/la-methode-scientifique-du-mercredi-23-mai-2018 Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Comment sont exploitées nos données personnelles sur internet ? Que va changer le RGPD dans les pratiques numériques ? Quels en sont les grands principes et les applications pour les sociétés et les citoyens en UE ? Nos données personnelles seront-elles désormais totalement protégées ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Après avoir répondu assez vasivement aux questions du parlement européen hier notamment suite au scandale de détournement de données par <em>Cambridge Analytica</em>, le patron de <em>Facebook</em> Mark Zuckerberg a été reçu aujourd'hui avec les patrons de d'autres géants du numérique comme <em>Microsoft</em>, IBM ou <em>Uber</em> par le président de la république Emmanuel Macron. Ce à quelques jours de l'entrée en vigueur du RGPD, le nouveau Règlement Général de Protection des Données censé protéger les citoyens européens contre l'exploitation abusive de leurs données numériques. Mais les états et les pouvoirs publics sont-ils en mesure de lutter à armes égales avec ces <em>mega trusts</em> privés ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b>Données personnelles : souriez, vous êtes traqués ! C'est le sujet auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>la méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour comprendre les implications de cette nouvelle RGPD, de ce nouveau RGPD puisque c'est un règlement qui entre en vigueur vendredi et plus généralement de nos usages d'internet et de l'emploi que nous faisons de nos données personnelles et d'une partie de notre privée, nous avons le plaisir de recevoir aujourd'hui Anne Debet. Bonjour.<br />
<br />
<b>Anne Debet : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes professeure de droit privé, droit des nouvelles technologies, droit de la santé et droit civil à l'université Paris Descartes et ancienne membre de la CNIL. Bonjour Antoinette Rouvroy.<br />
<br />
<b>Antoinette Rouvroy :</b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes juriste et philosophe du droit, professeure à l'université de Namur, chercheuse FNRS au centre de recherche en information droit et société. Vous pouvez suivre cette émission comme chaque en direct sur les ondes de France Culture et en complément avec un certain nombre de liens, d'articles, de schémas, de graphiques si il le faut, de vidéos, d'images... Bref ! Tout le toutim. Ce sera sur notre fil Twitter @lamethodeFC.<br />
<br />
[Extrait de l'audition au congrès américain de Mark Zuckerberg]</div>D Ohttps://wiki.april.org/index.php?title=Protection_des_donn%C3%A9es_personnelles_:_souriez,_vous_%C3%AAtes_traqu%C3%A9s_!_-_La_m%C3%A9thode_scientifique&diff=85759Protection des données personnelles : souriez, vous êtes traqués ! - La méthode scientifique2019-09-17T10:08:14Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Protection des données personnelles : souriez, vous êtes traqués<br />
<br />
'''Intervenants :''' Anne Debet - Antoinette Rouvroy - Nicolas Martin - Céline Loozen - Alain Livartowski - Thomas Balezeau<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 23 mai 2018<br />
<br />
'''Durée :''' 58 min 45<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-23.05.2018-ITEMA_21688156-0.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/la-methode-scientifique-du-mercredi-23-mai-2018 Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Comment sont exploitées nos données personnelles sur internet ? Que va changer le RGPD dans les pratiques numériques ? Quels en sont les grands principes et les applications pour les sociétés et les citoyens en UE ? Nos données personnelles seront-elles désormais totalement protégées ?<br />
<br />
==Transcription==</div>D Ohttps://wiki.april.org/index.php?title=Protection_des_donn%C3%A9es_personnelles_:_souriez,_vous_%C3%AAtes_traqu%C3%A9s_!_-_La_m%C3%A9thode_scientifique&diff=85758Protection des données personnelles : souriez, vous êtes traqués ! - La méthode scientifique2019-09-17T10:07:29Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Protection des données personnelles : souriez, vous êtes traqués<br />
<br />
'''Intervenants :''' Anne Debet - Antoinette Rouvroy - Nicolas Martin - Céline Loozen - Alain Livartowski - Thomas Balezeau<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 23 mai 2018<br />
<br />
'''Durée :''' 58 min 45<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-23.05.2018-ITEMA_21688156-0.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/la-methode-scientifique-du-mercredi-23-mai-2018 Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Comment sont exploitées nos données personnelles sur internet ? Que va changer le RGPD dans les pratiques numériques ? Quels en sont les grands principes et les applications pour les sociétés et les citoyens en UE ? Nos données personnelles seront-elles désormais totalement protégées ?<br />
<br />
==Transcription==</div>D Ohttps://wiki.april.org/index.php?title=Protection_des_donn%C3%A9es_personnelles_:_souriez,_vous_%C3%AAtes_traqu%C3%A9s_!_-_La_m%C3%A9thode_scientifique&diff=85757Protection des données personnelles : souriez, vous êtes traqués ! - La méthode scientifique2019-09-17T10:07:03Z<p>D O : Création de la page</p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Protection des données personnelles : souriez, vous êtes traqués<br />
<br />
'''Intervenants :''' Anne Debet - Antoinette Rouvroy - Nicolas Martin - Céline Loozen - Alain Livartowski - Thomas Balezeau<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 23 mai 2018<br />
<br />
'''Durée :''' 58 min 45<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-23.05.2018-ITEMA_21688156-0.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/la-methode-scientifique-du-mercredi-23-mai-2018 Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description<br />
Comment sont exploitées nos données personnelles sur internet ? Que va changer le RGPD dans les pratiques numériques ? Quels en sont les grands principes et les applications pour les sociétés et les citoyens en UE ? Nos données personnelles seront-elles désormais totalement protégées ?<br />
<br />
==Transcription</div>D Ohttps://wiki.april.org/index.php?title=M%C3%A9dias_%C3%A0_transcrire&diff=85756Médias à transcrire2019-09-17T10:02:08Z<p>D O : Déplacement d'une suggestion à en cours</p>
<hr />
<div>[[Image:Transcriptions2.png|right|150px]] <br />
<br />
== Présentation == <br />
<br />
La page principale pour les médias sur le site de l'April est ici: http://www.april.org/fr/videos.<br />
<br />
L'ensemble de ces fichiers sur le serveur sont stockés ici: http://media.april.org/video/ et http://media.april.org/audio/.<br />
<br />
Sur le wiki, une page permet de noter les caractéristiques des fichiers audio et vidéo qui sont sur le serveur avant d'en faire une fiche sur le site web : [[AudioVideo]].<br />
<br />
'''Ces médias sont tous en rapport avec le Logiciel Libre, sa défense, sa promotion…'''<br />
<br />
{{Boite | titre= Les prochaines transcriptions du groupe<br />
| bordure=rgb(132, 136, 220)|fond=Honeydew |largeur=70% |couleurTitre=tomato}}<br />
<br />
''' Les vidéos de la liste ''À relire ou en relecture'''''<br />
<br />
<br />
<br />
<strong>Si vous avez des médias à proposer, complétez la liste ''Suggestions'' et envoyez un message.</strong> <br />
{{BoiteFin}}<br />
<br />
=== Suggestions ===<br />
<br />
*[http://www.la-bas.org/article.php3?id_article=2931 Émission france-inter Là-bas si j'y suis du 05/02/2014 Le bon Dieu te regarde même si tu es aux cabinets 1]<br />
<br />
*[http://www.franceinter.fr/emission-la-bas-si-jy-suis-le-bon-dieu-te-regarde-meme-quand-tu-es-aux-cabinets-2 Émission france-inter Là-bas si j'y suis du 05/02/2014 Le bon Dieu te regarde même si tu es aux cabinets 2]<br />
<br />
*[http://www.freetorrent.fr/index.php?page=torrent-details&id=e8ae902cca9e4d5dd7f8a9691bb6b45fdc8a7e8f Logiciel Libre, Société Libre - Richard M. Stallman à Grenoble - avril 2014] 2h 23 min<br />
<br />
*[https://facil.qc.ca/fsm2016-grande-conf-logiciel-libre La grande conférence sur le logiciel libre avec RMS et Marianne Corvellec - Forum social mondial 2016] 2 h 16 min 26<br />
<br />
*[https://www.youtube.com/watch?v=jZFi-vtqrpo&feature=youtu.be Audition programmatique #20 - Numérique - April et Savoirs communs] 1 h 07 min 39<br />
<br />
* [https://rmll.ubicast.tv/channels/#2017-saint-etienne Conférences des RMLL2017] ad libitum NB : diverses conférences déjà transcrites et publiées<br />
<br />
* [https://framatube.org/media?q=jdll2017 Conférences des JDLL Lyon 2017] ad libitum NB : diverses conférences déjà transcrites et publiées<br />
<br />
* [https://www.youtube.com/embed/_D1TTMOjZiE?version=3&rel=1&fs=1&autohide=2&showsearch=0&showinfo=1&iv_load_policy=1&wmode=transparent Données personnelles et vie privée : ce qui va changer avec le RGPD] 01 h 53 min 49 sec<br />
<br />
*[https://www.youtube.com/watch?v=EbDOuZYmv68 Travailler ensemble pour la défense des libertés - Benjamin Bayart, Pierre-Yves GOSSET, piks3l] 1 h 30 min<br />
<br />
*[https://www.college-de-france.fr/site/claire-mathieu/inaugural-lecture-2017-11-16-18h00.htm Algorithmes - Leçon inaugurale - Claire Mathieu] 1 h 3 min<br />
<br />
*[https://www.franceinter.fr/emissions/affaires-sensibles/affaires-sensibles-28-novembre-2017 Le grand méchant darknet - Amaelle Guitton] 54 min<br />
<br />
*[https://radio.amicus-curiae.net/podcast/open-data-donnees-ouvertes-pour-monde-ouvert-ou-totalitaire/ Open data, données ouvertes pour un monde ouvert ou totalitaire - Amicus Radio] 36 min 45<br />
<br />
*[https://www.franceinter.fr/emissions/comme-un-bruit-qui-court/comme-un-bruit-qui-court-12-mai-2018 Données personnelles : Gare au GAFAM] 53 min<br />
<br />
*[https://www.youtube.com/watch?v=pDPFnywbWDo&index=35&list=PLTbQvx84FrASpPvTGt_0BzttHUvMEvXyP Philosophie de l'Intelligence artificielle - Une introduction] 39 min<br />
<br />
*[https://www.youtube.com/watch?time_continue=9&v=lgOrpwPfW00 Enjeux de la blockchain pour les collectivités | Congrès ADULLACT 2018 - Stéphane Bortzmeyer] 58 min 32<br />
<br />
*[http://www.canalc2.tv/video/15198 Les formats, un sujet toujours d'actualité - Thierry Stoehr - RMLL2018] 59 min 40<br />
<br />
*[https://www.france24.com/fr/20180912-debat-france24-union-europeenne-hongrie-gafa-facebook-google-internet?ref=fb Droit d'auteur : aux géants du net de payer ?] 26 min 15<br />
<br />
*[https://www.youtube.com/watch?time_continue=57&v=5dVmayb6sp4 CN2018 TABLE RONDE] 42 min 46<br />
<br />
*[https://webtv.utc.fr/watch_video.php?v=XUAU4YKB1XMX Des communs fonciers aux communs numériques - Benjamin Coriat] 49 min 25<br />
<br />
*[https://www.youtube.com/watch?time_continue=2&v=SOXAnl7qO8c Parlons-en - Framasoft et le Libre avec Pouhiou] 31 min 33<br />
<br />
* [https://www.april.org/decryptualite-du-8-octobre-2018-fablab-quand-la-maitrise-de-la-technologie-alimente-notre-creativite Décryptualité du 8 octobre 2018 - Fablab : quand la maîtrise de la technologie alimente notre créativité et nous donne du pouvoir sur nos vies] 15 min<br />
<br />
*[https://entreprise.maif.fr/entreprise/pour-une-societe-collaborative/decouvrir-nos-actions/nos-conference-et-debats-a-partager-replay Qui contrôle internet et les médias sociaux - Divina Frau-Meigs - 03/10/2018 à Lons Le Saunier (39)] 1:06:22<br />
<br />
*[https://www.lejdc.fr/nevers/science/internet-multimedia/2019/01/03/au-royaume-uni-en-france-aux-etats-unis-les-distinctions-s-accumulent-pour-le-nivernais-louis-pouzin-un-des-peres-d-internet_13098569.html Carte blanche à Louis Pouzin - Nevers Libre - Juin 2016] 1 h 29 min<br />
<br />
* [https://peer.hostux.social/video-channels/lareinedeselfes_channel/videos Au choix, évènement Entrée libre à Quimper août 2019]<br />
<br />
* [https://www.arte.tv/fr/videos/058227-078-A/square-idee/ Square Idée – Smart Cities : Progrès ou danger ? – juillet 2019] 27 min (passages logiciel libre, GAFAM…).<br />
<br />
<br />
<br />
----<br />
<br />
== Travaux ==<br />
<br />
<br />
=== En cours ===<br />
<br />
* [[Free_Libre_alternatives_to_GAFAMs_Internet_a_review_of_French_Initiatives]] : Free/Libre alternatives to GAFAMs Internet a review of French Initiatives, Marianne Corvellec and Jonathan Le Lous à LibrePlanet 2016<br />
<br />
* [[Open_Experience_Art_et_Culture ]] Open Experience : Quels modèles économiques pour l’Open dans l’Art et la Culture ? Lionel Maurel<br />
<br />
* [[Audition et logiciels libres : conférence RMLL juillet 2013]] commencée par Irina<br />
<br />
* [https://wiki.april.org/w/Tristan_Nitot_-_BacFM_Nevers Tristan Nitot interviewé sur BACFM à Nevers dans le cadre d'une émission sur l’événement Dégooglisons internet]] commencée par Techno2900<br />
<br />
* [[Protection des données personnelles : souriez, vous êtes traqués ! - La méthode scientifique]] 58 min 45, commencée par D_O<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
----<br />
<br />
=== À relire avec ou sans le son ===<br />
<br />
* [http://wiki.april.org/w/Faut-il_breveter_les_logiciels Faut-il breveter les logiciels ? Table ronde - Aquitaine Science Transfert] 2 heures 3 min<br />
<br />
* [http://wiki.april.org/w/R%C3%A9trospective_juridique_-_Actualit%C3%A9_-_Travaux_en_cours_-_Benjamin_Jean_-_RMLL2015#10.27_16 Rétrospective juridique : actualité et travaux en cours - Benjamin Jean - RMLL2015] 40 min 38<br />
<br />
* [http://wiki.april.org/w/Mettre_en_place_une_politique_publique_en_faveur_du_logiciel_libre_-_Table_ronde Mettre en place une politique publique en faveur du logiciel libre - Table ronde au POSS 2016 animée par Étienne Gonnu] 1 h 36 min 29<br />
<br />
* [https://wiki.april.org/w/Enseignement_sup%C3%A9rieur,_recherche_et_Logiciel_Libre_-_RMLL2018 Enseignement supérieur, recherche et Logiciel Libre - RMLL2018] 1 h 04 min 38<br />
<br />
* [https://wiki.april.org/w/Blockchain_-_Les_temps_%C3%A9lectriques_-_Primavera_De_Filippi Blockchain - Les temps électriques - Primavera De Filippi] 39 min<br />
<br />
* [http://wiki.april.org/w/Ethique_et_l%27int%C3%A9grit%C3%A9_collecte_donn%C3%A9es Éthique et l’intégrité de la collecte et de partage des données] Conférence en anglais de 47 min - relecture en cours par [[Discussion utilisateur:JennyB|JennyB]]<br />
<br />
* [https://wiki.april.org/w/La_technologie_au_service_du_bien_commun,_un_v%C5%93u_pieux_-_D%C3%A9cryptage_-_RFI La technologie au service du bien commun, un vœu pieux - Décryptage - RFI] 19 min 30<br />
<br />
* [https://wiki.april.org/w/Internet_devient-il_un_Minitel_2.0_ou_un_bien_commun_-_Benjamin_Bayart_-_RTS Internet devient-il un Minitel 2.0 ou un bien commun - Benjamin Bayart - RTS] 37 min 50<br />
<br />
* [https://wiki.april.org/w/La_cybersecurite_est-elle_vouee_a_lechec La cybersécurité est-elle vouée à l'échec ? Du grain à moudre] 40 min<br />
<br />
* [https://wiki.april.org/w/Souverainet%C3%A9_num%C3%A9rique_am%C3%A9ricaine_-_Bernard_Benhamou Souveraineté numérique américaine ? - Bernard Benhamou] 42 min 18<br />
<br />
* [https://wiki.april.org/w/Faire_atterrir_les_Communs_num%C3%A9riques Faire atterrir les Communs numériques. Des utopies métaphysiques aux nouveaux territoires de l'hétérotopie - Lionel Maurel] 1 h 02 min<br />
<br />
* [https://wiki.april.org/w/Changer_le_monde,_un_ego_%C3%A0_la_fois_-_Pouhiou_-_PSES2019 Changer le monde, un ego à la fois - Pouhiou - PSES2019] 59 min<br />
<br />
* [https://wiki.april.org/w/Education,_sanction,_prospective_:_que_peut_(vraiment)_la_CNIL_pour_prot%C3%A9ger_nos_donn%C3%A9es_-_Soft_Power Education, sanction, prospective : que peut (vraiment) la CNIL pour protéger nos données - Émission Soft Power] 1 h 28 min<br />
<br />
* [[Éthique numérique, des datas sous serment - La méthode scientifique]] 58 min 56, transcrite par D_O<br />
<br />
===Relu avec le son, en attente de relecture orthographique===<br />
<br />
* [https://wiki.april.org/w/Responsabilit%C3%A9_des_ing%C3%A9nieurs_-_%C3%89ric_Sadin Responsabilité des ingénieurs - Éric Sadin] 26 min <b>NB : </b> M. Sadin donnera son accord, ou pas, pour la publication de cette transcription, donc en attente - relu par Bookynette & Khrys<br />
<br />
<br />
<br />
<br />
=== En attente de validation ===<br />
<br />
* [[TEDx_Frederic_Couchet]] sous titrage à mettre en ligne sur le site web<br />
<br />
* [http://wiki.april.org/w/Projet_Signoth%C3%A8que_-_PSESHSP_2016 Projet Signothèque - Association Arboré'Sign _ PSESHSF 2016] 43 min 45 - relu par Khrys<br />
<br />
=== Publiées dans le mois ===<br />
<br />
* [https://www.april.org/le-numerique-nous-libere-t-il-ou-serait-il-un-nouvel-asservissement-dominique-cardon-le-grand-face-a Le numérique nous libère-t-il ou serait-il un nouvel asservissement ? Dominique Cardon - Le grand face-à-face - France Inter] 38 min<br />
<br />
* [https://www.april.org/donnees-personnelles-sommes-nous-des-victimes-consentantes-le-debat-de-midi-france-inter Données personnelles : sommes-nous des victimes consentantes - Le débat de midi - France Inter] 52 min 37<br />
<br />
* [https://april.org/libre-a-vous-radio-cause-commune-transcription-de-l-emission-du-3-septembre-2019 Libre à vous ! Radio Cause Commune - Émission du 3 septembre 2019] 1 h 30 min<br />
<br />
* [https://www.april.org/bilan-de-l-ete-decryptualite-du-9-septembre-2019 Bilan de l'été - Décryptualité du 9 septembre 2019] 15 min<br />
<br />
* [https://april.org/libre-a-vous-radio-cause-commune-transcription-de-l-emission-du-10-septembre-2019 Libre à vous ! Radio Cause Commune - Émission du 10 septembre 2019] 1 h 30 min<br />
<br />
* [https://www.april.org/felix-treguer-personnalite-de-la-semaine-france-inter Félix Tréguer - Personnalité de la semaine - France Inter] 7 min 11<br />
<br />
===[[Transcriptions publiées]]===<br />
<br />
== Retour ==<br />
à la [[Transcriptions page d'accueil|page]] d'accueil du groupe.<br />
<br />
[[Catégorie:Transcriptions]]<br />
[[Catégorie:Video]]</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85755Éthique numérique, des datas sous serment - La méthode scientifique2019-09-16T20:33:03Z<p>D O : Application de la correction suggérée par courriel par Frédéric Bardolle</p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen - Soline Ledésert - Jérémie Poiroux<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''Transcrit par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lançait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un serment d'Hippocrate des <em>data scientists</em>. Donc on a fait une petite recherche, il y en avait déjà qui circulaient et pour se différencier de ceux qui existaient déjà, on avait vraiment crée un serment d'Hippocrate qui aidait dans au quotidien, dans leur pratique les <em>data scientists</em>. Vraiment à se dire, on a découpé le travail en grandes étapes de la participation d'un projet, à l'analyse de résultats en passant par la collecte de données et l'application de modèles algorithmiques. On s'est dit «À chaque étape, quels sont les dilemmes éthiques auxquels un <em>data Scientist</em> peut être confronté et ensuite comment il peut résoudre ces problèmes ?». Donc on a fait un questionnaire en ligne, on a récolté des expériences diverses et ensuite on a travaillé pendant trois mois en atelier à rédiger collaborativement un serment d'Hippocrate. Donc là, il est disponible sur hippocrate.tech. Donc on a posé cinq valeurs : L'intégrié scientifique et la rigueur, la transparence, l'équité, le respect et la responsabilité et l'indépendance. Et ensuite, on a formulé des phrases sous la forme de «Je m'engage à faire ceci ou cela» donc ça concerne effectivement le respect de la vie privée donc à chaque fois, à chaque ligne on rappelle aussi le cadre légal européen du Règlement Général pour la Protection des Données personnelles. Le <em>data scientist</em> signataire s'engage à déterminer le meilleur compromis entre la performance et l'interprétabilité. Pourquoi l'interprétabilité c'est important ? Parce que par exemple si vous faites tourner un algorithme par exemple sur la question de votre allocation familiale et si l'algorithme vous dit «Bah non, vous n'y avez pas droit» et que la personne qui a fait tourner l'algorithme vous dit «Et bien écoutez, je ne peux pas vous l'expliquer, mais c'est comme ça» ça peut poser des problèmes. Donc on a fait ce genre de recherche. <br />
<br />
<b>Céline Loozen : </b>Quelle est la valeur juridique de cette charte ? Comment on pourrait l'appliquer réellement ?<br />
<br />
<b>Soline Ledésert : </b>Nous on est vraiment dans une démarche plutôt citoyenne. À chaque fois, on l'a formulée de façon à veiller, enfin le <em>data scientist</em> veille à ce que les choses se fassent. Mais un <em>data scientist</em> il peut travailler dans une administration, dans une entreprise, au sein d'un labo de recherche et il n'est jamais seul décisionnaire sur vraiment l'ensemble du projet donc nous on a pris cette approche dans le cadre de ce projet vers la responsabilité personnelle. Après, on a aussi rappelé la loi donc là c'est vrai que le RGPD a vraiment amené beaucoup plus de contraintes sur ces questions mais voilà, nous on est vraiment parti sur un modèle d'éthique personnelle. <br />
<br />
[Fin de la musique de fond]<br />
<br />
<b>Nicolas Martin : </b>Voilà le reportage du jour sur cette plate-forme <em>AlgoTransparency</em>. Je vais vous demander évidemment Frédéric Bardolle, une réaction puisque c'est votre association <em>Data For Good</em> qui développe cette plate-forme.<br />
<br />
<b>Frédéric Bardolle : </b>Déjà merci. C'est Soline qui a vraiment porté le projet sur le serment d'Hippocrate et Guillaume Chaslot qui est à plein temps sur ce projet de <em>Algotransparency</em> et qui essaie d'étudier notamment avec des scientifiques américains, essayer d'étudier d'autres algorithmes et leurs fonctionnements, essayer de mieux comprendre comment ça marche. Moi je voulais revenir surtout sur une chose c'est que effectivement il y a une responsabilité individuelle donc à travers ce serment qu'on propose. Mais on pense également qu'il y a comme le disait Soline qu'il y a aussi une responsabilité finalement aussi, il y a des institutions à créer pour permettre de transformer la manière dont fonctionne le numérique à l'heure actuelle. Un exemple : à l'heure actuelle, il n'y a pas de statut intermédiaire entre un hébergeur et un média. Et le problème c'est quoi ? C'est que en fait...<br />
<br />
<b>Nicolas Martin : </b>Exemple concret. Par exemple, prenons un réseau social. Pour les auditeurs, exemple concret : Facebook.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà Facebook ou YouTube, c'est des hébergeurs. Donc, ils ne sont pas responsables du contenu. Tout le contenu publié chez eux c'est pas sous leur responsabilité. Au contraire un média, tout ce qui est produit, si on dit quelque chose qui ne respecte pas la loi à la radio...<br />
<br />
<b>Nicolas Martin : </b>Sur France Culture.<br />
<br />
<b>Frédéric Bardolle : Et bien quelqu'un portera la responsabilité. <br />
<br />
<b>Nicolas Martin : </b>La directrice de la chaîne, moi d'abord et puis ensuite la présidente. <br />
<br />
<b>Frédéric Bardolle : </b>Et donc il y a un grand écart en fait. Ce statut d'hébergeur ça marchait très bien au début de l'internet finalement. C'était juste des annuaires où il y avait toutes les vidéos des contenus produits par les internautes qui étaient là. Finalement, c'est vrai qu'il n'y avait pas de rôle de responsabilité. Mais là en fait on assiste à quelque chose. C'est-à-dire qu'un algorithme qui propose 100 000 fois un contenu à un utilisateur, on pourrait se dire «Quand même, il a un rôle éditorial». Même si ce n'est pas un humain qui a fait ce choix de poser ça là. Au bout d'un moment lorsqu'une nouvelle est diffusée de manière massive comme ça, nous on considère que cette plate-forme a un rôle éditorial, devrait avoir une responsabilité juridique et parce que l'algorithme a un rôle éditorial dans ses contenus. <br />
<br />
<b>Nicolas Martin : </b>Une réaction à ce que viens de dire Frédéric Bardolle et sur cette plate-forme <em>AlgoTransparency</em>. On va parler du serment d'Hippocrate dans un instant mais d'abord sur le reportage et sur cette notion très très intéressante de distnction entre l'hébergeur et média.<br />
<br />
<b>Nozha Boujemaa : </b>Oui... Et bien je suis d'accord dans la mesure où effectivement l'évolution des rôles aujourd'hui, la frontière est très mince et surtout que les contenus en fait aujourd'hui sont consommés. Il n'y a plus effectivement ce rôle éditorial fait par un professionnel mais aujourd'hui c'est fait par un algorithme de recommandation de contenus. Et donc, très clairement la question de la neutralité de la recommandation du contenu se pose. Et au-delà de ces... En fait... Moi je voudrais pointer toujours sur cette même problématique, un autre contexte qui peut être embêtant. C'est pas du B2C en fait c'est du B2B. Plate-forme juste au hasard...<br />
<br />
<b>Nicolas Martin : </b>On rappelle : B2C c'est <em>business-to-consumer</em>...<br />
<br />
<b>Nozha Boujemaa : </b>Voilà.<br />
<br />
<b>Nicolas Martin : </b>Et B2B c'est <em>business-to-business</em> voilà.<br />
<br />
<b>Nozha Boujemaa : </b>Exactement. <br />
<br />
<b>Nicolas Martin : </b>Donc de l'entreprise à l'entreprise et de l'entreprise au consommateur.<br />
<br />
<b>Nozha Boujemaa : </b>Merci.<br />
<br />
<b>Nicolas Martin : </b>C'est juste un petit bout de traduction franco-anglaise qu'on nous reproche souvent à juste titre d'être trop anglophone. <br />
<br />
<b>Nozha Boujemaa : </b>Tout à fait, tout à fait. À juste titre.<br />
<br />
<b>Nicolas Martin : </b>Allons-y.<br />
<br />
<b>Nozha Boujemaa : </b>Donc faire des recommandations de consommation de contenus culturels sur une plate-forme qui n'a pas de modèle d'affaires qui soit de la publicité. Je prends pour exemple Netflix. Une fois qu'on paye l'abonnement, on n'a pas de publicités à regarder.<br />
<br />
<b>Nicolas Martin : </b>Pour le moment.<br />
<br />
<b>Nozha Boujemaa : </b>Pour le moment. On peut se poser la question : C'est quoi les motivations des algorithmes de recommandation là-dedans ? D'accord ? Donc là, c'est un autre cas d'usage auquel il faudrait aussi un petit peu s'y intéresser. Parce que là très clairement, la question de la concurrence va se poser entre des producteurs de contenus qui sont, qui ont des accords avec Netflix et ceux qui ne l'ont pas. Et aussi avec des producteurs de contenus culturels de l'industrie française par exemple qui peut se retrouver lésée. Et là, c'est un problème de concurrence et de position dominante et le ministère de la culture aussi à ma connaissance s'intéresse également à ces questions.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, c'est intéressant cet exemple de Netflix parce que effectivement... Par ailleurs, on peut aussi imaginer que puisque tous ces algorithmes sont biaisés et qu'il y a une intentionnalité derrière, dans ces biais, on peut imaginer que l'algorithme de Netflix privilégie les productions internes de Netflix et pas le contenu qui a été racheté à d'autres sociétés de production qui sont hébergées seulement sur la plate-forme pour prévilégier le contenu interne et dire «Et bien vous voyez, les produits Netflix fonctionnent mieux que les produits un tel de FOX ou un air peu importe».<br />
<br />
<b>Nozha Boujemaa : </b>Et ce n'est pas forcément une personnalisation pour le consommateur je rappelle. <br />
<br />
<b>Nicolas Martin : </b>Bien sûr.<br />
<br />
<b>Frédéric Bardolle : </b>Et...<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Et comme on n'a aucune transparence sur qu'est-ce qu'on essaie d'optimiser avec cet algorithme, finalement on ne le saura jamais. Et c'est un gros problème. Et pour montrer l'ampleur un peu de la chose, il faut savoir que 70 % à 80 % du contenu sur Netflix provient de recommandations. Donc ce n'est pas quelque chose qui se fait à la marge. C'est que les gens consomment ce qu'on leur recommande en fait. C'est vraiment quelque chose qui est phénoménal et sur toutes les plates-formes c'est la même chose.<br />
<br />
<b>Nicolas Martin : </b>Parce que par ailleurs sur Netflix, la plate-forme est une gigantesque plate-forme de recommandations. C'est-à-dire que la plate-forme n'est pas présentée par ordre alphabétique par exemple ou par ordre de nouveautés ou très très peu. Elle n'est que...<br />
<br />
<b>Nozha Boujemaa : </b> Elle va le rajouter, elle est là.<br />
<br />
<b>Nicolas Martin : </b>Voilà. Ce qui est intéressant alors. On entendait dans la reportage quelque chose sur laquelle j'aimerais vous faire réagir. On va parler évidemment surtout dans la deuxième partie, de cette notion de serment d'Hippocrate : À il s'addresse, de son côté un peu finaliste c'est-à-dire de dire que le serment est signé finalement par les <em>data scientists</em>, par les scientifiques de données. Et pourquoi est-ce que ce serait les individus qui doivent s'engager et non pas les plate-formes ? C'est une question qui me semble importante à traiter. Mais avant cela, j'aimerais poser une question autour de cette notion d'interprétabilité. Puisqu'on voit bien que... Prenons cet exemple de Netflix qui est assez bon. Aujourd'hui Netflix signerait un accord, un serment, peu importe qui donne accès, qui permet de lire ses algorithmes. Aujourd'hui pour tout un chacun, pour nous citoyens en bout de chaîne, pour les consommateurs : c'est strictement illisible. C'est-à-dire qu'on a pas accès à la compréhension de ce qui va permettre de régir cet algorithme et d'ailleurs si nous n'y avons pas intérêt, évidemment la plate-forme elle-même a encore moins intérêt à donner ces informations-là. Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui alors effectivement, c'est là où il y a un effort international sur «Faut-il réguler, comment réguler ?» etc etc au-delà des chartes d'engagements individuelles. L'idée c'est aussi... Alors tout dépend si c'est du... J'allais dire du soft (rires). Si c'est du...<br />
<br />
<b>Nicolas Martin : </b>Logiciel ?<br />
<br />
<b>Nozha Boujemaa : </b>Non non. De la réglementation dure ou un peu plus légère mais en tout cas amener les producteurs de service à rendre compte. Parce qu'en fait, celui qui fait le service, on peut en fait et là je mentionne les efforts faits au niveau de la Commission européenne mais aussi au niveau de l'OCDE qui réfléchissent très très sérieusement par rapport à toutes ces questions parce qu'il y a une prise de conscience aujourd'hui internationale. Je ne dis pas que les solutions existent. Mais la prise de conscience et la nécessité, l'urgence d'agir : elle est là. Du coup, typiquement sur l'intelligibilité... Je ne parle pas d'explicabilité parce que des fois, on a peut-être pas besoin et peut-être pas les moyens techniques de l'explicabilité mais par contre, la traçabilité du pourquoi on a eu ce résultat du genre «tel produit ou tel contenu est recommandé pour vous». On aimerait bien avoir une sorte de tableau de bord qui va nous dire «Voilà les critères en pourcentage qui»...<br />
<br />
<b>Nicolas Martin : </b> «Vous avez fait tel choix, tel choix, tel choix donc le logiciel infère que vous allez aimer tel chose».<br />
<br />
<b>Nohza Boujemaa : </b>Les producteurs des services en fait par régulation, on pourrait les amener à apporter et justement en apportant ces critères-là, on respecte le libre arbitre du consommateur quand même. Parce que la, on clique sur ce qui est proposé mais est-ce qu'il est vraiment conscient de sur quoi... Enfin... C'est quand même léger aujourd'hui donc il y a cette notion de respect du libre arbitre via une règlementation dans ce sens-là. <br />
<br />
<b>Nicolas Martin : </b>Je vais prendre un exemple volontairement un chouia provocateur dans l'état actuel des choses mais encore une fois la transparence n'implique pas compréhension si on prend une plate-forme de Parcoursup dont l'algorithme a été rendu public par l'éducation nationale. Ce qui n'empêche pas personne de ne comprendre à aucun moment, les choix et les orientations que cet algorithme fait pour les étudiants qui veulent être inscrits dans les universités dont ils font fait le choix. Fait la demande pardon. <br />
<br />
<b>Frédéric Bardolle : </b>La complexité supérieure qui a en plus sur Parcoursup, c'est que il y a une partie du code qui est quand même caché. Le code qui est utilisé par les universités, celui-là, «la cuisine interne» comme ils appellent ça.<br />
<br />
<b>Nicolas Martin : </b>La sélection en bout de chaîne.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Celle-là, il y a toujours une demande, une requête qui a été faite à la Commission d'Accès aux Documents Administratifs, la CADA, qui est en cours mais qui n'a pas abouti à l'heure actuelle et ce code n'est pas rendu public. Donc, il manque quand même un bout de la chaîne. Pour revenir sur cette question d'auditabilité des algorithmes, nous quand on a essayé d'auditer l'algorithme de YouTube c'est un peu ce qu'on a fait avec <em>AlgoTransparency</em>, on s'est rendu compte de la complexité qu'il y avait. C'est-à dire que d'une : Tous les jours, l'algorithme change. Comme des gens regardent des vidéos, en fait ça fait changer l'algorithme. Donc finalement, quelle est la vraie version ? C'est compliqué à dire. <br />
<br />
<b>Nohza Boujemaa : </b>Les algorithmes et les corpus.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà.<br />
<br />
<b>Nohza Boujemaa : </b>Les corpus aussi. <br />
<br />
<b>Frédéric Bardolle : </b>Tout change au fur et à mesure. Et puis c'est d'une telle complexité. Si on a des réseaux de neurones, ça va être aussi dur par exemple de dire «On a regardé cette vidéo parce que il y a une personne qui a regardé ça». Des critères il peut y en avoir des millions et des millions donc on ne va pas forcément s'y retrouver. Et finalement, c'est un peu comme quand on regarde les émissions de particules fines d'une voiture je trouve. C'est-à-dire que finalement peu importe ce qui se passe dans la cuisine interne du moteur, ce qu'on va regarder à la fin c'est «Est-ce que il y a des particules qui sont émises ?» et c'est ça qui nous intéresse. Mais, ça c'est pas disponible à la hauteur, on n'a pas de mécanisme qui nous permet de nous connecter directement à une plate-forme et de savoir «Bah tiens si on fait telle chose, on aura telle chose de recommandé» et puis en plus on se dit «Si jamais ça ça existe, il va y avoir des trucages» comme il y a eu sur les voitures notamment quand on est arrêté, tout se passe bien et puis quand on roule en conditions réelles, ça ne marche plus du tout. C'est pas évident comme question.<br />
<br />
<b>Pause musicale : </b> <em>Algorithms</em> par <em>School is Cool</em><br />
<br />
<b>Nicolas Martin : </b><em>Algorithms</em> de <em>School is Cool</em> puisque c'est ce dont il est vaguement question au cours de cette heure puisque nous parlons d'éthique numérique et d'éthique en science des données et évidemment bien des algorithmes qui sont au centre de ces questions d'éthique, de leurs transparences, de leurs auditabilités et puis surtout de ce qu'il va se passer dans le futur. À partir d'aujourd'hui, avec les scientifiques qui sont formés aujourd'hui. Ces scientifiques doivent-ils être tenus, doivent-ils s'engager sur une sorte de charte de bonne conduite piur éviter, bien pour éviter toute sorte de dérives que l'on peut constater d'ores et déjà aujourd'hui. Nous en parlons avec Nohza Boujemaa qui est directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et avec Frédéric Bardolle qui est membre de l'association <em>Data for Good</em> qui a réalisé une plate-forme <em>AlgoTransparency</em> à propos de l'algorithme de YouTube à propos de laquelle on a entendu un reportage tout à l'heure. Mais comme tous les mercredis, aux alentours de cette heure à quelques minutes près, il est l'heure d'écouter la voix du futur de la recherche.<br />
<br />
[Jingle] <br />
<br />
<b>Nicolas Martin : </b>Et aujourd'hui, le futur de la recherche s'appelle Jérémie Poiroux. Bonjour Jérémie Poiroux.<br />
<br />
<b>Jérémie Poiroux : </b>Bonjour à tous, bonjour.<br />
<br />
<b>Nicolas Martin : </b>Bonjour. Vous êtes avec nous en ligne puisque vous suivez vos études au centre Marc Bloch à Berlin en partenariat avec le CNRS. Vous êtes en première année de thèse en sociologie dans le cadre du projet ANR <em>Algodiv</em>. Je crois que vous êtes présentement en Pologne. Le titre de votre thèse c'est «La fabrique des algorithmes de recommandation et de management» sous le prisme de leur conception et de leur impact au sein des organisations. Voilà, je vais vous laisser quelques minutes pour nous présenter vos travaux. C'est à vous.<br />
<br />
<b>Jérémie Poiroux : </b>Et bien merci beaucoup pour cette présentation très précise et avec beaucoup de pression sur le futur de la recherche.<br />
<br />
<em>Rires</em><br />
<br />
<b>Jérémie Poiroux : </b>Donc c'est une thèse... Voilà, qui est sous la direction de Camille Roth. Donc là, j'étais en effet en Pologne mais là je suis de retour à Berlin donc pour continuer cette étude sur la fabrique des algorithmes de recommandation et de management. Alors c'est vrai pour prendre un peu le contre-pied de ce qui se fait en ce moment, il y a une littérature qui est assez limitée sur la fabrique. On parle pas mal de transparence, d'ouvrir la boîte noire, on a eu pas mal les débats aussi juste avant la pause musicale. Et quelque chose qui ne se fait pas beaucoup voilà c'est : Comment ils sont fabriqués ? Donc mon premier terrain c'est : les algorithmes de recommandation donc c'est des petits programmes... Peut-être que je dis des choses qui ont déjà été dites quelques minutes avant. Qui vont vous inviter voire vous inciter à consommer un contenu ou un produit. Donc, Ça peut être un film sur Netflix, on en reparle. Une chambre sur Airbnb ou un article sur le site d'un média. Vous me direz qu'en soi, recommander une sacoche quand j'achète un appareil photo ou un hôtel quand je vais passer une semaine en Grèce : c'est un peu de bonne guerre. Mais on peut plus se poser des questions quand il va s'agir de recommander du contenu culturel ou d'intérêt général car ils pourraient nous enfermer... Alors là je dis attention car il y a un «point Algodwin» parce que on parle beaucoup de bulles filtrantes qui pourraient nous empêcher de voir plus loin que le bout de notre zone de confort. Je m'arrête ici sur les impacts car vous allez en parler, vous en avez beaucoup parlé. Donc en fait, je m'intéresse plutôt comme je le disais à la fabrique. Vous vous êtes déjà demandé, on va reprendre l'exemple de YouTube : Pourquoi il vont recommander (l'algorithme de YouTube, à droite ou sur la page d'accueil) cette vidéo de chatons ou la vidéo de terre plate ? Et donc, dans mon étude préparatoire que j'ai fait et que je suis entrain de terminer, qui lance la thèse, j'ai mené des entretiens avec plusieurs dizaines d'ingénieurs qui programment des algorithmes de recommandations pour des médias, pour des sites de <em>e-commerce</em>, pour des plates-formes de <em>streaming</em> pour mieux comprendre en fait d'où vient l'algorithme. L'objectif dans ma thèse, c'est de mettre en valeur les intentions, les pourquoi, les comment qui se cachent derrière les algos, les choix <em>business</em> ou encore les biais qui sont directement implémentés de manière consciente ou non dans la machine. Donc si on en revient à l'exemple de YouTube, c'est aller étudier : Pourquoi ils vous recommandent cette vidéo de terre plate alors que vous n'aviez rien demandé ? Alors c'est un peu dévoiler en quoi rien n'est laissé au hasard dans le monde merveilleux des algorithmes et puis de dévoiler un peu la face cachée de leurs impacts. Donc, je vais aller dans les entreprises, je vais faire de l'immersion, je vais observer la conception et le développement directement d'algorithmes. Qui fait quoi, d'où vient l'idée de base, quelles sont les contraintes, quelles sont les méthodes utilisées ou encore la conscience qu'on a dans les entreprises des impacts des algorithmes qu'ils ont conçus. Mais le bonheur ne s'arrête pas là et donc là c'est un peu la transition brute pour passer à l'autre temps de mon sujet qui est : l'utilisation des algorithmes qui de plus importante au sein même des entreprises. On voit depuis des années, des dizaines d'années, des robots remplacer les humains pour faire. Donc c'est sur les chaînes de production, dans les usines, dans les entrepôts pour préparer les commandes donc Amazon par exemple. Demain, les algorithmes ils vont être présents donc encore pour faire mais aussi pour organiser et <em>manager</em> le travail. Donc ça, c'est une grosse différence. C'est d'ailleurs déjà le cas avec Uber où les chauffeurs répondent aux ordres d'algorithmes qui sont <em>managers</em>. Pour se placer dans telle ou telle zone parce qu'il y a plus de personnes ou pour travailler sur telle ou telle plage horaire parce que Uber manque de chauffeurs à telle ou telle plage horaire. Donc à terme, Les algorithmes on peut dire, vont analyser les données de production, de ventes et de productivité pour prendre des décisions ou pour aider à la prise de décisions qui (ces décisions) auront un impact direct sur les travailleurs de l'organisation. Donc c'est une nouvelle pratique managériale on peut appeler ça comme ça, qui pose des questions de productivité et de conditions de travail évidemment. Et qui m'amènera à comparer les bureaucraties traditionnelles et les bureaucraties algorithmiques. Donc les questions éthiques, elles sont évidemment présentes dans les deux pans de la thèse. Par exemple : Que fait un ingénieur devant une demande d'un PDG et cette demande, cet ingénieur il la juge contraire à son éthique ? Ou que fait un manager qui est invité par un algorithme de prendre une décision qu'il juge dangereuse pour son équipe ? Voilà, donc si vous êtes intéressé par les recherches et puis je fais un petit appel aussi à des entreprises qui peuvent m'accueillir pour cette immersion, n'hésitez pas à me contacter. Et puis je vous remercie pour votre écoute et finit mes quatre minutes de <em>futur de la recherche</em>. Et merci pour votre invitation Eve et Nicolas.<br />
<br />
==42'54==<br />
<b>Nicolas Martin : </b>Merci, merci beaucoup Jérémie. On va vous garder un instant en ligne si vous voulez bien parce que j'aimerais que vous interveniez et que vous réagissiez un peu à ce qui va se dire en studio. Je vais demander une réaction et puis félicitations pour le «point Al Godwin» qu'on a beaucoup aimé. Une réaction Nozha Boujemaa ? Je vous voyais approuver aux présentations des travaux de Jérémie Poiroux.<br />
<br />
<b>Nozha Boujemaa : </b>Alors effectivement, la recherche elle a un rôle très important à jouer. Ce dont on n'a pas encore bien appuyé, l'idée au-delà de l'auditabilité et du contrôle et de la transparence des algorithmes existants, c'est vraiment essentiel d'avoir une formation justement des étudiants à la réutilisation des briques, logiciels <em>Open source</em>, sur les fuites informationnelles mais surtout en fait c'est avoir en fait de nouveaux modèles mathématiques d'apprentissage qui puissent identifier des variables discriminatoires pour réduire leurs impacts sur les prises de décisions. Donc là, c'est vraiment d'un point de vue recherches. «Coeur d'IA», c'est-à-dire que au-delà des algorithmes existants, faire de nouveaux modèles qui incorporent ces idées : égalité et équité par construction dans le modèle mathéthique lui-même. Chose qui existe très rarement.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, un mot.<br />
<br />
<b>Frédéric Bardolle : </b>Moi j'ai juste une crainte c'est que même si on développe des nouveaux modèles aussi performants qui soient, on va pas réussir à résoudre le cœur du problème qui est que les plates-formes font ça enfin... On va seulement parler des recommandation de contenus par exemple avec un <em>business model</em> basé sur la publicité. Le but c'est d'avoir l'attention des personnes. Pour avoir cette attention, l'idéal c'est de proposer un contenu qui fasse les gens et le problème c'est que le contenu qui fait rester les gens, c'est des contenus extrémistes, voilà... Des contenus terroristes, des contenus conspirationnistes, ainsi de suite. <br />
<br />
<b>Nicolas Martin : </b>Oui dans le pire des cas, sur YouTube etc. Sur des sites de vente, on a peu de ventes de sacs à main terroristes.<br />
<br />
<b>Frédéric Bardolle : </b> Non non, je parlais juste des <em>business models</em>, quand le <em>business model</em> c'est de capturer l'attention des personnes et leur diffuser des contenus. Le problème c'est que ces contenus vont toujours gagner par rapport aux autres. Donc à part si on trouve des moyens de changer ce modèle-là, un algorithme qui recommande un contenu extrême : c'est un algorithme qui fonctionne bien en fait. C'est un algorithme qui fait exactement ce pourquoi il a été conçu c'est-à-dire : faire rester la personne sur la plate-forme. Lui, a rempli son travail en fait. Donc, l'algorithme fonctionne déjà plutôt bien.<br />
des <br />
<br />
<b>Nozha Boujemaa : </b>Je pense qu'il faut régir les cas d'usage au-delà de ces modèles-là. Par exemple, sur la variabilité des prix. Ce qui est autre chose. Quand on va sur des plates-formes pour réserver des nuits d'hôtel ou bien des billets d'avion ou de train, là il ne s'agit pas de l'attention là, là c'est un autre <em>business model</em>. Et là, on peut se retrouver dans des situations de discrimination justement quand on passe à l'acte d'achat, qu'on fait rentrer des données personnelles, on peut voir des variations de prix qui vont être dépendantes. On ne va pas avoir le même prix pour toutes les personnes. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>Aïe.<br />
<br />
<b>Nohza Boujemaa : </b>Donc c'est pour ça que à un moment donné, il faut voir vraiment une vue un peu plus...<br />
<br />
<b>Nicolas Martin : </b>En fonction de ? En fonction de la localisation géographique ? En fonction de ?<br />
<br />
<b>Nohza Boujemaa : </b>Ça peut être la localisation, origine, etc. Il y a certains formulaires qui demandent des questions...<br />
<br />
<b>Nicolas Martin : </b>Quand je rentre mes coordonnées de carte bleue pour acheter un billet d'avion, je ne donne pas accès à mon origine ethnique par exemple ?<br />
<br />
<b>Nohza Boujemaa : </b>Sur certains sites , enfin sur certains sites de services... Aujourd'hui c'est ça le problème : c'est que les services ne connaissent pas les frontières. Et donc on est amenés à réppndre à des questionnaires traduits qui sont faits par des firmes qui ne spécialement ou particulièrement françaises. D'accord ? Donc on peut se retrouver entrain de répondre avec des informations assez intrusives d'un point de vue données personnelles. Et là, on peut constater des variations de prix. Et d'ailleurs, dans ce cadre-là, par exemple, la DGCCRF qui est une autorité de régulation se pose vraiment la question.<br />
<br />
<b>Nicolas Martin : </b>Direction générale de la Concurrence, de la Consommation et de la Répression des fraudes.<br />
<br />
<b>Nohza Boujemaa : </b>Voilà et qui a envie d'ailleurs de lancer des sujets de recherche pour faire la part des choses. Parce que tout n'est pas condamnable. Le <em>lean management</em>, c'est légal. Par contre, faire une variabilité des prix qui est finalement une discrimination sur des raisons non avouées : ça c'est pas légal.<br />
<br />
==47'08==<br />
<b>Nicolas Martin : </b>J'aimerais qu'on revienne pour conclure dans le dernier quart d'heure qui nous reste sur cette notion de serment. Alors, il y a ce serment d'Hippocrate qu'on évoquait tout à l'heure via <em>Data for Good</em> et <em>AlgoTransparency</em>. Il y a un autre serment qui est le serment Holberton-Turing qui est une autre charte qui propose, en fait une forme de charte de bonne conduite. Ma première question, c'est ce lien avec Hippocrate. Le serment d'Hippocrate c'est le serment donc, qui est prêté par les médecins qui s'engagent. Je l'ai sous les yeux, je ne vais pas vous le redire mais bon : consacrer sa vie à sauver l'humanité, à sauver les vies, à ne pas discriminer en fonction de l'âge, de l'origine ethnique etc etc. Est-ce que c'est bien judicieux de mettre au même plan le serment qui est prêté par les médecins qui ont entre les mains des vies humaines et aujourd'hui, celui que l'on souhaite faire signer aux <em>data scientists</em> dans le monde numérique selon vous Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Alors on a choisi ce nom-là principalement parce que déjà ça résonnait avec les gens. Quand on parle de serment d'Hippocrate, n'importe qui voit de quoi il s'agit. Donc, c'est assez facile d'en parler. Et ce dont on s'est aperçu, c'est que finalement les gens qui créent ces services de science de données vont toucher énormément de personnes. Donc, ils ont un pouvoir individuel qui est donc finalement assez grand donc c'est pour ça qu'on a proposé ce serment qui nous semble important. C'est-à-dire qu'une petite équipe peut toucher un très très grand nombre de personnes. Donc c'est pour ça qu'on considère qu'il y a une responsabilité aussi individuelle à avoir et c'est pour ça qu'on s'est permis d'emprunter le nom d'Hippocrate.<br />
<br />
<b>Nicolas Martin : </b>Un mot à ce propos Jérémie Poiroux ? Un serment d'Hippocrate pour les <em>data scientists</em>, ça vous semble être aujourd'hui une démarche qui va dans le bon sens ou en tout cas une forme de responsabilisation des futurs ou des actuels <data scientists</em> dans le travail qui peuvent faire vis à vis des tiens comme ça peut être le cas dans vos prochains travaux, dans vos prochaines affectations?<br />
<br />
<b>Jérémie Poiroux : </b>Oui. Alors j'aimerais faire le parallèle avec ce qui s'est dit lors d'une conférence que j'ai organisée donc en début de semaine dernière <em>Ethics by design</em>. On parle justement de l'éthique des <em>designers</em>. Les <em>designers</em>, le parallèle est assez fort parce que les <em>designers</em> notamment sur les questions d'attention, ils ont un pouvoir qui est assez fort. On peut dire exactement la même phrase. C'est quelques <em>designers</em> par exemple de chez Facebook, de chez Google donc c'est pas les <em>data scientists</em> mais c'est les personnes qui vont mettre en valeur visuellement les contenus pour que ça soit attractif, pour qu'on ait envie de cliquer dessus, pour qu'on ait envie d'acheter des fois. Et puis donc ces personnes, on se demandait aussi « Est-ce que il faut un serment d'Hippocrate pour cette profession ? ». Et donc la réponse qui était apportée... C'était un débat où il y avait « oui, non ». Et je pense que je vais refaire la même pour celle des <em>data scientists</em>. C'est que oui c'est important d'avoir une... On va dire quelque de chose de... Plutôt un manifeste en fait qu'une charte qui serait là et à qui on pourrait se référer. Ce serait une éthique commune plutôt que qu'une éthique personnelle. Et après il y a aussi le pendant un peu contre où j'ai rejoint un peu plus on va dire. En l'état, c'est pas pour tout de suite. Parce que avoir un serment d'Hippocrate, ça veut aussi dire avoir des barrières à l'entrée d'un métier par exemple. C'est-à-dire que le métier de <em>data scientist</em>, tout le monde pourra pas dire <em>data scientist</em>. Ça sera une étiquette, il faudra passer par des concours, il y en a qui n'y seront pas. Et donc c'est toute une réflexion en fait, c'est toute une nouvelle façon d'appréhender la <em>data science</em> ou d'appréhender le <em>design</em>. D'avoir en fait des personnes qui suivent tout un processus et qui après sont on va dire « estampillées » <em>designers</em> ou <em>data scientists</em> et qui respectent une certaine charte. <br />
<br />
<b>Nicolas Martin : </b>Nohza Boujemaa, sur ce sujet. <br />
<br />
<b>Nohza Boujemaa : </b>Oui. Je pense que effectivement c'est une bonne action, une très bonne intention aussi pour sensibiliser les individus. Mais très clairement, c'est insuffisant. C'est-à-dire qu'il faut avoir l'engagement des entreprises. C'est la réalité. Et avoir des efforts en parallèle parce que très clairement, un employé d'une entreprise il peut être convaincu mais c'est je dirais... C'est l'entreprise et c'est la responsabilité de l'entreprise qui est engagée pas sa responsabilité personnelle. Mais ceci dit, c'est important d'avoir cette sensibilisation individuelle mais il ne faut pas s'arrêter là. Donc, l'effort qui est entrain d'être fait dans énormément d'endroits au niveau international, c'est d'impliquer vraiment d'impliquer les industriels de tout horizon. Parce que maintenant, ils comprennent que la question de la confiance : c'est une question là où ils peuvent perdre du marché. Et que la confiance, c'est un élément de compétitivité. Et du coup,ça génère une adhésion à ces questions d'IA responsable et ces questions de responsabilité. Donc il faudrait pouvoir joindre les deux bouts et pas seulement focaliser sur juste un aspect mais il faudrait aussi les deux bouts de la chaîne.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, cette question là effectivement de faire reposer le serment d'Hippocrate sur les individus en formation c'est-à-dire sur les <em>data scientists</em> plutôt qu'une sorte de charte de bonne conduite au niveau international, au niveau pourquoi pas européen pour commencer et puis ensuite avec la volonté de l'élargir parce que la question qui se pose entre les individus qui vont être à un moment donné pris dans une chaîne de production et effectivement le poids peut faire poser les responsables de cette chaîne de production. Donc, l'entreprise. Le poids est assez écrasant, je veux dire qu'on ne lutte pas à armes égales. <br />
<br />
<b>Frédéric Bardolle : </b>Alors effectivement non, on n'a pas fait ce projet pour le fait de le faire en entreprise , ça ne sert à rien. C'était un premier pas. C'était pour agir rapidement en fait. Proposer quelque chose rapidement aux personnes. Parce que on s'est rendus compte qu'il y avait un besoin et du coup on va notamment le proposer dans les écoles et dans les entreprises. Après, il faut voir que certaines entreprises notamment américaines comme Google, ont fait des serments d'éthique pour l'IA. On dit «Bah non, on refuse de travailler par exemple sur certains projets militaires, on refuse de faire ça, ça, ça». <br />
<br />
<b>Nicolas Martin : </b>Récemment. <br />
<br />
<b>Frédéric Bardolle : </b>Récemment. Et ça engage... <br />
<br />
<b>Nozha Boujemaa : </b>Parce qu'ils ont compris l'importance de la confiance. <br />
<br />
<b>Frédéric Bardolle : </b>Ça engage que ceux qui y croient. Et je pense que là où je vous rejoins sur l'importance de la confiance, c'est que je suis persuadé qu'en Europe, la carte qu'on a jouée sur le numérique et notre caractère distinctif par rapport aux États-Unis et par rapport à la Chine,ça va être justement sur ça : sur créer des entreprises qui utilisent l'IA mais de manière éthique. Et un exemple très concret pour ça c'est <em>Snips</em>. C'est une entreprise qui fait un assistant vocal dans lequel il n'y a aucune donnée qui est envoyée sur internet, les données restent chez vous. C'est pas comme si vous aviez un micro qui enregistre en permanence tout ce qui se dit chez vous. Donc voilà, je pense qu'on peut faire la différence avec ce genre d'entreprises et l'éthique n'est pas incompatible avec le commerce qui fonctionne.<br />
<br />
<b>Nohza Boujemaa : </b>Il y a effectivement, je rajoute tout ce qui est <em>personal informations management system</em>. C'est tout ce qui est modèle de protection des données personnelles de manière distribuée, qui ne quitte pas votre ordinateur. Et donc, il y a énormément de choses qui restent à faire mais je voulais quand même mentionner que au niveau de la commission européenne, il y a un <em>high-level expert group</em>...<br />
<br />
<b>Nicolas Martin : </b>Un groupe de haute expertise, à haut niveau d'expertise.<br />
<br />
<b>Nozha Boujemaa : </b>En IA. Qui est constitué par la commission européenne. Pour pouvoir apporter des recommandations à la fois éthiques mais aussi de régulation et également d'investissement en recherche et développement. Et la pièce maîtresse c'est : comment faire de l'IA la plaque tournante d'une IA nouvelle et différente de ce qui est proposé dans le reste du monde? Et l'éthique et la responsabilité de l'IA en fait une pièce maîtresse.<br />
<br />
==54'43==<br />
<b>Nicolas Martin : </b>J'ai une question peut-être très naïve ou béotien, Jérémie Poiroux je vais vous la poser en premier lieu. Est-ce que aujourd'hui ces questionnements éthiques qui sont les nôtres autour de cette table qui sont manifestement partagés par un certain nombre d'acteurs européens, ils ont un sens au niveau international notamment avec votre regard quand on commence une carrière dans ce métier-là ? On sait qu'il y a des pays avec des pratiques qui sont plus dans l'incrémentation en puissance plutôt que la limitation éthique pour le résumer à grands traits.<br />
<br />
<b>Jérémie Poiroux : </b>Oui c'est... Disons que la question de l'éthique et du business, elle est clairement pas nouvelle. Donc en Europe, on a on peut dire une longueur d'avance là-dessus et je pense que la réponse simple c'est très clairememnt dans d'autres pays et on pensent très facilement aux États-Unis. Il n'y a pas cette notion, il n'y a pas cette culture. <br />
<br />
<b>Nicolas Martin : </b>Ou à l'Asie oui. On pensaient plutôt à la Chine ici personnellement, on avaient plutôt la Chine en tête en fait. Mais pourquoi pas les États-Unis oui. <br />
<br />
<b>Jérémie Poiroux : </b>Ah oui bah... Encore mieux parce que comme ça vous pourriez faire un tour du monde ensuite sur la Chine. Non je pense que déjà sur une question d'éthique avec les États-Unis, on est vraiment différents. On n'a pas cette même approche de l'implémentation de l'éthique dans le numérique, du code, de développer et de programmer directement dur l'éthique dans les programmes et d'avoir plutôt cette notion du business. On le voit avec le RGPD par exemple, je pense que c'est un premier... Une première chose, un écho en fait qui n'est pas tout à fait sur le même temps mais en <em>privacy by design</em>, on voit que l'Europe est en avance et que toute cette réflexion elle est aussi en avance par rapport aux États-Unis. Je vous laisse le côté Chine.<br />
<br />
<b>Nicolas Martin : </b>On va voir pas forcément le côté Chine, le côté international. C'est une bonne chose évidemment que l'Europe soit en avance sur les questions éthiques mais est-ce que ce n'est pas aussi un frein au développement <em>stricto sensu</em> technologique Frédéric Bardolle ?<br />
<br />
<b>Frédéric Bardolle : </b>Alors c'est peut-être un frein dans un premier temps effectivement. Quand on étaient techno-optimistes et que tout se passait bien effectivement c'était embêtant de se poser des questions sur la <em>privacy</em> mais maintenant, quand on voit toutes les fuites de données, il n'y a pas une semaine qui passe sans qu'il y ait une fuite de données chez un GAFA et ainsi de suite.<br />
<br />
<b>Nicolas Martin : </b>Récemment, 50 millions de comptes piratés chez Facebook. <br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Et la même semaine, Facebook sort une espèce de caméra qu'on met chez soi et ce qu'ils appellent le <em>privacy by design</em>, c'est une espèce de petit cache en plastique qu'on met pour cacher la caméra. Pour eux c'est ça la <em>privacy</em>. Donc effectivement, à un moment donné ça a pu être un frein mais sur le long terme, on sera à mon avis clairement les gagnants de ce jeu. <br />
<br />
<b>Nohza Boujemaa : </b>Je crois que...<br />
<br />
<b>Nicolas Martin : </b>Un dernier mot de conclusion.<br />
<br />
<b>Nohza Boujemaa : </b>Oui. Effectivement ça c'est très important et en tout cas, l'Europe et la commission européenne, ils ont compris. On a été hier en Finlande en réunion avec la commission européenne et avec les représentants des différents états membres sur le numérique et l'IA. Très clairement, c'est identifié. Maintenant, il y a des acteurs américains qui ont compris que pour avoir du marché sur le terrain européen, il va falloir qu'ils soient conformes justement à ces règles à la fois éthiques et de responsabilité d'IA. <br />
<br />
<b>Nicolas Martin : </b>Merci beaucoup, merci ça sera le mot de la fin. Merci beaucoup à tous les trois. Merci Nohza Boujemaa, merci Frédéric Bardolle, merci Jérémie Poiroux qui était en direct au téléphone depuis Berlin. Merci à tous d'être venus participer et discuter autour de ces questions d'éthique numérique à ce micro. Je vous rappelle que comme tous les mercredis, c'est le jour de la sortie des <em>idées claires</em>. En <em>podcast</em> mais également en vidéo sur vos réseaux sociaux favoris. Une petite vidéo qui s'attaque aux idées reçues, aux idées complotistes, aux distorsions de l'information. Aujourd'hui la question que nous posons dans <em>les idées claires</em> et vous pouvez aller voir ça sur le Facebook notamment ou le Twitter de France Culture et de Franceinfo puisque c'est en partenariat entre les deux chaînes. La question que nous posons qui est une question qui vous allez voir est assez simple, assez fraîche, qui ne répond pas, qui ne demande pas énormément de commentaires ou de réflexion : Existe t-il un racisme antiblanc ? Les commentaires sont assez croquignolets. Merci à toute l'équipe de <em>La méthode scientifique</em>, c'était aujourd'hui Alice Seyed à la technique. Dans le prochain épisode de <em>La méthode scientifique</em>, nous parlerons des revues payantes à comités de lecture. Des revues de plus en plus contestées, de plus en plus piratées et de plus en plus dénoncées. Et si l'heure était à l'<em>Open access</em> ? On en parle demain de cette recherche en accès libre à 16 heures jusqu'à preuve du contraire.</div>D Ohttps://wiki.april.org/index.php?title=M%C3%A9dias_%C3%A0_transcrire&diff=85754Médias à transcrire2019-09-16T20:18:44Z<p>D O : </p>
<hr />
<div>[[Image:Transcriptions2.png|right|150px]] <br />
<br />
== Présentation == <br />
<br />
La page principale pour les médias sur le site de l'April est ici: http://www.april.org/fr/videos.<br />
<br />
L'ensemble de ces fichiers sur le serveur sont stockés ici: http://media.april.org/video/ et http://media.april.org/audio/.<br />
<br />
Sur le wiki, une page permet de noter les caractéristiques des fichiers audio et vidéo qui sont sur le serveur avant d'en faire une fiche sur le site web : [[AudioVideo]].<br />
<br />
'''Ces médias sont tous en rapport avec le Logiciel Libre, sa défense, sa promotion…'''<br />
<br />
{{Boite | titre= Les prochaines transcriptions du groupe<br />
| bordure=rgb(132, 136, 220)|fond=Honeydew |largeur=70% |couleurTitre=tomato}}<br />
<br />
''' Les vidéos de la liste ''À relire ou en relecture'''''<br />
<br />
<br />
<br />
<strong>Si vous avez des médias à proposer, complétez la liste ''Suggestions'' et envoyez un message.</strong> <br />
{{BoiteFin}}<br />
<br />
=== Suggestions ===<br />
<br />
*[http://www.la-bas.org/article.php3?id_article=2931 Émission france-inter Là-bas si j'y suis du 05/02/2014 Le bon Dieu te regarde même si tu es aux cabinets 1]<br />
<br />
*[http://www.franceinter.fr/emission-la-bas-si-jy-suis-le-bon-dieu-te-regarde-meme-quand-tu-es-aux-cabinets-2 Émission france-inter Là-bas si j'y suis du 05/02/2014 Le bon Dieu te regarde même si tu es aux cabinets 2]<br />
<br />
*[http://www.freetorrent.fr/index.php?page=torrent-details&id=e8ae902cca9e4d5dd7f8a9691bb6b45fdc8a7e8f Logiciel Libre, Société Libre - Richard M. Stallman à Grenoble - avril 2014] 2h 23 min<br />
<br />
*[https://facil.qc.ca/fsm2016-grande-conf-logiciel-libre La grande conférence sur le logiciel libre avec RMS et Marianne Corvellec - Forum social mondial 2016] 2 h 16 min 26<br />
<br />
*[https://www.youtube.com/watch?v=jZFi-vtqrpo&feature=youtu.be Audition programmatique #20 - Numérique - April et Savoirs communs] 1 h 07 min 39<br />
<br />
* [https://rmll.ubicast.tv/channels/#2017-saint-etienne Conférences des RMLL2017] ad libitum NB : diverses conférences déjà transcrites et publiées<br />
<br />
* [https://framatube.org/media?q=jdll2017 Conférences des JDLL Lyon 2017] ad libitum NB : diverses conférences déjà transcrites et publiées<br />
<br />
* [https://www.youtube.com/embed/_D1TTMOjZiE?version=3&rel=1&fs=1&autohide=2&showsearch=0&showinfo=1&iv_load_policy=1&wmode=transparent Données personnelles et vie privée : ce qui va changer avec le RGPD] 01 h 53 min 49 sec<br />
<br />
*[https://www.youtube.com/watch?v=EbDOuZYmv68 Travailler ensemble pour la défense des libertés - Benjamin Bayart, Pierre-Yves GOSSET, piks3l] 1 h 30 min<br />
<br />
*[https://www.college-de-france.fr/site/claire-mathieu/inaugural-lecture-2017-11-16-18h00.htm Algorithmes - Leçon inaugurale - Claire Mathieu] 1 h 3 min<br />
<br />
*[https://www.franceinter.fr/emissions/affaires-sensibles/affaires-sensibles-28-novembre-2017 Le grand méchant darknet - Amaelle Guitton] 54 min<br />
<br />
*[https://radio.amicus-curiae.net/podcast/open-data-donnees-ouvertes-pour-monde-ouvert-ou-totalitaire/ Open data, données ouvertes pour un monde ouvert ou totalitaire - Amicus Radio] 36 min 45<br />
<br />
*[https://www.franceinter.fr/emissions/comme-un-bruit-qui-court/comme-un-bruit-qui-court-12-mai-2018 Données personnelles : Gare au GAFAM] 53 min<br />
<br />
*[https://www.youtube.com/watch?v=pDPFnywbWDo&index=35&list=PLTbQvx84FrASpPvTGt_0BzttHUvMEvXyP Philosophie de l'Intelligence artificielle - Une introduction] 39 min<br />
<br />
*[https://www.youtube.com/watch?time_continue=9&v=lgOrpwPfW00 Enjeux de la blockchain pour les collectivités | Congrès ADULLACT 2018 - Stéphane Bortzmeyer] 58 min 32<br />
<br />
*[http://www.canalc2.tv/video/15198 Les formats, un sujet toujours d'actualité - Thierry Stoehr - RMLL2018] 59 min 40<br />
<br />
*[https://www.france24.com/fr/20180912-debat-france24-union-europeenne-hongrie-gafa-facebook-google-internet?ref=fb Droit d'auteur : aux géants du net de payer ?] 26 min 15<br />
<br />
*[https://www.youtube.com/watch?time_continue=57&v=5dVmayb6sp4 CN2018 TABLE RONDE] 42 min 46<br />
<br />
*[https://webtv.utc.fr/watch_video.php?v=XUAU4YKB1XMX Des communs fonciers aux communs numériques - Benjamin Coriat] 49 min 25<br />
<br />
*[https://www.youtube.com/watch?time_continue=2&v=SOXAnl7qO8c Parlons-en - Framasoft et le Libre avec Pouhiou] 31 min 33<br />
<br />
* [https://www.april.org/decryptualite-du-8-octobre-2018-fablab-quand-la-maitrise-de-la-technologie-alimente-notre-creativite Décryptualité du 8 octobre 2018 - Fablab : quand la maîtrise de la technologie alimente notre créativité et nous donne du pouvoir sur nos vies] 15 min<br />
<br />
*[https://entreprise.maif.fr/entreprise/pour-une-societe-collaborative/decouvrir-nos-actions/nos-conference-et-debats-a-partager-replay Qui contrôle internet et les médias sociaux - Divina Frau-Meigs - 03/10/2018 à Lons Le Saunier (39)] 1:06:22<br />
<br />
*[https://www.franceculture.fr/emissions/la-methode-scientifique/la-methode-scientifique-du-mercredi-23-mai-2018 Protection des données personnelles : souriez, vous êtes traqués ! La méthode scientifique] 58 min 48<br />
<br />
*[https://www.lejdc.fr/nevers/science/internet-multimedia/2019/01/03/au-royaume-uni-en-france-aux-etats-unis-les-distinctions-s-accumulent-pour-le-nivernais-louis-pouzin-un-des-peres-d-internet_13098569.html Carte blanche à Louis Pouzin - Nevers Libre - Juin 2016] 1 h 29 min<br />
<br />
* [https://peer.hostux.social/video-channels/lareinedeselfes_channel/videos Au choix, évènement Entrée libre à Quimper août 2019]<br />
<br />
* [https://www.arte.tv/fr/videos/058227-078-A/square-idee/ Square Idée – Smart Cities : Progrès ou danger ? – juillet 2019] 27 min (passages logiciel libre, GAFAM…).<br />
<br />
<br />
<br />
----<br />
<br />
== Travaux ==<br />
<br />
<br />
=== En cours ===<br />
<br />
* [[Free_Libre_alternatives_to_GAFAMs_Internet_a_review_of_French_Initiatives]] : Free/Libre alternatives to GAFAMs Internet a review of French Initiatives, Marianne Corvellec and Jonathan Le Lous à LibrePlanet 2016<br />
<br />
* [[Open_Experience_Art_et_Culture ]] Open Experience : Quels modèles économiques pour l’Open dans l’Art et la Culture ? Lionel Maurel<br />
<br />
* [[Audition et logiciels libres : conférence RMLL juillet 2013]] commencée par Irina<br />
<br />
* [https://wiki.april.org/w/Tristan_Nitot_-_BacFM_Nevers Tristan Nitot interviewé sur BACFM à Nevers dans le cadre d'une émission sur l’événement Dégooglisons internet]] commencée par Techno2900<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
----<br />
<br />
=== À relire avec ou sans le son ===<br />
<br />
* [http://wiki.april.org/w/Faut-il_breveter_les_logiciels Faut-il breveter les logiciels ? Table ronde - Aquitaine Science Transfert] 2 heures 3 min<br />
<br />
* [http://wiki.april.org/w/R%C3%A9trospective_juridique_-_Actualit%C3%A9_-_Travaux_en_cours_-_Benjamin_Jean_-_RMLL2015#10.27_16 Rétrospective juridique : actualité et travaux en cours - Benjamin Jean - RMLL2015] 40 min 38<br />
<br />
* [http://wiki.april.org/w/Mettre_en_place_une_politique_publique_en_faveur_du_logiciel_libre_-_Table_ronde Mettre en place une politique publique en faveur du logiciel libre - Table ronde au POSS 2016 animée par Étienne Gonnu] 1 h 36 min 29<br />
<br />
* [https://wiki.april.org/w/Enseignement_sup%C3%A9rieur,_recherche_et_Logiciel_Libre_-_RMLL2018 Enseignement supérieur, recherche et Logiciel Libre - RMLL2018] 1 h 04 min 38<br />
<br />
* [https://wiki.april.org/w/Blockchain_-_Les_temps_%C3%A9lectriques_-_Primavera_De_Filippi Blockchain - Les temps électriques - Primavera De Filippi] 39 min<br />
<br />
* [http://wiki.april.org/w/Ethique_et_l%27int%C3%A9grit%C3%A9_collecte_donn%C3%A9es Éthique et l’intégrité de la collecte et de partage des données] Conférence en anglais de 47 min - relecture en cours par [[Discussion utilisateur:JennyB|JennyB]]<br />
<br />
* [https://wiki.april.org/w/La_technologie_au_service_du_bien_commun,_un_v%C5%93u_pieux_-_D%C3%A9cryptage_-_RFI La technologie au service du bien commun, un vœu pieux - Décryptage - RFI] 19 min 30<br />
<br />
* [https://wiki.april.org/w/Internet_devient-il_un_Minitel_2.0_ou_un_bien_commun_-_Benjamin_Bayart_-_RTS Internet devient-il un Minitel 2.0 ou un bien commun - Benjamin Bayart - RTS] 37 min 50<br />
<br />
* [https://wiki.april.org/w/La_cybersecurite_est-elle_vouee_a_lechec La cybersécurité est-elle vouée à l'échec ? Du grain à moudre] 40 min<br />
<br />
* [https://wiki.april.org/w/Souverainet%C3%A9_num%C3%A9rique_am%C3%A9ricaine_-_Bernard_Benhamou Souveraineté numérique américaine ? - Bernard Benhamou] 42 min 18<br />
<br />
* [https://wiki.april.org/w/Faire_atterrir_les_Communs_num%C3%A9riques Faire atterrir les Communs numériques. Des utopies métaphysiques aux nouveaux territoires de l'hétérotopie - Lionel Maurel] 1 h 02 min<br />
<br />
* [https://wiki.april.org/w/Changer_le_monde,_un_ego_%C3%A0_la_fois_-_Pouhiou_-_PSES2019 Changer le monde, un ego à la fois - Pouhiou - PSES2019] 59 min<br />
<br />
* [https://wiki.april.org/w/Education,_sanction,_prospective_:_que_peut_(vraiment)_la_CNIL_pour_prot%C3%A9ger_nos_donn%C3%A9es_-_Soft_Power Education, sanction, prospective : que peut (vraiment) la CNIL pour protéger nos données - Émission Soft Power] 1 h 28 min<br />
<br />
* [[Éthique numérique, des datas sous serment - La méthode scientifique]] 58 min 56, transcrite par D_O<br />
<br />
===Relu avec le son, en attente de relecture orthographique===<br />
<br />
* [https://wiki.april.org/w/Responsabilit%C3%A9_des_ing%C3%A9nieurs_-_%C3%89ric_Sadin Responsabilité des ingénieurs - Éric Sadin] 26 min <b>NB : </b> M. Sadin donnera son accord, ou pas, pour la publication de cette transcription, donc en attente - relu par Bookynette & Khrys<br />
<br />
<br />
<br />
<br />
=== En attente de validation ===<br />
<br />
* [[TEDx_Frederic_Couchet]] sous titrage à mettre en ligne sur le site web<br />
<br />
* [http://wiki.april.org/w/Projet_Signoth%C3%A8que_-_PSESHSP_2016 Projet Signothèque - Association Arboré'Sign _ PSESHSF 2016] 43 min 45 - relu par Khrys<br />
<br />
=== Publiées dans le mois ===<br />
<br />
* [https://www.april.org/le-numerique-nous-libere-t-il-ou-serait-il-un-nouvel-asservissement-dominique-cardon-le-grand-face-a Le numérique nous libère-t-il ou serait-il un nouvel asservissement ? Dominique Cardon - Le grand face-à-face - France Inter] 38 min<br />
<br />
* [https://www.april.org/donnees-personnelles-sommes-nous-des-victimes-consentantes-le-debat-de-midi-france-inter Données personnelles : sommes-nous des victimes consentantes - Le débat de midi - France Inter] 52 min 37<br />
<br />
* [https://april.org/libre-a-vous-radio-cause-commune-transcription-de-l-emission-du-3-septembre-2019 Libre à vous ! Radio Cause Commune - Émission du 3 septembre 2019] 1 h 30 min<br />
<br />
* [https://www.april.org/bilan-de-l-ete-decryptualite-du-9-septembre-2019 Bilan de l'été - Décryptualité du 9 septembre 2019] 15 min<br />
<br />
* [https://april.org/libre-a-vous-radio-cause-commune-transcription-de-l-emission-du-10-septembre-2019 Libre à vous ! Radio Cause Commune - Émission du 10 septembre 2019] 1 h 30 min<br />
<br />
* [https://www.april.org/felix-treguer-personnalite-de-la-semaine-france-inter Félix Tréguer - Personnalité de la semaine - France Inter] 7 min 11<br />
<br />
===[[Transcriptions publiées]]===<br />
<br />
== Retour ==<br />
à la [[Transcriptions page d'accueil|page]] d'accueil du groupe.<br />
<br />
[[Catégorie:Transcriptions]]<br />
[[Catégorie:Video]]</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85690Éthique numérique, des datas sous serment - La méthode scientifique2019-09-12T21:35:23Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen - Soline Ledésert - Jérémie Poiroux<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''Transcrit par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lançait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un serment d'Hippocrate des <em>data scientists</em>. Donc on a fait une petite recherche, il y en avait déjà qui circulaient et pour se différencier de ceux qui existaient déjà, on avait vraiment crée un serment d'Hippocrate qui aidait dans au quotidien, dans leur pratique les <em>data scientists</em>. Vraiment à se dire, on a découpé le travail en grandes étapes de la participation d'un projet, à l'analyse de résultats en passant par la collecte de données et l'application de modèles algorithmiques. On s'est dit «À chaque étape, quels sont les dilemmes éthiques auxquels un <em>data Scientist</em> peut être confronté et ensuite comment il peut résoudre ces problèmes ?». Donc on a fait un questionnaire en ligne, on a récolté des expériences diverses et ensuite on a travaillé pendant trois mois en atelier à rédiger collaborativement un serment d'Hippocrate. Donc là, il est disponible sur hippocrate.tech. Donc on a posé cinq valeurs : L'intégrié scientifique et la rigueur, la transparence, l'équité, le respect et la responsabilité et l'indépendance. Et ensuite, on a formulé des phrases sous la forme de «Je m'engage à faire ceci ou cela» donc ça concerne effectivement le respect de la vie privée donc à chaque fois, à chaque ligne on rappelle aussi le cadre légal européen du Règlement Général pour la Protection des Données personnelles. Le <em>data scientist</em> signataire s'engage à déterminer le meilleur compromis entre la performance et l'interprétabilité. Pourquoi l'interprétabilité c'est important ? Parce que par exemple si vous faites tourner un algorithme par exemple sur la question de votre allocation familiale et si l'algorithme vous dit «Bah non, vous n'y avez pas droit» et que la personne qui a fait tourner l'algorithme vous dit «Et bien écoutez, je ne peux pas vous l'expliquer, mais c'est comme ça» ça peut poser des problèmes. Donc on a fait ce genre de recherche. <br />
<br />
<b>Céline Loozen : </b>Quelle est la valeur juridique de cette charte ? Comment on pourrait l'appliquer réellement ?<br />
<br />
<b>Soline Ledésert : </b>Nous on est vraiment dans une démarche plutôt citoyenne. À chaque fois, on l'a formulée de façon à veiller, enfin le <em>data scientist</em> veille à ce que les choses se fassent. Mais un <em>data scientist</em> il peut travailler dans une administration, dans une entreprise, au sein d'un labo de recherche et il n'est jamais seul décisionnaire sur vraiment l'ensemble du projet donc nous on a pris cette approche dans le cadre de ce projet vers la responsabilité personnelle. Après, on a aussi rappelé la loi donc là c'est vrai que le RGPD a vraiment amené beaucoup plus de contraintes sur ces questions mais voilà, nous on est vraiment parti sur un modèle d'éthique personnelle. <br />
<br />
[Fin de la musique de fond]<br />
<br />
<b>Nicolas Martin : </b>Voilà le reportage du jour sur cette plate-forme <em>AlgoTransparency</em>. Je vais vous demander évidemment Frédéric Bardolle, une réaction puisque c'est votre association <em>Data For Good</em> qui développe cette plate-forme.<br />
<br />
<b>Frédéric Bardolle : </b>Déjà merci. C'est Soline qui a vraiment porté le projet sur le serment d'Hippocrate et Guillaume Chaslot qui est à plein temps sur ce projet de <em>Algotransparency</em> et qui essaie d'étudier notamment avec des scientifiques américains, essayer d'étudier d'autres algorithmes et leurs fonctionnements, essayer de mieux comprendre comment ça marche. Moi je voulais revenir surtout sur une chose c'est que effectivement il y a une responsabilité individuelle donc à travers ce serment qu'on propose. Mais on pense également qu'il y a comme le disait Soline qu'il y a aussi une responsabilité finalement aussi, il y a des institutions à créer pour permettre de transformer la manière dont fonctionne le numérique à l'heure actuelle. Un exemple : à l'heure actuelle, il n'y a pas de statut intermédiaire entre un hébergeur et un média. Et le problème c'est quoi ? C'est que en fait...<br />
<br />
<b>Nicolas Martin : </b>Exemple concret. Par exemple, prenons un réseau social. Pour les auditeurs, exemple concret : Facebook.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà Facebook ou YouTube, c'est des hébergeurs. Donc, ils ne sont pas responsables du contenu. Tout le contenu publié chez eux c'est pas sous leur responsabilité. Au contraire un média, tout ce qui est produit, si on dit quelque chose qui ne respecte pas la loi à la radio...<br />
<br />
<b>Nicolas Martin : </b>Sur France Culture.<br />
<br />
<b>Frédéric Bardolle : Et bien quelqu'un portera la responsabilité. <br />
<br />
<b>Nicolas Martin : </b>La directrice de la chaîne, moi d'abord et puis ensuite la présidente. <br />
<br />
<b>Frédéric Bardolle : </b>Et donc il y a un grand écart en fait. Ce statut d'hébergeur ça marchait très bien au début de l'internet finalement. C'était juste des annuaires où il y avait toutes les vidéos des contenus produits par les internautes qui étaient là. Finalement, c'est vrai qu'il n'y avait pas de rôle de responsabilité. Mais là en fait on assiste à quelque chose. C'est-à-dire qu'un algorithme qui propose 100 000 fois un contenu à un utilisateur, on pourrait se dire «Quand même, il a un rôle éditorial». Même si ce n'est pas un humain qui a fait ce choix de poser ça là. Au bout d'un moment lorsqu'une nouvelle est diffusée de manière massive comme ça, nous on considère que cette plate-forme a un rôle éditorial, devrait avoir une responsabilité juridique et parce que l'algorithme a un rôle éditorial dans ses contenus. <br />
<br />
<b>Nicolas Martin : </b>Une réaction à ce que viens de dire Frédéric Bardolle et sur cette plate-forme <em>AlgoTransparency</em>. On va parler du serment d'Hippocrate dans un instant mais d'abord sur le reportage et sur cette notion très très intéressante de distnction entre l'hébergeur et média.<br />
<br />
<b>Nozha Boujemaa : </b>Oui... Et bien je suis d'accord dans la mesure où effectivement l'évolution des rôles aujourd'hui, la frontière est très mince et surtout que les contenus en fait aujourd'hui sont consommés. Il n'y a plus effectivement ce rôle éditorial fait par un professionnel mais aujourd'hui c'est fait par un algorithme de recommandation de contenus. Et donc, très clairement la question de la neutralité de la recommandation du contenu se pose. Et au-delà de ces... En fait... Moi je voudrais pointer toujours sur cette même problématique, un autre contexte qui peut être embêtant. C'est pas du B2C en fait c'est du B2B. Plate-forme juste au hasard...<br />
<br />
<b>Nicolas Martin : </b>On rappelle : B2C c'est <em>business-to-consumer</em>...<br />
<br />
<b>Nozha Boujemaa : </b>Voilà.<br />
<br />
<b>Nicolas Martin : </b>Et B2B c'est <em>business-to-business</em> voilà.<br />
<br />
<b>Nozha Boujemaa : </b>Exactement. <br />
<br />
<b>Nicolas Martin : </b>Donc de l'entreprise à l'entreprise et de l'entreprise au consommateur.<br />
<br />
<b>Nozha Boujemaa : </b>Merci.<br />
<br />
<b>Nicolas Martin : </b>C'est juste un petit bout de traduction franco-anglaise qu'on nous reproche souvent à juste titre d'être trop anglophone. <br />
<br />
<b>Nozha Boujemaa : </b>Tout à fait, tout à fait. À juste titre.<br />
<br />
<b>Nicolas Martin : </b>Allons-y.<br />
<br />
<b>Nozha Boujemaa : </b>Donc faire des recommandations de consommation de contenus culturels sur une plate-forme qui n'a pas de modèle d'affaires qui soit de la publicité. Je prends pour exemple Netflix. Une fois qu'on paye l'abonnement, on n'a pas de publicités à regarder.<br />
<br />
<b>Nicolas Martin : </b>Pour le moment.<br />
<br />
<b>Nozha Boujemaa : </b>Pour le moment. On peut se poser la question : C'est quoi les motivations des algorithmes de recommandation là-dedans ? D'accord ? Donc là, c'est un autre cas d'usage auquel il faudrait aussi un petit peu s'y intéresser. Parce que là très clairement, la question de la concurrence va se poser entre des producteurs de contenus qui sont, qui ont des accords avec Netflix et ceux qui ne l'ont pas. Et aussi avec des producteurs de contenus culturels de l'industrie française par exemple qui peut se retrouver lésée. Et là, c'est un problème de concurrence et de position dominante et le ministère de la culture aussi à ma connaissance s'intéresse également à ces questions.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, c'est intéressant cet exemple de Netflix parce que effectivement... Par ailleurs, on peut aussi imaginer que puisque tous ces algorithmes sont biaisés et qu'il y a une intentionnalité derrière, dans ces biais, on peut imaginer que l'algorithme de Netflix privilégie les productions internes de Netflix et pas le contenu qui a été racheté à d'autres sociétés de production qui sont hébergées seulement sur la plate-forme pour prévilégier le contenu interne et dire «Et bien vous voyez, les produits Netflix fonctionnent mieux que les produits un tel de FOX ou un air peu importe».<br />
<br />
<b>Nozha Boujemaa : </b>Et ce n'est pas forcément une personnalisation pour le consommateur je rappelle. <br />
<br />
<b>Nicolas Martin : </b>Bien sûr.<br />
<br />
<b>Frédéric Bardolle : </b>Et...<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Et comme on n'a aucune transparence sur qu'est-ce qu'on essaie d'optimiser avec cet algorithme, finalement on ne le saura jamais. Et c'est un gros problème. Et pour montrer l'ampleur un peu de la chose, il faut savoir que 70 % à 80 % du contenu sur Netflix provient de recommandations. Donc ce n'est pas quelque chose qui se fait à la marge. C'est que les gens consomment ce qu'on leur recommande en fait. C'est vraiment quelque chose qui est phénoménal et sur toutes les plates-formes c'est la même chose.<br />
<br />
<b>Nicolas Martin : </b>Parce que par ailleurs sur Netflix, la plate-forme est une gigantesque plate-forme de recommandations. C'est-à-dire que la plate-forme n'est pas présentée par ordre alphabétique par exemple ou par ordre de nouveautés ou très très peu. Elle n'est que...<br />
<br />
<b>Nozha Boujemaa : </b> Elle va le rajouter, elle est là.<br />
<br />
<b>Nicolas Martin : </b>Voilà. Ce qui est intéressant alors. On entendait dans la reportage quelque chose sur laquelle j'aimerais vous faire réagir. On va parler évidemment surtout dans la deuxième partie, de cette notion de serment d'Hippocrate : À il s'addresse, de son côté un peu finaliste c'est-à-dire de dire que le serment est signé finalement par les <em>data scientists</em>, par les scientifiques de données. Et pourquoi est-ce que ce serait les individus qui doivent s'engager et non pas les plate-formes ? C'est une question qui me semble importante à traiter. Mais avant cela, j'aimerais poser une question autour de cette notion d'interprétabilité. Puisqu'on voit bien que... Prenons cet exemple de Netflix qui est assez bon. Aujourd'hui Netflix signerait un accord, un serment, peu importe qui donne accès, qui permet de lire ses algorithmes. Aujourd'hui pour tout un chacun, pour nous citoyens en bout de chaîne, pour les consommateurs : c'est strictement illisible. C'est-à-dire qu'on a pas accès à la compréhension de ce qui va permettre de régir cet algorithme et d'ailleurs si nous n'y avons pas intérêt, évidemment la plate-forme elle-même a encore moins intérêt à donner ces informations-là. Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui alors effectivement, c'est là où il y a un effort international sur «Faut-il réguler, comment réguler ?» etc etc au-delà des chartes d'engagements individuelles. L'idée c'est aussi... Alors tout dépend si c'est du... J'allais dire du soft (rires). Si c'est du...<br />
<br />
<b>Nicolas Martin : </b>Logiciel ?<br />
<br />
<b>Nozha Boujemaa : </b>Non non. De la réglementation dure ou un peu plus légère mais en tout cas amener les producteurs de service à rendre compte. Parce qu'en fait, celui qui fait le service, on peut en fait et là je mentionne les efforts faits au niveau de la Commission européenne mais aussi au niveau de l'OCDE qui réfléchissent très très sérieusement par rapport à toutes ces questions parce qu'il y a une prise de conscience aujourd'hui internationale. Je ne dis pas que les solutions existent. Mais la prise de conscience et la nécessité, l'urgence d'agir : elle est là. Du coup, typiquement sur l'intelligibilité... Je ne parle pas d'explicabilité parce que des fois, on a peut-être pas besoin et peut-être pas les moyens techniques de l'explicabilité mais par contre, la traçabilité du pourquoi on a eu ce résultat du genre «tel produit ou tel contenu est recommandé pour vous». On aimerait bien avoir une sorte de tableau de bord qui va nous dire «Voilà les critères en pourcentage qui»...<br />
<br />
<b>Nicolas Martin : </b> «Vous avez fait tel choix, tel choix, tel choix donc le logiciel infère que vous allez aimer tel chose».<br />
<br />
<b>Nohza Boujemaa : </b>Les producteurs des services en fait par régulation, on pourrait les amener à apporter et justement en apportant ces critères-là, on respecte le libre arbitre du consommateur quand même. Parce que la, on clique sur ce qui est proposé mais est-ce qu'il est vraiment conscient de sur quoi... Enfin... C'est quand même léger aujourd'hui donc il y a cette notion de respect du libre arbitre via une règlementation dans ce sens-là. <br />
<br />
<b>Nicolas Martin : </b>Je vais prendre un exemple volontairement un chouia provocateur dans l'état actuel des choses mais encore une fois la transparence n'implique pas compréhension si on prend une plate-forme de Parcoursup dont l'algorithme a été rendu public par l'éducation nationale. Ce qui n'empêche pas personne de ne comprendre à aucun moment, les choix et les orientations que cet algorithme fait pour les étudiants qui veulent être inscrits dans les universités dont ils font fait le choix. Fait la demande pardon. <br />
<br />
<b>Frédéric Bardolle : </b>La complexité supérieure qui a en plus sur Parcoursup, c'est que il y a une partie du code qui est quand même caché. Le code qui est utilisé par les universités, celui-là, «la cuisine interne» comme ils appellent ça.<br />
<br />
<b>Nicolas Martin : </b>La sélection en bout de chaîne.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Celle-là, il y a toujours une demande, une requête qui a été faite à la Commission d'Accès aux Documents Administratifs, la CADA, qui est en cours mais qui n'a pas abouti à l'heure actuelle et ce code n'est pas rendu public. Donc, il manque quand même un bout de la chaîne. Pour revenir sur cette question d'auditabilité des algorithmes, nous quand on a essayé d'auditer l'algorithme de YouTube c'est un peu ce qu'on a fait avec <em>AlgoTransparency</em>, on s'est rendu compte de la complexité qu'il y avait. C'est-à dire que d'une : Tous les jours, l'algorithme change. Comme des gens regardent des vidéos, en fait ça fait changer l'algorithme. Donc finalement, quelle est la vraie version ? C'est compliqué à dire. <br />
<br />
<b>Nohza Boujemaa : </b>Les algorithmes et les corpus.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà.<br />
<br />
<b>Nohza Boujemaa : </b>Les corpus aussi. <br />
<br />
<b>Frédéric Bardolle : </b>Tout change au fur et à mesure. Et puis c'est d'une telle complexité. Si on a des réseaux de neurones, ça va être aussi dur par exemple de dire «On a regardé cette vidéo parce que il y a une personne qui a regardé ça». Des critères il peut y en avoir des millions et des millions donc on ne va pas forcément s'y retrouver. Et finalement, c'est un peu comme quand on regarde les émissions de particules fines d'une voiture je trouve. C'est-à-dire que finalement peu importe ce qui se passe dans la cuisine interne du moteur, ce qu'on va regarder à la fin c'est «Est-ce que il y a des particules qui sont émises ?» et c'est ça qui nous intéresse. Mais, ça c'est pas disponible à la hauteur, on n'a pas de mécanisme qui nous permet de nous connecter directement à une plate-forme et de savoir «Bah tiens si on fait telle chose, on aura telle chose de recommandé» et puis en plus on se dit «Si jamais ça ça existe, il va y avoir des trucages» comme il y a eu sur les voitures notamment quand on est arrêté, tout se passe bien et puis quand on roule en conditions réelles, ça ne marche plus du tout. C'est pas évident comme question.<br />
<br />
<b>Pause musicale : </b> <em>Algorithms</em> par <em>School is Cool</em><br />
<br />
<b>Nicolas Martin : </b><em>Algorithms</em> de <em>School is Cool</em> puisque c'est ce dont il est vaguement question au cours de cette heure puisque nous parlons d'éthique numérique et d'éthique en science des données et évidemment bien des algorithmes qui sont au centre de ces questions d'éthique, de leurs transparences, de leurs auditabilités et puis surtout de ce qu'il va se passer dans le futur. À partir d'aujourd'hui, avec les scientifiques qui sont formés aujourd'hui. Ces scientifiques doivent-ils être tenus, doivent-ils s'engager sur une sorte de charte de bonne conduite piur éviter, bien pour éviter toute sorte de dérives que l'on peut constater d'ores et déjà aujourd'hui. Nous en parlons avec Nohza Boujemaa qui est directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et avec Frédéric Bardolle qui est membre de l'association <em>Data for Good</em> qui a réalisé une plate-forme <em>AlgoTransparency</em> à propos de l'algorithme de YouTube à propos de laquelle on a entendu un reportage tout à l'heure. Mais comme tous les mercredis, aux alentours de cette heure à quelques minutes près, il est l'heure d'écouter la voix du futur de la recherche.<br />
<br />
[Jingle] <br />
<br />
<b>Nicolas Martin : </b>Et aujourd'hui, le futur de la recherche s'appelle Jérémie Poiroux. Bonjour Jérémie Poiroux.<br />
<br />
<b>Jérémie Poiroux : </b>Bonjour à tous, bonjour.<br />
<br />
<b>Nicolas Martin : </b>Bonjour. Vous êtes avec nous en ligne puisque vous suivez vos études au centre Marc Bloch à Berlin en partenariat avec le CNRS. Vous êtes en première année de thèse en sociologie dans le cadre du projet ANR <em>Algodiv</em>. Je crois que vous êtes présentement en Pologne. Le titre de votre thèse c'est «La fabrique des algorithmes de recommandation et de management» sous le prisme de leur conception et de leur impact au sein des organisations. Voilà, je vais vous laisser quelques minutes pour nous présenter vos travaux. C'est à vous.<br />
<br />
<b>Jérémie Poiroux : </b>Et bien merci beaucoup pour cette présentation très précise et avec beaucoup de pression sur le futur de sa recherche.<br />
<br />
<em>Rires</em><br />
<br />
<b>Jérémie Poiroux : </b>Donc c'est une thèse... Voilà,qui est sous la direction de Camille Roth. Donc là, j'étais en effet en Pologne mais là je suis de retour à Berlin donc pour continuer cette étude sur la fabrique des algorithmes de recommandation et de management. Alors c'est vrai pour prendre un peu le contre-pied de ce qui se fait en ce moment, il y a une littérature qui est assez limitée sur la fabrique. On parle pas mal de transparence, d'ouvrir la boîte noire, on a eu pas mal les débats aussi juste avant la pause musicale. Et quelque chose qui ne se fait pas beaucoup voilà c'est : Comment ils sont fabriqués ? Donc mon premier terrain c'est : les algorithmes de recommandation donc c'est des petits programmes... Peut-être que je dis des choses qui ont déjà été dites quelques minutes avant. Qui vont vous inviter voire vous inciter à consommer un contenu ou un produit. Donc, Ça peut être un film sur Netflix, on en reparle. Une chambre sur Airbnb ou un article sur le site d'un média. Vous me direz qu'en soi, recommander une saccoche quand j'achète un appareil photo ou un hôtel quand je vais passer une semaine en Grèce : c'est un peu de bonne guerre. Mais on peut plus se poser des questions quand il va s'agir de recommander du contenu culturel ou d'intérêt général car ils pourraient nous enfermer... Alors là je dis attention car il y a un «point Al Godwin» parce que on parle beaucoup de bulles filtrantes qui pourraient nous empêcher de voir plus loin que le bout de notre zone de confort. Je m'arrête ici sur les impacts car vous allez en parler, vous en avez beaucoup parlé. Donc en fait, je m'intéresse plutôt comme je le disais à la fabrique. Vous vous êtes déjà demandé, on va reprendre l'exemple de YouTube : Pourquoi il vont recommander (l'algorithme de YouTube, à droite ou sur la page d'accueil) cette vidéo de chatons ou la vidéo de terre plate ? Et donc, dans mon étude préparatoire que j'ai fait et que je suis entrain de terminer, qui lance la thèse, j'ai mené des entretiens avec plusieurs dizaines d'ingénieurs qui programment des algorithmes de recommandations pour des médias, pour des sites de <em>E-commerce</em>, pour des plates-formes de <em>streaming</em> pour mieux comprendre en fait d'où vient l'algorithme. L'objectif dans ma thèse, c'est de mettre en valeur les intentions, les pourquoi, les comment qui se cachent derrière les algos, les choix <em>business</em> ou encore les biais qui sont directement implémentés de manière consciente ou non dans la machine. Donc si on en revient à l'exemple de YouTube, c'est aller étudier : Pourquoi ils vous recommandent cette vidéo de terre plate alors que vous n'aviez rien demandé ? Alors c'est un peu dévoiler en quoi rien n'est laissé au hasard dans le monde merveilleux des algorithmes et puis de dévoiler un peu la face cachée de leurs impacts. Donc, je vais aller dans les entreprises, je vais faire de l'immersion, je vais observer la conception et le développement directement d'algorithmes. Qui fait quoi, d'où vient l'idée de base, quelles sont les contraintes, quelles sont les méthodes utilisées ou encore la conscience qu'on a dans les entreprises des impacts des algorithmes qu'ils ont conçus. Mais le bonheur ne s'arrête pas là et donc là c'est un peu la transition brute pour passer à l'autre temps de mon sujet qui est : l'utilisation des algorithmes qui de plus importante au sein même des entreprises. On voit depuis des années, des dizaines d'années, des robots remplacer les humains pour faire. Donc c'est sur les chaînes de production, dans les usines, dans les entrepôts pour préparer les commandes donc Amazon par exemple. Demain, les algorithmes ils vont être présents donc encore pour faire mais aussi pour organiser et <em>manager</em> le travail. Donc ça, c'est une grosse différence. C'est d'ailleurs déjà le cas avec Uber où les chauffeurs répondent aux ordres d'algorithmes qui sont <em>managers</em>. Pour se placer dans telle ou telle zone parce qu'il y a plus de personnes ou pour travailler sur telle ou telle plage horaire parce que Uber manque de chauffeurs à telle ou telle plage horaire. Donc à terme, Les algorithmes on peut dire, vont analyser les données de production, de ventes et de productivité pour prendre des décisions ou pour aider à la prise de décisions qui (ces décisions) auront un impact direct sur les travailleurs de l'organisation. Donc c'est une nouvelle pratique managériale on peut appeler ça comme ça, qui pose des questions de productivité et de conditions de travail évidemment. Et qui m'amènera à comparer les bureaucraties traditionnelles et les bureaucraties algorithmiques. Donc les questions éthiques, elles sont évidemment présentes dans les deux pans de la thèse. Par exemple : Que fait un ingénieur devant une demande d'un PDG et cette demande, cet ingénieur il la juge contraire à son éthique ? Ou que fait un manager qui soit invité par un algorithme de prendre une décision qu'il juge dangereuse pour son équipe ? Voilà, donc si vous êtes intéressé par les recherches et puis je fais un petit appel aussi à des entreprises qui peuvent m'accueillir pour cette immersion, n'hésitez pas à me contacter. Et puis je vous remercie pour votre écoute et finit mes quatre minutes de <em>futur de la recherche</em>. Et merci pour votre invitation Eve et Nicolas.<br />
<br />
==42'54==<br />
<b>Nicolas Martin : </b>Merci, merci beaucoup Jérémie. On va vous garder un instant en ligne si vous voulez bien parce que j'aimerais que vous interveniez et que vous réagissiez un peu à ce qui va se dire en studio. Je vais demander une réaction et puis félicitations pour le «point Al Godwin» qu'on a beaucoup aimé. Une réaction Nozha Boujemaa ? Je vous voyais approuver aux présentations des travaux de Jérémy Poiroux.<br />
<br />
<b>Nozha Boujemaa : </b>Alors effectivement, la recherche elle a un rôle très important à jouer. Ce dont on n'a pas encore bien appuyé, l'idée au-delà de l'auditabilité et du contrôle et de la transparence des algorithmes existants, c'est vraiment essentiel d'avoir une formation justement des étudiants à la réutilisation des briques, logiciels <em>Open source</em>, sur les fuites informationnelles mais surtout en fait c'est avoir en fait de nouveaux modèles mathématiques d'apprentissage qui puissent identifier des variables discriminatoires pour réduire leurs impacts sur les prises de décisions. Donc là, c'est vraiment d'un point de vue recherches. «Coeur d'IA», c'est-à-dire que au-delà des algorithmes existants, faire de nouveaux modèles qui incorporent ces idées : égalité et équité par construction dans le modèle mathéthique lui-même. Chose qui existe très rarement.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, un mot.<br />
<br />
<b>Frédéric Bardolle : </b>Moi j'ai juste une crainte c'est que même si on développe des nouveaux modèles aussi performants qui soient, on va pas réussir à résoudre le cœur du problème qui est que les plates-formes font ça enfin... On va seulement parler des recommandation de contenus par exemple avec un <em>business model</em> basé sur la publicité. Le but c'est d'avoir l'attention des personnes. Pour avoir cette attention, l'idéal c'est de proposer un contenu qui fasse les gens et le problème c'est que le contenu qui fait rester les gens, c'est des contenus extrémistes, voilà... Des contenus terroristes, des contenus conspirationnistes, ainsi de suite. <br />
<br />
<b>Nicolas Martin : </b>Oui dans le pire des cas, sur YouTube etc. Sur des sites de vente, on a peu de ventes de sacs à main terroristes.<br />
<br />
<b>Frédéric Bardolle : </b> Non non, je parlais juste des <em>business models</em>, quand le <em>business model</em> c'est de capturer l'attention des personnes et leur diffuser des contenus. Le problème c'est que ces contenus vont toujours gagner par rapport aux autres. Donc à part si on trouve des moyens de changer ce modèle-là, un algorithme qui recommande un contenu extrême : c'est un algorithme qui fonctionne bien en fait. C'est un algorithme qui fait exactement ce pourquoi il a été conçu c'est-à-dire : faire rester la personne sur la plate-forme. Lui, a rempli son travail en fait. Donc, l'algorithme fonctionne déjà plutôt bien.<br />
des <br />
<br />
<b>Nozha Boujemaa : </b>Je pense qu'il faut régir les cas d'usage au-delà de ces modèles-là. Par exemple, sur la variabilité des prix. Ce qui est autre chose. Quand on va sur des plates-formes pour réserver des nuits d'hôtel ou bien des billets d'avion ou de train, là il ne s'agit pas de l'attention là, là c'est un autre <em>business model</em>. Et là, on peut se retrouver dans des situations de discrimination justement quand on passe à l'acte d'achat, qu'on fait rentrer des données personnelles, on peut voir des variations de prix qui vont être dépendantes. On ne va pas avoir le même prix pour toutes les personnes. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>Aïe.<br />
<br />
<b>Nohza Boujemaa : </b>Donc c'est pour ça que à un moment donné, il faut voir vraiment une vue un peu plus...<br />
<br />
<b>Nicolas Martin : </b>En fonction de ? En fonction de la localisation géographique ? En fonction de ?<br />
<br />
<b>Nohza Boujemaa : </b>Ça peut être la localisation, origine, etc. Il y a certains formulaires qui demandent des questions...<br />
<br />
<b>Nicolas Martin : </b>Quand je rentre mes coordonnées de carte bleue pour acheter un billet d'avion, je ne donne pas accès à mon origine ethnique par exemple ?<br />
<br />
<b>Nohza Boujemaa : </b>Sur certains sites , enfin sur certains sites de services... Aujourd'hui c'est ça le problème : c'est que les services ne connaissent pas les frontières. Et donc on est amenés à réppndre à des questionnaires traduits qui sont faits par des firmes qui ne spécialement ou particulièrement françaises. D'accord ? Donc on peut se retrouver entrain de répondre avec des informations assez intrusives d'un point de vue données personnelles. Et là, on peut constater des variations de prix. Et d'ailleurs, dans ce cadre-là, par exemple, la DGCCRF qui est une autorité de régulation se pose vraiment la question.<br />
<br />
<b>Nicolas Martin : </b>Direction générale de la Concurrence, de la Consommation et de la Répression des fraudes.<br />
<br />
<b>Nohza Boujemaa : </b>Voilà et qui a envie d'ailleurs de lancer des sujets de recherche pour faire la part des choses. Parce que tout n'est pas condamnable. Le <em>lean management</em>, c'est légal. Par contre, faire une variabilité des prix qui est finalement une discrimination sur des raisons non avouées : ça c'est pas légal.<br />
<br />
==47'08==<br />
<b>Nicolas Martin : </b>J'aimerais qu'on revienne pour conclure dans le dernier quart d'heure qui nous reste sur cette notion de serment. Alors, il y a ce serment d'Hippocrate qu'on évoquait tout à l'heure via <em>Data for Good</em> et <em>AlgoTransparency</em>. Il y a un autre serment qui est le serment Holberton-Turing qui est une autre charte qui propose, en fait une forme de charte de bonne conduite. Ma première question, c'est ce lien avec Hippocrate. Le serment d'Hippocrate c'est le serment donc, qui est prêté par les médecins qui s'engagent. Je l'ai sous les yeux, je ne vais pas vous le redire mais bon : consacrer sa vie à sauver l'humanité, à sauver les vies, à ne pas discriminer en fonction de l'âge, de l'origine ethnique etc etc. Est-ce que c'est bien judicieux de mettre au même plan le serment qui est prêté par les médecins qui ont entre les mains des vies humaines et aujourd'hui, celui que l'on souhaite faire signer aux <em>data scientists</em> dans le monde numérique selon vous Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Alors on a choisi ce nom-là principalement parce que déjà ça résonnait avec les gens. Quand on parle de serment d'Hippocrate, n'importe qui voit de quoi il s'agit. Donc, c'est assez facile d'en parler. Et ce dont on s'est aperçu, c'est que finalement les gens qui créent ces services de science de données vont toucher énormément de personnes. Donc, ils ont un pouvoir individuel qui est donc finalement assez grand donc c'est pour ça qu'on a proposé ce serment qui nous semble important. C'est-à-dire qu'une petite équipe peut toucher un très très grand nombre de personnes. Donc c'est pour ça qu'on considère qu'il y a une responsabilité aussi individuelle à avoir et c'est pour ça qu'on s'est permis d'emprunter le nom d'Hippocrate.<br />
<br />
<b>Nicolas Martin : </b>Un mot à ce propos Jérémie Poiroux ? Un serment d'Hippocrate pour les <em>data scientists</em>, ça vous semble être aujourd'hui une démarche qui va dans le bon sens ou en tout cas une forme de responsabilisation des futurs ou des actuels <data scientists</em> dans le travail qui peuvent faire vis à vis des tiens comme ça peut être le cas dans vos prochains travaux, dans vos prochaines affectations?<br />
<br />
<b>Jérémie Poiroux : </b>Oui. Alors j'aimerais faire le parallèle avec ce qui s'est dit lors d'une conférence que j'ai organisée donc en début de semaine dernière <em>ethics by design</em>. On parle justement de l'éthique des <em>designers</em>. Les <em>designers</em>, le parallèle est assez fort parce que les <em>designers</em> notamment sur les questions d'attention, ils ont un pouvoir qui est assez fort. On peut dire exactement la même phrase. C'est quelques <em>designers</em> par exemple de chez Facebook, de chez Google donc c'est pas les <em>data scientists</em> mais c'est les personnes qui vont mettre en valeur visuellement les contenus pour que ça soit attractif, pour qu'on ait envie de cliquer dessus, pour qu'on ait d'acheter des fois. Et puis donc ces personnes, on se demandait aussi «Est-ce que il faut un serment d' Hippocrate pour cette profession?». Et donc la réponse qui était apportée... C'était un débat où il y avait «oui, non». Et je pense que je vais refaire la même pour celle des <em>data scientists</em>. C'est que oui c'est important d'avoir une... On va dire quelque de chose de... Plutôt un manifeste en fait qu'une charte qui serait là et à qui on pourrait se référer. Ce serait une éthique commune plutôt que qu'une éthique personnelle. Et après il y a aussi le pendant un peu contre où j'ai rejoint un peu plus on va dire. En l'état, c'est pas pour tout de suite. Parce que avoir un serment d'Hippocrate, ça veut aussi dire avoir des barrières à l'entrée d'un métier par exemple. C'est-à-dire que le métier de <em>data scientist</em>, tout le monde pourra pas dire <em>data scientist</em>. Ça sera une étiquette, il faudra passer par des concours, il y en a qui n'y seront pas. Et donc c'est toute une réflexion en fait, c'est toute une nouvelle façon d'appréhender la <em>data science</em> ou d'appréhender le <em>design</em>. D'avoir en fait des personnes qui suivent tout un processus et qui après sont on va dire «estampillées» <em>designers</em> ou <em>data scientists</em> et qui respectent une certaine charte. <br />
<br />
<b>Nicolas Martin : </b>Nohza Boujemaa, sur ce sujet. <br />
<br />
<b>Nohza Boujemaa : </b>Oui. Je pense que effectivement c'est une bonne action, une très bonne intention aussi pour sensibiliser les individus. Mais très clairement, c'est insuffisant. C'est-à-dire qu'il faut avoir l'engagement des entreprises. C'est la réalité. Et avoir des efforts en parallèle parce que très clairement, un employé d'une entreprise il peut être convaincu mais c'est je dirais... C'est l'entreprise et c'est la responsabilité de l'entreprise qui est engagée pas sa responsabilité personnelle. Mais ceci dit, c'est important d'avoir cette sensibilisation individuelle mais il ne faut pas s'arrêter là. Donc, l'effort qui est entrain d'être fait dans énormément d'endroits au niveau international, c'est d'impliquer vraiment d'impliquer les industriels de tout horizon. Parce que maintenant, ils comprennent que la question de la confiance : c'est une question là où ils peuvent perdre du marché. Et que la confiance, c'est un élément de compétitivité. Et du coup,ça génère une adhésion à ces questions d'IA responsable et ces questions de responsabilité. Donc il faudrait pouvoir joindre les deux bouts et pas seulement focaliser sur juste un aspect mais il faudrait aussi les deux bouts de la chaîne.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, cette question là effectivement de faire reposer le serment d'Hippocrate sur les individus en formation c'est-à-dire sur les <em>data scientists</em> plutôt qu'une sorte de charte de bonne conduite au niveau international, au niveau pourquoi pas européen pour commencer et puis ensuite avec la volonté de l'élargir parce que la question qui se pose entre les individus qui vont être à un moment donné pris dans une chaîne de production et effectivement le poids peut faire poser les responsables de cette chaîne de production. Donc, l'entreprise. Le poids est assez écrasant, je veux dire qu'on ne lutte pas à armes égales. <br />
<br />
<b>Frédéric Bardolle : </b>Alors effectivement non, on n'a pas fait ce projet pour dire «le fun de le faire en entreprise» (???), ça ne sert à rien. C'était un premier pas. C'était pour agir rapidement en fait. Proposer quelque chose rapidement aux personnes. Parce que on s'est rendus compte qu'il y avait un besoin et du coup on va notamment le proposer dans les écoles et dans les entreprises. Après, il faut voir que certaines entreprises notamment américaines comme Google, ont fait des serments d'éthique pour l'IA. On dit «Bah non, on refuse de travailler par exemple sur certains projets militaires, on refuse de faire ça, ça, ça». <br />
<br />
<b>Nicolas Martin : </b>Récemment. <br />
<br />
<b>Frédéric Bardolle : </b>Récemment. Et ça engage... <br />
<br />
<b>Nozha Boujemaa : </b>Parce qu'ils ont compris l'importance de la confiance. <br />
<br />
<b>Frédéric Bardolle : </b>Ça engage que ceux qui y croient. Et je pense que là où je vous rejoins sur l'importance de la confiance, c'est que je suis persuadé qu'en Europe, la carte qu'on a jouée sur le numérique et notre caractère distinctif par rapport aux États-Unis et par rapport à la Chine,ça va être justement sur ça : sur créer des entreprises qui utilisent l'IA mais de manière éthique. Et un exemple très concret pour ça c'est <em>Snips</em>. C'est une entreprise qui fait un assistant vocal dans lequel il n'y a aucune donnée qui est envoyée sur internet, les données restent chez vous. C'est pas comme si vous aviez un micro qui enregistre en permanence tout ce qui se dit chez vous. Donc voilà, je pense qu'on peut faire la différence avec ce genre d'entreprises et l'éthique n'est pas incompatible avec le commerce qui fonctionne.<br />
<br />
<b>Nohza Boujemaa : </b>Il y a effectivement, je rajoute tout ce qui est <em>personal informations management system</em>. C'est tout ce qui est modèle de protection des données personnelles de manière distribuée, qui ne quitte pas votre ordinateur. Et donc, il y a énormément de choses qui restent à faire mais je voulais quand même mentionner que au niveau de la commission européenne, il y a un <em>high-level expert group</em>...<br />
<br />
<b>Nicolas Martin : </b>Un groupe de haute expertise, à haut niveau d'expertise.<br />
<br />
<b>Nozha Boujemaa : </b>En IA. Qui est constitué par la commission européenne. Pour pouvoir apporter des recommandations à la fois éthiques mais aussi de régulation et également d'investissement en recherche et développement. Et la pièce maîtresse c'est : comment faire de l'IA la plaque tournante d'une IA nouvelle et différente de ce qui est proposé dans le reste du monde? Et l'éthique et la responsabilité de l'IA en fait une pièce maîtresse.<br />
<br />
==54'43==<br />
<b>Nicolas Martin : </b>J'ai une question peut-être très naïve ou béotien, Jérémie Poiroux je vais vous la poser en premier lieu. Est-ce que aujourd'hui ces questionnements éthiques qui sont les nôtres autour de cette table qui sont manifestement partagés par un certain nombre d'acteurs européens, ils ont un sens au niveau international notamment avec votre regard quand on commence une carrière dans ce métier-là ? On sait qu'il y a des pays avec des pratiques qui sont plus dans l'incrémentation en puissance plutôt que la limitation éthique pour le résumer à grands traits.<br />
<br />
<b>Jérémie Poiroux : </b>Oui c'est... Disons que la question de l'éthique et du business, elle est clairement pas nouvelle. Donc en Europe, on a on peut dire une longueur d'avance là-dessus et je pense que la réponse simple c'est très clairememnt dans d'autres pays et on pensent très facilement aux États-Unis. Il n'y a pas cette notion, il n'y a pas cette culture. <br />
<br />
<b>Nicolas Martin : </b>Ou à l'Asie oui. On pensaient plutôt à la Chine ici personnellement, on avaient plutôt la Chine en tête en fait. Mais pourquoi pas les États-Unis oui. <br />
<br />
<b>Jérémie Poiroux : </b>Ah oui bah... Encore mieux parce que comme ça vous pourriez faire un tour du monde ensuite sur la Chine. Non je pense que déjà sur une question d'éthique avec les États-Unis, on est vraiment différents. On n'a pas cette même approche de l'implémentation de l'éthique dans le numérique, du code, de développer et de programmer directement dur l'éthique dans les programmes et d'avoir plutôt cette notion du buisiness. On le voit avec le RGPD par exemple, je pense que c'est un premier... Une première chose, un écho en fait qui n'est pas tout à fait sur le même temps mais en <em>privacy by design</em>, on voit que l'Europe est en avance et que toute cette réflexion elle est aussi en avance par rapport aux États-Unis. Je vous laisse le côté Chine.<br />
<br />
<b>Nicolas Martin : </b>On va voir pas forcément le côté Chine, le côté international. C'est une bonne chose évidemment que l'Europe soit en avance sur les questions éthiques mais est-ce que ce n'est pas aussi un frein au développement <em>stricto sensu</em> technologique Frédéric Bardolle ?<br />
<br />
<b>Frédéric Bardolle : </b>Alors c'est peut-être un frein dans un premier temps effectivement. Quand on étaient techno-optimistes et que tout se passait bien effectivement c'était embêtant de se poser des questions sur la <em>privacy</em> mais maintenant, quand on voit toutes les fuites de données, il n'y a pas une semaine qui passe sans qu'il y ait une fuite de données chez un GAFA et ainsi de suite.<br />
<br />
<b>Nicolas Martin : </b>Récemment, 50 millions de comptes piratés chez Facebook. <br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Et la même semaine, Facebook sort une espèce de caméra qu'on met chez soi et ce qu'ils appellent le <em>privacy by design</em>, c'est une espèce de petit cache en plastique qu'on met pour cacher la caméra. Pour eux c'est ça la <em>privacy</em>. Donc effectivement, à un moment donné ça a pu être un frein mais sur le long terme, on sera à mon avis clairement les gagnants de ce jeu. <br />
<br />
<b>Nohza Boujemaa : </b>Je crois que...<br />
<br />
<b>Nicolas Martin : </b>Un dernier mot de conclusion.<br />
<br />
<b>Nohza Boujemaa : </b>Oui. Effectivement ça c'est très important et en tout cas, l'Europe et la commission européenne, ils ont compris. On a été hier en Finlande en réunion avec la commission européenne et avec les représentants des différents états membres sur le numérique et l'IA. Très clairement, c'est identifié. Maintenant, il y a des acteurs américains qui ont compris que pour avoir du marché sur le terrain européen, il va falloir qu'ils soient conformes justement à ces règles à la fois éthiques et de responsabilité d'IA. <br />
<br />
<b>Nicolas Martin : </b>Merci beaucoup, merci ça sera le mot de la fin. Merci beaucoup à tous les trois. Merci Nohza Boujemaa, merci Frédéric Bardolle, merci Jérémie Poiroux qui était en direct au téléphone depuis Berlin. Merci à tous d'être venus participer et discuter autour de ces questions d'éthique numérique à ce micro. Je vous rappelle que comme tous les mercredis, c'est le jour de la sortie des <em>idées claires</em>. En <em>podcast</em> mais également en vidéo sur vos réseaux sociaux favoris. Une petite vidéo qui s'attaque aux idées reçues, aux idées complotistes, aux distorsions de l'information. Aujourd'hui la question que nous posons dans <em>les idées claires</em> et vous pouvez aller voir ça sur le Facebook notamment ou le Twitter de France Culture et de Franceinfo puisque c'est en partenariat entre les deux chaînes. La question que nous posons qui est une question qui vous allez voir est assez simple, assez fraîche, qui ne répond pas, qui ne demande pas énormément de commentaires ou de réflexion : Existe t-il un racisme antiblanc ? Les commentaires sont assez croquignolets. Merci à toute l'équipe de <em>La méthode scientifique</em>, c'était aujourd'hui Alice Seyed à la technique. Dans le prochain épisode de <em>La méthode scientifique</em>, nous parlerons des revues payantes à comités de lecture. Des revues de plus en plus contestées, de plus en plus piratées et de plus en plus dénoncées. Et si l'heure était à l'<em>Open access</em> ? On en parle demain de cette recherche en accès libre à 16 heures jusqu'à preuve du contraire.</div>D Ohttps://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_10_septembre_2019&diff=85679Libre à vous ! Radio Cause Commune - Transcription de l'émission du 10 septembre 20192019-09-11T21:57:55Z<p>D O : Transcription de la chronique jouons collectif</p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 3 septembre 2019 sur radio Cause Commune<br />
<br />
'''Intervenants :''' - Frédéric Couchet - Patrick Creusot à la régie<br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 10 septembre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190910/libre-a-vous-20190910.ogg Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-10-septembre-2019-sur-radio-cause-commune Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
Transcription : MO<br />
<br />
==Transcription==<br />
<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 FM en Île-de-France et partout dans le monde sur le site causecommune.fm. Merci d’être avec nous aujourd’hui pour cette nouvelle émission.<br/><br />
La radio dispose d’un webchat, utilisez votre navigateur web, rendez-vous sur le site de la radio, causecommune.fm, cliquez sur « chat » et ainsi retrouvez-nous sur le salon web dédié à l’émission. La radio dispose également d’une application, Cause Commune, pour téléphone mobile.<br/><br />
Nous sommes mardi 10 septembre 2019, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast.<br/><br />
Soyez les bienvenus pour cette nouvelle émission de <em>Libre à vous !</em> de l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.<br/><br />
Le site web de l’association est april.org et vous pouvez y trouver une page consacrée à cette émission avec tous les liens et références utiles, les détails sur les pauses musicales et toute autre information utile en complément de l’émission et également les moyens de nous contacter. N’hésitez pas à nous faire des retours pour indiquer ce qui vous a plu mais aussi des points d’amélioration.<br/><br />
Nous vous souhaitons une excellente écoute.<br />
<br />
Voici maintenant le programme de l’émission du jour ; nous allons pas mal parler des cookies sous des formes différentes.<br/><br />
Nous commencerons en effet par la chronique « In code we trust » de Noémie Bergez sur les nouvelles lignes directrices de la CNIL, justement sur les cookies informatiques !<br/><br />
D’ici 10 à 15 minutes nous aborderons notre sujet principal qui portera sur l’apprentissage de la programmation pour les enfants et notamment les Coding Goûters, où on partage différents gâteaux autour de la programmation.<br/><br />
En fin d’émission nous aurons la chronique « Jouons collectif » de Vincent Calame.<br/><br />
À la réalisation de l’émission aujourd’hui Étienne Gonnu. Bonjour Étienne.<br />
<br />
<b>Étienne Gonnu : </b>Salut Fred.<br />
<br />
<b>Frédéric Couchet : </b>Nous allons vous proposer un petit quiz. Je vous donnerai les réponses en fin d’émission et vous pouvez essayer de proposer des réponses sur les réseaux sociaux ou sur le salon web de la radio, donc sur causecommune.fm.<br/><br />
Première question : lors de l’émission du 3 septembre 2019 nous avons parlé de la migration de la Gendarmerie nationale vers les logiciels libres. La question est : combien de postes informatiques sont désormais sous système libre GNU/Linux ? Aller, à quelques milliers près ! <br/><br />
Deuxième question : quelle est la suite bureautique libre utilisée au début de la migration de la Gendarmerie et quelle est la suite bureautique libre utilisée aujourd’hui ?<br/><br />
Tout de suite place au premier sujet.<br />
<br />
[Virgule musicale]<br />
<br />
==2’35 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190910/libre-a-vous-20190910-chronique-in-code-we-trust-noemie-bergez-nouvelles-lignes-directrices-cnil-cookies.ogg Chronique « In code we trust » de Noémie Bergez sur les nouvelles lignes directrices de la CNIL sur les cookies] 12 min 5 s== <br />
<br />
<b>Frédéric Couchet : </b>Évoquer le code à la main une règle de droit ou un procès en lien avec les œuvres, les données, les logiciels ou les technologies c’est la chronique <em>In code we trust</em>, « Dans le code nous croyons », c’est la chronique de Noémie Bergez, avocate au cabinet Dune. Bonjour Noémie.<br />
<br />
<b>Noémie Bergez : </b>Bonjour Fred.<br />
<br />
<b>Frédéric Couchet : </b>J’espère que tu as passé un bel été.<br />
<br />
<b>Noémie Bergez : </b>Très bien.<br />
<br />
<b>Frédéric Couchet : </b>Noémie, tu souhaites nous parler aujourd’hui de nouvelles lignes directrices de la CNIL sur les cookies, la CNIL étant la commission nationale de l’informatique et des libertés.<br/><br />
Nous t’écoutons.<br />
<br />
<b>Noémie Bergez : </b>Cette première chronique de la saison sera dédiée<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<b>Frédéric Couchet : </b>Merci Noémie. On aura des nouvelles informations fin septembres en fonction de la décision qui sera prise et nul doute que tu reviendras sur le sujet dans une prochaine chronique. Je te souhaite une belle journée et au mois prochain.<br />
<br />
<b>Noémie Bergez : </b>Merci. À très bientôt. <br />
<br />
<b>Frédéric Couchet : </b>Nous allons faire une pause musicale. <br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Nous allons écouter <em>Hans Trap Returns</em> par Ghandizilla/Raphaël Badawi et on se retrouve juste après.<br />
<br />
<b>Pause musicale : </b><em>Hans Trap Returns</em> par Ghandizilla/Raphaël Badawi<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Hans Trap Returns</em> par Ghandizilla/Raphaël Badawi, c’est une musique disponible sous licence Creative Commons Partage dans les mêmes conditions. Vous retrouverez les références sur le site de l’April, april.org.<br/><br />
Vous écoutez l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 FM en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
Nous allons maintenant passer au sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
Le sujet suivant est consacré à l’apprentissage de la programmation pour les enfants. Exceptionnellement c’est un sujet qui n’est pas en direct simplement parce que l’une des intervenantes reprenait l’école la semaine dernière et n’était pas disponible à 15 heures 30 donc nous avons enregistré l’émission il y a deux semaines. Nous allons diffuser cet enregistrement et on se retrouve juste après. <br />
<br />
==18’ 07 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190910/libre-a-vous-20190910-initiation-a-la-programmation-pour-les-enfants-tony-bassette-raphael-et-ludine-pierquin.ogg Initiation à la programmation pour les enfants (et les grands) avec Tony Bassette, Raphaël et Ludine Pierquin] 56 min 32 s==<br />
<br />
<b>Frédéric Couchet : </b>Nous allons aborder notre sujet principal<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<b>Frédéric Couchet : </b>Très bien on va faire une pause musicale et on va revenir après sur ce sujet qui mélange à la fois la compréhension du monde, les rencontres sociales et le fun.<br/><br />
Nous allons écouter <em>Kings</em> par Cyber SDF et on se retrouve juste après.<br />
<br />
<b>Pause musicale : </b><em>Kings</em> par Cyber SDF.<br />
<br />
==49’ 52==<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Kings</em> par Cyber SDF, disponible sous licence libre Creative Commons Attribution Partage dans les mêmes conditions. Vous retrouverez les références sur le site de l’April, april.org.<br/><br />
Vous écoutez l’émission Libre à vous ! Sur radio Cause Commune 93.1 FM en Île-de-France et partout ailleurs sur le site causecommune.fm<br />
<br />
Notre sujet, que nous allons poursuivre,<br />
<br />
<br />
<br />
<br />
<br />
<br />
Nous allons faire une pause musicale. <br />
<br />
[Virgule musicale]<br />
<br />
Nous allons écouter <em>I'm here</em> par Big Albert et on se retrouve juste après.<br />
<br />
<b>Pause musicale : </b><em>I'm here</em> par Big Albert <br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>I'm here</em> par Big Albert, disponible sous licence libre Creative Commons Partage dans les mêmes conditions.<br/><br />
Vous écoutez l’émission <em>Libre à vous !</em> sur radio Cause Commune sur 93.1 en Île-de-France et partout ailleurs sur le site causecommune.fm.<br/><br />
Nous allons aborder le sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 18’ 06 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190910/libre-a-vous-20190910-chronique-jouons-collectif-vincent-calame-patrouille-du-libre.ogg Chronique « Jouons collectif » de Vincent Calame sur la patrouille du libre] 5 min 35 s==<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre avec la chronique « Jouons collectif » de Vincent Calame, bénévole à l'April et le thème du jour, est la patrouille du Libre.<br />
<br />
<b>Vincent Calame : </b>Oui. Alors la patrouille du libre, cette idée de chronique m'est venue lors d'une discussion post-émission d'un précédent <em>Libre à vous !</em> qui portait sur <em>LibreOffice</em> et où j'avais avez évoqué également ma quête du libre dans ma structure. Et je discutais migration avec Philippe Hemmel qui était un des intervenants de cette émission et il m'évoquait le cas d'une migration où après la migration proprement dite c'est-à-dire l'installation et la formation des postes, ils étaient restés sur place et passaient régulièrement dans les bureaux pour s'assurer que tout allait bien. Cette approche rejoignait un peu ma propre expérience et cette approche que j'intitule justement «patrouille du libre» est un moyen efficace de résoudre les problèmes et de diminuer les tensions. <br />
<br />
<b>Frédéric Couchet : </b>Tu veux dire que les personnes n'osent pas le dire qu'elles ont un problème ?<br />
<br />
<b>Vincent Calame : </b>Bien sûr quand ça ne marche pas, elles le disent. On l'entend très vite. Moi je pense plutôt à toutes ces petites choses qu'on a envie de réaliser mais auxquelles on n'arrive pas parce que on ne sait pas par quel bout les prendre. Par exemple, une mise en page particulière sur <em>LibreOffice</em>, on a vu un autre document et on voudrait le reproduire et on n'y arrive pas. C'est souvent pas des choses indispensables et si la personne ne peut pas le faire elle va abandonner l'idée mais à chaque fois il reste un arrière-goût d'inachevé.<br />
<br />
<b>Frédéric Couchet : </b>Alors l'idée que tu présentes dans cette patrouille du libre, c'est d'aller devant la personne pour favoriser l'expression de ses besoins.<br />
<br />
<b>Vincent Calame : </b>Oui c'est ça. On fait le tour des couloirs et comme ça on reste dans un cadre informel qui libère la parole. On parle du temps, on papotent et puis là la personne place un petit «À propos, je voudrais faire ça et je n'y arrive pas». On prend cinq minutes, ça ne suffit pas toujours mais ce que je constate c'est que des choses pour lesquelles les personnes sont gênées de vous déranger justement quand elles sont résolues en quelques secondes et sont moins disposées à suivre une procédure un peu formelle qui serait d'ouvrir un ticket. Ouvrir un ticket, c'est quand il y a des bugs, on va sur un site et puis on dépose une demande. Elles ne vont pas le faire. Derrière ça, je pense qu'il y a aussi un peu la honte de ne pas y arriver tout seul. Et donc en prenant les devants on désamorce beaucoup de tensions et on montre qu'on est disponible et aussi qu'on ne juge pas les gens, on ne peste pas parce qu'ils nous dérangent et on ne les note pas. <br />
<br />
<b>Frédéric Couchet : </b>Et quelque part, cela assure un Service Après-Vente du logiciel libre.<br />
<br />
<b>Vincent Calame : </b>`Oui voilà. L'idée, c'est de jamais laisser les gens démunis, les accompagner dans les premiers pas et leur faire gagner en autonomie. L'informatique, ça s'apprend en se pratiquant, ça a été abordé dans le sujet principal de cette émission. Et puis aussi c'est plus facile de transmettre par petites touches quand le besoin se présente plutôt d'assurer une formation initiale qui ne peut pas couvrir tous les cas de figure.<br />
<br />
<b>Frédéric Couchet : </b>Alors est-ce que ta suggestion est de généraliser ces patrouilles du libre ?<br />
<br />
<b>Vincent Calame : </b>Là évidemment, j'évoque mon propre cas où je suis dans une structure...<br />
<br />
<b>Frédéric Couchet : </b>À demeure.<br />
<br />
<b>Vincent Calame : </b>À demeure voilà. Je suis un informaticien à demeure. Donc c'est évidemment pas toujours possible. Dans le cas d'organisations plus petites, on pourrait imaginer des patrouilles plus espacées dans le temps. Évidemment, là je parle des organisations. Pour le grand public, c'est évidemment beaucoup plus compliqué à mettre en place, je n'ai pas d'exemple. Mais je pense qu'il y a une approche complémentaire à la patrouille, c'est celui de la permanence. C'est d'indiquer un lieu, une heure régulière où la personne pourra trouver un interlocuteur pour le renseigner sur ses petits problèmes du quotidien là aussi dans un cadre plutôt informel. Et ça, je sais que c'est un mécanisme qui a été mis en place par plusieurs groupes d'utilisateurs locaux de logiciels libres pour ce que je connais qui est Parinux. Il y a les premiers samedis du libre à la cité des sciences et j'en profite d'ailleurs pour conclure, pour vous inviter à vous rendre sur l'Agenda du libre où vous pourrez voir si un groupe local d'utilisateurs de logiciels libres organise des permanences près de chez vous. <br />
<br />
<b>Frédéric Couchet : </b>D'accord. Donc Parinux c'est le groupe d'utilisateurs et d'utilisatrices de logiciels libres de la région parisienne. Enfin Paris et la région parisienne. Il organise régulièrement des événements, Les premiers samedis, c'est chaque premier samedi du mois à la cité des sciences et de l'industrie de 14 heures à 18 heures. Parinux avec d'autres groupes organise une journée consacrée aux logiciels libres avec des conférences et des ateliers d'accueil. Évidemment pour les personnes qui nous écoutent ailleurs qu'en région parisienne, sur l'agenda du libre donc, agendadulibre.org tout attaché, vous retrouverez les permanences ou en tout cas les événements récurrents qui sont organisés dans les autres régions. Et puis il y a aussi les permanences on va dire «un peu plus festive». C'est l'occasion par exemple de parler des apéros. De rencontrer des gens autour des apéros et de parler de leurs problèmes notamment de ces patrouilles du libre ou de ces permanences. Est-ce que tu souhaites ajouter un mot de conclusion sur ces patrouilles du libre, ces parmanences ?<br />
<br />
<b>Vincent Calame : </b>Non. ??? toujours mélangée, informelle et puis pratique toujours. Ne pas avoir un cadre trop rigoureux...<br />
<br />
<b>Frédéric Couchet : </b>Trop formel et qui peut bloquer les utilisateurs et utilisatrices.<br />
<br />
<b>Vincent Calame : </b>Et les culpabiliser.<br />
<br />
<b>Frédéric Couchet : </b>D'accord. Merci Vincent pour cette chronique «Jouons collectif». On se retrouve le mois prochain et je te souhaite de passer une belle journée.<br />
<br />
<b>Vincent Calame : </b>Merci. <br />
<br />
<br />
<br />
<br />
<b>Frédéric Couchet : </b>Nous approchons de la fin de l’émission, nous allons terminer par quelques annonces.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 23’ 52 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190910/libre-a-vous-20190910-annonces.ogg Annonces] 6 min 7 s==<br />
<br />
<b>Frédéric Couchet : </b>D'abord, les réponses aux questions du quiz.</div>D Ohttps://wiki.april.org/index.php?title=M%C3%A9dias_%C3%A0_transcrire&diff=85669Médias à transcrire2019-09-10T10:06:31Z<p>D O : </p>
<hr />
<div>[[Image:Transcriptions2.png|right|150px]] <br />
<br />
== Présentation == <br />
<br />
La page principale pour les médias sur le site de l'April est ici: http://www.april.org/fr/videos.<br />
<br />
L'ensemble de ces fichiers sur le serveur sont stockés ici: http://media.april.org/video/ et http://media.april.org/audio/.<br />
<br />
Sur le wiki, une page permet de noter les caractéristiques des fichiers audio et vidéo qui sont sur le serveur avant d'en faire une fiche sur le site web : [[AudioVideo]].<br />
<br />
'''Ces médias sont tous en rapport avec le Logiciel Libre, sa défense, sa promotion…'''<br />
<br />
{{Boite | titre= Les prochaines transcriptions du groupe<br />
| bordure=rgb(132, 136, 220)|fond=Honeydew |largeur=70% |couleurTitre=tomato}}<br />
<br />
''' Les vidéos de la liste ''À relire ou en relecture'''''<br />
<br />
<br />
<br />
<strong>Si vous avez des médias à proposer, complétez la liste ''Suggestions'' et envoyez un message.</strong> <br />
{{BoiteFin}}<br />
<br />
=== Suggestions ===<br />
<br />
*[http://www.la-bas.org/article.php3?id_article=2931 Émission france-inter Là-bas si j'y suis du 05/02/2014 Le bon Dieu te regarde même si tu es aux cabinets 1]<br />
<br />
*[http://www.franceinter.fr/emission-la-bas-si-jy-suis-le-bon-dieu-te-regarde-meme-quand-tu-es-aux-cabinets-2 Émission france-inter Là-bas si j'y suis du 05/02/2014 Le bon Dieu te regarde même si tu es aux cabinets 2]<br />
<br />
*[http://www.freetorrent.fr/index.php?page=torrent-details&id=e8ae902cca9e4d5dd7f8a9691bb6b45fdc8a7e8f Logiciel Libre, Société Libre - Richard M. Stallman à Grenoble - avril 2014] 2h 23 min<br />
<br />
*[https://facil.qc.ca/fsm2016-grande-conf-logiciel-libre La grande conférence sur le logiciel libre avec RMS et Marianne Corvellec - Forum social mondial 2016] 2 h 16 min 26<br />
<br />
*[https://www.youtube.com/watch?v=jZFi-vtqrpo&feature=youtu.be Audition programmatique #20 - Numérique - April et Savoirs communs] 1 h 07 min 39<br />
<br />
* [https://rmll.ubicast.tv/channels/#2017-saint-etienne Conférences des RMLL2017] ad libitum NB : diverses conférences déjà transcrites et publiées<br />
<br />
* [https://framatube.org/media?q=jdll2017 Conférences des JDLL Lyon 2017] ad libitum NB : diverses conférences déjà transcrites et publiées<br />
<br />
* [https://www.youtube.com/embed/_D1TTMOjZiE?version=3&rel=1&fs=1&autohide=2&showsearch=0&showinfo=1&iv_load_policy=1&wmode=transparent Données personnelles et vie privée : ce qui va changer avec le RGPD] 01 h 53 min 49 sec<br />
<br />
*[https://www.youtube.com/watch?v=EbDOuZYmv68 Travailler ensemble pour la défense des libertés - Benjamin Bayart, Pierre-Yves GOSSET, piks3l] 1 h 30 min<br />
<br />
*[https://www.college-de-france.fr/site/claire-mathieu/inaugural-lecture-2017-11-16-18h00.htm Algorithmes - Leçon inaugurale - Claire Mathieu] 1 h 3 min<br />
<br />
*[https://www.franceinter.fr/emissions/affaires-sensibles/affaires-sensibles-28-novembre-2017 Le grand méchant darknet - Amaelle Guitton] 54 min<br />
<br />
*[https://radio.amicus-curiae.net/podcast/open-data-donnees-ouvertes-pour-monde-ouvert-ou-totalitaire/ Open data, données ouvertes pour un monde ouvert ou totalitaire - Amicus Radio] 36 min 45<br />
<br />
*[https://www.franceinter.fr/emissions/comme-un-bruit-qui-court/comme-un-bruit-qui-court-12-mai-2018 Données personnelles : Gare au GAFAM] 53 min<br />
<br />
*[https://www.youtube.com/watch?v=pDPFnywbWDo&index=35&list=PLTbQvx84FrASpPvTGt_0BzttHUvMEvXyP Philosophie de l'Intelligence artificielle - Une introduction] 39 min<br />
<br />
*[https://www.youtube.com/watch?time_continue=9&v=lgOrpwPfW00 Enjeux de la blockchain pour les collectivités | Congrès ADULLACT 2018 - Stéphane Bortzmeyer] 58 min 32<br />
<br />
*[http://www.canalc2.tv/video/15198 Les formats, un sujet toujours d'actualité - Thierry Stoehr - RMLL2018] 59 min 40<br />
<br />
*[https://www.france24.com/fr/20180912-debat-france24-union-europeenne-hongrie-gafa-facebook-google-internet?ref=fb Droit d'auteur : aux géants du net de payer ?] 26 min 15<br />
<br />
*[https://www.youtube.com/watch?time_continue=57&v=5dVmayb6sp4 CN2018 TABLE RONDE] 42 min 46<br />
<br />
*[https://webtv.utc.fr/watch_video.php?v=XUAU4YKB1XMX Des communs fonciers aux communs numériques - Benjamin Coriat] 49 min 25<br />
<br />
*[https://www.youtube.com/watch?time_continue=2&v=SOXAnl7qO8c Parlons-en - Framasoft et le Libre avec Pouhiou] 31 min 33<br />
<br />
* [https://www.april.org/decryptualite-du-8-octobre-2018-fablab-quand-la-maitrise-de-la-technologie-alimente-notre-creativite Décryptualité du 8 octobre 2018 - Fablab : quand la maîtrise de la technologie alimente notre créativité et nous donne du pouvoir sur nos vies] 15 min<br />
<br />
*[https://entreprise.maif.fr/entreprise/pour-une-societe-collaborative/decouvrir-nos-actions/nos-conference-et-debats-a-partager-replay Qui contrôle internet et les médias sociaux - Divina Frau-Meigs - 03/10/2018 à Lons Le Saunier (39)] 1:06:22<br />
<br />
*[https://www.franceculture.fr/emissions/la-methode-scientifique/la-methode-scientifique-du-mercredi-23-mai-2018 Protection des données personnelles : souriez, vous êtes traqués ! La méthode scientifique] 58 min 48<br />
<br />
*[https://www.lejdc.fr/nevers/science/internet-multimedia/2019/01/03/au-royaume-uni-en-france-aux-etats-unis-les-distinctions-s-accumulent-pour-le-nivernais-louis-pouzin-un-des-peres-d-internet_13098569.html Carte blanche à Louis Pouzin - Nevers Libre - Juin 2016] 1 h 29 min<br />
<br />
* [https://peer.hostux.social/video-channels/lareinedeselfes_channel/videos Au choix, évènement Entrée libre à Quimper août 2019]<br />
<br />
<br />
<br />
----<br />
<br />
== Travaux ==<br />
<br />
<br />
=== En cours ===<br />
<br />
* [[Free_Libre_alternatives_to_GAFAMs_Internet_a_review_of_French_Initiatives]] : Free/Libre alternatives to GAFAMs Internet a review of French Initiatives, Marianne Corvellec and Jonathan Le Lous à LibrePlanet 2016<br />
<br />
* [[Open_Experience_Art_et_Culture ]] Open Experience : Quels modèles économiques pour l’Open dans l’Art et la Culture ? Lionel Maurel<br />
<br />
* [[Audition et logiciels libres : conférence RMLL juillet 2013]] commencée par Irina<br />
<br />
* [https://wiki.april.org/w/Tristan_Nitot_-_BacFM_Nevers Tristan Nitot interviewé sur BACFM à Nevers dans le cadre d'une émission sur l’événement Dégooglisons internet]] commencée par Techno2900<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
----<br />
<br />
=== À relire avec ou sans le son ===<br />
<br />
* [http://wiki.april.org/w/Faut-il_breveter_les_logiciels Faut-il breveter les logiciels ? Table ronde - Aquitaine Science Transfert] 2 heures 3 min<br />
<br />
* [http://wiki.april.org/w/R%C3%A9trospective_juridique_-_Actualit%C3%A9_-_Travaux_en_cours_-_Benjamin_Jean_-_RMLL2015#10.27_16 Rétrospective juridique : actualité et travaux en cours - Benjamin Jean - RMLL2015] 40 min 38<br />
<br />
* [http://wiki.april.org/w/Mettre_en_place_une_politique_publique_en_faveur_du_logiciel_libre_-_Table_ronde Mettre en place une politique publique en faveur du logiciel libre - Table ronde au POSS 2016 animée par Étienne Gonnu] 1 h 36 min 29<br />
<br />
* [https://wiki.april.org/w/Enseignement_sup%C3%A9rieur,_recherche_et_Logiciel_Libre_-_RMLL2018 Enseignement supérieur, recherche et Logiciel Libre - RMLL2018] 1 h 04 min 38<br />
<br />
* [https://wiki.april.org/w/Blockchain_-_Les_temps_%C3%A9lectriques_-_Primavera_De_Filippi Blockchain - Les temps électriques - Primavera De Filippi] 39 min<br />
<br />
* [http://wiki.april.org/w/Ethique_et_l%27int%C3%A9grit%C3%A9_collecte_donn%C3%A9es Éthique et l’intégrité de la collecte et de partage des données] Conférence en anglais de 47 min - relecture en cours par [[Discussion utilisateur:JennyB|JennyB]]<br />
<br />
* [https://wiki.april.org/w/La_technologie_au_service_du_bien_commun,_un_v%C5%93u_pieux_-_D%C3%A9cryptage_-_RFI La technologie au service du bien commun, un vœu pieux - Décryptage - RFI] 19 min 30<br />
<br />
* [https://wiki.april.org/w/Internet_devient-il_un_Minitel_2.0_ou_un_bien_commun_-_Benjamin_Bayart_-_RTS Internet devient-il un Minitel 2.0 ou un bien commun - Benjamin Bayart - RTS] 37 min 50<br />
<br />
* [https://wiki.april.org/w/La_cybersecurite_est-elle_vouee_a_lechec La cybersécurité est-elle vouée à l'échec ? Du grain à moudre] 40 min<br />
<br />
* [https://wiki.april.org/w/Souverainet%C3%A9_num%C3%A9rique_am%C3%A9ricaine_-_Bernard_Benhamou Souveraineté numérique américaine ? - Bernard Benhamou] 42 min 18<br />
<br />
* [https://wiki.april.org/w/Faire_atterrir_les_Communs_num%C3%A9riques Faire atterrir les Communs numériques. Des utopies métaphysiques aux nouveaux territoires de l'hétérotopie - Lionel Maurel] 1 h 02 min<br />
<br />
* [https://wiki.april.org/w/Changer_le_monde,_un_ego_%C3%A0_la_fois_-_Pouhiou_-_PSES2019 Changer le monde, un ego à la fois - Pouhiou - PSES2019] 59 min<br />
<br />
* [https://wiki.april.org/w/Education,_sanction,_prospective_:_que_peut_(vraiment)_la_CNIL_pour_prot%C3%A9ger_nos_donn%C3%A9es_-_Soft_Power Education, sanction, prospective : que peut (vraiment) la CNIL pour protéger nos données - Émission Soft Power] 1 h 28 min<br />
<br />
* [[Éthique numérique, des datas sous serment - La méthode scientifique]] 58 min 56, commencée par D_O<br />
<br />
<br />
===Relu avec le son, en attente de relecture orthographique===<br />
<br />
* [https://wiki.april.org/w/Responsabilit%C3%A9_des_ing%C3%A9nieurs_-_%C3%89ric_Sadin Responsabilité des ingénieurs - Éric Sadin] 26 min <b>NB : </b> M. Sadin donnera son accord, ou pas, pour la publication de cette transcription, donc en attente - relu par Bookynette & Khrys<br />
<br />
<br />
<br />
<br />
=== En attente de validation ===<br />
<br />
* [[TEDx_Frederic_Couchet]] sous titrage à mettre en ligne sur le site web<br />
<br />
* [http://wiki.april.org/w/Projet_Signoth%C3%A8que_-_PSESHSP_2016 Projet Signothèque - Association Arboré'Sign _ PSESHSF 2016] 43 min 45 - relu par Khrys<br />
<br />
=== Publiées dans le mois ===<br />
<br />
* [https://www.april.org/le-numerique-nous-libere-t-il-ou-serait-il-un-nouvel-asservissement-dominique-cardon-le-grand-face-a Le numérique nous libère-t-il ou serait-il un nouvel asservissement ? Dominique Cardon - Le grand face-à-face - France Inter] 38 min<br />
<br />
* [https://www.april.org/donnees-personnelles-sommes-nous-des-victimes-consentantes-le-debat-de-midi-france-inter Données personnelles : sommes-nous des victimes consentantes - Le débat de midi - France Inter] 52 min 37<br />
<br />
* [https://april.org/libre-a-vous-radio-cause-commune-transcription-de-l-emission-du-3-septembre-2019 Libre à vous ! Radio Cause Commune - Émission du 3 septembre 2019] 1 h 30 min<br />
<br />
===[[Transcriptions publiées]]===<br />
<br />
== Retour ==<br />
à la [[Transcriptions page d'accueil|page]] d'accueil du groupe.<br />
<br />
[[Catégorie:Transcriptions]]<br />
[[Catégorie:Video]]</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85667Éthique numérique, des datas sous serment - La méthode scientifique2019-09-09T21:46:20Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen - Soline Ledésert - Jérémie Poiroux<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lançait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un serment d'Hippocrate des <em>data scientists</em>. Donc on a fait une petite recherche, il y en avait déjà qui circulaient et pour se différencier de ceux qui existaient déjà, on avait vraiment crée un serment d'Hippocrate qui aidait dans au quotidien, dans leur pratique les <em>data scientists</em>. Vraiment à se dire, on a découpé le travail en grandes étapes de la participation d'un projet, à l'analyse de résultats en passant par la collecte de données et l'application de modèles algorithmiques. On s'est dit «À chaque étape, quels sont les dilemmes éthiques auxquels un <em>data Scientist</em> peut être confronté et ensuite comment il peut résoudre ces problèmes ?». Donc on a fait un questionnaire en ligne, on a récolté des expériences diverses et ensuite on a travaillé pendant trois mois en atelier à rédiger collaborativement un serment d'Hippocrate. Donc là, il est disponible sur hippocrate.tech. Donc on a posé cinq valeurs : L'intégrié scientifique et la rigueur, la transparence, l'équité, le respect et la responsabilité et l'indépendance. Et ensuite, on a formulé des phrases sous la forme de «Je m'engage à faire ceci ou cela» donc ça concerne effectivement le respect de la vie privée donc à chaque fois, à chaque ligne on rappelle aussi le cadre légal européen du Règlement Général pour la Protection des Données personnelles. Le <em>data scientist</em> signataire s'engage à déterminer le meilleur compromis entre la performance et l'interprétabilité. Pourquoi l'interprétabilité c'est important ? Parce que par exemple si vous faites tourner un algorithme par exemple sur la question de votre allocation familiale et si l'algorithme vous dit «Bah non, vous n'y avez pas droit» et que la personne qui a fait tourner l'algorithme vous dit «Et bien écoutez, je ne peux pas vous l'expliquer, mais c'est comme ça» ça peut poser des problèmes. Donc on a fait ce genre de recherche. <br />
<br />
<b>Céline Loozen : </b>Quelle est la valeur juridique de cette charte ? Comment on pourrait l'appliquer réellement ?<br />
<br />
<b>Soline Ledésert : </b>Nous on est vraiment dans une démarche plutôt citoyenne. À chaque fois, on l'a formulée de façon à veiller, enfin le <em>data scientist</em> veille à ce que les choses se fassent. Mais un <em>data scientist</em> il peut travailler dans une administration, dans une entreprise, au sein d'un labo de recherche et il n'est jamais seul décisionnaire sur vraiment l'ensemble du projet donc nous on a pris cette approche dans le cadre de ce projet vers la responsabilité personnelle. Après, on a aussi rappelé la loi donc là c'est vrai que le RGPD a vraiment amené beaucoup plus de contraintes sur ces questions mais voilà, nous on est vraiment parti sur un modèle d'éthique personnelle. <br />
<br />
[Fin de la musique de fond]<br />
<br />
<b>Nicolas Martin : </b>Voilà le reportage du jour sur cette plate-forme <em>AlgoTransparency</em>. Je vais vous demander évidemment Frédéric Bardolle, une réaction puisque c'est votre association <em>Data For Good</em> qui développe cette plate-forme.<br />
<br />
<b>Frédéric Bardolle : </b>Déjà merci. C'est Soline qui a vraiment porté le projet sur le serment d'Hippocrate et Guillaume Chaslot qui est à plein temps sur ce projet de <em>Algotransparency</em> et qui essaie d'étudier notamment avec des scientifiques américains, essayer d'étudier d'autres algorithmes et leurs fonctionnements, essayer de mieux comprendre comment ça marche. Moi je voulais revenir surtout sur une chose c'est que effectivement il y a une responsabilité individuelle donc à travers ce serment qu'on propose. Mais on pense également qu'il y a comme le disait Soline qu'il y a aussi une responsabilité finalement aussi, il y a des institutions à créer pour permettre de transformer la manière dont fonctionne le numérique à l'heure actuelle. Un exemple : à l'heure actuelle, il n'y a pas de statut intermédiaire entre un hébergeur et un média. Et le problème c'est quoi ? C'est que en fait...<br />
<br />
<b>Nicolas Martin : </b>Exemple concret. Par exemple, prenons un réseau social. Pour les auditeurs, exemple concret : Facebook.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà Facebook ou YouTube, c'est des hébergeurs. Donc, ils ne sont pas responsables du contenu. Tout le contenu publié chez eux c'est pas sous leur responsabilité. Au contraire un média, tout ce qui est produit, si on dit quelque chose qui ne respecte pas la loi à la radio...<br />
<br />
<b>Nicolas Martin : </b>Sur France Culture.<br />
<br />
<b>Frédéric Bardolle : Et bien quelqu'un portera la responsabilité. <br />
<br />
<b>Nicolas Martin : </b>La directrice de la chaîne, moi d'abord et puis ensuite la présidente. <br />
<br />
<b>Frédéric Bardolle : </b>Et donc il y a un grand écart en fait. Ce statut d'hébergeur ça marchait très bien au début de l'internet finalement. C'était juste des annuaires où il y avait toutes les vidéos des contenus produits par les internautes qui étaient là. Finalement, c'est vrai qu'il n'y avait pas de rôle de responsabilité. Mais là en fait on assiste à quelque chose. C'est-à-dire qu'un algorithme qui propose 100 000 fois un contenu à un utilisateur, on pourrait se dire «Quand même, il a un rôle éditorial». Même si ce n'est pas un humain qui a fait ce choix de poser ça là. Au bout d'un moment lorsqu'une nouvelle est diffusée de manière massive comme ça, nous on considère que cette plate-forme a un rôle éditorial, devrait avoir une responsabilité juridique et parce que l'algorithme a un rôle éditorial dans ses contenus. <br />
<br />
<b>Nicolas Martin : </b>Une réaction à ce que viens de dire Frédéric Bardolle et sur cette plate-forme <em>AlgoTransparency</em>. On va parler du serment d'Hippocrate dans un instant mais d'abord sur le reportage et sur cette notion très très intéressante de distnction entre l'hébergeur et média.<br />
<br />
<b>Nozha Boujemaa : </b>Oui... Et bien je suis d'accord dans la mesure où effectivement l'évolution des rôles aujourd'hui, la frontière est très mince et surtout que les contenus en fait aujourd'hui sont consommés. Il n'y a plus effectivement ce rôle éditorial fait par un professionnel mais aujourd'hui c'est fait par un algorithme de recommandation de contenus. Et donc, très clairement la question de la neutralité de la recommandation du contenu se pose. Et au-delà de ces... En fait... Moi je voudrais pointer toujours sur cette même problématique, un autre contexte qui peut être embêtant. C'est pas du B2C en fait c'est du B2B. Plate-forme juste au hasard...<br />
<br />
<b>Nicolas Martin : </b>On rappelle : B2C c'est <em>business-to-consumer</em>...<br />
<br />
<b>Nozha Boujemaa : </b>Voilà.<br />
<br />
<b>Nicolas Martin : </b>Et B2B c'est <em>business-to-business</em> voilà.<br />
<br />
<b>Nozha Boujemaa : </b>Exactement. <br />
<br />
<b>Nicolas Martin : </b>Donc de l'entreprise à l'entreprise et de l'entreprise au consommateur.<br />
<br />
<b>Nozha Boujemaa : </b>Merci.<br />
<br />
<b>Nicolas Martin : </b>C'est juste un petit bout de traduction franco-anglaise qu'on nous reproche souvent à juste titre d'être trop anglophone. <br />
<br />
<b>Nozha Boujemaa : </b>Tout à fait, tout à fait. À juste titre.<br />
<br />
<b>Nicolas Martin : </b>Allons-y.<br />
<br />
<b>Nozha Boujemaa : </b>Donc faire des recommandations de consommation de contenus culturels sur une plate-forme qui n'a pas de modèle d'affaires qui soit de la publicité. Je prends pour exemple Netflix. Une fois qu'on paye l'abonnement, on n'a pas de publicités à regarder.<br />
<br />
<b>Nicolas Martin : </b>Pour le moment.<br />
<br />
<b>Nozha Boujemaa : </b>Pour le moment. On peut se poser la question : C'est quoi les motivations des algorithmes de recommandation là-dedans ? D'accord ? Donc là, c'est un autre cas d'usage auquel il faudrait aussi un petit peu s'y intéresser. Parce que là très clairement, la question de la concurrence va se poser entre des producteurs de contenus qui sont, qui ont des accords avec Netflix et ceux qui ne l'ont pas. Et aussi avec des producteurs de contenus culturels de l'industrie française par exemple qui peut se retrouver lésée. Et là, c'est un problème de concurrence et de position dominante et le ministère de la culture aussi à ma connaissance s'intéresse également à ces questions.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, c'est intéressant cet exemple de Netflix parce que effectivement... Par ailleurs, on peut aussi imaginer que puisque tous ces algorithmes sont biaisés et qu'il y a une intentionnalité derrière, dans ces biais, on peut imaginer que l'algorithme de Netflix privilégie les productions internes de Netflix et pas le contenu qui a été racheté à d'autres sociétés de production qui sont hébergées seulement sur la plate-forme pour prévilégier le contenu interne et dire «Et bien vous voyez, les produits Netflix fonctionnent mieux que les produits un tel de FOX ou un air peu importe».<br />
<br />
<b>Nozha Boujemaa : </b>Et ce n'est pas forcément une personnalisation pour le consommateur je rappelle. <br />
<br />
<b>Nicolas Martin : </b>Bien sûr.<br />
<br />
<b>Frédéric Bardolle : </b>Et...<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Et comme on n'a aucune transparence sur qu'est-ce qu'on essaie d'optimiser avec cet algorithme, finalement on ne le saura jamais. Et c'est un gros problème. Et pour montrer l'ampleur un peu de la chose, il faut savoir que 70 % à 80 % du contenu sur Netflix provient de recommandations. Donc ce n'est pas quelque chose qui se fait à la marge. C'est que les gens consomment ce qu'on leur recommande en fait. C'est vraiment quelque chose qui est phénoménal et sur toutes les plates-formes c'est la même chose.<br />
<br />
<b>Nicolas Martin : </b>Parce que par ailleurs sur Netflix, la plate-forme est une gigantesque plate-forme de recommandations. C'est-à-dire que la plate-forme n'est pas présentée par ordre alphabétique par exemple ou par ordre de nouveautés ou très très peu. Elle n'est que...<br />
<br />
<b>Nozha Boujemaa : </b> Elle va le rajouter, elle est là.<br />
<br />
<b>Nicolas Martin : </b>Voilà. Ce qui est intéressant alors. On entendait dans la reportage quelque chose sur laquelle j'aimerais vous faire réagir. On va parler évidemment surtout dans la deuxième partie, de cette notion de serment d'Hippocrate : À il s'addresse, de son côté un peu finaliste c'est-à-dire de dire que le serment est signé finalement par les <em>data scientists</em>, par les scientifiques de données. Et pourquoi est-ce que ce serait les individus qui doivent s'engager et non pas les plate-formes ? C'est une question qui me semble importante à traiter. Mais avant cela, j'aimerais poser une question autour de cette notion d'interprétabilité. Puisqu'on voit bien que... Prenons cet exemple de Netflix qui est assez bon. Aujourd'hui Netflix signerait un accord, un serment, peu importe qui donne accès, qui permet de lire ses algorithmes. Aujourd'hui pour tout un chacun, pour nous citoyens en bout de chaîne, pour les consommateurs : c'est strictement illisible. C'est-à-dire qu'on a pas accès à la compréhension de ce qui va permettre de régir cet algorithme et d'ailleurs si nous n'y avons pas intérêt, évidemment la plate-forme elle-même a encore moins intérêt à donner ces informations-là. Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui alors effectivement, c'est là où il y a un effort international sur «Faut-il réguler, comment réguler ?» etc etc au-delà des chartes d'engagements individuelles. L'idée c'est aussi... Alors tout dépend si c'est du... J'allais dire du soft (rires). Si c'est du...<br />
<br />
<b>Nicolas Martin : </b>Logiciel ?<br />
<br />
<b>Nozha Boujemaa : </b>Non non. De la réglementation dure ou un peu plus légère mais en tout cas amener les producteurs de service à rendre compte. Parce qu'en fait, celui qui fait le service, on peut en fait et là je mentionne les efforts faits au niveau de la Commission européenne mais aussi au niveau de l'OCDE qui réfléchissent très très sérieusement par rapport à toutes ces questions parce qu'il y a une prise de conscience aujourd'hui internationale. Je ne dis pas que les solutions existent. Mais la prise de conscience et la nécessité, l'urgence d'agir : elle est là. Du coup, typiquement sur l'intelligibilité... Je ne parle pas d'explicabilité parce que des fois, on a peut-être pas besoin et peut-être pas les moyens techniques de l'explicabilité mais par contre, la traçabilité du pourquoi on a eu ce résultat du genre «tel produit ou tel contenu est recommandé pour vous». On aimerait bien avoir une sorte de tableau de bord qui va nous dire «Voilà les critères en pourcentage qui»...<br />
<br />
<b>Nicolas Martin : </b> «Vous avez fait tel choix, tel choix, tel choix donc le logiciel infère que vous allez aimer tel chose».<br />
<br />
<b>Nohza Boujemaa : </b>Les producteurs des services en fait par régulation, on pourrait les amener à apporter et justement en apportant ces critères-là, on respecte le libre arbitre du consommateur quand même. Parce que la, on clique sur ce qui est proposé mais est-ce qu'il est vraiment conscient de sur quoi... Enfin... C'est quand même léger aujourd'hui donc il y a cette notion de respect du libre arbitre via une règlementation dans ce sens-là. <br />
<br />
<b>Nicolas Martin : </b>Je vais prendre un exemple volontairement un chouia provocateur dans l'état actuel des choses mais encore une fois la transparence n'implique pas compréhension si on prend une plate-forme de Parcoursup dont l'algorithme a été rendu public par l'éducation nationale. Ce qui n'empêche pas personne de ne comprendre à aucun moment, les choix et les orientations que cet algorithme fait pour les étudiants qui veulent être inscrits dans les universités dont ils font fait le choix. Fait la demande pardon. <br />
<br />
<b>Frédéric Bardolle : </b>La complexité supérieure qui a en plus sur Parcoursup, c'est que il y a une partie du code qui est quand même caché. Le code qui est utilisé par les universités, celui-là, «la cuisine interne» comme ils appellent ça.<br />
<br />
<b>Nicolas Martin : </b>La sélection en bout de chaîne.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Celle-là, il y a toujours une demande, une requête qui a été faite à la Commission d'Accès aux Documents Administratifs, la CADA, qui est en cours mais qui n'a pas abouti à l'heure actuelle et ce code n'est pas rendu public. Donc, il manque quand même un bout de la chaîne. Pour revenir sur cette question d'auditabilité des algorithmes, nous quand on a essayé d'auditer l'algorithme de YouTube c'est un peu ce qu'on a fait avec <em>AlgoTransparency</em>, on s'est rendu compte de la complexité qu'il y avait. C'est-à dire que d'une : Tous les jours, l'algorithme change. Comme des gens regardent des vidéos, en fait ça fait changer l'algorithme. Donc finalement, quelle est la vraie version ? C'est compliqué à dire. <br />
<br />
<b>Nohza Boujemaa : </b>Les algorithmes et les corpus.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà.<br />
<br />
<b>Nohza Boujemaa : </b>Les corpus aussi. <br />
<br />
<b>Frédéric Bardolle : </b>Tout change au fur et à mesure. Et puis c'est d'une telle complexité. Si on a des réseaux de neurones, ça va être aussi dur par exemple de dire «On a regardé cette vidéo parce que il y a une personne qui a regardé ça». Des critères il peut y en avoir des millions et des millions donc on ne va pas forcément s'y retrouver. Et finalement, c'est un peu comme quand on regarde les émissions de particules fines d'une voiture je trouve. C'est-à-dire que finalement peu importe ce qui se passe dans la cuisine interne du moteur, ce qu'on va regarder à la fin c'est «Est-ce que il y a des particules qui sont émises ?» et c'est ça qui nous intéresse. Mais, ça c'est pas disponible à la hauteur, on n'a pas de mécanisme qui nous permet de nous connecter directement à une plate-forme et de savoir «Bah tiens si on fait telle chose, on aura telle chose de recommandé» et puis en plus on se dit «Si jamais ça ça existe, il va y avoir des trucages» comme il y a eu sur les voitures notamment quand on est arrêté, tout se passe bien et puis quand on roule en conditions réelles, ça ne marche plus du tout. C'est pas évident comme question.<br />
<br />
<b>Pause musicale : </b> <em>Algorithms</em> par <em>School is Cool</em><br />
<br />
<b>Nicolas Martin : </b><em>Algorithms</em> de <em>School is Cool</em> puisque c'est ce dont il est vaguement question au cours de cette heure puisque nous parlons d'éthique numérique et d'éthique en science des données et évidemment bien des algorithmes qui sont au centre de ces questions d'éthique, de leurs transparences, de leurs auditabilités et puis surtout de ce qu'il va se passer dans le futur. À partir d'aujourd'hui, avec les scientifiques qui sont formés aujourd'hui. Ces scientifiques doivent-ils être tenus, doivent-ils s'engager sur une sorte de charte de bonne conduite piur éviter, bien pour éviter toute sorte de dérives que l'on peut constater d'ores et déjà aujourd'hui. Nous en parlons avec Nohza Boujemaa qui est directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et avec Frédéric Bardolle qui est membre de l'association <em>Data for Good</em> qui a réalisé une plate-forme <em>AlgoTransparency</em> à propos de l'algorithme de YouTube à propos de laquelle on a entendu un reportage tout à l'heure. Mais comme tous les mercredis, aux alentours de cette heure à quelques minutes près, il est l'heure d'écouter la voix du futur de la recherche.<br />
<br />
[Jingle] <br />
<br />
<b>Nicolas Martin : </b>Et aujourd'hui, le futur de la recherche s'appelle Jérémie Poiroux. Bonjour Jérémie Poiroux.<br />
<br />
<b>Jérémie Poiroux : </b>Bonjour à tous, bonjour.<br />
<br />
<b>Nicolas Martin : </b>Bonjour. Vous êtes avec nous en ligne puisque vous suivez vos études au centre Marc Bloch à Berlin en partenariat avec le CNRS. Vous êtes en première année de thèse en sociologie dans le cadre du projet ANR <em>Algodiv</em>. Je crois que vous êtes présentement en Pologne. Le titre de votre thèse c'est «La fabrique des algorithmes de recommandation et de management» sous le prisme de leur conception et de leur impact au sein des organisations. Voilà, je vais vous laisser quelques minutes pour nous présenter vos travaux. C'est à vous.<br />
<br />
<b>Jérémie Poiroux : </b>Et bien merci beaucoup pour cette présentation très précise et avec beaucoup de pression sur le futur de sa recherche.<br />
<br />
<em>Rires</em><br />
<br />
<b>Jérémie Poiroux : </b>Donc c'est une thèse... Voilà,qui est sous la direction de Camille Roth. Donc là, j'étais en effet en Pologne mais là je suis de retour à Berlin donc pour continuer cette étude sur la fabrique des algorithmes de recommandation et de management. Alors c'est vrai pour prendre un peu le contre-pied de ce qui se fait en ce moment, il y a une littérature qui est assez limitée sur la fabrique. On parle pas mal de transparence, d'ouvrir la boîte noire, on a eu pas mal les débats aussi juste avant la pause musicale. Et quelque chose qui ne se fait pas beaucoup voilà c'est : Comment ils sont fabriqués ? Donc mon premier terrain c'est : les algorithmes de recommandation donc c'est des petits programmes... Peut-être que je dis des choses qui ont déjà été dites quelques minutes avant. Qui vont vous inviter voire vous inciter à consommer un contenu ou un produit. Donc, Ça peut être un film sur Netflix, on en reparle. Une chambre sur Airbnb ou un article sur le site d'un média. Vous me direz qu'en soi, recommander une saccoche quand j'achète un appareil photo ou un hôtel quand je vais passer une semaine en Grèce : c'est un peu de bonne guerre. Mais on peut plus se poser des questions quand il va s'agir de recommander du contenu culturel ou d'intérêt général car ils pourraient nous enfermer... Alors là je dis attention car il y a un «point Al Godwin» parce que on parle beaucoup de bulles filtrantes qui pourraient nous empêcher de voir plus loin que le bout de notre zone de confort. Je m'arrête ici sur les impacts car vous allez en parler, vous en avez beaucoup parlé. Donc en fait, je m'intéresse plutôt comme je le disais à la fabrique. Vous vous êtes déjà demandé, on va reprendre l'exemple de YouTube : Pourquoi il vont recommander (l'algorithme de YouTube, à droite ou sur la page d'accueil) cette vidéo de chatons ou la vidéo de terre plate ? Et donc, dans mon étude préparatoire que j'ai fait et que je suis entrain de terminer, qui lance la thèse, j'ai mené des entretiens avec plusieurs dizaines d'ingénieurs qui programment des algorithmes de recommandations pour des médias, pour des sites de <em>E-commerce</em>, pour des plates-formes de <em>streaming</em> pour mieux comprendre en fait d'où vient l'algorithme. L'objectif dans ma thèse, c'est de mettre en valeur les intentions, les pourquoi, les comment qui se cachent derrière les algos, les choix <em>business</em> ou encore les biais qui sont directement implémentés de manière consciente ou non dans la machine. Donc si on en revient à l'exemple de YouTube, c'est aller étudier : Pourquoi ils vous recommandent cette vidéo de terre plate alors que vous n'aviez rien demandé ? Alors c'est un peu dévoiler en quoi rien n'est laissé au hasard dans le monde merveilleux des algorithmes et puis de dévoiler un peu la face cachée de leurs impacts. Donc, je vais aller dans les entreprises, je vais faire de l'immersion, je vais observer la conception et le développement directement d'algorithmes. Qui fait quoi, d'où vient l'idée de base, quelles sont les contraintes, quelles sont les méthodes utilisées ou encore la conscience qu'on a dans les entreprises des impacts des algorithmes qu'ils ont conçus. Mais le bonheur ne s'arrête pas là et donc là c'est un peu la transition brute pour passer à l'autre temps de mon sujet qui est : l'utilisation des algorithmes qui de plus importante au sein même des entreprises. On voit depuis des années, des dizaines d'années, des robots remplacer les humains pour faire. Donc c'est sur les chaînes de production, dans les usines, dans les entrepôts pour préparer les commandes donc Amazon par exemple. Demain, les algorithmes ils vont être présents donc encore pour faire mais aussi pour organiser et <em>manager</em> le travail. Donc ça, c'est une grosse différence. C'est d'ailleurs déjà le cas avec Uber où les chauffeurs répondent aux ordres d'algorithmes qui sont <em>managers</em>. Pour se placer dans telle ou telle zone parce qu'il y a plus de personnes ou pour travailler sur telle ou telle plage horaire parce que Uber manque de chauffeurs à telle ou telle plage horaire. Donc à terme, Les algorithmes on peut dire, vont analyser les données de production, de ventes et de productivité pour prendre des décisions ou pour aider à la prise de décisions qui (ces décisions) auront un impact direct sur les travailleurs de l'organisation. Donc c'est une nouvelle pratique managériale on peut appeler ça comme ça, qui pose des questions de productivité et de conditions de travail évidemment. Et qui m'amènera à comparer les bureaucraties traditionnelles et les bureaucraties algorithmiques. Donc les questions éthiques, elles sont évidemment présentes dans les deux pans de la thèse. Par exemple : Que fait un ingénieur devant une demande d'un PDG et cette demande, cet ingénieur il la juge contraire à son éthique ? Ou que fait un manager qui soit invité par un algorithme de prendre une décision qu'il juge dangereuse pour son équipe ? Voilà, donc si vous êtes intéressé par les recherches et puis je fais un petit appel aussi à des entreprises qui peuvent m'accueillir pour cette immersion, n'hésitez pas à me contacter. Et puis je vous remercie pour votre écoute et finit mes quatre minutes de <em>futur de la recherche</em>. Et merci pour votre invitation Eve et Nicolas.<br />
<br />
==42'54==<br />
<b>Nicolas Martin : </b>Merci, merci beaucoup Jérémie. On va vous garder un instant en ligne si vous voulez bien parce que j'aimerais que vous interveniez et que vous réagissiez un peu à ce qui va se dire en studio. Je vais demander une réaction et puis félicitations pour le «point Al Godwin» qu'on a beaucoup aimé. Une réaction Nozha Boujemaa ? Je vous voyais approuver aux présentations des travaux de Jérémy Poiroux.<br />
<br />
<b>Nozha Boujemaa : </b>Alors effectivement, la recherche elle a un rôle très important à jouer. Ce dont on n'a pas encore bien appuyé, l'idée au-delà de l'auditabilité et du contrôle et de la transparence des algorithmes existants, c'est vraiment essentiel d'avoir une formation justement des étudiants à la réutilisation des briques, logiciels <em>Open source</em>, sur les fuites informationnelles mais surtout en fait c'est avoir en fait de nouveaux modèles mathématiques d'apprentissage qui puissent identifier des variables discriminatoires pour réduire leurs impacts sur les prises de décisions. Donc là, c'est vraiment d'un point de vue recherches. «Coeur d'IA», c'est-à-dire que au-delà des algorithmes existants, faire de nouveaux modèles qui incorporent ces idées : égalité et équité par construction dans le modèle mathéthique lui-même. Chose qui existe très rarement.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, un mot.<br />
<br />
<b>Frédéric Bardolle : </b>Moi j'ai juste une crainte c'est que même si on développe des nouveaux modèles aussi performants qui soient, on va pas réussir à résoudre le cœur du problème qui est que les plates-formes font ça enfin... On va seulement parler des recommandation de contenus par exemple avec un <em>business model</em> basé sur la publicité. Le but c'est d'avoir l'attention des personnes. Pour avoir cette attention, l'idéal c'est de proposer un contenu qui fasse les gens et le problème c'est que le contenu qui fait rester les gens, c'est des contenus extrémistes, voilà... Des contenus terroristes, des contenus conspirationnistes, ainsi de suite. <br />
<br />
<b>Nicolas Martin : </b>Oui dans le pire des cas, sur YouTube etc. Sur des sites de vente, on a peu de ventes de sacs à main terroristes.<br />
<br />
<b>Frédéric Bardolle : </b> Non non, je parlais juste des <em>business models</em>, quand le <em>business model</em> c'est de capturer l'attention des personnes et leur diffuser des contenus. Le problème c'est que ces contenus vont toujours gagner par rapport aux autres. Donc à part si on trouve des moyens de changer ce modèle-là, un algorithme qui recommande un contenu extrême : c'est un algorithme qui fonctionne bien en fait. C'est un algorithme qui fait exactement ce pourquoi il a été conçu c'est-à-dire : faire rester la personne sur la plate-forme. Lui, a rempli son travail en fait. Donc, l'algorithme fonctionne déjà plutôt bien.<br />
des <br />
<br />
<b>Nozha Boujemaa : </b>Je pense qu'il faut régir les cas d'usage au-delà de ces modèles-là. Par exemple, sur la variabilité des prix. Ce qui est autre chose. Quand on va sur des plates-formes pour réserver des nuits d'hôtel ou bien des billets d'avion ou de train, là il ne s'agit pas de l'attention là, là c'est un autre <em>business model</em>. Et là, on peut se retrouver dans des situations de discrimination justement quand on passe à l'acte d'achat, qu'on fait rentrer des données personnelles, on peut voir des variations de prix qui vont être dépendantes. On ne va pas avoir le même prix pour toutes les personnes. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>Aïe.<br />
<br />
<b>Nohza Boujemaa : </b>Donc c'est pour ça que à un moment donné, il faut voir vraiment une vue un peu plus...<br />
<br />
<b>Nicolas Martin : </b>En fonction de ? En fonction de la localisation géographique ? En fonction de ?<br />
<br />
<b>Nohza Boujemaa : </b>Ça peut être la localisation, origine, etc. Il y a certains formulaires qui demandent des questions...<br />
<br />
<b>Nicolas Martin : </b>Quand je rentre mes coordonnées de carte bleue pour acheter un billet d'avion, je ne donne pas accès à mon origine ethnique par exemple ?<br />
<br />
<b>Nohza Boujemaa : </b>Sur certains sites , enfin sur certains sites de services... Aujourd'hui c'est ça le problème : c'est que les services ne connaissent pas les frontières. Et donc on est amenés à réppndre à des questionnaires traduits qui sont faits par des firmes qui ne spécialement ou particulièrement françaises. D'accord ? Donc on peut se retrouver entrain de répondre avec des informations assez intrusives d'un point de vue données personnelles. Et là, on peut constater des variations de prix. Et d'ailleurs, dans ce cadre-là, par exemple, la DGCCRF qui est une autorité de régulation se pose vraiment la question.<br />
<br />
<b>Nicolas Martin : </b>Direction générale de la Concurrence, de la Consommation et de la Répression des fraudes.<br />
<br />
<b>Nohza Boujemaa : </b>Voilà et qui a envie d'ailleurs de lancer des sujets de recherche pour faire la part des choses. Parce que tout n'est pas condamnable. Le <em>lean management</em>, c'est légal. Par contre, faire une variabilité des prix qui est finalement une discrimination sur des raisons non avouées : ça c'est pas légal.<br />
<br />
==47'08==<br />
<b>Nicolas Martin : </b>J'aimerais qu'on revienne pour conclure dans le dernier quart d'heure qui nous reste sur cette notion de serment. Alors, il y a ce serment d'Hippocrate qu'on évoquait tout à l'heure via <em>Data for Good</em> et <em>AlgoTransparency</em>. Il y a un autre serment qui est le serment Holberton-Turing qui est une autre charte qui propose, en fait une forme de charte de bonne conduite. Ma première question, c'est ce lien avec Hippocrate. Le serment d'Hippocrate c'est le serment donc, qui est prêté par les médecins qui s'engagent. Je l'ai sous les yeux, je ne vais pas vous le redire mais bon : consacrer sa vie à sauver l'humanité, à sauver les vies, à ne pas discriminer en fonction de l'âge, de l'origine ethnique etc etc. Est-ce que c'est bien judicieux de mettre au même plan le serment qui est prêté par les médecins qui ont entre les mains des vies humaines et aujourd'hui, celui que l'on souhaite faire signer aux <em>data scientists</em> dans le monde numérique selon vous Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Alors on a choisi ce nom-là principalement parce que déjà ça résonnait avec les gens. Quand on parle de serment d'Hippocrate, n'importe qui voit de quoi il s'agit. Donc, c'est assez facile d'en parler. Et ce dont on s'est aperçu, c'est que finalement les gens qui créent ces services de science de données vont toucher énormément de personnes. Donc, ils ont un pouvoir individuel qui est donc finalement assez grand donc c'est pour ça qu'on a proposé ce serment qui nous semble important. C'est-à-dire qu'une petite équipe peut toucher un très très grand nombre de personnes. Donc c'est pour ça qu'on considère qu'il y a une responsabilité aussi individuelle à avoir et c'est pour ça qu'on s'est permis d'emprunter le nom d'Hippocrate.<br />
<br />
<b>Nicolas Martin : </b>Un mot à ce propos Jérémie Poiroux ? Un serment d'Hippocrate pour les <em>data scientists</em>, ça vous semble être aujourd'hui une démarche qui va dans le bon sens ou en tout cas une forme de responsabilisation des futurs ou des actuels <data scientists</em> dans le travail qui peuvent faire vis à vis des tiens comme ça peut être le cas dans vos prochains travaux, dans vos prochaines affectations?<br />
<br />
<b>Jérémie Poiroux : </b>Oui. Alors j'aimerais faire le parallèle avec ce qui s'est dit lors d'une conférence que j'ai organisée donc en début de semaine dernière <em>ethics by design</em>. On parle justement de l'éthique des <em>designers</em>. Les <em>designers</em>, le parallèle est assez fort parce que les <em>designers</em> notamment sur les questions d'attention, ils ont un pouvoir qui est assez fort. On peut dire exactement la même phrase. C'est quelques <em>designers</em> par exemple de chez Facebook, de chez Google donc c'est pas les <em>data scientists</em> mais c'est les personnes qui vont mettre en valeur visuellement les contenus pour que ça soit attractif, pour qu'on ait envie de cliquer dessus, pour qu'on ait d'acheter des fois. Et puis donc ces personnes, on se demandait aussi «Est-ce que il faut un serment d' Hippocrate pour cette profession?». Et donc la réponse qui était apportée... C'était un débat où il y avait «oui, non». Et je pense que je vais refaire la même pour celle des <em>data scientists</em>. C'est que oui c'est important d'avoir une... On va dire quelque de chose de... Plutôt un manifeste en fait qu'une charte qui serait là et à qui on pourrait se référer. Ce serait une éthique commune plutôt que qu'une éthique personnelle. Et après il y a aussi le pendant un peu contre où j'ai rejoint un peu plus on va dire. En l'état, c'est pas pour tout de suite. Parce que avoir un serment d'Hippocrate, ça veut aussi dire avoir des barrières à l'entrée d'un métier par exemple. C'est-à-dire que le métier de <em>data scientist</em>, tout le monde pourra pas dire <em>data scientist</em>. Ça sera une étiquette, il faudra passer par des concours, il y en a qui n'y seront pas. Et donc c'est toute une réflexion en fait, c'est toute une nouvelle façon d'appréhender la <em>data science</em> ou d'appréhender le <em>design</em>. D'avoir en fait des personnes qui suivent tout un processus et qui après sont on va dire «estampillées» <em>designers</em> ou <em>data scientists</em> et qui respectent une certaine charte. <br />
<br />
<b>Nicolas Martin : </b>Nohza Boujemaa, sur ce sujet. <br />
<br />
<b>Nohza Boujemaa : </b>Oui. Je pense que effectivement c'est une bonne action, une très bonne intention aussi pour sensibiliser les individus. Mais très clairement, c'est insuffisant. C'est-à-dire qu'il faut avoir l'engagement des entreprises. C'est la réalité. Et avoir des efforts en parallèle parce que très clairement, un employé d'une entreprise il peut être convaincu mais c'est je dirais... C'est l'entreprise et c'est la responsabilité de l'entreprise qui est engagée pas sa responsabilité personnelle. Mais ceci dit, c'est important d'avoir cette sensibilisation individuelle mais il ne faut pas s'arrêter là. Donc, l'effort qui est entrain d'être fait dans énormément d'endroits au niveau international, c'est d'impliquer vraiment d'impliquer les industriels de tout horizon. Parce que maintenant, ils comprennent que la question de la confiance : c'est une question là où ils peuvent perdre du marché. Et que la confiance, c'est un élément de compétitivité. Et du coup,ça génère une adhésion à ces questions d'IA responsable et ces questions de responsabilité. Donc il faudrait pouvoir joindre les deux bouts et pas seulement focaliser sur juste un aspect mais il faudrait aussi les deux bouts de la chaîne.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, cette question là effectivement de faire reposer le serment d'Hippocrate sur les individus en formation c'est-à-dire sur les <em>data scientists</em> plutôt qu'une sorte de charte de bonne conduite au niveau international, au niveau pourquoi pas européen pour commencer et puis ensuite avec la volonté de l'élargir parce que la question qui se pose entre les individus qui vont être à un moment donné pris dans une chaîne de production et effectivement le poids peut faire poser les responsables de cette chaîne de production. Donc, l'entreprise. Le poids est assez écrasant, je veux dire qu'on ne lutte pas à armes égales. <br />
<br />
<b>Frédéric Bardolle : </b>Alors effectivement non, on n'a pas fait ce projet pour dire «le fun de le faire en entreprise» (???), ça ne sert à rien. C'était un premier pas. C'était pour agir rapidement en fait. Proposer quelque chose rapidement aux personnes. Parce que on s'est rendus compte qu'il y avait un besoin et du coup on va notamment le proposer dans les écoles et dans les entreprises. Après, il faut voir que certaines entreprises notamment américaines comme Google, ont fait des serments d'éthique pour l'IA. On dit «Bah non, on refuse de travailler par exemple sur certains projets militaires, on refuse de faire ça, ça, ça». <br />
<br />
<b>Nicolas Martin : </b>Récemment. <br />
<br />
<b>Frédéric Bardolle : </b>Récemment. Et ça engage... <br />
<br />
<b>Nozha Boujemaa : </b>Parce qu'ils ont compris l'importance de la confiance. <br />
<br />
<b>Frédéric Bardolle : </b>Ça engage que ceux qui y croient. Et je pense que là où je vous rejoins sur l'importance de la confiance, c'est que je suis persuadé qu'en Europe, la carte qu'on a jouée sur le numérique et notre caractère distinctif par rapport aux États-Unis et par rapport à la Chine,ça va être justement sur ça : sur créer des entreprises qui utilisent l'IA mais de manière éthique. Et un exemple très concret pour ça c'est <em>Snips</em>. C'est une entreprise qui fait un assistant vocal dans lequel il n'y a aucune donnée qui est envoyée sur internet, les données restent chez vous. C'est pas comme si vous aviez un micro qui enregistre en permanence tout ce qui se dit chez vous. Donc voilà, je pense qu'on peut faire la différence avec ce genre d'entreprises et l'éthique n'est pas incompatible avec le commerce qui fonctionne.<br />
<br />
<b>Nohza Boujemaa : </b>Il y a effectivement, je rajoute tout ce qui est <em>personal informations management system</em>. C'est tout ce qui est modèle de protection des données personnelles de manière distribuée, qui ne quitte pas votre ordinateur. Et donc, il y a énormément de choses qui restent à faire mais je voulais quand même mentionner que au niveau de la commission européenne, il y a un <em>high-level expert group</em>...<br />
<br />
<b>Nicolas Martin : </b>Un groupe de haute expertise, à haut niveau d'expertise.<br />
<br />
<b>Nozha Boujemaa : </b>En IA. Qui est constitué par la commission européenne. Pour pouvoir apporter des recommandations à la fois éthiques mais aussi de régulation et également d'investissement en recherche et développement. Et la pièce maîtresse c'est : comment faire de l'IA la plaque tournante d'une IA nouvelle et différente de ce qui est proposé dans le reste du monde? Et l'éthique et la responsabilité de l'IA en fait une pièce maîtresse.<br />
<br />
==54'43==<br />
<b>Nicolas Martin : </b>J'ai une question peut-être très naïve ou béotien, Jérémie Poiroux je vais vous la poser en premier lieu. Est-ce que aujourd'hui ces questionnements éthiques qui sont les nôtres autour de cette table qui sont manifestement partagés par un certain nombre d'acteurs européens, ils ont un sens au niveau international notamment avec votre regard quand on commence une carrière dans ce métier-là ? On sait qu'il y a des pays avec des pratiques qui sont plus dans l'incrémentation en puissance plutôt que la limitation éthique pour le résumer à grands traits.<br />
<br />
<b>Jérémie Poiroux : </b>Oui c'est... Disons que la question de l'éthique et du business, elle est clairement pas nouvelle. Donc en Europe, on a on peut dire une longueur d'avance là-dessus et je pense que la réponse simple c'est très clairememnt dans d'autres pays et on pensent très facilement aux États-Unis. Il n'y a pas cette notion, il n'y a pas cette culture. <br />
<br />
<b>Nicolas Martin : </b>Ou à l'Asie oui. On pensaient plutôt à la Chine ici personnellement, on avaient plutôt la Chine en tête en fait. Mais pourquoi pas les États-Unis oui. <br />
<br />
<b>Jérémie Poiroux : </b>Ah oui bah... Encore mieux parce que comme ça vous pourriez faire un tour du monde ensuite sur la Chine. Non je pense que déjà sur une question d'éthique avec les États-Unis, on est vraiment différents. On n'a pas cette même approche de l'implémentation de l'éthique dans le numérique, du code, de développer et de programmer directement dur l'éthique dans les programmes et d'avoir plutôt cette notion du buisiness. On le voit avec le RGPD par exemple, je pense que c'est un premier... Une première chose, un écho en fait qui n'est pas tout à fait sur le même temps mais en <em>privacy by design</em>, on voit que l'Europe est en avance et que toute cette réflexion elle est aussi en avance par rapport aux États-Unis. Je vous laisse le côté Chine.<br />
<br />
<b>Nicolas Martin : </b>On va voir pas forcément le côté Chine, le côté international. C'est une bonne chose évidemment que l'Europe soit en avance sur les questions éthiques mais est-ce que ce n'est pas aussi un frein au développement <em>stricto sensu</em> technologique Frédéric Bardolle ?<br />
<br />
<b>Frédéric Bardolle : </b>Alors c'est peut-être un frein dans un premier temps effectivement. Quand on étaient techno-optimistes et que tout se passait bien effectivement c'était embêtant de se poser des questions sur la <em>privacy</em> mais maintenant, quand on voit toutes les fuites de données, il n'y a pas une semaine qui passe sans qu'il y ait une fuite de données chez un GAFA et ainsi de suite.<br />
<br />
<b>Nicolas Martin : </b>Récemment, 50 millions de comptes piratés chez Facebook. <br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Et la même semaine, Facebook sort une espèce de caméra qu'on met chez soi et ce qu'ils appellent le <em>privacy by design</em>, c'est une espèce de petit cache en plastique qu'on met pour cacher la caméra. Pour eux c'est ça la <em>privacy</em>. Donc effectivement, à un moment donné ça a pu être un frein mais sur le long terme, on sera à mon avis clairement les gagnants de ce jeu. <br />
<br />
<b>Nohza Boujemaa : </b>Je crois que...<br />
<br />
<b>Nicolas Martin : </b>Un dernier mot de conclusion.<br />
<br />
<b>Nohza Boujemaa : </b>Oui. Effectivement ça c'est très important et en tout cas, l'Europe et la commission européenne, ils ont compris. On a été hier en Finlande en réunion avec la commission européenne et avec les représentants des différents états membres sur le numérique et l'IA. Très clairement, c'est identifié. Maintenant, il y a des acteurs américains qui ont compris que pour avoir du marché sur le terrain européen, il va falloir qu'ils soient conformes justement à ces règles à la fois éthiques et de responsabilité d'IA. <br />
<br />
<b>Nicolas Martin : </b>Merci beaucoup, merci ça sera le mot de la fin. Merci beaucoup à tous les trois. Merci Nohza Boujemaa, merci Frédéric Bardolle, merci Jérémie Poiroux qui était en direct au téléphone depuis Berlin. Merci à tous d'être venus participer et discuter autour de ces questions d'éthique numérique à ce micro. Je vous rappelle que comme tous les mercredis, c'est le jour de la sortie des <em>idées claires</em>. En <em>podcast</em> mais également en vidéo sur vos réseaux sociaux favoris. Une petite vidéo qui s'attaque aux idées reçues, aux idées complotistes, aux distorsions de l'information. Aujourd'hui la question que nous posons dans <em>les idées claires</em> et vous pouvez aller voir ça sur le Facebook notamment ou le Twitter de France Culture et de Franceinfo puisque c'est en partenariat entre les deux chaînes. La question que nous posons qui est une question qui vous allez voir est assez simple, assez fraîche, qui ne répond pas, qui ne demande pas énormément de commentaires ou de réflexion : Existe t-il un racisme antiblanc ? Les commentaires sont assez croquignolets. Merci à toute l'équipe de <em>La méthode scientifique</em>, c'était aujourd'hui Alice Seyed à la technique. Dans le prochain épisode de <em>La méthode scientifique</em>, nous parlerons des revues payantes à comités de lecture. Des revues de plus en plus contestées, de plus en plus piratées et de plus en plus dénoncées. Et si l'heure était à l'<em>Open access</em> ? On en parle demain de cette recherche en accès libre à 16 heures jusqu'à preuve du contraire.</div>D Ohttps://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_3_septembre_2019&diff=85639Libre à vous ! Radio Cause Commune - Transcription de l'émission du 3 septembre 20192019-09-05T22:05:03Z<p>D O : rajout d'un k au lieu du c à Luk</p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 3 septembre 2019 sur radio Cause Commune<br />
<br />
'''Intervenants :''' Luk - Stéphane Dumond - Xavier Berne - Frédéric Couchet - Patrick Creusot à la régie<br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 3 septembre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190903/libre-a-vous-20190903.ogg Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-3-septembre-2019-sur-radio-cause-commune Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenants mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
Transcription : MO<br />
<br />
==Transcription==<br />
<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 FM en Île-de-France et partout dans le monde sur le site causecommune.fm. Je vous remercie d’être avec nous pour cette nouvelle émission de <em>Libre à vous !</em>, l’émission de l’April sur les libertés informatiques.<br><br />
La radio dispose d’un webchat, utilisez votre navigateur web, rendez-vous sur le site de la radio, causecommune.fm, cliquez sur « chat » et vous pouvez nous retrouver sur le salon web dédié à l’émission.<br/><br />
Nous sommes mardi 3 septembre 2019, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast. Je précise aussi que la radio dispose d’une application Cause Commune.<br/><br />
Soyez les bienvenus pour cette nouvelle édition de <em>Libre à vous !</em>, la troisième saison, <em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.<br/><br />
Le site web de l’association est april.org et vous pouvez y trouver une page consacrée à cette émission avec tous les liens et références utiles, les détails sur les pauses musicales et toute autre information utile en complément de l’émission et également les moyens de nous contacter, donc n’hésitez pas à nous faire des retours pour nous indiquer ce qui vous a plu mais également des points d’amélioration.<br/><br />
Nous espérons que vous avez passé un bel été. Nous sommes ravis, vraiment enchantés de vous retrouver et si vous découvrez l’émission avec cette saison 3 nous espérons que vous l’apprécierez.<br/><br />
Vous pouvez retrouver les podcasts des émissions passées sur le site de la radio, causecommune.fm, et sur le site de l’April, april.org.<br/><br />
Nous vous souhaitons une excellente écoute.<br />
<br />
Nous allons commencer par le programme de l’émission.<br/><br />
Nous commencerons par des annonces de rentrée avec notamment des nouveautés concernant cette nouvelle saison de <em>Libre à vous !</em> et par la première chronique de Luk qui sera intitulée « La pituite de Luk » ; un peu de mystère !<br/><br />
D’ici 10 à 15 minutes nous aborderons notre sujet principal et nous avons l’honneur de recevoir la Gendarmerie nationale, l’occasion d’avoir son retour d’expérience sur une migration à grande échelle vers le logiciel libre, de la bureautique au système d’exploitation.<br/><br />
En fin d’émission nous aurons la chronique de Xavier Berne, journaliste à Next INpact.<br/><br />
À la réalisation de l’émission aujourd’hui Patrick Creusot. Bonjour Patrick.<br />
<br />
<b>Patrick Creusot : </b>Bonjour tout le monde et bonne émission.<br />
<br />
<b>Frédéric Couchet : </b>Merci Patrick.<br/><br />
Comme à chaque émission nous allons vous proposer un petit quiz. Je vous donnerai les réponses au cours de l’émission. Vous pouvez nous proposer les réponses sur le salon web de la radio, donc sur causecommune.fm, ou via les réseaux sociaux.<br/><br />
Première question : quel projet libre a fêté ses 15 ans cet été, particulièrement le 10 août ? On a déjà parlé de ce projet dans <em>Libre à vous ! </em><br/><br />
Deuxième question : quel est le nom de la version d’Ubuntu adaptée pour être utilisée par la Gendarmerie nationale française ? Évidemment notre intervenant vous donnera tout à l’heure la réponse dans la discussion.<br/><br />
Tout de suite place au premier sujet.<br />
<br />
[Virgule musicale]<br />
<br />
==3’ 01 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190903/libre-a-vous-20190903-nouveautes-de-la-saison-3.ogg Annonces de rentrée]3 min 43== <br />
<br />
<b>Frédéric Couchet : </b>Nous allons commencer par des annonces de rentrée concernant la nouvelle saison de <em>Libre à vous </em>! et ensuite par la première chronique de Luk intitulée « La pituite de Luk ». On va commencer par accueillir les personnes qui découvrent l’émission ; c’est une nouvelle saison donc forcément nous avons de nouvelles personnes qui nous écoutent. On va rappeler le concept.<br/><br />
L’April est l’association nationale de promotion et de défense du logiciel libre et, depuis mai 2018, nous animons une émission d’explications et d’échanges sur la radio Cause Commune, sur les thèmes des libertés informatiques. <em>Libre à vous </em>! se veut avant tout une émission d’explications et d’échanges sur les dossiers juridiques et politiques que nous traitons et également sur les actions que nous menons pour les libertés informatiques en général et plus particulièrement, évidemment, pour le logiciel libre. <em>Libre à vous </em>! c’est aussi un point sur les actualités du Libre, des personnes invitées aux profils variés, évidemment de la musique sous licence libre et des actions de sensibilisation.<br/><br />
Donner à chacun et chacune, de manière simple et accessible, les clefs pour comprendre les enjeux mais aussi pour comprendre les moyens d’actions, tel est l’objectif de cette émission hebdomadaire. L’émission est en effet diffusée en direct chaque mardi, de 15 heures 30 à 17 heures, sur la radio Cause Commune donc sur les ondes de la radio 93.1 FM en Île-de-France et partout dans le monde sur causecommune.fm. Les podcasts sont disponibles sur le site de la radio ensuite et également sur le site de l’April. Il y a également des transcriptions qui sont disponibles généralement une semaine après les podcasts.<br/<br />
Si vous avez manqué les deux premières saisons ou si vous avez envie de réécouter des podcasts, sachez que les podcasts des deux premières saisons sont à votre disposition : une trentaine d’émissions que nous avons également découpées en plusieurs sujets disponibles individuellement, la durée de chacun des sujets pouvant varier de dix minutes à une heure à peu près ; une heure je crois que c’est même le maximum.<br/><br />
La radio c’est évidemment des voix avant tout. Peut-être aimeriez-vous découvrir les coulisses de notre émission voire de la radio Cause Commune, voir par exemple ce qu’est en train de faire Patrick actuellement en régie ? Eh bien nous avons mis en ligne sur le site de l’April, april.org, une première bande annonce qui dure 38 secondes, pour vous montrer des images, des visages ; nous vous proposerons sans doute la semaine prochaine ou peut-être un peu plus tard une version un peu plus longue. Vous pouvez d’ores et déjà aller sur le site de l’April et découvrir un petit peu les coulisses de l’émission dans une petite vidéo. N’hésitez pas à la partager autour de vous, à l’envoyer à vos amis sur les réseaux sociaux ou ailleurs.<br/><br />
Je rappelle également que la radio dispose d’un webchat, donc sur le site causecommune.fm, vous pouvez cliquer sur <em>chat</em> et actuellement il y a des gens qui nous ont rejoints ; nous avons des petits coucous de personnes. Il y a notamment, je rigole, il y a quelqu’un dont le pseudo est FanDeFred et qui dit : « Ça fait plaisir d’entendre ta voix après tout ce temps », je ne sais qui c’est mais en tout cas merci. Lonugem est également présent, Marie-Odile, Olicat, macousine. Bienvenue à toutes et toutes sur le salon web.<br />
<br />
Cette saison 3 est l’occasion d’initier de nouveaux rendez-vous réguliers et notamment « Livre à vous », j’ai bien dit « Livre à vous », des échanges avec des personnes ayant écrit des livres en lien avec nos sujets sur le format suivant : une interview dans l’émission <em>Libre à vous!</em> puis, normalement le même jour, donc le même soir, une rencontre dédicace à la librairie À Livr'Ouvert qui est située à Paris dans le 11e arrondissement. Bien sûr nous encourageons les libraires des autres régions à inviter ces personnes que nous inviterons dans l’émission et si besoin, nous ferons la mise en relation.<br />
<br />
Deuxième nouveauté : des chroniques courtes. Vous connaissez l’équipe des chroniques de l’April, chroniques qui durent dix/quinze minutes environ, tout à l’heure on aura Xavier Berne, mais là on initie un nouveau sujet avec des chronique courtes, trois minutes maximum, au format billet d’humeur, pastille, en gros une lecture libre décalée voire humoristique de l’actualité. En effet, lors de la dernière émission de la saison 2, nous avions lancé un appel à candidatures pour rejoindre l’équipe des personnes qui font des chroniques dans l’émission pour justement avoir ces chroniques courtes. Nous avons reçu des propositions et nous allons avoir le plaisir d’écouter la première chronique donc avec notre premier invité.<br />
<br />
[Virgule musicale]<br />
<br />
==6’47 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190903/libre-a-vous-20190903-la-pituite-de-luk.ogg « La pituite de Luk »] 4 min 47== <br />
<br />
<b>Frédéric Couchet : </b>Normalement est avec moi au téléphone Luk. Bonjour Luk.<br />
<br />
<b>Luk : </b>Salut Fred. Est-ce que tu m’entends ? Eh bien bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Je t’entends. Merci pour l’accueil. Je précise que c’est Luk avec un « k ». Avant d’écouter ta chronique, plusieurs questions quand même, vu que tu rejoins l’équipe. Nous aurions aimé avoir ta présence avec nous au studio. Pourquoi ne peux-tu ne pas être présent ? Et, seconde question, pourquoi ce surnom uniquement de Luk, je répète avec un « k » ?<br />
<br />
<b>Luk : </b>Déjà j’aurais effectivement préféré être présent avec vous physiquement, c’est toujours beaucoup plus sympa, mais voilà je bosse et j’ai changé de boulot il n’y a pas très longtemps, donc c’est un peu compliqué pour le moment pour moi de dégager du temps, mais j’espère bien la prochaine fois pouvoir venir physiquement dans le studio.<br/><br />
Côté pseudo, comme je racontais je pense ??? j’aime bien séparer, même s’il n’y a pas grand mystère derrière, mon identité réelle et mon pseudo. J’ai un pseudo complet qui est « L’incroyable Luk », mais c’est un petit peu prétentieux, donc je préfère Luk tout court, Luk avec un « k », ça change tout !<br />
<br />
<b>Frédéric Couchet : </b>Pour les personnes qui veulent en découvrir un peu plus sur toi, elles peuvent aller sur le site incroyableluk.org, tout attaché et avec un « k ». Écoute Luk, je te laisse la parole pour ta chronique.<br />
<br />
<b>Luk : </b>« Je te l’avais bien dit ! » C’est un truc que j’aime bien balancer !<br/><br />
Quand la situation est bien foireuse, quand les murs sont mouchetés de caca, quand le regard trahit un esprit en équilibre précaire entre l’incrédulité et la panique, c’est le bon moment pour asséner : « Je te l’avais bien dit ». D’accord, c’est mesquin mais bon… Si on l’avait bien dit et que c’est resté sans effet, on ne peut pas nous accuser de n’avoir rien tenté !<br/><br />
Oui, on profite d’un moment de faiblesse pour appuyer là où ça fait mal. Mais bon, voilà ! On a chacun nos petits travers. Certains donnent généreusement le cancer à leurs proches par le tabagisme passif. D’autres maximisent leurs chances de les broyer dans leur bagnole en roulant comme des cons. Il y en a même qui font les deux en même temps ! Alors je peux bien me permettre ce petit accès de mesquinerie qui ne blesse que l’égo et faire mienne cette citation d’Homer, attention ! : « C’est facile de critiquer mais c’est plus amusant de se moquer. » Je précise que la citation c’est Homer Simpson, pas Homère le poète grec qui a démontré que libre n’est pas gratuit au 8e siècle avant l’hypothétique naissance de Jésus-Christ. Enfin je crois ! Je n’ai peut-être pas tout compris !<br />
<br />
Pourquoi parler de ça maintenant ? Parce que la Cour des comptes s’est penchée cet été sur le « service public du numérique éducatif ». Elle s’est notamment exprimée sur ce qu’elle désigne, avec des guillemets, « le plan tablettes ». Ça avait beaucoup fait râler les libristes et les défenseurs de libertés numériques de tout poil à l’époque : « le plan tablettes » consistait pour l’essentiel à distribuer généreusement le dernier machin technologique à la mode sans aucun plan pédagogique particulier. La Cour des comptes aurait dû l’appeler « plan verroterie numérique ET digitale », même avec des guillemets, c’est plus précis.<br/><br />
Cette absence totale de vision du ministère de l’intelligence n’a pas été perdue pour tout le monde. Bien entendu, les GAFAM ont fourni un matériel proprio, gavé aux DRM, centralisé, contrôlé comme il se doit. Ils ont pu ainsi placer les données personnelles des élèves à leur portée.<br/><br />
Si le ministère n’a pas de vision, ce n’est pas une tare dont on peut accabler ses copains de classe GAFAM. Eux savent où ils vont !<br/> <br />
Au final, ce « plan verroterie numérique digitale », c’est plus le ministère offrant des clients aux GAFAM que le ministère offrant des tablettes aux élèves.<br />
<br />
Je me demande parfois s’il n’y a pas un vrai souci de masochisme dans les ministères. Peut-être ne pondent-ils ces plans foireux et ignorent les critiques argumentées qu’on leur adresse, que dans le but de se faire étriller par la Cour des comptes quelques années plus tard. J’imagine qu’ils en discutent actuellement le midi à la cantine avec une petite lueur lubrique dans l’œil et une tache de mayonnaise au niveau du pectoral droit : « T’as vu ce que la Cour des comptes nous a mis ? », « Oui, on a vraiment pris cher ! »<br/><br />
En conséquence, nous autres libristes et autres militants des libertés numériques, devrions contribuer à leur plaisir trouble et leur asséner de vigoureux : « On vous l’avait bien dit ! ». Ajouter une couche à leur plaisir honteux ne peut que nous faire remonter dans leur estime. Peut-être nous écouteront-ils un peu plus, peut-être qu’on pourrait leur faire découvrir d’autres types de plaisirs honteux comme : « J’avoue que j’ai installé Steam sur mon GNU/Linux », « J’ai Alexa dans mon salon du coup je n’ai de conversations sérieuses que dans la cuisine » ou « J’ai tout mis chez Apple parce que je crois qu’une boîte qui prend tout mon argent ne va pas, en plus, me voler ma vie ! » Ils n’auraient alors plus besoin de se faire fouetter par la Cour des comptes et on pourrait peut-être offrir aux enfants une éducation au numérique qui se respecte.<br />
<br />
<b>Frédéric Couchet : </b>Écoute merci Luk. C’était ta chronique « La pituite de Luk » et je pense qu’ à un moment ou un autre on te posera la question de la signification. On va laisser les personnes qui nous écoutent proposer des significations possibles. On se retrouve le mois prochain ?<br />
<br />
<b>Luk : </b>Oui. Merci. Bonne émission et on se retrouve le mois prochain.<br />
<br />
<b>Frédéric Couchet : </b>Merci Luk. Bonne journée.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Après cette chronique nous allons faire une pause musicale. Le titre a d’ailleurs été choisi par Luk. Le morceau s’appelle <em>Bru in Jericho</em> par Sebkha-Chott et on se retrouve juste après.<br />
<br />
Pause musicale : <em>Bru in Jericho</em> par Sebkha-Chott.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Bru in Jericho</em> par Sebkha-Chott, disponible à la fois sous licence Art Libre et sous licence Creative Commons Partage dans les mêmes conditions. Vous retrouvez les références sur le site de l’April, april.org.<br/><br />
Vous écoutez l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 FM en Île-de-France et partout ailleurs, partout dans le monde, sur le site causecommune.fm.<br/><br />
Nous allons maintenant passer à notre sujet principal.<br />
<br />
[Virgule musicale]<br />
<br />
==15’ 07 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190903/libre-a-vous-20190903-gendarmerie-nationale-et-logiciels-libres.ogg Gendarmerie nationale et logiciels libres] 55 min 6==<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre avec la chronique de Xavier Berne, journaliste à Next Inpact, qui va nous parler de taxe foncière, si, si, et aussi de transparence des algorithmes publics. Bonjour Xavier, normalement tu es avec nous au téléphone.<br />
<br />
<b>Xavier Berne : </b>Je suis là. Bonjour à tous.<br />
<br />
<b>Frédéric Couchet : </b>Xavier, alors que les propriétaires vont recevoir leur taxe foncière d’ici peu, il y a une dizaine de jours Bercy a ouvert le code source utilisé pour le calcul du fameux prélèvement. Est-ce que tu peux nous expliquer pourquoi ?<br />
<br />
<b>Xavier Berne : </b>Absolument. Bercy ne s’en est pas forcément vanté mais cette ouverture fait suite à une demande dite CADA que j’avais effectuée en janvier 2018 pour le compte de Next INpact, parce que depuis le vote de la loi numérique fin 2016, les codes sources des administrations sont expressément considérés comme des documents administratifs. Ça veut dire qu’ils sont communicables, en principe, aux citoyens, sur simple demande. Pour voir si les administrations jouaient bien le jeu j’étais allé frapper à la porte de différentes administrations, dont l’administration fiscale, afin de leur demander différents codes sources.<br/><br />
Le code source, pour ceux qui l’ignorent, ce sont en fait les lignes de code qui composent, en quelque sorte, la mécanique d’un programme informatique et, à l’époque j’avais demandé l’ouverture du code source de la taxe d’habitation qui a été ouvert en fin d’année dernière et celui aussi de la taxe foncière qui a donc été ouvert fin août après, tout de même, un an et demi d’attente.<br />
<br />
<b>Frédéric Couchet : </b>Je précise que ce que tu appelles la procédure CADA, c’est une demande d’accès aux documents administratifs et la CADA c’est la Commission d’accès aux documents administratifs vers laquelle on peut se retourner quand un ministère refuse de nous communiquer des documents.<br/><br />
Donc après plus d’un an et demi d’attente, il y a eu la publication de ce code source. Qu’est-ce qu’il y a concrètement dans ce code source ?<br />
<br />
<b>Xavier Berne : </b>Ce code source est composé de différents fichiers destinés au calcul des différentes taxes qui composent la taxe foncière : la taxe sur le bâti, la taxe sur les propriétés non bâties, <br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Migration sur la durée ce qui peut expliquer aussi ces aspects.<br />
On va faire une petite pause musicale. Nous allons écouter <em>Música libre</em> par San Blas Posse et on se retrouve juste après. <br />
<br />
Pause musicale : <em>Música libre</em> par San Blas Posse.<br />
<br />
==46’ 18==<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Música libre</em> par San Blas Posse, disponible sous licence libre Creative Commons partage dans les mêmes conditions. Vous retrouverez les références sur le site de l’April, april.org.<br/><br />
<br />
<br />
<br />
<br />
Nous allons maintenant passer au sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 13’ 25 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190903/libre-a-vous-20190903-chronique-xavier-berne.ogg Chronique de Xavier Berne sur la taxe foncière et la transparence des algorithmes publics] 11 min 14==<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre avec la chronique de Xavier Berne, journaliste à Next Inpact qui va nous parler de taxe foncière, si, si, et aussi de transparence des algorithmes publics. Bonjour Xavier, normalement tu es avec nous au téléphone.<br />
<br />
<b>Xavier Berne : </b>Je suis là. Bonjour à tous.<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<b>Xavier Berne : </b>Ça marche. Au revoir<br />
<br />
<b>Frédéric Couchet : </b>Belle journée. Au revoir.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 24’ 48 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190903/libre-a-vous-20190903-annonces.ogg Annonces] 5 min==<br />
<br />
<b>Frédéric Couchet : </b>Nous approchons de la fin de l’émission, l’occasion de quelques annonces. D'abord, la réponse au quiz parce qu'on a répondu à l'une des questions mais pas la première. La première question c'était : Quel projet libre a fêté ses 15 ans cet été, le 10 août ? Et je vous avais indiqué que nous avions déjà parlé de ce projet dans <em>Libre à vous !</em>. Et bien c'est OpenStreetMap, le projet de cartographie libre et je vous précise que nous consacrerons une deuxième émission à OpenStreetMap le 24 septembre 2019. C'est le lendemain de leur, un petit peu leur réunion mondiale et donc Christian Quest viendra nous faire un petit point des nouveautés sur OpenStreetMap donc l'émission du 24 septembre 2019. Alors dans les annonces d'événements autour de Paris donc pour les personnes qui nous écoutent en Île-de-France, il y a la soirée de contribution au libre jeudi 5 septembre 2019 à la FPH dans le 11e arrondissement. Ce samedi 7 septembre, vous avez le premier samedi au carrefour numérique de la cité des sciences et de l'industrie donc notamment l'occasion de découvrir des distributions GNU/Linux comme Ubuntu mais aussi Debian et d'autres. Donc c'est de 14h00 à 18h00 à la cité des sciences et de l'industrie. Le site web c'est premier-samedi.org. Une formation qu'on m'a signalée la semaine prochaine donc du mardi 10 septembre au mercredi 11 septembre donc au CICP, c'est Rue Voltaire à Paris, C'est la formation «Pratiquer GNU/Linux au quotidien». Il y a quinze places disponibles et il y a des frais pédagogiques qui dépendent de votre statut. Alors évidemment, il y a d'autres événements ailleurs qu'en région parisienne. Par exemple, il y a un apéro April le 6 septembre donc ce vendredi à Marseille, au Foyer du Peuple. Donc, je ne sais pas qui y sera présent. Je crois que Christian Momon sera peut-être là mais je ne suis pas sûr. En tout cas, n'hésitez pas à passer voir les membres de l'April présents sur place. Et puis bien sûr, tous les autres événements sont disponibles sur le site de l'Agenda du Libre. Comme il me reste un petit peu de temps. Tiens c'est rare qu'on soit en avance. Je rappelle que la radio a une boîte vocale pour faire connaître votre travail, si vous avez envie de parler d'un projet important ou simplement de déclamer un poème ou d'un projet qui vous tient à coeur. Vous pouvez appeler le 01 88 32 54 33. Donc c'est le nunéro de la boîte vocale de radio Cause Commune. Je crois que la durée maximale des messages si je me souviens bien c'est une dizaine de minutes et je ne sais pas quand est-ce qu'ils seront diffusés à leur antenne, ça dépendra de l'équipe de la radio. Je regarde, est-ce qu'on a d'autres annonces ? Si ! Je vais vous rappeler donc dans les nouveautés, nous avons les chroniques courtes. Je vous rappelle la disponibilité de la bande-annonce vidéo qui est sur le site de l'April april.org que je mettrai également sur le site de cause-commune.fm. C'est un peu l'occasion de découvrir les visages. Vous verrez notamment sur la vidéo, le visage de ma collègue Isabella Vanni, de Noémie Bergez qui fera sa chronique la semaine prochaine, vous avez aussi Denis Dordoigne de l'April et de INFINI, vous avez Christian Momon de l'April, vous avez Étienne Gonnu. Je vous laisse le temps un petit peu de découvrir. Bon c'est une vidéo courte, nous mettrons en ligne un peu plus longue 1 minute 30-2 minutes bientôt et peut-être une version un peu plus longue encore 5 minutes pour vraiment montrer comment ça se passe ici. Car effectivement, les gens nous ont demandé «Comment ça se passe derrière les micros ?» voilà etc.«Comment vous êtes habillés ?» et tout, c'est un peu le mystère de la voix. Donc voilà, c'est la bande-annonce de l'émission <em>Libre à vous !</em> et qui est donc disponible sur le site et que je vous encourage évidemment à voir et puis à transmettre très largement. Alors notre émission se termine. Je vais remercier les personnes qui ont participées à l'émission. Donc : Luk, Xavier Berne de NextImpact, le lieutenant-colonel Stéphane Dumond. Aux manettes de la régie aujourd'hui : Patrick Creusot. Merci Patrick. Un grand merci également à l'équipe de la radio Cause Commune que ce soit Olivier Grieco, Quentin Hernandez etc. Qui s'occupe notamment des locaux, qui nous prépare plein de choses, qui traite aussi les podcasts... Ah ! J'avais oublié de parler des traitements des podcasts mais ce sera pour la semaine prochaine. Vous retrouverez sur notre site web, april.org et sur le site de la radio, causecommune.fm, toutes les références utiles. N'hésitez pas à nous faire des retours pour nous indiquer ce qui vous a plu mais aussi des points d'amélioration. Donc la prochaine émission aura lieu en direct mardi 10 septembre à 15 heures 30. Notre sujet principal portera sur l'apprentissage de la programmation pour les enfants. Ce sera exceptionnellement une émission déjà enregistrée parce que une des intervenantes a repris l'école tout simplement ce mardi donc elle n'était pas disponible. Nous vous souhaitons de passer une belle fin de journée, on se retrouve en direct mardi 10 septembre et d'ici là, portez-vous bien.</div>D Ohttps://wiki.april.org/index.php?title=Libre_%C3%A0_vous_!_Radio_Cause_Commune_-_Transcription_de_l%27%C3%A9mission_du_3_septembre_2019&diff=85638Libre à vous ! Radio Cause Commune - Transcription de l'émission du 3 septembre 20192019-09-05T21:47:00Z<p>D O : Transcription de la partie annonces</p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Émission <em>Libre à vous !</em> diffusée mardi 3 septembre 2019 sur radio Cause Commune<br />
<br />
'''Intervenants :''' Luk - Stéphane Dumond - Xavier Berne - Frédéric Couchet - Patrick Creusot à la régie<br />
<br />
'''Lieu :''' Radio Cause Commune<br />
<br />
'''Date :''' 3 septembre 2019<br />
<br />
'''Durée :''' 1 h 30 min<br />
<br />
'''[https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190903/libre-a-vous-20190903.ogg Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.april.org/libre-a-vous-diffusee-mardi-3-septembre-2019-sur-radio-cause-commune Page des références utiles concernant cette émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenants mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
Transcription : MO<br />
<br />
==Transcription==<br />
<br />
<b>Voix off : </b><em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre.<br />
<br />
<b>Frédéric Couchet : </b>Bonjour à toutes. Bonjour à tous. Vous êtes sur la radio Cause Commune 93.1 FM en Île-de-France et partout dans le monde sur le site causecommune.fm. Je vous remercie d’être avec nous pour cette nouvelle émission de <em>Libre à vous !</em>, l’émission de l’April sur les libertés informatiques.<br><br />
La radio dispose d’un webchat, utilisez votre navigateur web, rendez-vous sur le site de la radio, causecommune.fm, cliquez sur « chat » et vous pouvez nous retrouver sur le salon web dédié à l’émission.<br/><br />
Nous sommes mardi 3 septembre 2019, nous diffusons en direct, mais vous écoutez peut-être une rediffusion ou un podcast. Je précise aussi que la radio dispose d’une application Cause Commune.<br/><br />
Soyez les bienvenus pour cette nouvelle édition de <em>Libre à vous !</em>, la troisième saison, <em>Libre à vous !</em>, l’émission pour comprendre et agir avec l’April, l’association de promotion et de défense du logiciel libre. Je suis Frédéric Couchet, le délégué général de l’April.<br/><br />
Le site web de l’association est april.org et vous pouvez y trouver une page consacrée à cette émission avec tous les liens et références utiles, les détails sur les pauses musicales et toute autre information utile en complément de l’émission et également les moyens de nous contacter, donc n’hésitez pas à nous faire des retours pour nous indiquer ce qui vous a plu mais également des points d’amélioration.<br/><br />
Nous espérons que vous avez passé un bel été. Nous sommes ravis, vraiment enchantés de vous retrouver et si vous découvrez l’émission avec cette saison 3 nous espérons que vous l’apprécierez.<br/><br />
Vous pouvez retrouver les podcasts des émissions passées sur le site de la radio, causecommune.fm, et sur le site de l’April, april.org.<br/><br />
Nous vous souhaitons une excellente écoute.<br />
<br />
Nous allons commencer par le programme de l’émission.<br/><br />
Nous commencerons par des annonces de rentrée avec notamment des nouveautés concernant cette nouvelle saison de <em>Libre à vous !</em> et par la première chronique de Luk qui sera intitulée « La pituite de Luk » ; un peu de mystère !<br/><br />
D’ici 10 à 15 minutes nous aborderons notre sujet principal et nous avons l’honneur de recevoir la Gendarmerie nationale, l’occasion d’avoir son retour d’expérience sur une migration à grande échelle vers le logiciel libre, de la bureautique au système d’exploitation.<br/><br />
En fin d’émission nous aurons la chronique de Xavier Berne, journaliste à Next INpact.<br/><br />
À la réalisation de l’émission aujourd’hui Patrick Creusot. Bonjour Patrick.<br />
<br />
<b>Patrick Creusot : </b>Bonjour tout le monde et bonne émission.<br />
<br />
<b>Frédéric Couchet : </b>Merci Patrick.<br/><br />
Comme à chaque émission nous allons vous proposer un petit quiz. Je vous donnerai les réponses au cours de l’émission. Vous pouvez nous proposer les réponses sur le salon web de la radio, donc sur causecommune.fm, ou via les réseaux sociaux.<br/><br />
Première question : quel projet libre a fêté ses 15 ans cet été, particulièrement le 10 août ? On a déjà parlé de ce projet dans <em>Libre à vous ! </em><br/><br />
Deuxième question : quel est le nom de la version d’Ubuntu adaptée pour être utilisée par la Gendarmerie nationale française ? Évidemment notre intervenant vous donnera tout à l’heure la réponse dans la discussion.<br/><br />
Tout de suite place au premier sujet.<br />
<br />
[Virgule musicale]<br />
<br />
==3’ 01 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190903/libre-a-vous-20190903-nouveautes-de-la-saison-3.ogg Annonces de rentrée]3 min 43== <br />
<br />
<b>Frédéric Couchet : </b>Nous allons commencer par des annonces de rentrée concernant la nouvelle saison de <em>Libre à vous </em>! et ensuite par la première chronique de Luk intitulée « La pituite de Luk ». On va commencer par accueillir les personnes qui découvrent l’émission ; c’est une nouvelle saison donc forcément nous avons de nouvelles personnes qui nous écoutent. On va rappeler le concept.<br/><br />
L’April est l’association nationale de promotion et de défense du logiciel libre et, depuis mai 2018, nous animons une émission d’explications et d’échanges sur la radio Cause Commune, sur les thèmes des libertés informatiques. <em>Libre à vous </em>! se veut avant tout une émission d’explications et d’échanges sur les dossiers juridiques et politiques que nous traitons et également sur les actions que nous menons pour les libertés informatiques en général et plus particulièrement, évidemment, pour le logiciel libre. <em>Libre à vous </em>! c’est aussi un point sur les actualités du Libre, des personnes invitées aux profils variés, évidemment de la musique sous licence libre et des actions de sensibilisation.<br/><br />
Donner à chacun et chacune, de manière simple et accessible, les clefs pour comprendre les enjeux mais aussi pour comprendre les moyens d’actions, tel est l’objectif de cette émission hebdomadaire. L’émission est en effet diffusée en direct chaque mardi, de 15 heures 30 à 17 heures, sur la radio Cause Commune donc sur les ondes de la radio 93.1 FM en Île-de-France et partout dans le monde sur causecommune.fm. Les podcasts sont disponibles sur le site de la radio ensuite et également sur le site de l’April. Il y a également des transcriptions qui sont disponibles généralement une semaine après les podcasts.<br/<br />
Si vous avez manqué les deux premières saisons ou si vous avez envie de réécouter des podcasts, sachez que les podcasts des deux premières saisons sont à votre disposition : une trentaine d’émissions que nous avons également découpées en plusieurs sujets disponibles individuellement, la durée de chacun des sujets pouvant varier de dix minutes à une heure à peu près ; une heure je crois que c’est même le maximum.<br/><br />
La radio c’est évidemment des voix avant tout. Peut-être aimeriez-vous découvrir les coulisses de notre émission voire de la radio Cause Commune, voir par exemple ce qu’est en train de faire Patrick actuellement en régie ? Eh bien nous avons mis en ligne sur le site de l’April, april.org, une première bande annonce qui dure 38 secondes, pour vous montrer des images, des visages ; nous vous proposerons sans doute la semaine prochaine ou peut-être un peu plus tard une version un peu plus longue. Vous pouvez d’ores et déjà aller sur le site de l’April et découvrir un petit peu les coulisses de l’émission dans une petite vidéo. N’hésitez pas à la partager autour de vous, à l’envoyer à vos amis sur les réseaux sociaux ou ailleurs.<br/><br />
Je rappelle également que la radio dispose d’un webchat, donc sur le site causecommune.fm, vous pouvez cliquer sur <em>chat</em> et actuellement il y a des gens qui nous ont rejoints ; nous avons des petits coucous de personnes. Il y a notamment, je rigole, il y a quelqu’un dont le pseudo est FanDeFred et qui dit : « Ça fait plaisir d’entendre ta voix après tout ce temps », je ne sais qui c’est mais en tout cas merci. Lonugem est également présent, Marie-Odile, Olicat, macousine. Bienvenue à toutes et toutes sur le salon web.<br />
<br />
Cette saison 3 est l’occasion d’initier de nouveaux rendez-vous réguliers et notamment « Livre à vous », j’ai bien dit « Livre à vous », des échanges avec des personnes ayant écrit des livres en lien avec nos sujets sur le format suivant : une interview dans l’émission <em>Libre à vous!</em> puis, normalement le même jour, donc le même soir, une rencontre dédicace à la librairie À Livr'Ouvert qui est située à Paris dans le 11e arrondissement. Bien sûr nous encourageons les libraires des autres régions à inviter ces personnes que nous inviterons dans l’émission et si besoin, nous ferons la mise en relation.<br />
<br />
Deuxième nouveauté : des chroniques courtes. Vous connaissez l’équipe des chroniques de l’April, chroniques qui durent dix/quinze minutes environ, tout à l’heure on aura Xavier Berne, mais là on initie un nouveau sujet avec des chronique courtes, trois minutes maximum, au format billet d’humeur, pastille, en gros une lecture libre décalée voire humoristique de l’actualité. En effet, lors de la dernière émission de la saison 2, nous avions lancé un appel à candidatures pour rejoindre l’équipe des personnes qui font des chroniques dans l’émission pour justement avoir ces chroniques courtes. Nous avons reçu des propositions et nous allons avoir le plaisir d’écouter la première chronique donc avec notre premier invité.<br />
<br />
[Virgule musicale]<br />
<br />
==6’47 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190903/libre-a-vous-20190903-la-pituite-de-luk.ogg « La pituite de Luk »] 4 min 47== <br />
<br />
<b>Frédéric Couchet : </b>Normalement est avec moi au téléphone Luk. Bonjour Luk.<br />
<br />
<b>Luk : </b>Salut Fred. Est-ce que tu m’entends ? Eh bien bonjour.<br />
<br />
<b>Frédéric Couchet : </b>Je t’entends. Merci pour l’accueil. Je précise que c’est Luk avec un « k ». Avant d’écouter ta chronique, plusieurs questions quand même, vu que tu rejoins l’équipe. Nous aurions aimé avoir ta présence avec nous au studio. Pourquoi ne peux-tu ne pas être présent ? Et, seconde question, pourquoi ce surnom uniquement de Luk, je répète avec un « k » ?<br />
<br />
<b>Luk : </b>Déjà j’aurais effectivement préféré être présent avec vous physiquement, c’est toujours beaucoup plus sympa, mais voilà je bosse et j’ai changé de boulot il n’y a pas très longtemps, donc c’est un peu compliqué pour le moment pour moi de dégager du temps, mais j’espère bien la prochaine fois pouvoir venir physiquement dans le studio.<br/><br />
Côté pseudo, comme je racontais je pense ??? j’aime bien séparer, même s’il n’y a pas grand mystère derrière, mon identité réelle et mon pseudo. J’ai un pseudo complet qui est « L’incroyable Luk », mais c’est un petit peu prétentieux, donc je préfère Luk tout court, Luk avec un « k », ça change tout !<br />
<br />
<b>Frédéric Couchet : </b>Pour les personnes qui veulent en découvrir un peu plus sur toi, elles peuvent aller sur le site incroyableluk.org, tout attaché et avec un « k ». Écoute Luk, je te laisse la parole pour ta chronique.<br />
<br />
<b>Luk : </b>« Je te l’avais bien dit ! » C’est un truc que j’aime bien balancer !<br/><br />
Quand la situation est bien foireuse, quand les murs sont mouchetés de caca, quand le regard trahit un esprit en équilibre précaire entre l’incrédulité et la panique, c’est le bon moment pour asséner : « Je te l’avais bien dit ». D’accord, c’est mesquin mais bon… Si on l’avait bien dit et que c’est resté sans effet, on ne peut pas nous accuser de n’avoir rien tenté !<br/><br />
Oui, on profite d’un moment de faiblesse pour appuyer là où ça fait mal. Mais bon, voilà ! On a chacun nos petits travers. Certains donnent généreusement le cancer à leurs proches par le tabagisme passif. D’autres maximisent leurs chances de les broyer dans leur bagnole en roulant comme des cons. Il y en a même qui font les deux en même temps ! Alors je peux bien me permettre ce petit accès de mesquinerie qui ne blesse que l’égo et faire mienne cette citation d’Homer, attention ! : « C’est facile de critiquer mais c’est plus amusant de se moquer. » Je précise que la citation c’est Homer Simpson, pas Homère le poète grec qui a démontré que libre n’est pas gratuit au 8e siècle avant l’hypothétique naissance de Jésus-Christ. Enfin je crois ! Je n’ai peut-être pas tout compris !<br />
<br />
Pourquoi parler de ça maintenant ? Parce que la Cour des comptes s’est penchée cet été sur le « service public du numérique éducatif ». Elle s’est notamment exprimée sur ce qu’elle désigne, avec des guillemets, « le plan tablettes ». Ça avait beaucoup fait râler les libristes et les défenseurs de libertés numériques de tout poil à l’époque : « le plan tablettes » consistait pour l’essentiel à distribuer généreusement le dernier machin technologique à la mode sans aucun plan pédagogique particulier. La Cour des comptes aurait dû l’appeler « plan verroterie numérique ET digitale », même avec des guillemets, c’est plus précis.<br/><br />
Cette absence totale de vision du ministère de l’intelligence n’a pas été perdue pour tout le monde. Bien entendu, les GAFAM ont fourni un matériel proprio, gavé aux DRM, centralisé, contrôlé comme il se doit. Ils ont pu ainsi placer les données personnelles des élèves à leur portée.<br/><br />
Si le ministère n’a pas de vision, ce n’est pas une tare dont on peut accabler ses copains de classe GAFAM. Eux savent où ils vont !<br/> <br />
Au final, ce « plan verroterie numérique digitale », c’est plus le ministère offrant des clients aux GAFAM que le ministère offrant des tablettes aux élèves.<br />
<br />
Je me demande parfois s’il n’y a pas un vrai souci de masochisme dans les ministères. Peut-être ne pondent-ils ces plans foireux et ignorent les critiques argumentées qu’on leur adresse, que dans le but de se faire étriller par la Cour des comptes quelques années plus tard. J’imagine qu’ils en discutent actuellement le midi à la cantine avec une petite lueur lubrique dans l’œil et une tache de mayonnaise au niveau du pectoral droit : « T’as vu ce que la Cour des comptes nous a mis ? », « Oui, on a vraiment pris cher ! »<br/><br />
En conséquence, nous autres libristes et autres militants des libertés numériques, devrions contribuer à leur plaisir trouble et leur asséner de vigoureux : « On vous l’avait bien dit ! ». Ajouter une couche à leur plaisir honteux ne peut que nous faire remonter dans leur estime. Peut-être nous écouteront-ils un peu plus, peut-être qu’on pourrait leur faire découvrir d’autres types de plaisirs honteux comme : « J’avoue que j’ai installé Steam sur mon GNU/Linux », « J’ai Alexa dans mon salon du coup je n’ai de conversations sérieuses que dans la cuisine » ou « J’ai tout mis chez Apple parce que je crois qu’une boîte qui prend tout mon argent ne va pas, en plus, me voler ma vie ! » Ils n’auraient alors plus besoin de se faire fouetter par la Cour des comptes et on pourrait peut-être offrir aux enfants une éducation au numérique qui se respecte.<br />
<br />
<b>Frédéric Couchet : </b>Écoute merci Luk. C’était ta chronique « La pituite de Luk » et je pense qu’ à un moment ou un autre on te posera la question de la signification. On va laisser les personnes qui nous écoutent proposer des significations possibles. On se retrouve le mois prochain ?<br />
<br />
<b>Luk : </b>Oui. Merci. Bonne émission et on se retrouve le mois prochain.<br />
<br />
<b>Frédéric Couchet : </b>Merci Luk. Bonne journée.<br />
<br />
[Virgule musicale]<br />
<br />
<b>Frédéric Couchet : </b>Après cette chronique nous allons faire une pause musicale. Le titre a d’ailleurs été choisi par Luk. Le morceau s’appelle <em>Bru in Jericho</em> par Sebkha-Chott et on se retrouve juste après.<br />
<br />
Pause musicale : <em>Bru in Jericho</em> par Sebkha-Chott.<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Bru in Jericho</em> par Sebkha-Chott, disponible à la fois sous licence Art Libre et sous licence Creative Commons Partage dans les mêmes conditions. Vous retrouvez les références sur le site de l’April, april.org.<br/><br />
Vous écoutez l’émission <em>Libre à vous !</em> sur radio Cause Commune 93.1 FM en Île-de-France et partout ailleurs, partout dans le monde, sur le site causecommune.fm.<br/><br />
Nous allons maintenant passer à notre sujet principal.<br />
<br />
[Virgule musicale]<br />
<br />
==15’ 07 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190903/libre-a-vous-20190903-gendarmerie-nationale-et-logiciels-libres.ogg Gendarmerie nationale et logiciels libres] 55 min 6==<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre avec la chronique de Xavier Berne, journaliste à Next Inpact, qui va nous parler de taxe foncière, si, si, et aussi de transparence des algorithmes publics. Bonjour Xavier, normalement tu es avec nous au téléphone.<br />
<br />
<b>Xavier Berne : </b>Je suis là. Bonjour à tous.<br />
<br />
<b>Frédéric Couchet : </b>Xavier, alors que les propriétaires vont recevoir leur taxe foncière d’ici peu, il y a une dizaine de jours Bercy a ouvert le code source utilisé pour le calcul du fameux prélèvement. Est-ce que tu peux nous expliquer pourquoi ?<br />
<br />
<b>Xavier Berne : </b>Absolument. Bercy ne s’en est pas forcément vanté mais cette ouverture fait suite à une demande dite CADA que j’avais effectuée en janvier 2018 pour le compte de Next INpact, parce que depuis le vote de la loi numérique fin 2016, les codes sources des administrations sont expressément considérés comme des documents administratifs. Ça veut dire qu’ils sont communicables, en principe, aux citoyens, sur simple demande. Pour voir si les administrations jouaient bien le jeu j’étais allé frapper à la porte de différentes administrations, dont l’administration fiscale, afin de leur demander différents codes sources.<br/><br />
Le code source, pour ceux qui l’ignorent, ce sont en fait les lignes de code qui composent, en quelque sorte, la mécanique d’un programme informatique et, à l’époque j’avais demandé l’ouverture du code source de la taxe d’habitation qui a été ouvert en fin d’année dernière et celui aussi de la taxe foncière qui a donc été ouvert fin août après, tout de même, un an et demi d’attente.<br />
<br />
<b>Frédéric Couchet : </b>Je précise que ce que tu appelles la procédure CADA, c’est une demande d’accès aux documents administratifs et la CADA c’est la Commission d’accès aux documents administratifs vers laquelle on peut se retourner quand un ministère refuse de nous communiquer des documents.<br/><br />
Donc après plus d’un an et demi d’attente, il y a eu la publication de ce code source. Qu’est-ce qu’il y a concrètement dans ce code source ?<br />
<br />
<b>Xavier Berne : </b>Ce code source est composé de différents fichiers destinés au calcul des différentes taxes qui composent la taxe foncière : la taxe sur le bâti, la taxe sur les propriétés non bâties, <br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<b>Frédéric Couchet : </b>D’accord. Migration sur la durée ce qui peut expliquer aussi ces aspects.<br />
On va faire une petite pause musicale. Nous allons écouter <em>Música libre</em> par San Blas Posse et on se retrouve juste après. <br />
<br />
Pause musicale : <em>Música libre</em> par San Blas Posse.<br />
<br />
==46’ 18==<br />
<br />
<b>Frédéric Couchet : </b>Nous venons d’écouter <em>Música libre</em> par San Blas Posse, disponible sous licence libre Creative Commons partage dans les mêmes conditions. Vous retrouverez les références sur le site de l’April, april.org.<br/><br />
<br />
<br />
<br />
<br />
Nous allons maintenant passer au sujet suivant.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 13’ 25 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190903/libre-a-vous-20190903-chronique-xavier-berne.ogg Chronique de Xavier Berne sur la taxe foncière et la transparence des algorithmes publics] 11 min 14==<br />
<br />
<b>Frédéric Couchet : </b>Nous allons poursuivre avec la chronique de Xavier Berne, journaliste à Next Inpact qui va nous parler de taxe foncière, si, si, et aussi de transparence des algorithmes publics. Bonjour Xavier, normalement tu es avec nous au téléphone.<br />
<br />
<b>Xavier Berne : </b>Je suis là. Bonjour à tous.<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<b>Xavier Berne : </b>Ça marche. Au revoir<br />
<br />
<b>Frédéric Couchet : </b>Belle journée. Au revoir.<br />
<br />
[Virgule musicale]<br />
<br />
==1 h 24’ 48 [https://media.april.org/audio/radio-cause-commune/libre-a-vous/emissions/20190903/libre-a-vous-20190903-annonces.ogg Annonces] 5 min==<br />
<br />
<b>Frédéric Couchet : </b>Nous approchons de la fin de l’émission, l’occasion de quelques annonces. D'abord, la réponse au quiz parce qu'on a répondu à l'une des questions mais pas la première. La première question c'était : Quel projet libre a fêté ses 15 ans cet été, le 10 août ? Et je vous avais indiqué que nous avions déjà parlé de ce projet dans <em>Libre à vous !</em>. Et bien c'est OpenStreetMap, le projet de cartographie libre et je vous précise que nous consacrerons une deuxième émission à OpenStreetMap le 24 septembre 2019. C'est le lendemain de leur, un petit peu leur réunion mondiale et donc Christian Quest viendra nous faire un petit point des nouveautés sur OpenStreetMap donc l'émission du 24 septembre 2019. Alors dans les annonces d'événements autour de Paris donc pour les personnes qui nous écoutent en Île-de-France, il y a la soirée de contribution au libre jeudi 5 septembre 2019 à la FPH dans le 11e arrondissement. Ce samedi 7 septembre, vous avez le premier samedi au carrefour numérique de la cité des sciences et de l'industrie donc notamment l'occasion de découvrir des distributions GNU/Linux comme Ubuntu mais aussi Debian et d'autres. Donc c'est de 14h00 à 18h00 à la cité des sciences et de l'industrie. Le site web c'est premier-samedi.org. Une formation qu'on m'a signalée la semaine prochaine donc du mardi 10 septembre au mercredi 11 septembre donc au CICP, c'est Rue Voltaire à Paris, C'est la formation «Pratiquer GNU/Linux au quotidien». Il y a quinze places disponibles et il y a des frais pédagogiques qui dépendent de votre statut. Alors évidemment, il y a d'autres événements ailleurs qu'en région parisienne. Par exemple, il y a un apéro April le 6 septembre donc ce vendredi à Marseille, au Foyer du Peuple. Donc, je ne sais pas qui y sera présent. Je crois que Christian Momon sera peut-être là mais je ne suis pas sûr. En tout cas, n'hésitez pas à passer voir les membres de l'April présents sur place. Et puis bien sûr, tous les autres événements sont disponibles sur le site de l'Agenda du Libre. Comme il me reste un petit peu de temps. Tiens c'est rare qu'on soit en avance. Je rappelle que la radio a une boîte vocale pour faire connaître votre travail, si vous avez envie de parler d'un projet important ou simplement de déclamer un poème ou d'un projet qui vous tient à coeur. Vous pouvez appeler le 01 88 32 54 33. Donc c'est le nunéro de la boîte vocale de radio Cause Commune. Je crois que la durée maximale des messages si je me souviens bien c'est une dizaine de minutes et je ne sais pas quand est-ce qu'ils seront diffusés à leur antenne, ça dépendra de l'équipe de la radio. Je regarde, est-ce qu'on a d'autres annonces ? Si ! Je vais vous rappeler donc dans les nouveautés, nous avons les chroniques courtes. Je vous rappelle la disponibilité de la bande-annonce vidéo qui est sur le site de l'April april.org que je mettrai également sur le site de cause-commune.fm. C'est un peu l'occasion de découvrir les visages. Vous verrez notamment sur la vidéo, le visage de ma collègue Isabella Vanni, de Noémie Bergez qui fera sa chronique la semaine prochaine, vous avez aussi Denis Dordoigne de l'April et de INFINI, vous avez Christian Momon de l'April, vous avez Étienne Gonnu. Je vous laisse le temps un petit peu de découvrir. Bon c'est une vidéo courte, nous mettrons en ligne un peu plus longue 1 minute 30-2 minutes bientôt et peut-être une version un peu plus longue encore 5 minutes pour vraiment montrer comment ça se passe ici. Car effectivement, les gens nous ont demandé «Comment ça se passe derrière les micros ?» voilà etc.«Comment vous êtes habillés ?» et tout, c'est un peu le mystère de la voix. Donc voilà, c'est la bande-annonce de l'émission <em>Libre à vous !</em> et qui est donc disponible sur le site et que je vous encourage évidemment à voir et puis à transmettre très largement. Alors notre émission se termine. Je vais remercier les personnes qui ont participées à l'émission. Donc : Luc, Xavier Berne de NextImpact, le lieutenant-colonel Stéphane Dumond. Aux manettes de la régie aujourd'hui : Patrick Creusot. Merci Patrick. Un grand merci également à l'équipe de la radio Cause Commune que ce soit Olivier Grieco, Quentin Hernandez etc. Qui s'occupe notamment des locaux, qui nous prépare plein de choses, qui traite aussi les podcasts... Ah ! J'avais oublié de parler des traitements des podcasts mais ce sera pour la semaine prochaine. Vous retrouverez sur notre site web, april.org et sur le site de la radio, causecommune.fm, toutes les références utiles. N'hésitez pas à nous faire des retours pour nous indiquer ce qui vous a plu mais aussi des points d'amélioration. Donc la prochaine émission aura lieu en direct mardi 10 septembre à 15 heures 30. Notre sujet principal portera sur l'apprentissage de la programmation pour les enfants. Ce sera exceptionnellement une émission déjà enregistrée parce que une des intervenantes a repris l'école tout simplement ce mardi donc elle n'était pas disponible. Nous vous souhaitons de passer une belle fin de journée, on se retrouve en direct mardi 10 septembre et d'ici là, portez-vous bien.</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85632Éthique numérique, des datas sous serment - La méthode scientifique2019-09-05T15:44:09Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen - Soline Ledésert - Jérémie Poiroux<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lançait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un serment d'Hippocrate des <em>data scientists</em>. Donc on a fait une petite recherche, il y en avait déjà qui circulaient et pour se différencier de ceux qui existaient déjà, on avait vraiment crée un serment d'Hippocrate qui aidait dans au quotidien, dans leur pratique les <em>data scientists</em>. Vraiment à se dire, on a découpé le travail en grandes étapes de la participation d'un projet, à l'analyse de résultats en passant par la collecte de données et l'application de modèles algorithmiques. On s'est dit «À chaque étape, quels sont les dilemmes éthiques auxquels un <em>data Scientist</em> peut être confronté et ensuite comment il peut résoudre ces problèmes ?». Donc on a fait un questionnaire en ligne, on a récolté des expériences diverses et ensuite on a travaillé pendant trois mois en atelier à rédiger collaborativement un serment d'Hippocrate. Donc là, il est disponible sur hippocrate.tech. Donc on a posé cinq valeurs : L'intégrié scientifique et la rigueur, la transparence, l'équité, le respect et la responsabilité et l'indépendance. Et ensuite, on a formulé des phrases sous la forme de «Je m'engage à faire ceci ou cela» donc ça concerne effectivement le respect de la vie privée donc à chaque fois, à chaque ligne on rappelle aussi le cadre légal européen du Règlement Général pour la Protection des Données personnelles. Le <em>data scientist</em> signataire s'engage à déterminer le meilleur compromis entre la performance et l'interprétabilité. Pourquoi l'interprétabilité c'est important ? Parce que par exemple si vous faites tourner un algorithme par exemple sur la question de votre allocation familiale et si l'algorithme vous dit «Bah non, vous n'y avez pas droit» et que la personne qui a fait tourner l'algorithme vous dit «Et bien écoutez, je ne peux pas vous l'expliquer, mais c'est comme ça» ça peut poser des problèmes. Donc on a fait ce genre de recherche. <br />
<br />
<b>Céline Loozen : </b>Quelle est la valeur juridique de cette charte ? Comment on pourrait l'appliquer réellement ?<br />
<br />
<b>Soline Ledésert : </b>Nous on est vraiment dans une démarche plutôt citoyenne. À chaque fois, on l'a formulée de façon à veiller, enfin le <em>data scientist</em> veille à ce que les choses se fassent. Mais un <em>data scientist</em> il peut travailler dans une administration, dans une entreprise, au sein d'un labo de recherche et il n'est jamais seul décisionnaire sur vraiment l'ensemble du projet donc nous on a pris cette approche dans le cadre de ce projet vers la responsabilité personnelle. Après, on a aussi rappelé la loi donc là c'est vrai que le RGPD a vraiment amené beaucoup plus de contraintes sur ces questions mais voilà, nous on est vraiment parti sur un modèle d'éthique personnelle. <br />
<br />
[Fin de la musique de fond]<br />
<br />
<b>Nicolas Martin : </b>Voilà le reportage du jour sur cette plate-forme <em>AlgoTransparency</em>. Je vais vous demander évidemment Frédéric Bardolle, une réaction puisque c'est votre association <em>Data For Good</em> qui développe cette plate-forme.<br />
<br />
<b>Frédéric Bardolle : </b>Déjà merci. C'est Soline qui a vraiment porté le projet sur le serment d'Hippocrate et Guillaume Chaslot qui est à plein temps sur ce projet de <em>Algotransparency</em> et qui essaie d'étudier notamment avec des scientifiques américains, essayer d'étudier d'autres algorithmes et leurs fonctionnements, essayer de mieux comprendre comment ça marche. Moi je voulais revenir surtout sur une chose c'est que effectivement il y a une responsabilité individuelle donc à travers ce serment qu'on propose. Mais on pense également qu'il y a comme le disait Soline qu'il y a aussi une responsabilité finalement aussi, il y a des institutions à créer pour permettre de transformer la manière dont fonctionne le numérique à l'heure actuelle. Un exemple : à l'heure actuelle, il n'y a pas de statut intermédiaire entre un hébergeur et un média. Et le problème c'est quoi ? C'est que en fait...<br />
<br />
<b>Nicolas Martin : </b>Exemple concret. Par exemple, prenons un réseau social. Pour les auditeurs, exemple concret : Facebook.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà Facebook ou YouTube, c'est des hébergeurs. Donc, ils ne sont pas responsables du contenu. Tout le contenu publié chez eux c'est pas sous leur responsabilité. Au contraire un média, tout ce qui est produit, si on dit quelque chose qui ne respecte pas la loi à la radio...<br />
<br />
<b>Nicolas Martin : </b>Sur France Culture.<br />
<br />
<b>Frédéric Bardolle : Et bien quelqu'un portera la responsabilité. <br />
<br />
<b>Nicolas Martin : </b>La directrice de la chaîne, moi d'abord et puis ensuite la présidente. <br />
<br />
<b>Frédéric Bardolle : </b>Et donc il y a un grand écart en fait. Ce statut d'hébergeur ça marchait très bien au début de l'internet finalement. C'était juste des annuaires où il y avait toutes les vidéos des contenus produits par les internautes qui étaient là. Finalement, c'est vrai qu'il n'y avait pas de rôle de responsabilité. Mais là en fait on assiste à quelque chose. C'est-à-dire qu'un algorithme qui propose 100 000 fois un contenu à un utilisateur, on pourrait se dire «Quand même, il a un rôle éditorial». Même si ce n'est pas un humain qui a fait ce choix de poser ça là. Au bout d'un moment lorsqu'une nouvelle est diffusée de manière massive comme ça, nous on considère que cette plate-forme a un rôle éditorial, devrait avoir une responsabilité juridique et parce que l'algorithme a un rôle éditorial dans ses contenus. <br />
<br />
<b>Nicolas Martin : </b>Une réaction à ce que viens de dire Frédéric Bardolle et sur cette plate-forme <em>AlgoTransparency</em>. On va parler du serment d'Hippocrate dans un instant mais d'abord sur le reportage et sur cette notion très très intéressante de distnction entre l'hébergeur et média.<br />
<br />
<b>Nozha Boujemaa : </b>Oui... Et bien je suis d'accord dans la mesure où effectivement l'évolution des rôles aujourd'hui, la frontière est très mince et surtout que les contenus en fait aujourd'hui sont consommés. Il n'y a plus effectivement ce rôle éditorial fait par un professionnel mais aujourd'hui c'est fait par un algorithme de recommandation de contenus. Et donc, très clairement la question de la neutralité de la recommandation du contenu se pose. Et au-delà de ces... En fait... Moi je voudrais pointer toujours sur cette même problématique, un autre contexte qui peut être embêtant. C'est pas du B2C en fait c'est du B2B. Plate-forme juste au hasard...<br />
<br />
<b>Nicolas Martin : </b>On rappelle : B2C c'est <em>business-to-consumer</em>...<br />
<br />
<b>Nozha Boujemaa : </b>Voilà.<br />
<br />
<b>Nicolas Martin : </b>Et B2B c'est <em>business-to-business</em> voilà.<br />
<br />
<b>Nozha Boujemaa : </b>Exactement. <br />
<br />
<b>Nicolas Martin : </b>Donc de l'entreprise à l'entreprise et de l'entreprise au consommateur.<br />
<br />
<b>Nozha Boujemaa : </b>Merci.<br />
<br />
<b>Nicolas Martin : </b>C'est juste un petit bout de traduction franco-anglaise qu'on nous reproche souvent à juste titre d'être trop anglophone. <br />
<br />
<b>Nozha Boujemaa : </b>Tout à fait, tout à fait. À juste titre.<br />
<br />
<b>Nicolas Martin : </b>Allons-y.<br />
<br />
<b>Nozha Boujemaa : </b>Donc faire des recommandations de consommation de contenus culturels sur une plate-forme qui n'a pas de modèle d'affaires qui soit de la publicité. Je prends pour exemple Netflix. Une fois qu'on paye l'abonnement, on n'a pas de publicités à regarder.<br />
<br />
<b>Nicolas Martin : </b>Pour le moment.<br />
<br />
<b>Nozha Boujemaa : </b>Pour le moment. On peut se poser la question : C'est quoi les motivations des algorithmes de recommandation là-dedans ? D'accord ? Donc là, c'est un autre cas d'usage auquel il faudrait aussi un petit peu s'y intéresser. Parce que là très clairement, la question de la concurrence va se poser entre des producteurs de contenus qui sont, qui ont des accords avec Netflix et ceux qui ne l'ont pas. Et aussi avec des producteurs de contenus culturels de l'industrie française par exemple qui peut se retrouver lésée. Et là, c'est un problème de concurrence et de position dominante et le ministère de la culture aussi à ma connaissance s'intéresse également à ces questions.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, c'est intéressant cet exemple de Netflix parce que effectivement... Par ailleurs, on peut aussi imaginer que puisque tous ces algorithmes sont biaisés et qu'il y a une intentionnalité derrière, dans ces biais, on peut imaginer que l'algorithme de Netflix privilégie les productions internes de Netflix et pas le contenu qui a été racheté à d'autres sociétés de production qui sont hébergées seulement sur la plate-forme pour prévilégier le contenu interne et dire «Et bien vous voyez, les produits Netflix fonctionnent mieux que les produits un tel de FOX ou un air peu importe».<br />
<br />
<b>Nozha Boujemaa : </b>Et ce n'est pas forcément une personnalisation pour le consommateur je rappelle. <br />
<br />
<b>Nicolas Martin : </b>Bien sûr.<br />
<br />
<b>Frédéric Bardolle : </b>Et...<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Et comme on n'a aucune transparence sur qu'est-ce qu'on essaie d'optimiser avec cet algorithme, finalement on ne le saura jamais. Et c'est un gros problème. Et pour montrer l'ampleur un peu de la chose, il faut savoir que 70 % à 80 % du contenu sur Netflix provient de recommandations. Donc ce n'est pas quelque chose qui se fait à la marge. C'est que les gens consomment ce qu'on leur recommande en fait. C'est vraiment quelque chose qui est phénoménal et sur toutes les plates-formes c'est la même chose.<br />
<br />
<b>Nicolas Martin : </b>Parce que par ailleurs sur Netflix, la plate-forme est une gigantesque plate-forme de recommandations. C'est-à-dire que la plate-forme n'est pas présentée par ordre alphabétique par exemple ou par ordre de nouveautés ou très très peu. Elle n'est que...<br />
<br />
<b>Nozha Boujemaa : </b> Elle va le rajouter, elle est là.<br />
<br />
<b>Nicolas Martin : </b>Voilà. Ce qui est intéressant alors. On entendait dans la reportage quelque chose sur laquelle j'aimerais vous faire réagir. On va parler évidemment surtout dans la deuxième partie, de cette notion de serment d'Hippocrate : À il s'addresse, de son côté un peu finaliste c'est-à-dire de dire que le serment est signé finalement par les <em>data scientists</em>, par les scientifiques de données. Et pourquoi est-ce que ce serait les individus qui doivent s'engager et non pas les plate-formes ? C'est une question qui me semble importante à traiter. Mais avant cela, j'aimerais poser une question autour de cette notion d'interprétabilité. Puisqu'on voit bien que... Prenons cet exemple de Netflix qui est assez bon. Aujourd'hui Netflix signerait un accord, un serment, peu importe qui donne accès, qui permet de lire ses algorithmes. Aujourd'hui pour tout un chacun, pour nous citoyens en bout de chaîne, pour les consommateurs : c'est strictement illisible. C'est-à-dire qu'on a pas accès à la compréhension de ce qui va permettre de régir cet algorithme et d'ailleurs si nous n'y avons pas intérêt, évidemment la plate-forme elle-même a encore moins intérêt à donner ces informations-là. Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui alors effectivement, c'est là où il y a un effort international sur «Faut-il réguler, comment réguler ?» etc etc au-delà des chartes d'engagements individuelles. L'idée c'est aussi... Alors tout dépend si c'est du... J'allais dire du soft (rires). Si c'est du...<br />
<br />
<b>Nicolas Martin : </b>Logiciel ?<br />
<br />
<b>Nozha Boujemaa : </b>Non non. De la réglementation dure ou un peu plus légère mais en tout cas amener les producteurs de service à rendre compte. Parce qu'en fait, celui qui fait le service, on peut en fait et là je mentionne les efforts faits au niveau de la Commission européenne mais aussi au niveau de l'OCDE qui réfléchissent très très sérieusement par rapport à toutes ces questions parce qu'il y a une prise de conscience aujourd'hui internationale. Je ne dis pas que les solutions existent. Mais la prise de conscience et la nécessité, l'urgence d'agir : elle est là. Du coup, typiquement sur l'intelligibilité... Je ne parle pas d'explicabilité parce que des fois, on a peut-être pas besoin et peut-être pas les moyens techniques de l'explicabilité mais par contre, la traçabilité du pourquoi on a eu ce résultat du genre «tel produit ou tel contenu est recommandé pour vous». On aimerait bien avoir une sorte de tableau de bord qui va nous dire «Voilà les critères en pourcentage qui»...<br />
<br />
<b>Nicolas Martin : </b> «Vous avez fait tel choix, tel choix, tel choix donc le logiciel infère que vous allez aimer tel chose».<br />
<br />
<b>Nohza Boujemaa : </b>Les producteurs des services en fait par régulation, on pourrait les amener à apporter et justement en apportant ces critères-là, on respecte le libre arbitre du consommateur quand même. Parce que la, on clique sur ce qui est proposé mais est-ce qu'il est vraiment conscient de sur quoi... Enfin... C'est quand même léger aujourd'hui donc il y a cette notion de respect du libre arbitre via une règlementation dans ce sens-là. <br />
<br />
<b>Nicolas Martin : </b>Je vais prendre un exemple volontairement un chouia provocateur dans l'état actuel des choses mais encore une fois la transparence n'implique pas compréhension si on prend une plate-forme de Parcoursup dont l'algorithme a été rendu public par l'éducation nationale. Ce qui n'empêche pas personne de ne comprendre à aucun moment, les choix et les orientations que cet algorithme fait pour les étudiants qui veulent être inscrits dans les universités dont ils font fait le choix. Fait la demande pardon. <br />
<br />
<b>Frédéric Bardolle : </b>La complexité supérieure qui a en plus sur Parcoursup, c'est que il y a une partie du code qui est quand même caché. Le code qui est utilisé par les universités, celui-là, «la cuisine interne» comme ils appellent ça.<br />
<br />
<b>Nicolas Martin : </b>La sélection en bout de chaîne.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Celle-là, il y a toujours une demande, une requête qui a été faite à la Commission d'Accès aux Documents Administratifs, la CADA, qui est en cours mais qui n'a pas abouti à l'heure actuelle et ce code n'est pas rendu public. Donc, il manque quand même un bout de la chaîne. Pour revenir sur cette question d'auditabilité des algorithmes, nous quand on a essayé d'auditer l'algorithme de YouTube c'est un peu ce qu'on a fait avec <em>AlgoTransparency</em>, on s'est rendu compte de la complexité qu'il y avait. C'est-à dire que d'une : Tous les jours, l'algorithme change. Comme des gens regardent des vidéos, en fait ça fait changer l'algorithme. Donc finalement, quelle est la vraie version ? C'est compliqué à dire. <br />
<br />
<b>Nohza Boujemaa : </b>Les algorithmes et les corpus.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà.<br />
<br />
<b>Nohza Boujemaa : </b>Les corpus aussi. <br />
<br />
<b>Frédéric Bardolle : </b>Tout change au fur et à mesure. Et puis c'est d'une telle complexité. Si on a des réseaux de neurones, ça va être aussi dur par exemple de dire «On a regardé cette vidéo parce que il y a une personne qui a regardé ça». Des critères il peut y en avoir des millions et des millions donc on ne va pas forcément s'y retrouver. Et finalement, c'est un peu comme quand on regarde les émissions de particules fines d'une voiture je trouve. C'est-à-dire que finalement peu importe ce qui se passe dans la cuisine interne du moteur, ce qu'on va regarder à la fin c'est «Est-ce que il y a des particules qui sont émises ?» et c'est ça qui nous intéresse. Mais, ça c'est pas disponible à la hauteur, on n'a pas de mécanisme qui nous permet de nous connecter directement à une plate-forme et de savoir «Bah tiens si on fait telle chose, on aura telle chose de recommandé» et puis en plus on se dit «Si jamais ça ça existe, il va y avoir des trucages» comme il y a eu sur les voitures notamment quand on est arrêté, tout se passe bien et puis quand on roule en conditions réelles, ça ne marche plus du tout. C'est pas évident comme question.<br />
<br />
<b>Pause musicale : </b> <em>Algorithms</em> par <em>School is Cool</em><br />
<br />
<b>Nicolas Martin : </b><em>Algorithms</em> de <em>School is Cool</em> puisque c'est ce dont il est vaguement question au cours de cette heure puisque nous parlons d'éthique numérique et d'éthique en science des données et évidemment bien des algorithmes qui sont au centre de ces questions d'éthique, de leurs transparences, de leurs auditabilités et puis surtout de ce qu'il va se passer dans le futur. À partir d'aujourd'hui, avec les scientifiques qui sont formés aujourd'hui. Ces scientifiques doivent-ils être tenus, doivent-ils s'engager sur une sorte de charte de bonne conduite piur éviter, bien pour éviter toute sorte de dérives que l'on peut constater d'ores et déjà aujourd'hui. Nous en parlons avec Nohza Boujemaa qui est directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et avec Frédéric Bardolle qui est membre de l'association <em>Data for Good</em> qui a réalisé une plate-forme <em>AlgoTransparency</em> à propos de l'algorithme de YouTube à propos de laquelle on a entendu un reportage tout à l'heure. Mais comme tous les mercredis, aux alentours de cette heure à quelques minutes près, il est l'heure d'écouter la voix du futur de la recherche.<br />
<br />
[Jingle] <br />
<br />
<b>Nicolas Martin : </b>Et aujourd'hui, le futur de la recherche s'appelle Jérémie Poiroux. Bonjour Jérémie Poiroux.<br />
<br />
<b>Jérémie Poiroux : </b>Bonjour à tous, bonjour.<br />
<br />
<b>Nicolas Martin : </b>Bonjour. Vous êtes avec nous en ligne puisque vous suivez vos études au centre Marc Bloch à Berlin en partenariat avec le CNRS. Vous êtes en première année de thèse en sociologie dans le cadre du projet ANR <em>Algodiv</em>. Je crois que vous êtes présentement en Pologne. Le titre de votre thèse c'est «La fabrique des algorithmes de recommandation et de management» sous le prisme de leur conception et de leur impact au sein des organisations. Voilà, je vais vous laisser quelques minutes pour nous présenter vos travaux. C'est à vous.<br />
<br />
<b>Jérémie Poiroux : </b>Et bien merci beaucoup pour cette présentation très précise et avec beaucoup de pression sur le futur de sa recherche.<br />
<br />
<em>Rires</em><br />
<br />
<b>Jérémie Poiroux : </b>Donc c'est une thèse... Voilà,qui est sous la direction de Camille Roth. Donc là, j'étais en effet en Pologne mais là je suis de retour à Berlin donc pour continuer cette étude sur la fabrique des algorithmes de recommandation et de management. Alors c'est vrai pour prendre un peu le contre-pied de ce qui se fait en ce moment, il y a une littérature qui est assez limitée sur la fabrique. On parle pas mal de transparence, d'ouvrir la boîte noire, on a eu pas mal les débats aussi juste avant la pause musicale. Et quelque chose qui ne se fait pas beaucoup voilà c'est : Comment ils sont fabriqués ? Donc mon premier terrain c'est : les algorithmes de recommandation donc c'est des petits programmes... Peut-être que je dis des choses qui ont déjà été dites quelques minutes avant. Qui vont vous inviter voire vous inciter à consommer un contenu ou un produit. Donc, Ça peut être un film sur Netflix, on en reparle. Une chambre sur Airbnb ou un article sur le site d'un média. Vous me direz qu'en soi, recommander une saccoche quand j'achète un appareil photo ou un hôtel quand je vais passer une semaine en Grèce : c'est un peu de bonne guerre. Mais on peut plus se poser des questions quand il va s'agir de recommander du contenu culturel ou d'intérêt général car ils pourraient nous enfermer... Alors là je dis attention car il y a un «point Al Godwin» parce que on parle beaucoup de bulles filtrantes qui pourraient nous empêcher de voir plus loin que le bout de notre zone de confort. Je m'arrête ici sur les impacts car vous allez en parler, vous en avez beaucoup parlé. Donc en fait, je m'intéresse plutôt comme je le disais à la fabrique. Vous vous êtes déjà demandé, on va reprendre l'exemple de YouTube : Pourquoi il vont recommander (l'algorithme de YouTube, à droite ou sur la page d'accueil) cette vidéo de chatons ou la vidéo de terre plate ? Et donc, dans mon étude préparatoire que j'ai fait et que je suis entrain de terminer, qui lance la thèse, j'ai mené des entretiens avec plusieurs dizaines d'ingénieurs qui programment des algorithmes de recommandations pour des médias, pour des sites de <em>E-commerce</em>, pour des plates-formes de <em>streaming</em> pour mieux comprendre en fait d'où vient l'algorithme. L'objectif dans ma thèse, c'est de mettre en valeur les intentions, les pourquoi, les comment qui se cachent derrière les algos, les choix <em>business</em> ou encore les biais qui sont directement implémentés de manière consciente ou non dans la machine. Donc si on en revient à l'exemple de YouTube, c'est aller étudier : Pourquoi ils vous recommandent cette vidéo de terre plate alors que vous n'aviez rien demandé ? Alors c'est un peu dévoiler en quoi rien n'est laissé au hasard dans le monde merveilleux des algorithmes et puis de dévoiler un peu la face cachée de leurs impacts. Donc, je vais aller dans les entreprises, je vais faire de l'immersion, je vais observer la conception et le développement directement d'algorithmes. Qui fait quoi, d'où vient l'idée de base, quelles sont les contraintes, quelles sont les méthodes utilisées ou encore la conscience qu'on a dans les entreprises des impacts des algorithmes qu'ils ont conçus. Mais le bonheur ne s'arrête pas là et donc là c'est un peu la transition brute pour passer à l'autre temps de mon sujet qui est : l'utilisation des algorithmes qui de plus importante au sein même des entreprises. On voit depuis des années, des dizaines d'années, des robots remplacer les humains pour faire. Donc c'est sur les chaînes de production, dans les usines, dans les entrepôts pour préparer les commandes donc Amazon par exemple. Demain, les algorithmes ils vont être présents donc encore pour faire mais aussi pour organiser et <em>manager</em> le travail. Donc ça, c'est une grosse différence. C'est d'ailleurs déjà le cas avec Uber où les chauffeurs répondent aux ordres d'algorithmes qui sont <em>managers</em>. Pour se placer dans telle ou telle zone parce qu'il y a plus de personnes ou pour travailler sur telle ou telle plage horaire parce que Uber manque de chauffeurs à telle ou telle plage horaire. Donc à terme, Les algorithmes on peut dire, vont analyser les données de production, de ventes et de productivité pour prendre des décisions ou pour aider à la prise de décisions qui (ces décisions) auront un impact direct sur les travailleurs de l'organisation. Donc c'est une nouvelle pratique managériale on peut appeler ça comme ça, qui pose des questions de productivité et de conditions de travail évidemment. Et qui m'amènera à comparer les bureaucraties traditionnelles et les bureaucraties algorithmiques. Donc les questions éthiques, elles sont évidemment présentes dans les deux pans de la thèse. Par exemple : Que fait un ingénieur devant une demande d'un PDG et cette demande, cet ingénieur il la juge contraire à son éthique ? Ou que fait un manager qui soit invité par un algorithme de prendre une décision qu'il juge dangereuse pour son équipe ? Voilà, donc si vous êtes intéressé par les recherches et puis je fais un petit appel aussi à des entreprises qui peuvent m'accueillir pour cette immersion, n'hésitez pas à me contacter. Et puis je vous remercie pour votre écoute et finit mes quatre minutes de <em>futur de la recherche</em>. Et merci pour votre invitation Eve et Nicolas.<br />
<br />
==42'54==<br />
<b>Nicolas Martin : </b>Merci, merci beaucoup Jérémie. On va vous garder un instant en ligne si vous voulez bien parce que j'aimerais que vous interveniez et que vous réagissiez un peu à ce qui va se dire en studio. Je vais demander une réaction et puis félicitations pour le «point Al Godwin» qu'on a beaucoup aimé. Une réaction Nozha Boujemaa ? Je vous voyais approuver aux présentations des travaux de Jérémy Poiroux.<br />
<br />
<b>Nozha Boujemaa : </b>Alors effectivement, la recherche elle a un rôle très important à jouer. Ce dont on n'a pas encore bien appuyé, l'idée au-delà de l'auditabilité et du contrôle et de la transparence des algorithmes existants, c'est vraiment essentiel d'avoir une formation justement des étudiants à la réutilisation des briques, logiciels <em>Open source</em>, sur les fuites informationnelles mais surtout en fait c'est avoir en fait de nouveaux modèles mathématiques d'apprentissage qui puissent identifier des variables discriminatoires pour réduire leurs impacts sur les prises de décisions. Donc là, c'est vraiment d'un point de vue recherches. «Coeur d'IA», c'est-à-dire que au-delà des algorithmes existants, faire de nouveaux modèles qui incorporent ces idées : égalité et équité par construction dans le modèle mathéthique lui-même. Chose qui existe très rarement.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, un mot.<br />
<br />
<b>Frédéric Bardolle : </b>Moi j'ai juste une crainte c'est que même si on développe des nouveaux modèles aussi performants qui soient, on va pas réussir à résoudre le cœur du problème qui est que les plates-formes font ça enfin... On va seulement parler des recommandation de contenus par exemple avec un <em>business model</em> basé sur la publicité. Le but c'est d'avoir l'attention des personnes. Pour avoir cette attention, l'idéal c'est de proposer un contenu qui fasse les gens et le problème c'est que le contenu qui fait rester les gens, c'est des contenus extrémistes, voilà... Des contenus terroristes, des contenus conspirationnistes, ainsi de suite. <br />
<br />
<b>Nicolas Martin : </b>Oui dans le pire des cas, sur YouTube etc. Sur des sites de vente, on a peu de ventes de sacs à main terroristes.<br />
<br />
<b>Frédéric Bardolle : </b> Non non, je parlais juste des <em>business models</em>, quand le <em>business model</em> c'est de capturer l'attention des personnes et leur diffuser des contenus. Le problème c'est que ces contenus vont toujours gagner par rapport aux autres. Donc à part si on trouve des moyens de changer ce modèle-là, un algorithme qui recommande un contenu extrême : c'est un algorithme qui fonctionne bien en fait. C'est un algorithme qui fait exactement ce pourquoi il a été conçu c'est-à-dire : faire rester la personne sur la plate-forme. Lui, a rempli son travail en fait. Donc, l'algorithme fonctionne déjà plutôt bien.<br />
des <br />
<br />
<b>Nozha Boujemaa : </b>Je pense qu'il faut régir les cas d'usage au-delà de ces modèles-là. Par exemple, sur la variabilité des prix. Ce qui est autre chose. Quand on va sur des plates-formes pour réserver des nuits d'hôtel ou bien des billets d'avion ou de train, là il ne s'agit pas de l'attention là, là c'est un autre <em>business model</em>. Et là, on peut se retrouver dans des situations de discrimination justement quand on passe à l'acte d'achat, qu'on fait rentrer des données personnelles, on peut voir des variations de prix qui vont être dépendantes. On ne va pas avoir le même prix pour toutes les personnes. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>Aïe.<br />
<br />
<b>Nohza Boujemaa : </b>Donc c'est pour ça que à un moment donné, il faut voir vraiment une vue un peu plus...<br />
<br />
<b>Nicolas Martin : </b>En fonction de ? En fonction de la localisation géographique ? En fonction de ?<br />
<br />
<b>Nohza Boujemaa : </b>Ça peut être la localisation, origine, etc. Il y a certains formulaires qui demandent des questions...<br />
<br />
<b>Nicolas Martin : </b>Quand je rentre mes coordonnées de carte bleue pour acheter un billet d'avion, je ne donne pas accès à mon origine ethnique par exemple ?<br />
<br />
<b>Nohza Boujemaa : </b>Sur certains sites , enfin sur certains sites de services... Aujourd'hui c'est ça le problème : c'est que les services ne connaissent pas les frontières. Et donc on est amenés à réppndre à des questionnaires traduits qui sont faits par des firmes qui ne spécialement ou particulièrement françaises. D'accord ? Donc on peut se retrouver entrain de répondre avec des informations assez intrusives d'un point de vue données personnelles. Et là, on peut constater des variations de prix. Et d'ailleurs, dans ce cadre-là, par exemple, la DGCCRF qui est une autorité de régulation se pose vraiment la question.<br />
<br />
<b>Nicolas Martin : </b>Direction générale de la Concurrence, de la Consommation et de la Répression des fraudes.<br />
<br />
<b>Nohza Boujemaa : </b>Voilà et qui a envie d'ailleurs de lancer des sujets de recherche pour faire la part des choses. Parce que tout n'est pas condamnable. Le <em>lean management</em>, c'est légal. Par contre, faire une variabilité des prix qui est finalement une discrimination sur des raisons non avouées : ça c'est pas légal.<br />
<br />
==47'08==<br />
<b>Nicolas Martin : </b>J'aimerais qu'on revienne pour conclure dans le dernier quart d'heure qui nous reste sur cette notion de serment. Alors, il y a ce serment d'Hippocrate qu'on évoquait tout à l'heure via <em>Data for Good</em> et <em>AlgoTransparency</em>. Il y a un autre serment qui est le serment Holberton-Turing qui est une autre charte qui propose, en fait une forme de charte de bonne conduite. Ma première question, c'est ce lien avec Hippocrate. Le serment d'Hippocrate c'est le serment donc, qui est prêté par les médecins qui s'engagent. Je l'ai sous les yeux, je ne vais pas vous le redire mais bon : consacrer sa vie à sauver l'humanité, à sauver les vies, à ne pas discriminer en fonction de l'âge, de l'origine ethnique etc etc. Est-ce que c'est bien judicieux de mettre au même plan le serment qui est prêté par les médecins qui ont entre les mains des vies humaines et aujourd'hui, celui que l'on souhaite faire signer aux <em>data scientists</em> dans le monde numérique selon vous Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Alors on a choisi ce nom-là principalement parce que déjà ça résonnait avec les gens. Quand on parle de serment d'Hippocrate, n'importe qui voit de quoi il s'agit. Donc, c'est assez facile d'en parler. Et ce dont on s'est aperçu, c'est que finalement les gens qui créent ces services de science de données vont toucher énormément de personnes. Donc, ils ont un pouvoir individuel qui est donc finalement assez grand donc c'est pour ça qu'on a proposé ce serment qui nous semble important. C'est-à-dire qu'une petite équipe peut toucher un très très grand nombre de personnes. Donc c'est pour ça qu'on considère qu'il y a une responsabilité aussi individuelle à avoir et c'est pour ça qu'on s'est permis d'emprunter le nom d'Hippocrate.<br />
<br />
<b>Nicolas Martin : </b>Un mot à ce propos Jérémie Poiroux ? Un serment d'Hippocrate pour les <em>data scientists</em>, ça vous semble être aujourd'hui une démarche qui va dans le bon sens ou en tout cas une forme de responsabilisation des futurs ou des actuels <data scientists</em> dans le travail qui peuvent faire vis à vis des tiens comme ça peut être le cas dans vos prochains travaux, dans vos prochaines affectations?<br />
<br />
<b>Jérémie Poiroux : </b>Oui. Alors j'aimerais faire le parallèle avec ce qui s'est dit lors d'une conférence que j'ai organisée donc en début de semaine dernière <em>ethics by design</em>. On parle justement de l'éthique des <em>designers</em>. Les <em>designers</em>, le parallèle est assez fort parce que les <em>designers</em> notamment sur les questions d'attention, ils ont un pouvoir qui est assez fort. On peut dire exactement la même phrase. C'est quelques <em>designers</em> par exemple de chez Facebook, de chez Google donc c'est pas les <em>data scientists</em> mais c'est les personnes qui vont mettre en valeur visuellement les contenus pour que ça soit attractif, pour qu'on ait envie de cliquer dessus, pour qu'on ait d'acheter des fois. Et puis donc ces personnes, on se demandait aussi «Est-ce que il faut un serment d' Hippocrate pour cette profession?». Et donc la réponse qui était apportée... C'était un débat où il y avait «oui, non». Et je pense que je vais refaire la même pour celle des <em>data scientists</em>. C'est que oui c'est important d'avoir une... On va dire quelque de chose de... Plutôt un manifeste en fait qu'une charte qui serait là et à qui on pourrait se référer. Ce serait une éthique commune plutôt que qu'une éthique personnelle. Et après il y a aussi le pendant un peu contre où j'ai rejoint un peu plus on va dire. En l'état, c'est pas pour tout de suite. Parce que avoir un serment d'Hippocrate, ça veut aussi dire avoir des barrières à l'entrée d'un métier par exemple. C'est-à-dire que le métier de <em>data scientist</em>, tout le monde pourra pas dire <em>data scientist</em>. Ça sera une étiquette, il faudra passer par des concours, il y en a qui n'y seront pas. Et donc c'est toute une réflexion en fait, c'est toute une nouvelle façon d'appréhender la <em>data science</em> ou d'appréhender le <em>design</em>. D'avoir en fait des personnes qui suivent tout un processus et qui après sont on va dire «estampillées» <em>designers</em> ou <em>data scientists</em> et qui respectent une certaine charte. <br />
<br />
<b>Nicolas Martin : </b>Nohza Boujemaa, sur ce sujet. <br />
<br />
<b>Nohza Boujemaa : </b>Oui. Je pense que effectivement c'est une bonne action, une très bonne intention aussi pour sensibiliser les individus. Mais très clairement, c'est insuffisant. C'est-à-dire qu'il faut avoir l'engagement des entreprises. C'est la réalité. Et avoir des efforts en parallèle parce que très clairement, un employé d'une entreprise il peut être convaincu mais c'est je dirais... C'est l'entreprise et c'est la responsabilité de l'entreprise qui est engagée pas sa responsabilité personnelle. Mais ceci dit, c'est important d'avoir cette sensibilisation individuelle mais il ne faut pas s'arrêter là. Donc, l'effort qui est entrain d'être fait dans énormément d'endroits au niveau international, c'est d'impliquer vraiment d'impliquer les industriels de tout horizon. Parce que maintenant, ils comprennent que la question de la confiance : c'est une question là où ils peuvent perdre du marché. Et que la confiance, c'est un élément de compétitivité. Et du coup,ça génère une adhésion à ces questions d'IA responsable et ces questions de responsabilité. Donc il faudrait pouvoir joindre les deux bouts et pas seulement focaliser sur juste un aspect mais il faudrait aussi les deux bouts de la chaîne.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, cette question là effectivement de faire reposer le serment d'Hippocrate sur les individus en formation c'est-à-dire sur les <em>data scientists</em> plutôt qu'une sorte de charte de bonne conduite au niveau international, au niveau pourquoi pas européen pour commencer et puis ensuite avec la volonté de l'élargir parce que la question qui se pose entre les individus qui vont être à un moment donné pris dans une chaîne de production et effectivement le poids peut faire poser les responsables de cette chaîne de production. Donc, l'entreprise. Le poids est assez écrasant, je veux dire qu'on ne lutte pas à armes égales. <br />
<br />
<b>Frédéric Bardolle : </b>Alors effectivement non, on n'a pas fait ce projet pour dire «le fun de le faire en entreprise» (???), ça ne sert à rien. C'était un premier pas. C'était pour agir rapidement en fait. Proposer quelque chose rapidement aux personnes. Parce que on s'est rendus compte qu'il y avait un besoin et du coup on va notamment le proposer dans les écoles et dans les entreprises. Après, il faut voir que certaines entreprises notamment américaines comme Google, ont fait des serments d'éthique pour l'IA. On dit «Bah non, on refuse de travailler par exemple sur certains projets militaires, on refuse de faire ça, ça, ça». <br />
<br />
<b>Nicolas Martin : </b>Récemment. <br />
<br />
<b>Frédéric Bardolle : </b>Récemment. Et ça engage... <br />
<br />
<b>Nozha Boujemaa : </b>Parce qu'ils ont compris l'importance de la confiance. <br />
<br />
<b>Frédéric Bardolle : </b>Ça engage que ceux qui y croient. Et je pense que là où je vous rejoins sur l'importance de la confiance, c'est que je suis persuadé qu'en Europe, la carte qu'on a jouée sur le numérique et notre caractère distinctif par rapport aux États-Unis et par rapport à la Chine,ça va être justement sur ça : sur créer des entreprises qui utilisent l'IA mais de manière éthique. Et un exemple très concret pour ça c'est <em>Snips</em>. C'est une entreprise qui fait un assistant vocal dans lequel il n'y a aucune donnée qui est envoyée sur internet, les données restent chez vous. C'est pas comme si vous aviez un micro qui enregistre en permanence tout ce qui se dit chez vous. Donc voilà, je pense qu'on peut faire la différence avec ce genre d'entreprises et l'éthique n'est pas incompatible avec le commerce qui fonctionne.<br />
<br />
<b>Nohza Boujemaa : </b>Il y a effectivement, je rajoute tout ce qui est <em>personal informations management system</em>. C'est tout ce qui est modèle de protection des données personnelles de manière distribuée, qui ne quitte pas votre ordinateur. Et donc, il y a énormément de choses qui restent à faire mais je voulais quand même mentionner que au niveau de la commission européenne, il y a un <em>high-level expert group</em>...<br />
<br />
<b>Nicolas Martin : </b>Un groupe de haute expertise, à haut niveau d'expertise.<br />
<br />
<b>Nozha Boujemaa : </b>En IA. Qui est constitué par la commission européenne. Pour pouvoir apporter des recommandations à la fois éthiques mais aussi de régulation et également d'investissement en recherche et développement. Et la pièce maîtresse c'est : comment faire de l'IA la plaque tournante d'une IA nouvelle et différente de ce qui est proposé dans le reste du monde? Et l'éthique et la responsabilité de l'IA en fait une pièce maîtresse.<br />
<br />
==54'43==<br />
<b>Nicolas Martin : </b>J'ai une question peut-être très naïve ou béotien, Jérémie Poiroux je vais vous la poser en premier lieu. Est-ce que aujourd'hui ces questionnements éthiques qui sont les nôtres autour de cette table qui sont manifestement partagés par un certain nombre d'acteurs européens, ils ont un sens au niveau international notamment avec votre regard quand on commence une carrière dans ce métier-là ? On sait qu'il y a des pays avec des pratiques qui sont plus dans l'incrémentation en puissance plutôt que la limitation éthique pour le résumer à grands traits.<br />
<br />
<b>Jérémie Poiroux : </b>Oui c'est... Disons que la question de l'éthique et du business, elle est clairement pas nouvelle. Donc en Europe, on a on peut dire une longueur d'avance là-dessus et je pense que la réponse simple c'est très clairememnt dans d'autres pays et on pensent très facilement aux États-Unis. Il n'y a pas cette notion, il n'y a pas cette culture. <br />
<br />
<b>Nicolas Martin : </b>Ou à l'Asie oui. On pensaient plutôt à la Chine ici personnellement, on avaient plutôt la Chine en tête en fait. Mais pourquoi pas les États-Unis oui. <br />
<br />
<b>Jérémie Poiroux : </b>Ah oui bah... Encore mieux parce que comme ça vous pourriez faire un tour du monde ensuite sur la Chine. Non je pense que déjà sur une question d'éthique avec les États-Unis, on est vraiment différents. On n'a pas cette même approche de l'implémentation de l'éthique dans le numérique, du code, de développer et de programmer directement dur l'éthique dans les programmes et d'avoir plutôt cette notion du buisiness. On le voit avec le RGPD par exemple, je pense que c'est un premier... Une première chose, un écho en fait qui n'est pas tout à fait sur le même temps mais en <em>privacy by design</em>, on voit que l'Europe est en avance et que toute cette réflexion elle est aussi en avance par rapport aux États-Unis. Je vous laisse le côté Chine.<br />
<br />
<b>Nicolas Martin : </b>On va voir pas forcément le côté Chine, le côté international. C'est une bonne chose évidemment que l'Europe soit en avance sur les questions éthiques mais est-ce que ce n'est pas aussi un frein au développement <em>stricto sensu</em> technologique Frédéric Bardolle ?<br />
<br />
<b>Frédéric Bardolle : </b>Alors c'est peut-être un frein dans un premier temps effectivement. Quand on étaient techno-optimistes et que tout se passait bien effectivement c'était embêtant de se poser des questions sur la <em>privacy</em> mais maintenant, quand on voit toutes les fuites de données, il n'y a pas une semaine qui passe sans qu'il y ait une fuite de données chez un GAFA et ainsi de suite.<br />
<br />
<b>Nicolas Martin : </em>Récemment, 50 millions de comptes piratés chez Facebook. <br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Et la même semaine, Facebook sort une espèce de caméra qu'on met chez soi et ce qu'ils appellent le <em>privacy by design</em>, c'est une espèce de petit cache en plastique qu'on met pour cacher la caméra. Pour eux c'est ça la <em>privacy</em>. Donc effectivement, à un moment donné ça a pu être un frein mais sur le long terme, on sera à mon avis clairement les gagnants de ce jeu. <br />
<br />
<b>Nohza Boujemaa : </b>Je crois que...<br />
<br />
<b>Nicolas Martin : </b>Un dernier mot de conclusion.<br />
<br />
<b>Nohza Boujemaa : </b>Oui. Effectivement ça c'est très important et en tout cas, l'Europe et la commission européenne, ils ont compris. On a été hier en Finlande en réunion avec la commission européenne et avec les représentants des différents états membres sur le numérique et l'IA. Très clairement, c'est identifié. Maintenant, il y a des acteurs américains qui ont compris que pour avoir du marché sur le terrain européen, il va falloir qu'ils soient conformes justement à ces règles à la fois éthiques et de responsabilité d'IA. <br />
<br />
<b>Nicolas Martin : </b>Merci beaucoup, merci ça sera le mot de la fin. Merci beaucoup à tous les trois. Merci Nohza Boujemaa, merci Frédéric Bardolle, merci Jérémie Poiroux qui était en direct au téléphone depuis Berlin. Merci à tous d'être venus participer et discuter autour de ces questions d'éthique numérique à ce micro. Je vous rappelle que comme tous les mercredis, c'est le jour de la sortie des <em>idées claires</em>. En <em>podcast</em> mais également en vidéo sur vos réseaux sociaux favoris. Une petite vidéo qui s'attaque aux idées reçues, aux idées complotistes, aux distorsions de l'information. Aujourd'hui la question que nous posons dans <em>les idées claires</em> et vous pouvez aller voir ça sur le Facebook notamment ou le Twitter de France Culture et de Franceinfo puisque c'est en partenariat entre les deux chaînes.</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85624Éthique numérique, des datas sous serment - La méthode scientifique2019-09-03T23:22:38Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen - Soline Ledésert - Jérémie Poiroux<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lançait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un serment d'Hippocrate des <em>data scientists</em>. Donc on a fait une petite recherche, il y en avait déjà qui circulaient et pour se différencier de ceux qui existaient déjà, on avait vraiment crée un serment d'Hippocrate qui aidait dans au quotidien, dans leur pratique les <em>data scientists</em>. Vraiment à se dire, on a découpé le travail en grandes étapes de la participation d'un projet, à l'analyse de résultats en passant par la collecte de données et l'application de modèles algorithmiques. On s'est dit «À chaque étape, quels sont les dilemmes éthiques auxquels un <em>data Scientist</em> peut être confronté et ensuite comment il peut résoudre ces problèmes ?». Donc on a fait un questionnaire en ligne, on a récolté des expériences diverses et ensuite on a travaillé pendant trois mois en atelier à rédiger collaborativement un serment d'Hippocrate. Donc là, il est disponible sur hippocrate.tech. Donc on a posé cinq valeurs : L'intégrié scientifique et la rigueur, la transparence, l'équité, le respect et la responsabilité et l'indépendance. Et ensuite, on a formulé des phrases sous la forme de «Je m'engage à faire ceci ou cela» donc ça concerne effectivement le respect de la vie privée donc à chaque fois, à chaque ligne on rappelle aussi le cadre légal européen du Règlement Général pour la Protection des Données personnelles. Le <em>data scientist</em> signataire s'engage à déterminer le meilleur compromis entre la performance et l'interprétabilité. Pourquoi l'interprétabilité c'est important ? Parce que par exemple si vous faites tourner un algorithme par exemple sur la question de votre allocation familiale et si l'algorithme vous dit «Bah non, vous n'y avez pas droit» et que la personne qui a fait tourner l'algorithme vous dit «Et bien écoutez, je ne peux pas vous l'expliquer, mais c'est comme ça» ça peut poser des problèmes. Donc on a fait ce genre de recherche. <br />
<br />
<b>Céline Loozen : </b>Quelle est la valeur juridique de cette charte ? Comment on pourrait l'appliquer réellement ?<br />
<br />
<b>Soline Ledésert : </b>Nous on est vraiment dans une démarche plutôt citoyenne. À chaque fois, on l'a formulée de façon à veiller, enfin le <em>data scientist</em> veille à ce que les choses se fassent. Mais un <em>data scientist</em> il peut travailler dans une administration, dans une entreprise, au sein d'un labo de recherche et il n'est jamais seul décisionnaire sur vraiment l'ensemble du projet donc nous on a pris cette approche dans le cadre de ce projet vers la responsabilité personnelle. Après, on a aussi rappelé la loi donc là c'est vrai que le RGPD a vraiment amené beaucoup plus de contraintes sur ces questions mais voilà, nous on est vraiment parti sur un modèle d'éthique personnelle. <br />
<br />
[Fin de la musique de fond]<br />
<br />
<b>Nicolas Martin : </b>Voilà le reportage du jour sur cette plate-forme <em>AlgoTransparency</em>. Je vais vous demander évidemment Frédéric Bardolle, une réaction puisque c'est votre association <em>Data For Good</em> qui développe cette plate-forme.<br />
<br />
<b>Frédéric Bardolle : </b>Déjà merci. C'est Soline qui a vraiment porté le projet sur le serment d'Hippocrate et Guillaume Chaslot qui est à plein temps sur ce projet de <em>Algotransparency</em> et qui essaie d'étudier notamment avec des scientifiques américains, essayer d'étudier d'autres algorithmes et leurs fonctionnements, essayer de mieux comprendre comment ça marche. Moi je voulais revenir surtout sur une chose c'est que effectivement il y a une responsabilité individuelle donc à travers ce serment qu'on propose. Mais on pense également qu'il y a comme le disait Soline qu'il y a aussi une responsabilité finalement aussi, il y a des institutions à créer pour permettre de transformer la manière dont fonctionne le numérique à l'heure actuelle. Un exemple : à l'heure actuelle, il n'y a pas de statut intermédiaire entre un hébergeur et un média. Et le problème c'est quoi ? C'est que en fait...<br />
<br />
<b>Nicolas Martin : </b>Exemple concret. Par exemple, prenons un réseau social. Pour les auditeurs, exemple concret : Facebook.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà Facebook ou YouTube, c'est des hébergeurs. Donc, ils ne sont pas responsables du contenu. Tout le contenu publié chez eux c'est pas sous leur responsabilité. Au contraire un média, tout ce qui est produit, si on dit quelque chose qui ne respecte pas la loi à la radio...<br />
<br />
<b>Nicolas Martin : </b>Sur France Culture.<br />
<br />
<b>Frédéric Bardolle : Et bien quelqu'un portera la responsabilité. <br />
<br />
<b>Nicolas Martin : </b>La directrice de la chaîne, moi d'abord et puis ensuite la présidente. <br />
<br />
<b>Frédéric Bardolle : </b>Et donc il y a un grand écart en fait. Ce statut d'hébergeur ça marchait très bien au début de l'internet finalement. C'était juste des annuaires où il y avait toutes les vidéos des contenus produits par les internautes qui étaient là. Finalement, c'est vrai qu'il n'y avait pas de rôle de responsabilité. Mais là en fait on assiste à quelque chose. C'est-à-dire qu'un algorithme qui propose 100 000 fois un contenu à un utilisateur, on pourrait se dire «Quand même, il a un rôle éditorial». Même si ce n'est pas un humain qui a fait ce choix de poser ça là. Au bout d'un moment lorsqu'une nouvelle est diffusée de manière massive comme ça, nous on considère que cette plate-forme a un rôle éditorial, devrait avoir une responsabilité juridique et parce que l'algorithme a un rôle éditorial dans ses contenus. <br />
<br />
<b>Nicolas Martin : </b>Une réaction à ce que viens de dire Frédéric Bardolle et sur cette plate-forme <em>AlgoTransparency</em>. On va parler du serment d'Hippocrate dans un instant mais d'abord sur le reportage et sur cette notion très très intéressante de distnction entre l'hébergeur et média.<br />
<br />
<b>Nozha Boujemaa : </b>Oui... Et bien je suis d'accord dans la mesure où effectivement l'évolution des rôles aujourd'hui, la frontière est très mince et surtout que les contenus en fait aujourd'hui sont consommés. Il n'y a plus effectivement ce rôle éditorial fait par un professionnel mais aujourd'hui c'est fait par un algorithme de recommandation de contenus. Et donc, très clairement la question de la neutralité de la recommandation du contenu se pose. Et au-delà de ces... En fait... Moi je voudrais pointer toujours sur cette même problématique, un autre contexte qui peut être embêtant. C'est pas du B2C en fait c'est du B2B. Plate-forme juste au hasard...<br />
<br />
<b>Nicolas Martin : </b>On rappelle : B2C c'est <em>business-to-consumer</em>...<br />
<br />
<b>Nozha Boujemaa : </b>Voilà.<br />
<br />
<b>Nicolas Martin : </b>Et B2B c'est <em>business-to-business</em> voilà.<br />
<br />
<b>Nozha Boujemaa : </b>Exactement. <br />
<br />
<b>Nicolas Martin : </b>Donc de l'entreprise à l'entreprise et de l'entreprise au consommateur.<br />
<br />
<b>Nozha Boujemaa : </b>Merci.<br />
<br />
<b>Nicolas Martin : </b>C'est juste un petit bout de traduction franco-anglaise qu'on nous reproche souvent à juste titre d'être trop anglophone. <br />
<br />
<b>Nozha Boujemaa : </b>Tout à fait, tout à fait. À juste titre.<br />
<br />
<b>Nicolas Martin : </b>Allons-y.<br />
<br />
<b>Nozha Boujemaa : </b>Donc faire des recommandations de consommation de contenus culturels sur une plate-forme qui n'a pas de modèle d'affaires qui soit de la publicité. Je prends pour exemple Netflix. Une fois qu'on paye l'abonnement, on n'a pas de publicités à regarder.<br />
<br />
<b>Nicolas Martin : </b>Pour le moment.<br />
<br />
<b>Nozha Boujemaa : </b>Pour le moment. On peut se poser la question : C'est quoi les motivations des algorithmes de recommandation là-dedans ? D'accord ? Donc là, c'est un autre cas d'usage auquel il faudrait aussi un petit peu s'y intéresser. Parce que là très clairement, la question de la concurrence va se poser entre des producteurs de contenus qui sont, qui ont des accords avec Netflix et ceux qui ne l'ont pas. Et aussi avec des producteurs de contenus culturels de l'industrie française par exemple qui peut se retrouver lésée. Et là, c'est un problème de concurrence et de position dominante et le ministère de la culture aussi à ma connaissance s'intéresse également à ces questions.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, c'est intéressant cet exemple de Netflix parce que effectivement... Par ailleurs, on peut aussi imaginer que puisque tous ces algorithmes sont biaisés et qu'il y a une intentionnalité derrière, dans ces biais, on peut imaginer que l'algorithme de Netflix privilégie les productions internes de Netflix et pas le contenu qui a été racheté à d'autres sociétés de production qui sont hébergées seulement sur la plate-forme pour prévilégier le contenu interne et dire «Et bien vous voyez, les produits Netflix fonctionnent mieux que les produits un tel de FOX ou un air peu importe».<br />
<br />
<b>Nozha Boujemaa : </b>Et ce n'est pas forcément une personnalisation pour le consommateur je rappelle. <br />
<br />
<b>Nicolas Martin : </b>Bien sûr.<br />
<br />
<b>Frédéric Bardolle : </b>Et...<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Et comme on n'a aucune transparence sur qu'est-ce qu'on essaie d'optimiser avec cet algorithme, finalement on ne le saura jamais. Et c'est un gros problème. Et pour montrer l'ampleur un peu de la chose, il faut savoir que 70 % à 80 % du contenu sur Netflix provient de recommandations. Donc ce n'est pas quelque chose qui se fait à la marge. C'est que les gens consomment ce qu'on leur recommande en fait. C'est vraiment quelque chose qui est phénoménal et sur toutes les plates-formes c'est la même chose.<br />
<br />
<b>Nicolas Martin : </b>Parce que par ailleurs sur Netflix, la plate-forme est une gigantesque plate-forme de recommandations. C'est-à-dire que la plate-forme n'est pas présentée par ordre alphabétique par exemple ou par ordre de nouveautés ou très très peu. Elle n'est que...<br />
<br />
<b>Nozha Boujemaa : </b> Elle va le rajouter, elle est là.<br />
<br />
<b>Nicolas Martin : </b>Voilà. Ce qui est intéressant alors. On entendait dans la reportage quelque chose sur laquelle j'aimerais vous faire réagir. On va parler évidemment surtout dans la deuxième partie, de cette notion de serment d'Hippocrate : À il s'addresse, de son côté un peu finaliste c'est-à-dire de dire que le serment est signé finalement par les <em>data scientists</em>, par les scientifiques de données. Et pourquoi est-ce que ce serait les individus qui doivent s'engager et non pas les plate-formes ? C'est une question qui me semble importante à traiter. Mais avant cela, j'aimerais poser une question autour de cette notion d'interprétabilité. Puisqu'on voit bien que... Prenons cet exemple de Netflix qui est assez bon. Aujourd'hui Netflix signerait un accord, un serment, peu importe qui donne accès, qui permet de lire ses algorithmes. Aujourd'hui pour tout un chacun, pour nous citoyens en bout de chaîne, pour les consommateurs : c'est strictement illisible. C'est-à-dire qu'on a pas accès à la compréhension de ce qui va permettre de régir cet algorithme et d'ailleurs si nous n'y avons pas intérêt, évidemment la plate-forme elle-même a encore moins intérêt à donner ces informations-là. Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui alors effectivement, c'est là où il y a un effort international sur «Faut-il réguler, comment réguler ?» etc etc au-delà des chartes d'engagements individuelles. L'idée c'est aussi... Alors tout dépend si c'est du... J'allais dire du soft (rires). Si c'est du...<br />
<br />
<b>Nicolas Martin : </b>Logiciel ?<br />
<br />
<b>Nozha Boujemaa : </b>Non non. De la réglementation dure ou un peu plus légère mais en tout cas amener les producteurs de service à rendre compte. Parce qu'en fait, celui qui fait le service, on peut en fait et là je mentionne les efforts faits au niveau de la Commission européenne mais aussi au niveau de l'OCDE qui réfléchissent très très sérieusement par rapport à toutes ces questions parce qu'il y a une prise de conscience aujourd'hui internationale. Je ne dis pas que les solutions existent. Mais la prise de conscience et la nécessité, l'urgence d'agir : elle est là. Du coup, typiquement sur l'intelligibilité... Je ne parle pas d'explicabilité parce que des fois, on a peut-être pas besoin et peut-être pas les moyens techniques de l'explicabilité mais par contre, la traçabilité du pourquoi on a eu ce résultat du genre «tel produit ou tel contenu est recommandé pour vous». On aimerait bien avoir une sorte de tableau de bord qui va nous dire «Voilà les critères en pourcentage qui»...<br />
<br />
<b>Nicolas Martin : </b> «Vous avez fait tel choix, tel choix, tel choix donc le logiciel infère que vous allez aimer tel chose».<br />
<br />
<b>Nohza Boujemaa : </b>Les producteurs des services en fait par régulation, on pourrait les amener à apporter et justement en apportant ces critères-là, on respecte le libre arbitre du consommateur quand même. Parce que la, on clique sur ce qui est proposé mais est-ce qu'il est vraiment conscient de sur quoi... Enfin... C'est quand même léger aujourd'hui donc il y a cette notion de respect du libre arbitre via une règlementation dans ce sens-là. <br />
<br />
<b>Nicolas Martin : </b>Je vais prendre un exemple volontairement un chouia provocateur dans l'état actuel des choses mais encore une fois la transparence n'implique pas compréhension si on prend une plate-forme de Parcoursup dont l'algorithme a été rendu public par l'éducation nationale. Ce qui n'empêche pas personne de ne comprendre à aucun moment, les choix et les orientations que cet algorithme fait pour les étudiants qui veulent être inscrits dans les universités dont ils font fait le choix. Fait la demande pardon. <br />
<br />
<b>Frédéric Bardolle : </b>La complexité supérieure qui a en plus sur Parcoursup, c'est que il y a une partie du code qui est quand même caché. Le code qui est utilisé par les universités, celui-là, «la cuisine interne» comme ils appellent ça.<br />
<br />
<b>Nicolas Martin : </b>La sélection en bout de chaîne.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Celle-là, il y a toujours une demande, une requête qui a été faite à la Commission d'Accès aux Documents Administratifs, la CADA, qui est en cours mais qui n'a pas abouti à l'heure actuelle et ce code n'est pas rendu public. Donc, il manque quand même un bout de la chaîne. Pour revenir sur cette question d'auditabilité des algorithmes, nous quand on a essayé d'auditer l'algorithme de YouTube c'est un peu ce qu'on a fait avec <em>AlgoTransparency</em>, on s'est rendu compte de la complexité qu'il y avait. C'est-à dire que d'une : Tous les jours, l'algorithme change. Comme des gens regardent des vidéos, en fait ça fait changer l'algorithme. Donc finalement, quelle est la vraie version ? C'est compliqué à dire. <br />
<br />
<b>Nohza Boujemaa : </b>Les algorithmes et les corpus.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà.<br />
<br />
<b>Nohza Boujemaa : </b>Les corpus aussi. <br />
<br />
<b>Frédéric Bardolle : </b>Tout change au fur et à mesure. Et puis c'est d'une telle complexité. Si on a des réseaux de neurones, ça va être aussi dur par exemple de dire «On a regardé cette vidéo parce que il y a une personne qui a regardé ça». Des critères il peut y en avoir des millions et des millions donc on ne va pas forcément s'y retrouver. Et finalement, c'est un peu comme quand on regarde les émissions de particules fines d'une voiture je trouve. C'est-à-dire que finalement peu importe ce qui se passe dans la cuisine interne du moteur, ce qu'on va regarder à la fin c'est «Est-ce que il y a des particules qui sont émises ?» et c'est ça qui nous intéresse. Mais, ça c'est pas disponible à la hauteur, on n'a pas de mécanisme qui nous permet de nous connecter directement à une plate-forme et de savoir «Bah tiens si on fait telle chose, on aura telle chose de recommandé» et puis en plus on se dit «Si jamais ça ça existe, il va y avoir des trucages» comme il y a eu sur les voitures notamment quand on est arrêté, tout se passe bien et puis quand on roule en conditions réelles, ça ne marche plus du tout. C'est pas évident comme question.<br />
<br />
<b>Pause musicale : </b> <em>Algorithms</em> par <em>School is Cool</em><br />
<br />
<b>Nicolas Martin : </b><em>Algorithms</em> de <em>School is Cool</em> puisque c'est ce dont il est vaguement question au cours de cette heure puisque nous parlons d'éthique numérique et d'éthique en science des données et évidemment bien des algorithmes qui sont au centre de ces questions d'éthique, de leurs transparences, de leurs auditabilités et puis surtout de ce qu'il va se passer dans le futur. À partir d'aujourd'hui, avec les scientifiques qui sont formés aujourd'hui. Ces scientifiques doivent-ils être tenus, doivent-ils s'engager sur une sorte de charte de bonne conduite piur éviter, bien pour éviter toute sorte de dérives que l'on peut constater d'ores et déjà aujourd'hui. Nous en parlons avec Nohza Boujemaa qui est directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et avec Frédéric Bardolle qui est membre de l'association <em>Data for Good</em> qui a réalisé une plate-forme <em>AlgoTransparency</em> à propos de l'algorithme de YouTube à propos de laquelle on a entendu un reportage tout à l'heure. Mais comme tous les mercredis, aux alentours de cette heure à quelques minutes près, il est l'heure d'écouter la voix du futur de la recherche.<br />
<br />
[Jingle] <br />
<br />
<b>Nicolas Martin : </b>Et aujourd'hui, le futur de la recherche s'appelle Jérémie Poiroux. Bonjour Jérémie Poiroux.<br />
<br />
<b>Jérémie Poiroux : </b>Bonjour à tous, bonjour.<br />
<br />
<b>Nicolas Martin : </b>Bonjour. Vous êtes avec nous en ligne puisque vous suivez vos études au centre Marc Bloch à Berlin en partenariat avec le CNRS. Vous êtes en première année de thèse en sociologie dans le cadre du projet ANR <em>Algodiv</em>. Je crois que vous êtes présentement en Pologne. Le titre de votre thèse c'est «La fabrique des algorithmes de recommandation et de management» sous le prisme de leur conception et de leur impact au sein des organisations. Voilà, je vais vous laisser quelques minutes pour nous présenter vos travaux. C'est à vous.<br />
<br />
<b>Jérémie Poiroux : </b>Et bien merci beaucoup pour cette présentation très précise et avec beaucoup de pression sur le futur de sa recherche.<br />
<br />
<em>Rires</em><br />
<br />
<b>Jérémie Poiroux : </b>Donc c'est une thèse... Voilà,qui est sous la direction de Camille Roth. Donc là, j'étais en effet en Pologne mais là je suis de retour à Berlin donc pour continuer cette étude sur la fabrique des algorithmes de recommandation et de management. Alors c'est vrai pour prendre un peu le contre-pied de ce qui se fait en ce moment, il y a une littérature qui est assez limitée sur la fabrique. On parle pas mal de transparence, d'ouvrir la boîte noire, on a eu pas mal les débats aussi juste avant la pause musicale. Et quelque chose qui ne se fait pas beaucoup voilà c'est : Comment ils sont fabriqués ? Donc mon premier terrain c'est : les algorithmes de recommandation donc c'est des petits programmes... Peut-être que je dis des choses qui ont déjà été dites quelques minutes avant. Qui vont vous inviter voire vous inciter à consommer un contenu ou un produit. Donc, Ça peut être un film sur Netflix, on en reparle. Une chambre sur Airbnb ou un article sur le site d'un média. Vous me direz qu'en soi, recommander une saccoche quand j'achète un appareil photo ou un hôtel quand je vais passer une semaine en Grèce : c'est un peu de bonne guerre. Mais on peut plus se poser des questions quand il va s'agir de recommander du contenu culturel ou d'intérêt général car ils pourraient nous enfermer... Alors là je dis attention car il y a un «point Al Godwin» parce que on parle beaucoup de bulles filtrantes qui pourraient nous empêcher de voir plus loin que le bout de notre zone de confort. Je m'arrête ici sur les impacts car vous allez en parler, vous en avez beaucoup parlé. Donc en fait, je m'intéresse plutôt comme je le disais à la fabrique. Vous vous êtes déjà demandé, on va reprendre l'exemple de YouTube : Pourquoi il vont recommander (l'algorithme de YouTube, à droite ou sur la page d'accueil) cette vidéo de chatons ou la vidéo de terre plate ? Et donc, dans mon étude préparatoire que j'ai fait et que je suis entrain de terminer, qui lance la thèse, j'ai mené des entretiens avec plusieurs dizaines d'ingénieurs qui programment des algorithmes de recommandations pour des médias, pour des sites de <em>E-commerce</em>, pour des plates-formes de <em>streaming</em> pour mieux comprendre en fait d'où vient l'algorithme. L'objectif dans ma thèse, c'est de mettre en valeur les intentions, les pourquoi, les comment qui se cachent derrière les algos, les choix <em>business</em> ou encore les biais qui sont directement implémentés de manière consciente ou non dans la machine. Donc si on en revient à l'exemple de YouTube, c'est aller étudier : Pourquoi ils vous recommandent cette vidéo de terre plate alors que vous n'aviez rien demandé ? Alors c'est un peu dévoiler en quoi rien n'est laissé au hasard dans le monde merveilleux des algorithmes et puis de dévoiler un peu la face cachée de leurs impacts. Donc, je vais aller dans les entreprises, je vais faire de l'immersion, je vais observer la conception et le développement directement d'algorithmes. Qui fait quoi, d'où vient l'idée de base, quelles sont les contraintes, quelles sont les méthodes utilisées ou encore la conscience qu'on a dans les entreprises des impacts des algorithmes qu'ils ont conçus. Mais le bonheur ne s'arrête pas là et donc là c'est un peu la transition brute pour passer à l'autre temps de mon sujet qui est : l'utilisation des algorithmes qui de plus importante au sein même des entreprises. On voit depuis des années, des dizaines d'années, des robots remplacer les humains pour faire. Donc c'est sur les chaînes de production, dans les usines, dans les entrepôts pour préparer les commandes donc Amazon par exemple. Demain, les algorithmes ils vont être présents donc encore pour faire mais aussi pour organiser et <em>manager</em> le travail. Donc ça, c'est une grosse différence. C'est d'ailleurs déjà le cas avec Uber où les chauffeurs répondent aux ordres d'algorithmes qui sont <em>managers</em>. Pour se placer dans telle ou telle zone parce qu'il y a plus de personnes ou pour travailler sur telle ou telle plage horaire parce que Uber manque de chauffeurs à telle ou telle plage horaire. Donc à terme, Les algorithmes on peut dire, vont analyser les données de production, de ventes et de productivité pour prendre des décisions ou pour aider à la prise de décisions qui (ces décisions) auront un impact direct sur les travailleurs de l'organisation. Donc c'est une nouvelle pratique managériale on peut appeler ça comme ça, qui pose des questions de productivité et de conditions de travail évidemment. Et qui m'amènera à comparer les bureaucraties traditionnelles et les bureaucraties algorithmiques. Donc les questions éthiques, elles sont évidemment présentes dans les deux pans de la thèse. Par exemple : Que fait un ingénieur devant une demande d'un PDG et cette demande, cet ingénieur il la juge contraire à son éthique ? Ou que fait un manager qui soit invité par un algorithme de prendre une décision qu'il juge dangereuse pour son équipe ? Voilà, donc si vous êtes intéressé par les recherches et puis je fais un petit appel aussi à des entreprises qui peuvent m'accueillir pour cette immersion, n'hésitez pas à me contacter. Et puis je vous remercie pour votre écoute et finit mes quatre minutes de <em>futur de la recherche</em>. Et merci pour votre invitation Eve et Nicolas.<br />
<br />
==42'54==<br />
<b>Nicolas Martin : </b>Merci, merci beaucoup Jérémie. On va vous garder un instant en ligne si vous voulez bien parce que j'aimerais que vous interveniez et que vous réagissiez un peu à ce qui va se dire en studio. Je vais demander une réaction et puis félicitations pour le «point Al Godwin» qu'on a beaucoup aimé. Une réaction Nozha Boujemaa ? Je vous voyais approuver aux présentations des travaux de Jérémy Poiroux.<br />
<br />
<b>Nozha Boujemaa : </b>Alors effectivement, la recherche elle a un rôle très important à jouer. Ce dont on n'a pas encore bien appuyé, l'idée au-delà de l'auditabilité et du contrôle et de la transparence des algorithmes existants, c'est vraiment essentiel d'avoir une formation justement des étudiants à la réutilisation des briques, logiciels <em>Open source</em>, sur les fuites informationnelles mais surtout en fait c'est avoir en fait de nouveaux modèles mathématiques d'apprentissage qui puissent identifier des variables discriminatoires pour réduire leurs impacts sur les prises de décisions. Donc là, c'est vraiment d'un point de vue recherches. «Coeur d'IA», c'est-à-dire que au-delà des algorithmes existants, faire de nouveaux modèles qui incorporent ces idées : égalité et équité par construction dans le modèle mathéthique lui-même. Chose qui existe très rarement.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, un mot.<br />
<br />
<b>Frédéric Bardolle : </b>Moi j'ai juste une crainte c'est que même si on développe des nouveaux modèles aussi performants qui soient, on va pas réussir à résoudre le cœur du problème qui est que les plates-formes font ça enfin... On va seulement parler des recommandation de contenus par exemple avec un <em>business model</em> basé sur la publicité. Le but c'est d'avoir l'attention des personnes. Pour avoir cette attention, l'idéal c'est de proposer un contenu qui fasse les gens et le problème c'est que le contenu qui fait rester les gens, c'est des contenus extrémistes, voilà... Des contenus terroristes, des contenus conspirationnistes, ainsi de suite. <br />
<br />
<b>Nicolas Martin : </b>Oui dans le pire des cas, sur YouTube etc. Sur des sites de vente, on a peu de ventes de sacs à main terroristes.<br />
<br />
<b>Frédéric Bardolle : </b> Non non, je parlais juste des <em>business models</em>, quand le <em>business model</em> c'est de capturer l'attention des personnes et leur diffuser des contenus. Le problème c'est que ces contenus vont toujours gagner par rapport aux autres. Donc à part si on trouve des moyens de changer ce modèle-là, un algorithme qui recommande un contenu extrême : c'est un algorithme qui fonctionne bien en fait. C'est un algorithme qui fait exactement ce pourquoi il a été conçu c'est-à-dire : faire rester la personne sur la plate-forme. Lui, a rempli son travail en fait. Donc, l'algorithme fonctionne déjà plutôt bien.<br />
des <br />
<br />
<b>Nozha Boujemaa : </b>Je pense qu'il faut régir les cas d'usage au-delà de ces modèles-là. Par exemple, sur la variabilité des prix. Ce qui est autre chose. Quand on va sur des plates-formes pour réserver des nuits d'hôtel ou bien des billets d'avion ou de train, là il ne s'agit pas de l'attention là, là c'est un autre <em>business model</em>. Et là, on peut se retrouver dans des situations de discrimination justement quand on passe à l'acte d'achat, qu'on fait rentrer des données personnelles, on peut voir des variations de prix qui vont être dépendantes. On ne va pas avoir le même prix pour toutes les personnes. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>Aïe.<br />
<br />
<b>Nohza Boujemaa : </b>Donc c'est pour ça que à un moment donné, il faut voir vraiment une vue un peu plus...<br />
<br />
<b>Nicolas Martin : </b>En fonction de ? En fonction de la localisation géographique ? En fonction de ?<br />
<br />
<b>Nohza Boujemaa : </b>Ça peut être la localisation, origine, etc. Il y a certains formulaires qui demandent des questions...<br />
<br />
<b>Nicolas Martin : </b>Quand je rentre mes coordonnées de carte bleue pour acheter un billet d'avion, je ne donne pas accès à mon origine ethnique par exemple ?<br />
<br />
<b>Nohza Boujemaa : </b>Sur certains sites , enfin sur certains sites de services... Aujourd'hui c'est ça le problème : c'est que les services ne connaissent pas les frontières. Et donc on est amenés à réppndre à des questionnaires traduits qui sont faits par des firmes qui ne spécialement ou particulièrement françaises. D'accord ? Donc on peut se retrouver entrain de répondre avec des informations assez intrusives d'un point de vue données personnelles. Et là, on peut constater des variations de prix. Et d'ailleurs, dans ce cadre-là, par exemple, la DGCCRF qui est une autorité de régulation se pose vraiment la question.<br />
<br />
<b>Nicolas Martin : </b>Direction générale de la Concurrence, de la Consommation et de la Répression des fraudes.<br />
<br />
<b>Nohza Boujemaa : </b>Voilà et qui a envie d'ailleurs de lancer des sujets de recherche pour faire la part des choses. Parce que tout n'est pas condamnable. Le <em>lean management</em>, c'est légal. Par contre, faire une variabilité des prix qui est finalement une discrimination sur des raisons non avouées : ça c'est pas légal.<br />
<br />
==47'08==<br />
<b>Nicolas Martin : </b>J'aimerais qu'on revienne pour conclure dans le dernier quart d'heure qui nous reste sur cette notion de serment. Alors, il y a ce serment d'Hippocrate qu'on évoquait tout à l'heure via <em>Data for Good</em> et <em>AlgoTransparency</em>. Il y a un autre serment qui est le serment Holberton-Turing qui est une autre charte qui propose, en fait une forme de charte de bonne conduite. Ma première question, c'est ce lien avec Hippocrate. Le serment d'Hippocrate c'est le serment donc, qui est prêté par les médecins qui s'engagent. Je l'ai sous les yeux, je ne vais pas vous le redire mais bon : consacrer sa vie à sauver l'humanité, à sauver les vies, à ne pas discriminer en fonction de l'âge, de l'origine ethnique etc etc. Est-ce que c'est bien judicieux de mettre au même plan le serment qui est prêté par les médecins qui ont entre les mains des vies humaines et aujourd'hui, celui que l'on souhaite faire signer aux <em>data scientists</em> dans le monde numérique selon vous Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Alors on a choisi ce nom-là principalement parce que déjà ça résonnait avec les gens. Quand on parle de serment d'Hippocrate, n'importe qui voit de quoi il s'agit. Donc, c'est assez facile d'en parler. Et ce dont on s'est aperçu, c'est que finalement les gens qui créent ces services de science de données vont toucher énormément de personnes. Donc, ils ont un pouvoir individuel qui est donc finalement assez grand donc c'est pour ça qu'on a proposé ce serment qui nous semble important. C'est-à-dire qu'une petite équipe peut toucher un très très grand nombre de personnes. Donc c'est pour ça qu'on considère qu'il y a une responsabilité aussi individuelle à avoir et c'est pour ça qu'on s'est permis d'emprunter le nom d'Hippocrate.<br />
<br />
<b>Nicolas Martin : </b>Un mot à ce propos Jérémie Poiroux ? Un serment d'Hippocrate pour les <em>data scientists</em>, ça vous semble être aujourd'hui une démarche qui va dans le bon sens ou en tout cas une forme de responsabilisation des futurs ou des actuels <data scientists</em> dans le travail qui peuvent faire vis à vis des tiens comme ça peut être le cas dans vos prochains travaux, dans vos prochaines affectations?<br />
<br />
<b>Jérémie Poiroux : </b>Oui. Alors j'aimerais faire le parallèle avec ce qui s'est dit lors d'une conférence que j'ai organisée donc en début de semaine dernière <em>ethics by design</em>. On parle justement de l'éthique des <em>designers</em>. Les <em>designers</em>, le parallèle est assez fort parce que les <em>designers</em> notamment sur les questions d'attention, ils ont un pouvoir qui est assez fort. On peut dire exactement la même phrase. C'est quelques <em>designers</em> par exemple de chez Facebook, de chez Google donc c'est pas les <em>data scientists</em> mais c'est les personnes qui vont mettre en valeur visuellement les contenus pour que ça soit attractif, pour qu'on ait envie de cliquer dessus, pour qu'on ait d'acheter des fois. Et puis donc ces personnes, on se demandait aussi «Est-ce que il faut un serment d' Hippocrate pour cette profession?». Et donc la réponse qui était apportée... C'était un débat où il y avait «oui, non». Et je pense que je vais refaire la même pour celle des <em>data scientists</em>. C'est que oui c'est important d'avoir une... On va dire quelque de chose de... Plutôt un manifeste en fait qu'une charte qui serait là et à qui on pourrait se référer. Ce serait une éthique commune plutôt que qu'une éthique personnelle. Et après il y a aussi le pendant un peu contre où j'ai rejoint un peu plus on va dire. En l'état, c'est pas pour tout de suite. Parce que avoir un serment d'Hippocrate, ça veut aussi dire avoir des barrières à l'entrée d'un métier par exemple. C'est-à-dire que le métier de <em>data scientist</em>, tout le monde pourra pas dire <em>data scientist</em>. Ça sera une étiquette, il faudra passer par des concours, il y en a qui n'y seront pas. Et donc c'est toute une réflexion en fait, c'est toute une nouvelle façon d'appréhender la <em>data science</em> ou d'appréhender le <em>design</em>. D'avoir en fait des personnes qui suivent tout un processus et qui après sont on va dire «estampillées» <em>designers</em> ou <em>data scientists</em> et qui respectent une certaine charte. <br />
<br />
<b>Nicolas Martin : </b>Nohza Boujemaa, sur ce sujet. <br />
<br />
<b>Nohza Boujemaa : </b>Oui. Je pense que effectivement c'est une bonne action, une très bonne intention aussi pour sensibiliser les individus. Mais très clairement, c'est insuffisant. C'est-à-dire qu'il faut avoir l'engagement des entreprises. C'est la réalité. Et avoir des efforts en parallèle parce que très clairement, un employé d'une entreprise il peut être convaincu mais c'est je dirais... C'est l'entreprise et c'est la responsabilité de l'entreprise qui est engagée pas sa responsabilité personnelle. Mais ceci dit, c'est important d'avoir cette sensibilisation individuelle mais il ne faut pas s'arrêter là. Donc, l'effort qui est entrain d'être fait dans énormément d'endroits au niveau international, c'est d'impliquer vraiment d'impliquer les industriels de tout horizon. Parce que maintenant, ils comprennent que la question de la confiance : c'est une question là où ils peuvent perdre du marché. Et que la confiance, c'est un élément de compétitivité. Et du coup,ça génère une adhésion à ces questions d'IA responsable et ces questions de responsabilité. Donc il faudrait pouvoir joindre les deux bouts et pas seulement focaliser sur juste un aspect mais il faudrait aussi les deux bouts de la chaîne.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, cette question là effectivement de faire reposer le serment d'Hippocrate sur les individus en formation c'est-à-dire sur les <em>data scientists</em> plutôt qu'une sorte de charte de bonne conduite au niveau international, au niveau pourquoi pas européen pour commencer et puis ensuite avec la volonté de l'élargir parce que la question qui se pose entre les individus qui vont être à un moment donné pris dans une chaîne de production et effectivement le poids peut faire poser les responsables de cette chaîne de production. Donc, l'entreprise. Le poids est assez écrasant, je veux dire qu'on ne lutte pas à armes égales. <br />
<br />
<b>Frédéric Bardolle : </b>Alors effectivement non, on n'a pas fait ce projet pour dire «le fun de le faire en entreprise» (???), ça ne sert à rien. C'était un premier pas. C'était pour agir rapidement en fait. Proposer quelque chose rapidement aux personnes. Parce que on s'est rendus compte qu'il y avait un besoin et du coup on va notamment le proposer dans les écoles et dans les entreprises. Après, il faut voir que certaines entreprises notamment américaines comme Google, ont fait des serments d'éthique pour l'IA. On dit «Bah non, on refuse de travailler par exemple sur certains projets militaires, on refuse de faire ça, ça, ça». <br />
<br />
<b>Nicolas Martin : </b>Récemment. <br />
<br />
<b>Frédéric Bardolle : </b>Récemment. Et ça engage... <br />
<br />
<b>Nozha Boujemaa : </b>Parce qu'ils ont compris l'importance de la confiance. <br />
<br />
<b>Frédéric Bardolle : </b>Ça engage que ceux qui y croient. Et je pense que là où je vous rejoins sur l'importance de la confiance, c'est que je suis persuadé qu'en Europe, la carte qu'on a jouée sur le numérique et notre caractère distinctif par rapport aux États-Unis et par rapport à la Chine,ça va être justement sur ça : sur créer des entreprises qui utilisent l'IA mais de manière éthique. Et un exemple très concret pour ça c'est <em>Snips</em>. C'est une entreprise qui fait un assistant vocal dans lequel il n'y a aucune donnée qui est envoyée sur internet, les données restent chez vous. C'est pas comme si vous aviez un micro qui enregistre en permanence tout ce qui se dit chez vous. Donc voilà, je pense qu'on peut faire la différence avec ce genre d'entreprises et l'éthique n'est pas incompatible avec le commerce qui fonctionne.<br />
<br />
<b>Nohza Boujemaa : </b>Il y a effectivement, je rajoute tout ce qui est <em>personal informations management system</em>. C'est tout ce qui est modèle de protection des données personnelles de manière distribuée, qui ne quitte pas votre ordinateur. Et donc, il y a énormément de choses qui restent à faire mais je voulais quand même mentionner que au niveau de la commission européenne, il y a un <em>high-level expert group</em>...<br />
<br />
<b>Nicolas Martin : </b>Un groupe de haute expertise, à haut niveau d'expertise.<br />
<br />
<b>Nozha Boujemaa : </b>En IA. Qui est constitué par la commission européenne. Pour pouvoir apporter des recommandations à la fois éthiques mais aussi de régulation et également d'investissement en recherche et développement. Et la pièce maîtresse c'est : comment faire de l'IA la plaque tournante d'une IA nouvelle et différente de ce qui est proposé dans le reste du monde? Et l'éthique et la responsabilité de l'IA en fait une pièce maîtresse.<br />
<br />
==54'43==<br />
<b>Nicolas Martin : </b>J'ai une question peut-être très naïve ou béotien, Jérémie Poiroux je vais vous la poser en premier lieu. Est-ce que aujourd'hui ces questionnements éthiques qui sont les nôtres autour de cette table qui sont manifestement partagés par un certain nombre d'acteurs européens, ils ont un sens au niveau international notamment avec votre regard quand on commence dans ce métier-là.</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85623Éthique numérique, des datas sous serment - La méthode scientifique2019-09-03T21:50:36Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen - Soline Ledésert - Jérémie Poiroux<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lançait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un serment d'Hippocrate des <em>data scientists</em>. Donc on a fait une petite recherche, il y en avait déjà qui circulaient et pour se différencier de ceux qui existaient déjà, on avait vraiment crée un serment d'Hippocrate qui aidait dans au quotidien, dans leur pratique les <em>data scientists</em>. Vraiment à se dire, on a découpé le travail en grandes étapes de la participation d'un projet, à l'analyse de résultats en passant par la collecte de données et l'application de modèles algorithmiques. On s'est dit «À chaque étape, quels sont les dilemmes éthiques auxquels un <em>data Scientist</em> peut être confronté et ensuite comment il peut résoudre ces problèmes ?». Donc on a fait un questionnaire en ligne, on a récolté des expériences diverses et ensuite on a travaillé pendant trois mois en atelier à rédiger collaborativement un serment d'Hippocrate. Donc là, il est disponible sur hippocrate.tech. Donc on a posé cinq valeurs : L'intégrié scientifique et la rigueur, la transparence, l'équité, le respect et la responsabilité et l'indépendance. Et ensuite, on a formulé des phrases sous la forme de «Je m'engage à faire ceci ou cela» donc ça concerne effectivement le respect de la vie privée donc à chaque fois, à chaque ligne on rappelle aussi le cadre légal européen du Règlement Général pour la Protection des Données personnelles. Le <em>data scientist</em> signataire s'engage à déterminer le meilleur compromis entre la performance et l'interprétabilité. Pourquoi l'interprétabilité c'est important ? Parce que par exemple si vous faites tourner un algorithme par exemple sur la question de votre allocation familiale et si l'algorithme vous dit «Bah non, vous n'y avez pas droit» et que la personne qui a fait tourner l'algorithme vous dit «Et bien écoutez, je ne peux pas vous l'expliquer, mais c'est comme ça» ça peut poser des problèmes. Donc on a fait ce genre de recherche. <br />
<br />
<b>Céline Loozen : </b>Quelle est la valeur juridique de cette charte ? Comment on pourrait l'appliquer réellement ?<br />
<br />
<b>Soline Ledésert : </b>Nous on est vraiment dans une démarche plutôt citoyenne. À chaque fois, on l'a formulée de façon à veiller, enfin le <em>data scientist</em> veille à ce que les choses se fassent. Mais un <em>data scientist</em> il peut travailler dans une administration, dans une entreprise, au sein d'un labo de recherche et il n'est jamais seul décisionnaire sur vraiment l'ensemble du projet donc nous on a pris cette approche dans le cadre de ce projet vers la responsabilité personnelle. Après, on a aussi rappelé la loi donc là c'est vrai que le RGPD a vraiment amené beaucoup plus de contraintes sur ces questions mais voilà, nous on est vraiment parti sur un modèle d'éthique personnelle. <br />
<br />
[Fin de la musique de fond]<br />
<br />
<b>Nicolas Martin : </b>Voilà le reportage du jour sur cette plate-forme <em>AlgoTransparency</em>. Je vais vous demander évidemment Frédéric Bardolle, une réaction puisque c'est votre association <em>Data For Good</em> qui développe cette plate-forme.<br />
<br />
<b>Frédéric Bardolle : </b>Déjà merci. C'est Soline qui a vraiment porté le projet sur le serment d'Hippocrate et Guillaume Chaslot qui est à plein temps sur ce projet de <em>Algotransparency</em> et qui essaie d'étudier notamment avec des scientifiques américains, essayer d'étudier d'autres algorithmes et leurs fonctionnements, essayer de mieux comprendre comment ça marche. Moi je voulais revenir surtout sur une chose c'est que effectivement il y a une responsabilité individuelle donc à travers ce serment qu'on propose. Mais on pense également qu'il y a comme le disait Soline qu'il y a aussi une responsabilité finalement aussi, il y a des institutions à créer pour permettre de transformer la manière dont fonctionne le numérique à l'heure actuelle. Un exemple : à l'heure actuelle, il n'y a pas de statut intermédiaire entre un hébergeur et un média. Et le problème c'est quoi ? C'est que en fait...<br />
<br />
<b>Nicolas Martin : </b>Exemple concret. Par exemple, prenons un réseau social. Pour les auditeurs, exemple concret : Facebook.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà Facebook ou YouTube, c'est des hébergeurs. Donc, ils ne sont pas responsables du contenu. Tout le contenu publié chez eux c'est pas sous leur responsabilité. Au contraire un média, tout ce qui est produit, si on dit quelque chose qui ne respecte pas la loi à la radio...<br />
<br />
<b>Nicolas Martin : </b>Sur France Culture.<br />
<br />
<b>Frédéric Bardolle : Et bien quelqu'un portera la responsabilité. <br />
<br />
<b>Nicolas Martin : </b>La directrice de la chaîne, moi d'abord et puis ensuite la présidente. <br />
<br />
<b>Frédéric Bardolle : </b>Et donc il y a un grand écart en fait. Ce statut d'hébergeur ça marchait très bien au début de l'internet finalement. C'était juste des annuaires où il y avait toutes les vidéos des contenus produits par les internautes qui étaient là. Finalement, c'est vrai qu'il n'y avait pas de rôle de responsabilité. Mais là en fait on assiste à quelque chose. C'est-à-dire qu'un algorithme qui propose 100 000 fois un contenu à un utilisateur, on pourrait se dire «Quand même, il a un rôle éditorial». Même si ce n'est pas un humain qui a fait ce choix de poser ça là. Au bout d'un moment lorsqu'une nouvelle est diffusée de manière massive comme ça, nous on considère que cette plate-forme a un rôle éditorial, devrait avoir une responsabilité juridique et parce que l'algorithme a un rôle éditorial dans ses contenus. <br />
<br />
<b>Nicolas Martin : </b>Une réaction à ce que viens de dire Frédéric Bardolle et sur cette plate-forme <em>AlgoTransparency</em>. On va parler du serment d'Hippocrate dans un instant mais d'abord sur le reportage et sur cette notion très très intéressante de distnction entre l'hébergeur et média.<br />
<br />
<b>Nozha Boujemaa : </b>Oui... Et bien je suis d'accord dans la mesure où effectivement l'évolution des rôles aujourd'hui, la frontière est très mince et surtout que les contenus en fait aujourd'hui sont consommés. Il n'y a plus effectivement ce rôle éditorial fait par un professionnel mais aujourd'hui c'est fait par un algorithme de recommandation de contenus. Et donc, très clairement la question de la neutralité de la recommandation du contenu se pose. Et au-delà de ces... En fait... Moi je voudrais pointer toujours sur cette même problématique, un autre contexte qui peut être embêtant. C'est pas du B2C en fait c'est du B2B. Plate-forme juste au hasard...<br />
<br />
<b>Nicolas Martin : </b>On rappelle : B2C c'est <em>business-to-consumer</em>...<br />
<br />
<b>Nozha Boujemaa : </b>Voilà.<br />
<br />
<b>Nicolas Martin : </b>Et B2B c'est <em>business-to-business</em> voilà.<br />
<br />
<b>Nozha Boujemaa : </b>Exactement. <br />
<br />
<b>Nicolas Martin : </b>Donc de l'entreprise à l'entreprise et de l'entreprise au consommateur.<br />
<br />
<b>Nozha Boujemaa : </b>Merci.<br />
<br />
<b>Nicolas Martin : </b>C'est juste un petit bout de traduction franco-anglaise qu'on nous reproche souvent à juste titre d'être trop anglophone. <br />
<br />
<b>Nozha Boujemaa : </b>Tout à fait, tout à fait. À juste titre.<br />
<br />
<b>Nicolas Martin : </b>Allons-y.<br />
<br />
<b>Nozha Boujemaa : </b>Donc faire des recommandations de consommation de contenus culturels sur une plate-forme qui n'a pas de modèle d'affaires qui soit de la publicité. Je prends pour exemple Netflix. Une fois qu'on paye l'abonnement, on n'a pas de publicités à regarder.<br />
<br />
<b>Nicolas Martin : </b>Pour le moment.<br />
<br />
<b>Nozha Boujemaa : </b>Pour le moment. On peut se poser la question : C'est quoi les motivations des algorithmes de recommandation là-dedans ? D'accord ? Donc là, c'est un autre cas d'usage auquel il faudrait aussi un petit peu s'y intéresser. Parce que là très clairement, la question de la concurrence va se poser entre des producteurs de contenus qui sont, qui ont des accords avec Netflix et ceux qui ne l'ont pas. Et aussi avec des producteurs de contenus culturels de l'industrie française par exemple qui peut se retrouver lésée. Et là, c'est un problème de concurrence et de position dominante et le ministère de la culture aussi à ma connaissance s'intéresse également à ces questions.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, c'est intéressant cet exemple de Netflix parce que effectivement... Par ailleurs, on peut aussi imaginer que puisque tous ces algorithmes sont biaisés et qu'il y a une intentionnalité derrière, dans ces biais, on peut imaginer que l'algorithme de Netflix privilégie les productions internes de Netflix et pas le contenu qui a été racheté à d'autres sociétés de production qui sont hébergées seulement sur la plate-forme pour prévilégier le contenu interne et dire «Et bien vous voyez, les produits Netflix fonctionnent mieux que les produits un tel de FOX ou un air peu importe».<br />
<br />
<b>Nozha Boujemaa : </b>Et ce n'est pas forcément une personnalisation pour le consommateur je rappelle. <br />
<br />
<b>Nicolas Martin : </b>Bien sûr.<br />
<br />
<b>Frédéric Bardolle : </b>Et...<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Et comme on n'a aucune transparence sur qu'est-ce qu'on essaie d'optimiser avec cet algorithme, finalement on ne le saura jamais. Et c'est un gros problème. Et pour montrer l'ampleur un peu de la chose, il faut savoir que 70 % à 80 % du contenu sur Netflix provient de recommandations. Donc ce n'est pas quelque chose qui se fait à la marge. C'est que les gens consomment ce qu'on leur recommande en fait. C'est vraiment quelque chose qui est phénoménal et sur toutes les plates-formes c'est la même chose.<br />
<br />
<b>Nicolas Martin : </b>Parce que par ailleurs sur Netflix, la plate-forme est une gigantesque plate-forme de recommandations. C'est-à-dire que la plate-forme n'est pas présentée par ordre alphabétique par exemple ou par ordre de nouveautés ou très très peu. Elle n'est que...<br />
<br />
<b>Nozha Boujemaa : </b> Elle va le rajouter, elle est là.<br />
<br />
<b>Nicolas Martin : </b>Voilà. Ce qui est intéressant alors. On entendait dans la reportage quelque chose sur laquelle j'aimerais vous faire réagir. On va parler évidemment surtout dans la deuxième partie, de cette notion de serment d'Hippocrate : À il s'addresse, de son côté un peu finaliste c'est-à-dire de dire que le serment est signé finalement par les <em>data scientists</em>, par les scientifiques de données. Et pourquoi est-ce que ce serait les individus qui doivent s'engager et non pas les plate-formes ? C'est une question qui me semble importante à traiter. Mais avant cela, j'aimerais poser une question autour de cette notion d'interprétabilité. Puisqu'on voit bien que... Prenons cet exemple de Netflix qui est assez bon. Aujourd'hui Netflix signerait un accord, un serment, peu importe qui donne accès, qui permet de lire ses algorithmes. Aujourd'hui pour tout un chacun, pour nous citoyens en bout de chaîne, pour les consommateurs : c'est strictement illisible. C'est-à-dire qu'on a pas accès à la compréhension de ce qui va permettre de régir cet algorithme et d'ailleurs si nous n'y avons pas intérêt, évidemment la plate-forme elle-même a encore moins intérêt à donner ces informations-là. Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui alors effectivement, c'est là où il y a un effort international sur «Faut-il réguler, comment réguler ?» etc etc au-delà des chartes d'engagements individuelles. L'idée c'est aussi... Alors tout dépend si c'est du... J'allais dire du soft (rires). Si c'est du...<br />
<br />
<b>Nicolas Martin : </b>Logiciel ?<br />
<br />
<b>Nozha Boujemaa : </b>Non non. De la réglementation dure ou un peu plus légère mais en tout cas amener les producteurs de service à rendre compte. Parce qu'en fait, celui qui fait le service, on peut en fait et là je mentionne les efforts faits au niveau de la Commission européenne mais aussi au niveau de l'OCDE qui réfléchissent très très sérieusement par rapport à toutes ces questions parce qu'il y a une prise de conscience aujourd'hui internationale. Je ne dis pas que les solutions existent. Mais la prise de conscience et la nécessité, l'urgence d'agir : elle est là. Du coup, typiquement sur l'intelligibilité... Je ne parle pas d'explicabilité parce que des fois, on a peut-être pas besoin et peut-être pas les moyens techniques de l'explicabilité mais par contre, la traçabilité du pourquoi on a eu ce résultat du genre «tel produit ou tel contenu est recommandé pour vous». On aimerait bien avoir une sorte de tableau de bord qui va nous dire «Voilà les critères en pourcentage qui»...<br />
<br />
<b>Nicolas Martin : </b> «Vous avez fait tel choix, tel choix, tel choix donc le logiciel infère que vous allez aimer tel chose».<br />
<br />
<b>Nohza Boujemaa : </b>Les producteurs des services en fait par régulation, on pourrait les amener à apporter et justement en apportant ces critères-là, on respecte le libre arbitre du consommateur quand même. Parce que la, on clique sur ce qui est proposé mais est-ce qu'il est vraiment conscient de sur quoi... Enfin... C'est quand même léger aujourd'hui donc il y a cette notion de respect du libre arbitre via une règlementation dans ce sens-là. <br />
<br />
<b>Nicolas Martin : </b>Je vais prendre un exemple volontairement un chouia provocateur dans l'état actuel des choses mais encore une fois la transparence n'implique pas compréhension si on prend une plate-forme de Parcoursup dont l'algorithme a été rendu public par l'éducation nationale. Ce qui n'empêche pas personne de ne comprendre à aucun moment, les choix et les orientations que cet algorithme fait pour les étudiants qui veulent être inscrits dans les universités dont ils font fait le choix. Fait la demande pardon. <br />
<br />
<b>Frédéric Bardolle : </b>La complexité supérieure qui a en plus sur Parcoursup, c'est que il y a une partie du code qui est quand même caché. Le code qui est utilisé par les universités, celui-là, «la cuisine interne» comme ils appellent ça.<br />
<br />
<b>Nicolas Martin : </b>La sélection en bout de chaîne.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Celle-là, il y a toujours une demande, une requête qui a été faite à la Commission d'Accès aux Documents Administratifs, la CADA, qui est en cours mais qui n'a pas abouti à l'heure actuelle et ce code n'est pas rendu public. Donc, il manque quand même un bout de la chaîne. Pour revenir sur cette question d'auditabilité des algorithmes, nous quand on a essayé d'auditer l'algorithme de YouTube c'est un peu ce qu'on a fait avec <em>AlgoTransparency</em>, on s'est rendu compte de la complexité qu'il y avait. C'est-à dire que d'une : Tous les jours, l'algorithme change. Comme des gens regardent des vidéos, en fait ça fait changer l'algorithme. Donc finalement, quelle est la vraie version ? C'est compliqué à dire. <br />
<br />
<b>Nohza Boujemaa : </b>Les algorithmes et les corpus.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà.<br />
<br />
<b>Nohza Boujemaa : </b>Les corpus aussi. <br />
<br />
<b>Frédéric Bardolle : </b>Tout change au fur et à mesure. Et puis c'est d'une telle complexité. Si on a des réseaux de neurones, ça va être aussi dur par exemple de dire «On a regardé cette vidéo parce que il y a une personne qui a regardé ça». Des critères il peut y en avoir des millions et des millions donc on ne va pas forcément s'y retrouver. Et finalement, c'est un peu comme quand on regarde les émissions de particules fines d'une voiture je trouve. C'est-à-dire que finalement peu importe ce qui se passe dans la cuisine interne du moteur, ce qu'on va regarder à la fin c'est «Est-ce que il y a des particules qui sont émises ?» et c'est ça qui nous intéresse. Mais, ça c'est pas disponible à la hauteur, on n'a pas de mécanisme qui nous permet de nous connecter directement à une plate-forme et de savoir «Bah tiens si on fait telle chose, on aura telle chose de recommandé» et puis en plus on se dit «Si jamais ça ça existe, il va y avoir des trucages» comme il y a eu sur les voitures notamment quand on est arrêté, tout se passe bien et puis quand on roule en conditions réelles, ça ne marche plus du tout. C'est pas évident comme question.<br />
<br />
<b>Pause musicale : </b> <em>Algorithms</em> par <em>School is Cool</em><br />
<br />
<b>Nicolas Martin : </b><em>Algorithms</em> de <em>School is Cool</em> puisque c'est ce dont il est vaguement question au cours de cette heure puisque nous parlons d'éthique numérique et d'éthique en science des données et évidemment bien des algorithmes qui sont au centre de ces questions d'éthique, de leurs transparences, de leurs auditabilités et puis surtout de ce qu'il va se passer dans le futur. À partir d'aujourd'hui, avec les scientifiques qui sont formés aujourd'hui. Ces scientifiques doivent-ils être tenus, doivent-ils s'engager sur une sorte de charte de bonne conduite piur éviter, bien pour éviter toute sorte de dérives que l'on peut constater d'ores et déjà aujourd'hui. Nous en parlons avec Nohza Boujemaa qui est directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et avec Frédéric Bardolle qui est membre de l'association <em>Data for Good</em> qui a réalisé une plate-forme <em>AlgoTransparency</em> à propos de l'algorithme de YouTube à propos de laquelle on a entendu un reportage tout à l'heure. Mais comme tous les mercredis, aux alentours de cette heure à quelques minutes près, il est l'heure d'écouter la voix du futur de la recherche.<br />
<br />
[Jingle] <br />
<br />
<b>Nicolas Martin : </b>Et aujourd'hui, le futur de la recherche s'appelle Jérémie Poiroux. Bonjour Jérémie Poiroux.<br />
<br />
<b>Jérémie Poiroux : </b>Bonjour à tous, bonjour.<br />
<br />
<b>Nicolas Martin : </b>Bonjour. Vous êtes avec nous en ligne puisque vous suivez vos études au centre Marc Bloch à Berlin en partenariat avec le CNRS. Vous êtes en première année de thèse en sociologie dans le cadre du projet ANR <em>Algodiv</em>. Je crois que vous êtes présentement en Pologne. Le titre de votre thèse c'est «La fabrique des algorithmes de recommandation et de management» sous le prisme de leur conception et de leur impact au sein des organisations. Voilà, je vais vous laisser quelques minutes pour nous présenter vos travaux. C'est à vous.<br />
<br />
<b>Jérémie Poiroux : </b>Et bien merci beaucoup pour cette présentation très précise et avec beaucoup de pression sur le futur de sa recherche.<br />
<br />
<em>Rires</em><br />
<br />
<b>Jérémie Poiroux : </b>Donc c'est une thèse... Voilà,qui est sous la direction de Camille Roth. Donc là, j'étais en effet en Pologne mais là je suis de retour à Berlin donc pour continuer cette étude sur la fabrique des algorithmes de recommandation et de management. Alors c'est vrai pour prendre un peu le contre-pied de ce qui se fait en ce moment, il y a une littérature qui est assez limitée sur la fabrique. On parle pas mal de transparence, d'ouvrir la boîte noire, on a eu pas mal les débats aussi juste avant la pause musicale. Et quelque chose qui ne se fait pas beaucoup voilà c'est : Comment ils sont fabriqués ? Donc mon premier terrain c'est : les algorithmes de recommandation donc c'est des petits programmes... Peut-être que je dis des choses qui ont déjà été dites quelques minutes avant. Qui vont vous inviter voire vous inciter à consommer un contenu ou un produit. Donc, Ça peut être un film sur Netflix, on en reparle. Une chambre sur Airbnb ou un article sur le site d'un média. Vous me direz qu'en soi, recommander une saccoche quand j'achète un appareil photo ou un hôtel quand je vais passer une semaine en Grèce : c'est un peu de bonne guerre. Mais on peut plus se poser des questions quand il va s'agir de recommander du contenu culturel ou d'intérêt général car ils pourraient nous enfermer... Alors là je dis attention car il y a un «point Al Godwin» parce que on parle beaucoup de bulles filtrantes qui pourraient nous empêcher de voir plus loin que le bout de notre zone de confort. Je m'arrête ici sur les impacts car vous allez en parler, vous en avez beaucoup parlé. Donc en fait, je m'intéresse plutôt comme je le disais à la fabrique. Vous vous êtes déjà demandé, on va reprendre l'exemple de YouTube : Pourquoi il vont recommander (l'algorithme de YouTube, à droite ou sur la page d'accueil) cette vidéo de chatons ou la vidéo de terre plate ? Et donc, dans mon étude préparatoire que j'ai fait et que je suis entrain de terminer, qui lance la thèse, j'ai mené des entretiens avec plusieurs dizaines d'ingénieurs qui programment des algorithmes de recommandations pour des médias, pour des sites de <em>E-commerce</em>, pour des plates-formes de <em>streaming</em> pour mieux comprendre en fait d'où vient l'algorithme. L'objectif dans ma thèse, c'est de mettre en valeur les intentions, les pourquoi, les comment qui se cachent derrière les algos, les choix <em>business</em> ou encore les biais qui sont directement implémentés de manière consciente ou non dans la machine. Donc si on en revient à l'exemple de YouTube, c'est aller étudier : Pourquoi ils vous recommandent cette vidéo de terre plate alors que vous n'aviez rien demandé ? Alors c'est un peu dévoiler en quoi rien n'est laissé au hasard dans le monde merveilleux des algorithmes et puis de dévoiler un peu la face cachée de leurs impacts. Donc, je vais aller dans les entreprises, je vais faire de l'immersion, je vais observer la conception et le développement directement d'algorithmes. Qui fait quoi, d'où vient l'idée de base, quelles sont les contraintes, quelles sont les méthodes utilisées ou encore la conscience qu'on a dans les entreprises des impacts des algorithmes qu'ils ont conçus. Mais le bonheur ne s'arrête pas là et donc là c'est un peu la transition brute pour passer à l'autre temps de mon sujet qui est : l'utilisation des algorithmes qui de plus importante au sein même des entreprises. On voit depuis des années, des dizaines d'années, des robots remplacer les humains pour faire. Donc c'est sur les chaînes de production, dans les usines, dans les entrepôts pour préparer les commandes donc Amazon par exemple. Demain, les algorithmes ils vont être présents donc encore pour faire mais aussi pour organiser et <em>manager</em> le travail. Donc ça, c'est une grosse différence. C'est d'ailleurs déjà le cas avec Uber où les chauffeurs répondent aux ordres d'algorithmes qui sont <em>managers</em>. Pour se placer dans telle ou telle zone parce qu'il y a plus de personnes ou pour travailler sur telle ou telle plage horaire parce que Uber manque de chauffeurs à telle ou telle plage horaire. Donc à terme, Les algorithmes on peut dire, vont analyser les données de production, de ventes et de productivité pour prendre des décisions ou pour aider à la prise de décisions qui (ces décisions) auront un impact direct sur les travailleurs de l'organisation. Donc c'est une nouvelle pratique managériale on peut appeler ça comme ça, qui pose des questions de productivité et de conditions de travail évidemment. Et qui m'amènera à comparer les bureaucraties traditionnelles et les bureaucraties algorithmiques. Donc les questions éthiques, elles sont évidemment présentes dans les deux pans de la thèse. Par exemple : Que fait un ingénieur devant une demande d'un PDG et cette demande, cet ingénieur il la juge contraire à son éthique ? Ou que fait un manager qui soit invité par un algorithme de prendre une décision qu'il juge dangereuse pour son équipe ? Voilà, donc si vous êtes intéressé par les recherches et puis je fais un petit appel aussi à des entreprises qui peuvent m'accueillir pour cette immersion, n'hésitez pas à me contacter. Et puis je vous remercie pour votre écoute et finit mes quatre minutes de <em>futur de la recherche</em>. Et merci pour votre invitation Eve et Nicolas.<br />
<br />
==42'54==<br />
<b>Nicolas Martin : </b>Merci, merci beaucoup Jérémie. On va vous garder un instant en ligne si vous voulez bien parce que j'aimerais que vous interveniez et que vous réagissiez un peu à ce qui va se dire en studio. Je vais demander une réaction et puis félicitations pour le «point Al Godwin» qu'on a beaucoup aimé. Une réaction Nozha Boujemaa ? Je vous voyais approuver aux présentations des travaux de Jérémy Poiroux.<br />
<br />
<b>Nozha Boujemaa : </b>Alors effectivement, la recherche elle a un rôle très important à jouer. Ce dont on n'a pas encore bien appuyé, l'idée au-delà de l'auditabilité et du contrôle et de la transparence des algorithmes existants, c'est vraiment essentiel d'avoir une formation justement des étudiants à la réutilisation des briques, logiciels <em>Open source</em>, sur les fuites informationnelles mais surtout en fait c'est avoir en fait de nouveaux modèles mathématiques d'apprentissage qui puissent identifier des variables discriminatoires pour réduire leurs impacts sur les prises de décisions. Donc là, c'est vraiment d'un point de vue recherches. «Coeur d'IA», c'est-à-dire que au-delà des algorithmes existants, faire de nouveaux modèles qui incorporent ces idées : égalité et équité par construction dans le modèle mathéthique lui-même. Chose qui existe très rarement.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, un mot.<br />
<br />
<b>Frédéric Bardolle : </b>Moi j'ai juste une crainte c'est que même si on développe des nouveaux modèles aussi performants qui soient, on va pas réussir à résoudre le cœur du problème qui est que les plates-formes font ça enfin... On va seulement parler des recommandation de contenus par exemple avec un <em>business model</em> basé sur la publicité. Le but c'est d'avoir l'attention des personnes. Pour avoir cette attention, l'idéal c'est de proposer un contenu qui fasse les gens et le problème c'est que le contenu qui fait rester les gens, c'est des contenus extrémistes, voilà... Des contenus terroristes, des contenus conspirationnistes, ainsi de suite. <br />
<br />
<b>Nicolas Martin : </b>Oui dans le pire des cas, sur YouTube etc. Sur des sites de vente, on a peu de ventes de sacs à main terroristes.<br />
<br />
<b>Frédéric Bardolle : </b> Non non, je parlais juste des <em>business models</em>, quand le <em>business model</em> c'est de capturer l'attention des personnes et leur diffuser des contenus. Le problème c'est que ces contenus vont toujours gagner par rapport aux autres. Donc à part si on trouve des moyens de changer ce modèle-là, un algorithme qui recommande un contenu extrême : c'est un algorithme qui fonctionne bien en fait. C'est un algorithme qui fait exactement ce pourquoi il a été conçu c'est-à-dire : faire rester la personne sur la plate-forme. Lui, a rempli son travail en fait. Donc, l'algorithme fonctionne déjà plutôt bien.<br />
des <br />
<br />
<b>Nozha Boujemaa : </b>Je pense qu'il faut régir les cas d'usage au-delà de ces modèles-là. Par exemple, sur la variabilité des prix. Ce qui est autre chose. Quand on va sur des plates-formes pour réserver des nuits d'hôtel ou bien des billets d'avion ou de train, là il ne s'agit pas de l'attention là, là c'est un autre <em>business model</em>. Et là, on peut se retrouver dans des situations de discrimination justement quand on passe à l'acte d'achat, qu'on fait rentrer des données personnelles, on peut voir des variations de prix qui vont être dépendantes. On ne va pas avoir le même prix pour toutes les personnes. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>Aïe.<br />
<br />
<b>Nohza Boujemaa : </b>Donc c'est pour ça que à un moment donné, il faut voir vraiment une vue un peu plus...<br />
<br />
<b>Nicolas Martin : </b>En fonction de ? En fonction de la localisation géographique ? En fonction de ?<br />
<br />
<b>Nohza Boujemaa : </b>Ça peut être la localisation, origine, etc. Il y a certains formulaires qui demandent des questions...<br />
<br />
<b>Nicolas Martin : </b>Quand je rentre mes coordonnées de carte bleue pour acheter un billet d'avion, je ne donne pas accès à mon origine ethnique par exemple ?<br />
<br />
<b>Nohza Boujemaa : </b>Sur certains sites , enfin sur certains sites de services... Aujourd'hui c'est ça le problème : c'est que les services ne connaissent pas les frontières. Et donc on est amenés à réppndre à des questionnaires traduits qui sont faits par des firmes qui ne spécialement ou particulièrement françaises. D'accord ? Donc on peut se retrouver entrain de répondre avec des informations assez intrusives d'un point de vue données personnelles. Et là, on peut constater des variations de prix. Et d'ailleurs, dans ce cadre-là, par exemple, la DGCCRF qui est une autorité de régulation se pose vraiment la question.<br />
<br />
<b>Nicolas Martin : </b>Direction générale de la Concurrence, de la Consommation et de la Répression des fraudes.<br />
<br />
<b>Nohza Boujemaa : </b>Voilà et qui a envie d'ailleurs de lancer des sujets de recherche pour faire la part des choses. Parce que tout n'est pas condamnable. Le <em>lean management</em>, c'est légal. Par contre, faire une variabilité des prix qui est finalement une discrimination sur des raisons non avouées : ça c'est pas légal.<br />
<br />
==47'08==<br />
<b>Nicolas Martin : </b>J'aimerais qu'on revienne pour conclure dans le dernier quart d'heure qui nous reste sur cette notion de serment. Alors, il y a ce serment d'Hippocrate qu'on évoquait tout à l'heure via <em>Data for Good</em> et <em>AlgoTransparency</em>. Il y a un autre serment qui est le serment Holberton-Turing qui est une autre charte qui propose, en fait une forme de charte de bonne conduite. Ma première question, c'est ce lien avec Hippocrate. Le serment d'Hippocrate c'est le serment donc, qui est prêté par les médecins qui s'engagent. Je l'ai sous les yeux, je ne vais pas vous le redire mais bon : consacrer sa vie à sauver l'humanité, à sauver les vies, à ne pas discriminer en fonction de l'âge, de l'origine ethnique etc etc. Est-ce que c'est bien judicieux de mettre au même plan le serment qui est prêté par les médecins qui ont entre les mains des vies humaines et aujourd'hui, celui que l'on souhaite faire signer aux <em>data scientists</em> dans le monde numérique selon vous Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Alors on a choisi ce nom-là principalement parce que déjà ça résonnait avec les gens. Quand on parle de serment d'Hippocrate, n'importe qui voit de quoi il s'agit. Donc, c'est assez facile d'en parler. Et ce dont on s'est aperçu, c'est que finalement les gens qui créent ces services de science de données vont toucher énormément de personnes. Donc, ils ont un pouvoir individuel qui est donc finalement assez grand donc c'est pour ça qu'on a proposé ce serment qui nous semble important. C'est-à-dire qu'une petite équipe peut toucher un très très grand nombre de personnes. Donc c'est pour ça qu'on considère qu'il y a une responsabilité aussi individuelle à avoir et c'est pour ça qu'on s'est permis d'emprunter le nom d'Hippocrate.<br />
<br />
<b>Nicolas Martin : </b>Un mot à ce propos Jérémie Poiroux ? Un serment d'Hippocrate pour les <em>data scientists</em>, ça vous semble être aujourd'hui une démarche qui va dans le bon sens ou en tout cas une forme de responsabilisation des futurs ou des actuels <data scientists</em> dans le travail qui peuvent faire vis à vis des tiens comme ça peut être le cas dans vos prochains travaux, dans vos prochaines affectations?<br />
<br />
<b>Jérémie Poiroux : </b>Oui. Alors j'aimerais faire le parallèle avec ce qui s'est dit lors d'une conférence que j'ai organisée donc en début de semaine dernière <em>ethics by design</em>. On parle justement de l'éthique des <em>designers</em>. Les <em>designers</em>, le parallèle est assez fort parce que les <em>designers</em> notamment sur les questions d'attention, ils ont un pouvoir qui est assez fort. On peut dire exactement la même phrase. C'est quelques <em>designers</em> par exemple de chez Facebook, de chez Google donc c'est pas les <em>data scientists</em> mais c'est les personnes qui vont mettre en valeur visuellement les contenus pour que ça soit attractif, pour qu'on ait envie de cliquer dessus, pour qu'on ait d'acheter des fois. Et puis donc ces personnes, on se demandait aussi «Est-ce que il faut un serment d' Hippocrate pour cette profession?». Et donc la réponse qui était apportée... C'était un débat où il y avait «oui, non». Et je pense que je vais refaire la même pour celle des <em>data scientists</em>. C'est que oui c'est important d'avoir une... On va dire quelque de chose de... Plutôt un manifeste en fait qu'une charte qui serait là et à qui on pourrait se référer. Ce serait une éthique commune plutôt que qu'une éthique personnelle. Et après il y a aussi le pendant un peu contre où j'ai rejoint un peu plus on va dire. En l'état, c'est pas pour tout de suite. Parce que avoir un serment d'Hippocrate, ça veut aussi dire avoir des barrières à l'entrée d'un métier par exemple. C'est-à-dire que le métier de <em>data scientist</em>, tout le monde pourra pas dire <em>data scientist</em>. Ça sera une étiquette, il faudra passer par des concours, il y en a qui n'y seront pas. Et donc c'est toute une réflexion en fait, c'est toute une nouvelle façon d'appréhender la <em>data science</em> ou d'appréhender le <em>design</em>. D'avoir en fait des personnes qui suivent tout un processus et qui après sont on va dire «estampillées» <em>designers</em> ou <em>data scientists</em> et qui respectent une certaine charte. <br />
<br />
<b>Nicolas Martin : </b>Nohza Boujemaa, sur ce sujet. <br />
<br />
<b>Nohza Boujemaa : </b>Oui. Je pense que effectivement c'est une bonne action, une très bonne intention aussi pour sensibiliser les individus. Mais très clairement, c'est insuffisant. C'est-à-dire qu'il faut avoir l'engagement des entreprises. C'est la réalité. Et avoir des efforts en parallèle parce que très clairement, un employé d'une entreprise il peut être convaincu mais c'est je dirais... C'est l'entreprise et c'est la responsabilité de l'entreprise qui est engagée pas sa responsabilité personnelle. Mais ceci dit, c'est important d'avoir cette sensibilisation individuelle mais il ne faut pas s'arrêter là. Donc, l'effort qui est entrain d'être fait dans énormément d'endroits au niveau international, c'est d'impliquer vraiment d'impliquer les industriels de tout horizon. Parce que maintenant, ils comprennent que la question de la confiance : c'est une question là où ils peuvent perdre du marché. Et que la confiance, c'est un élément de compétitivité. Et du coup,ça génère une adhésion à ces questions d'IA responsable et ces questions de responsabilité. Donc il faudrait pouvoir joindre les deux bouts et pas seulement focaliser sur juste un aspect mais il faudrait aussi les deux bouts de la chaîne.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, cette question là effectivement de faire reposer le serment d'Hippocrate sur les individus en formation c'est-à-dire sur les <em>data scientists</em> plutôt qu'une sorte de charte de bonne conduite au niveau international, au niveau pourquoi pas européen pour commencer et puis ensuite avec la volonté de l'élargir parce que la question qui se pose entre les individus qui vont être à un moment donné pris dans une chaîne de production et effectivement le poids peut faire poser les responsables de cette chaîne de production. Donc, l'entreprise. Le poids est assez écrasant, je veux dire qu'on ne lutte pas à armes égales. <br />
<br />
<b>Frédéric Bardolle : </b>Alors effectivement non, on n'a pas fait ce projet pour dire «le fun de le faire en entreprise» (???), ça ne sert à rien. C'était un premier pas. C'était pour agir rapidement en fait. Proposer quelque chose rapidement aux personnes. Parce que on s'est rendus compte qu'il y avait un besoin et du coup on va notamment le proposer dans les écoles et dans les entreprises. Après, il faut voir que certaines entreprises notamment américaines comme Google, ont fait des serments d'éthique pour l'IA. On dit «Bah non, on refuse de travailler par exemple sur certains projets militaires, on refuse de faire ça, ça, ça». <br />
<br />
<b>Nicolas Martin : </b>Récemment. <br />
<br />
<b>Frédéric Bardolle : </b>Récemment. Et ça engage... <br />
<br />
<b>Nozha Boujemaa : </b>Parce qu'ils ont compris l'importance de la confiance. <br />
<br />
<b>Frédéric Bardolle : </b>Ça engage que ceux qui y croient. Et je pense que là où je vous rejoins sur l'importance de la confiance, c'est que je suis persuadé qu'en Europe, la carte qu'on a jouée sur le numérique et notre caractère distinctif par rapport aux États-Unis et par rapport à la Chine,ça va être justement sur ça : sur créer des entreprises qui utilisent l'IA mais de manière éthique. Et un exemple très concret pour ça c'est <em>Snips</em>. C'est une entreprise qui fait un assistant vocal dans lequel il n'y a aucune donnée qui est envoyée sur internet, les données restent chez vous. C'est pas comme si vous aviez un micro qui enregistre en permanence tout ce qui se dit chez vous. Donc voilà, je pense qu'on peut faire la différence avec ce genre d'entreprises et l'éthique n'est pas incompatible avec le commerce qui fonctionne.<br />
<br />
<b>Nohza Boujemaa : </b>Il y a effectivement, je rajoute tout ce qui est <em>personal informations management system</em>. C'est tout ce qui est modèle de protection des données personnelles de manière distribuée, qui ne quitte pas votre ordinateur. Et donc, il y a énormément de choses qui restent à faire mais je voulais quand même mentionner que au niveau de la commission européenne, il y a un <em>high-level expert group</em>...<br />
<br />
<b>Nicolas Martin : </b>Un groupe de haute expertise, à haut niveau d'expertise.<br />
<br />
<b>Nozha Boujemaa : </b>En IA. Qui est constitué par la commission européenne. Pour pouvoir apporter des recommandations à la fois éthiques mais aussi de régulation et également d'investissement en recherche et développement. Et la pièce maîtresse c'est : comment faire de l'IA la plaque tournante d'une IA nouvelle et différente de ce qui est proposé dans le reste du monde? Et l'éthique et la responsabilité de l'IA en fait une pièce maîtresse.<br />
<br />
==54'43==<br />
<b>Nicolas Martin : </b></div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85622Éthique numérique, des datas sous serment - La méthode scientifique2019-09-03T15:44:58Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen - Soline Ledésert - Jérémie Poiroux<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lançait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un serment d'Hippocrate des <em>data scientists</em>. Donc on a fait une petite recherche, il y en avait déjà qui circulaient et pour se différencier de ceux qui existaient déjà, on avait vraiment crée un serment d'Hippocrate qui aidait dans au quotidien, dans leur pratique les <em>data scientists</em>. Vraiment à se dire, on a découpé le travail en grandes étapes de la participation d'un projet, à l'analyse de résultats en passant par la collecte de données et l'application de modèles algorithmiques. On s'est dit «À chaque étape, quels sont les dilemmes éthiques auxquels un <em>data Scientist</em> peut être confronté et ensuite comment il peut résoudre ces problèmes ?». Donc on a fait un questionnaire en ligne, on a récolté des expériences diverses et ensuite on a travaillé pendant trois mois en atelier à rédiger collaborativement un serment d'Hippocrate. Donc là, il est disponible sur hippocrate.tech. Donc on a posé cinq valeurs : L'intégrié scientifique et la rigueur, la transparence, l'équité, le respect et la responsabilité et l'indépendance. Et ensuite, on a formulé des phrases sous la forme de «Je m'engage à faire ceci ou cela» donc ça concerne effectivement le respect de la vie privée donc à chaque fois, à chaque ligne on rappelle aussi le cadre légal européen du Règlement Général pour la Protection des Données personnelles. Le <em>data scientist</em> signataire s'engage à déterminer le meilleur compromis entre la performance et l'interprétabilité. Pourquoi l'interprétabilité c'est important ? Parce que par exemple si vous faites tourner un algorithme par exemple sur la question de votre allocation familiale et si l'algorithme vous dit «Bah non, vous n'y avez pas droit» et que la personne qui a fait tourner l'algorithme vous dit «Et bien écoutez, je ne peux pas vous l'expliquer, mais c'est comme ça» ça peut poser des problèmes. Donc on a fait ce genre de recherche. <br />
<br />
<b>Céline Loozen : </b>Quelle est la valeur juridique de cette charte ? Comment on pourrait l'appliquer réellement ?<br />
<br />
<b>Soline Ledésert : </b>Nous on est vraiment dans une démarche plutôt citoyenne. À chaque fois, on l'a formulée de façon à veiller, enfin le <em>data scientist</em> veille à ce que les choses se fassent. Mais un <em>data scientist</em> il peut travailler dans une administration, dans une entreprise, au sein d'un labo de recherche et il n'est jamais seul décisionnaire sur vraiment l'ensemble du projet donc nous on a pris cette approche dans le cadre de ce projet vers la responsabilité personnelle. Après, on a aussi rappelé la loi donc là c'est vrai que le RGPD a vraiment amené beaucoup plus de contraintes sur ces questions mais voilà, nous on est vraiment parti sur un modèle d'éthique personnelle. <br />
<br />
[Fin de la musique de fond]<br />
<br />
<b>Nicolas Martin : </b>Voilà le reportage du jour sur cette plate-forme <em>AlgoTransparency</em>. Je vais vous demander évidemment Frédéric Bardolle, une réaction puisque c'est votre association <em>Data For Good</em> qui développe cette plate-forme.<br />
<br />
<b>Frédéric Bardolle : </b>Déjà merci. C'est Soline qui a vraiment porté le projet sur le serment d'Hippocrate et Guillaume Chaslot qui est à plein temps sur ce projet de <em>Algotransparency</em> et qui essaie d'étudier notamment avec des scientifiques américains, essayer d'étudier d'autres algorithmes et leurs fonctionnements, essayer de mieux comprendre comment ça marche. Moi je voulais revenir surtout sur une chose c'est que effectivement il y a une responsabilité individuelle donc à travers ce serment qu'on propose. Mais on pense également qu'il y a comme le disait Soline qu'il y a aussi une responsabilité finalement aussi, il y a des institutions à créer pour permettre de transformer la manière dont fonctionne le numérique à l'heure actuelle. Un exemple : à l'heure actuelle, il n'y a pas de statut intermédiaire entre un hébergeur et un média. Et le problème c'est quoi ? C'est que en fait...<br />
<br />
<b>Nicolas Martin : </b>Exemple concret. Par exemple, prenons un réseau social. Pour les auditeurs, exemple concret : Facebook.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà Facebook ou YouTube, c'est des hébergeurs. Donc, ils ne sont pas responsables du contenu. Tout le contenu publié chez eux c'est pas sous leur responsabilité. Au contraire un média, tout ce qui est produit, si on dit quelque chose qui ne respecte pas la loi à la radio...<br />
<br />
<b>Nicolas Martin : </b>Sur France Culture.<br />
<br />
<b>Frédéric Bardolle : Et bien quelqu'un portera la responsabilité. <br />
<br />
<b>Nicolas Martin : </b>La directrice de la chaîne, moi d'abord et puis ensuite la présidente. <br />
<br />
<b>Frédéric Bardolle : </b>Et donc il y a un grand écart en fait. Ce statut d'hébergeur ça marchait très bien au début de l'internet finalement. C'était juste des annuaires où il y avait toutes les vidéos des contenus produits par les internautes qui étaient là. Finalement, c'est vrai qu'il n'y avait pas de rôle de responsabilité. Mais là en fait on assiste à quelque chose. C'est-à-dire qu'un algorithme qui propose 100 000 fois un contenu à un utilisateur, on pourrait se dire «Quand même, il a un rôle éditorial». Même si ce n'est pas un humain qui a fait ce choix de poser ça là. Au bout d'un moment lorsqu'une nouvelle est diffusée de manière massive comme ça, nous on considère que cette plate-forme a un rôle éditorial, devrait avoir une responsabilité juridique et parce que l'algorithme a un rôle éditorial dans ses contenus. <br />
<br />
<b>Nicolas Martin : </b>Une réaction à ce que viens de dire Frédéric Bardolle et sur cette plate-forme <em>AlgoTransparency</em>. On va parler du serment d'Hippocrate dans un instant mais d'abord sur le reportage et sur cette notion très très intéressante de distnction entre l'hébergeur et média.<br />
<br />
<b>Nozha Boujemaa : </b>Oui... Et bien je suis d'accord dans la mesure où effectivement l'évolution des rôles aujourd'hui, la frontière est très mince et surtout que les contenus en fait aujourd'hui sont consommés. Il n'y a plus effectivement ce rôle éditorial fait par un professionnel mais aujourd'hui c'est fait par un algorithme de recommandation de contenus. Et donc, très clairement la question de la neutralité de la recommandation du contenu se pose. Et au-delà de ces... En fait... Moi je voudrais pointer toujours sur cette même problématique, un autre contexte qui peut être embêtant. C'est pas du B2C en fait c'est du B2B. Plate-forme juste au hasard...<br />
<br />
<b>Nicolas Martin : </b>On rappelle : B2C c'est <em>business-to-consumer</em>...<br />
<br />
<b>Nozha Boujemaa : </b>Voilà.<br />
<br />
<b>Nicolas Martin : </b>Et B2B c'est <em>business-to-business</em> voilà.<br />
<br />
<b>Nozha Boujemaa : </b>Exactement. <br />
<br />
<b>Nicolas Martin : </b>Donc de l'entreprise à l'entreprise et de l'entreprise au consommateur.<br />
<br />
<b>Nozha Boujemaa : </b>Merci.<br />
<br />
<b>Nicolas Martin : </b>C'est juste un petit bout de traduction franco-anglaise qu'on nous reproche souvent à juste titre d'être trop anglophone. <br />
<br />
<b>Nozha Boujemaa : </b>Tout à fait, tout à fait. À juste titre.<br />
<br />
<b>Nicolas Martin : </b>Allons-y.<br />
<br />
<b>Nozha Boujemaa : </b>Donc faire des recommandations de consommation de contenus culturels sur une plate-forme qui n'a pas de modèle d'affaires qui soit de la publicité. Je prends pour exemple Netflix. Une fois qu'on paye l'abonnement, on n'a pas de publicités à regarder.<br />
<br />
<b>Nicolas Martin : </b>Pour le moment.<br />
<br />
<b>Nozha Boujemaa : </b>Pour le moment. On peut se poser la question : C'est quoi les motivations des algorithmes de recommandation là-dedans ? D'accord ? Donc là, c'est un autre cas d'usage auquel il faudrait aussi un petit peu s'y intéresser. Parce que là très clairement, la question de la concurrence va se poser entre des producteurs de contenus qui sont, qui ont des accords avec Netflix et ceux qui ne l'ont pas. Et aussi avec des producteurs de contenus culturels de l'industrie française par exemple qui peut se retrouver lésée. Et là, c'est un problème de concurrence et de position dominante et le ministère de la culture aussi à ma connaissance s'intéresse également à ces questions.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, c'est intéressant cet exemple de Netflix parce que effectivement... Par ailleurs, on peut aussi imaginer que puisque tous ces algorithmes sont biaisés et qu'il y a une intentionnalité derrière, dans ces biais, on peut imaginer que l'algorithme de Netflix privilégie les productions internes de Netflix et pas le contenu qui a été racheté à d'autres sociétés de production qui sont hébergées seulement sur la plate-forme pour prévilégier le contenu interne et dire «Et bien vous voyez, les produits Netflix fonctionnent mieux que les produits un tel de FOX ou un air peu importe».<br />
<br />
<b>Nozha Boujemaa : </b>Et ce n'est pas forcément une personnalisation pour le consommateur je rappelle. <br />
<br />
<b>Nicolas Martin : </b>Bien sûr.<br />
<br />
<b>Frédéric Bardolle : </b>Et...<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Et comme on n'a aucune transparence sur qu'est-ce qu'on essaie d'optimiser avec cet algorithme, finalement on ne le saura jamais. Et c'est un gros problème. Et pour montrer l'ampleur un peu de la chose, il faut savoir que 70 % à 80 % du contenu sur Netflix provient de recommandations. Donc ce n'est pas quelque chose qui se fait à la marge. C'est que les gens consomment ce qu'on leur recommande en fait. C'est vraiment quelque chose qui est phénoménal et sur toutes les plates-formes c'est la même chose.<br />
<br />
<b>Nicolas Martin : </b>Parce que par ailleurs sur Netflix, la plate-forme est une gigantesque plate-forme de recommandations. C'est-à-dire que la plate-forme n'est pas présentée par ordre alphabétique par exemple ou par ordre de nouveautés ou très très peu. Elle n'est que...<br />
<br />
<b>Nozha Boujemaa : </b> Elle va le rajouter, elle est là.<br />
<br />
<b>Nicolas Martin : </b>Voilà. Ce qui est intéressant alors. On entendait dans la reportage quelque chose sur laquelle j'aimerais vous faire réagir. On va parler évidemment surtout dans la deuxième partie, de cette notion de serment d'Hippocrate : À il s'addresse, de son côté un peu finaliste c'est-à-dire de dire que le serment est signé finalement par les <em>data scientists</em>, par les scientifiques de données. Et pourquoi est-ce que ce serait les individus qui doivent s'engager et non pas les plate-formes ? C'est une question qui me semble importante à traiter. Mais avant cela, j'aimerais poser une question autour de cette notion d'interprétabilité. Puisqu'on voit bien que... Prenons cet exemple de Netflix qui est assez bon. Aujourd'hui Netflix signerait un accord, un serment, peu importe qui donne accès, qui permet de lire ses algorithmes. Aujourd'hui pour tout un chacun, pour nous citoyens en bout de chaîne, pour les consommateurs : c'est strictement illisible. C'est-à-dire qu'on a pas accès à la compréhension de ce qui va permettre de régir cet algorithme et d'ailleurs si nous n'y avons pas intérêt, évidemment la plate-forme elle-même a encore moins intérêt à donner ces informations-là. Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui alors effectivement, c'est là où il y a un effort international sur «Faut-il réguler, comment réguler ?» etc etc au-delà des chartes d'engagements individuelles. L'idée c'est aussi... Alors tout dépend si c'est du... J'allais dire du soft (rires). Si c'est du...<br />
<br />
<b>Nicolas Martin : </b>Logiciel ?<br />
<br />
<b>Nozha Boujemaa : </b>Non non. De la réglementation dure ou un peu plus légère mais en tout cas amener les producteurs de service à rendre compte. Parce qu'en fait, celui qui fait le service, on peut en fait et là je mentionne les efforts faits au niveau de la Commission européenne mais aussi au niveau de l'OCDE qui réfléchissent très très sérieusement par rapport à toutes ces questions parce qu'il y a une prise de conscience aujourd'hui internationale. Je ne dis pas que les solutions existent. Mais la prise de conscience et la nécessité, l'urgence d'agir : elle est là. Du coup, typiquement sur l'intelligibilité... Je ne parle pas d'explicabilité parce que des fois, on a peut-être pas besoin et peut-être pas les moyens techniques de l'explicabilité mais par contre, la traçabilité du pourquoi on a eu ce résultat du genre «tel produit ou tel contenu est recommandé pour vous». On aimerait bien avoir une sorte de tableau de bord qui va nous dire «Voilà les critères en pourcentage qui»...<br />
<br />
<b>Nicolas Martin : </b> «Vous avez fait tel choix, tel choix, tel choix donc le logiciel infère que vous allez aimer tel chose».<br />
<br />
<b>Nohza Boujemaa : </b>Les producteurs des services en fait par régulation, on pourrait les amener à apporter et justement en apportant ces critères-là, on respecte le libre arbitre du consommateur quand même. Parce que la, on clique sur ce qui est proposé mais est-ce qu'il est vraiment conscient de sur quoi... Enfin... C'est quand même léger aujourd'hui donc il y a cette notion de respect du libre arbitre via une règlementation dans ce sens-là. <br />
<br />
<b>Nicolas Martin : </b>Je vais prendre un exemple volontairement un chouia provocateur dans l'état actuel des choses mais encore une fois la transparence n'implique pas compréhension si on prend une plate-forme de Parcoursup dont l'algorithme a été rendu public par l'éducation nationale. Ce qui n'empêche pas personne de ne comprendre à aucun moment, les choix et les orientations que cet algorithme fait pour les étudiants qui veulent être inscrits dans les universités dont ils font fait le choix. Fait la demande pardon. <br />
<br />
<b>Frédéric Bardolle : </b>La complexité supérieure qui a en plus sur Parcoursup, c'est que il y a une partie du code qui est quand même caché. Le code qui est utilisé par les universités, celui-là, «la cuisine interne» comme ils appellent ça.<br />
<br />
<b>Nicolas Martin : </b>La sélection en bout de chaîne.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Celle-là, il y a toujours une demande, une requête qui a été faite à la Commission d'Accès aux Documents Administratifs, la CADA, qui est en cours mais qui n'a pas abouti à l'heure actuelle et ce code n'est pas rendu public. Donc, il manque quand même un bout de la chaîne. Pour revenir sur cette question d'auditabilité des algorithmes, nous quand on a essayé d'auditer l'algorithme de YouTube c'est un peu ce qu'on a fait avec <em>AlgoTransparency</em>, on s'est rendu compte de la complexité qu'il y avait. C'est-à dire que d'une : Tous les jours, l'algorithme change. Comme des gens regardent des vidéos, en fait ça fait changer l'algorithme. Donc finalement, quelle est la vraie version ? C'est compliqué à dire. <br />
<br />
<b>Nohza Boujemaa : </b>Les algorithmes et les corpus.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà.<br />
<br />
<b>Nohza Boujemaa : </b>Les corpus aussi. <br />
<br />
<b>Frédéric Bardolle : </b>Tout change au fur et à mesure. Et puis c'est d'une telle complexité. Si on a des réseaux de neurones, ça va être aussi dur par exemple de dire «On a regardé cette vidéo parce que il y a une personne qui a regardé ça». Des critères il peut y en avoir des millions et des millions donc on ne va pas forcément s'y retrouver. Et finalement, c'est un peu comme quand on regarde les émissions de particules fines d'une voiture je trouve. C'est-à-dire que finalement peu importe ce qui se passe dans la cuisine interne du moteur, ce qu'on va regarder à la fin c'est «Est-ce que il y a des particules qui sont émises ?» et c'est ça qui nous intéresse. Mais, ça c'est pas disponible à la hauteur, on n'a pas de mécanisme qui nous permet de nous connecter directement à une plate-forme et de savoir «Bah tiens si on fait telle chose, on aura telle chose de recommandé» et puis en plus on se dit «Si jamais ça ça existe, il va y avoir des trucages» comme il y a eu sur les voitures notamment quand on est arrêté, tout se passe bien et puis quand on roule en conditions réelles, ça ne marche plus du tout. C'est pas évident comme question.<br />
<br />
<b>Pause musicale : </b> <em>Algorithms</em> par <em>School is Cool</em><br />
<br />
<b>Nicolas Martin : </b><em>Algorithms</em> de <em>School is Cool</em> puisque c'est ce dont il est vaguement question au cours de cette heure puisque nous parlons d'éthique numérique et d'éthique en science des données et évidemment bien des algorithmes qui sont au centre de ces questions d'éthique, de leurs transparences, de leurs auditabilités et puis surtout de ce qu'il va se passer dans le futur. À partir d'aujourd'hui, avec les scientifiques qui sont formés aujourd'hui. Ces scientifiques doivent-ils être tenus, doivent-ils s'engager sur une sorte de charte de bonne conduite piur éviter, bien pour éviter toute sorte de dérives que l'on peut constater d'ores et déjà aujourd'hui. Nous en parlons avec Nohza Boujemaa qui est directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et avec Frédéric Bardolle qui est membre de l'association <em>Data for Good</em> qui a réalisé une plate-forme <em>AlgoTransparency</em> à propos de l'algorithme de YouTube à propos de laquelle on a entendu un reportage tout à l'heure. Mais comme tous les mercredis, aux alentours de cette heure à quelques minutes près, il est l'heure d'écouter la voix du futur de la recherche.<br />
<br />
[Jingle] <br />
<br />
<b>Nicolas Martin : </b>Et aujourd'hui, le futur de la recherche s'appelle Jérémie Poiroux. Bonjour Jérémie Poiroux.<br />
<br />
<b>Jérémie Poiroux : </b>Bonjour à tous, bonjour.<br />
<br />
<b>Nicolas Martin : </b>Bonjour. Vous êtes avec nous en ligne puisque vous suivez vos études au centre Marc Bloch à Berlin en partenariat avec le CNRS. Vous êtes en première année de thèse en sociologie dans le cadre du projet ANR <em>Algodiv</em>. Je crois que vous êtes présentement en Pologne. Le titre de votre thèse c'est «La fabrique des algorithmes de recommandation et de management» sous le prisme de leur conception et de leur impact au sein des organisations. Voilà, je vais vous laisser quelques minutes pour nous présenter vos travaux. C'est à vous.<br />
<br />
<b>Jérémie Poiroux : </b>Et bien merci beaucoup pour cette présentation très précise et avec beaucoup de pression sur le futur de sa recherche.<br />
<br />
<em>Rires</em><br />
<br />
<b>Jérémie Poiroux : </b>Donc c'est une thèse... Voilà,qui est sous la direction de Camille Roth. Donc là, j'étais en effet en Pologne mais là je suis de retour à Berlin donc pour continuer cette étude sur la fabrique des algorithmes de recommandation et de management. Alors c'est vrai pour prendre un peu le contre-pied de ce qui se fait en ce moment, il y a une littérature qui est assez limitée sur la fabrique. On parle pas mal de transparence, d'ouvrir la boîte noire, on a eu pas mal les débats aussi juste avant la pause musicale. Et quelque chose qui ne se fait pas beaucoup voilà c'est : Comment ils sont fabriqués ? Donc mon premier terrain c'est : les algorithmes de recommandation donc c'est des petits programmes... Peut-être que je dis des choses qui ont déjà été dites quelques minutes avant. Qui vont vous inviter voire vous inciter à consommer un contenu ou un produit. Donc, Ça peut être un film sur Netflix, on en reparle. Une chambre sur Airbnb ou un article sur le site d'un média. Vous me direz qu'en soi, recommander une saccoche quand j'achète un appareil photo ou un hôtel quand je vais passer une semaine en Grèce : c'est un peu de bonne guerre. Mais on peut plus se poser des questions quand il va s'agir de recommander du contenu culturel ou d'intérêt général car ils pourraient nous enfermer... Alors là je dis attention car il y a un «point Al Godwin» parce que on parle beaucoup de bulles filtrantes qui pourraient nous empêcher de voir plus loin que le bout de notre zone de confort. Je m'arrête ici sur les impacts car vous allez en parler, vous en avez beaucoup parlé. Donc en fait, je m'intéresse plutôt comme je le disais à la fabrique. Vous vous êtes déjà demandé, on va reprendre l'exemple de YouTube : Pourquoi il vont recommander (l'algorithme de YouTube, à droite ou sur la page d'accueil) cette vidéo de chatons ou la vidéo de terre plate ? Et donc, dans mon étude préparatoire que j'ai fait et que je suis entrain de terminer, qui lance la thèse, j'ai mené des entretiens avec plusieurs dizaines d'ingénieurs qui programment des algorithmes de recommandations pour des médias, pour des sites de <em>E-commerce</em>, pour des plates-formes de <em>streaming</em> pour mieux comprendre en fait d'où vient l'algorithme. L'objectif dans ma thèse, c'est de mettre en valeur les intentions, les pourquoi, les comment qui se cachent derrière les algos, les choix <em>business</em> ou encore les biais qui sont directement implémentés de manière consciente ou non dans la machine. Donc si on en revient à l'exemple de YouTube, c'est aller étudier : Pourquoi ils vous recommandent cette vidéo de terre plate alors que vous n'aviez rien demandé ? Alors c'est un peu dévoiler en quoi rien n'est laissé au hasard dans le monde merveilleux des algorithmes et puis de dévoiler un peu la face cachée de leurs impacts. Donc, je vais aller dans les entreprises, je vais faire de l'immersion, je vais observer la conception et le développement directement d'algorithmes. Qui fait quoi, d'où vient l'idée de base, quelles sont les contraintes, quelles sont les méthodes utilisées ou encore la conscience qu'on a dans les entreprises des impacts des algorithmes qu'ils ont conçus. Mais le bonheur ne s'arrête pas là et donc là c'est un peu la transition brute pour passer à l'autre temps de mon sujet qui est : l'utilisation des algorithmes qui de plus importante au sein même des entreprises. On voit depuis des années, des dizaines d'années, des robots remplacer les humains pour faire. Donc c'est sur les chaînes de production, dans les usines, dans les entrepôts pour préparer les commandes donc Amazon par exemple. Demain, les algorithmes ils vont être présents donc encore pour faire mais aussi pour organiser et <em>manager</em> le travail. Donc ça, c'est une grosse différence. C'est d'ailleurs déjà le cas avec Uber où les chauffeurs répondent aux ordres d'algorithmes qui sont <em>managers</em>. Pour se placer dans telle ou telle zone parce qu'il y a plus de personnes ou pour travailler sur telle ou telle plage horaire parce que Uber manque de chauffeurs à telle ou telle plage horaire. Donc à terme, Les algorithmes on peut dire, vont analyser les données de production, de ventes et de productivité pour prendre des décisions ou pour aider à la prise de décisions qui (ces décisions) auront un impact direct sur les travailleurs de l'organisation. Donc c'est une nouvelle pratique managériale on peut appeler ça comme ça, qui pose des questions de productivité et de conditions de travail évidemment. Et qui m'amènera à comparer les bureaucraties traditionnelles et les bureaucraties algorithmiques. Donc les questions éthiques, elles sont évidemment présentes dans les deux pans de la thèse. Par exemple : Que fait un ingénieur devant une demande d'un PDG et cette demande, cet ingénieur il la juge contraire à son éthique ? Ou que fait un manager qui soit invité par un algorithme de prendre une décision qu'il juge dangereuse pour son équipe ? Voilà, donc si vous êtes intéressé par les recherches et puis je fais un petit appel aussi à des entreprises qui peuvent m'accueillir pour cette immersion, n'hésitez pas à me contacter. Et puis je vous remercie pour votre écoute et finit mes quatre minutes de <em>futur de la recherche</em>. Et merci pour votre invitation Eve et Nicolas.<br />
<br />
==42'54==<br />
<b>Nicolas Martin : </b>Merci, merci beaucoup Jérémie. On va vous garder un instant en ligne si vous voulez bien parce que j'aimerais que vous interveniez et que vous réagissiez un peu à ce qui va se dire en studio. Je vais demander une réaction et puis félicitations pour le «point Al Godwin» qu'on a beaucoup aimé. Une réaction Nozha Boujemaa ? Je vous voyais approuver aux présentations des travaux de Jérémy Poiroux.<br />
<br />
<b>Nozha Boujemaa : </b>Alors effectivement, la recherche elle a un rôle très important à jouer. Ce dont on n'a pas encore bien appuyé, l'idée au-delà de l'auditabilité et du contrôle et de la transparence des algorithmes existants, c'est vraiment essentiel d'avoir une formation justement des étudiants à la réutilisation des briques, logiciels <em>Open source</em>, sur les fuites informationnelles mais surtout en fait c'est avoir en fait de nouveaux modèles mathématiques d'apprentissage qui puissent identifier des variables discriminatoires pour réduire leurs impacts sur les prises de décisions. Donc là, c'est vraiment d'un point de vue recherches. «Coeur d'IA», c'est-à-dire que au-delà des algorithmes existants, faire de nouveaux modèles qui incorporent ces idées : égalité et équité par construction dans le modèle mathéthique lui-même. Chose qui existe très rarement.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, un mot.<br />
<br />
<b>Frédéric Bardolle : </b>Moi j'ai juste une crainte c'est que même si on développe des nouveaux modèles aussi performants qui soient, on va pas réussir à résoudre le cœur du problème qui est que les plates-formes font ça enfin... On va seulement parler des recommandation de contenus par exemple avec un <em>business model</em> basé sur la publicité. Le but c'est d'avoir l'attention des personnes. Pour avoir cette attention, l'idéal c'est de proposer un contenu qui fasse les gens et le problème c'est que le contenu qui fait rester les gens, c'est des contenus extrémistes, voilà... Des contenus terroristes, des contenus conspirationnistes, ainsi de suite. <br />
<br />
<b>Nicolas Martin : </b>Oui dans le pire des cas, sur YouTube etc. Sur des sites de vente, on a peu de ventes de sacs à main terroristes.<br />
<br />
<b>Frédéric Bardolle : </b> Non non, je parlais juste des <em>business models</em>, quand le <em>business model</em> c'est de capturer l'attention des personnes et leur diffuser des contenus. Le problème c'est que ces contenus vont toujours gagner par rapport aux autres. Donc à part si on trouve des moyens de changer ce modèle-là, un algorithme qui recommande un contenu extrême : c'est un algorithme qui fonctionne bien en fait. C'est un algorithme qui fait exactement ce pourquoi il a été conçu c'est-à-dire : faire rester la personne sur la plate-forme. Lui, a rempli son travail en fait. Donc, l'algorithme fonctionne déjà plutôt bien.<br />
des <br />
<br />
<b>Nozha Boujemaa : </b>Je pense qu'il faut régir les cas d'usage au-delà de ces modèles-là. Par exemple, sur la variabilité des prix. Ce qui est autre chose. Quand on va sur des plates-formes pour réserver des nuits d'hôtel ou bien des billets d'avion ou de train, là il ne s'agit pas de l'attention là, là c'est un autre <em>business model</em>. Et là, on peut se retrouver dans des situations de discrimination justement quand on passe à l'acte d'achat, qu'on fait rentrer des données personnelles, on peut voir des variations de prix qui vont être dépendantes. On ne va pas avoir le même prix pour toutes les personnes. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>Aïe.<br />
<br />
<b>Nohza Boujemaa : </b>Donc c'est pour ça que à un moment donné, il faut voir vraiment une vue un peu plus...<br />
<br />
<b>Nicolas Martin : </b>En fonction de ? En fonction de la localisation géographique ? En fonction de ?<br />
.<br />
<b>Nohza Boujemaa : </b>Ça peut être la localisation, origine, etc. Il y a certains formulaires qui demandent des questions...<br />
<br />
<b>Nicolas Martin : </b>Quand je rentre mes coordonnées de carte bleue pour acheter un billet d'avion, je ne donne pas accès à mon origine ethnique par exemple ?<br />
<br />
<b>Nohza Boujemaa : </b>Sur certains sites , enfin sur certains sites de services... Aujourd'hui c'est ça le problème : c'est que les services ne connaissent pas les frontières. Et donc on est amenés à réppndre à des questionnaires traduits qui sont faits par des firmes qui ne spécialement ou particulièrement françaises. D'accord ? Donc on peut se retrouver entrain de répondre avec des informations assez intrusives d'un point de vue données personnelles. Et là, on peut constater des variations de prix. Et d'ailleurs, dans ce cadre-là, par exemple, la DGCCRF qui est une autorité de régulation se pose vraiment la question.<br />
<br />
<b>Nicolas Martin : </b>Direction générale de la Concurrence, de la Consommation et de la Répression des fraudes.<br />
<br />
<b>Nohza Boujemaa : </b>Voilà et qui a envie d'ailleurs de lancer des sujets de recherche pour faire la part des choses. Parce que tout n'est pas condamnable. Le <em>lean management</em>, c'est légal. Par contre, faire une variabilité des prix qui est finalement une discrimination sur des raisons non avouées : ça c'est pas légal.<br />
<br />
==47'08==<br />
<b>Nicolas Martin : </b>J'aimerais qu'on revienne pour conclure dans le dernier quart d'heure qui nous reste sur cette notion de serment. Alors, il y a ce serment d'Hippocrate qu'on évoquait tout à l'heure via <em>Data for Good</em> et <em>AlgoTransparency</em>. Il y a un autre serment qui est le serment Holberton-Turing qui est une autre charte qui propose, en fait une forme charte de bonne conduite. Ma première question, c'est ce lien avec Hippocrate. Le serment d'Hippocrate c'est le serment qui est prêté par les médecins qui s'engagent. Je l'ai sous les yeux, je ne vais pas vous le redire mais bon : consacrer sa vie à sauver l'humanité, à sauver les vies, à ne pas discriminer en fonction de l'âge, de l'origine éthique etc etc. Est-ce que c'est bien judicieux de mettre au même plan</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85620Éthique numérique, des datas sous serment - La méthode scientifique2019-09-03T02:29:59Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen - Soline Ledésert - Jérémie Poiroux<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lançait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un serment d'Hippocrate des <em>data scientists</em>. Donc on a fait une petite recherche, il y en avait déjà qui circulaient et pour se différencier de ceux qui existaient déjà, on avait vraiment crée un serment d'Hippocrate qui aidait dans au quotidien, dans leur pratique les <em>data scientists</em>. Vraiment à se dire, on a découpé le travail en grandes étapes de la participation d'un projet, à l'analyse de résultats en passant par la collecte de données et l'application de modèles algorithmiques. On s'est dit «À chaque étape, quels sont les dilemmes éthiques auxquels un <em>data Scientist</em> peut être confronté et ensuite comment il peut résoudre ces problèmes ?». Donc on a fait un questionnaire en ligne, on a récolté des expériences diverses et ensuite on a travaillé pendant trois mois en atelier à rédiger collaborativement un serment d'Hippocrate. Donc là, il est disponible sur hippocrate.tech. Donc on a posé cinq valeurs : L'intégrié scientifique et la rigueur, la transparence, l'équité, le respect et la responsabilité et l'indépendance. Et ensuite, on a formulé des phrases sous la forme de «Je m'engage à faire ceci ou cela» donc ça concerne effectivement le respect de la vie privée donc à chaque fois, à chaque ligne on rappelle aussi le cadre légal européen du Règlement Général pour la Protection des Données personnelles. Le <em>data scientist</em> signataire s'engage à déterminer le meilleur compromis entre la performance et l'interprétabilité. Pourquoi l'interprétabilité c'est important ? Parce que par exemple si vous faites tourner un algorithme par exemple sur la question de votre allocation familiale et si l'algorithme vous dit «Bah non, vous n'y avez pas droit» et que la personne qui a fait tourner l'algorithme vous dit «Et bien écoutez, je ne peux pas vous l'expliquer, mais c'est comme ça» ça peut poser des problèmes. Donc on a fait ce genre de recherche. <br />
<br />
<b>Céline Loozen : </b>Quelle est la valeur juridique de cette charte ? Comment on pourrait l'appliquer réellement ?<br />
<br />
<b>Soline Ledésert : </b>Nous on est vraiment dans une démarche plutôt citoyenne. À chaque fois, on l'a formulée de façon à veiller, enfin le <em>data scientist</em> veille à ce que les choses se fassent. Mais un <em>data scientist</em> il peut travailler dans une administration, dans une entreprise, au sein d'un labo de recherche et il n'est jamais seul décisionnaire sur vraiment l'ensemble du projet donc nous on a pris cette approche dans le cadre de ce projet vers la responsabilité personnelle. Après, on a aussi rappelé la loi donc là c'est vrai que le RGPD a vraiment amené beaucoup plus de contraintes sur ces questions mais voilà, nous on est vraiment parti sur un modèle d'éthique personnelle. <br />
<br />
[Fin de la musique de fond]<br />
<br />
<b>Nicolas Martin : </b>Voilà le reportage du jour sur cette plate-forme <em>AlgoTransparency</em>. Je vais vous demander évidemment Frédéric Bardolle, une réaction puisque c'est votre association <em>Data For Good</em> qui développe cette plate-forme.<br />
<br />
<b>Frédéric Bardolle : </b>Déjà merci. C'est Soline qui a vraiment porté le projet sur le serment d'Hippocrate et Guillaume Chaslot qui est à plein temps sur ce projet de <em>Algotransparency</em> et qui essaie d'étudier notamment avec des scientifiques américains, essayer d'étudier d'autres algorithmes et leurs fonctionnements, essayer de mieux comprendre comment ça marche. Moi je voulais revenir surtout sur une chose c'est que effectivement il y a une responsabilité individuelle donc à travers ce serment qu'on propose. Mais on pense également qu'il y a comme le disait Soline qu'il y a aussi une responsabilité finalement aussi, il y a des institutions à créer pour permettre de transformer la manière dont fonctionne le numérique à l'heure actuelle. Un exemple : à l'heure actuelle, il n'y a pas de statut intermédiaire entre un hébergeur et un média. Et le problème c'est quoi ? C'est que en fait...<br />
<br />
<b>Nicolas Martin : </b>Exemple concret. Par exemple, prenons un réseau social. Pour les auditeurs, exemple concret : Facebook.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà Facebook ou YouTube, c'est des hébergeurs. Donc, ils ne sont pas responsables du contenu. Tout le contenu publié chez eux c'est pas sous leur responsabilité. Au contraire un média, tout ce qui est produit, si on dit quelque chose qui ne respecte pas la loi à la radio...<br />
<br />
<b>Nicolas Martin : </b>Sur France Culture.<br />
<br />
<b>Frédéric Bardolle : Et bien quelqu'un portera la responsabilité. <br />
<br />
<b>Nicolas Martin : </b>La directrice de la chaîne, moi d'abord et puis ensuite la présidente. <br />
<br />
<b>Frédéric Bardolle : </b>Et donc il y a un grand écart en fait. Ce statut d'hébergeur ça marchait très bien au début de l'internet finalement. C'était juste des annuaires où il y avait toutes les vidéos des contenus produits par les internautes qui étaient là. Finalement, c'est vrai qu'il n'y avait pas de rôle de responsabilité. Mais là en fait on assiste à quelque chose. C'est-à-dire qu'un algorithme qui propose 100 000 fois un contenu à un utilisateur, on pourrait se dire «Quand même, il a un rôle éditorial». Même si ce n'est pas un humain qui a fait ce choix de poser ça là. Au bout d'un moment lorsqu'une nouvelle est diffusée de manière massive comme ça, nous on considère que cette plate-forme a un rôle éditorial, devrait avoir une responsabilité juridique et parce que l'algorithme a un rôle éditorial dans ses contenus. <br />
<br />
<b>Nicolas Martin : </b>Une réaction à ce que viens de dire Frédéric Bardolle et sur cette plate-forme <em>AlgoTransparency</em>. On va parler du serment d'Hippocrate dans un instant mais d'abord sur le reportage et sur cette notion très très intéressante de distnction entre l'hébergeur et média.<br />
<br />
<b>Nozha Boujemaa : </b>Oui... Et bien je suis d'accord dans la mesure où effectivement l'évolution des rôles aujourd'hui, la frontière est très mince et surtout que les contenus en fait aujourd'hui sont consommés. Il n'y a plus effectivement ce rôle éditorial fait par un professionnel mais aujourd'hui c'est fait par un algorithme de recommandation de contenus. Et donc, très clairement la question de la neutralité de la recommandation du contenu se pose. Et au-delà de ces... En fait... Moi je voudrais pointer toujours sur cette même problématique, un autre contexte qui peut être embêtant. C'est pas du B2C en fait c'est du B2B. Plate-forme juste au hasard...<br />
<br />
<b>Nicolas Martin : </b>On rappelle : B2C c'est <em>business-to-consumer</em>...<br />
<br />
<b>Nozha Boujemaa : </b>Voilà.<br />
<br />
<b>Nicolas Martin : </b>Et B2B c'est <em>business-to-business</em> voilà.<br />
<br />
<b>Nozha Boujemaa : </b>Exactement. <br />
<br />
<b>Nicolas Martin : </b>Donc de l'entreprise à l'entreprise et de l'entreprise au consommateur.<br />
<br />
<b>Nozha Boujemaa : </b>Merci.<br />
<br />
<b>Nicolas Martin : </b>C'est juste un petit bout de traduction franco-anglaise qu'on nous reproche souvent à juste titre d'être trop anglophone. <br />
<br />
<b>Nozha Boujemaa : </b>Tout à fait, tout à fait. À juste titre.<br />
<br />
<b>Nicolas Martin : </b>Allons-y.<br />
<br />
<b>Nozha Boujemaa : </b>Donc faire des recommandations de consommation de contenus culturels sur une plate-forme qui n'a pas de modèle d'affaires qui soit de la publicité. Je prends pour exemple Netflix. Une fois qu'on paye l'abonnement, on n'a pas de publicités à regarder.<br />
<br />
<b>Nicolas Martin : </b>Pour le moment.<br />
<br />
<b>Nozha Boujemaa : </b>Pour le moment. On peut se poser la question : C'est quoi les motivations des algorithmes de recommandation là-dedans ? D'accord ? Donc là, c'est un autre cas d'usage auquel il faudrait aussi un petit peu s'y intéresser. Parce que là très clairement, la question de la concurrence va se poser entre des producteurs de contenus qui sont, qui ont des accords avec Netflix et ceux qui ne l'ont pas. Et aussi avec des producteurs de contenus culturels de l'industrie française par exemple qui peut se retrouver lésée. Et là, c'est un problème de concurrence et de position dominante et le ministère de la culture aussi à ma connaissance s'intéresse également à ces questions.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, c'est intéressant cet exemple de Netflix parce que effectivement... Par ailleurs, on peut aussi imaginer que puisque tous ces algorithmes sont biaisés et qu'il y a une intentionnalité derrière, dans ces biais, on peut imaginer que l'algorithme de Netflix privilégie les productions internes de Netflix et pas le contenu qui a été racheté à d'autres sociétés de production qui sont hébergées seulement sur la plate-forme pour prévilégier le contenu interne et dire «Et bien vous voyez, les produits Netflix fonctionnent mieux que les produits un tel de FOX ou un air peu importe».<br />
<br />
<b>Nozha Boujemaa : </b>Et ce n'est pas forcément une personnalisation pour le consommateur je rappelle. <br />
<br />
<b>Nicolas Martin : </b>Bien sûr.<br />
<br />
<b>Frédéric Bardolle : </b>Et...<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Et comme on n'a aucune transparence sur qu'est-ce qu'on essaie d'optimiser avec cet algorithme, finalement on ne le saura jamais. Et c'est un gros problème. Et pour montrer l'ampleur un peu de la chose, il faut savoir que 70 % à 80 % du contenu sur Netflix provient de recommandations. Donc ce n'est pas quelque chose qui se fait à la marge. C'est que les gens consomment ce qu'on leur recommande en fait. C'est vraiment quelque chose qui est phénoménal et sur toutes les plates-formes c'est la même chose.<br />
<br />
<b>Nicolas Martin : </b>Parce que par ailleurs sur Netflix, la plate-forme est une gigantesque plate-forme de recommandations. C'est-à-dire que la plate-forme n'est pas présentée par ordre alphabétique par exemple ou par ordre de nouveautés ou très très peu. Elle n'est que...<br />
<br />
<b>Nozha Boujemaa : </b> Elle va le rajouter, elle est là.<br />
<br />
<b>Nicolas Martin : </b>Voilà. Ce qui est intéressant alors. On entendait dans la reportage quelque chose sur laquelle j'aimerais vous faire réagir. On va parler évidemment surtout dans la deuxième partie, de cette notion de serment d'Hippocrate : À il s'addresse, de son côté un peu finaliste c'est-à-dire de dire que le serment est signé finalement par les <em>data scientists</em>, par les scientifiques de données. Et pourquoi est-ce que ce serait les individus qui doivent s'engager et non pas les plate-formes ? C'est une question qui me semble importante à traiter. Mais avant cela, j'aimerais poser une question autour de cette notion d'interprétabilité. Puisqu'on voit bien que... Prenons cet exemple de Netflix qui est assez bon. Aujourd'hui Netflix signerait un accord, un serment, peu importe qui donne accès, qui permet de lire ses algorithmes. Aujourd'hui pour tout un chacun, pour nous citoyens en bout de chaîne, pour les consommateurs : c'est strictement illisible. C'est-à-dire qu'on a pas accès à la compréhension de ce qui va permettre de régir cet algorithme et d'ailleurs si nous n'y avons pas intérêt, évidemment la plate-forme elle-même a encore moins intérêt à donner ces informations-là. Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui alors effectivement, c'est là où il y a un effort international sur «Faut-il réguler, comment réguler ?» etc etc au-delà des chartes d'engagements individuelles. L'idée c'est aussi... Alors tout dépend si c'est du... J'allais dire du soft (rires). Si c'est du...<br />
<br />
<b>Nicolas Martin : </b>Logiciel ?<br />
<br />
<b>Nozha Boujemaa : </b>Non non. De la réglementation dure ou un peu plus légère mais en tout cas amener les producteurs de service à rendre compte. Parce qu'en fait, celui qui fait le service, on peut en fait et là je mentionne les efforts faits au niveau de la Commission européenne mais aussi au niveau de l'OCDE qui réfléchissent très très sérieusement par rapport à toutes ces questions parce qu'il y a une prise de conscience aujourd'hui internationale. Je ne dis pas que les solutions existent. Mais la prise de conscience et la nécessité, l'urgence d'agir : elle est là. Du coup, typiquement sur l'intelligibilité... Je ne parle pas d'explicabilité parce que des fois, on a peut-être pas besoin et peut-être pas les moyens techniques de l'explicabilité mais par contre, la traçabilité du pourquoi on a eu ce résultat du genre «tel produit ou tel contenu est recommandé pour vous». On aimerait bien avoir une sorte de tableau de bord qui va nous dire «Voilà les critères en pourcentage qui»...<br />
<br />
<b>Nicolas Martin : </b> «Vous avez fait tel choix, tel choix, tel choix donc le logiciel infère que vous allez aimer tel chose».<br />
<br />
<b>Nohza Boujemaa : </b>Les producteurs des services en fait par régulation, on pourrait les amener à apporter et justement en apportant ces critères-là, on respecte le libre arbitre du consommateur quand même. Parce que la, on clique sur ce qui est proposé mais est-ce qu'il est vraiment conscient de sur quoi... Enfin... C'est quand même léger aujourd'hui donc il y a cette notion de respect du libre arbitre via une règlementation dans ce sens-là. <br />
<br />
<b>Nicolas Martin : </b>Je vais prendre un exemple volontairement un chouia provocateur dans l'état actuel des choses mais encore une fois la transparence n'implique pas compréhension si on prend une plate-forme de Parcoursup dont l'algorithme a été rendu public par l'éducation nationale. Ce qui n'empêche pas personne de ne comprendre à aucun moment, les choix et les orientations que cet algorithme fait pour les étudiants qui veulent être inscrits dans les universités dont ils font fait le choix. Fait la demande pardon. <br />
<br />
<b>Frédéric Bardolle : </b>La complexité supérieure qui a en plus sur Parcoursup, c'est que il y a une partie du code qui est quand même caché. Le code qui est utilisé par les universités, celui-là, «la cuisine interne» comme ils appellent ça.<br />
<br />
<b>Nicolas Martin : </b>La sélection en bout de chaîne.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Celle-là, il y a toujours une demande, une requête qui a été faite à la Commission d'Accès aux Documents Administratifs, la CADA, qui est en cours mais qui n'a pas abouti à l'heure actuelle et ce code n'est pas rendu public. Donc, il manque quand même un bout de la chaîne. Pour revenir sur cette question d'auditabilité des algorithmes, nous quand on a essayé d'auditer l'algorithme de YouTube c'est un peu ce qu'on a fait avec <em>AlgoTransparency</em>, on s'est rendu compte de la complexité qu'il y avait. C'est-à dire que d'une : Tous les jours, l'algorithme change. Comme des gens regardent des vidéos, en fait ça fait changer l'algorithme. Donc finalement, quelle est la vraie version ? C'est compliqué à dire. <br />
<br />
<b>Nohza Boujemaa : </b>Les algorithmes et les corpus.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà.<br />
<br />
<b>Nohza Boujemaa : </b>Les corpus aussi. <br />
<br />
<b>Frédéric Bardolle : </b>Tout change au fur et à mesure. Et puis c'est d'une telle complexité. Si on a des réseaux de neurones, ça va être aussi dur par exemple de dire «On a regardé cette vidéo parce que il y a une personne qui a regardé ça». Des critères il peut y en avoir des millions et des millions donc on ne va pas forcément s'y retrouver. Et finalement, c'est un peu comme quand on regarde les émissions de particules fines d'une voiture je trouve. C'est-à-dire que finalement peu importe ce qui se passe dans la cuisine interne du moteur, ce qu'on va regarder à la fin c'est «Est-ce que il y a des particules qui sont émises ?» et c'est ça qui nous intéresse. Mais, ça c'est pas disponible à la hauteur, on n'a pas de mécanisme qui nous permet de nous connecter directement à une plate-forme et de savoir «Bah tiens si on fait telle chose, on aura telle chose de recommandé» et puis en plus on se dit «Si jamais ça ça existe, il va y avoir des trucages» comme il y a eu sur les voitures notamment quand on est arrêté, tout se passe bien et puis quand on roule en conditions réelles, ça ne marche plus du tout. C'est pas évident comme question.<br />
<br />
<b>Pause musicale : </b> <em>Algorithms</em> par <em>School is Cool</em><br />
<br />
<b>Nicolas Martin : </b><em>Algorithms</em> de <em>School is Cool</em> puisque c'est ce dont il est vaguement question au cours de cette heure puisque nous parlons d'éthique numérique et d'éthique en science des données et évidemment bien des algorithmes qui sont au centre de ces questions d'éthique, de leurs transparences, de leurs auditabilités et puis surtout de ce qu'il va se passer dans le futur. À partir d'aujourd'hui, avec les scientifiques qui sont formés aujourd'hui. Ces scientifiques doivent-ils être tenus, doivent-ils s'engager sur une sorte de charte de bonne conduite piur éviter, bien pour éviter toute sorte de dérives que l'on peut constater d'ores et déjà aujourd'hui. Nous en parlons avec Nohza Boujemaa qui est directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et avec Frédéric Bardolle qui est membre de l'association <em>Data for Good</em> qui a réalisé une plate-forme <em>AlgoTransparency</em> à propos de l'algorithme de YouTube à propos de laquelle on a entendu un reportage tout à l'heure. Mais comme tous les mercredis, aux alentours de cette heure à quelques minutes près, il est l'heure d'écouter la voix du futur de la recherche.<br />
<br />
[Jingle] <br />
<br />
<b>Nicolas Martin : </b>Et aujourd'hui, le futur de la recherche s'appelle Jérémie Poiroux. Bonjour Jérémie Poiroux.<br />
<br />
<b>Jérémie Poiroux : </b>Bonjour à tous, bonjour.<br />
<br />
<b>Nicolas Martin : </b>Bonjour. Vous êtes avec nous en ligne puisque vous suivez vos études au centre Marc Bloch à Berlin en partenariat avec le CNRS. Vous êtes en première année de thèse en sociologie dans le cadre du projet ANR <em>Algodiv</em>. Je crois que vous êtes présentement en Pologne. Le titre de votre thèse c'est «La fabrique des algorithmes de recommandation et de management» sous le prisme de leur conception et de leur impact au sein des organisations. Voilà, je vais vous laisser quelques minutes pour nous présenter vos travaux. C'est à vous.<br />
<br />
<b>Jérémie Poiroux : </b>Et bien merci beaucoup pour cette présentation très précise et avec beaucoup de pression sur le futur de sa recherche.<br />
<br />
<em>Rires</em><br />
<br />
<b>Jérémie Poiroux : </b>Donc c'est une thèse... Voilà,qui est sous la direction de Camille Roth. Donc là, j'étais en effet en Pologne mais là je suis de retour à Berlin donc pour continuer cette étude sur la fabrique des algorithmes de recommandation et de management. Alors c'est vrai pour prendre un peu le contre-pied de ce qui se fait en ce moment, il y a une littérature qui est assez limitée sur la fabrique. On parle pas mal de transparence, d'ouvrir la boîte noire, on a eu pas mal les débats aussi juste avant la pause musicale. Et quelque chose qui ne se fait pas beaucoup voilà c'est : Comment ils sont fabriqués ? Donc mon premier terrain c'est : les algorithmes de recommandation donc c'est des petits programmes... Peut-être que je dis des choses qui ont déjà été dites quelques minutes avant. Qui vont vous inviter voire vous inciter à consommer un contenu ou un produit. Donc, Ça peut être un film sur Netflix, on en reparle. Une chambre sur Airbnb ou un article sur le site d'un média. Vous me direz qu'en soi, recommander une saccoche quand j'achète un appareil photo ou un hôtel quand je vais passer une semaine en Grèce : c'est un peu de bonne guerre. Mais on peut plus se poser des questions quand il va s'agir de recommander du contenu culturel ou d'intérêt général car ils pourraient nous enfermer... Alors là je dis attention car il y a un «point Al Godwin» parce que on parle beaucoup de bulles filtrantes qui pourraient nous empêcher de voir plus loin que le bout de notre zone de confort. Je m'arrête ici sur les impacts car vous allez en parler, vous en avez beaucoup parlé. Donc en fait, je m'intéresse plutôt comme je le disais à la fabrique. Vous vous êtes déjà demandé, on va reprendre l'exemple de YouTube : Pourquoi il vont recommander (l'algorithme de YouTube, à droite ou sur la page d'accueil) cette vidéo de chatons ou la vidéo de terre plate ? Et donc, dans mon étude préparatoire que j'ai fait et que je suis entrain de terminer, qui lance la thèse, j'ai mené des entretiens avec plusieurs dizaines d'ingénieurs qui programment des algorithmes de recommandations pour des médias, pour des sites de <em>E-commerce</em>, pour des plates-formes de <em>streaming</em> pour mieux comprendre en fait d'où vient l'algorithme. L'objectif dans ma thèse, c'est de mettre en valeur les intentions, les pourquoi, les comment qui se cachent derrière les algos, les choix <em>business</em> ou encore les biais qui sont directement implémentés de manière consciente ou non dans la machine. Donc si on en revient à l'exemple de YouTube, c'est aller étudier : Pourquoi ils vous recommandent cette vidéo de terre plate alors que vous n'aviez rien demandé ? Alors c'est un peu dévoiler en quoi rien n'est laissé au hasard dans le monde merveilleux des algorithmes et puis de dévoiler un peu la face cachée de leurs impacts. Donc, je vais aller dans les entreprises, je vais faire de l'immersion, je vais observer la conception et le développement directement d'algorithmes. Qui fait quoi, d'où vient l'idée de base, quelles sont les contraintes, quelles sont les méthodes utilisées ou encore la conscience qu'on a dans les entreprises des impacts des algorithmes qu'ils ont conçus. Mais le bonheur ne s'arrête pas là et donc là c'est un peu la transition brute pour passer à l'autre temps de mon sujet qui est : l'utilisation des algorithmes qui de plus importante au sein même des entreprises. On voit depuis des années, des dizaines d'années, des robots remplacer les humains pour faire. Donc c'est sur les chaînes de production, dans les usines, dans les entrepôts pour préparer les commandes donc Amazon par exemple. Demain, les algorithmes ils vont être présents donc encore pour faire mais aussi pour organiser et <em>manager</em> le travail. Donc ça, c'est une grosse différence. C'est d'ailleurs déjà le cas avec Uber où les chauffeurs répondent aux ordres d'algorithmes qui sont <em>managers</em>. Pour se placer dans telle ou telle zone parce qu'il y a plus de personnes ou pour travailler sur telle ou telle plage horaire parce que Uber manque de chauffeurs à telle ou telle plage horaire. Donc à terme, Les algorithmes on peut dire, vont analyser les données de production, de ventes et de productivité pour prendre des décisions ou pour aider à la prise de décisions qui (ces décisions) auront un impact direct sur les travailleurs de l'organisation. Donc c'est une nouvelle pratique managériale on peut appeler ça comme ça, qui pose des questions de productivité et de conditions de travail évidemment. Et qui m'amènera à comparer les bureaucraties traditionnelles et les bureaucraties algorithmiques. Donc les questions éthiques, elles sont évidemment présentes dans les deux pans de la thèse. Par exemple : Que fait un ingénieur devant une demande d'un PDG et cette demande, cet ingénieur il la juge contraire à son éthique ? Ou que fait un manager qui soit invité par un algorithme de prendre une décision qu'il juge dangereuse pour son équipe ? Voilà, donc si vous êtes intéressé par les recherches et puis je fais un petit appel aussi à des entreprises qui peuvent m'accueillir pour cette immersion, n'hésitez pas à me contacter. Et puis je vous remercie pour votre écoute et finit mes quatre minutes de <em>futur de la recherche</em>. Et merci pour votre invitation Eve et Nicolas.<br />
<br />
==42'54==<br />
<b>Nicolas Martin : </b>Merci, merci beaucoup Jérémie. On va vous garder un instant en ligne si vous voulez bien parce que j'aimerais que vous interveniez et que vous réagissiez un peu à ce qui va se dire en studio. Je vais demander une réaction et puis félicitations pour le «point Al Godwin» qu'on a beaucoup aimé. Une réaction Nozha Boujemaa ? Je vous voyais approuver aux présentations des travaux de Jérémy Poiroux.<br />
<br />
<b>Nozha Boujemaa : </b>Alors effectivement, la recherche elle a un rôle très important à jouer. Ce dont on n'a pas encore bien appuyé, l'idée au-delà de l'auditabilité et du contrôle et de la transparence des algorithmes existants, c'est vraiment essentiel d'avoir une formation justement des étudiants à la réutilisation des briques, logiciels <em>Open source</em>, sur les fuites informationnelles mais surtout en fait c'est avoir en fait de nouveaux modèles mathématiques d'apprentissage qui puissent identifier des variables discriminatoires pour réduire leurs impacts sur les prises de décisions. Donc là, c'est vraiment d'un point de vue recherches. «Coeur d'IA», c'est-à-dire que au-delà des algorithmes existants, faire de nouveaux modèles qui incorporent ces idées : égalité et équité par construction dans le modèle mathéthique lui-même. Chose qui existe très rarement.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, un mot.<br />
<br />
<b>Frédéric Bardolle : </b>Moi j'ai juste une crainte c'est que même si on développe des nouveaux modèles aussi performants qui soient, on va pas réussir à résoudre le cœur du problème qui est que les plates-formes font ça enfin... On va seulement parler des recommandation de contenus par exemple avec un <em>business model</em> basé sur la publicité. Le but c'est d'avoir l'attention des personnes. Pour avoir cette attention, l'idéal c'est de proposer un contenu qui fasse les gens et le problème c'est que le contenu qui fait rester les gens, c'est des contenus extrémistes, voilà... Des contenus terroristes, des contenus conspirationnistes, ainsi de suite. <br />
<br />
<b>Nicolas Martin : </b>Oui dans le pire des cas, sur YouTube etc. Sur des sites de vente, on a peu de ventes de sacs à main terroristes.<br />
<br />
<b>Frédéric Bardolle : </b> Non non, je parlais juste des <em>business models</em>, quand le <em>business model</em> c'est de capturer l'attention des personnes et leur diffuser des contenus. Le problème c'est que ces contenus vont toujours gagner par rapport aux autres. Donc à part si on trouve des moyens de changer ce modèle-là, un algorithme qui recommande un contenu extrême : c'est un algorithme qui fonctionne bien en fait. C'est un algorithme qui fait exactement ce pourquoi il a été conçu c'est-à-dire : faire rester la personne sur la plate-forme. Lui, a rempli son travail en fait. Donc, l'algorithme fonctionne déjà plutôt bien.<br />
des <br />
<br />
<b>Nozha Boujemaa : </b>Je pense qu'il faut régir les cas d'usage au-delà de ces modèles-là. Par exemple, sur la variabilité des prix. Ce qui est autre chose. Quand on va sur des plates-formes pour réserver des nuits d'hôtel ou bien des billets d'avion ou de train, là il ne s'agit pas de l'attention là, là c'est un autre <em>business model</em>. Et là, on peut se retrouver dans des situations de discrimination justement quand on passe à l'acte d'achat, qu'on fait rentrer des données personnelles, on peut voir des variations de prix qui vont être dépendantes. On ne va pas avoir le même prix pour toutes les personnes. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>Aïe.<br />
<br />
<b>Nohza Boujemaa : </b>Donc c'est pour ça que à un moment donné, il faut voir vraiment une vue un peu plus...<br />
<br />
<b>Nicolas Martin : </b>En fonction de ? En fonction de la localisation géographique ? En fonction de ?<br />
.<br />
<b>Nohza Boujemaa : </b>Ça peut être la localisation, origine, etc. Il y a certains formulaires qui demandent des questions...<br />
<br />
<b>Nicolas Martin : </b>Quand je rentre mes coordonnées de carte bleue pour acheter un billet d'avion, je ne donne pas accès à mon origine ethnique par exemple ?<br />
<br />
<b>Nohza Boujemaa : </b>Sur certains sites , enfin sur certains sites de services... Aujourd'hui c'est ça le problème : c'est que les services ne connaissent pas les frontières. Et donc on est amenés à réppndre à des questionnaires traduits qui sont faits par des firmes qui ne spécialement ou particulièrement françaises. D'accord ? Donc on peut se retrouver entrain de répondre avec des informations assez intrusives d'un point de vue données personnelles. Et là, on peut constater des variations de prix. Et d'ailleurs, dans ce cadre-là, par exemple, la DGCCRF qui est une autorité de régulation se pose vraiment la question.<br />
<br />
<b>Nicolas Martin : </b>Direction générale de la Concurrence, de la Consommation et de la Répression des fraudes.<br />
<br />
<b>Nohza Boujemaa : </b>Voilà et qui a envie d'ailleurs de lancer des sujets de recherche pour faire la part des choses. Parce que tout n'est pas condamnable. Le <em>lean management</em>, c'est légal. Par contre, faire une variabilité des prix qui est finalement une discrimination sur des raisons non avouées : ça c'est pas légal.<br />
<br />
==47'08==<br />
<b>Nicolas Martin : </b></div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85619Éthique numérique, des datas sous serment - La méthode scientifique2019-09-02T22:53:09Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen - Soline Ledésert - Jérémie Poiroux<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lançait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un serment d'Hippocrate des <em>data scientists</em>. Donc on a fait une petite recherche, il y en avait déjà qui circulaient et pour se différencier de ceux qui existaient déjà, on avait vraiment crée un serment d'Hippocrate qui aidait dans au quotidien, dans leur pratique les <em>data scientists</em>. Vraiment à se dire, on a découpé le travail en grandes étapes de la participation d'un projet, à l'analyse de résultats en passant par la collecte de données et l'application de modèles algorithmiques. On s'est dit «À chaque étape, quels sont les dilemmes éthiques auxquels un <em>data Scientist</em> peut être confronté et ensuite comment il peut résoudre ces problèmes ?». Donc on a fait un questionnaire en ligne, on a récolté des expériences diverses et ensuite on a travaillé pendant trois mois en atelier à rédiger collaborativement un serment d'Hippocrate. Donc là, il est disponible sur hippocrate.tech. Donc on a posé cinq valeurs : L'intégrié scientifique et la rigueur, la transparence, l'équité, le respect et la responsabilité et l'indépendance. Et ensuite, on a formulé des phrases sous la forme de «Je m'engage à faire ceci ou cela» donc ça concerne effectivement le respect de la vie privée donc à chaque fois, à chaque ligne on rappelle aussi le cadre légal européen du Règlement Général pour la Protection des Données personnelles. Le <em>data scientist</em> signataire s'engage à déterminer le meilleur compromis entre la performance et l'interprétabilité. Pourquoi l'interprétabilité c'est important ? Parce que par exemple si vous faites tourner un algorithme par exemple sur la question de votre allocation familiale et si l'algorithme vous dit «Bah non, vous n'y avez pas droit» et que la personne qui a fait tourner l'algorithme vous dit «Et bien écoutez, je ne peux pas vous l'expliquer, mais c'est comme ça» ça peut poser des problèmes. Donc on a fait ce genre de recherche. <br />
<br />
<b>Céline Loozen : </b>Quelle est la valeur juridique de cette charte ? Comment on pourrait l'appliquer réellement ?<br />
<br />
<b>Soline Ledésert : </b>Nous on est vraiment dans une démarche plutôt citoyenne. À chaque fois, on l'a formulée de façon à veiller, enfin le <em>data scientist</em> veille à ce que les choses se fassent. Mais un <em>data scientist</em> il peut travailler dans une administration, dans une entreprise, au sein d'un labo de recherche et il n'est jamais seul décisionnaire sur vraiment l'ensemble du projet donc nous on a pris cette approche dans le cadre de ce projet vers la responsabilité personnelle. Après, on a aussi rappelé la loi donc là c'est vrai que le RGPD a vraiment amené beaucoup plus de contraintes sur ces questions mais voilà, nous on est vraiment parti sur un modèle d'éthique personnelle. <br />
<br />
[Fin de la musique de fond]<br />
<br />
<b>Nicolas Martin : </b>Voilà le reportage du jour sur cette plate-forme <em>AlgoTransparency</em>. Je vais vous demander évidemment Frédéric Bardolle, une réaction puisque c'est votre association <em>Data For Good</em> qui développe cette plate-forme.<br />
<br />
<b>Frédéric Bardolle : </b>Déjà merci. C'est Soline qui a vraiment porté le projet sur le serment d'Hippocrate et Guillaume Chaslot qui est à plein temps sur ce projet de <em>Algotransparency</em> et qui essaie d'étudier notamment avec des scientifiques américains, essayer d'étudier d'autres algorithmes et leurs fonctionnements, essayer de mieux comprendre comment ça marche. Moi je voulais revenir surtout sur une chose c'est que effectivement il y a une responsabilité individuelle donc à travers ce serment qu'on propose. Mais on pense également qu'il y a comme le disait Soline qu'il y a aussi une responsabilité finalement aussi, il y a des institutions à créer pour permettre de transformer la manière dont fonctionne le numérique à l'heure actuelle. Un exemple : à l'heure actuelle, il n'y a pas de statut intermédiaire entre un hébergeur et un média. Et le problème c'est quoi ? C'est que en fait...<br />
<br />
<b>Nicolas Martin : </b>Exemple concret. Par exemple, prenons un réseau social. Pour les auditeurs, exemple concret : Facebook.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà Facebook ou YouTube, c'est des hébergeurs. Donc, ils ne sont pas responsables du contenu. Tout le contenu publié chez eux c'est pas sous leur responsabilité. Au contraire un média, tout ce qui est produit, si on dit quelque chose qui ne respecte pas la loi à la radio...<br />
<br />
<b>Nicolas Martin : </b>Sur France Culture.<br />
<br />
<b>Frédéric Bardolle : Et bien quelqu'un portera la responsabilité. <br />
<br />
<b>Nicolas Martin : </b>La directrice de la chaîne, moi d'abord et puis ensuite la présidente. <br />
<br />
<b>Frédéric Bardolle : </b>Et donc il y a un grand écart en fait. Ce statut d'hébergeur ça marchait très bien au début de l'internet finalement. C'était juste des annuaires où il y avait toutes les vidéos des contenus produits par les internautes qui étaient là. Finalement, c'est vrai qu'il n'y avait pas de rôle de responsabilité. Mais là en fait on assiste à quelque chose. C'est-à-dire qu'un algorithme qui propose 100 000 fois un contenu à un utilisateur, on pourrait se dire «Quand même, il a un rôle éditorial». Même si ce n'est pas un humain qui a fait ce choix de poser ça là. Au bout d'un moment lorsqu'une nouvelle est diffusée de manière massive comme ça, nous on considère que cette plate-forme a un rôle éditorial, devrait avoir une responsabilité juridique et parce que l'algorithme a un rôle éditorial dans ses contenus. <br />
<br />
<b>Nicolas Martin : </b>Une réaction à ce que viens de dire Frédéric Bardolle et sur cette plate-forme <em>AlgoTransparency</em>. On va parler du serment d'Hippocrate dans un instant mais d'abord sur le reportage et sur cette notion très très intéressante de distnction entre l'hébergeur et média.<br />
<br />
<b>Nozha Boujemaa : </b>Oui... Et bien je suis d'accord dans la mesure où effectivement l'évolution des rôles aujourd'hui, la frontière est très mince et surtout que les contenus en fait aujourd'hui sont consommés. Il n'y a plus effectivement ce rôle éditorial fait par un professionnel mais aujourd'hui c'est fait par un algorithme de recommandation de contenus. Et donc, très clairement la question de la neutralité de la recommandation du contenu se pose. Et au-delà de ces... En fait... Moi je voudrais pointer toujours sur cette même problématique, un autre contexte qui peut être embêtant. C'est pas du B2C en fait c'est du B2B. Plate-forme juste au hasard...<br />
<br />
<b>Nicolas Martin : </b>On rappelle : B2C c'est <em>business-to-consumer</em>...<br />
<br />
<b>Nozha Boujemaa : </b>Voilà.<br />
<br />
<b>Nicolas Martin : </b>Et B2B c'est <em>business-to-business</em> voilà.<br />
<br />
<b>Nozha Boujemaa : </b>Exactement. <br />
<br />
<b>Nicolas Martin : </b>Donc de l'entreprise à l'entreprise et de l'entreprise au consommateur.<br />
<br />
<b>Nozha Boujemaa : </b>Merci.<br />
<br />
<b>Nicolas Martin : </b>C'est juste un petit bout de traduction franco-anglaise qu'on nous reproche souvent à juste titre d'être trop anglophone. <br />
<br />
<b>Nozha Boujemaa : </b>Tout à fait, tout à fait. À juste titre.<br />
<br />
<b>Nicolas Martin : </b>Allons-y.<br />
<br />
<b>Nozha Boujemaa : </b>Donc faire des recommandations de consommation de contenus culturels sur une plate-forme qui n'a pas de modèle d'affaires qui soit de la publicité. Je prends pour exemple Netflix. Une fois qu'on paye l'abonnement, on n'a pas de publicités à regarder.<br />
<br />
<b>Nicolas Martin : </b>Pour le moment.<br />
<br />
<b>Nozha Boujemaa : </b>Pour le moment. On peut se poser la question : C'est quoi les motivations des algorithmes de recommandation là-dedans ? D'accord ? Donc là, c'est un autre cas d'usage auquel il faudrait aussi un petit peu s'y intéresser. Parce que là très clairement, la question de la concurrence va se poser entre des producteurs de contenus qui sont, qui ont des accords avec Netflix et ceux qui ne l'ont pas. Et aussi avec des producteurs de contenus culturels de l'industrie française par exemple qui peut se retrouver lésée. Et là, c'est un problème de concurrence et de position dominante et le ministère de la culture aussi à ma connaissance s'intéresse également à ces questions.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, c'est intéressant cet exemple de Netflix parce que effectivement... Par ailleurs, on peut aussi imaginer que puisque tous ces algorithmes sont biaisés et qu'il y a une intentionnalité derrière, dans ces biais, on peut imaginer que l'algorithme de Netflix privilégie les productions internes de Netflix et pas le contenu qui a été racheté à d'autres sociétés de production qui sont hébergées seulement sur la plate-forme pour prévilégier le contenu interne et dire «Et bien vous voyez, les produits Netflix fonctionnent mieux que les produits un tel de FOX ou un air peu importe».<br />
<br />
<b>Nozha Boujemaa : </b>Et ce n'est pas forcément une personnalisation pour le consommateur je rappelle. <br />
<br />
<b>Nicolas Martin : </b>Bien sûr.<br />
<br />
<b>Frédéric Bardolle : </b>Et...<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Et comme on n'a aucune transparence sur qu'est-ce qu'on essaie d'optimiser avec cet algorithme, finalement on ne le saura jamais. Et c'est un gros problème. Et pour montrer l'ampleur un peu de la chose, il faut savoir que 70 % à 80 % du contenu sur Netflix provient de recommandations. Donc ce n'est pas quelque chose qui se fait à la marge. C'est que les gens consomment ce qu'on leur recommande en fait. C'est vraiment quelque chose qui est phénoménal et sur toutes les plates-formes c'est la même chose.<br />
<br />
<b>Nicolas Martin : </b>Parce que par ailleurs sur Netflix, la plate-forme est une gigantesque plate-forme de recommandations. C'est-à-dire que la plate-forme n'est pas présentée par ordre alphabétique par exemple ou par ordre de nouveautés ou très très peu. Elle n'est que...<br />
<br />
<b>Nozha Boujemaa : </b> Elle va le rajouter, elle est là.<br />
<br />
<b>Nicolas Martin : </b>Voilà. Ce qui est intéressant alors. On entendait dans la reportage quelque chose sur laquelle j'aimerais vous faire réagir. On va parler évidemment surtout dans la deuxième partie, de cette notion de serment d'Hippocrate : À il s'addresse, de son côté un peu finaliste c'est-à-dire de dire que le serment est signé finalement par les <em>data scientists</em>, par les scientifiques de données. Et pourquoi est-ce que ce serait les individus qui doivent s'engager et non pas les plate-formes ? C'est une question qui me semble importante à traiter. Mais avant cela, j'aimerais poser une question autour de cette notion d'interprétabilité. Puisqu'on voit bien que... Prenons cet exemple de Netflix qui est assez bon. Aujourd'hui Netflix signerait un accord, un serment, peu importe qui donne accès, qui permet de lire ses algorithmes. Aujourd'hui pour tout un chacun, pour nous citoyens en bout de chaîne, pour les consommateurs : c'est strictement illisible. C'est-à-dire qu'on a pas accès à la compréhension de ce qui va permettre de régir cet algorithme et d'ailleurs si nous n'y avons pas intérêt, évidemment la plate-forme elle-même a encore moins intérêt à donner ces informations-là. Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui alors effectivement, c'est là où il y a un effort international sur «Faut-il réguler, comment réguler ?» etc etc au-delà des chartes d'engagements individuelles. L'idée c'est aussi... Alors tout dépend si c'est du... J'allais dire du soft (rires). Si c'est du...<br />
<br />
<b>Nicolas Martin : </b>Logiciel ?<br />
<br />
<b>Nozha Boujemaa : </b>Non non. De la réglementation dure ou un peu plus légère mais en tout cas amener les producteurs de service à rendre compte. Parce qu'en fait, celui qui fait le service, on peut en fait et là je mentionne les efforts faits au niveau de la Commission européenne mais aussi au niveau de l'OCDE qui réfléchissent très très sérieusement par rapport à toutes ces questions parce qu'il y a une prise de conscience aujourd'hui internationale. Je ne dis pas que les solutions existent. Mais la prise de conscience et la nécessité, l'urgence d'agir : elle est là. Du coup, typiquement sur l'intelligibilité... Je ne parle pas d'explicabilité parce que des fois, on a peut-être pas besoin et peut-être pas les moyens techniques de l'explicabilité mais par contre, la traçabilité du pourquoi on a eu ce résultat du genre «tel produit ou tel contenu est recommandé pour vous». On aimerait bien avoir une sorte de tableau de bord qui va nous dire «Voilà les critères en pourcentage qui»...<br />
<br />
<b>Nicolas Martin : </b> «Vous avez fait tel choix, tel choix, tel choix donc le logiciel infère que vous allez aimer tel chose».<br />
<br />
<b>Nohza Boujemaa : </b>Les producteurs des services en fait par régulation, on pourrait les amener à apporter et justement en apportant ces critères-là, on respecte le libre arbitre du consommateur quand même. Parce que la, on clique sur ce qui est proposé mais est-ce qu'il est vraiment conscient de sur quoi... Enfin... C'est quand même léger aujourd'hui donc il y a cette notion de respect du libre arbitre via une règlementation dans ce sens-là. <br />
<br />
<b>Nicolas Martin : </b>Je vais prendre un exemple volontairement un chouia provocateur dans l'état actuel des choses mais encore une fois la transparence n'implique pas compréhension si on prend une plate-forme de Parcoursup dont l'algorithme a été rendu public par l'éducation nationale. Ce qui n'empêche pas personne de ne comprendre à aucun moment, les choix et les orientations que cet algorithme fait pour les étudiants qui veulent être inscrits dans les universités dont ils font fait le choix. Fait la demande pardon. <br />
<br />
<b>Frédéric Bardolle : </b>La complexité supérieure qui a en plus sur Parcoursup, c'est que il y a une partie du code qui est quand même caché. Le code qui est utilisé par les universités, celui-là, «la cuisine interne» comme ils appellent ça.<br />
<br />
<b>Nicolas Martin : </b>La sélection en bout de chaîne.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Celle-là, il y a toujours une demande, une requête qui a été faite à la Commission d'Accès aux Documents Administratifs, la CADA, qui est en cours mais qui n'a pas abouti à l'heure actuelle et ce code n'est pas rendu public. Donc, il manque quand même un bout de la chaîne. Pour revenir sur cette question d'auditabilité des algorithmes, nous quand on a essayé d'auditer l'algorithme de YouTube c'est un peu ce qu'on a fait avec <em>AlgoTransparency</em>, on s'est rendu compte de la complexité qu'il y avait. C'est-à dire que d'une : Tous les jours, l'algorithme change. Comme des gens regardent des vidéos, en fait ça fait changer l'algorithme. Donc finalement, quelle est la vraie version ? C'est compliqué à dire. <br />
<br />
<b>Nohza Boujemaa : </b>Les algorithmes et les corpus.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà.<br />
<br />
<b>Nohza Boujemaa : </b>Les corpus aussi. <br />
<br />
<b>Frédéric Bardolle : </b>Tout change au fur et à mesure. Et puis c'est d'une telle complexité. Si on a des réseaux de neurones, ça va être aussi dur par exemple de dire «On a regardé cette vidéo parce que il y a une personne qui a regardé ça». Des critères il peut y en avoir des millions et des millions donc on ne va pas forcément s'y retrouver. Et finalement, c'est un peu comme quand on regarde les émissions de particules fines d'une voiture je trouve. C'est-à-dire que finalement peu importe ce qui se passe dans la cuisine interne du moteur, ce qu'on va regarder à la fin c'est «Est-ce que il y a des particules qui sont émises ?» et c'est ça qui nous intéresse. Mais, ça c'est pas disponible à la hauteur, on n'a pas de mécanisme qui nous permet de nous connecter directement à une plate-forme et de savoir «Bah tiens si on fait telle chose, on aura telle chose de recommandé» et puis en plus on se dit «Si jamais ça ça existe, il va y avoir des trucages» comme il y a eu sur les voitures notamment quand on est arrêté, tout se passe bien et puis quand on roule en conditions réelles, ça ne marche plus du tout. C'est pas évident comme question.<br />
<br />
<b>Pause musicale : </b> <em>Algorithms</em> par <em>School is Cool</em><br />
<br />
<b>Nicolas Martin : </b><em>Algorithms</em> de <em>School is Cool</em> puisque c'est ce dont il est vaguement question au cours de cette heure puisque nous parlons d'éthique numérique et d'éthique en science des données et évidemment bien des algorithmes qui sont au centre de ces questions d'éthique, de leurs transparences, de leurs auditabilités et puis surtout de ce qu'il va se passer dans le futur. À partir d'aujourd'hui, avec les scientifiques qui sont formés aujourd'hui. Ces scientifiques doivent-ils être tenus, doivent-ils s'engager sur une sorte de charte de bonne conduite piur éviter, bien pour éviter toute sorte de dérives que l'on peut constater d'ores et déjà aujourd'hui. Nous en parlons avec Nohza Boujemaa qui est directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et avec Frédéric Bardolle qui est membre de l'association <em>Data for Good</em> qui a réalisé une plate-forme <em>AlgoTransparency</em> à propos de l'algorithme de YouTube à propos de laquelle on a entendu un reportage tout à l'heure. Mais comme tous les mercredis, aux alentours de cette heure à quelques minutes près, il est l'heure d'écouter la voix du futur de la recherche.<br />
<br />
[Jingle] <br />
<br />
<b>Nicolas Martin : </b>Et aujourd'hui, le futur de la recherche s'appelle Jérémie Poiroux. Bonjour Jérémie Poiroux.<br />
<br />
<b>Jérémie Poiroux : </b>Bonjour à tous, bonjour.<br />
<br />
<b>Nicolas Martin : </b>Bonjour. Vous êtes avec nous en ligne puisque vous suivez vos études au centre Marc Bloch à Berlin en partenariat avec le CNRS. Vous êtes en première année de thèse en sociologie dans le cadre du projet ANR <em>Algodiv</em>. Je crois que vous êtes présentement en Pologne. Le titre de votre thèse c'est «La fabrique des algorithmes de recommandation et de management» sous le prisme de leur conception et de leur impact au sein des organisations. Voilà, je vais vous laisser quelques minutes pour nous présenter vos travaux. C'est à vous.<br />
<br />
<b>Jérémie Poiroux : </b>Et bien merci beaucoup pour cette présentation très précise et avec beaucoup de pression sur le futur de sa recherche.<br />
<br />
<em>Rires</em><br />
<br />
<b>Jérémie Poiroux : </b>Donc c'est une thèse... Voilà,qui est sous la direction de Camille Roth. Donc là, j'étais en effet en Pologne mais là je suis de retour à Berlin donc pour continuer cette étude sur la fabrique des algorithmes de recommandation et de management. Alors c'est vrai pour prendre un peu le contre-pied de ce qui se fait en ce moment, il y a une littérature qui est assez limitée sur la fabrique. On parle pas mal de transparence, d'ouvrir la boîte noire, on a eu pas mal les débats aussi juste avant la pause musicale. Et quelque chose qui ne se fait pas beaucoup voilà c'est : Comment ils sont fabriqués ? Donc mon premier terrain c'est : les algorithmes de recommandation donc c'est des petits programmes... Peut-être que je dis des choses qui ont déjà été dites quelques minutes avant. Qui vont vous inviter voire vous inciter à consommer un contenu ou un produit. Donc, Ça peut être un film sur Netflix, on en reparle. Une chambre sur Airbnb ou un article sur le site d'un média. Vous me direz qu'en soi, recommander une saccoche quand j'achète un appareil photo ou un hôtel quand je vais passer une semaine en Grèce : c'est un peu de bonne guerre. Mais on peut plus se poser des questions quand il va s'agir de recommander du contenu culturel ou d'intérêt général car ils pourraient nous enfermer... Alors là je dis attention car il y a un «point Al Godwin» parce que on parle beaucoup de bulles filtrantes qui pourraient nous empêcher de voir plus loin que le bout de notre zone de confort. Je m'arrête ici sur les impacts car vous allez en parler, vous en avez beaucoup parlé. Donc en fait, je m'intéresse plutôt comme je le disais à la fabrique. Vous vous êtes déjà demandé, on va reprendre l'exemple de YouTube : Pourquoi il vont recommander (l'algorithme de YouTube, à droite ou sur la page d'accueil) cette vidéo de chatons ou la vidéo de terre plate ? Et donc, dans mon étude préparatoire que j'ai fait et que je suis entrain de terminer, qui lance la thèse, j'ai mené des entretiens avec plusieurs dizaines d'ingénieurs qui programment des algorithmes de recommandations pour des médias, pour des sites de <em>E-commerce</em>, pour des plates-formes de <em>streaming</em> pour mieux comprendre en fait d'où vient l'algorithme. L'objectif dans ma thèse, c'est de mettre en valeur les intentions, les pourquoi, les comment qui se cachent derrière les algos, les choix <em>business</em> ou encore les biais qui sont directement implémentés de manière consciente ou non dans la machine. Donc si on en revient à l'exemple de YouTube, c'est aller étudier : Pourquoi ils vous recommandent cette vidéo de terre plate alors que vous n'aviez rien demandé ? Alors c'est un peu dévoiler en quoi rien n'est laissé au hasard dans le monde merveilleux des algorithmes et puis de dévoiler un peu la face cachée de leurs impacts. Donc, je vais aller dans les entreprises, je vais faire de l'immersion, je vais observer la conception et le développement directement d'algorithmes. Qui fait quoi, d'où vient l'idée de base, quelles sont les contraintes, quelles sont les méthodes utilisées ou encore la conscience qu'on a dans les entreprises des impacts des algorithmes qu'ils ont conçus. Mais le bonheur ne s'arrête pas là et donc là c'est un peu la transition brute pour passer à l'autre temps de mon sujet qui est : l'utilisation des algorithmes qui de plus importante au sein même des entreprises. On voit depuis des années, des dizaines d'années, des robots remplacer les humains pour faire. Donc c'est sur les chaînes de production, dans les usines, dans les entrepôts pour préparer les commandes donc Amazon par exemple. Demain, les algorithmes ils vont être présents donc encore pour faire mais aussi pour organiser et <em>manager</em> le travail. Donc ça, c'est une grosse différence. C'est d'ailleurs déjà le cas avec Uber où les chauffeurs répondent aux ordres d'algorithmes qui sont <em>managers</em>. Pour se placer dans telle ou telle zone parce qu'il y a plus de personnes ou pour travailler sur telle ou telle plage horaire parce que Uber manque de chauffeurs à telle ou telle plage horaire. Donc à terme, Les algorithmes on peut dire, vont analyser les données de production, de ventes et de productivité pour prendre des décisions ou pour aider à la prise de décisions qui (ces décisions) auront un impact direct sur les travailleurs de l'organisation. Donc c'est une nouvelle pratique managériale on peut appeler ça comme ça, qui pose des questions de productivité et de conditions de travail évidemment. Et qui m'amènera à comparer les bureaucraties traditionnelles et les bureaucraties algorithmiques. Donc les questions éthiques, elles sont évidemment présentes dans les deux pans de la thèse. Par exemple : Que fait un ingénieur devant une demande d'un PDG et cette demande, cet ingénieur il la juge contraire à son éthique ? Ou que fait un manager qui soit invité par un algorithme de prendre une décision qu'il juge dangereuse pour son équipe ? Voilà, donc si vous êtes intéressé par les recherches et puis je fais un petit appel aussi à des entreprises qui peuvent m'accueillir pour cette immersion, n'hésitez pas à me contacter. Et puis je vous remercie pour votre écoute et finit mes quatre minutes de <em>futur de la recherche</em>. Et merci pour votre invitation Eve et Nicolas.<br />
<br />
==42'54==<br />
<b>Nicolas Martin : </b>Merci, merci beaucoup Jérémie. On va vous garder en ligne un instant</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85618Éthique numérique, des datas sous serment - La méthode scientifique2019-09-02T22:03:49Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen - Soline Ledésert - Jérémie Poiroux<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lançait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un serment d'Hippocrate des <em>data scientists</em>. Donc on a fait une petite recherche, il y en avait déjà qui circulaient et pour se différencier de ceux qui existaient déjà, on avait vraiment crée un serment d'Hippocrate qui aidait dans au quotidien, dans leur pratique les <em>data scientists</em>. Vraiment à se dire, on a découpé le travail en grandes étapes de la participation d'un projet, à l'analyse de résultats en passant par la collecte de données et l'application de modèles algorithmiques. On s'est dit «À chaque étape, quels sont les dilemmes éthiques auxquels un <em>data Scientist</em> peut être confronté et ensuite comment il peut résoudre ces problèmes ?». Donc on a fait un questionnaire en ligne, on a récolté des expériences diverses et ensuite on a travaillé pendant trois mois en atelier à rédiger collaborativement un serment d'Hippocrate. Donc là, il est disponible sur hippocrate.tech. Donc on a posé cinq valeurs : L'intégrié scientifique et la rigueur, la transparence, l'équité, le respect et la responsabilité et l'indépendance. Et ensuite, on a formulé des phrases sous la forme de «Je m'engage à faire ceci ou cela» donc ça concerne effectivement le respect de la vie privée donc à chaque fois, à chaque ligne on rappelle aussi le cadre légal européen du Règlement Général pour la Protection des Données personnelles. Le <em>data scientist</em> signataire s'engage à déterminer le meilleur compromis entre la performance et l'interprétabilité. Pourquoi l'interprétabilité c'est important ? Parce que par exemple si vous faites tourner un algorithme par exemple sur la question de votre allocation familiale et si l'algorithme vous dit «Bah non, vous n'y avez pas droit» et que la personne qui a fait tourner l'algorithme vous dit «Et bien écoutez, je ne peux pas vous l'expliquer, mais c'est comme ça» ça peut poser des problèmes. Donc on a fait ce genre de recherche. <br />
<br />
<b>Céline Loozen : </b>Quelle est la valeur juridique de cette charte ? Comment on pourrait l'appliquer réellement ?<br />
<br />
<b>Soline Ledésert : </b>Nous on est vraiment dans une démarche plutôt citoyenne. À chaque fois, on l'a formulée de façon à veiller, enfin le <em>data scientist</em> veille à ce que les choses se fassent. Mais un <em>data scientist</em> il peut travailler dans une administration, dans une entreprise, au sein d'un labo de recherche et il n'est jamais seul décisionnaire sur vraiment l'ensemble du projet donc nous on a pris cette approche dans le cadre de ce projet vers la responsabilité personnelle. Après, on a aussi rappelé la loi donc là c'est vrai que le RGPD a vraiment amené beaucoup plus de contraintes sur ces questions mais voilà, nous on est vraiment parti sur un modèle d'éthique personnelle. <br />
<br />
[Fin de la musique de fond]<br />
<br />
<b>Nicolas Martin : </b>Voilà le reportage du jour sur cette plate-forme <em>AlgoTransparency</em>. Je vais vous demander évidemment Frédéric Bardolle, une réaction puisque c'est votre association <em>Data For Good</em> qui développe cette plate-forme.<br />
<br />
<b>Frédéric Bardolle : </b>Déjà merci. C'est Soline qui a vraiment porté le projet sur le serment d'Hippocrate et Guillaume Chaslot qui est à plein temps sur ce projet de <em>Algotransparency</em> et qui essaie d'étudier notamment avec des scientifiques américains, essayer d'étudier d'autres algorithmes et leurs fonctionnements, essayer de mieux comprendre comment ça marche. Moi je voulais revenir surtout sur une chose c'est que effectivement il y a une responsabilité individuelle donc à travers ce serment qu'on propose. Mais on pense également qu'il y a comme le disait Soline qu'il y a aussi une responsabilité finalement aussi, il y a des institutions à créer pour permettre de transformer la manière dont fonctionne le numérique à l'heure actuelle. Un exemple : à l'heure actuelle, il n'y a pas de statut intermédiaire entre un hébergeur et un média. Et le problème c'est quoi ? C'est que en fait...<br />
<br />
<b>Nicolas Martin : </b>Exemple concret. Par exemple, prenons un réseau social. Pour les auditeurs, exemple concret : Facebook.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà Facebook ou YouTube, c'est des hébergeurs. Donc, ils ne sont pas responsables du contenu. Tout le contenu publié chez eux c'est pas sous leur responsabilité. Au contraire un média, tout ce qui est produit, si on dit quelque chose qui ne respecte pas la loi à la radio...<br />
<br />
<b>Nicolas Martin : </b>Sur France Culture.<br />
<br />
<b>Frédéric Bardolle : Et bien quelqu'un portera la responsabilité. <br />
<br />
<b>Nicolas Martin : </b>La directrice de la chaîne, moi d'abord et puis ensuite la présidente. <br />
<br />
<b>Frédéric Bardolle : </b>Et donc il y a un grand écart en fait. Ce statut d'hébergeur ça marchait très bien au début de l'internet finalement. C'était juste des annuaires où il y avait toutes les vidéos des contenus produits par les internautes qui étaient là. Finalement, c'est vrai qu'il n'y avait pas de rôle de responsabilité. Mais là en fait on assiste à quelque chose. C'est-à-dire qu'un algorithme qui propose 100 000 fois un contenu à un utilisateur, on pourrait se dire «Quand même, il a un rôle éditorial». Même si ce n'est pas un humain qui a fait ce choix de poser ça là. Au bout d'un moment lorsqu'une nouvelle est diffusée de manière massive comme ça, nous on considère que cette plate-forme a un rôle éditorial, devrait avoir une responsabilité juridique et parce que l'algorithme a un rôle éditorial dans ses contenus. <br />
<br />
<b>Nicolas Martin : </b>Une réaction à ce que viens de dire Frédéric Bardolle et sur cette plate-forme <em>AlgoTransparency</em>. On va parler du serment d'Hippocrate dans un instant mais d'abord sur le reportage et sur cette notion très très intéressante de distnction entre l'hébergeur et média.<br />
<br />
<b>Nozha Boujemaa : </b>Oui... Et bien je suis d'accord dans la mesure où effectivement l'évolution des rôles aujourd'hui, la frontière est très mince et surtout que les contenus en fait aujourd'hui sont consommés. Il n'y a plus effectivement ce rôle éditorial fait par un professionnel mais aujourd'hui c'est fait par un algorithme de recommandation de contenus. Et donc, très clairement la question de la neutralité de la recommandation du contenu se pose. Et au-delà de ces... En fait... Moi je voudrais pointer toujours sur cette même problématique, un autre contexte qui peut être embêtant. C'est pas du B2C en fait c'est du B2B. Plate-forme juste au hasard...<br />
<br />
<b>Nicolas Martin : </b>On rappelle : B2C c'est <em>business-to-consumer</em>...<br />
<br />
<b>Nozha Boujemaa : </b>Voilà.<br />
<br />
<b>Nicolas Martin : </b>Et B2B c'est <em>business-to-business</em> voilà.<br />
<br />
<b>Nozha Boujemaa : </b>Exactement. <br />
<br />
<b>Nicolas Martin : </b>Donc de l'entreprise à l'entreprise et de l'entreprise au consommateur.<br />
<br />
<b>Nozha Boujemaa : </b>Merci.<br />
<br />
<b>Nicolas Martin : </b>C'est juste un petit bout de traduction franco-anglaise qu'on nous reproche souvent à juste titre d'être trop anglophone. <br />
<br />
<b>Nozha Boujemaa : </b>Tout à fait, tout à fait. À juste titre.<br />
<br />
<b>Nicolas Martin : </b>Allons-y.<br />
<br />
<b>Nozha Boujemaa : </b>Donc faire des recommandations de consommation de contenus culturels sur une plate-forme qui n'a pas de modèle d'affaires qui soit de la publicité. Je prends pour exemple Netflix. Une fois qu'on paye l'abonnement, on n'a pas de publicités à regarder.<br />
<br />
<b>Nicolas Martin : </b>Pour le moment.<br />
<br />
<b>Nozha Boujemaa : </b>Pour le moment. On peut se poser la question : C'est quoi les motivations des algorithmes de recommandation là-dedans ? D'accord ? Donc là, c'est un autre cas d'usage auquel il faudrait aussi un petit peu s'y intéresser. Parce que là très clairement, la question de la concurrence va se poser entre des producteurs de contenus qui sont, qui ont des accords avec Netflix et ceux qui ne l'ont pas. Et aussi avec des producteurs de contenus culturels de l'industrie française par exemple qui peut se retrouver lésée. Et là, c'est un problème de concurrence et de position dominante et le ministère de la culture aussi à ma connaissance s'intéresse également à ces questions.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, c'est intéressant cet exemple de Netflix parce que effectivement... Par ailleurs, on peut aussi imaginer que puisque tous ces algorithmes sont biaisés et qu'il y a une intentionnalité derrière, dans ces biais, on peut imaginer que l'algorithme de Netflix privilégie les productions internes de Netflix et pas le contenu qui a été racheté à d'autres sociétés de production qui sont hébergées seulement sur la plate-forme pour prévilégier le contenu interne et dire «Et bien vous voyez, les produits Netflix fonctionnent mieux que les produits un tel de FOX ou un air peu importe».<br />
<br />
<b>Nozha Boujemaa : </b>Et ce n'est pas forcément une personnalisation pour le consommateur je rappelle. <br />
<br />
<b>Nicolas Martin : </b>Bien sûr.<br />
<br />
<b>Frédéric Bardolle : </b>Et...<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Et comme on n'a aucune transparence sur qu'est-ce qu'on essaie d'optimiser avec cet algorithme, finalement on ne le saura jamais. Et c'est un gros problème. Et pour montrer l'ampleur un peu de la chose, il faut savoir que 70 % à 80 % du contenu sur Netflix provient de recommandations. Donc ce n'est pas quelque chose qui se fait à la marge. C'est que les gens consomment ce qu'on leur recommande en fait. C'est vraiment quelque chose qui est phénoménal et sur toutes les plates-formes c'est la même chose.<br />
<br />
<b>Nicolas Martin : </b>Parce que par ailleurs sur Netflix, la plate-forme est une gigantesque plate-forme de recommandations. C'est-à-dire que la plate-forme n'est pas présentée par ordre alphabétique par exemple ou par ordre de nouveautés ou très très peu. Elle n'est que...<br />
<br />
<b>Nozha Boujemaa : </b> Elle va le rajouter, elle est là.<br />
<br />
<b>Nicolas Martin : </b>Voilà. Ce qui est intéressant alors. On entendait dans la reportage quelque chose sur laquelle j'aimerais vous faire réagir. On va parler évidemment surtout dans la deuxième partie, de cette notion de serment d'Hippocrate : À il s'addresse, de son côté un peu finaliste c'est-à-dire de dire que le serment est signé finalement par les <em>data scientists</em>, par les scientifiques de données. Et pourquoi est-ce que ce serait les individus qui doivent s'engager et non pas les plate-formes ? C'est une question qui me semble importante à traiter. Mais avant cela, j'aimerais poser une question autour de cette notion d'interprétabilité. Puisqu'on voit bien que... Prenons cet exemple de Netflix qui est assez bon. Aujourd'hui Netflix signerait un accord, un serment, peu importe qui donne accès, qui permet de lire ses algorithmes. Aujourd'hui pour tout un chacun, pour nous citoyens en bout de chaîne, pour les consommateurs : c'est strictement illisible. C'est-à-dire qu'on a pas accès à la compréhension de ce qui va permettre de régir cet algorithme et d'ailleurs si nous n'y avons pas intérêt, évidemment la plate-forme elle-même a encore moins intérêt à donner ces informations-là. Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui alors effectivement, c'est là où il y a un effort international sur «Faut-il réguler, comment réguler ?» etc etc au-delà des chartes d'engagements individuelles. L'idée c'est aussi... Alors tout dépend si c'est du... J'allais dire du soft (rires). Si c'est du...<br />
<br />
<b>Nicolas Martin : </b>Logiciel ?<br />
<br />
<b>Nozha Boujemaa : </b>Non non. De la réglementation dure ou un peu plus légère mais en tout cas amener les producteurs de service à rendre compte. Parce qu'en fait, celui qui fait le service, on peut en fait et là je mentionne les efforts faits au niveau de la Commission européenne mais aussi au niveau de l'OCDE qui réfléchissent très très sérieusement par rapport à toutes ces questions parce qu'il y a une prise de conscience aujourd'hui internationale. Je ne dis pas que les solutions existent. Mais la prise de conscience et la nécessité, l'urgence d'agir : elle est là. Du coup, typiquement sur l'intelligibilité... Je ne parle pas d'explicabilité parce que des fois, on a peut-être pas besoin et peut-être pas les moyens techniques de l'explicabilité mais par contre, la traçabilité du pourquoi on a eu ce résultat du genre «tel produit ou tel contenu est recommandé pour vous». On aimerait bien avoir une sorte de tableau de bord qui va nous dire «Voilà les critères en pourcentage qui»...<br />
<br />
<b>Nicolas Martin : </b> «Vous avez fait tel choix, tel choix, tel choix donc le logiciel infère que vous allez aimer tel chose».<br />
<br />
<b>Nohza Boujemaa : </b>Les producteurs des services en fait par régulation, on pourrait les amener à apporter et justement en apportant ces critères-là, on respecte le libre arbitre du consommateur quand même. Parce que la, on clique sur ce qui est proposé mais est-ce qu'il est vraiment conscient de sur quoi... Enfin... C'est quand même léger aujourd'hui donc il y a cette notion de respect du libre arbitre via une règlementation dans ce sens-là. <br />
<br />
<b>Nicolas Martin : </b>Je vais prendre un exemple volontairement un chouia provocateur dans l'état actuel des choses mais encore une fois la transparence n'implique pas compréhension si on prend une plate-forme de Parcoursup dont l'algorithme a été rendu public par l'éducation nationale. Ce qui n'empêche pas personne de ne comprendre à aucun moment, les choix et les orientations que cet algorithme fait pour les étudiants qui veulent être inscrits dans les universités dont ils font fait le choix. Fait la demande pardon. <br />
<br />
<b>Frédéric Bardolle : </b>La complexité supérieure qui a en plus sur Parcoursup, c'est que il y a une partie du code qui est quand même caché. Le code qui est utilisé par les universités, celui-là, «la cuisine interne» comme ils appellent ça.<br />
<br />
<b>Nicolas Martin : </b>La sélection en bout de chaîne.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Celle-là, il y a toujours une demande, une requête qui a été faite à la Commission d'Accès aux Documents Administratifs, la CADA, qui est en cours mais qui n'a pas abouti à l'heure actuelle et ce code n'est pas rendu public. Donc, il manque quand même un bout de la chaîne. Pour revenir sur cette question d'auditabilité des algorithmes, nous quand on a essayé d'auditer l'algorithme de YouTube c'est un peu ce qu'on a fait avec <em>AlgoTransparency</em>, on s'est rendu compte de la complexité qu'il y avait. C'est-à dire que d'une : Tous les jours, l'algorithme change. Comme des gens regardent des vidéos, en fait ça fait changer l'algorithme. Donc finalement, quelle est la vraie version ? C'est compliqué à dire. <br />
<br />
<b>Nohza Boujemaa : </b>Les algorithmes et les corpus.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà.<br />
<br />
<b>Nohza Boujemaa : </b>Les corpus aussi. <br />
<br />
<b>Frédéric Bardolle : </b>Tout change au fur et à mesure. Et puis c'est d'une telle complexité. Si on a des réseaux de neurones, ça va être aussi dur par exemple de dire «On a regardé cette vidéo parce que il y a une personne qui a regardé ça». Des critères il peut y en avoir des millions et des millions donc on ne va pas forcément s'y retrouver. Et finalement, c'est un peu comme quand on regarde les émissions de particules fines d'une voiture je trouve. C'est-à-dire que finalement peu importe ce qui se passe dans la cuisine interne du moteur, ce qu'on va regarder à la fin c'est «Est-ce que il y a des particules qui sont émises ?» et c'est ça qui nous intéresse. Mais, ça c'est pas disponible à la hauteur, on n'a pas de mécanisme qui nous permet de nous connecter directement à une plate-forme et de savoir «Bah tiens si on fait telle chose, on aura telle chose de recommandé» et puis en plus on se dit «Si jamais ça ça existe, il va y avoir des trucages» comme il y a eu sur les voitures notamment quand on est arrêté, tout se passe bien et puis quand on roule en conditions réelles, ça ne marche plus du tout. C'est pas évident comme question.<br />
<br />
<b>Pause musicale : </b> <em>Algorithms</em> par <em>School is Cool</em><br />
<br />
<b>Nicolas Martin : </b><em>Algorithms</em> de <em>School is Cool</em> puisque c'est ce dont il est vaguement question au cours de cette heure puisque nous parlons d'éthique numérique et d'éthique en science des données et évidemment bien des algorithmes qui sont au centre de ces questions d'éthique, de leurs transparences, de leurs auditabilités et puis surtout de ce qu'il va se passer dans le futur. À partir d'aujourd'hui, avec les scientifiques qui sont formés aujourd'hui. Ces scientifiques doivent-ils être tenus, doivent-ils s'engager sur une sorte de charte de bonne conduite piur éviter, bien pour éviter toute sorte de dérives que l'on peut constater d'ores et déjà aujourd'hui. Nous en parlons avec Nohza Boujemaa qui est directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et avec Frédéric Bardolle qui est membre de l'association <em>Data for Good</em> qui a réalisé une plate-forme <em>AlgoTransparency</em> à propos de l'algorithme de YouTube à propos de laquelle on a entendu un reportage tout à l'heure. Mais comme tous les mercredis, aux alentours de cette heure à quelques minutes près, il est l'heure d'écouter la voix du futur de la recherche.<br />
<br />
[Jingle] <br />
<br />
<b>Nicolas Martin : </b>Et aujourd'hui, le futur de la recherche s'appelle Jérémie Poiroux. Bonjour Jérémie Poiroux.<br />
<br />
<b>Jérémie Poiroux : </b>Bonjour à tous, bonjour.<br />
<br />
<b>Nicolas Martin : </b>Bonjour. Vous êtes avec nous en ligne puisque vous suivez vos études au centre Marc Bloch à Berlin en partenariat avec le CNRS. Vous êtes en première année de thèse en sociologie dans le cadre du projet ANR <em>Algodiv</em>. Je crois que vous êtes présentement en Pologne. Le titre de votre thèse c'est «La fabrique des algorithmes de recommandation et de management» sous le prisme de leur conception et de leur impact au sein des organisations. Voilà, je vais vous laisser quelques minutes pour nous présenter vos travaux. C'est à vous.<br />
<br />
<b>Jérémie Poiroux : </b>Et bien merci beaucoup pour cette présentation très précise et avec beaucoup de pression sur le futur de sa recherche.<br />
<br />
<em>Rires</em><br />
<br />
<b>Jérémie Poiroux : </b>Donc c'est une thèse... Voilà,qui est sous la direction de Camille Roth. Donc là, j'étais en effet en Pologne mais là je suis de retour à Berlin donc pour continuer cette étude sur la fabrique des algorithmes de recommandation et de management. Alors c'est vrai pour prendre un peu le contre-pied de ce qui se fait en ce moment, il y a une littérature qui est assez limitée sur la fabrique. On parle pas mal de transparence, d'ouvrir la boîte noire, on a eu pas mal les débats aussi juste avant la pause musicale. Et quelque chose qui ne se fait pas beaucoup voilà c'est : Comment ils sont fabriqués ? Donc mon premier terrain c'est : les algorithmes de recommandation donc c'est des petits programmes... Peut-être que je dis des choses qui ont déjà été dites quelques minutes avant. Qui vont vous inviter voire vous inciter à consommer un contenu ou un produit. Donc, Ça peut être un film sur Netflix, on en reparle. Une chambre sur Airbnb ou un article sur le site d'un média. Vous me direz qu'en soi, recommander une saccoche quand j'achète un appareil photo ou un hôtel quand je vais passer une semaine en Grèce : c'est un peu de bonne guerre. Mais on peut plus se poser des questions quand il va s'agir de recommander du contenu culturel ou d'intérêt général car ils pourraient nous enfermer... Alors là je dis attention car il y a un «point Al Godwin» parce que on parle beaucoup de bulles filtrantes qui pourraient nous empêcher de voir plus loin que le bout de notre zone de confort. Je m'arrête ici sur les impacts car vous allez en parler, vous en avez beaucoup parlé. Donc en fait, je m'intéresse plutôt comme je le disais à la fabrique. Vous vous êtes déjà demandé, on va reprendre l'exemple de YouTube : Pourquoi il vont recommander (l'algorithme de YouTube, à droite ou sur la page d'accueil) cette vidéo de chatons ou la vidéo de terre plate ? Et donc, dans mon étude préparatoire que j'ai fait et que je suis entrain de terminer, qui lance la thèse, j'ai mené des entretiens avec plusieurs dizaines d'ingénieurs qui programment des algorithmes de recommandations pour des médias, pour des sites de <em>E-commerce</em>, pour des plates-formes de <em>streaming</em> pour mieux comprendre en fait d'où vient l'algorithme. L'objectif dans ma thèse, c'est de mettre en valeur les intentions, les pourquoi, les comment qui se cachent derrière les algos, les choix <em>business</em> ou encore les biais qui sont directement implémentés de manière consciente ou non dans la machine. Donc si on en revient à l'exemple de YouTube, c'est aller étudier : Pourquoi ils vous recommandent cette vidéo de terre plate alors que vous n'aviez rien demandé ? Alors c'est un peu dévoiler en quoi rien n'est laissé au hasard dans le monde merveilleux des algorithmes et puis de dévoiler un peu la face cachée de leurs impacts. Donc, je vais aller dans les entreprises, je vais faire de l'immersion, je vais observer la conception et le développement directement d'algorithmes. Qui fait quoi, d'où vient l'idée de base, quelles sont les contraintes, quelles sont les méthodes utilisées ou encore la conscience qu'on a dans les entreprises des impacts des algorithmes qu'ils ont conçus. Mais le bonheur ne s'arrête pas là et donc là c'est un peu la transition brute pour passer à l'autre temps de mon sujet qui est : l'utilisation des algorithmes qui de plus importante au sein même des entreprises. On voit depuis des années, des dizaines d'années, des robots remplacer les humains pour faire. Donc c'est sur les chaînes de production, dans les usines, dans les entrepôts pour préparer les commandes donc Amazon par exemple. Demain, les algorithmes ils vont être présents donc encore pour faire mais aussi pour organiser et <em>manager</em> le travail. Donc ça, c'est une grosse différence. C'est d'ailleurs déjà le cas avec Uber où les chauffeurs répondent aux ordres d'algorithmes qui sont <em>managers</em>. Pour se placer dans telle ou telle zone parce qu'il y a plus de personnes ou pour travailler sur telle ou telle plage horaire parce que Uber manque de chauffeurs à telle ou telle plage horaire. Donc à terme, Les algorithmes on peut dire, vont analyser les données de production, de ventes et de productivité pour prendre des décisions ou pour aider à la prise de décisions qui (ces décisions) auront un impact direct sur les travailleurs de l'organisation. Donc c'est une nouvelle pratique managériale on peut appeler ça comme ça, qui pose des questions de productivité et de conditions de travail évidemment. Et qui m'amènera à comparer les bureaucraties traditionnelles et les bureaucraties algorithmiques. Donc les questions éthiques, elles sont évidemment présentes dans les deux pans de la thèse. Par exemple : Que fait un ingénieur devant une demande d'un PDG et cette demande, cet ingénieur il la juge contraire à son éthique ? Ou que fait un manager qui soit invité par un algorithme de prendre une décision qu'il juge dangereuse pour son équipe ? Voilà, donc si vous êtes intéressé par les recherches et puis je fais un petit appel aussi à des entreprises qui peuvent m'accueillir pour cette immersion, n'hésitez pas à me contacter. Et puis je vous remercie pour votre écoute et finit mes quatre minutes de <em>futur de la recherche</em>. Et merci pour votre invitation Eve et Nicolas.<br />
<br />
==42'54==<br />
<b>Nicolas Martin : </b></div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85617Éthique numérique, des datas sous serment - La méthode scientifique2019-09-02T20:41:45Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen - Soline Ledésert - Jérémie Poiroux<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lançait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un serment d'Hippocrate des <em>data scientists</em>. Donc on a fait une petite recherche, il y en avait déjà qui circulaient et pour se différencier de ceux qui existaient déjà, on avait vraiment crée un serment d'Hippocrate qui aidait dans au quotidien, dans leur pratique les <em>data scientists</em>. Vraiment à se dire, on a découpé le travail en grandes étapes de la participation d'un projet, à l'analyse de résultats en passant par la collecte de données et l'application de modèles algorithmiques. On s'est dit «À chaque étape, quels sont les dilemmes éthiques auxquels un <em>data Scientist</em> peut être confronté et ensuite comment il peut résoudre ces problèmes ?». Donc on a fait un questionnaire en ligne, on a récolté des expériences diverses et ensuite on a travaillé pendant trois mois en atelier à rédiger collaborativement un serment d'Hippocrate. Donc là, il est disponible sur hippocrate.tech. Donc on a posé cinq valeurs : L'intégrié scientifique et la rigueur, la transparence, l'équité, le respect et la responsabilité et l'indépendance. Et ensuite, on a formulé des phrases sous la forme de «Je m'engage à faire ceci ou cela» donc ça concerne effectivement le respect de la vie privée donc à chaque fois, à chaque ligne on rappelle aussi le cadre légal européen du Règlement Général pour la Protection des Données personnelles. Le <em>data scientist</em> signataire s'engage à déterminer le meilleur compromis entre la performance et l'interprétabilité. Pourquoi l'interprétabilité c'est important ? Parce que par exemple si vous faites tourner un algorithme par exemple sur la question de votre allocation familiale et si l'algorithme vous dit «Bah non, vous n'y avez pas droit» et que la personne qui a fait tourner l'algorithme vous dit «Et bien écoutez, je ne peux pas vous l'expliquer, mais c'est comme ça» ça peut poser des problèmes. Donc on a fait ce genre de recherche. <br />
<br />
<b>Céline Loozen : </b>Quelle est la valeur juridique de cette charte ? Comment on pourrait l'appliquer réellement ?<br />
<br />
<b>Soline Ledésert : </b>Nous on est vraiment dans une démarche plutôt citoyenne. À chaque fois, on l'a formulée de façon à veiller, enfin le <em>data scientist</em> veille à ce que les choses se fassent. Mais un <em>data scientist</em> il peut travailler dans une administration, dans une entreprise, au sein d'un labo de recherche et il n'est jamais seul décisionnaire sur vraiment l'ensemble du projet donc nous on a pris cette approche dans le cadre de ce projet vers la responsabilité personnelle. Après, on a aussi rappelé la loi donc là c'est vrai que le RGPD a vraiment amené beaucoup plus de contraintes sur ces questions mais voilà, nous on est vraiment parti sur un modèle d'éthique personnelle. <br />
<br />
[Fin de la musique de fond]<br />
<br />
<b>Nicolas Martin : </b>Voilà le reportage du jour sur cette plate-forme <em>AlgoTransparency</em>. Je vais vous demander évidemment Frédéric Bardolle, une réaction puisque c'est votre association <em>Data For Good</em> qui développe cette plate-forme.<br />
<br />
<b>Frédéric Bardolle : </b>Déjà merci. C'est Soline qui a vraiment porté le projet sur le serment d'Hippocrate et Guillaume Chaslot qui est à plein temps sur ce projet de <em>Algotransparency</em> et qui essaie d'étudier notamment avec des scientifiques américains, essayer d'étudier d'autres algorithmes et leurs fonctionnements, essayer de mieux comprendre comment ça marche. Moi je voulais revenir surtout sur une chose c'est que effectivement il y a une responsabilité individuelle donc à travers ce serment qu'on propose. Mais on pense également qu'il y a comme le disait Soline qu'il y a aussi une responsabilité finalement aussi, il y a des institutions à créer pour permettre de transformer la manière dont fonctionne le numérique à l'heure actuelle. Un exemple : à l'heure actuelle, il n'y a pas de statut intermédiaire entre un hébergeur et un média. Et le problème c'est quoi ? C'est que en fait...<br />
<br />
<b>Nicolas Martin : </b>Exemple concret. Par exemple, prenons un réseau social. Pour les auditeurs, exemple concret : Facebook.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà Facebook ou YouTube, c'est des hébergeurs. Donc, ils ne sont pas responsables du contenu. Tout le contenu publié chez eux c'est pas sous leur responsabilité. Au contraire un média, tout ce qui est produit, si on dit quelque chose qui ne respecte pas la loi à la radio...<br />
<br />
<b>Nicolas Martin : </b>Sur France Culture.<br />
<br />
<b>Frédéric Bardolle : Et bien quelqu'un portera la responsabilité. <br />
<br />
<b>Nicolas Martin : </b>La directrice de la chaîne, moi d'abord et puis ensuite la présidente. <br />
<br />
<b>Frédéric Bardolle : </b>Et donc il y a un grand écart en fait. Ce statut d'hébergeur ça marchait très bien au début de l'internet finalement. C'était juste des annuaires où il y avait toutes les vidéos des contenus produits par les internautes qui étaient là. Finalement, c'est vrai qu'il n'y avait pas de rôle de responsabilité. Mais là en fait on assiste à quelque chose. C'est-à-dire qu'un algorithme qui propose 100 000 fois un contenu à un utilisateur, on pourrait se dire «Quand même, il a un rôle éditorial». Même si ce n'est pas un humain qui a fait ce choix de poser ça là. Au bout d'un moment lorsqu'une nouvelle est diffusée de manière massive comme ça, nous on considère que cette plate-forme a un rôle éditorial, devrait avoir une responsabilité juridique et parce que l'algorithme a un rôle éditorial dans ses contenus. <br />
<br />
<b>Nicolas Martin : </b>Une réaction à ce que viens de dire Frédéric Bardolle et sur cette plate-forme <em>AlgoTransparency</em>. On va parler du serment d'Hippocrate dans un instant mais d'abord sur le reportage et sur cette notion très très intéressante de distnction entre l'hébergeur et média.<br />
<br />
<b>Nozha Boujemaa : </b>Oui... Et bien je suis d'accord dans la mesure où effectivement l'évolution des rôles aujourd'hui, la frontière est très mince et surtout que les contenus en fait aujourd'hui sont consommés. Il n'y a plus effectivement ce rôle éditorial fait par un professionnel mais aujourd'hui c'est fait par un algorithme de recommandation de contenus. Et donc, très clairement la question de la neutralité de la recommandation du contenu se pose. Et au-delà de ces... En fait... Moi je voudrais pointer toujours sur cette même problématique, un autre contexte qui peut être embêtant. C'est pas du B2C en fait c'est du B2B. Plate-forme juste au hasard...<br />
<br />
<b>Nicolas Martin : </b>On rappelle : B2C c'est <em>business-to-consumer</em>...<br />
<br />
<b>Nozha Boujemaa : </b>Voilà.<br />
<br />
<b>Nicolas Martin : </b>Et B2B c'est <em>business-to-business</em> voilà.<br />
<br />
<b>Nozha Boujemaa : </b>Exactement. <br />
<br />
<b>Nicolas Martin : </b>Donc de l'entreprise à l'entreprise et de l'entreprise au consommateur.<br />
<br />
<b>Nozha Boujemaa : </b>Merci.<br />
<br />
<b>Nicolas Martin : </b>C'est juste un petit bout de traduction franco-anglaise qu'on nous reproche souvent à juste titre d'être trop anglophone. <br />
<br />
<b>Nozha Boujemaa : </b>Tout à fait, tout à fait. À juste titre.<br />
<br />
<b>Nicolas Martin : </b>Allons-y.<br />
<br />
<b>Nozha Boujemaa : </b>Donc faire des recommandations de consommation de contenus culturels sur une plate-forme qui n'a pas de modèle d'affaires qui soit de la publicité. Je prends pour exemple Netflix. Une fois qu'on paye l'abonnement, on n'a pas de publicités à regarder.<br />
<br />
<b>Nicolas Martin : </b>Pour le moment.<br />
<br />
<b>Nozha Boujemaa : </b>Pour le moment. On peut se poser la question : C'est quoi les motivations des algorithmes de recommandation là-dedans ? D'accord ? Donc là, c'est un autre cas d'usage auquel il faudrait aussi un petit peu s'y intéresser. Parce que là très clairement, la question de la concurrence va se poser entre des producteurs de contenus qui sont, qui ont des accords avec Netflix et ceux qui ne l'ont pas. Et aussi avec des producteurs de contenus culturels de l'industrie française par exemple qui peut se retrouver lésée. Et là, c'est un problème de concurrence et de position dominante et le ministère de la culture aussi à ma connaissance s'intéresse également à ces questions.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, c'est intéressant cet exemple de Netflix parce que effectivement... Par ailleurs, on peut aussi imaginer que puisque tous ces algorithmes sont biaisés et qu'il y a une intentionnalité derrière, dans ces biais, on peut imaginer que l'algorithme de Netflix privilégie les productions internes de Netflix et pas le contenu qui a été racheté à d'autres sociétés de production qui sont hébergées seulement sur la plate-forme pour prévilégier le contenu interne et dire «Et bien vous voyez, les produits Netflix fonctionnent mieux que les produits un tel de FOX ou un air peu importe».<br />
<br />
<b>Nozha Boujemaa : </b>Et ce n'est pas forcément une personnalisation pour le consommateur je rappelle. <br />
<br />
<b>Nicolas Martin : </b>Bien sûr.<br />
<br />
<b>Frédéric Bardolle : </b>Et...<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Et comme on n'a aucune transparence sur qu'est-ce qu'on essaie d'optimiser avec cet algorithme, finalement on ne le saura jamais. Et c'est un gros problème. Et pour montrer l'ampleur un peu de la chose, il faut savoir que 70 % à 80 % du contenu sur Netflix provient de recommandations. Donc ce n'est pas quelque chose qui se fait à la marge. C'est que les gens consomment ce qu'on leur recommande en fait. C'est vraiment quelque chose qui est phénoménal et sur toutes les plates-formes c'est la même chose.<br />
<br />
<b>Nicolas Martin : </b>Parce que par ailleurs sur Netflix, la plate-forme est une gigantesque plate-forme de recommandations. C'est-à-dire que la plate-forme n'est pas présentée par ordre alphabétique par exemple ou par ordre de nouveautés ou très très peu. Elle n'est que...<br />
<br />
<b>Nozha Boujemaa : </b> Elle va le rajouter, elle est là.<br />
<br />
<b>Nicolas Martin : </b>Voilà. Ce qui est intéressant alors. On entendait dans la reportage quelque chose sur laquelle j'aimerais vous faire réagir. On va parler évidemment surtout dans la deuxième partie, de cette notion de serment d'Hippocrate : À il s'addresse, de son côté un peu finaliste c'est-à-dire de dire que le serment est signé finalement par les <em>data scientists</em>, par les scientifiques de données. Et pourquoi est-ce que ce serait les individus qui doivent s'engager et non pas les plate-formes ? C'est une question qui me semble importante à traiter. Mais avant cela, j'aimerais poser une question autour de cette notion d'interprétabilité. Puisqu'on voit bien que... Prenons cet exemple de Netflix qui est assez bon. Aujourd'hui Netflix signerait un accord, un serment, peu importe qui donne accès, qui permet de lire ses algorithmes. Aujourd'hui pour tout un chacun, pour nous citoyens en bout de chaîne, pour les consommateurs : c'est strictement illisible. C'est-à-dire qu'on a pas accès à la compréhension de ce qui va permettre de régir cet algorithme et d'ailleurs si nous n'y avons pas intérêt, évidemment la plate-forme elle-même a encore moins intérêt à donner ces informations-là. Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui alors effectivement, c'est là où il y a un effort international sur «Faut-il réguler, comment réguler ?» etc etc au-delà des chartes d'engagements individuelles. L'idée c'est aussi... Alors tout dépend si c'est du... J'allais dire du soft (rires). Si c'est du...<br />
<br />
<b>Nicolas Martin : </b>Logiciel ?<br />
<br />
<b>Nozha Boujemaa : </b>Non non. De la réglementation dure ou un peu plus légère mais en tout cas amener les producteurs de service à rendre compte. Parce qu'en fait, celui qui fait le service, on peut en fait et là je mentionne les efforts faits au niveau de la Commission européenne mais aussi au niveau de l'OCDE qui réfléchissent très très sérieusement par rapport à toutes ces questions parce qu'il y a une prise de conscience aujourd'hui internationale. Je ne dis pas que les solutions existent. Mais la prise de conscience et la nécessité, l'urgence d'agir : elle est là. Du coup, typiquement sur l'intelligibilité... Je ne parle pas d'explicabilité parce que des fois, on a peut-être pas besoin et peut-être pas les moyens techniques de l'explicabilité mais par contre, la traçabilité du pourquoi on a eu ce résultat du genre «tel produit ou tel contenu est recommandé pour vous». On aimerait bien avoir une sorte de tableau de bord qui va nous dire «Voilà les critères en pourcentage qui»...<br />
<br />
<b>Nicolas Martin : </b> «Vous avez fait tel choix, tel choix, tel choix donc le logiciel infère que vous allez aimer tel chose».<br />
<br />
<b>Nohza Boujemaa : </b>Les producteurs des services en fait par régulation, on pourrait les amener à apporter et justement en apportant ces critères-là, on respecte le libre arbitre du consommateur quand même. Parce que la, on clique sur ce qui est proposé mais est-ce qu'il est vraiment conscient de sur quoi... Enfin... C'est quand même léger aujourd'hui donc il y a cette notion de respect du libre arbitre via une règlementation dans ce sens-là. <br />
<br />
<b>Nicolas Martin : </b>Je vais prendre un exemple volontairement un chouia provocateur dans l'état actuel des choses mais encore une fois la transparence n'implique pas compréhension si on prend une plate-forme de Parcoursup dont l'algorithme a été rendu public par l'éducation nationale. Ce qui n'empêche pas personne de ne comprendre à aucun moment, les choix et les orientations que cet algorithme fait pour les étudiants qui veulent être inscrits dans les universités dont ils font fait le choix. Fait la demande pardon. <br />
<br />
<b>Frédéric Bardolle : </b>La complexité supérieure qui a en plus sur Parcoursup, c'est que il y a une partie du code qui est quand même caché. Le code qui est utilisé par les universités, celui-là, «la cuisine interne» comme ils appellent ça.<br />
<br />
<b>Nicolas Martin : </b>La sélection en bout de chaîne.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Celle-là, il y a toujours une demande, une requête qui a été faite à la Commission d'Accès aux Documents Administratifs, la CADA, qui est en cours mais qui n'a pas abouti à l'heure actuelle et ce code n'est pas rendu public. Donc, il manque quand même un bout de la chaîne. Pour revenir sur cette question d'auditabilité des algorithmes, nous quand on a essayé d'auditer l'algorithme de YouTube c'est un peu ce qu'on a fait avec <em>AlgoTransparency</em>, on s'est rendu compte de la complexité qu'il y avait. C'est-à dire que d'une : Tous les jours, l'algorithme change. Comme des gens regardent des vidéos, en fait ça fait changer l'algorithme. Donc finalement, quelle est la vraie version ? C'est compliqué à dire. <br />
<br />
<b>Nohza Boujemaa : </b>Les algorithmes et les corpus.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà.<br />
<br />
<b>Nohza Boujemaa : </b>Les corpus aussi. <br />
<br />
<b>Frédéric Bardolle : </b>Tout change au fur et à mesure. Et puis c'est d'une telle complexité. Si on a des réseaux de neurones, ça va être aussi dur par exemple de dire «On a regardé cette vidéo parce que il y a une personne qui a regardé ça». Des critères il peut y en avoir des millions et des millions donc on ne va pas forcément s'y retrouver. Et finalement, c'est un peu comme quand on regarde les émissions de particules fines d'une voiture je trouve. C'est-à-dire que finalement peu importe ce qui se passe dans la cuisine interne du moteur, ce qu'on va regarder à la fin c'est «Est-ce que il y a des particules qui sont émises ?» et c'est ça qui nous intéresse. Mais, ça c'est pas disponible à la hauteur, on n'a pas de mécanisme qui nous permet de nous connecter directement à une plate-forme et de savoir «Bah tiens si on fait telle chose, on aura telle chose de recommandé» et puis en plus on se dit «Si jamais ça ça existe, il va y avoir des trucages» comme il y a eu sur les voitures notamment quand on est arrêté, tout se passe bien et puis quand on roule en conditions réelles, ça ne marche plus du tout. C'est pas évident comme question.<br />
<br />
<b>Pause musicale : </b> <em>Algorithms</em> par <em>School is Cool</em><br />
<br />
<b>Nicolas Martin : </b><em>Algorithms</em> de <em>School is Cool</em> puisque c'est ce dont il est vaguement question au cours de cette heure puisque nous parlons d'éthique numérique et d'éthique en science des données et évidemment bien des algorithmes qui sont au centre de ces questions d'éthique, de leurs transparences, de leurs auditabilités et puis surtout de ce qu'il va se passer dans le futur. À partir d'aujourd'hui, avec les scientifiques qui sont formés aujourd'hui. Ces scientifiques doivent-ils être tenus, doivent-ils s'engager sur une sorte de charte de bonne conduite piur éviter, bien pour éviter toute sorte de dérives que l'on peut constater d'ores et déjà aujourd'hui. Nous en parlons avec Nohza Boujemaa qui est directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et avec Frédéric Bardolle qui est membre de l'association <em>Data for Good</em> qui a réalisé une plate-forme <em>AlgoTransparency</em> à propos de l'algorithme de YouTube à propos de laquelle on a entendu un reportage tout à l'heure. Mais comme tous les mercredis, aux alentours de cette heure à quelques minutes près, il est l'heure d'écouter la voix du futur de la recherche.<br />
<br />
[Jingle] <br />
<br />
<b>Nicolas Martin : </b>Et aujourd'hui, le futur de la recherche s'appelle Jérémie Poiroux. Bonjour Jérémie Poiroux.<br />
<br />
<b>Jérémie Poiroux : </b>Bonjour à tous, bonjour.<br />
<br />
<b>Nicolas Martin : </b>Bonjour. Vous êtes avec nous en ligne puisque vous suivez vos études au centre Marc Bloch à Berlin en partenariat avec le CNRS. Vous êtes en première année de thèse en sociologie dans le cadre du projet ANR <em>Algodiv</em>. Je crois que vous êtes présentement en Pologne. Le titre de votre thèse c'est «La fabrique des algorithmes de recommandation et de management» sous le prisme de leur conception et de leur impact au sein des organisations. Voilà, je vais vous laisser quelques minutes pour nous présenter vos travaux. C'est à vous.<br />
<br />
<b>Jérémie Poiroux : </b>Et bien merci beaucoup pour cette présentation très précise et avec beaucoup de pression sur le futur de sa recherche.<br />
<br />
<em>Rires</em><br />
<br />
<b>Jérémie Poiroux : </b>Donc c'est une thèse... Voilà,qui est sous la direction de Camille Roth. Donc là, j'étais en effet en Pologne mais là je suis de retour à Berlin donc pour continuer cette étude sur la fabrique des algorithmes de recommandation et de management. Alors c'est vrai pour prendre un peu le contre-pied de ce qui se fait en ce moment, il y a une littérature qui est assez limitée sur la fabrique. On parle pas mal de transparence, d'ouvrir la boîte noire, on a eu pas mal les débats aussi juste avant la pause musicale. Et quelque chose qui ne se fait pas beaucoup voilà c'est : Comment ils sont fabriqués ? Donc mon premier terrain c'est : les algorithmes de recommandation donc c'est des petits programmes... Peut-être que je dis des choses qui ont déjà été dites quelques minutes avant. Qui vont vous inviter voire vous inciter à consommer un contenu ou un produit. Donc, Ça peut être un film sur Netflix, on en reparle. Une chambre sur Airbnb ou un article sur le site d'un média. Vous me direz qu'en soi, recommander une saccoche quand j'achète un appareil photo ou un hôtel quand je vais passer une semaine en Grèce : c'est un peu de bonne guerre. Mais on peut plus se poser des questions quand il va s'agir de recommander du contenu culturel ou d'intérêt général</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85616Éthique numérique, des datas sous serment - La méthode scientifique2019-09-02T19:30:31Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lançait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un serment d'Hippocrate des <em>data scientists</em>. Donc on a fait une petite recherche, il y en avait déjà qui circulaient et pour se différencier de ceux qui existaient déjà, on avait vraiment crée un serment d'Hippocrate qui aidait dans au quotidien, dans leur pratique les <em>data scientists</em>. Vraiment à se dire, on a découpé le travail en grandes étapes de la participation d'un projet, à l'analyse de résultats en passant par la collecte de données et l'application de modèles algorithmiques. On s'est dit «À chaque étape, quels sont les dilemmes éthiques auxquels un <em>data Scientist</em> peut être confronté et ensuite comment il peut résoudre ces problèmes ?». Donc on a fait un questionnaire en ligne, on a récolté des expériences diverses et ensuite on a travaillé pendant trois mois en atelier à rédiger collaborativement un serment d'Hippocrate. Donc là, il est disponible sur hippocrate.tech. Donc on a posé cinq valeurs : L'intégrié scientifique et la rigueur, la transparence, l'équité, le respect et la responsabilité et l'indépendance. Et ensuite, on a formulé des phrases sous la forme de «Je m'engage à faire ceci ou cela» donc ça concerne effectivement le respect de la vie privée donc à chaque fois, à chaque ligne on rappelle aussi le cadre légal européen du Règlement Général pour la Protection des Données personnelles. Le <em>data scientist</em> signataire s'engage à déterminer le meilleur compromis entre la performance et l'interprétabilité. Pourquoi l'interprétabilité c'est important ? Parce que par exemple si vous faites tourner un algorithme par exemple sur la question de votre allocation familiale et si l'algorithme vous dit «Bah non, vous n'y avez pas droit» et que la personne qui a fait tourner l'algorithme vous dit «Et bien écoutez, je ne peux pas vous l'expliquer, mais c'est comme ça» ça peut poser des problèmes. Donc on a fait ce genre de recherche. <br />
<br />
<b>Céline Loozen : </b>Quelle est la valeur juridique de cette charte ? Comment on pourrait l'appliquer réellement ?<br />
<br />
<b>Soline Ledésert : </b>Nous on est vraiment dans une démarche plutôt citoyenne. À chaque fois, on l'a formulée de façon à veiller, enfin le <em>data scientist</em> veille à ce que les choses se fassent. Mais un <em>data scientist</em> il peut travailler dans une administration, dans une entreprise, au sein d'un labo de recherche et il n'est jamais seul décisionnaire sur vraiment l'ensemble du projet donc nous on a pris cette approche dans le cadre de ce projet vers la responsabilité personnelle. Après, on a aussi rappelé la loi donc là c'est vrai que le RGPD a vraiment amené beaucoup plus de contraintes sur ces questions mais voilà, nous on est vraiment parti sur un modèle d'éthique personnelle. <br />
<br />
[Fin de la musique de fond]<br />
<br />
<b>Nicolas Martin : </b>Voilà le reportage du jour sur cette plate-forme <em>AlgoTransparency</em>. Je vais vous demander évidemment Frédéric Bardolle, une réaction puisque c'est votre association <em>Data For Good</em> qui développe cette plate-forme.<br />
<br />
<b>Frédéric Bardolle : </b>Déjà merci. C'est Soline qui a vraiment porté le projet sur le serment d'Hippocrate et Guillaume Chaslot qui est à plein temps sur ce projet de <em>Algotransparency</em> et qui essaie d'étudier notamment avec des scientifiques américains, essayer d'étudier d'autres algorithmes et leurs fonctionnements, essayer de mieux comprendre comment ça marche. Moi je voulais revenir surtout sur une chose c'est que effectivement il y a une responsabilité individuelle donc à travers ce serment qu'on propose. Mais on pense également qu'il y a comme le disait Soline qu'il y a aussi une responsabilité finalement aussi, il y a des institutions à créer pour permettre de transformer la manière dont fonctionne le numérique à l'heure actuelle. Un exemple : à l'heure actuelle, il n'y a pas de statut intermédiaire entre un hébergeur et un média. Et le problème c'est quoi ? C'est que en fait...<br />
<br />
<b>Nicolas Martin : </b>Exemple concret. Par exemple, prenons un réseau social. Pour les auditeurs, exemple concret : Facebook.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà Facebook ou YouTube, c'est des hébergeurs. Donc, ils ne sont pas responsables du contenu. Tout le contenu publié chez eux c'est pas sous leur responsabilité. Au contraire un média, tout ce qui est produit, si on dit quelque chose qui ne respecte pas la loi à la radio...<br />
<br />
<b>Nicolas Martin : </b>Sur France Culture.<br />
<br />
<b>Frédéric Bardolle : Et bien quelqu'un portera la responsabilité. <br />
<br />
<b>Nicolas Martin : </b>La directrice de la chaîne, moi d'abord et puis ensuite la présidente. <br />
<br />
<b>Frédéric Bardolle : </b>Et donc il y a un grand écart en fait. Ce statut d'hébergeur ça marchait très bien au début de l'internet finalement. C'était juste des annuaires où il y avait toutes les vidéos des contenus produits par les internautes qui étaient là. Finalement, c'est vrai qu'il n'y avait pas de rôle de responsabilité. Mais là en fait on assiste à quelque chose. C'est-à-dire qu'un algorithme qui propose 100 000 fois un contenu à un utilisateur, on pourrait se dire «Quand même, il a un rôle éditorial». Même si ce n'est pas un humain qui a fait ce choix de poser ça là. Au bout d'un moment lorsqu'une nouvelle est diffusée de manière massive comme ça, nous on considère que cette plate-forme a un rôle éditorial, devrait avoir une responsabilité juridique et parce que l'algorithme a un rôle éditorial dans ses contenus. <br />
<br />
<b>Nicolas Martin : </b>Une réaction à ce que viens de dire Frédéric Bardolle et sur cette plate-forme <em>AlgoTransparency</em>. On va parler du serment d'Hippocrate dans un instant mais d'abord sur le reportage et sur cette notion très très intéressante de distnction entre l'hébergeur et média.<br />
<br />
<b>Nozha Boujemaa : </b>Oui... Et bien je suis d'accord dans la mesure où effectivement l'évolution des rôles aujourd'hui, la frontière est très mince et surtout que les contenus en fait aujourd'hui sont consommés. Il n'y a plus effectivement ce rôle éditorial fait par un professionnel mais aujourd'hui c'est fait par un algorithme de recommandation de contenus. Et donc, très clairement la question de la neutralité de la recommandation du contenu se pose. Et au-delà de ces... En fait... Moi je voudrais pointer toujours sur cette même problématique, un autre contexte qui peut être embêtant. C'est pas du B2C en fait c'est du B2B. Plate-forme juste au hasard...<br />
<br />
<b>Nicolas Martin : </b>On rappelle : B2C c'est <em>business-to-consumer</em>...<br />
<br />
<b>Nozha Boujemaa : </b>Voilà.<br />
<br />
<b>Nicolas Martin : </b>Et B2B c'est <em>business-to-business</em> voilà.<br />
<br />
<b>Nozha Boujemaa : </b>Exactement. <br />
<br />
<b>Nicolas Martin : </b>Donc de l'entreprise à l'entreprise et de l'entreprise au consommateur.<br />
<br />
<b>Nozha Boujemaa : </b>Merci.<br />
<br />
<b>Nicolas Martin : </b>C'est juste un petit bout de traduction franco-anglaise qu'on nous reproche souvent à juste titre d'être trop anglophone. <br />
<br />
<b>Nozha Boujemaa : </b>Tout à fait, tout à fait. À juste titre.<br />
<br />
<b>Nicolas Martin : </b>Allons-y.<br />
<br />
<b>Nozha Boujemaa : </b>Donc faire des recommandations de consommation de contenus culturels sur une plate-forme qui n'a pas de modèle d'affaires qui soit de la publicité. Je prends pour exemple Netflix. Une fois qu'on paye l'abonnement, on n'a pas de publicités à regarder.<br />
<br />
<b>Nicolas Martin : </b>Pour le moment.<br />
<br />
<b>Nozha Boujemaa : </b>Pour le moment. On peut se poser la question : C'est quoi les motivations des algorithmes de recommandation là-dedans ? D'accord ? Donc là, c'est un autre cas d'usage auquel il faudrait aussi un petit peu s'y intéresser. Parce que là très clairement, la question de la concurrence va se poser entre des producteurs de contenus qui sont, qui ont des accords avec Netflix et ceux qui ne l'ont pas. Et aussi avec des producteurs de contenus culturels de l'industrie française par exemple qui peut se retrouver lésée. Et là, c'est un problème de concurrence et de position dominante et le ministère de la culture aussi à ma connaissance s'intéresse également à ces questions.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, c'est intéressant cet exemple de Netflix parce que effectivement... Par ailleurs, on peut aussi imaginer que puisque tous ces algorithmes sont biaisés et qu'il y a une intentionnalité derrière, dans ces biais, on peut imaginer que l'algorithme de Netflix privilégie les productions internes de Netflix et pas le contenu qui a été racheté à d'autres sociétés de production qui sont hébergées seulement sur la plate-forme pour prévilégier le contenu interne et dire «Et bien vous voyez, les produits Netflix fonctionnent mieux que les produits un tel de FOX ou un air peu importe».<br />
<br />
<b>Nozha Boujemaa : </b>Et ce n'est pas forcément une personnalisation pour le consommateur je rappelle. <br />
<br />
<b>Nicolas Martin : </b>Bien sûr.<br />
<br />
<b>Frédéric Bardolle : </b>Et...<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Et comme on n'a aucune transparence sur qu'est-ce qu'on essaie d'optimiser avec cet algorithme, finalement on ne le saura jamais. Et c'est un gros problème. Et pour montrer l'ampleur un peu de la chose, il faut savoir que 70 % à 80 % du contenu sur Netflix provient de recommandations. Donc ce n'est pas quelque chose qui se fait à la marge. C'est que les gens consomment ce qu'on leur recommande en fait. C'est vraiment quelque chose qui est phénoménal et sur toutes les plates-formes c'est la même chose.<br />
<br />
<b>Nicolas Martin : </b>Parce que par ailleurs sur Netflix, la plate-forme est une gigantesque plate-forme de recommandations. C'est-à-dire que la plate-forme n'est pas présentée par ordre alphabétique par exemple ou par ordre de nouveautés ou très très peu. Elle n'est que...<br />
<br />
<b>Nozha Boujemaa : </b> Elle va le rajouter, elle est là.<br />
<br />
<b>Nicolas Martin : </b>Voilà. Ce qui est intéressant alors. On entendait dans la reportage quelque chose sur laquelle j'aimerais vous faire réagir. On va parler évidemment surtout dans la deuxième partie, de cette notion de serment d'Hippocrate : À il s'addresse, de son côté un peu finaliste c'est-à-dire de dire que le serment est signé finalement par les <em>data scientists</em>, par les scientifiques de données. Et pourquoi est-ce que ce serait les individus qui doivent s'engager et non pas les plate-formes ? C'est une question qui me semble importante à traiter. Mais avant cela, j'aimerais poser une question autour de cette notion d'interprétabilité. Puisqu'on voit bien que... Prenons cet exemple de Netflix qui est assez bon. Aujourd'hui Netflix signerait un accord, un serment, peu importe qui donne accès, qui permet de lire ses algorithmes. Aujourd'hui pour tout un chacun, pour nous citoyens en bout de chaîne, pour les consommateurs : c'est strictement illisible. C'est-à-dire qu'on a pas accès à la compréhension de ce qui va permettre de régir cet algorithme et d'ailleurs si nous n'y avons pas intérêt, évidemment la plate-forme elle-même a encore moins intérêt à donner ces informations-là. Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui alors effectivement, c'est là où il y a un effort international sur «Faut-il réguler, comment réguler ?» etc etc au-delà des chartes d'engagements individuelles. L'idée c'est aussi... Alors tout dépend si c'est du... J'allais dire du soft (rires). Si c'est du...<br />
<br />
<b>Nicolas Martin : </b>Logiciel ?<br />
<br />
<b>Nozha Boujemaa : </b>Non non. De la réglementation dure ou un peu plus légère mais en tout cas amener les producteurs de service à rendre compte. Parce qu'en fait, celui qui fait le service, on peut en fait et là je mentionne les efforts faits au niveau de la Commission européenne mais aussi au niveau de l'OCDE qui réfléchissent très très sérieusement par rapport à toutes ces questions parce qu'il y a une prise de conscience aujourd'hui internationale. Je ne dis pas que les solutions existent. Mais la prise de conscience et la nécessité, l'urgence d'agir : elle est là. Du coup, typiquement sur l'intelligibilité... Je ne parle pas d'explicabilité parce que des fois, on a peut-être pas besoin et peut-être pas les moyens techniques de l'explicabilité mais par contre, la traçabilité du pourquoi on a eu ce résultat du genre «tel produit ou tel contenu est recommandé pour vous». On aimerait bien avoir une sorte de tableau de bord qui va nous dire «Voilà les critères en pourcentage qui»...<br />
<br />
<b>Nicolas Martin : </b> «Vous avez fait tel choix, tel choix, tel choix donc le logiciel infère que vous allez aimer tel chose».<br />
<br />
<b>Nohza Boujemaa : </b>Les producteurs des services en fait par régulation, on pourrait les amener à apporter et justement en apportant ces critères-là, on respecte le libre arbitre du consommateur quand même. Parce que la, on clique sur ce qui est proposé mais est-ce qu'il est vraiment conscient de sur quoi... Enfin... C'est quand même léger aujourd'hui donc il y a cette notion de respect du libre arbitre via une règlementation dans ce sens-là. <br />
<br />
<b>Nicolas Martin : </b>Je vais prendre un exemple volontairement un chouia provocateur dans l'état actuel des choses mais encore une fois la transparence n'implique pas compréhension si on prend une plate-forme de Parcoursup dont l'algorithme a été rendu public par l'éducation nationale. Ce qui n'empêche pas personne de ne comprendre à aucun moment, les choix et les orientations que cet algorithme fait pour les étudiants qui veulent être inscrits dans les universités dont ils font fait le choix. Fait la demande pardon. <br />
<br />
<b>Frédéric Bardolle : </b>La complexité supérieure qui a en plus sur Parcoursup, c'est que il y a une partie du code qui est quand même caché. Le code qui est utilisé par les universités, celui-là, «la cuisine interne» comme ils appellent ça.<br />
<br />
<b>Nicolas Martin : </b>La sélection en bout de chaîne.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Celle-là, il y a toujours une demande, une requête qui a été faite à la Commission d'Accès aux Documents Administratifs, la CADA, qui est en cours mais qui n'a pas abouti à l'heure actuelle et ce code n'est pas rendu public. Donc, il manque quand même un bout de la chaîne. Pour revenir sur cette question d'auditabilité des algorithmes, nous quand on a essayé d'auditer l'algorithme de YouTube c'est un peu ce qu'on a fait avec <em>AlgoTransparency</em>, on s'est rendu compte de la complexité qu'il y avait. C'est-à dire que d'une : Tous les jours, l'algorithme change. Comme des gens regardent des vidéos, en fait ça fait changer l'algorithme. Donc finalement, quelle est la vraie version ? C'est compliqué à dire. <br />
<br />
<b>Nohza Boujemaa : </b>Les algorithmes et les corpus.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà.<br />
<br />
<b>Nohza Boujemaa : </b>Les corpus aussi. <br />
<br />
<b>Frédéric Bardolle : </b>Tout change au fur et à mesure. Et puis c'est d'une telle complexité. Si on a des réseaux de neurones, ça va être aussi dur par exemple de dire «On a regardé cette vidéo parce que il y a une personne qui a regardé ça». Des critères il peut y en avoir des millions et des millions donc on ne va pas forcément s'y retrouver. Et finalement, c'est un peu comme quand on regarde les émissions de particules fines d'une voiture je trouve. C'est-à-dire que finalement peu importe ce qui se passe dans la cuisine interne du moteur, ce qu'on va regarder à la fin c'est «Est-ce que il y a des particules qui sont émises ?» et c'est ça qui nous intéresse. Mais, ça c'est pas disponible à la hauteur, on n'a pas de mécanisme qui nous permet de nous connecter directement à une plate-forme et de savoir «Bah tiens si on fait telle chose, on aura telle chose de recommandé» et puis en plus on se dit «Si jamais ça ça existe, il va y avoir des trucages» comme il y a eu sur les voitures notamment quand on est arrêté, tout se passe bien et puis quand on roule en conditions réelles, ça ne marche plus du tout. C'est pas évident comme question.<br />
<br />
<b>Pause musicale : </b> <em>Algorithms</em> par <em>School is Cool</em><br />
<br />
<b>Nicolas Martin : </b><em>Algorithms</em> de <em>School is Cool</em> puisque c'est ce dont il est vaguement question au cours de cette heure puisque nous parlons d'éthique numérique et d'éthique en science des données et évidemment bien des algorithmes qui sont au centre de ces questions d'éthique, de leurs transparences, de leurs auditabilités et puis surtout de ce qu'il va se passer dans le futur. À partir d'aujourd'hui, avec les scientifiques qui sont formés aujourd'hui. Ces scientifiques doivent-ils être tenus, doivent-ils s'engager sur une sorte de charte de bonne conduite piur éviter, bien pour éviter toute sorte de dérives que l'on peut constater d'ores et déjà aujourd'hui. Nous en parlons avec Nohza Boujemaa qui est directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et avec Frédéric Bardolle qui est membre de l'association <em>Data for Good</em> qui a réalisé une plate-forme</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85615Éthique numérique, des datas sous serment - La méthode scientifique2019-09-02T18:53:30Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lançait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un serment d'Hippocrate des <em>data scientists</em>. Donc on a fait une petite recherche, il y en avait déjà qui circulaient et pour se différencier de ceux qui existaient déjà, on avait vraiment crée un serment d'Hippocrate qui aidait dans au quotidien, dans leur pratique les <em>data scientists</em>. Vraiment à se dire, on a découpé le travail en grandes étapes de la participation d'un projet, à l'analyse de résultats en passant par la collecte de données et l'application de modèles algorithmiques. On s'est dit «À chaque étape, quels sont les dilemmes éthiques auxquels un <em>data Scientist</em> peut être confronté et ensuite comment il peut résoudre ces problèmes ?». Donc on a fait un questionnaire en ligne, on a récolté des expériences diverses et ensuite on a travaillé pendant trois mois en atelier à rédiger collaborativement un serment d'Hippocrate. Donc là, il est disponible sur hippocrate.tech. Donc on a posé cinq valeurs : L'intégrié scientifique et la rigueur, la transparence, l'équité, le respect et la responsabilité et l'indépendance. Et ensuite, on a formulé des phrases sous la forme de «Je m'engage à faire ceci ou cela» donc ça concerne effectivement le respect de la vie privée donc à chaque fois, à chaque ligne on rappelle aussi le cadre légal européen du Règlement Général pour la Protection des Données personnelles. Le <em>data scientist</em> signataire s'engage à déterminer le meilleur compromis entre la performance et l'interprétabilité. Pourquoi l'interprétabilité c'est important ? Parce que par exemple si vous faites tourner un algorithme par exemple sur la question de votre allocation familiale et si l'algorithme vous dit «Bah non, vous n'y avez pas droit» et que la personne qui a fait tourner l'algorithme vous dit «Et bien écoutez, je ne peux pas vous l'expliquer, mais c'est comme ça» ça peut poser des problèmes. Donc on a fait ce genre de recherche. <br />
<br />
<b>Céline Loozen : </b>Quelle est la valeur juridique de cette charte ? Comment on pourrait l'appliquer réellement ?<br />
<br />
<b>Soline Ledésert : </b>Nous on est vraiment dans une démarche plutôt citoyenne. À chaque fois, on l'a formulée de façon à veiller, enfin le <em>data scientist</em> veille à ce que les choses se fassent. Mais un <em>data scientist</em> il peut travailler dans une administration, dans une entreprise, au sein d'un labo de recherche et il n'est jamais seul décisionnaire sur vraiment l'ensemble du projet donc nous on a pris cette approche dans le cadre de ce projet vers la responsabilité personnelle. Après, on a aussi rappelé la loi donc là c'est vrai que le RGPD a vraiment amené beaucoup plus de contraintes sur ces questions mais voilà, nous on est vraiment parti sur un modèle d'éthique personnelle. <br />
<br />
[Fin de la musique de fond]<br />
<br />
<b>Nicolas Martin : </b>Voilà le reportage du jour sur cette plate-forme <em>AlgoTransparency</em>. Je vais vous demander évidemment Frédéric Bardolle, une réaction puisque c'est votre association <em>Data For Good</em> qui développe cette plate-forme.<br />
<br />
<b>Frédéric Bardolle : </b>Déjà merci. C'est Soline qui a vraiment porté le projet sur le serment d'Hippocrate et Guillaume Chaslot qui est à plein temps sur ce projet de <em>Algotransparency</em> et qui essaie d'étudier notamment avec des scientifiques américains, essayer d'étudier d'autres algorithmes et leurs fonctionnements, essayer de mieux comprendre comment ça marche. Moi je voulais revenir surtout sur une chose c'est que effectivement il y a une responsabilité individuelle donc à travers ce serment qu'on propose. Mais on pense également qu'il y a comme le disait Soline qu'il y a aussi une responsabilité finalement aussi, il y a des institutions à créer pour permettre de transformer la manière dont fonctionne le numérique à l'heure actuelle. Un exemple : à l'heure actuelle, il n'y a pas de statut intermédiaire entre un hébergeur et un média. Et le problème c'est quoi ? C'est que en fait...<br />
<br />
<b>Nicolas Martin : </b>Exemple concret. Par exemple, prenons un réseau social. Pour les auditeurs, exemple concret : Facebook.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà Facebook ou YouTube, c'est des hébergeurs. Donc, ils ne sont pas responsables du contenu. Tout le contenu publié chez eux c'est pas sous leur responsabilité. Au contraire un média, tout ce qui est produit, si on dit quelque chose qui ne respecte pas la loi à la radio...<br />
<br />
<b>Nicolas Martin : </b>Sur France Culture.<br />
<br />
<b>Frédéric Bardolle : Et bien quelqu'un portera la responsabilité. <br />
<br />
<b>Nicolas Martin : </b>La directrice de la chaîne, moi d'abord et puis ensuite la présidente. <br />
<br />
<b>Frédéric Bardolle : </b>Et donc il y a un grand écart en fait. Ce statut d'hébergeur ça marchait très bien au début de l'internet finalement. C'était juste des annuaires où il y avait toutes les vidéos des contenus produits par les internautes qui étaient là. Finalement, c'est vrai qu'il n'y avait pas de rôle de responsabilité. Mais là en fait on assiste à quelque chose. C'est-à-dire qu'un algorithme qui propose 100 000 fois un contenu à un utilisateur, on pourrait se dire «Quand même, il a un rôle éditorial». Même si ce n'est pas un humain qui a fait ce choix de poser ça là. Au bout d'un moment lorsqu'une nouvelle est diffusée de manière massive comme ça, nous on considère que cette plate-forme a un rôle éditorial, devrait avoir une responsabilité juridique et parce que l'algorithme a un rôle éditorial dans ses contenus. <br />
<br />
<b>Nicolas Martin : </b>Une réaction à ce que viens de dire Frédéric Bardolle et sur cette plate-forme <em>AlgoTransparency</em>. On va parler du serment d'Hippocrate dans un instant mais d'abord sur le reportage et sur cette notion très très intéressante de distnction entre l'hébergeur et média.<br />
<br />
<b>Nozha Boujemaa : </b>Oui... Et bien je suis d'accord dans la mesure où effectivement l'évolution des rôles aujourd'hui, la frontière est très mince et surtout que les contenus en fait aujourd'hui sont consommés. Il n'y a plus effectivement ce rôle éditorial fait par un professionnel mais aujourd'hui c'est fait par un algorithme de recommandation de contenus. Et donc, très clairement la question de la neutralité de la recommandation du contenu se pose. Et au-delà de ces... En fait... Moi je voudrais pointer toujours sur cette même problématique, un autre contexte qui peut être embêtant. C'est pas du B2C en fait c'est du B2B. Plate-forme juste au hasard...<br />
<br />
<b>Nicolas Martin : </b>On rappelle : B2C c'est <em>business-to-consumer</em>...<br />
<br />
<b>Nozha Boujemaa : </b>Voilà.<br />
<br />
<b>Nicolas Martin : </b>Et B2B c'est <em>business-to-business</em> voilà.<br />
<br />
<b>Nozha Boujemaa : </b>Exactement. <br />
<br />
<b>Nicolas Martin : </b>Donc de l'entreprise à l'entreprise et de l'entreprise au consommateur.<br />
<br />
<b>Nozha Boujemaa : </b>Merci.<br />
<br />
<b>Nicolas Martin : </b>C'est juste un petit bout de traduction franco-anglaise qu'on nous reproche souvent à juste titre d'être trop anglophone. <br />
<br />
<b>Nozha Boujemaa : </b>Tout à fait, tout à fait. À juste titre.<br />
<br />
<b>Nicolas Martin : </b>Allons-y.<br />
<br />
<b>Nozha Boujemaa : </b>Donc faire des recommandations de consommation de contenus culturels sur une plate-forme qui n'a pas de modèle d'affaires qui soit de la publicité. Je prends pour exemple Netflix. Une fois qu'on paye l'abonnement, on n'a pas de publicités à regarder.<br />
<br />
<b>Nicolas Martin : </b>Pour le moment.<br />
<br />
<b>Nozha Boujemaa : </b>Pour le moment. On peut se poser la question : C'est quoi les motivations des algorithmes de recommandation là-dedans ? D'accord ? Donc là, c'est un autre cas d'usage auquel il faudrait aussi un petit peu s'y intéresser. Parce que là très clairement, la question de la concurrence va se poser entre des producteurs de contenus qui sont, qui ont des accords avec Netflix et ceux qui ne l'ont pas. Et aussi avec des producteurs de contenus culturels de l'industrie française par exemple qui peut se retrouver lésée. Et là, c'est un problème de concurrence et de position dominante et le ministère de la culture aussi à ma connaissance s'intéresse également à ces questions.<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle, c'est intéressant cet exemple de Netflix parce que effectivement... Par ailleurs, on peut aussi imaginer que puisque tous ces algorithmes sont biaisés et qu'il y a une intentionnalité derrière, dans ces biais, on peut imaginer que l'algorithme de Netflix privilégie les productions internes de Netflix et pas le contenu qui a été racheté à d'autres sociétés de production qui sont hébergées seulement sur la plate-forme pour prévilégier le contenu interne et dire «Et bien vous voyez, les produits Netflix fonctionnent mieux que les produits un tel de FOX ou un air peu importe».<br />
<br />
<b>Nozha Boujemaa : </b>Et ce n'est pas forcément une personnalisation pour le consommateur je rappelle. <br />
<br />
<b>Nicolas Martin : </b>Bien sûr.<br />
<br />
<b>Frédéric Bardolle : </b>Et...<br />
<br />
<b>Nicolas Martin : </b>Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Et comme on n'a aucune transparence sur qu'est-ce qu'on essaie d'optimiser avec cet algorithme, finalement on ne le saura jamais. Et c'est un gros problème. Et pour montrer l'ampleur un peu de la chose, il faut savoir que 70 % à 80 % du contenu sur Netflix provient de recommandations. Donc ce n'est pas quelque chose qui se fait à la marge. C'est que les gens consomment ce qu'on leur recommande en fait. C'est vraiment quelque chose qui est phénoménal et sur toutes les plates-formes c'est la même chose.<br />
<br />
<b>Nicolas Martin : </b>Parce que par ailleurs sur Netflix, la plate-forme est une gigantesque plate-forme de recommandations. C'est-à-dire que la plate-forme n'est pas présentée par ordre alphabétique par exemple ou par ordre de nouveautés ou très très peu. Elle n'est que...<br />
<br />
<b>Nozha Boujemaa : </b> Elle va le rajouter, elle est là.<br />
<br />
<b>Nicolas Martin : </b>Voilà. Ce qui est intéressant alors. On entendait dans la reportage quelque chose sur laquelle j'aimerais vous faire réagir. On va parler évidemment surtout dans la deuxième partie, de cette notion de serment d'Hippocrate : À il s'addresse, de son côté un peu finaliste c'est-à-dire de dire que le serment est signé finalement par les <em>data scientists</em>, par les scientifiques de données. Et pourquoi est-ce que ce serait les individus qui doivent s'engager et non pas les plate-formes ? C'est une question qui me semble importante à traiter. Mais avant cela, j'aimerais poser une question autour de cette notion d'interprétabilité. Puisqu'on voit bien que... Prenons cet exemple de Netflix qui est assez bon. Aujourd'hui Netflix signerait un accord, un serment, peu importe qui donne accès, qui permet de lire ses algorithmes. Aujourd'hui pour tout un chacun, pour nous citoyens en bout de chaîne, pour les consommateurs : c'est strictement illisible. C'est-à-dire qu'on a pas accès à la compréhension de ce qui va permettre de régir cet algorithme et d'ailleurs si nous n'y avons pas intérêt, évidemment la plate-forme elle-même a encore moins intérêt à donner ces informations-là. Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui alors effectivement, c'est là où il y a un effort international sur «Faut-il réguler, comment réguler ?» etc etc au-delà des chartes d'engagements individuelles. L'idée c'est aussi... Alors tout dépend si c'est du... J'allais dire du soft (rires). Si c'est du...<br />
<br />
<b>Nicolas Martin : </b>Logiciel ?<br />
<br />
<b>Nozha Boujemaa : </b>Non non. De la réglementation dure ou un peu plus légère mais en tout cas amener les producteurs de service à rendre compte. Parce qu'en fait, celui qui fait le service, on peut en fait et là je mentionne les efforts faits au niveau de la Commission européenne mais aussi au niveau de l'OCDE qui réfléchissent très très sérieusement par rapport à toutes ces questions parce qu'il y a une prise de conscience aujourd'hui internationale. Je ne dis pas que les solutions existent. Mais la prise de conscience et la nécessité, l'urgence d'agir : elle est là. Du coup, typiquement sur l'intelligibilité... Je ne parle pas d'explicabilité parce que des fois, on a peut-être pas besoin et peut-être pas les moyens techniques de l'explicabilité mais par contre, la traçabilité du pourquoi on a eu ce résultat du genre «tel produit ou tel contenu est recommandé pour vous». On aimerait bien avoir une sorte de tableau de bord qui va nous dire «Voilà les critères en pourcentage qui»...<br />
<br />
<b>Nicolas Martin : </b> «Vous avez fait tel choix, tel choix, tel choix donc le logiciel infère que vous allez aimer tel chose».<br />
<br />
<b>Nohza Boujemaa : </b>Les producteurs des services en fait par régulation, on pourrait les amener à apporter et justement en apportant ces critères-là, on respecte le libre arbitre du consommateur quand même. Parce que la, on clique sur ce qui est proposé mais est-ce qu'il est vraiment conscient de sur quoi... Enfin... C'est quand même léger aujourd'hui donc il y a cette notion de respect du libre arbitre via une règlementation dans ce sens-là. <br />
<br />
<b>Nicolas Martin : </b>Je vais prendre un exemple volontairement un chouia provocateur dans l'état actuel des choses mais encore une fois la transparence n'implique pas compréhension si on prend une plate-forme de Parcoursup dont l'algorithme a été rendu public par l'éducation nationale. Ce qui n'empêche pas personne de ne comprendre à aucun moment, les choix et les orientations que cet algorithme fait pour les étudiants qui veulent être inscrits dans les universités dont ils font fait le choix. Fait la demande pardon. <br />
<br />
<b>Frédéric Bardolle : </b>La complexité supérieure qui a en plus sur Parcoursup, c'est que il y a une partie du code qui est quand même caché. Le code qui est utilisé par les universités, celui-là, «la cuisine interne» comme ils appellent ça.<br />
<br />
<b>Nicolas Martin : </b>La sélection en bout de chaîne.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà. Celle-là, il y a toujours une demande, une requête qui a été faite à la Commission d'Accès aux Documents Administratifs, la CADA, qui est en cours mais qui n'a pas abouti à l'heure actuelle et ce code n'est pas rendu public. Donc, il manque quand même un bout de la chaîne. Pour revenir sur cette question d'auditabilité des algorithmes, nous quand on a essayé d'auditer l'algorithme de YouTube c'est un peu ce qu'on a fait avec <em>AlgoTransparency</em>, on s'est rendu compte de la complexité qu'il y avait. C'est-à dire que d'une : Tous les jours, l'algorithme change. Comme des gens regardent des vidéos, en fait ça fait changer l'algorithme. Donc finalement, quelle est la vraie version ? C'est compliqué à dire. <br />
<br />
<b>Nohza Boujemaa : </b>Les algorithmes et les corpus.<br />
<br />
<b>Frédéric Bardolle : </b>Voilà.<br />
<br />
<b>Nohza Boujemaa : </b>Les corpus aussi. <br />
<br />
<b>Frédéric Bardolle : </b>Tout change au fur et à mesure. Et puis c'est d'une telle complexité. Si on a des réseaux de neurones, ça va être aussi dur par exemple de dire «On a regardé cette vidéo parce que il y a une personne qui a regardé ça». Des critères il peut y en avoir des millions et des millions donc on ne va pas forcément s'y retrouver. Et finalement, c'est un peu comme quand on regarde les émissions de particules fines d'une voiture je trouve. C'est-à-dire que finalement peu importe ce qui se passe dans la cuisine interne du moteur, ce qu'on va regarder à la fin c'est «Est-ce que il y a des particules qui sont émises ?» et c'est ça qui nous intéresse. Mais, ça c'est pas disponible à la hauteur, on n'a pas de mécanisme qui nous permet de nous connecter directement à une plate-forme et de savoir «Bah tiens si on fait telle chose, on aura telle chose de recommandé» et puis en plus on se dit «Si jamais ça ça existe, il va y avoir des trucages» comme il y a eu sur les voitures notamment quand on est arrêté, tout se passe bien et puis quand on roule en conditions réelles, ça ne marche plus du tout. C'est pas évident comme question.<br />
<br />
<b>Pause musicale : </b></div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85614Éthique numérique, des datas sous serment - La méthode scientifique2019-09-02T15:55:55Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lançait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un serment d'Hippocrate des <em>data scientists</em>. Donc on a fait une petite recherche, il y en avait déjà qui circulaient et pour se différencier de ceux qui existaient déjà, on avait vraiment crée un serment d'Hippocrate qui aidait dans au quotidien, dans leur pratique les <em>data scientists</em>. Vraiment à se dire, on a découpé le travail en grandes étapes de la participation d'un projet, à l'analyse de résultats en passant par la collecte de données et l'application de modèles algorithmiques. On s'est dit «À chaque étape, quels sont les dilemmes éthiques auxquels un <em>data Scientist</em> peut être confronté et ensuite comment il peut résoudre ces problèmes ?». Donc on a fait un questionnaire en ligne, on a récolté des expériences diverses et ensuite on a travaillé pendant trois mois en atelier à rédiger collaborativement un serment d'Hippocrate. Donc là, il est disponible sur hippocrate.tech. Donc on a posé cinq valeurs : L'intégrié scientifique et la rigueur, la transparence, l'équité, le respect et la responsabilité et l'indépendance. Et ensuite, on a formulé des phrases sous la forme de «Je m'engage à faire ceci ou cela» donc ça concerne effectivement le respect de la vie privée donc à chaque fois, à chaque ligne on rappelle aussi le cadre légal européen du Règlement Général pour la Protection des Données personnelles. Le <em>data scientist</em> signataire s'engage à déterminer le meilleur compromis entre la performance et l'interprétabilité. Pourquoi l'interprétabilité c'est important ? Parce que par exemple si vous faites tourner un algorithme par exemple sur la question de votre allocation familiale et si l'algorithme vous dit «Bah non, vous n'y avez pas droit» et que la personne qui a fait tourner l'algorithme vous dit «Et bien écoutez, je ne peux pas vous l'expliquer, mais c'est comme ça» ça peut poser des problèmes. Donc on a fait ce genre de recherche. <br />
<br />
<b>Céline Loozen : </b>Quelle est la valeur juridique de cette charte ? Comment on pourrait l'appliquer réellement ?<br />
<br />
<b>Soline Ledésert : </b>Nous on est vraiment dans une démarche plutôt citoyenne. À chaque fois, on l'a formulée de façon à veiller, enfin le <em>data scientist</em> veille à ce que les choses se fassent. Mais un <em>data scientist</em> il peut travailler dans une administration, dans une entreprise, au sein d'un labo de recherche et il n'est jamais seul décisionnaire sur vraiment l'ensemble du projet donc nous on a pris cette approche dans le cadre de ce projet vers la responsabilité personnelle. Après, on a aussi rappelé la loi donc là c'est vrai que le RGPD a vraiment amené beaucoup plus de contraintes sur ces questions mais voilà, nous on est vraiment parti sur un modèle d'éthique personnelle. <br />
<br />
[Fin de la musique de fond]<br />
<br />
<b>Nicolas Martin : </b>Voilà le reportage du jour sur cette plate-forme <em>AlgoTransparency</em>. Je vais vous demander évidemment Frédéric Bardolle, une réaction puisque c'est votre association <em>Data For Good</em> qui développe cette plate-forme.<br />
<br />
<b>Frédéric Bardolle : </b>Déjà merci. C'est Soline qui a vraiment porté le projet sur le serment d'Hippocrate et Guillaume Chaslot qui est à plein temps sur ce projet de <em>Algotransparency</em> et qui essaie d'étudier notamment avec des scientifiques américains, essayer d'étudier d'autres algorithmes et leurs fonctionnements, essayer de mieux comprendre comment ça marche. Moi je voulais revenir surtout sur une chose c'est que effectivement il y a une responsabilité individuelle donc à travers ce serment qu'on propose. Mais on pense également qu'il y a comme le disait Soline qu'il y a aussi une responsabilité finalement aussi, il y a des institutions à créer pour permettre de transformer la manière dont fonctionne le numérique à l'heure actuelle. Un exemple : à l'heure actuelle, il n'y a pas de statut intermédiaire entre un hébergeur et un média. <br />
<br />
==25'16==</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85613Éthique numérique, des datas sous serment - La méthode scientifique2019-09-02T14:23:02Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em> sur la requête «Est-ce que la terre est plate ou ronde ?». Donc il y a une vidéo qui est recommandée 9,7 fois plus que moyenne des vidéos recommandées par YouTube sur la question le 1er août 2018 qui est : <em>A Stranger's Guide to Flat Earth | 21 Questions and Answers (Proving The Earth Is Flat)</em>. Donc on a visiblement faudrait quand même la regarder mais visiblement une vidéo qui prouverait que la terre est plate. <br />
<br />
<b>Céline Loozen : </b>Comment vous fonctionnez pour pouvoir donner ces chiffres et mettre ces classements ?<br />
<br />
<b>Soline Ledésert : </b>Alors en fait, on a crée un utilisateur. C'est comme si c'était un utilisateur qui venait de se créer un compte qu'on a crée sous forme de robot, c'est un programme et qui va faire des requêtes sur YouTube et regarder des vidéos. Et il regarde toujours la première vidéo qui sort de la recherche et ensuite, on lancait les six premières vidéos qui sont suggérées sur la colonne de droite. Et en fait à chaque fois, on jouait chacune de ces six vidéos et on récoltait les vidéos suivantes et ainsi de suite. Donc du coup, on se retrouvait avec on va dire entre 1000 et 2000 vidéos suggérées sur une requête et on regardait dans ces vidéos, le nombre de fois où une vidéo était plus recommandée que la moyenne. Et du coup on se disait «D'accord donc pour quelqu'un qui arrive sur YouTube et qui fait une recherche par exemple sur François Fillon, on va pouvoir voir que l'algorithme de YouTube va rediriger de vidéo en vidéo, va tendanciellement rediriger la personne qui a fait une requête sur François Fillon vers par exemple Mélenchon ou un autre candidat. Donc là nous on a eu une démarche assez pragmatique de se dire «OK quels contenus sont les plus suggérés par ces algorithmes ?». Une fois que ça c'est prouvé par exemple sur notre site, l'idée est d'aller plus loin et de lancer un débat public. C'est-à-dire : Est-ce qu'on veut des entreprises qui servent ceci ? Et on essaie de rendre visible le fait que il y a des différences d'attributs comme ça sur les contenus.<br />
<br />
<b>Céline Loozen : </b>Et les ingénieurs de YouTube connaissent l'existence de vos activités ? Comment ils réagissent, comment ils se positionnent ? <br />
<br />
<b>Soline Ledésert : </b> Disons que voilà il y a un peu ceux qui vont essayer d'améliorer le système au sein de ce cadre-là. Donc c'est de faire des algorithmes qui seront : plus égalitaires, plus neutres.Réinjecter de la diversité dans les contenus afin d'éviter la personnalisation etc. Donc nous il y a un autre projet qui est né de ce projet qu'on a appelé le <em>Serment d'Hippocrate pour Data Scientist</em>. C'est-à-dire que pendant qu'on a construit <em>AlgoTransparency</em>, parmi les solutions auxquelles on pensait, donc il y avait effectivement la régulation et on s'est dit «Bah il y aussi interpeller la conscience en fait de tous ces ingénieurs qui travaillent sur du <em>machine learning</em> et des algorithmes sur le même modèle du serment d'Hippocrate des les professionnels de la santé, on pourrait créer un sement d'Hippocrate des <em>data scientists</em>.</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85578Éthique numérique, des datas sous serment - La méthode scientifique2019-09-01T21:58:41Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin - Céline Loozen<br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data For Good</em> et donc d'<em>AlgoTransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>AlgoTransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose, ça me va, j'y vais, je clique, enfin voilà. Et il y a comme un problème parce que quelques fois, on ne se pose plus, on se pose même plus la question en fait. Et c'est la difficulté outre les bulles filtrantes qu'on a évoquées sans les nommer tout à l'heure mais c'est aussi le libre arbitre et la liberté humaine. Pour aussi rebondir sur le fait que ces algorithmes apprennent du passé, c'est-à-dire ça enferme, le prédictif enferme dans un déterminisme qui n'a pas lieu d'être parce que l'humain c'est quand-même sa capacité première c'est d'être libre et d'être imprévisible. D'accord ? Et ça les algorithmes d'aujourd'hui... C'est pour ça que le développement du coeur de l'IA n'est pas fini, l'IA faible aujourd'hui ne sait faire que ça.<br />
<br />
[Jingle]<br />
<br />
<b>Voix off : </b> <em>La méthode scientifique</em>, Nicolas Martin. <br />
<br />
<b>Nicolas Martin : </b>Et 16h15 sur France Culture. Nous parlons d'éthique numérique tout au long de cette heure et de savoir à quel moment il faut justement remettre une notion d'éthique dans la science des données, dans le <em>data scientism</em> si on doit le dire en Anglais. Nous en parlons avec Nozha Boujemaa et Frédéric Bardolle tout au long de cette heure. Alors, on a parlé un peu de ces effets pervers, de ces biais des algorithmes qu'ils soient effectivement techniques ou volontaires ou intentionnels. J'aimerais peut-être qu'on prenne et qu'on parte d'un exemple très très concret que vous avons presque sous les yeux tous de façon régulière c'est l'exemple de <em>YouTube</em>. Finalement comme je le disais dans la présentation de cette émission, quoi de plus inoffensif après tout que de laisser le site décider de quelle vidéo vous allez regarder après avoir vu je ne sais pas : un clip, une bande-annonce vidéo, une conférence peu importe. Vous savez il y a une fonction de lecture automatique et donc tout de suite après va arriver une deuxième vidéo que vous n'aurez pas choisie. Tout cela a l'air finalement très innocent mais évidemment ça l'est beaucoup moins que ce que l'on imagine. Bonjour Céline Loozen !<br />
<br />
<b>Céline Loozen : </b>Bonjour Nicolas, bonjour à tous !<br />
<br />
<b>Nicolas Martin : </b>Donc si on me propose une vidéo de requins après une vidéo de chatons extrêmement mignons ?<br />
<br />
<b>Céline Loozen : </b>Je dois en conclure quelque de très mauvais au niveau de votre psychologie peut-être.<br />
<br />
<b>Nicolas Martin : </b>(Rires)Ou en tout cas de mes pratiques internet. Plus sérieusement, vous êtes justement allée dans l'association de Frédéric Bardolle chez <em>Data For Good</em> pour comprendre comment ils travaillent sur cette question de l'algorithme de <em>YouTube</em><br />
<br />
<b>Céline Loozen : </b>Ouais l'algorithme de <em>YouTube</em> fonctionne par suggestions pour amener à regarder plus de vidéos, pour passer plus de temps sur le plate-forme. Le problème, c'est qu'il n'est pas public entre autres pour des raisons de secret industriel. Alors c'est un problème car on reproche à <em>YouTube</em> : son manque de neutralité, l'incitation à consulter des vidéos aux sujets clivants et aussi de nous enfermer dans des bulles filtrantes selon nos consommations un peu comme sur <em>Facebook</em>. Le projet <em>AlgoTransparency</em> tente d'étudier ce fonctionnement opaque et ils ont publié une charte pour inciter les ingénieurs de <em>YouTube</em> à adhérer à plus d'éthique. Pour le cas de <em>YouTube</em> en l'occurrence, l'algorithme est secret et je suis allée voir Soline Ledésert qui est cofondatrice de <em>AlgoTransparency</em> et elle a contribué aussi à la rédaction du <em>Serment d'Hippocrate pour Data Scientist</em><br />
<br />
[Musique de fond]<br />
<br />
<b>Soline Ledésert : </b>La majeure partie des vidéos regardées sur <em>YouTube</em> viennent de recommandations. C'est-à-dire qu'une fois qu'on a tapé une requête, en fait on va suivre les recommandations de la colonne de droite. Parce qu'il faut savoir que les vidéos qui sont suggérées par <em>YouTube</em> sont suggérées par un algorithme et on ne connaît pas cet algorithme parce que ça enlève du secret industriel. Et ce qu'on a fait du coup, c'est qu'on a vu le résultat de ces algorithmes, les vidéos qui étaient suggérées et on a essayé de poser des questions publiquement sur pourquoi certaines étaient plus suggérées que d'autres.<br />
<br />
<b>Céline Loozen : </b>Est-ce que vous pourriez présenter un peu le concept du site et voir ?<br />
<br />
<b>Soline Ledésert : </b>OK donc il suffit d'aller sur algotransparency.org donc là vous voyez qu'on a crée différentes rubriques : <em>Kids</em>, <em>World leaders</em>, <em>Science</em>, <em>Mass shootings</em>, <em>British elections</em>. Donc par exemple si on va sur <em>Science</em>, on voit le top 100 vidéos des vidéos les plus recommandées par <em>YouTube</em><br />
<br />
==19'38==</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85577Éthique numérique, des datas sous serment - La méthode scientifique2019-09-01T20:39:16Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin <br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
[Début du générique]<br />
<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data for good</em> et donc d'<em>Algotransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>Algotransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile»...<br />
<br />
<b>Frédéric Bardolle : </b> Mais à la merci en tout cas.<br />
<br />
<b>Nozha Boujemaa : </b> Mais en tout cas de savoir... Oui à la merci. De savoir de quoi et comment ils vont être calculés. En fait il y a un principe essentiel qui est remis en cause dans ces choses-là, c'est quand même le libre arbitre. D'accord ?<br />
<br />
<b>Nicolas Martin : </b>C'est ce que j'évoquais quand on passe de la décision d'achat à la pulsion. On renonce d'une certaine façon à une forme de libre arbitre.<br />
<br />
<b>Nozha Boujemaa : </b>Il y a le côté pulsion mais il y a le côté aussi je dirais peut-être même une consommation dans l'inconscience «heureuse» entre guillemets. C'est-à-dire qu'on me propose</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85576Éthique numérique, des datas sous serment - La méthode scientifique2019-09-01T18:15:46Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin <br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data for good</em> et donc d'<em>Algotransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>Algotransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé et que ça leur permet de finir plus rapidement de finir leurs assiettes. Au final si on entraîne cet algorithme avec des données de cantine d'enfants, il va finir par donner que les pires aliments qui existent, que les aliments les plus sucrés, les plus salés enfin vraiment les pires.<br />
<br />
<b>Nicolas Martin : </b>Des frites au ketchup.<br />
<br />
<b>Frédéric Bardolle : </b>C'est ça exactement. (rires) Et c'est ça le problème que souvent on entend des gens nous dire «Oui mais finalement, ces algorithmes ne font que donner aux gens ce qu'ils veulent». Mais ils font plus que ça. C'est-à-dire qu'ils vont nous fournir des choses qui ne sont pas les côtés les plus reluisants de l'humanité. Tout ça pour qu'on passe du temps en fait. Ce qu'on essaye... Ces algorithmes ont tous quelque chose à maximiser et ce que les plates-formes essaient de maximiser c'est le temps passé, c'est l'attention qu'on consacre à leurs plates-formes. C'est pas le bonheur de l'utilisateur, c'est pas son bien-être. C'est cette attention. Et pour maximiser cette attention, il faut des contenus additifs et c'est ça le danger.<br />
<br />
<b>Nicolas Martin : </b> Sur ce sujet-là Nozha Boujemaa ?<br />
<br />
<b>Nozha Boujemaa : </b>Oui. Donc là c'est le cas d'usage. <em>YouTube</em> effectivement qui maximise le temps de passage devant l'écran. <br />
<br />
<b>Nicolas Martin : </b><em>YouTube</em> mais c'est aussi vrai pour <em>Facebook</em>... Non pas tout à fait de la même façon?<br />
<br />
<b>Nohza Boujemaa : </b>En fait pour les modèles d'affaires, pour les <em>business models</em> qui tendent à maximiser le temps de présence pour vendre plus de publicité. Pour tous les services gratuits c'est le cas, qui sont basés sur des modèles de publicité. Maintenant, je dirais que ça dépend énormément. C'est-à-dire que dans certains moteurs de recommandation, c'est pas forcément pour vous garder captif, ça peut aussi vous proposer, vous faire des recommandations pour déstocker. D'accord? C'est pour ça que je disais, ça dépend des cas d'usage, on peut vous recommander effectivement des biens ou des services qui ne sont pas forcément les plus personnalisés en fonction de votre parcours sur une certaine plate-forme mais pour les intérêts, c'est pour ça qu'on revient au point. C'est des opinions capsulées qui maximisent le profit de ceux qui mettent au service en fait, en service ces services numériques. Et au final, les services numériques maximisent l'intérêt de ceux qui les produisent. Enfin... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Il y a quelque chose, un point de vue que je veux vous soumettre et que j'aime assez bien parce que je trouve qu'il est assez représentatif effectivement pour répondre à cet argument de «Finalement la publicité ciblée, ça m'arrange plutôt puisqu'on me propose plutôt des choses que j'ai envie d'acheter que d'autres choses qui ne m'intéressent pas». C'est Antoinette Rouvroy qui est venue plusieurs fois à ce micro et qui disait «Le problème, c'est qu'à force de vous soumettre de la publicité ciblée, des choix ciblés et bien ça va transformer une décision d'achat». Je me connecte sur internet parce qu'à un moment donné je décide d'aller faire des courses pour acheter quelque chose dont j'ai besoin, en une pulsion d'achat. C'est-à-dire que d'un seul coup ça détruit la décision et ça rend la décision strictement pulsionnelle. Et là effectivement, j'ai l'impression que avec cet exemple-là, on touche du doigt un effet qui est nettement un effet pervers Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Alors oui et même pour aller plus loin, un des problèmes sur les algorithmes en particulier les algorithmes d'apprentissage automatique puisque ce sont ceux dont on parle finalement. Il y a beaucoup d'algorithmes. En calcul le Pi, ça utilise un algorithme mais là voilà on parle surtout des algorithmes d'apprentissage automatique, <em>machine learning</em>. Le problème c'est que par essence ils sont conservateurs. C'est-à-dire que : ils ont été entraînés avec des données qui ont été mesurées sur des gens, sur vous sur peut-être d'autres gens mais en fait ils reflètent finalement seulement le passé, seulement la société tel qu'elle a pu exister, seulement votre comportement passé et elle vous dit «Bah vous êtes finalement tout le temps la même personne, tout le temps pareille et on va reproposer toujours la même chose».<br />
Un exemple concret par rapport à ça : c'est que pour faire de la traduction automatique, <em>Google Traduction</em> et d'autres, utilisent par exemple des textes qui sont à la fois en Français et en Anglais et ils essaient de les calquer. Ce qui se passe, c'est que à cause de ça, quand on essaie de traduire des termes qui n'ont pas de genre en Anglais par exemple "A nurse" ou "A doctor" donc pour parler d'infirmier/infirmière ou docteur mais docteur au féminin et bien on a toujours "A doctor" c'est un docteur au masculin et "A nurse" c'est une infirmière au féminin. Et ça en fait, ça n'a pas de sens linguistique. C'est juste parce que l'algorithme a vu des milliers d'exemples de cette catégorie-là et a dit «Bah c'est ça la réalité». Donc, ils sont conservateurs par un sens.<br />
<br />
<b>Nozha Boujemaa : </b>Ça, c'est le manque de représentativité des données d'apprentissage qui fait partie des biais. J'aimerais bien qu'on fasse la différence entre les biais technique...<br />
<br />
<b>Nicolas Martin : </b>Bien sûr... Oui oui oui... <br />
<br />
<b>Nozha Boujemaa : </b>Et... Voilà.<br />
<br />
<b>Nicolas Martin : </b>Entre les biais technique et ?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, il y a le côté intention de ne pas bien faire les choses ou de ne pas forcément faire les choses dans l'intérêt du consommateur du service mais dans l'intérêt du producteur du service. Et c'est de bonne guerre en fait. Donc on ne peut pas reprocher à celui qui produit un service de ne pas servir ses intérêts. Je dirais que ça c'est... Par contre, c'est à ceux qui consomment les services d'une manière générale qu'ils soient citoyens, qu'ils soient professionnels donc là je considère pas seulement le B2C mais le B2B aussi, que ce soit les gouvernements quand ils sont clients de services numériques et bien de se prémunir des outils qui leur permettent justement de ne pas être je dirais... Je ne vais pas utiliser le mot «proie facile».</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85574Éthique numérique, des datas sous serment - La méthode scientifique2019-09-01T16:35:40Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin <br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data for good</em> et donc d'<em>Algotransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>Algotransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b>On est tout de même arrivés aujourd'hui dans une ère de la mise en garde on va dire. C'est-à-dire au niveau institutionnel avec le déploiement du RGPD [Règlement Général sur la Protection des Données] mais même plus généralement dans le discours public. On entend souvent des gens alerter contre les biais dans les moteurs de recherche, les biais dans les réseaux sociaux pour parler des biais peut-être les plus apparents alors évidemment sur <em>YouTube</em> également. Est-ce que vous avez le sentiment qu'on est peut-être plus à l'heure de la confiance, pas encore tout à fait à l'heure du doute mais en tout cas peut-être dans une sorte d'ère de l'indifférence finalement. L'utilisateur final de l'interface, il s'en moque un peu.<br />
<br />
<b>Frédéric Bardolle : </b>Finalement, les utilisateurs sont contents parce que ils ont ce qu'ils veulent. En fait, l'algorithme est vraiment conçu que pour ça : pour leur donner ce qu'ils veulent. Le problème c'est que ce qu'ils veulent, c'estpas forcément ce qui est le mieux pour eux. On a une métaphore un petit peu là-dessus c'est : imaginons que ce soit un algorithme qui fasse le menu à la cantine de nos enfants. Et un algorithme d'apprentissage automatique. Donc qui va s'apercevoir que les enfants aiment bien manger sucré-salé</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85573Éthique numérique, des datas sous serment - La méthode scientifique2019-09-01T15:52:34Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin <br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data for good</em> et donc d'<em>Algotransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrées dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance montrant que des algorithmes d'apprentissage étaient capables d'être plus performants en reconnaissance visuelle que l'oeil humain et à partir de là il y a eu je dirais entre guillemets «des envolées lyriques» sur les capacités de l'IA et des <em>Big data</em> pour tout tout faire, tout résoudre et donc je crois que justement, il faut démystifier et surtout revenir un peu sur terre quelque part. En fait, toute technologie a ses capacités, ses promesses et en fait ses réalités mais a également ses défauts et ses limites. Et ce dont on a beaucoup moins parlé ce sont les limites et je crois que il faut être ni techno-sceptique ni au contraire survendre l'IA, il faut avoir le juste équilibre et je crois que le efforts que nous sommes entrain de déployer à la fois dans le cadre de l'institut DATAIA mais aussi dans d'autres sphères internationales, européennes et aussi dans le cadre de l'OCDE, c'est avoir la juste mesure. Donc ne pas je dirais «faire confiance totale» là encore la question n'est pas la technologie très performante certainement c'est les gens qui l'utilisent et qui la déploient. C'est toujours les personnes qui sont derrière en fait. <br />
<br />
<b>Nicolas Martin : </b> Qui sont devant ou derrière d'ailleurs dans un sens... <br />
<br />
<b>Nozha Boujemaa :</b>Absolument. <br />
<br />
<b>Nicolas Martin : </b>Ou dans l'autre. Alors on entendait, c'était intéressant cet extrait du <em>TEDx</em> de Cathy O'Neil parce qu'on entend tout de même quelque chose moi qui me surprend un peu. C'est assez récent ça date de l'année dernière, les travaux de Cathy O'Neil ont de deux trois ans, on est dans un champ qui on va le dire pour tout le long de cette heure, un champ très récent. Très récent à l'international et encore plus récent peut-être en France. On entend que finalement, le grand public aurait une sorte de confiance un peu aveugle en disant «Boh, les algorithmes, l'intelligence artificielle, ce qui m'est proposé, ces outils auxquels on m'a donné accès finalement je peux leur faire une sorte de confiance aveugle». J'ai plutôt le sentiment et je parle à titre tout à fait personnel, que la défiance est arrivée très très vite. Est-ce que il y a eu une sorte de phase de confiance aveugle vous pensez Frédéric Bardolle?<br />
<br />
<b>Frédéric Bardolle : </b>Je ne pense pas. Il y a eu une espèce de période de foi, les gens avaient foi dans les algorithmes et ils l'ont encore en partie. Quand on a lancé le projet <em>Algotransparency</em>, l'idée c'était de montrer justement quelles étaient les recommandations faites par <em>YouTube</em> et vous le montrez justement, ces recommandations n'étaient pas neutres mais étaient orientées vers certaines vidéos, vers certains concepts,on en reparlera un peu plus tard.<br />
<br />
<b>Nicolas Martin : </b>On en reparlera tout à l'heure oui.<br />
<br />
<b>Frédéric Bardolle : </b>Mais quand on a commencé à parler de nos travaux, à les publier sur des plates-formes comme <em>Facebook</em> ou <em>Twitter</em>, les gens, les utilisateurs de <em>YouTube</em> nous ont répondu «Mais en fait vous vous êtes trompés, l'algorithme est neutre. Si il donne cette valeur-là, c'est parce qu'il a raison, c'est parce qu'il est programmé, il est neutre. Donc en fait, vous inventez une espèce de biais qui n'existe pas» et ça on l'a vu, concrètement on a vu des gens nous dire ça. <br />
<br />
<b>Nicolas Martin : </b>Ça veut dire que il y a donc effectivement une ère de la confiance. Est-ce qu'aujourd'hui, il faut comme le dit Cathy O'Neil «passer à l'inverse, à la défiance»? Elle a cette phrase qui est très très forte, au début elle dit «L'algorithme c'est une opinion cachée dans du code». Est-ce que tout algorithme est nécessairement une opinion Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>Je confirme. Les algorithmes sont des opinions, enfin... Mon expression c'est «des opinions encapsulées dans du code» à travers les données d'apprentissage, à travers les données de paramétrage. Donc en fait, il y a toujours une opinion de celui qui a conçu ou le prescripteur en tout cas pour le développement de ces algorithmes. Maintenant ce qui est important, moi je dirais que c'est pas tant l'éthique c'est... Moi je dirais, je plaiderai davantage pour une IA de confiance, c'est différent en fait. <br />
<br />
<b>Nicolas Martin : </b>Hm hm.<br />
<br />
<b>Nozha Boujemaa : </b>Parce que ça inclut en fait, l'éthique est une partie de l'IA de confiance dans la mesure où je préfère parler de l'IA responsable. L'IA responsable c'est aussi... On peut se poser la question : Responsable dans quel référentiel et par rapport à quel référentiel? En fait on en a deux : conforme aux règles juridiques donc il y a la question de la responsabilité juridique mais aussi conforme aux valeurs éthiques. C'est-à-dire que la responsabilité inclut deux choses, effectivement c'est important d'intégrer ces deux dimensions dans l'IA responsable mais encore à l'IA de confiance je rajouterais l'IA robuste qui n'a nullement l'intention ni de nuire, ni d'occasionner je ne sais quel dégât sur les personnes et les sociétés. Mais des fois, on peut avoir des résultats différents et donc on peut croire à une discrimination qui n'en est pas une parce que celui qui a conçu l'algorithme n'a nullement l'intention de générer une discrimination. Mais tout simplement parce que son algorithme n'est pas reproductible : il est vulnérable, il subit des biais des données ou des algorithmes et en fait au final, c'est un manque de maîtrise technologique dans le déploiement de ces technos.<br />
<br />
==15'00==<br />
<b>Nicolas Martin : </b></div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85572Éthique numérique, des datas sous serment - La méthode scientifique2019-09-01T14:34:17Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin <br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data for good</em> et donc d'<em>Algotransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'Neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDx</em> qui date de l'an dernier.<br />
<br />
==2'40==<br />
<b>Extrait du <em>TEDx</em> de Cathy O'Neil : </b>Les algorithmes sont des opinions intégrés dans du code. C'est très différent de ce que les gens pensent des algorithmes. Ils pensent que les algorithmes sont objectifs, vrais et scientifiques. C'est une astuce marketing. C'en est une autre de vous intimider avec des algorithmes, de vous faire croire et craindre les algorithmes car vous croyez et craignez les mathématiques. Tout peut mal tourner quand on est une fois aveugle dans le <em>Big data</em>. Nous devons réclamer des comptes à nos souverains algorithmiques... L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin.<br />
<br />
<b>Nicolas Martin : </b>Voilà, un extrait de ce <em>TEDx</em> de Cathy O'Neil. «L'ère de la confiance absolue dans le <em>Big data</em> doit prendre fin». Ça veut dire que il y a eu une ère de la confiance absolue dans le <em>Big data</em> Nozha Boujemaa?<br />
<br />
<b>Nozha Boujemaa : </b>En fait, j'ai l'impression qu'on a survendu en fait les <em>Big data</em> et l'IA en disant que c'est objectif parce que c'est piloté par les données, c'est objectif parce que c'est algorithmique, parce que il y a de la modélisation donc c'est forcément objectif et c'est une baguette magique pour résoudre tout. Il y a eu des <em>benchmarks</em> de performance j</div>D Ohttps://wiki.april.org/index.php?title=Donn%C3%A9es_personnelles_:_sommes-nous_des_victimes_consentantes_-_Le_d%C3%A9bat_de_midi&diff=85551Données personnelles : sommes-nous des victimes consentantes - Le débat de midi2019-09-01T03:28:31Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Données personnelles : sommes-nous des victimes consentantes ? <br />
<br />
'''Intervenants :''' Arthur Messaud - Aloïs Brunel - Édouard Fillias - Nadia Daam<br />
<br />
'''Lieu :''' <em>Le débat de midi</em>, France Inter<br />
<br />
'''Date :''' août 2019<br />
<br />
'''Durée :''' 52 min 37<br />
<br />
'''[http://rf.proxycast.org/1603139209609093120/12440-12.08.2019-ITEMA_22123984-0.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceinter.fr/emissions/le-debat-de-midi/le-debat-de-midi-12-aout-2019 Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
Transcription : MO<br />
<br />
==Description==<br />
<br />
Au moins neuf Français sur dix estiment que leurs données personnelles doivent être mieux protégées, selon une étude Dolmen, Opinionway. Avec tout ce que nous semons en utilisant notre téléphone, notre ordinateur au quotidien, faisons-nous vraiment attention ? Est-ce que nous faisons tout pour protéger nos données ?<br />
<br />
==Transcription==<br />
<br />
<b>Nadia Daam : </b>Vous n’avez pas pu échapper à la déferlante de cheveux gris, de rides et de crânes dégarnis sur Facebook, Twitter ou encore Instagram. Un coup de vieux général permis par le tube de l’été numérique FaceApp, cette application mobile qui, à partir d’un simple selfie, vous permet de savoir à quoi vous ressemblerez dans 50 ans et qui a occupé anonymes et célébrités dans la joie et le détachement d’un mois de juillet, à peine perturbés par les mises en garde des associations de défense des droits des utilisateurs d’Internet et même par le Parti démocrate américain quand ils ont tenté, en vain, de siffler la fin de la récré. En consultant simplement les conditions d’utilisation, on comprend très vite que télécharger son selfie pour ricaner deux minutes c’est céder à l’entreprise un accès irrévocable et perpétuel aux photos concernées et prendre le risque de retrouver sa trombine en 4 X 3 sur une affiche vantant les mérites par exemple d’un monte-escalier ou encore imprimée sur le tract d’un parti politique. Ces avertissements n’ont pas empêché FaceApp de se hisser en tête des applications les plus téléchargées et c’est une insouciance qui interroge. Pourquoi, alors que 9 Français sur 10 se disent inquiets de la protection de leurs données personnelles, continue-t-on à donner des petits bouts de nous-même sans se faire des cheveux blancs ? Parce qu’on n’est pas à une contradiction près, on attend vos avis et vos réactions sur Twitter. Sommes-nous des fichés volontaires ? C’est la question qu’on se pose jusqu’à 13 heures.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em>. Nadia Daam sur France Inter.<br />
<br />
<b>Nadia Daam : </b>Et avec moi pour en débattre en direct j’accueille Aloïs Brunel. Bonjour.<br />
<br />
<b>Aloïs Brunel : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Merci d’être là. Vous êtes le fondateur de Deepomatic, c’est une plateforme de reconnaissance visuelle qui se définit comme le Shazam de l’image. En français et en deux mots ça veut dire quoi ?<br />
<br />
<b>Aloïs Brunel : </b>Ce que fait Deepomatic c’est simple, on édite et on commercialise un logiciel à destination des entreprises qui va leur permettre d’automatiser des tâches visuelles. Tâches visuelles ça peut être toutes sortes de choses par exemple de l‘encaissement dans les restaurants d’entreprise : vous allez à votre cantine, vous passez votre plateau repas en dessous d’une caméra ça détecte entrées, plat, dessert - Yoplait framboise - et ça vous encaisse. Ça peut être détecter des défauts dans des canalisations d’eau potable, ça peut être des péages sans barrière. C’est toutes sortes de choses.<br />
<br />
<b>Nadia Daam : </b>C’est plus clair comme ça, effectivement. Arthur Messaud, bonjour.<br />
<br />
<b>Arthur Messaud : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Vous êtes le juriste de l’association La Quadrature du Net, association de défense des droits et des libertés des citoyens sur Internet. Je vais vous demander votre avis tout à l’heure sur FaceApp. À vos côtés Édouard Fillias. Bonjour.<br />
<br />
<b>Édouard Fillias : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Bienvenue, vous avez publié, co-publié, un <em>Manuel de survie sur internet</em> aux Éditions Ellipses. Vous êtes également vice-président du <em>think tank</em> Génération Libre qui est à l’origine d’une proposition très controversée, on va en parler évidemment tout à l’heure. J’ai une première question pour bien comprendre : les données personnelles c’est ce qu’on sème avec les tablettes, nos téléphones, nos ordinateurs, mais est-ce que ça concerne tout le monde ? Ma mère, 68 ans, n’a pas de compte Facebook, pas de montre connectée, est-ce qu’elle laisse une empreinte numérique ? Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Si vous avez déjà mis une image, une photo de votre mère, de votre grand-mère, si vous avez déjà parlé d’elle, si vous avez des relations par téléphone, par SMS, par mail, eh bien oui, elle rentre dedans.<br />
<br />
<b>Nadia Daam : </b>Elle a une existence numérique.<br />
<br />
<b>Arthur Messaud : </b>Elle a une existence numérique. Elle peut même avoir un compte fantôme, ce qu’on peut appeler sur Facebook un compte fantôme ce sont les gens qui ne sont pas inscrits sur Facebook mais qui sont quand même connus des services de Facebook, notamment pas les traceurs qu’on peut retrouver sur les sites de presse, traceurs qui ont été posés là volontairement par <em>Le Monde</em> ou <em>Le Figaro</em>, qui permettent à Facebook de savoir qui consulte quand, quel article. Et ça votre grand-mère, pour peu que sur son ordinateur elle passe sur un site du <em>Monde</em>, elle aura un compte fantôme.<br />
<br />
<b>Nadia Daam : </b>Ça suffit à lui créer une identité.<br/><br />
Édouard Fillias, pourquoi ces données sont aussi précieuses, à la fois pour les entreprises et aussi pour nous ? Pourquoi est-ce que c’est un sujet si actuel et important ?<br />
<br />
<b>Édouard Fillias : </b>Pour faire court, parce qu’il y a beaucoup de façons de répondre, ces données nourrissent des algorithmes qui permettent de cibler d’une part la communication publicitaire, ce à quoi elles servent principalement aujourd’hui - c’est le cœur de l’affaire Cambridge Analytica -, mais aussi plus profondément elles permettent de comprendre nos comportements donc de les anticiper, donc de les suggérer. Et les algorithmes du futur qui sont en train d’émerger aujourd’hui et qui s’expriment à travers des plateformes comme Alexa ou Amazon ou Facebook que vous citiez auront une capacité d’anticipation et d’orientation de nos comportements très avancée grâce à ces sommes de données colossales qui sont récupérées sur nous depuis maintenant plusieurs années voire plusieurs décennies en réalité. Et ce sont des données qu’on contrôle d’autant moins qu’on signe toute la journée, sans s’en rendre compte, des pactes softiens. On appelle ça chez Génération Libre des pactes softiens par référence au pacte kantien, évidemment. En fait, vous signez des contrats sans les lire, tout le temps, exactement ce que vous disiez sur FaceApp, mais ce n’est pas seulement FaceApp ; toutes les applications, tous les logiciels, tous les services numériques vous demandent de signer des contrats qui font parfois des dizaines de pages.<br />
<br />
<b>Nadia Daam : </b>Et qu’on ne consulte pas.<br />
<br />
<b>Édouard Fillias : </b>Jamais. Que vous ne consultez pas et dans lesquels vous déléguez des droits extrêmement importants sur vos données, des droits de conservation de ces données, des droits d’utilisation sans votre consultation, des droits d’utilisation parfois pour des fins politiques. Et ça, évidemment, ça pose un vrai problème fondamental de liberté individuelle. Est-ce que demain toutes ces données dont nous avons été dépossédés sans notre consentement explicite en réalité, seront utilisées contre nous, pour nous influencer ?<br />
<br />
<b>Nadia Daam : </b>On va définir ces notions de consentement explicite et éclairé juste après Macy Gray, <em>Big Brother</em>.<br />
<br />
<b>Pause musicale : </b><em>Big Brother</em>, Macy Gray.<br />
<br />
==9’ 00==<br />
<br />
<b>Nadia Daam : </b>C’était Macy Gray, une reprise très libre de <em>Big Brother</em> de, j’ai oublié, Stevie Wonder, je ne l’ai même pas reconnu ! Vous êtes sur France Inter et <em>Le débat de midi</em> se penche sur nos données personnelles. Promis, on vous les rend juste après. L’émission est préparée par Caroline Pomes.<br />
<br />
<b>Extrait du documentaire de <em>The Great Hack</em> : </b>Cambridge Analytica n’est pas seulement une entreprise de collecte des données. Elle ne se contente pas de mettre en place des algorithmes. Non. Il s’agit bien d’une véritable machine de propagande. Je devais trouver un moyen de récolter des données alors je suis allé voir des professeurs de l’université de Cambridge pour avoir leur avis.<br/><br />
Le scientifique Aleksandr Kogan nous a proposé une application Facebook qui avait l’autorisation de récolter non seulement les données de la personne qui utilisait l’appli en question mais qui avait aussi le pouvoir de s’introduire dans le cercle d’amis Facebook de la personne et d’en collecter également les données.<br/><br />
On a récolté les mises à jour de statuts, les <em>like</em> et même parfois les messages privés.<br/><br />
On ne ciblait pas seulement les gens en tant qu’électeurs on les ciblait pour leur personnalité.<br/><br />
L’avantage c’est qu’il nous suffisait de toucher seulement quelques centaines de milliers de personnes pour réussir à construire le profil psychologique de tous les électeurs américains.<br/><br />
<br />
— Et les gens ne savaient pas que leurs données étaient collectées ?<br />
<br />
-— Non. <br />
<br />
— Et à aucun moment vous ne vous êtes dit qu’il s’agissait d’informations à caractère privé et que vous les utilisez sans le consentement des différentes personnes concernées ?<br />
<br />
— Non.<br />
<br />
<b>Nadia Daam : </b>C’était un extrait du documentaire de <em>The Great Hack</em> qui est disponible sur Netflix depuis fin juillet. On vient d’entendre le témoignage de Christopher Wylie c’est lui, entre autres, qui a révélé entre autres comment Cambridge Analytica s’était appropriée les données de 50 millions d’utilisateurs via Facebook. Arthur Messaud, cette affaire Cambridge Analytica montre aussi que les données sont convoitées par les entreprises, certes, mais aussi par les gouvernements ou les partis politiques.<br />
<br />
<b>Arthur Messaud : </b>Tout à fait. Cette affaire, Cambridge Analytica, c’est une caricature de ce qui existe aujourd’hui, de ce qui va exister de plus en plus et c’est un très bon révélateur pour réaliser qu’en fait toute la discussion qu’on a là c’est une discussion politique. On n’est pas en train de débattre pour défendre le consommateur contre des entreprises qui exploiteraient économiquement. Non ! Ces questions-là sont politiques. Cambridge Analityca est une affaire dans laquelle des personnes ont été surveillées de façon massive et de façon assez profonde - on a leur psychologie - pour exercer une influence politique sur des élections. Et ça, en fait, c’est ce qui arrive quotidiennement avec la publicité ciblée en ligne. Déjà la publicité de base, la publicité dans le métro a un rôle assez important de pousser à la consommation de voyages qui vont avoir un coût écologique énorme, de pousser à a la consommation d ‘iPhones qui ont un coût social énorme quand on sait dans quelles conditions les travailleurs sont exploités.<br />
<br />
<b>Nadia Daam : </b>En l’occurrence, il s’agit de ciblage, ces publicités dont vous parlez sont ciblées.<br />
<br />
<b>Arthur Messaud : </b>Ce n’est même plus le cas, là je parlais de la pub dans le métro. Mais quand elles deviennent ciblées elles ont un impact encore plus grand. Ça passe à une échelle assez délirante qui permet, en fait, de maintenir la société tout entière dans des conditions politiques favorables à certaines entreprises qui sont des conditions de consommation de masse, des conditions qui sont complètement contraires aux enjeux écologiques, aux enjeux sociaux et qu’il faut dénoncer. Cambridge Analytica a été très utile comme ça pour être une caricature : regardez, Trump, ce vilain Trump a été élu à cause des rouages de la publicité ciblée qui, en fait, nous manipule constamment toutes et tous et du coup nous concerne tous d’un point de vue politique.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Je pense que c’est un débat et qu’il faut quand même faire attention ; il ne faut pas sombrer dans le techno-scepticisme ou la techno-phobie. Les données qui sont collectées et la publicité ciblée parfois nous profitent, elles aident à améliorer…<br />
<br />
<b>Arthur Messaud : </b>Qui est « nous » là ?<br />
<br />
<b>Édouard Fillias : </b>Nous le citoyen, consommateur, individu. <br />
<br />
<b>Arthur Messaud : </b>Ah !<br />
<br />
<b>Édouard Fillias : </b>Par exemple la publicité ciblée permet de se débarrasser des publicités qui ne nous intéressent pas, des publicités ennuyantes, dont d’ailleurs on a subi sur Internet pendant des années l’extension. Enfin bref, vous voyez ce que je veux dire.<br />
<br />
<b>Nadia Daam : </b>Les popups.<br />
<br />
<b>Édouard Fillias : </b>Les popups, pour avoir un contenu plus intéressant pour l’utilisateur. Le vrai problème, celui d’ailleurs que vous combattez, c’est celui de l’abus du consentement, c’est-à-dire le fait que des données soient utilisées à notre insu en permanence pour nous influencer. Et c’est ça la vraie question, c’est comment est-ce qu’on contrôle le consentement ?<br />
<br />
<b>Nadia Daam : </b>Cette affaire Cambridge Analytica est-ce que c’est du vol ? Est-ce que c’est du pillage ? Est-ce que c’est du cambriolage puisque les données ont été siphonnées sans consentement explicite certes ? Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Facebook leur a donné accès à tout ça. Il n’y a pas de vol, il n’y a pas de bug, c’est Facebook qui leur a donné accès à ça.<br />
<br />
<b>Nadia Daam : </b>Ce que je veux dire c’est que c’est le modèle économique de ces entreprises, c’est le prix.<br />
<br />
<b>Arthur Messaud : </b>Oui, c’est le modèle économique dans lequel on vit aujourd’hui. Cambridge Analytica, ils y sont allés assez forts puisqu’ils sont allés sur le terrain politique, mais tout ça c’est normal. Dans le monde dans lequel on est c’est malheureusement normal et il faut le dénoncer.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Il faut être précis et je pense que ces données de Cambridge Analytica, qui ont été utilisées pour cette opération de propagande, sont des données, je crois, antérieures à 2012, une époque où l’API de Facebook permettait d’accéder à tout et n’importe quoi. Je le sais puisqu’à l’époque j’avais accès à n’importe quoi pour mes clients ce qui, d’ailleurs, me choquait, en réalité. Depuis Facebook a quand même énormément restreint l’accès de ses API de ses données d’ailleurs comme Linkedin avant lui.<br />
<br />
<b>Nadia Daam : </b>Les API ?<br />
<br />
<b>Édouard Fillias : </b>Les API ce sont des applications qui permettent d’exporter des données vers d’autres applications. Une API ouverte est une API où vous pouvez aller ramasser tout ce qui se dit, tout ce qui se passe sur Facebook par exemple. Et ça n’est pas plus le cas maintenant depuis quelques années : il y a des progrès, une prise de conscience a eu lieu, une prise de conscience d’ailleurs politique de la part des plateformes, mais c’est loin d’être suffisant.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud vous êtes sceptique. Il n’y a pas eu un avant et un après Cambridge Analytica ?<br />
<br />
<b>Arthur Messaud : </b>Non, non pas vraiment. En fait le droit évolue constamment, depuis bien dix ans, de façon assez rigoureuse sur ces sujets-là. Évidemment que Facebook et beaucoup d’entreprises font semblant de changer ou changent un peu parfois pour de vrai pour éviter que les scandales s’accumulent. Facebook, Google, si vous mettez ensemble les deux, vous avez un scandale par mois, un scandale tous les deux mois. Évidemment qu’ils ont peur de ça, d’autant plus quand ces scandales-là ont maintenant des conséquences juridiques qui leur font de plus en plus peur ; pas encore très peur, mais on vient et c’est là où l’espoir peut être dans le futur. On a des armes pour leur faire peur qu’on a déjà commencées à mettre en action. On reviendra en détail sur ça je pense.<br />
<br />
<b>Nadia Daam : </b>Il y a une avancée majeure, peut-être pas à l’échelle mondiale, mais en tout cas européenne, c’est le RGPD [Réglement général de protection des donnéEs] qui renforce le droit des internautes européens, qui met en place plusieurs obligations pour les entreprises. Sur le papier ça a l’air d’être une révolution, mais il y a un sondage qui dit que 80 % des internautes cliquent sur le bouton « tout accepter ». Aloïs Brunel, c’est la preuve que dans les mentalités, les automatismes n’ont pas encore évolué tant que ça ou pas suffisamment.<br />
<br />
<b>Aloïs Brunel : </b>Je parle en tant qu’internaute moi-même, je crois qu’aujourd’hui on est sensibilisé au fait que des données, nos données personnelles sont utilisées à des fins mercantiles, on ne sait même pas exactement bien comment elles sont utilisées. Je crois que d’une part on est tous, moi le premier, un peu feignants sur ces choses-là, on a envie d’utiliser ces services.<br />
<br />
<b>Nadia Daam : </b>C’est de la paresse ?<br />
<br />
<b>Aloïs Brunel : </b>Je pense que d’une part il y a une partie de paresse, je pense qu’on a envie de continuer à utiliser ces services.<br />
<br />
<b>Nadia Daam : </b>On a envie d’aller vite.<br />
<br />
<b>Aloïs Brunel : </b>Et on se dit « je vais tout accepter » parce que c’est la quinzième fois qu’on me demande si je veux modifier les paramètres de navigation sur tel ou tel site. Et puis, d’un autre côté, il est vrai aussi qu’un certain nombre de sites ont mis en place ces formulaires d’une manière qui est mauvaise dans le sens où elle ne propose pas un bon choix à l’utilisateur. On dit « tout accepter », il n’y a pas d’autre bouton qui nous dit « ne rien accepter », ou alors ça devient extrêmement compliqué d’aller chercher dans les paramètres qui vont permettre de désactiver telle ou telle fonctionnalité et ça, effectivement, c’est un vrai problème.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Je ne pense pas que ce soit de la paresse, je pense que ce n’est vraiment pas notre faute en tant qu’utilisateurs et utilisatrices. On est victimes de ça, on n’est pas du tout co-auteurs on est juste des victimes. Qu’est-ce qui se passe ? Pourquoi on clique sur « tout accepter » ? Pourquoi on se fait surveiller comme ça alors qu’en théorie on devrait avoir un certain contrôle sur ce qui nous arrive?<br/><br />
En théorie parce que la plupart des sites internet ou des applications de téléphone que vous visitez, violent le droit sans aucun souci, soit parce qu’elles ne demandent pas votre consentement, elles font ce qu’elles ont envie faire et s'en vont le faire, soit elles se contentent d’un consentement implicite. C’est par exemple ce que vous avez sur les sites de presse comme <em>Le Monde</em> ou <em>Le Figaro</em> : vous avez un petit bandeau en bas qui dit « si vous continuez à utiliser ce site vous acceptez toutes nos conditions et c’est comme ça ! »<br />
<br />
<b>Nadia Daam : </b>Et qu’est-ce que ça implique de cliquer « oui » ?<br />
<br />
<b>Arthur Messaud : </b>Il n’y a même pas de « oui », il n’y a même pas de bouton. Dans ce cas-là il n’y a pas de bouton et c’est juste en continuant de visiter le site, en cliquant sur un lien, en scrollant donc en descendant sur la page, ils considèrent que ça c’est un consentement valable.<br />
<br />
<b>Nadia Daam : </b>Que c’est acquis.<br />
<br />
<b>Arthur Messaud : </b>On reviendra là-dessus, ce en quoi ce n’est pas valable. Et le dernier point, c’est ce qu’on retrouve souvent sur les applications de téléphone, au moment d’installer l’application je refais <em>FaceApp</em>, ils vous disent : « On va surveiller tout ce que vous faites, utiliser vos images pour ce qu’on veut. Vous acceptez ? » Oui. Très bien. Si vous refusez vous ne pouvez pas accéder à l’application. C’est souvent, en fait, vu comme une monnaie : les données personnelles, notre vie privée, nos libertés fondamentales dans ce cas-là sont considérées comme une monnaie par ces entreprises-là qui disent : « Si vous voulez accéder à notre service, à notre bien vous devez payer avec une liberté fondamentale ». Il se trouve heureusement que le RGPD et le droit intérieur d’ailleurs, le droit européen dans son ensemble, condamnent cette vision des choses. Les données personnelles ne sont pas une marchandise.<br />
<br />
<b>Nadia Daam : </b>Il y a eu des condamnations sérieuses de sociétés ? Lesquelles ?<br />
<br />
<b>Arthur Messaud : </b>Oui, bien sûr. Déjà en janvier dernier il y a eu une première condamnation de la CNIL contre Google qui traitait surtout l’aspect explicite du consentement, mais avant il y avait eu une condamnation il me semble de <em>Teemo</em> ; il y avait aussi eu une condamnation de Linkedin aussi par la CNIL qui revenait sur cette notion de consentement libre. Notre consentement n’est pas libre, n’est pas valide, s’il est donné sous la contrainte de ne pas accéder à un service ou à un bien. Donc on a des condamnations de la CNIL, on a des jurisprudentielles d’autorités européennes tout à faite explicites et stables et cette philosophie est vraiment au cœur du droit européen des données personnelles : les données personnelles ne sont pas des marchandises parce que, c’est une liberté fondamentale, si elles étaient dans le commerce elles pourraient être marchandées et tous les gens qui ne sont pas très riches iraient les vendre. C’est ce qui se passe sur Facebook : sur Facebook on vend notre liberté fondamentale pour accéder « gratuitement » à un service. En fait, dans ce monde-là, il n’y a plus que les riches qui peuvent se payer un accès payant à Gmail pour que leurs mails ne soient pas surveillés.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias, le <em>think tank</em> Génération Libre auquel vous appartenez a proposé dans un rapport très controversé, je le disais en début d’émission, d’instaurer un droit de propriété des données personnelles. Concrètement ça veut dire que le citoyen peut avoir le droit de vendre ses données ou de les garder et ça se monétise pour le coup. C’est ça ? C’est la marchandisation des données ?<br />
<br />
==19’ 24==<br />
<br />
<b>Édouard Fillias : </b>Il y a trois stratégies pour répondre à la question du consentement, du pacte softien que j’évoquais tout à l’heure en référence, évidemment, à Faust.<br/><br />
La première c’est la stratégie je dirais collectiviste, qui est de dire « on crée une agence nationale de protection des données des citoyens », une stratégie un peu dictatoriale, un peu à la russe. Bon, OK ! Admettons. On considère que c’est une souveraineté numérique de contrôler nos données. Évidemment c’est un système qui nous est profondément étranger parce que ça reviendrait à donner tous les pouvoirs à l’État. D’ailleurs c’est un peu le sens de la lutte que vous menez contre le super fichier TES [fichier des titres électroniques sécurisés] et nous sommes solidaires.<br />
<br />
<b>Nadia Daam : </b>Donc Arthur Messaud avec La Quadrature du Net.<br />
<br />
<b>Édouard Fillias : </b>Voilà. La deuxième stratégie c’est celle de la CNIL, c’est de défendre des droits individuels et donc de porter plainte contre les entreprises, les États, quand ils abusent de ces droits, au nom de droits bien définis. On voit que c’est une stratégie qui, aujourd’hui, tente de fonctionner mais qui en réalité ne fonctionne pas vraiment. C’est d’ailleurs ce que vous disiez, en fait, on vide l’océan avec une petite cuillère.<br />
<br />
<b>Nadia Daam : </b>C’est-à-dire que les entreprises ont toujours un coup d’avance.<br />
<br />
<b>Édouard Fillias : </b>Bien sûr. Elles ont toujours un coup d’avance et elles auront de plus en plus un coup d’avance. Et je crois que c’est tellement tentant cette pierre philosophale de l’intelligence artificielle absolue qui nous contrôle et en réalité, on le sait aujourd’hui, que les possibilités de l’IA pour nous contrôler et nous orienter sont immenses. On est au début du croisement entre les neurosciences, les sciences de l’IA, du Nudge qui sont l’étude des comportements.<br />
<br />
<b>Arthur Messaud : </b>Bingo ! Des mots à la mode !<br />
<br />
<b>Édouard Fillias : </b>Et dernier point, la dernière stratégie c’est celle de la liberté, de la responsabilité individuelle. C’est celle qu’on appelle le droit de patrimonialité des données. C’est-à-dire que chaque individu se voit recevoir une extension de ses droits individuels, de ses libertés individuelles, sur ses propres données. Votre travail est votre propriété, c’est le fruit de vous-même, c’est une extension de vous, c’est reconnu dans la déclaration des droits et c’est inaliénable, c’est le droit de propriété.<br />
<br />
<b>Nadia Daam : </b>Et il en irait de même pour mes données ?<br />
<br />
<b>Édouard Fillias : </b>Il en irait de même pour vos données. On s’inspire Jaron Lanier là-dessus, qui ne vous est pas étranger puisque c’est un des papes de la réalité virtuelle et d’Internet qui, dans un papier de référence à Standford explique <em>Should We Treat Data as Labor? </em>, « est-ce qu’on doit considérer les données comme du travail ? » Et sa réponse est évidemment oui. L’idée c’est exactement comme les droits à polluer par exemple en matière de gestion des champs environnementaux, c’est de donner des droits à chacun de vendre ou de ne pas vendre ses données. C’est-à-dire qu’au lieu de signer des contrats, pseudos contrats qu’en fait personne ne lit, qui sont donc léonins de ce fait, eh bien on vous demanderait : « Est-ce que vous souhaitez ou non commercialiser vos données pour accéder à ce service ? » Ce serait une demande qui serait explicitement formalisée par l’application numérique que vous utiliseriez et vous répondriez oui ou non.<br />
<br />
<b>Nadia Daam : </b>Sommes-nous tous égaux quand cette proposition est faite ? Il n’y a pas le risque de créer une société à deux vitesses : on aurait seuls les riches qui pourraient se permettre le luxe, s’offrir le luxe de conserver leurs données et les plus pauvres qui seraient obligés de les brader ?<br />
<br />
<b>Édouard Fillias : </b>Déjà Facebook nous arnaque déjà en réalité. Parce que l’accès à un pseudo service gratuit en échange de données, échange qui d’ailleurs n’est pas en réalité formalisé, c’est-à-dire que les gens n’en ont pas conscience ; c’est d’ailleurs pour ça que j’ai écrit de ce <em>Manuel de survie sur internet</em>. C’est pour essayer d’instruire chacun des véritables enjeux derrière les applications. Les gens n’ont pas conscience un, de donner leurs données et deux, en réalité ils se font avoir parce que les données qu’ils donnent à Facebook valent beaucoup plus que l’accès gratuit au service.<br />
<br />
<b>Nadia Daam : </b>Vous ne répondez pas à ma question.<br />
<br />
<b>Édouard Fillias : </b>Quelle est votre question ? Pardon.<br />
<br />
<b>Nadia Daam : </b>Je vous demandais est-ce qu’on est tous égaux face à ce que vous proposez ?<br />
<br />
<b>Édouard Fillias : </b>Non. C’est-à-dire que certaine données valent plus cher que d’autres. Des personnes qui ont un très fort pouvoir d’achat et qui sont par exemple obsédées de voitures, mettons de luxe, évidemment les données de ces personnes auront beaucoup plus de valeur pour un vendeur de voitures de luxe à un instant t . Mais on est en train de faire des modélisations économétriques de la valeur moyenne de ces données pour chaque Français et par catégorie de population. On fait ça avec l’École d’économie de Toulouse, la Toulouse School of Economics, et on publiera nos résultats en septembre-octobre. C’est plusieurs dizaines d’euros par mois que chaque Français peut recevoir.<br />
<br />
<b>Arthur Messaud : </b>Oui, que vous dites !<br />
<br />
<b>Édouard Fillias : </b>Non.<br />
<br />
<b>Arthur Messaud : </b>C’est une moyenne que vous faites.<br />
<br />
<b>Édouard Fillias : </b>Une moyenne pour les Français, plusieurs dizaines de revenus par mois de revenus additionnels en échange de l’utilisation des grands services numériques qui existent aujourd’hui.<br/><br />
Évidemment si vous êtes quelqu’un à très fort pouvoir d’achat ça peut être plus. Si, au contraire, vous snobez complètement Internet et que vous êtes un profil réfractaire, évidemment vous n’en tirerez aucun profit. C’est l’idée que vous soyez responsabilisé face à l’utilisation qui est faite de vos données. Encore une fois je le répète, si vous ne souhaitez pas vendre vos données vous pouvez ne pas le faire et ça, effectivement, c’est un vrai changement de philosophie, c’est un vrai changement de façon de voir. Je voudrais citer Proudhon pour conclure avant de céder la parole.<br />
<br />
<b>Nadia Daam : </b>Carrément !<br />
<br />
<b>Édouard Fillias : </b> « La propriété est la plus grande force révolutionnaire qui existe. C’est la propriété qui façonne les sociétés ». Nous proposons d’injecter de la propriété là où il n’y en a pas sur nos données.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Il dit aussi que c’est le vol la propriété. C’est assez délirant de citer Proudhon. Bref ! Là on voit clairement un modèle de société, vous l’avez bien vu, dans lequel les riches auront encore plus d’argent et les pauvres auront encore moins d’argent <br />
<br />
<b>Édouard Fillias : </b>Non. Ils auront plus d’argent aussi !<br />
<br />
<b>Nadia Daam : </b>Et plus de liberté.<br />
<br />
<b>Arthur Messaud : </b>Ils auront 25 centimes par mois.<br />
<br />
<b>Édouard Fillias : </b>Non, ils auront plusieurs dizaines d’euros.<br />
<br />
<b>Nadia Daam : </b>La question c’est aussi sur la liberté, le droit de pouvoir conserver ses données pour soi.<br />
<br />
<b>Arthur Messaud : </b>Honnêtement ce débat, moi je trouve qu’il n’y a pas besoin d’en parler mille ans, il vient apporter des solutions à un problème qui n’existe pas, qu’il n’y a pas. On ne voit pas très bien ce que ça essaie de corriger. On voit surtout que ça apporte beaucoup de problèmes, beaucoup de questions comme vous l’avez dit. Est-ce que tout le monde aura le même accès ? Est-ce qu’il n’y aura que les riches qui pourront accéder gratuitement au service sans être surveillés ? On l’a dit, en tout cas ce n’est pas l’état du droit. L’état du droit c’est « les données personnelles ne sont pas des marchandises ». Évidement qu’on est impatient ! On voit que les plus grosses entreprises continuent de violer la loi et ne sont pas sanctionnées out pas sanctionnées à un montant qui serait utile et efficace. Je comprends cette frustration mais la solution de Génération Libre n’apporte pas du tout de réponse à ce problème-là, vient juste rajouter d’autres problèmes, d’autres problèmes qui, de façon intellectuelle, sont intéressants à débattre, mais ce sont des problèmes très classiques entre ultralibéraux et personnes plus attachées aux libertés fondamentales classiques.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias. Et je voudrais retourner à Aloïs Brunel après.<br />
<br />
<b>Édouard Fillias : </b>Juste un point de philosophie de fond, parce là on touche le fond. Le Conseil d’État, et d’ailleurs l’Europe, s’oppose à ce type de législation parce qu’il considère effectivement que notre corps est une propriété inaliénable. <br />
<br />
<b>Nadia Daam : </b>Et qu’on serait donc dans la marchandisation qui est un encore un tabou absolu dans nos sociétés.<br />
<br />
<b>Édouard Fillias : </b>Nous on conteste cela. Nous pensons que la base d’une société libre est une société où chacun s’appartient et se possède. Par exemple chacun a le droit de décider si l’État, quand il prélève ses organes à sa mort, devra rémunérer ou pas sa famille ce qui aujourd’hui n’est pas le cas. L’État prélève les organes sans même l’autorisation, sans même demander vaguement l’autorisation à votre famille. Donc la meilleure forme de résistance à l’absolutisme de l’État et à la toute puissance de corporations qui ne seraient plus retenues par rien - on pourra parler des GAFA si vous voulez, parce que c’est un débat dans le débat - c’est d’affirmer que nous nous possédons nous-mêmes et si nous nous possédons nous-même, nous possédons nos données. Et ça c’est un point de doctrine de fond qui est effectivement appelé à évoluer. Il évoluera sur ce sujet-là, il évoluera sur les sujets de bioéthiques aussi.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Ça, ça ne répond à aucun problème. On va passer à autre chose, parce qu’on sait qu’on est en désaccord.<br />
<br />
<b>Nadia Daam : </b>On va écouter aussi Aloïs Brunel.<br />
<br />
<b>Arthur Messaud : </b>On comprend très bien votre logique, ça ne répond à aucun problème pratique. Là, le problème pratique en question c’est comment on fait pour que Google et Facebook respectent la loi. Ce que vous décrivez, la marchandisation des données, ce n’est jamais que ce que font déjà Google et Facebook aujourd’hui de façon implicite, mais ils le font déjà. Vous pensez qu’en étant explicite ça serait plu simple. Nous on pense que la priorité c’est de faire respecter la loi, d’ailleurs que ce soit votre loi de propriété ou la loi actuelle. Enfin, comme vous dites, il faut être propriétaire de son corps ça, c’est une pensée qui est assez ancienne, c’est une pensée qu’on a plutôt dépassée en Europe et dans d’autres pays, c’est la pensée dans laquelle on pouvait se mettre en esclavage soi-même pour rembourser une dette, dans laquelle on pouvait mettre en esclavage ses enfants, ses descendants, pour rembourser une dette, ce qui a créé une structure dans laquelle l’esclavagisme était assez normal ; là je parle plus de l’esclavagisme antique, pas tellement moderne. C’est clairement quelque chose qui est entièrement rejeté par nos philosophies modernes. Vous avez une philosophie qui revient beaucoup dans le passé. Nous on pense que ce n’est pas le bon chemin. On continuera d’être en désaccord sur cette idée de propriété de soi qui ne bénéficie qu’aux plus riches.<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel, votre société qu’est-ce qu’elle fait des informations, des données qu’elle reçoit ? Comment est-ce qu’elle les traite ? Où est-ce qu’elle les stocke ? Ce sont des données biométriques.<br />
<br />
<b>Aloïs Brunel : </b>Oui. Tout à fait. Déjà ce qu’il faut savoir de par la nature même de ce qu’on fait et des applications que font nos clients de nos technologies, on n’est pas voué, on n’a pas vocation à stocker des données personnelles genre l’âge, des informations sur telle ou telle personne, des identités. Ceci étant dit, nos systèmes qui analysent des images et des vidéos peuvent être amenés à voir, à certains moments, des informations biométriques ou des informations personnelles. Par exemple dans une caméra on peut voir des personnes et leur visage ; on peut éventuellement voir des plaques d’immatriculation. Je parlais tout à l’heure des plateaux repas, il se peut qu’il y ait une carte de crédit ou un badge qui soit posé sur le plateau repas.<br />
<br />
<b>Nadia Daam : </b>Donc c’est une somme d’informations.<br />
<br />
<b>Aloïs Brunel : </b>Tout ça ce sont des informations qui ne sont absolument pas utiles pour l’exploitation de nos systèmes, mais cela dit, qui peuvent, à un moment donné ou un autre, se retrouvées visualisées par une personne. Pour nous, ce qui est important de faire là-dedans, c’est de faire en sorte que ces données-là ne soient pas visibles pour des humains.<br />
<br />
<b>Nadia Daam : </b>Concrètement vous floutez ?<br />
<br />
<b>Aloïs Brunel : </b>Concrètement, en fait, on floute. C’est globalement ce qu’on fait. On va flouter des plaques d’immatriculation, des visages, les personnes entières, les cartes de crédit, pour que ces choses-là ne soient pas visibles à n’importe quel moment de la chaîne d’exploitation de ces images. En fait c’est même plus fort que ça, c’est-à-dire que ça c’est dans la vie des produits que l’on vend aux entreprises, mais ça crée même des opportunités pour nous puisque des entreprises viennent nous voir uniquement pour faire de l’anonymisation, pour se conformer au RGPD.<br />
<br />
<b>Nadia Daam : </b>En fait pour vous le RGPD a été une aubaine.<br />
<br />
<b>Aloïs Brunel : </b>En partie. Ce sont en partie des opportunités. C’est aussi des contraintes, mais ce sont aussi des opportunités parce que les entreprises cherchent à se conformer au RGPD, donc à anonymiser leurs données. Et pour ça, en fait paradoxalement l’intelligence artificielle peut-être utile puisqu’elle va détecter automatiquement tous ces objets et toutes ces données biométriques pour ensuite les flouter.<br />
<br />
<b>Nadia Daam : </b>On va continuer cette conversation juste après Renan Luce, <em>On s'habitue à tout</em>.<br />
<br />
<b>Pause musicale : </b><em>On s'habitue à tout</em>, Renan Luce.<br />
<br />
==32’ 45==<br />
<br />
<b>Nadia Daam : </b>C’était Renan Luce. À la programmation musicale Thierry Dupin.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em>. Nadia Daam sur France Inter.<br />
<br />
<b>Nadia Daam : </b>On s’intéresse donc à la protection de nos données personnelles. Je voudrais poser, transmettre une question très concrète d’un auditeur parce qu’il faut rester concret. C’est Marie qui nous demande si le fait d’opter pour la navigation privée suffit à la protéger. Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>C’est un bon début. Toutes ces petites astuces-là, sont bien à faire. Installer des extensions pour votre navigateur, par exemple uBlock Origin qui est très bien, ça ce sont de bonnes choses à faire. La navigation privée c’est plus pour se protéger des autres personnes qui utilisent l’ordinateur ; par exemple si son mari veut l’espionner, la navigation privée va la défendre de ça. Après, on ne va pas se mentir, des solutions contre des géants comme Facebook ou Google ou d’autres entreprises plus cachées, ne viendront pas de notre défense individuelle. Il faut se défendre collectivement par la loi, par la CNIL, par des actions de groupe. Malheureusement ces géants sont trop puissants techniquement pour qu’on puisse se défendre tout seul.<br />
<br />
<b>Nadia Daam : </b>On ne parle que de Google et de Facebook depuis tout à l’heure, c’est quelque chose effectivement de la responsabilité uniquement de ces grands GAFAM ou c’est quelque chose de plus global ?<br />
<br />
<b>Arthur Messaud : </b>Nnon, c’est complètement généralisé. D’abord Google et Facebook vendent un service à des clients qui sont extrêmement nombreux qui sont aussi fautifs. Les clients ça va être tous les sites Internet de presse qui relaient, enfin qui utilisent leurs traceurs et leurs outils d’espionnage. Ça va être toutes les marques, toutes les grandes marques de voitures, de voyages, qui font appel aux services de la publicité ciblée pour nous manipuler.<br />
<br />
<b>Nadia Daam : </b>C’est tentaculaire, Facebook, ce que vous êtes en train de dire.<br />
<br />
<b>Arthur Messaud : </b>Non, ce n’est pas Facebook qui est tentaculaire. C’est que cette question-là de surveillance économique de toute la population à des fins de manipulation économique concerne presque toutes les grosses boîtes, celles qui vendent, celles qui produisent, celles qui embauchent, que ce soit en France, aux États-Unis, partout dans le monde. Aujourd’hui comme un grand groupe comme Auchan, Monoprix qui fait de la pub sur Facebook ou de la pub ailleurs que sur Facebook en utilisant les outils de Facebook est complice de ce dévoiement de la société vers une logique de surveillance généralisée.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>D’abord je tiens à dire que la Quadrature du Net fait un travail remarquable, je suis d’ailleurs un donateur et un adhérent historique de ce mouvement. On a une divergence sur cette question, mais le travail est remarquable et utile. Je crois à la responsabilité individuelle. Le mot de passe le plus fréquent en France, c’est 1 2 3 4 5 6.<br />
<br />
<b>Nadia Daam : </b>On va parler des mots de passe <br />
<br />
<b>Édouard Fillias : </b>Ensuite c’est <em>I love you</em>. Ensuite c’est le prénom des enfants.<br />
<br />
<b>Nadia Daam : </b>Le prénom ou le nom du chat.<br />
<br />
<b>Édouard Fillias : </b>Attendez. On va dire qu’on va poursuivre devant la CDH Facebook et on n’est pas capable de se mettre un mot de passe avec une majuscule et une minuscule ? Donc il y a un problème de responsabilité.<br />
<br />
<b>Nadia Daam : </b>Mais comment vous l’expliquez ça ? Cette naïveté ?<br />
<br />
<b>Édouard Fillias : </b>Je pense qu’il y a un décalage entre le débat qu’on a aujourd’hui et la perception, l’acuité de la perception du caractère potentiellement dramatique que ces données manipulées peuvent avoir contre nous. On est en fait comme dans les prémisses du débat écologique. On est dans les années 60-70, on se rend compte qu’il va y avoir un sujet, mais on n’en pas en fait totalement conscience, ce qui se traduit par des comportements profondément irresponsables. Un enfant, par exemple, ne doit pas être seul sur Internet avant douze ans. On ne met pas une console de jeu dans les mains d’un enfant avant six ans.<br />
<br />
<b>Nadia Daam : </b>Qui dit ça ? Qui établit des règles ?<br />
<br />
<b>Édouard Fillias : </b>Serge Tisseron qui est un sociologue et un psychologue et qui a écrit là-dessus cette fameuse règle des « 3-6-9-12 ».<br />
<br />
<b>Nadia Daam : </b>La règle des « 3-6-9-12 », pas d’écran avant.<br />
<br />
<b>Édouard Fillias : </b>C’est quand même une règle de bon sens ! Combien d’enfants traînent devant Internet !<br />
<br />
<b>Arthur Messaud : </b>Moi j’étais petit.<br />
<br />
<b>Édouard Fillias : </b>Peut-être trop tôt alors Arthur ! Par ailleurs on voit sur Internet des photos des enfants qui sont laissées par les familles ; c’est juste inadmissible ; c’est inacceptable !<br />
<br />
<b>Nadia Daam : </b>Ça c’est le paradoxe. Les parents voudraient sensibiliser leurs enfants à ces problématiques et en même temps ils sont les premiers à leur créer une identité numérique en postant des photos.<br />
<br />
<b>Édouard Fillias : </b>Sur les réseaux sociaux. Absolument. Et là, pour le coup, ma spécialité professionnelle c’est la réputation numérique. Quand vous avez une trace numérique, qu’elle soit une trace sur un réseau social, une trace sur Google, etc., elle est gravée sur le chrome pour l’éternité. On ne se défait jamais d’une information qui est arrivée sur vous. Donc il est extrêmement important de sensibiliser les enfants dès l’école au fait que les réseaux sociaux c’est la rue. Un parent ne laisse ses enfants place de Clichy à minuit tout seuls !<br />
<br />
<b>Nadia Daam : </b>Qui le fait ?<br />
<br />
<b>Édouard Fillias : </b>Eh bien aujourd’hui personne ne le fait. Les hommes politiques sont d’une génération qui ne se sent pas directement concernée. Les nouvelles générations arrivent, probablement plus sensibles, je pense, à ces sujets de données. C’est modestement ce que j’ai essayé de faire avec ce <em>Manuel de survie sur Internet</em> qui, en 100 questions, essaie de baliser des conseils très concrets, très simples, par exemple installer les mises à jour de son système d’exploitation.<br />
<br />
<b>Nadia Daam : </b>Tiens, je ne l’ai pas fait !<br />
<br />
<b>Édouard Fillias : </b>Vous ne l’avez pas fait ! Personne ne le fait, c’est rasoir. Évidemment Arthur utilise Linux [GNU/Linux, NdT], donc...<br />
<br />
<b>Arthur Messaud : </b>Il est bien fait. Tout marche très bien.<br />
<br />
<b>Édouard Fillias : </b>Mais la plupart des gens sont sur Windows, donc vous mettez à jour votre système d’exploitation. Ce sont des choses très simples. C’est aussi avoir conscience des menaces. Il y a un vrai business aujourd’hui du trafic de la Carte Bleue sur le darknet vous trouvez des numéros de Cartes Bleues autant que vous voulez, vous trouvez des mots de passe. Allez sur le site HIBP [<em>Have I Been Pwned? </em>], tapez votre adresse mail et vous verrez tous les endroits où vous avez été hacké et où des données ont été likées sur vous. J’ai fait l’exercice moi-même il y a quelques mois, des données sur moi ont été volées sur Dailymotion, sur Linkedin, sur Facebook. Donc c‘est facile.<br />
<br />
<b>Nadia Daam : </b>C’est terrifiant !<br />
<br />
<b>Édouard Fillias : </b>Mais oui !<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Non ce n’est pas terrifiant. Ces cas en question, il faut voir dans le détail ; ce ne sont pas des choses systématiquement dramatiques. Juste je trouve que la comparaison avec l’écologie est très bonne et c’est là où notre désaccord idéologique apparaît de nouveau de façon très claire pour tous les auditeurs et auditrices. En écologie il y a deux positions. Il y a certaines personnes plutôt comme moi je le dis pour Internet vont défendre des solutions collectives, vont penser que les problèmes, qu’ils soient écologiques ou en matière de données personnelles, viennent de grands groupes et de grandes entreprises qui, voulant se faire encore plus d’argent, vont aggraver la situation de la collectivité, du monde entier. Et d’autres personnes qui pensent que le problème vient plus de situations individuelles, donc que les solutions soient individuelles : il faut prendre des douches courtes ; il faut trier ses déchets. Ce n’est pas aux entreprises de trier les déchets ! Ce n’est pas aux entreprises de réduire le plastique dans leurs produits ! Non, non ! C’est à nous petits individus.<br />
<br />
<b>Nadia Daam : </b>Des petits pas !<br />
<br />
<b>Arthur Messaud : </b>On devient tout d’un d’un coup auteurs de la propre situation dont on est en fait victimes.<br />
<br />
<b>Nadia Daam : </b>Et ça c’est faux ? On n’a pas aussi une forme de responsabilité ?<br />
<br />
<b>Arthur Messaud : </b>En matière d’écologie je ne sais pas parce que je ne suis pas expert sur la question.<br />
<br />
<b>Nadia Daam : </b>Non. Sur le sujet qui nous occupe aujourd’hui.<br />
<br />
<b>Arthur Messaud : </b>En matière de données personnelles.<br />
<br />
<b>Édouard Fillias : </b>Bien sûr que si ! Vous vous plaignez des bouteilles d’eau qu’on a en studio.Bien sûr que si vous êtes responsable !<br />
<br />
<b>Arthur Messaud : </b>En fait, en matière de données personnelles, la situation qui s’aggrave c’est-à-dire des manipulations politiques de plus en plus fréquentes, des fuites de données de plus en plus importantes, nous ne sommes pas responsables de ça, nous sommes simplement des victimes. Les responsables ce sont les grands groupes qui bénéficient de ces systèmes et dans ces grands groupes je veux bien mettre Radio France dedans, qui va faire de la publicité sur le site, qui va utiliser les outils de Facebook, de Google et d’autres, évidemment Facebook et Google, toutes ces personnes-là sont responsables et ce sont elles qu’il faut aller chercher, ce sont elles qu’il faut sanctionner et interdire<br />
<br />
<b>Nadia Daam : </b>On ne peut pas faire les deux : tordre le bras des grands groupes et modifier nos comportements ?<br />
<br />
<b>Arthur Messaud : </b>Si, un peu. Mais modifier vos comportements ne va pas changer grand-chose. Si ça vous fait plaisir bien. Protéger ses mots de passe parfois ça a de vrais intérêts pratiques, il n’y a pas de souci, mais c’est juste en surface, ça ne va pas changer grand-chose, vous n’allez pas aller très loin, vous n’allez pas beaucoup vous protéger parce qu’en face ils sont bien meilleurs que vous. S’ils veulent vous attaquer, vous aurez beau éviter d’aller sur Facebook, éviter d’avoir un smartphone, ce que je fais moi, par exemple ; ça ne change rien au fait qu’ils trouveront un moyen.<br />
<br />
<b>Nadia Daam : </b>Vous n’avez pas de téléphone !<br />
<br />
<b>Arthur Messaud : </b>Si j’ai un téléphone. Rien que ça, avoir un téléphone, c’est s’exposer beaucoup . En fait vous pourrez essayer de jouer au plus malin, vous ne serez pas les plus malins face à ces entreprises et encore moins face à l’État, si on rajoute les problèmes de surveillance de l’État. On reviendra après sur ça j’espère.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Tordre le bras, comme vous dites, de ces grands groupes, il faut se lever tôt le matin ! Il y a deux solutions : ou vous les taxez ou vous les disséquez, vous cassez leur oligopole, leur monopole et vous les découpez. Ce qui a été fait avec Standard Oil à une autre époque. Le problème c’est qu’aucune de ces deux stratégies ne fonctionne.<br/><br />
La première, la taxation, eh bien ils augmentent leurs prix, donc voilà c’est réglé. L’affaire Bruno Le Maire l’a illustré récemment.<br/><br />
La deuxième, on n’a tout simplement pas les arguments en droit parce que ce ne sont pas, en réalité, des entreprises en situation de monopole ; elles ont des concurrents. Et puis quelle législation s’appliquerait ? Ça serait l’américaine, pas l’européenne, ça ne marche pas !<br />
<br />
<b>Nadia Daam : </b>Si on en décapite une décapite une, il y en a peut-être dix qui repoussent derrière.<br />
<br />
<b>Édouard Fillias : </b>Exactement. En fait cette histoire n’a pas de fin parce que, de toute façon, si on arrivait mettons à couper la tête de Google, ce qui n’est pas du tout à mon avis quelque chose de souhaitable, eh bien naîtrait un autre Google aussitôt et même peut-être trois autres. Donc comment faire ? Il y a deux façons de faire. Celle que vous faites, celle qu’on essaie de faire aussi c’est-à-dire sensibiliser l’opinion publique. Faire comme ça se passe aussi aujourd’hui pour l’environnement, mettre la pression du consommateur sur la marque et ça ça marche. Et je peux vous le dire, les marques sont extrêmement sensibles à cette perception de leur image. On va voir apparaître dans les années qui viennent…<br />
<br />
<b>Nadia Daam : </b>Ce qu’on appelle le <em>Name and shame</em><br />
<br />
<b>Édouard Fillias : </b>Exactement. De confidentialité, de conformité des data qui sont utilisées sur nous. Je crois énormément que le marché va s’amender là-dessus.<br/><br />
La deuxième stratégie, j’y reviens, c’est celle de donner des responsabilités, des libertés individuelles., Responsabilité aux parents, je l’évoquais, mais aussi des libertés, le droit de patrimonialité. Ça, ça nous semble une façon raisonnable. D’ailleurs on a parlé à Facebook et Google de cette idée de droit de patrimonialité des données, ils ont tout à fait d’accord là-dessus.<br />
<br />
<b>Arthur Messaud : </b>Évidemment ! C’est évident !<br />
<br />
<b>Édouard Fillias : </b>C’est quelque chose qui pour eux peut être un progrès dans leur façon à eux d’assumer leurs responsabilités.<br />
<br />
<b>Nadia Daam : </b>Alois Brunel.<br />
<br />
==41’ 55==<br />
<br />
<b>Aloïs Brunel : </b>Je crois qu’il y a aussi un troisième point qui est intéressant, qui n’a pas été évoqué ici pour régler en partie ce problème, c’est qu’il y a une force qui est très importante pour toutes ces grandes entreprises, Facebook, Google, etc., c’est leur force de travail, c’est leurs employés. Eux misent tout là-dessus, ils les bichonnent, ils leur fournissent un environnement de travail qui est excellent et on a vu récemment que ces employés étaient de plus en plus sensibilisés à ces problématiques également. Des développeurs, chez Facebook, qui commencent à avoir des regrets qui se disent « je suis en train de participer à quelque chose... »<br />
<br />
<b>Nadia Daam : </b>De repentis, des renégats.<br />
<br />
<b>Aloïs Brunel : </b>Des repentis ou des gens, à l’intérieur, qui travaillent encore chez Facebook ou chez Google et qui se posent des questions. Je pense que cette force-là c’est une force de changement au sein de ces entreprises. Je pense qu’il y a une vraie responsabilité des entreprises, c’est vrai, il faut qu’elles se posent les questions éthiques qui vont bien. Je pense que les employés de ces entreprises sont très puissants en fait ; dans ces entreprises technologiques, ils sont puissants et il peuvent être force de pression.<br />
<br />
<b>Nadia Daam : </b>Vous pensez que la pression peut être mise et plus efficace de l’intérieur ?<br />
<br />
<b>Aloïs Brunel : </b>De l’intérieur ; je pense que oui.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud est hyper-sceptique.<br />
<br />
<b>Arthur Messaud : </b>Oui. Encore une fois c’est une petite solution pour des problèmes énormes. On ne va pas juste faire reposer les espoirs de l’humanité, tous nos espoirs communs, on ne va pas les faire reposer sur une dizaine de salariés qui auraient une éthique. Non, non ! Ces boîtes-là ce sont des boîtes qui sont là pour faire de l’argent, qui sont extrêmement puissantes, qui ont des monopoles sur plein de secteurs, elles ne sont pas là pour être éthiques, elles ne seront jamais éthiques. Je pense que personne n’est dupe quand on regarde Marc Zuckerberg et son air extrêmement détaché de tout ce qui peut exister d’humain, personne n’est dupe sur le fait qu’il n’a aucune éthique et que ses salariés, s’ils ont une éthique, ils iront justetravailler pour la concurrence qui n’aura pas beaucoup plus d’éthique en fait.<br />
<br />
<b>Nadia Daam : </b>Alois Brunel.<br />
<br />
<b>Aloïs Brunel : </b>Ce n’est pas vrai. Par exemple chez Google, ils ont réussi à faire abandonner un projet de collaborer avec l’armée américaine.<br />
<br />
<b>Arthur Messaud : </b>C’était un projet ignoble ! Heureusement qu’ils ont abandonné ça. Tous les autres projets qui sont un peu moins ignobles Google continue de les faire.<br />
<br />
<b>Aloïs Brunel : </b>C’est quand même la preuve qu’il y a une certaine puissance des employés au sein de l’entreprise. C’est la preuve qu’ils peuvent faire changer les choses.<br />
<br />
<b>Arthur Messaud : </b>C’est la preuve que les gens qui veulent du mal pour la société ont un minimum de décence, un tout petit peu !<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias, vous voulez réagir.<br />
<br />
<b>Édouard Fillias : </b>Je trouve que votre argument est un très bon argument Aloïs. Il y a un livre d’un prof de gestion, qui s’appelle Kjell Nordstrom, dont le titre <em>Talent Makes Capital Dance </em>, « Le talent domine le capital ». Pourquoi ? Parce qu’il n’y a jamais eu autant de capital dans notre société, il n’y a jamais eu autant d’argent pour faire simple.<br />
<br />
<b>Arthur Messaud : </b>Et aussi de pauvres !<br />
<br />
<b>Édouard Fillias : </b>Non, de moins en moins de pauvres ! Et il n’y a jamais eu aussi peu de talent, c’est-à-dire que le talent c’est la pierre philosophale, c’est le Graal. Aux États-Unis un développeur débutant gagne 150 000 euros par an, à 25 ans. Ce que vous dites, c’est-à-dire l’importance d’embarquer les gens dans des projets qui ont du sens, dans des projets qui sont respectueux est vitale dans des groupes dont les quelques milliers de salariés et pas des dizaines ont une influence évidemment décisive sur le cours des choses. Je crois d’ailleurs que c’est un mouvement qui dépasse la tech, c’est un mouvement général du capitalisme sur comment attirer les talents, comment faire avancer son entreprise en démontrant une implication, un sens, une utilité ; utilité que par ailleurs l’État a un peu renoncé à exercer dans nos sociétés. Je crois profondément que votre remarque est juste ; c’est une force de pression positive, ça n’est pas la seule mais c’en est une.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Après, pour revenir sur des solutions un peu plus réalistes, là le dilemme que vous posez : faut-il démanteler en plusieurs petites entreprises ou faut-il le taxer ?, eh bien c’est un faux dilemme, parce que évidemment plein d’autres solutions beaucoup plus classiques.<br />
<br />
<b>Nadia Daam : </b>Lesquelles ?<br />
<br />
<b>Arthur Messaud : </b>Comment on fait pour interdire par exemple un réseau de traite d’êtres humains. Il existe des réseaux de traite d’êtres humains qui achètent des humains pour les revendre, c’est quelque chose que légalement et moralement...<br />
<br />
<b>Édouard Fillias : </b>Tu ne peux pas comparer ça à Google ! Ce n’est pas sérieux !<br />
<br />
<b>Arthur Messaud : </b>On peut comparer. En fait Google, Facebook, aujourd’hui ce sont des entreprises qui violent le droit de façon quasiment explicite, qui ne s’en cachent même plus.<br />
<br />
<b>Nadia Daam : </b>Vous les mettez au même niveau que la traite d’êtres humains, pour comprendre.<br />
<br />
<b>Arthur Messaud : </b>Je ne mets pas au même niveau. Pourquoi je prenais cet exemple-là, parce que dans les deux cas on a une atteinte générale aux libertés fondamentales, on a une violation très claire de la loi, qui ne fait pas débat, et pourtant des commerces existent. Comment on fait pour lutter contre les pires trafiquants de drogue ou sur ces genres-là de trafics ? On ne dit pas : « On va mettre une taxe plus importante », on ne dit pas : « On va les démanteler en plusieurs structures ». Non ! On les interdit. Ce que font Google et Facebook c’est contraire à la loi. Il faut l’interdire.<br />
<br />
<b>Nadia Daam : </b>Comment est-ce qu’on interdit Google ou Facebook ? Qui décide et comment on agit ?<br />
<br />
<b>Arthur Messaud : </b>Il faut un peu de courage. La CNIL peut le faire. La CNIL peut sanctionner Google 4 milliards tous les six mois.<br />
<br />
<b>Nadia Daam : </b>La CNIL peut littéralement le faire.<br />
<br />
<b>Édouard Fillias : </b>Comment la CNIL pourrait-elle interdire Google ?<br />
<br />
<b>Arthur Messaud : </b>Un juge peut interdire. Un juge peut dire à Google : « Vous avez désormais interdiction sur le territoire français de faire tel et tel... »<br />
<br />
<b>Édouard Fillias : </b>C’est encore moins réaliste que le droit de patrimonialité des données qu’on réalise par ailleurs.<br />
<br />
<b>Nadia Daam : </b>Comment on le met en place ? Juste pour comprendre clairement comment cette interdiction peut se mettre en place ?<br />
<br />
<b>Arthur Messaud : </b>Littéralement aujourd’hui la CNIL a sanctionné Google de 50 millions d’euros d’amende, ce qui est une somme très faible par rapport à Google. Ce que pourrait faire la CNIL, je vais vous dire concrètement, c’est tous les six mois ils se réunissent, ils prennent un petit papier et ils écrivent « aujourd’hui, vu que Google n’a pas modifié son mode de fonctionnement, nous sanctionnons à 4 milliards d’euros », et tous les six mois ils refont ça. C’est vraiment quelque chose sur le papier qui peut arriver. Il n’y a absolument rien de surréaliste, ce n’est pas du tout de la science-fiction ; tout le droit a été écrit pour pouvoir faire ça.<br />
<br />
<b>Nadia Daam : </b>Pourquoi ce n’est pas fait dans ce cas-là si c’est si simple ?<br />
<br />
<b>Arthur Messaud : </b>Pourquoi ce n’est pas fait ? Parce que ce sont des problèmes politiques, ce sont de graves problèmes politiques. Regardez Cédric O, secrétaire d’État au numérique, quand il commente les propositions qu’on fait pour s’en prendre aux géants du Net, il dit à l’Assemblée nationale : « Les propositions de la Quadrature du Net sont très pertinentes, etc., mais ça serait un affront beaucoup trop brutal aux États-Unis et il y aurait des répercutions de la part de Trump sur notre économie ».<br />
<br />
<b>Nadia Daam : </b>La menace est réelle puisque ça a été formulé par le président américain.<br />
<br />
<b>Arthur Messaud : </b>Du coup on se laisse vider de notre économie, on se laisse vider de nos libertés fondamentales, on admet complètement qu’il n’y a plus rien à jouer, on baisse les bras alors qu’on s’est fait chier pour avoir un droit qui est bien construit, qui est bien carré pour nous défendre. En fait non ! Politiquement il n’y a aucune ambition et c’est ça qu’il faut dénoncer. Je ne dis pas que c’est au sein de la CNIL qu’il n’y a aucune ambition, c’est au sein du gouvernement, au sein de la CNIL il y a quand même une ambition plus importantes, mais de graves soucis à se faire.<br/><br />
Tout à l’heure j’expliquais que si vous allez sur un site Internet il y avait un petit bandeau cookie qui vous disait « en continuant à naviguer sur ce site vous acceptez tout et n’importe quoi, vous donnez votre consentement de façon implicite ». Ça c’est illégal depuis un an, depuis l’entrée en application du RGPD, c’est clairement illégal. Maintenant qui ne dit mot refuse. Le « qui ne dit mot consent » qui était un peu toléré dans le passé, maintenant est fini, c’est « qui ne dit mot refuse ». Seulement la CNIL, même si elle rend des décisions intéressantes contre Google ou autres, la CNIL s’est faite « lobbyiée » par le Geste, un syndicat qui réunit des éditeurs de presse et des services de pub, s’est faite « lobbyiée » assez victorieusement parlant parce qu’elle vient de décider, il y a un mois, que pendant encore un an sur Internet, votre consentement explicite n’était plus vraiment requis. Pendant un an encore « qui ne dit mot consent ».<br />
<br />
<b>Nadia Daam : </b>C’est-à-dire qu’ls ont fait un an de rab !<br />
<br />
<b>Arthur Messaud : </b>Ils ont fait un an de rab, alors que ce entreprises-là, ces sites-là avaient déjà eu trois ans de rab par le passé, depuis le vote du RGPD, donc c’est un an de plus dans lequel vous pouvez tranquillement violer la loi parce que, après tout, les petits sites français sont intéressants, alors même que Google, par contre, s’est fait sanctionner immédiatement. Tant mieux ! Du coup on a attaqué la CNIL devant le Conseil d’État en référé. On aura une audience mercredi contre la CNIL. On espère que ça remettra un peu de plomb dans la tête de la CNIL, parce que là ce que je vous décris comme modèle depuis le début, parce que si la CNIL est défaillante c’est sûr que les espoirs sont un peu plus faibles.<br />
<br />
<b>Édouard Fillias : </b>La CNIL que je connais bien, ils sont 60-70, un peu plus, une centaine.<br />
<br />
<b>Nadia Daam : </b>Face à Facebook, ça ne fait pas beaucoup !<br />
<br />
<b>Édouard Fillias : </b>Vous rigolez ! Ils disent eux-mêmes, la CNIL, qu’ils n’ont pas les moyens de contrôler ceux qu’ils sont censés contrôler en France. Donc de là à imaginer qu’ils vont taxer Google de quatre milliards par mois, ce qui aurait pour effet d’ailleurs que Google arrêterait de mettre à disposition ses services en France.<br />
<br />
<b>Arthur Messaud : </b>Mais c’est le but ! Ce sont des services qui violent nos libertés ! Il ne faut plus qu’ils soient là !<br />
<br />
<b>Édouard Fillias : </b>La question de fond, la question de base que vous posez aussi c’est pourquoi est-ce que l’Europe est devenue la colonie numérique des États-Unis ? Comment est-ce qu’on a pu en 20 ans perdre notre souveraineté, notre autonomie, notre destinée numérique ? Ça c’est une question qu’il faut poser à nos hommes politiques.<br />
<br />
<b>Nadia Daam : </b>Ils vous écoutent.<br />
<br />
<b>Édouard Fillias : </b>Qu’il faut poser à notre système d’innovation, de recherche, aux liens entre l’université et le business qui sont inexistants en France. La question que je voudrais qu’on pose c’est comment est-ce qu’on crée un Google, deux Google, dix Google en Europe ? Et là il faut se battre. Il faut prendre OVH plutôt qu ‘Amazon quand on est l’État.<br />
<br />
<b>Nadia Daam : </b>OVH qui est ?<br />
<br />
<b>Édouard Fillias : </b>Qui est une société d’hébergement française. Il y a des solutions politiques : par exemple un investissement massif dans un certain nombre de technologies comme l’intelligence artificielle où en France on est plutôt leader et d’ailleurs ce sont des sujets qui se pensent à l’échelle européenne et pas française. Donc il y a un vrai programme de reconquête de notre industrie, de notre technologie numérique. On a tous les atouts pour, car on a des ingénieurs d’un excellent niveau comme Aloïs.<br />
<br />
<b>Nadia Daam : </b>Et vous pointez du doigt Aloïs Brunel dans ce studio.<br />
<br />
<b>Édouard Fillias : </b>On a les moyens de se battre mais il faut accepter de se battre. Plutôt que de chercher à réglementer, interdire, taxer, etc., jouons le jeu de la compétition. Israël par exemple est un leader numérique. On peut imposer là-dessus un certain nombre de succès à nos partenaires et à être respectés du coup.<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel un dernier mot.<br />
<br />
<b>Aloïs Brunel : </b>Juste pour ajouter mon petit grain de sel à tout ça, je pense effectivement que c’est très important de construire des Google, des Facebook européens, mais d’un autre côté la régulation c’est bien. Je pense que le RGPD montre l’exemple au reste du monde et ça positionne l’Europe et nos entreprises aussi en leaders sur ces questions. Parce qu’au final, ce qu’on voit, c’est qu’aux États-Unis eux aussi commencent à se dire « on a peut être besoin d’un RGPD, nous aussi on a besoin de mettre des amendes à Facebook de cinq milliards », ce qu’ils ont fait. Je pense que la réglementation de temps en temps c’est quand même une bonne manière de se positionner en leaders.<br />
<br />
<b>Nadia Daam : </b>On approche de la fin de l’émission. J’ai encore une dernière question pour mes invités.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em> sur France Inter.<br />
<br />
<b>Nadia Daam : </b>La question rituelle du mois d’août : avec quelle personnalité vivante ou disparue, célèbre ou anonyme, vous aimeriez pourvoir débattre, Édouard Fillias ?<br />
<br />
<b>Édouard Fillias : </b>J’ai lu cet été <em>Terre des hommes</em> d’Antoine de Saint-Exupéry, donc je lui demanderais ce qu’il pense de notre époque. À mon avis il serait à la fois fasciné parce que c’est l’aventure, la nouveauté ; en même temps il se poserait la question de l’humanité et de nos libertés, de notre dignité. Voilà ! J’aimerais avoir cette discussion-là avec lui.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud ?<br />
<br />
<b>Arthur Messaud : </b>J’aimerais bien, enfin je rêve littéralement parfois dans mon sommeil que je débats à nouveau avec mes profs de droit que j’ai beaucoup aimés. S’ils m’entendent je serais ravi de débattre à nouveau avec eux. Je le fais parfois en public. Appelez-moi !<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel, même question.<br />
<br />
<b>Aloïs Brunel : </b>Moi j’aurais dit Mary Shelley qui est donc l’autrice de <em>Frankenstein</em>. Personnellement je suis très intéressé par tous les mouvements de transhumanisme, je suis assez fasciné par les avancées médicales, le génie génétique. Je suis aussi un peu horrifié parfois par ce qui se passe, bien sûr l’intelligence artificielle. On peut un peu se poser la question « est-ce qu’on n’est pas en train de créer plein de petits monstres, de Frankenstein, dans plein de domaines ? » En tout cas je serais assez intéressé de discuter3 avec elle qui a aussi vécu une révolution industrielle et voir comment elle voit le monde d’aujourd’hui.<br />
<br />
<b>Nadia Daam : </b>Merci à tous les trois et merci à l’équipe du <em>Débat de midi</em>. Lucie Lemarchand était à la réalisation ; à la technique Stéphane Baujat et Fabrice Desmas. Demain on se demandera à quoi ça rime d’être maire.</div>D Ohttps://wiki.april.org/index.php?title=Donn%C3%A9es_personnelles_:_sommes-nous_des_victimes_consentantes_-_Le_d%C3%A9bat_de_midi&diff=85550Données personnelles : sommes-nous des victimes consentantes - Le débat de midi2019-09-01T03:12:56Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Données personnelles : sommes-nous des victimes consentantes ? <br />
<br />
'''Intervenants :''' Arthur Messaud - Aloïs Brunel - Édouard Fillias - Nadia Daam<br />
<br />
'''Lieu :''' <em>Le débat de midi</em>, France Inter<br />
<br />
'''Date :''' août 2019<br />
<br />
'''Durée :''' 52 min 37<br />
<br />
'''[http://rf.proxycast.org/1603139209609093120/12440-12.08.2019-ITEMA_22123984-0.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceinter.fr/emissions/le-debat-de-midi/le-debat-de-midi-12-aout-2019 Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
Transcription : MO<br />
<br />
==Description==<br />
<br />
Au moins neuf Français sur dix estiment que leurs données personnelles doivent être mieux protégées, selon une étude Dolmen, Opinionway. Avec tout ce que nous semons en utilisant notre téléphone, notre ordinateur au quotidien, faisons-nous vraiment attention ? Est-ce que nous faisons tout pour protéger nos données ?<br />
<br />
==Transcription==<br />
<br />
<b>Nadia Daam : </b>Vous n’avez pas pu échapper à la déferlante de cheveux gris, de rides et de crânes dégarnis sur Facebook, Twitter ou encore Instagram. Un coup de vieux général permis par le tube de l’été numérique FaceApp, cette application mobile qui, à partir d’un simple selfie, vous permet de savoir à quoi vous ressemblerez dans 50 ans et qui a occupé anonymes et célébrités dans la joie et le détachement d’un mois de juillet, à peine perturbés par les mises en garde des associations de défense des droits des utilisateurs d’Internet et même par le Parti démocrate américain quand ils ont tenté, en vain, de siffler la fin de la récré. En consultant simplement les conditions d’utilisation, on comprend très vite que télécharger son selfie pour ricaner deux minutes c’est céder à l’entreprise un accès irrévocable et perpétuel aux photos concernées et prendre le risque de retrouver sa trombine en 4 X 3 sur une affiche vantant les mérites par exemple d’un monte-escalier ou encore imprimée sur le tract d’un parti politique. Ces avertissements n’ont pas empêché FaceApp de se hisser en tête des applications les plus téléchargées et c’est une insouciance qui interroge. Pourquoi, alors que 9 Français sur 10 se disent inquiets de la protection de leurs données personnelles, continue-t-on à donner des petits bouts de nous-même sans se faire des cheveux blancs ? Parce qu’on n’est pas à une contradiction près, on attend vos avis et vos réactions sur Twitter. Sommes-nous des fichés volontaires ? C’est la question qu’on se pose jusqu’à 13 heures.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em>. Nadia Daam sur France Inter.<br />
<br />
<b>Nadia Daam : </b>Et avec moi pour en débattre en direct j’accueille Aloïs Brunel. Bonjour.<br />
<br />
<b>Aloïs Brunel : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Merci d’être là. Vous êtes le fondateur de Deepomatic, c’est une plateforme de reconnaissance visuelle qui se définit comme le Shazam de l’image. En français et en deux mots ça veut dire quoi ?<br />
<br />
<b>Aloïs Brunel : </b>Ce que fait Deepomatic c’est simple, on édite et on commercialise un logiciel à destination des entreprises qui va leur permettre d’automatiser des tâches visuelles. Tâches visuelles ça peut être toutes sortes de choses par exemple de l‘encaissement dans les restaurants d’entreprise : vous allez à votre cantine, vous passez votre plateau repas en dessous d’une caméra ça détecte entrées, plat, dessert - Yoplait framboise - et ça vous encaisse. Ça peut être détecter des défauts dans des canalisations d’eau potable, ça peut être des péages sans barrière. C’est toutes sortes de choses.<br />
<br />
<b>Nadia Daam : </b>C’est plus clair comme ça, effectivement. Arthur Messaud, bonjour.<br />
<br />
<b>Arthur Messaud : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Vous êtes le juriste de l’association La Quadrature du Net, association de défense des droits et des libertés des citoyens sur Internet. Je vais vous demander votre avis tout à l’heure sur FaceApp. À vos côtés Édouard Fillias. Bonjour.<br />
<br />
<b>Édouard Fillias : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Bienvenue, vous avez publié, co-publié, un <em>Manuel de survie sur internet</em> aux Éditions Ellipses. Vous êtes également vice-président du <em>think tank</em> Génération Libre qui est à l’origine d’une proposition très controversée, on va en parler évidemment tout à l’heure. J’ai une première question pour bien comprendre : les données personnelles c’est ce qu’on sème avec les tablettes, nos téléphones, nos ordinateurs, mais est-ce que ça concerne tout le monde ? Ma mère, 68 ans, n’a pas de compte Facebook, pas de montre connectée, est-ce qu’elle laisse une empreinte numérique ? Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Si vous avez déjà mis une image, une photo de votre mère, de votre grand-mère, si vous avez déjà parlé d’elle, si vous avez des relations par téléphone, par SMS, par mail, eh bien oui, elle rentre dedans.<br />
<br />
<b>Nadia Daam : </b>Elle a une existence numérique.<br />
<br />
<b>Arthur Messaud : </b>Elle a une existence numérique. Elle peut même avoir un compte fantôme, ce qu’on peut appeler sur Facebook un compte fantôme ce sont les gens qui ne sont pas inscrits sur Facebook mais qui sont quand même connus des services de Facebook, notamment pas les traceurs qu’on peut retrouver sur les sites de presse, traceurs qui ont été posés là volontairement par <em>Le Monde</em> ou <em>Le Figaro</em>, qui permettent à Facebook de savoir qui consulte quand, quel article. Et ça votre grand-mère, pour peu que sur son ordinateur elle passe sur un site du <em>Monde</em>, elle aura un compte fantôme.<br />
<br />
<b>Nadia Daam : </b>Ça suffit à lui créer une identité.<br/><br />
Édouard Fillias, pourquoi ces données sont aussi précieuses, à la fois pour les entreprises et aussi pour nous ? Pourquoi est-ce que c’est un sujet si actuel et important ?<br />
<br />
<b>Édouard Fillias : </b>Pour faire court, parce qu’il y a beaucoup de façons de répondre, ces données nourrissent des algorithmes qui permettent de cibler d’une part la communication publicitaire, ce à quoi elles servent principalement aujourd’hui - c’est le cœur de l’affaire Cambridge Analytica -, mais aussi plus profondément elles permettent de comprendre nos comportements donc de les anticiper, donc de les suggérer. Et les algorithmes du futur qui sont en train d’émerger aujourd’hui et qui s’expriment à travers des plateformes comme Alexa ou Amazon ou Facebook que vous citiez auront une capacité d’anticipation et d’orientation de nos comportements très avancée grâce à ces sommes de données colossales qui sont récupérées sur nous depuis maintenant plusieurs années voire plusieurs décennies en réalité. Et ce sont des données qu’on contrôle d’autant moins qu’on signe toute la journée, sans s’en rendre compte, des pactes softiens. On appelle ça chez Génération Libre des pactes softiens par référence au pacte kantien, évidemment. En fait, vous signez des contrats sans les lire, tout le temps, exactement ce que vous disiez sur FaceApp, mais ce n’est pas seulement FaceApp ; toutes les applications, tous les logiciels, tous les services numériques vous demandent de signer des contrats qui font parfois des dizaines de pages.<br />
<br />
<b>Nadia Daam : </b>Et qu’on ne consulte pas.<br />
<br />
<b>Édouard Fillias : </b>Jamais. Que vous ne consultez pas et dans lesquels vous déléguez des droits extrêmement importants sur vos données, des droits de conservation de ces données, des droits d’utilisation sans votre consultation, des droits d’utilisation parfois pour des fins politiques. Et ça, évidemment, ça pose un vrai problème fondamental de liberté individuelle. Est-ce que demain toutes ces données dont nous avons été dépossédés sans notre consentement explicite en réalité, seront utilisées contre nous, pour nous influencer ?<br />
<br />
<b>Nadia Daam : </b>On va définir ces notions de consentement explicite et éclairé juste après Macy Gray, <em>Big Brother</em>.<br />
<br />
<b>Pause musicale : </b><em>Big Brother</em>, Macy Gray.<br />
<br />
==9’ 00==<br />
<br />
<b>Nadia Daam : </b>C’était Macy Gray, une reprise très libre de <em>Big Brother</em> de, j’ai oublié, Stevie Wonder, je ne l’ai même pas reconnu ! Vous êtes sur France Inter et <em>Le débat de midi</em> se penche sur nos données personnelles. Promis, on vous les rend juste après. L’émission est préparée par Caroline Pomes.<br />
<br />
<b>Extrait du documentaire de <em>The Great Hack</em> : </b>Cambridge Analytica n’est pas seulement une entreprise de collecte des données. Elle ne se contente pas de mettre en place des algorithmes. Non. Il s’agit bien d’une véritable machine de propagande. Je devais trouver un moyen de récolter des données alors je suis allé voir des professeurs de l’université de Cambridge pour avoir leur avis.<br/><br />
Le scientifique Aleksandr Kogan nous a proposé une application Facebook qui avait l’autorisation de récolter non seulement les données de la personne qui utilisait l’appli en question mais qui avait aussi le pouvoir de s’introduire dans le cercle d’amis Facebook de la personne et d’en collecter également les données.<br/><br />
On a récolté les mises à jour de statuts, les <em>like</em> et même parfois les messages privés.<br/><br />
On ne ciblait pas seulement les gens en tant qu’électeurs on les ciblait pour leur personnalité.<br/><br />
L’avantage c’est qu’il nous suffisait de toucher seulement quelques centaines de milliers de personnes pour réussir à construire le profil psychologique de tous les électeurs américains.<br/><br />
<br />
— Et les gens ne savaient pas que leurs données étaient collectées ?<br />
<br />
-— Non. <br />
<br />
— Et à aucun moment vous ne vous êtes dit qu’il s’agissait d’informations à caractère privé ett que vous les utilisez sans le consentement des différentes personnes concernées ?<br />
<br />
— Non.<br />
<br />
<b>Nadia Daam : </b>C’était un extrait du documentaire de <em>The Great Hack</em> qui est disponible sur Netflix depuis fin juillet. On vient d’entendre le témoignage de Christopher Wylie c’est lui, entre autres, qui a révélé entre autres comment Cambridge Analytica s’était appropriée les données de 50 millions d’utilisateurs via Facebook. Arthur Messaud, cette affaire Cambridge Analytica montre aussi que les données sont convoitées par les entreprises, certes, mais aussi par les gouvernements ou les partis politiques.<br />
<br />
<b>Arthur Messaud : </b>Tout à fait. Cette affaire, Cambridge Analytica, c’est une caricature de ce qui existe aujourd’hui, de ce qui va exister de plus en plus et c’est un très bon révélateur pour réaliser qu’en fait toute la discussion qu’on a là c’est une discussion politique. On n’est pas en train de débattre pour défendre le consommateur contre des entreprises qui exploiteraient économiquement. Non ! Ces questions-là sont politiques. Cambridge Analityca est une affaire dans laquelle des personnes ont été surveillées de façon massive et de façon assez profonde - on a leur psychologie - pour exercer une influence politique sur des élections. Et ça, en fait, c’est ce qui arrive quotidiennement avec la publicité ciblée en ligne. Déjà la publicité de base, la publicité dans le métro a un rôle assez important de pousser à la consommation de voyages qui vont avoir un coût écologique énorme, de pousser à a la consommation d ‘iPhones qui ont un coût social énorme quand on sait dans quelles conditions les travailleurs sont exploités.<br />
<br />
<b>Nadia Daam : </b>En l’occurrence, il s’agit de ciblage, ces publicités dont vous parlez sont ciblées.<br />
<br />
<b>Arthur Messaud : </b>Ce n’est même plus le cas, là je parlais de la pub dans le métro. Mais quand elles deviennent ciblées elles ont un impact encore plus grand. Ça passe à une échelle assez délirante qui permet, en fait, de maintenir la société tout entière dans des conditions politiques favorables à certaines entreprises qui sont des conditions de consommation de masse, des conditions qui sont complètement contraires aux enjeux écologiques, aux enjeux sociaux et qu’il faut dénoncer. Cambridge Analytica a été très utile comme ça pour être une caricature : regardez, Trump, ce vilain Trump a été élu à cause des rouages de la publicité ciblée qui, en fait, nous manipule constamment toutes et tous et du coup nous concerne tous d’un point de vue politique.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Je pense que c’est un débat et qu’il faut quand même faire attention ; il ne faut pas sombrer dans le techno-scepticisme ou la techno-phobie. Les données qui sont collectées et la publicité ciblée parfois nous profitent, elles aident à améliorer…<br />
<br />
<b>Arthur Messaud : </b>Qui est « nous » là ?<br />
<br />
<b>Édouard Fillias : </b>Nous le citoyen, consommateur, individu. <br />
<br />
<b>Arthur Messaud : </b>Ah !<br />
<br />
<b>Édouard Fillias : </b>Par exemple la publicité ciblée permet de se débarrasser des publicités qui ne nous intéressent pas, des publicités ennuyantes, dont d’ailleurs on a subi sur Internet pendant des années l’extension. Enfin bref, vous voyez ce que je veux dire.<br />
<br />
<b>Nadia Daam : </b>Les popups.<br />
<br />
<b>Édouard Fillias : </b>Les popups, pour avoir un contenu plus intéressant pour l’utilisateur. Le vrai problème, celui d’ailleurs que vous combattez, c’est celui de l’abus du consentement, c’est-à-dire le fait que des données soient utilisées à notre insu en permanence pour nous influencer. Et c’est ça la vraie question, c’est comment est-ce qu’on contrôle le consentement ?<br />
<br />
<b>Nadia Daam : </b>Cette affaire Cambridge Analytica est-ce que c’est du vol ? Est-ce que c’est du pillage ? Est-ce que c’est du cambriolage puisque les données ont été siphonnées sans consentement explicite certes ? Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Facebook leur a donné accès à tout ça. Il n’y a pas de vol, il n’y a pas de bug, c’est Facebook qui leur a donné accès à ça.<br />
<br />
<b>Nadia Daam : </b>Ce que je veux dire c’est que c’est le modèle économique de ces entreprises, c’est le prix.<br />
<br />
<b>Arthur Messaud : </b>Oui, c’est le modèle économique dans lequel on vit aujourd’hui. Cambridge Analytica, ils y sont allés assez forts puisqu’ils sont allés sur le terrain politique, mais tout ça c’est normal. Dans le monde dans lequel on est c’est malheureusement normal et il faut le dénoncer.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Il faut être précis et je pense que ces données de Cambridge Analytica, qui ont été utilisées pour cette opération de propagande, sont des données, je crois, antérieures à 2012, une époque où l’API de Facebook permettait d’accéder à tout et n’importe quoi. Je le sais puisqu’à l’époque j’avais accès à n’importe quoi pour mes clients ce qui, d’ailleurs, me choquait, en réalité. Depuis Facebook a quand même énormément restreint l’accès de ses API de ses données d’ailleurs comme Linkedin avant lui.<br />
<br />
<b>Nadia Daam : </b>Les API ?<br />
<br />
<b>Édouard Fillias : </b>Les API ce sont des applications qui permettent d’exporter des données vers d’autres applications. Une API ouverte est une API où vous pouvez aller ramasser tout ce qui se dit, tout ce qui se passe sur Facebook par exemple. Et ça n’est pas plus le cas maintenant depuis quelques années : il y a des progrès, une prise de conscience a eu lieu, une prise de conscience d’ailleurs politique de la part des plateformes, mais c’est loin d’être suffisant.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud vous êtes sceptique. Il n’y a pas eu un avant et un après Cambridge Analytica ?<br />
<br />
<b>Arthur Messaud : </b>Non, non pas vraiment. En fait le droit évolue constamment, depuis bien dix ans, de façon assez rigoureuse sur ces sujets-là. Évidemment que Facebook et beaucoup d’entreprises font semblant de changer ou changent un peu parfois pour de vrai pour éviter que les scandales s’accumulent. Facebook, Google, si vous mettez ensemble les deux, vous avez un scandale par mois, un scandale tous les deux mois. Évidemment qu’ils ont peur de ça, d’autant plus quand ces scandales-là ont maintenant des conséquences juridiques qui leur font de plus en plus peur ; pas encore très peur, mais on vient et c’est là où l’espoir peut être dans le futur. On a des armes pour leur faire peur qu’on a déjà commencées à mettre en action. On reviendra en détail sur ça je pense.<br />
<br />
<b>Nadia Daam : </b>Il y a une avancée majeure, peut-être pas à l’échelle mondiale, mais en tout cas européenne, c’est le RGPD [Réglement général de protection des donnéEs] qui renforce le droit des internautes européens, qui met en place plusieurs obligations pour les entreprises. Sur le papier ça a l’air d’être une révolution, mais il y a un sondage qui dit que 80 % des internautes cliquent sur le bouton « tout accepter ». Aloïs Brunel, c’est la preuve que dans les mentalités, les automatismes n’ont pas encore évolué tant que ça ou pas suffisamment.<br />
<br />
<b>Aloïs Brunel : </b>Je parle en tant qu’internaute moi-même, je crois qu’aujourd’hui on est sensibilisé au fait que des données, nos données personnelles sont utilisées à des fins mercantiles, on ne sait même pas exactement bien comment elles sont utilisées. Je crois que d’une part on est tous, moi le premier, un peu feignants sur ces choses-là, on a envie d’utiliser ces services.<br />
<br />
<b>Nadia Daam : </b>C’est de la paresse ?<br />
<br />
<b>Aloïs Brunel : </b>Je pense que d’une part il y a une partie de paresse, je pense qu’on a envie de continuer à utiliser ces services.<br />
<br />
<b>Nadia Daam : </b>On a envie d’aller vite.<br />
<br />
<b>Aloïs Brunel : </b>Et on se dit « je vais tout accepter » parce que c’est la quinzième fois qu’on me demande si je veux modifier les paramètres de navigation sur tel ou tel site. Et puis, d’un autre côté, il est vrai aussi qu’un certain nombre de sites ont mis en place ces formulaires d’une manière qui est mauvaise dans le sens où elle ne propose pas un bon choix à l’utilisateur. On dit « tout accepter », il n’y a pas d’autre bouton qui nous dit « ne rien accepter », ou alors ça devient extrêmement compliqué d’aller chercher dans les paramètres qui vont permettre de désactiver telle ou telle fonctionnalité et ça, effectivement, c’est un vrai problème.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Je ne pense pas que ce soit de la paresse, je pense que ce n’est vraiment pas notre faute en tant qu’utilisateurs et utilisatrices. On est victimes de ça, on n’est pas du tout co-auteurs on est juste des victimes. Qu’est-ce qui se passe ? Pourquoi on clique sur « tout accepter » ? Pourquoi on se fait surveiller comme ça alors qu’en théorie on devrait avoir un certain contrôle sur ce qui nous arrive?<br/><br />
En théorie parce que la plupart des sites internet ou des applications de téléphone que vous visitez, violent le droit sans aucun souci, soit parce qu’elles ne demandent pas votre consentement, elles font ce qu’elles ont envie faire et s'en vont le faire, soit elles se contentent d’un consentement implicite. C’est par exemple ce que vous avez sur les sites de presse comme <em>Le Monde</em> ou <em>Le Figaro</em> : vous avez un petit bandeau en bas qui dit « si vous continuez à utiliser ce site vous acceptez toutes nos conditions et c’est comme ça ! »<br />
<br />
<b>Nadia Daam : </b>Et qu’est-ce que ça implique de cliquer « oui » ?<br />
<br />
<b>Arthur Messaud : </b>Il n’y a même pas de « oui », il n’y a même pas de bouton. Dans ce cas-là il n’y a pas de bouton et c’est juste en continuant de visiter le site, en cliquant sur un lien, en scrollant donc en descendant sur la page, ils considèrent que ça c’est un consentement valable.<br />
<br />
<b>Nadia Daam : </b>Que c’est acquis.<br />
<br />
<b>Arthur Messaud : </b>On reviendra là-dessus, ce en quoi ce n’est pas valable. Et le dernier point, c’est ce qu’on retrouve souvent sur les applications de téléphone, au moment d’installer l’application je refais <em>FaceApp</em>, ils vous disent : « On va surveiller tout ce que vous faites, utiliser vos images pour ce qu’on veut. Vous acceptez ? » Oui. Très bien. Si vous refusez vous ne pouvez pas accéder à l’application. C’est souvent, en fait, vu comme une monnaie : les données personnelles, notre vie privée, nos libertés fondamentales dans ce cas-là sont considérées comme une monnaie par ces entreprises-là qui disent : « Si vous voulez accéder à notre service, à notre bien vous devez payer avec une liberté fondamentale ». Il se trouve heureusement que le RGPD et le droit intérieur d’ailleurs, le droit européen dans son ensemble, condamnent cette vision des choses. Les données personnelles ne sont pas une marchandise.<br />
<br />
<b>Nadia Daam : </b>Il y a eu des condamnations sérieuses de sociétés ? Lesquelles ?<br />
<br />
<b>Arthur Messaud : </b>Oui, bien sûr. Déjà en janvier dernier il y a eu une première condamnation de la CNIL contre Google qui traitait surtout l’aspect explicite du consentement, mais avant il y avait eu une condamnation il me semble de <em>Teemo</em> ; il y avait aussi eu une condamnation de Linkedin aussi par la CNIL qui revenait sur cette notion de consentement libre. Notre consentement n’est pas libre, n’est pas valide, s’il est donné sous la contrainte de ne pas accéder à un service ou à un bien. Donc on a des condamnations de la CNIL, on a des jurisprudentielles d’autorités européennes tout à faite explicites et stables et cette philosophie est vraiment au cœur du droit européen des données personnelles : les données personnelles ne sont pas des marchandises parce que, c’est une liberté fondamentale, si elles étaient dans le commerce elles pourraient être marchandées et tous les gens qui ne sont pas très riches iraient les vendre. C’est ce qui se passe sur Facebook : sur Facebook on vend notre liberté fondamentale pour accéder « gratuitement » à un service. En fait, dans ce monde-là, il n’y a plus que les riches qui peuvent se payer un accès payant à Gmail pour que leurs mails ne soient pas surveillés.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias, le <em>think tank</em> Génération Libre auquel vous appartenez a proposé dans un rapport très controversé, je le disais en début d’émission, d’instaurer un droit de propriété des données personnelles. Concrètement ça veut dire que le citoyen peut avoir le droit de vendre ses données ou de les garder et ça se monétise pour le coup. C’est ça ? C’est la marchandisation des données ?<br />
<br />
==19’ 24==<br />
<br />
<b>Édouard Fillias : </b>Il y a trois stratégies pour répondre à la question du consentement, du pacte softien que j’évoquais tout à l’heure en référence, évidemment, à Faust.<br/><br />
La première c’est la stratégie je dirais collectiviste, qui est de dire « on crée une agence nationale de protection des données des citoyens », une stratégie un peu dictatoriale, un peu à la russe. Bon, OK ! Admettons. On considère que c’est une souveraineté numérique de contrôler nos données. Évidemment c’est un système qui nous est profondément étranger parce que ça reviendrait à donner tous les pouvoirs à l’État. D’ailleurs c’est un peu le sens de la lutte que vous menez contre le super fichier TES [fichier des titres électroniques sécurisés] et nous sommes solidaires.<br />
<br />
<b>Nadia Daam : </b>Donc Arthur Messaud avec La Quadrature du Net.<br />
<br />
<b>Édouard Fillias : </b>Voilà. La deuxième stratégie c’est celle de la CNIL, c’est de défendre des droits individuels et donc de porter plainte contre les entreprises, les États, quand ils abusent de ces droits, au nom de droits bien définis. On voit que c’est une stratégie qui, aujourd’hui, tente de fonctionner mais qui en réalité ne fonctionne pas vraiment. C’est d’ailleurs ce que vous disiez, en fait, on vide l’océan avec une petite cuillère.<br />
<br />
<b>Nadia Daam : </b>C’est-à-dire que les entreprises ont toujours un coup d’avance.<br />
<br />
<b>Édouard Fillias : </b>Bien sûr. Elles ont toujours un coup d’avance et elles auront de plus en plus un coup d’avance. Et je crois que c’est tellement tentant cette pierre philosophale de l’intelligence artificielle absolue qui nous contrôle et en réalité, on le sait aujourd’hui, que les possibilités de l’IA pour nous contrôler et nous orienter sont immenses. On est au début du croisement entre les neurosciences, les sciences de l’IA, du Nudge qui sont l’étude des comportements.<br />
<br />
<b>Arthur Messaud : </b>Bingo ! Des mots à la mode !<br />
<br />
<b>Édouard Fillias : </b>Et dernier point, la dernière stratégie c’est celle de la liberté, de la responsabilité individuelle. C’est celle qu’on appelle le droit de patrimonialité des données. C’est-à-dire que chaque individu se voit recevoir une extension de ses droits individuels, de ses libertés individuelles, sur ses propres données. Votre travail est votre propriété, c’est le fruit de vous-même, c’est une extension de vous, c’est reconnu dans la déclaration des droits et c’est inaliénable, c’est le droit de propriété.<br />
<br />
<b>Nadia Daam : </b>Et il en irait de même pour mes données ?<br />
<br />
<b>Édouard Fillias : </b>Il en irait de même pour vos données. On s’inspire Jaron Lanier là-dessus, qui ne vous est pas étranger puisque c’est un des papes de la réalité virtuelle et d’Internet qui, dans un papier de référence à Standford explique <em>Should We Treat Data as Labor? </em>, « est-ce qu’on doit considérer les données comme du travail ? » Et sa réponse est évidemment oui. L’idée c’est exactement comme les droits à polluer par exemple en matière de gestion des champs environnementaux, c’est de donner des droits à chacun de vendre ou de ne pas vendre ses données. C’est-à-dire qu’au lieu de signer des contrats, pseudos contrats qu’en fait personne ne lit, qui sont donc léonins de ce fait, eh bien on vous demanderait : « Est-ce que vous souhaitez ou non commercialiser vos données pour accéder à ce service ? » Ce serait une demande qui serait explicitement formalisée par l’application numérique que vous utiliseriez et vous répondriez oui ou non.<br />
<br />
<b>Nadia Daam : </b>Sommes-nous tous égaux quand cette proposition est faite ? Il n’y a pas le risque de créer une société à deux vitesses : on aurait seuls les riches qui pourraient se permettre le luxe, s’offrir le luxe de conserver leurs données et les plus pauvres qui seraient obligés de les brader ?<br />
<br />
<b>Édouard Fillias : </b>Déjà Facebook nous arnaque déjà en réalité. Parce que l’accès à un pseudo service gratuit en échange de données, échange qui d’ailleurs n’est pas en réalité formalisé, c’est-à-dire que les gens n’en ont pas conscience ; c’est d’ailleurs pour ça que j’ai écrit de ce <em>Manuel de survie sur internet</em>. C’est pour essayer d’instruire chacun des véritables enjeux derrière les applications. Les gens n’ont pas conscience un, de donner leurs données et deux, en réalité ils se font avoir parce que les données qu’ils donnent à Facebook valent beaucoup plus que l’accès gratuit au service.<br />
<br />
<b>Nadia Daam : </b>Vous ne répondez pas à ma question.<br />
<br />
<b>Édouard Fillias : </b>Quelle est votre question ? Pardon.<br />
<br />
<b>Nadia Daam : </b>Je vous demandais est-ce qu’on est tous égaux face à ce que vous proposez ?<br />
<br />
<b>Édouard Fillias : </b>Non. C’est-à-dire que certaine données valent plus cher que d’autres. Des personnes qui ont un très fort pouvoir d’achat et qui sont par exemple obsédées de voitures, mettons de luxe, évidemment les données de ces personnes auront beaucoup plus de valeur pour un vendeur de voitures de luxe à un instant t . Mais on est en train de faire des modélisations économétriques de la valeur moyenne de ces données pour chaque Français et par catégorie de population. On fait ça avec l’École d’économie de Toulouse, la Toulouse School of Economics, et on publiera nos résultats en septembre-octobre. C’est plusieurs dizaines d’euros par mois que chaque Français peut recevoir.<br />
<br />
<b>Arthur Messaud : </b>Oui, que vous dites !<br />
<br />
<b>Édouard Fillias : </b>Non.<br />
<br />
<b>Arthur Messaud : </b>C’est une moyenne que vous faites.<br />
<br />
<b>Édouard Fillias : </b>Une moyenne pour les Français, plusieurs dizaines de revenus par mois de revenus additionnels en échange de l’utilisation des grands services numériques qui existent aujourd’hui.<br/><br />
Évidemment si vous êtes quelqu’un à très fort pouvoir d’achat ça peut être plus. Si, au contraire, vous snobez complètement Internet et que vous êtes un profil réfractaire, évidemment vous n’en tirerez aucun profit. C’est l’idée que vous soyez responsabilisé face à l’utilisation qui est faite de vos données. Encore une fois je le répète, si vous ne souhaitez pas vendre vos données vous pouvez ne pas le faire et ça, effectivement, c’est un vrai changement de philosophie, c’est un vrai changement de façon de voir. Je voudrais citer Proudhon pour conclure avant de céder la parole.<br />
<br />
<b>Nadia Daam : </b>Carrément !<br />
<br />
<b>Édouard Fillias : </b> « La propriété est la plus grande force révolutionnaire qui existe. C’est la propriété qui façonne les sociétés ». Nous proposons d’injecter de la propriété là où il n’y en a pas sur nos données.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Il dit aussi que c’est le vol la propriété. C’est assez délirant de citer Proudhon. Bref ! Là on voit clairement un modèle de société, vous l’avez bien vu, dans lequel les riches auront encore plus d’argent et les pauvres auront encore moins d’argent <br />
<br />
<b>Édouard Fillias : </b>Non. Ils auront plus d’argent aussi !<br />
<br />
<b>Nadia Daam : </b>Et plus de liberté.<br />
<br />
<b>Arthur Messaud : </b>Ils auront 25 centimes par mois.<br />
<br />
<b>Édouard Fillias : </b>Non, ils auront plusieurs dizaines d’euros.<br />
<br />
<b>Nadia Daam : </b>La question c’est aussi sur la liberté, le droit de pouvoir conserver ses données pour soi.<br />
<br />
<b>Arthur Messaud : </b>Honnêtement ce débat, moi je trouve qu’il n’y a pas besoin d’en parler mille ans, il vient apporter des solutions à un problème qui n’existe pas, qu’il n’y a pas. On ne voit pas très bien ce que ça essaie de corriger. On voit surtout que ça apporte beaucoup de problèmes, beaucoup de questions comme vous l’avez dit. Est-ce que tout le monde aura le même accès ? Est-ce qu’il n’y aura que les riches qui pourront accéder gratuitement au service sans être surveillés ? On l’a dit, en tout cas ce n’est pas l’état du droit. L’état du droit c’est « les données personnelles ne sont pas des marchandises ». Évidement qu’on est impatient ! On voit que les plus grosses entreprises continuent de violer la loi et ne sont pas sanctionnées out pas sanctionnées à un montant qui serait utile et efficace. Je comprends cette frustration mais la solution de Génération Libre n’apporte pas du tout de réponse à ce problème-là, vient juste rajouter d’autres problèmes, d’autres problèmes qui, de façon intellectuelle, sont intéressants à débattre, mais ce sont des problèmes très classiques entre ultralibéraux et personnes plus attachées aux libertés fondamentales classiques.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias. Et je voudrais retourner à Aloïs Brunel après.<br />
<br />
<b>Édouard Fillias : </b>Juste un point de philosophie de fond, parce là on touche le fond. Le Conseil d’État, et d’ailleurs l’Europe, s’oppose à ce type de législation parce qu’il considère effectivement que notre corps est une propriété inaliénable. <br />
<br />
<b>Nadia Daam : </b>Et qu’on serait donc dans la marchandisation qui est un encore un tabou absolu dans nos sociétés.<br />
<br />
<b>Édouard Fillias : </b>Nous on conteste cela. Nous pensons que la base d’une société libre est une société où chacun s’appartient et se possède. Par exemple chacun a le droit de décider si l’État, quand il prélève ses organes à sa mort, devra rémunérer ou pas sa famille ce qui aujourd’hui n’est pas le cas. L’État prélève les organes sans même l’autorisation, sans même demander vaguement l’autorisation à votre famille. Donc la meilleure forme de résistance à l’absolutisme de l’État et à la toute puissance de corporations qui ne seraient plus retenues par rien - on pourra parler des GAFA si vous voulez, parce que c’est un débat dans le débat - c’est d’affirmer que nous nous possédons nous-mêmes et si nous nous possédons nous-même, nous possédons nos données. Et ça c’est un point de doctrine de fond qui est effectivement appelé à évoluer. Il évoluera sur ce sujet-là, il évoluera sur les sujets de bioéthiques aussi.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Ça, ça ne répond à aucun problème. On va passer à autre chose, parce qu’on sait qu’en est en désaccord.<br />
<br />
<b>Nadia Daam : </b>On va écouter aussi Aloïs Brunel.<br />
<br />
<b>Arthur Messaud : </b>On comprend très bien votre logique, ça ne répond à aucun problème pratique. Là, le problème pratique en question c’est comment on fait pour que Google et Facebook respectent la loi. Ce que vous décrivez, la marchandisation des données, ce n’est jamais que ce que font déjà Google et Facebook aujourd’hui de façon implicite, mais ils le font déjà. Vous pensez qu’en étant explicite ça serait plu simple. Nous on pense que la priorité c’est de faire respecter la loi, d’ailleurs que ce soit votre loi de propriété ou la loi actuelle. Enfin, comme vous dites, il faut être propriétaire de son corps ça, c’est une pensée qui est assez ancienne, c’est une pensée qu’on a plutôt dépassée en Europe et dans d’autres pays, c’est la pensée dans laquelle on pouvait se mettre en esclavage soi-même pour rembourser une dette, dans laquelle on pouvait mettre en esclavage ses enfants, ses descendants, pour rembourser une dette, ce qui a créé une structure dans laquelle l’esclavagisme était assez normal ; là je parle plus de l’esclavagisme antique, pas tellement moderne. C’est clairement quelque chose qui est entièrement rejeté par nos philosophies modernes. Vous avez une philosophie qui revient beaucoup dans le passé. Nous on pense que ce n’est pas le bon chemin. On continuera d’être en désaccord sur cette idée de propriété de soi qui ne bénéficie qu’aux plus riches.<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel, votre société qu’est-ce qu’elle fait des informations, des données qu’elle reçoit ? Comment est-ce qu’elle les traite ? Où est-ce qu’elle les stocke ? Ce sont des données biométriques.<br />
<br />
<b>Aloïs Brunel : </b>Oui. Tout à fait. Déjà ce qu’il faut savoir de par la nature même de ce qu’on fait et des applications que font nos clients de nos technologies, on n’est pas voué, on n’a pas vocation à stocker des données personnelles genre l’âge, des informations sur telle ou telle personne, des identités. Ceci étant dit, nos systèmes qui analysent des images et des vidéos peuvent être amenés à voir, à certains moments, des informations biométriques ou des informations personnelles. Par exemple dans une caméra on peut voir des personnes et leur visage ; on peut éventuellement voir des plaques d’immatriculation. Je parlais tout à l’heure des plateaux repas, il se peut qu’il y ait une carte de crédit ou un badge qui soit posé sur le plateau repas.<br />
<br />
<b>Nadia Daam : </b>Donc c’est une somme d’informations.<br />
<br />
<b>Aloïs Brunel : </b>Tout ça ce sont des informations qui ne sont absolument pas utiles pour l’exploitation de nos systèmes, mais cela dit, qui peuvent, à un moment donné ou un autre, se retrouvées visualisées par une personne. Pour nous, ce qui est important de faire là-dedans, c’est de faire en sorte que ces données-là ne soient pas visibles pour des humains.<br />
<br />
<b>Nadia Daam : </b>Concrètement vous floutez ?<br />
<br />
<b>Aloïs Brunel : </b>Concrètement, en fait, on floute. C’est globalement ce qu’on fait. On va flouter des plaques d’immatriculation, des visages, les personnes entières, les cartes de crédit, pour que ces choses-là ne soient pas visibles à n’importe quel moment de la chaîne d’exploitation de ces images. En fait c’est même plus fort que ça, c’est-à-dire que ça c’est dans la vie des produits que l’on vend aux entreprises, mais ça crée même des opportunités pour nous puisque des entreprises viennent nous voir uniquement pour faire de l’anonymisation, pour se conformer au RGPD.<br />
<br />
<b>Nadia Daam : </b>En fait pour vous le RGPD a été une aubaine.<br />
<br />
<b>Aloïs Brunel : </b>En partie. Ce sont en partie des opportunités. C’est aussi des contraintes, mais ce sont aussi des opportunités parce que les entreprises cherchent à se conformer au RGPD, donc à anonymiser leurs données. Et pour ça, en fait paradoxalement l’intelligence artificielle peut-être utile puisqu’elle va détecter automatiquement tous ces objets et toutes ces données biométriques pour ensuite les flouter.<br />
<br />
<b>Nadia Daam : </b>On va continuer cette conversation juste après Renan Luce, <em>On s'habitue à tout</em>.<br />
<br />
<b>Pause musicale : </b><em>On s'habitue à tout</em>, Renan Luce.<br />
<br />
==32’ 45==<br />
<br />
<b>Nadia Daam : </b>C’était Renan Luce. À la programmation musicale Thierry Dupin.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em>. Nadia Daam sur France Inter.<br />
<br />
<b>Nadia Daam : </b>On s’intéresse donc à la protection de nos données personnelles. Je voudrais poser, transmettre une question très concrète d’un auditeur parce qu’il faut rester concret. C’est Marie qui nous demande si le fait d’opter pour la navigation privée suffit à la protéger. Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>C’est un bon début. Toutes ces petites astuces-là, sont bien à faire. Installer des extensions pour votre navigateur, par exemple uBlock Origin qui est très bien, ça ce sont de bonnes choses à faire. La navigation privée c’est plus pour se protéger des autres personnes qui utilisent l’ordinateur ; par exemple si son mari veut l’espionner, la navigation privée va la défendre de ça. Après, on ne va pas se mentir, des solutions contre des géants comme Facebook ou Google ou d’autres entreprises plus cachées, ne viendront pas de notre défense individuelle. Il faut se défendre collectivement par la loi, par la CNIL, par des actions de groupe. Malheureusement ces géants sont trop puissants techniquement pour qu’on puisse se défendre tout seul.<br />
<br />
<b>Nadia Daam : </b>On ne parle que de Google et de Facebook depuis tout à l’heure, c’est quelque chose effectivement de la responsabilité uniquement de ces grands GAFAM ou c’est quelque chose de plus global ?<br />
<br />
<b>Arthur Messaud : </b>Nnon, c’est complètement généralisé. D’abord Google et Facebook vendent un service à des clients qui sont extrêmement nombreux qui sont aussi fautifs. Les clients ça va être tous les sites Internet de presse qui relaient, enfin qui utilisent leurs traceurs et leurs outils d’espionnage. Ça va être toutes les marques, toutes les grandes marques de voitures, de voyages, qui font appel aux services de la publicité ciblée pour nous manipuler.<br />
<br />
<b>Nadia Daam : </b>C’est tentaculaire, Facebook, ce que vous êtes en train de dire.<br />
<br />
<b>Arthur Messaud : </b>Non, ce n’est pas Facebook qui est tentaculaire. C’est que cette question-là de surveillance économique de toute la population à des fins de manipulation économique concerne presque toutes les grosses boîtes, celles qui vendent, celles qui produisent, celles qui embauchent, que ce soit en France, aux États-Unis, partout dans le monde. Aujourd’hui comme un grand groupe comme Auchan, Monoprix qui fait de la pub sur Facebook ou de la pub ailleurs que sur Facebook en utilisant les outils de Facebook est complice de ce dévoiement de la société vers une logique de surveillance généralisée.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>D’abord je tiens à dire que la Quadrature du Net fait un travail remarquable, je suis d’ailleurs un donateur et un adhérent historique de ce mouvement. On a une divergence sur cette question, mais le travail est remarquable et utile. Je crois à la responsabilité individuelle. Le mot de passe le plus fréquent en France, c’est 1 2 3 4 5 6.<br />
<br />
<b>Nadia Daam : </b>On va parler des mots de passe <br />
<br />
<b>Édouard Fillias : </b>Ensuite c’est <em>I love you</em>. Ensuite c’est le prénom des enfants.<br />
<br />
<b>Nadia Daam : </b>Le prénom ou le nom du chat.<br />
<br />
<b>Édouard Fillias : </b>Attendez. On va dire qu’on va poursuivre devant la CDH Facebook et on n’est pas capable de se mettre un mot de passe avec une majuscule et une minuscule ? Donc il y a un problème de responsabilité.<br />
<br />
<b>Nadia Daam : </b>Mais comment vous l’expliquez ça ? Cette naïveté ?<br />
<br />
<b>Édouard Fillias : </b>Je pense qu’il y a un décalage entre le débat qu’on a aujourd’hui et la perception, l’acuité de la perception du caractère potentiellement dramatique que ces données manipulées peuvent avoir contre nous. On est en fait comme dans les prémisses du débat écologique. On est dans les années 60-70, on se rend compte qu’il va y avoir un sujet, mais on n’en pas en fait totalement conscience, ce qui se traduit par des comportements profondément irresponsables. Un enfant, par exemple, ne doit pas être seul sur Internet avant douze ans. On ne met pas une console de jeu dans les mains d’un enfant avant six ans.<br />
<br />
<b>Nadia Daam : </b>Qui dit ça ? Qui établit des règles ?<br />
<br />
<b>Édouard Fillias : </b>Serge Tisseron qui est un sociologue et un psychologue et qui a écrit là-dessus cette fameuse règle des « 3-6-9-12 ».<br />
<br />
<b>Nadia Daam : </b>La règle des « 3-6-9-12 », pas d’écran avant.<br />
<br />
<b>Édouard Fillias : </b>C’est quand même une règle de bon sens ! Combien d’enfants traînent devant Internet !<br />
<br />
<b>Arthur Messaud : </b>Moi j’étais petit.<br />
<br />
<b>Édouard Fillias : </b>Peut-être trop tôt alors Arthur ! Par ailleurs on voit sur Internet des photos des enfants qui sont laissées par les familles ; c’est juste inadmissible ; c’est inacceptable !<br />
<br />
<b>Nadia Daam : </b>Ça c’est le paradoxe. Les parents voudraient sensibiliser leurs enfants à ces problématiques et en même temps ils sont les premiers à leur créer une identité numérique en postant des photos.<br />
<br />
<b>Édouard Fillias : </b>Sur les réseaux sociaux. Absolument. Et là, pour le coup, ma spécialité professionnelle c’est la réputation numérique. Quand vous avez une trace numérique, qu’elle soit une trace sur un réseau social, une trace sur Google, etc., elle est gravée sur le chrome pour l’éternité. On ne se défait jamais d’une information qui est arrivée sur vous. Donc il est extrêmement important de sensibiliser les enfants dès l’école au fait que les réseaux sociaux c’est la rue. Un parent ne laisse ses enfants place de Clichy à minuit tout seuls !<br />
<br />
<b>Nadia Daam : </b>Qui le fait ?<br />
<br />
<b>Édouard Fillias : </b>Eh bien aujourd’hui personne ne le fait. Les hommes politiques sont d’une génération qui ne se sent pas directement concernée. Les nouvelles générations arrivent, probablement plus sensibles, je pense, à ces sujets de données. C’est modestement ce que j’ai essayé de faire avec ce <em>Manuel de survie sur Internet</em> qui, en 100 questions, essaie de baliser des conseils très concrets, très simples, par exemple installer les mises à jour de son système d’exploitation.<br />
<br />
<b>Nadia Daam : </b>Tiens, je ne l’ai pas fait !<br />
<br />
<b>Édouard Fillias : </b>Vous ne l’avez pas fait ! Personne ne le fait, c’est rasoir. Évidemment Arthur utilise Linux [GNU/Linux, NdT], donc...<br />
<br />
<b>Arthur Messaud : </b>Il est bien fait. Tout marche très bien.<br />
<br />
<b>Édouard Fillias : </b>Mais la plupart des gens sont sur Windows, donc vous mettez à jour votre système d’exploitation. Ce sont des choses très simples. C’est aussi avoir conscience des menaces. Il y a un vrai business aujourd’hui du trafic de la Carte Bleue sur le darknet vous trouvez des numéros de Cartes Bleues autant que vous voulez, vous trouvez des mots de passe. Allez sur le site HIBP [<em>Have I Been Pwned? </em>], tapez votre adresse mail et vous verrez tous les endroits où vous avez été hacké et où des données ont été likées sur vous. J’ai fait l’exercice moi-même il y a quelques mois, des données sur moi ont été volées sur Dailymotion, sur Linkedin, sur Facebook. Donc c‘est facile.<br />
<br />
<b>Nadia Daam : </b>C’est terrifiant !<br />
<br />
<b>Édouard Fillias : </b>Mais oui !<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Non ce n’est pas terrifiant. Ces cas en question, il faut voir dans le détail ; ce ne sont pas des choses systématiquement dramatiques. Juste je trouve que la comparaison avec l’écologie est très bonne et c’est là où notre désaccord idéologique apparaît de nouveau de façon très claire pour tous les auditeurs et auditrices. En écologie il y a deux positions. Il y a certaines personnes plutôt comme moi je le dis pour Internet vont défendre des solutions collectives, vont penser que les problèmes, qu’ils soient écologiques ou en matière de données personnelles, viennent de grands groupes et de grandes entreprises qui, voulant se faire encore plus d’argent, vont aggraver la situation de la collectivité, du monde entier. Et d’autres personnes qui pensent que le problème vient plus de situations individuelles, donc que les solutions soient individuelles : il faut prendre des douches courtes ; il faut trier ses déchets. Ce n’est pas aux entreprises de trier les déchets ! Ce n’est pas aux entreprises de réduire le plastique dans leurs produits ! Non, non ! C’est à nous petits individus.<br />
<br />
<b>Nadia Daam : </b>Des petits pas !<br />
<br />
<b>Arthur Messaud : </b>On devient tout d’un d’un coup auteurs de la propre situation dont on est en fait victimes.<br />
<br />
<b>Nadia Daam : </b>Et ça c’est faux ? On n’a pas aussi une forme de responsabilité ?<br />
<br />
<b>Arthur Messaud : </b>En matière d’écologie je ne sais pas parce que je ne suis pas expert sur la question.<br />
<br />
<b>Nadia Daam : </b>Non. Sur le sujet qui nous occupe aujourd’hui.<br />
<br />
<b>Arthur Messaud : </b>En matière de données personnelles.<br />
<br />
<b>Édouard Fillias : </b>Bien sûr que si ! Vous vous plaignez des bouteilles d’eau qu’on a en studio.Bien sûr que si vous êtes responsable !<br />
<br />
<b>Arthur Messaud : </b>En fait, en matière de données personnelles, la situation qui s’aggrave c’est-à-dire des manipulations politiques de plus en plus fréquentes, des fuites de données de plus en plus importantes, nous ne sommes pas responsables de ça, nous sommes simplement des victimes. Les responsables ce sont les grands groupes qui bénéficient de ces systèmes et dans ces grands groupes je veux bien mettre Radio France dedans, qui va faire de la publicité sur le site, qui va utiliser les outils de Facebook, de Google et d’autres, évidemment Facebook et Google, toutes ces personnes-là sont responsables et ce sont elles qu’il faut aller chercher, ce sont elles qu’il faut sanctionner et interdire<br />
<br />
<b>Nadia Daam : </b>On ne peut pas faire les deux : tordre le bras des grands groupes et modifier nos comportements ?<br />
<br />
<b>Arthur Messaud : </b>Si, un peu. Mais modifier vos comportements ne va pas changer grand-chose. Si ça vous fait plaisir bien. Protéger ses mots de passe parfois ça a de vrais intérêts pratiques, il n’y a pas de souci, mais c’est juste en surface, ça ne va pas changer grand-chose, vous n’allez pas aller très loin, vous n’allez pas beaucoup vous protéger parce qu’en face ils sont bien meilleurs que vous. S’ils veulent vous attaquer, vous aurez beau éviter d’aller sur Facebook, éviter d’avoir un smartphone, ce que je fais moi, par exemple ; ça ne change rien au fait qu’ils trouveront un moyen.<br />
<br />
<b>Nadia Daam : </b>Vous n’avez pas de téléphone !<br />
<br />
<b>Arthur Messaud : </b>Si j’ai un téléphone. Rien que ça, avoir un téléphone, c’est s’exposer beaucoup . En fait vous pourrez essayer de jouer au plus malin, vous ne serez pas les plus malins face à ces entreprises et encore moins face à l’État, si on rajoute les problèmes de surveillance de l’État. On reviendra après sur ça j’espère.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Tordre le bras, comme vous dites, de ces grands groupes, il faut se lever tôt le matin ! Il y a deux solutions : ou vous les taxez ou vous les disséquez, vous cassez leur oligopole, leur monopole et vous les découpez. Ce qui a été fait avec Standard Oil à une autre époque. Le problème c’est qu’aucune de ces deux stratégies ne fonctionne.<br/><br />
La première, la taxation, eh bien ils augmentent leurs prix, donc voilà c’est réglé. L’affaire Bruno Le Maire l’a illustré récemment.<br/><br />
La deuxième, on n’a tout simplement pas les arguments en droit parce que ce ne sont pas, en réalité, des entreprises en situation de monopole ; elles ont des concurrents. Et puis quelle législation s’appliquerait ? Ça serait l’américaine, pas l’européenne, ça ne marche pas !<br />
<br />
<b>Nadia Daam : </b>Si on en décapite une décapite une, il y en a peut-être dix qui repoussent derrière.<br />
<br />
<b>Édouard Fillias : </b>Exactement. En fait cette histoire n’a pas de fin parce que, de toute façon, si on arrivait mettons à couper la tête de Google, ce qui n’est pas du tout à mon avis quelque chose de souhaitable, eh bien naîtrait un autre Google aussitôt et même peut-être trois autres. Donc comment faire ? Il y a deux façons de faire. Celle que vous faites, celle qu’on essaie de faire aussi c’est-à-dire sensibiliser l’opinion publique. Faire comme ça se passe aussi aujourd’hui pour l’environnement, mettre la pression du consommateur sur la marque et ça ça marche. Et je peux vous le dire, les marques sont extrêmement sensibles à cette perception de leur image. On va voir apparaître dans les années qui viennent…<br />
<br />
<b>Nadia Daam : </b>Ce qu’on appelle le <em>Name and shame</em><br />
<br />
<b>Édouard Fillias : </b>Exactement. De confidentialité, de conformité des data qui sont utilisées sur nous. Je crois énormément que le marché va s’amender là-dessus.<br/><br />
La deuxième stratégie, j’y reviens, c’est celle de donner des responsabilités, des libertés individuelles., Responsabilité aux parents, je l’évoquais, mais aussi des libertés, le droit de patrimonialité. Ça, ça nous semble une façon raisonnable. D’ailleurs on a parlé à Facebook et Google de cette idée de droit de patrimonialité des données, ils ont tout à fait d’accord là-dessus.<br />
<br />
<b>Arthur Messaud : </b>Évidemment ! C’est évident !<br />
<br />
<b>Édouard Fillias : </b>C’est quelque chose qui pour eux peut être un progrès dans leur façon à eux d’assumer leurs responsabilités.<br />
<br />
<b>Nadia Daam : </b>Alois Brunel.<br />
<br />
==41’ 55==<br />
<br />
<b>Aloïs Brunel : </b>Je crois qu’il y a aussi un troisième point qui est intéressant, qui n’a pas été évoqué ici pour régler en partie ce problème, c’est qu’il y a une force qui est très importante pour toutes ces grandes entreprises, Facebook, Google, etc., c’est leur force de travail, c’est leurs employés. Eux misent tout là-dessus, ils les bichonnent, ils leur fournissent un environnement de travail qui est excellent et on a vu récemment que ces employés étaient de plus en plus sensibilisés à ces problématiques également. Des développeurs, chez Facebook, qui commencent à avoir des regrets qui se disent « je suis en train de participer à quelque chose... »<br />
<br />
<b>Nadia Daam : </b>De repentis, des renégats.<br />
<br />
<b>Aloïs Brunel : </b>Des repentis ou des gens, à l’intérieur, qui travaillent encore chez Facebook ou chez Google et qui se posent des questions. Je pense que cette force-là c’est une force de changement au sein de ces entreprises. Je pense qu’il y a une vraie responsabilité des entreprises, c’est vrai, il faut qu’elles se posent les questions éthiques qui vont bien. Je pense que les employés de ces entreprises sont très puissants en fait ; dans ces entreprises technologiques, ils sont puissants et il peuvent être force de pression.<br />
<br />
<b>Nadia Daam : </b>Vous pensez que la pression peut être mise et plus efficace de l’intérieur ?<br />
<br />
<b>Aloïs Brunel : </b>De l’intérieur ; je pense que oui.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud est hyper-sceptique.<br />
<br />
<b>Arthur Messaud : </b>Oui. Encore une fois c’est une petite solution pour des problèmes énormes. On ne va pas juste faire reposer les espoirs de l’humanité, tous nos espoirs communs, on ne va pas les faire reposer sur une dizaine de salariés qui auraient une éthique. Non, non ! Ces boîtes-là ce sont des boîtes qui sont là pour faire de l’argent, qui sont extrêmement puissantes, qui ont des monopoles sur plein de secteurs, elles ne sont pas là pour être éthiques, elles ne seront jamais éthiques. Je pense que personne n’est dupe quand on regarde Marc Zuckerberg et son air extrêmement détaché de tout ce qui peut exister d’humain, personne n’est dupe sur le fait qu’il n’a aucune éthique et que ses salariés, s’ils ont une éthique, ils iront justetravailler pour la concurrence qui n’aura pas beaucoup plus d’éthique en fait.<br />
<br />
<b>Nadia Daam : </b>Alois Brunel.<br />
<br />
<b>Aloïs Brunel : </b>Ce n’est pas vrai. Par exemple chez Google, ils ont réussi à faire abandonner un projet de collaborer avec l’armée américaine.<br />
<br />
<b>Arthur Messaud : </b>C’était un projet ignoble ! Heureusement qu’ils ont abandonné ça. Tous les autres projets qui sont un peu moins ignobles Google continue de les faire.<br />
<br />
<b>Aloïs Brunel : </b>C’est quand même la preuve qu’il y a une certaine puissance des employés au sein de l’entreprise. C’est la preuve qu’ils peuvent faire changer les choses.<br />
<br />
<b>Arthur Messaud : </b>C’est la preuve que les gens qui veulent du mal pour la société ont un minimum de décence, un tout petit peu !<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias, vous voulez réagir.<br />
<br />
<b>Édouard Fillias : </b>Je trouve que votre argument est un très bon argument Aloïs. Il y a un livre d’un prof de gestion, qui s’appelle Kjell Nordstrom, dont le titre <em>Talent Makes Capital Dance </em>, « Le talent domine le capital ». Pourquoi ? Parce qu’il n’y a jamais eu autant de capital dans notre société, il n’y a jamais eu autant d’argent pour faire simple.<br />
<br />
<b>Arthur Messaud : </b>Et aussi de pauvres !<br />
<br />
<b>Édouard Fillias : </b>Non, de moins en moins de pauvres ! Et il n’y a jamais eu aussi peu de talent, c’est-à-dire que le talent c’est la pierre philosophale, c’est le Graal. Aux États-Unis un développeur débutant gagne 150 000 euros par an, à 25 ans. Ce que vous dites, c’est-à-dire l’importance d’embarquer les gens dans des projets qui ont du sens, dans des projets qui sont respectueux est vitale dans des groupes dont les quelques milliers de salariés et pas des dizaines ont une influence évidemment décisive sur le cours des choses. Je crois d’ailleurs que c’est un mouvement qui dépasse la tech, c’est un mouvement général du capitalisme sur comment attirer les talents, comment faire avancer son entreprise en démontrant une implication, un sens, une utilité ; utilité que par ailleurs l’État a un peu renoncé à exercer dans nos sociétés. Je crois profondément que votre remarque est juste ; c’est une force de pression positive, ça n’est pas la seule mais c’en est une.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Après, pour revenir sur des solutions un peu plus réalistes, là le dilemme que vous posez : faut-il démanteler en plusieurs petites entreprises ou faut-il le taxer ?, eh bien c’est un faux dilemme, parce que évidemment plein d’autres solutions beaucoup plus classiques.<br />
<br />
<b>Nadia Daam : </b>Lesquelles ?<br />
<br />
<b>Arthur Messaud : </b>Comment on fait pour interdire par exemple un réseau de traite d’êtres humains. Il existe des réseaux de traite d’êtres humains qui achètent des humains pour les revendre, c’est quelque chose que légalement et moralement...<br />
<br />
<b>Édouard Fillias : </b>Tu ne peux pas comparer ça à Google ! Ce n’est pas sérieux !<br />
<br />
<b>Arthur Messaud : </b>On peut comparer. En fait Google, Facebook, aujourd’hui ce sont des entreprises qui violent le droit de façon quasiment explicite, qui ne s’en cachent même plus.<br />
<br />
<b>Nadia Daam : </b>Vous les mettez au même niveau que la traite d’êtres humains, pour comprendre.<br />
<br />
<b>Arthur Messaud : </b>Je ne mets pas au même niveau. Pourquoi je prenais cet exemple-là, parce que dans les deux cas on a une atteinte générale aux libertés fondamentales, on a une violation très claire de la loi, qui ne fait pas débat, et pourtant des commerces existent. Comment on fait pour lutter contre les pires trafiquants de drogue ou sur ces genres-là de trafics ? On ne dit pas : « On va mettre une taxe plus importante », on ne dit pas : « On va les démanteler en plusieurs structures ». Non ! On les interdit. Ce que font Google et Facebook c’est contraire à la loi. Il faut l’interdire.<br />
<br />
<b>Nadia Daam : </b>Comment est-ce qu’on interdit Google ou Facebook ? Qui décide et comment on agit ?<br />
<br />
<b>Arthur Messaud : </b>Il faut un peu de courage. La CNIL peut le faire. La CNIL peut sanctionner Google 4 milliards tous les six mois.<br />
<br />
<b>Nadia Daam : </b>La CNIL peut littéralement le faire.<br />
<br />
<b>Édouard Fillias : </b>Comment la CNIL pourrait-elle interdire Google ?<br />
<br />
<b>Arthur Messaud : </b>Un juge peut interdire. Un juge peut dire à Google : « Vous avez désormais interdiction sur le territoire français de faire tel et tel... »<br />
<br />
<b>Édouard Fillias : </b>C’est encore moins réaliste que le droit de patrimonialité des données qu’on réalise par ailleurs.<br />
<br />
<b>Nadia Daam : </b>Comment on le met en place ? Juste pour comprendre clairement comment cette interdiction peut se mettre en place ?<br />
<br />
<b>Arthur Messaud : </b>Littéralement aujourd’hui la CNIL a sanctionné Google de 50 millions d’euros d’amende, ce qui est une somme très faible par rapport à Google. Ce que pourrait faire la CNIL, je vais vous dire concrètement, c’est tous les six mois ils se réunissent, ils prennent un petit papier et ils écrivent « aujourd’hui, vu que Google n’a pas modifié son mode de fonctionnement, nous sanctionnons à 4 milliards d’euros », et tous les six mois ils refont ça. C’est vraiment quelque chose sur le papier qui peut arriver. Il n’y a absolument rien de surréaliste, ce n’est pas du tout de la science-fiction ; tout le droit a été écrit pour pouvoir faire ça.<br />
<br />
<b>Nadia Daam : </b>Pourquoi ce n’est pas fait dans ce cas-là si c’est si simple ?<br />
<br />
<b>Arthur Messaud : </b>Pourquoi ce n’est pas fait ? Parce que ce sont des problèmes politiques, ce sont de graves problèmes politiques. Regardez Cédric O, secrétaire d’État au numérique, quand il commente les propositions qu’on fait pour s’en prendre aux géants du Net, il dit à l’Assemblée nationale : « Les propositions de la Quadrature du Net sont très pertinentes, etc., mais ça serait un affront beaucoup trop brutal aux États-Unis et il y aurait des répercutions de la part de Trump sur notre économie ».<br />
<br />
<b>Nadia Daam : </b>La menace est réelle puisque ça a été formulé par le président américain.<br />
<br />
<b>Arthur Messaud : </b>Du coup on se laisse vider de notre économie, on se laisse vider de nos libertés fondamentales, on admet complètement qu’il n’y a plus rien à jouer, on baisse les bras alors qu’on s’est fait chier pour avoir un droit qui est bien construit, qui est bien carré pour nous défendre. En fait non ! Politiquement il n’y a aucune ambition et c’est ça qu’il faut dénoncer. Je ne dis pas que c’est au sein de la CNIL qu’il n’y a aucune ambition, c’est au sein du gouvernement, au sein de la CNIL il y a quand même une ambition plus importantes, mais de graves soucis à se faire.<br/><br />
Tout à l’heure j’expliquais que si vous allez sur un site Internet il y avait un petit bandeau cookie qui vous disait « en continuant à naviguer sur ce site vous acceptez tout et n’importe quoi, vous donnez votre consentement de façon implicite ». Ça c’est illégal depuis un an, depuis l’entrée en application du RGPD, c’est clairement illégal. Maintenant qui ne dit mot refuse. Le « qui ne dit mot consent » qui était un peu toléré dans le passé, maintenant est fini, c’est « qui ne dit mot refuse ». Seulement la CNIL, même si elle rend des décisions intéressantes contre Google ou autres, la CNIL s’est faite « lobbyiée » par le Geste, un syndicat qui réunit des éditeurs de presse et des services de pub, s’est faite « lobbyiée » assez victorieusement parlant parce qu’elle vient de décider, il y a un mois, que pendant encore un an sur Internet, votre consentement explicite n’était plus vraiment requis. Pendant un an encore « qui ne dit mot consent ».<br />
<br />
<b>Nadia Daam : </b>C’est-à-dire qu’ls ont fait un an de rab !<br />
<br />
<b>Arthur Messaud : </b>Ils ont fait un an de rab, alors que ce entreprises-là, ces sites-là avaient déjà eu trois ans de rab par le passé, depuis le vote du RGPD, donc c’est un an de plus dans lequel vous pouvez tranquillement violer la loi parce que, après tout, les petits sites français sont intéressants, alors même que Google, par contre, s’est fait sanctionner immédiatement. Tant mieux ! Du coup on a attaqué la CNIL devant le Conseil d’État en référé. On aura une audience mercredi contre la CNIL. On espère que ça remettra un peu de plomb dans la tête de la CNIL, parce que là ce que je vous décris comme modèle depuis le début, parce que si la CNIL est défaillante c’est sûr que les espoirs sont un peu plus faibles.<br />
<br />
<b>Édouard Fillias : </b>La CNIL que je connais bien, ils sont 60-70, un peu plus, une centaine.<br />
<br />
<b>Nadia Daam : </b>Face à Facebook, ça ne fait pas beaucoup !<br />
<br />
<b>Édouard Fillias : </b>Vous rigolez ! Ils disent eux-mêmes, la CNIL, qu’ils n’ont pas les moyens de contrôler ceux qu’ils sont censés contrôler en France. Donc de là à imaginer qu’ils vont taxer Google de quatre milliards par mois, ce qui aurait pour effet d’ailleurs que Google arrêterait de mettre à disposition ses services en France.<br />
<br />
<b>Arthur Messaud : </b>Mais c’est le but ! Ce sont des services qui violent nos libertés ! Il ne faut plus qu’ils soient là !<br />
<br />
<b>Édouard Fillias : </b>La question de fond, la question de base que vous posez aussi c’est pourquoi est-ce que l’Europe est devenue la colonie numérique des États-Unis ? Comment est-ce qu’on a pu en 20 ans perdre notre souveraineté, notre autonomie, notre destinée numérique ? Ça c’est une question qu’il faut poser à nos hommes politiques.<br />
<br />
<b>Nadia Daam : </b>Ils vous écoutent.<br />
<br />
<b>Édouard Fillias : </b>Qu’il faut poser à notre système d’innovation, de recherche, aux liens entre l’université et le business qui sont inexistants en France. La question que je voudrais qu’on pose c’est comment est-ce qu’on crée un Google, deux Google, dix Google en Europe ? Et là il faut se battre. Il faut prendre OVH plutôt qu ‘Amazon quand on est l’État.<br />
<br />
<b>Nadia Daam : </b>OVH qui est ?<br />
<br />
<b>Édouard Fillias : </b>Qui et une société d’hébergement française. Il y a des solutions politiques : par exemple un investissement massif dans un certain nombre de technologies comme l’intelligence artificielle où en France on est plutôt leader et d’ailleurs ce sont des sujets qui se pensent à l’échelle européenne et pas française. Donc il y a un vrai programme de reconquête de notre industrie, de notre technologie numérique. On a tous les atouts pour, car on a des ingénieurs d’un excellent niveau comme Aloïs.<br />
<br />
<b>Nadia Daam : </b>Et vous pointez du doigt Aloïs Brunel dans ce studio.<br />
<br />
<b>Édouard Fillias : </b>On a les moyens de se battre mais il faut accepter de se battre. Plutôt que de chercher à réglementer, interdire, taxer, etc., jouons le jeu de la compétition. Israël par exemple est un leader numérique. On peut imposer là-dessus un certain nombre de succès à nos partenaires et à être respectés du coup.<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel un dernier mot.<br />
<br />
<b>Aloïs Brunel : </b>Juste pour ajouter mon petit grain de sel à tout ça, je pense effectivement que c’est très important de construire des Google, des Facebook européens, mais d’un autre côté la régulation c’est bien. Je pense que le RGPD montre l’exemple au reste du monde et ça positionne l’Europe et nos entreprises aussi en leaders sur ces questions. Parce qu’au final, ce qu’on voit, c’est qu’aux États-Unis eux aussi commencent à se dire « on a peut être besoin d’un RGPD, nous aussi on a besoin de mettre des amendes à Facebook de cinq milliards », ce qu’ils ont fait. Je pense que la réglementation de temps en temps c’est quand même une bonne manière de se positionner en leaders.<br />
<br />
<b>Nadia Daam : </b>On approche de la fin de l’émission. J’ai encore une dernière question pour mes invités.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em> sur France Inter.<br />
<br />
<b>Nadia Daam : </b>La question rituelle du mois d’août : avec quelle personnalité vivante ou disparue, célèbre ou anonyme, vous aimeriez pourvoir débattre, Édouard Fillias ?<br />
<br />
<b>Édouard Fillias : </b>J’ai lu cet été <em>Terre des hommes</em> d’Antoine de Saint-Exupéry, donc je lui demanderais ce qu’il pense de notre époque. À mon avis il serait à la fois fasciné parce que c’est l’aventure, la nouveauté ; en même temps il se poserait la question de l’humanité et de nos libertés, de notre dignité. Voilà ! J’aimerais avoir cette discussion-là avec lui.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud ?<br />
<br />
<b>Arthur Messaud : </b>J’aimerais bien, enfin je rêve littéralement parfois dans mon sommeil que je débats à nouveau avec mes profs de droit que j’ai beaucoup aimés. S’ils m’entendent je serais ravi de débattre à nouveau avec eux. Je le fais parfois en public. Appelez-moi !<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel, même question.<br />
<br />
<b>Aloïs Brunel : </b>Moi j’aurais dit Mary Shelley qui est donc l’autrice de <em>Frankenstein</em>. Personnellement je suis très intéressé par tous les mouvements de transhumanisme, je suis assez fasciné par les avancées médicales, le génie génétique. Je suis aussi un peu horrifié parfois par ce qui se passe, bien sûr l’intelligence artificielle. On peut un peu se poser la question « est-ce qu’on n’est pas en train de créer plein de petits monstres, de Frankenstein, dans plein de domaines ? » En tout cas je serais assez intéressé de discuter3 avec elle qui a aussi vécu une révolution industrielle et voir comment elle voit le monde d’aujourd’hui.<br />
<br />
<b>Nadia Daam : </b>Merci à tous les trois et merci à l’équipe du <em>Débat de midi</em>. Lucie Lemarchand était à la réalisation ; à la technique Stéphane Baujat et Fabrice Desmas. Demain on se demandera à quoi ça rime d’être maire.</div>D Ohttps://wiki.april.org/index.php?title=Donn%C3%A9es_personnelles_:_sommes-nous_des_victimes_consentantes_-_Le_d%C3%A9bat_de_midi&diff=85549Données personnelles : sommes-nous des victimes consentantes - Le débat de midi2019-09-01T03:06:50Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Données personnelles : sommes-nous des victimes consentantes ? <br />
<br />
'''Intervenants :''' Arthur Messaud - Aloïs Brunel - Édouard Fillias - Nadia Daam<br />
<br />
'''Lieu :''' <em>Le débat de midi</em>, France Inter<br />
<br />
'''Date :''' août 2019<br />
<br />
'''Durée :''' 52 min 37<br />
<br />
'''[http://rf.proxycast.org/1603139209609093120/12440-12.08.2019-ITEMA_22123984-0.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceinter.fr/emissions/le-debat-de-midi/le-debat-de-midi-12-aout-2019 Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
Transcription : MO<br />
<br />
==Description==<br />
<br />
Au moins neuf Français sur dix estiment que leurs données personnelles doivent être mieux protégées, selon une étude Dolmen, Opinionway. Avec tout ce que nous semons en utilisant notre téléphone, notre ordinateur au quotidien, faisons-nous vraiment attention ? Est-ce que nous faisons tout pour protéger nos données ?<br />
<br />
==Transcription==<br />
<br />
<b>Nadia Daam : </b>Vous n’avez pas pu échapper à la déferlante de cheveux gris, de rides et de crânes dégarnis sur Facebook, Twitter ou encore Instagram. Un coup de vieux général permis par le tube de l’été numérique FaceApp, cette application mobile qui, à partir d’un simple selfie, vous permet de savoir à quoi vous ressemblerez dans 50 ans et qui a occupé anonymes et célébrités dans la joie et le détachement d’un mois de juillet, à peine perturbés par les mises en garde des associations de défense des droits des utilisateurs d’Internet et même par le Parti démocrate américain quand ils ont tenté, en vain, de siffler la fin de la récré. En consultant simplement les conditions d’utilisation, on comprend très vite que télécharger son selfie pour ricaner deux minutes c’est céder à l’entreprise un accès irrévocable et perpétuel aux photos concernées et prendre le risque de retrouver sa trombine en 4 X 3 sur une affiche vantant les mérites par exemple d’un monte-escalier ou encore imprimée sur le tract d’un parti politique. Ces avertissements n’ont pas empêché FaceApp de se hisser en tête des applications les plus téléchargées et c’est une insouciance qui interroge. Pourquoi, alors que 9 Français sur 10 se disent inquiets de la protection de leurs données personnelles, continue-t-on à donner des petits bouts de nous-même sans se faire des cheveux blancs ? Parce qu’on n’est pas à une contradiction près, on attend vos avis et vos réactions sur Twitter. Sommes-nous des fichés volontaires ? C’est la question qu’on se pose jusqu’à 13 heures.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em>. Nadia Daam sur France Inter.<br />
<br />
<b>Nadia Daam : </b>Et avec moi pour en débattre en direct j’accueille Aloïs Brunel. Bonjour.<br />
<br />
<b>Aloïs Brunel : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Merci d’être là. Vous êtes le fondateur de Deepomatic, c’est une plateforme de reconnaissance visuelle qui se définit comme le Shazam de l’image. En français et en deux mots ça veut dire quoi ?<br />
<br />
<b>Aloïs Brunel : </b>Ce que fait Deepomatic c’est simple, on édite et on commercialise un logiciel à destination des entreprises qui va leur permettre d’automatiser des tâches visuelles. Tâches visuelles ça peut être toutes sortes de choses par exemple de l‘encaissement dans les restaurants d’entreprise : vous allez à votre cantine, vous passez votre plateau repas en dessous d’une caméra ça détecte entrés, plat, dessert - Yoplait framboise - et ça vous encaisse. Ça peut être détecter des défauts dans des canalisations d’eau potable, ça peut être des péages sans barrière. C’est toutes sortes de choses.<br />
<br />
<b>Nadia Daam : </b>C’est plus clair comme ça, effectivement. Arthur Messaud, bonjour.<br />
<br />
<b>Arthur Messaud : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Vous êtes le juriste de l’association La Quadrature du Net, association de défense des droits et des libertés des citoyens sur Internet. Je vais vous demander votre avis tout à l’heure sur FaceApp. À vos côtés Édouard Fillias. Bonjour.<br />
<br />
<b>Édouard Fillias : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Bienvenue, vous avez publié, co-publié, un <em>Manuel de survie sur internet</em> aux Éditions Ellipses. Vous êtes également vice-président du <em>think tank</em> Génération Libre qui est à l’origine d’une proposition très controversée, on va en parler évidemment tout à l’heure. J’ai une première question pour bien comprendre : les données personnelles c’est ce qu’on sème avec les tablettes, nos téléphones, nos ordinateurs, mais est-ce que ça concerne tout le monde ? Ma mère, 68 ans, n’a pas de compte Facebook, pas de montre connectée, est-ce qu’elle laisse une empreinte numérique ? Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Si vous avez déjà mis une image, une photo de votre mère, de votre grand-mère, si vous avez déjà parlé d’elle, si vous avez des relations par téléphone, par SMS, par mail, eh bien oui, elle rentre dedans.<br />
<br />
<b>Nadia Daam : </b>Elle a une existence numérique.<br />
<br />
<b>Arthur Messaud : </b>Elle a une existence numérique. Elle peut même avoir un compte fantôme, ce qu’on peut appeler sur Facebook un compte fantôme ce sont les gens qui ne sont pas inscrits sur Facebook mais qui sont quand même connus des services de Facebook, notamment pas les traceurs qu’on peut retrouver sur les sites de presse, traceurs qui ont été posés là volontairement par <em>Le Monde</em> ou <em>Le Figaro</em>, qui permettent à Facebook de savoir qui consulte quand, quel article. Et ça votre grand-mère, pour peu que sur son ordinateur elle passe sur un site du <em>Monde</em>, elle aura un compte fantôme.<br />
<br />
<b>Nadia Daam : </b>Ça suffit à lui créer une identité.<br/><br />
Édouard Fillias, pourquoi ces données sont aussi précieuses, à la fois pour les entreprises et aussi pour nous ? Pourquoi est-ce que c’est un sujet si actuel et important ?<br />
<br />
<b>Édouard Fillias : </b>Pour faire court, parce qu’il y a beaucoup de façons de répondre, ces données nourrissent des algorithmes qui permettent de cibler d’une part la communication publicitaire, ce à quoi elles servent principalement aujourd’hui - c’est le cœur de l’affaire Cambridge Analytica -, mais aussi plus profondément elles permettent de comprendre nos comportements donc de les anticiper, donc de les suggérer. Et les algorithmes du futur qui sont en train d’émerger aujourd’hui et qui s’expriment à travers des plateformes comme Alexa ou Amazon ou Facebook que vous citiez auront une capacité d’anticipation et d’orientation de nos comportements très avancée grâce à ces sommes de données colossales qui sont récupérées sur nous depuis maintenant plusieurs années voire plusieurs décennies en réalité. Et ce sont des données qu’on contrôle d’autant moins qu’on signe toute la journée, sans s’en rendre compte, des pactes softiens. On appelle ça chez Génération Libre des pactes softiens par référence au pacte kantien, évidemment. En fait, vous signez des contrats sans les lire, tout le temps, exactement ce que vous disiez sur FaceApp, mais ce n’est pas seulement FaceApp ; toutes les applications, tous les logiciels, tous les services numériques vous demandent de signer des contrats qui font parfois des dizaines de pages.<br />
<br />
<b>Nadia Daam : </b>Et qu’on ne consulte pas.<br />
<br />
<b>Édouard Fillias : </b>Jamais. Que vous ne consultez pas et dans lesquels vous déléguez des droits extrêmement importants sur vos données, des droits de conservation de ces données, des droits d’utilisation sans votre consultation, des droits d’utilisation parfois pour des fins politiques. Et ça, évidemment, ça pose un vrai problème fondamental de liberté individuelle. Est-ce que demain toutes ces données dont nous avons été dépossédés sans notre consentement explicite en réalité, seront utilisées contre nous, pour nous influencer ?<br />
<br />
<b>Nadia Daam : </b>On va définir ces notions de consentement explicite et éclairé juste après Macy Gray, <em>Big Brother</em>.<br />
<br />
<b>Pause musicale : </b><em>Big Brother</em>, Macy Gray.<br />
<br />
==9’ 00==<br />
<br />
<b>Nadia Daam : </b>C’était Macy Gray, une reprise très libre de <em>Big Brother</em> de, j’ai oublié, Stevie Wonder, je ne l’ai même pas reconnu ! Vous êtes sur France Inter et <em>Le débat de midi</em> se penche sur nos données personnelles. Promis, on vous les rend juste après. L’émission est préparée par Caroline Pomes.<br />
<br />
<b>Extrait du documentaire de <em>The Great Hack</em> : </b>Cambridge Analytica n’est pas seulement une entreprise de collecte des données. Elle ne se contente pas de mettre en place des algorithmes. Non. Il s’agit bien d’une véritable machine de propagande. Je devais trouver un moyen de récolter des données alors je suis allé voir des professeurs de l’université de Cambridge pour avoir leur avis.<br/><br />
Le scientifique Aleksandr Kogan nous a proposé une application Facebook qui avait l’autorisation de récolter non seulement les données de la personne qui utilisait l’appli en question mais qui avait aussi le pouvoir de s’introduire dans le cercle d’amis Facebook de la personne et d’en collecter également les données.<br/><br />
On a récolté les mises à jour de statuts, les <em>like</em> et même parfois les messages privés.<br/><br />
On ne ciblait pas seulement les gens en tant qu’électeurs on les ciblait pour leur personnalité.<br/><br />
L’avantage c’est qu’il nous suffisait de toucher seulement quelques centaines de milliers de personnes pour réussir à construire le profil psychologique de tous les électeurs américains.<br/><br />
<br />
— Et les gens ne savaient pas que leurs données étaient collectées ?<br />
<br />
-— Non. <br />
<br />
— Et à aucun moment vous ne vous êtes dit qu’il s’agissait d’informations à caractère privé ett que vous les utilisez sans le consentement des différentes personnes concernées ?<br />
<br />
— Non.<br />
<br />
<b>Nadia Daam : </b>C’était un extrait du documentaire de <em>The Great Hack</em> qui est disponible sur Netflix depuis fin juillet. On vient d’entendre le témoignage de Christopher Wylie c’est lui, entre autres, qui a révélé entre autres comment Cambridge Analytica s’était appropriée les données de 50 millions d’utilisateurs via Facebook. Arthur Messaud, cette affaire Cambridge Analytica montre aussi que les données sont convoitées par les entreprises, certes, mais aussi par les gouvernements ou les partis politiques.<br />
<br />
<b>Arthur Messaud : </b>Tout à fait. Cette affaire, Cambridge Analytica, c’est une caricature de ce qui existe aujourd’hui, de ce qui va exister de plus en plus et c’est un très bon révélateur pour réaliser qu’en fait toute la discussion qu’on a là c’est une discussion politique. On n’est pas en train de débattre pour défendre le consommateur contre des entreprises qui exploiteraient économiquement. Non ! Ces questions-là sont politiques. Cambridge Analityca est une affaire dans laquelle des personnes ont été surveillées de façon massive et de façon assez profonde - on a leur psychologie - pour exercer une influence politique sur des élections. Et ça, en fait, c’est ce qui arrive quotidiennement avec la publicité ciblée en ligne. Déjà la publicité de base, la publicité dans le métro a un rôle assez important de pousser à la consommation de voyages qui vont avoir un coût écologique énorme, de pousser à a la consommation d ‘iPhones qui ont un coût social énorme quand on sait dans quelles conditions les travailleurs sont exploités.<br />
<br />
<b>Nadia Daam : </b>En l’occurrence, il s’agit de ciblage, ces publicités dont vous parlez sont ciblées.<br />
<br />
<b>Arthur Messaud : </b>Ce n’est même plus le cas, là je parlais de la pub dans le métro. Mais quand elles deviennent ciblées elles ont un impact encore plus grand. Ça passe à une échelle assez délirante qui permet, en fait, de maintenir la société tout entière dans des conditions politiques favorables à certaines entreprises qui sont des conditions de consommation de masse, des conditions qui sont complètement contraires aux enjeux écologiques, aux enjeux sociaux et qu’il faut dénoncer. Cambridge Analytica a été très utile comme ça pour être une caricature : regardez, Trump, ce vilain Trump a été élu à cause des rouages de la publicité ciblée qui, en fait, nous manipule constamment toutes et tous et du coup nous concerne tous d’un point de vue politique.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Je pense que c’est un débat et qu’il faut quand même faire attention ; il ne faut pas sombrer dans le techno-scepticisme ou la techno-phobie. Les données qui sont collectées et la publicité ciblée parfois nous profitent, elles aident à améliorer…<br />
<br />
<b>Arthur Messaud : </b>Qui est « nous » là ?<br />
<br />
<b>Édouard Fillias : </b>Nous le citoyen, consommateur, individu. <br />
<br />
<b>Arthur Messaud : </b>Ah !<br />
<br />
<b>Édouard Fillias : </b>Par exemple la publicité ciblée permet de se débarrasser des publicités qui ne nous intéressent pas, des publicités ennuyantes, dont d’ailleurs on a subi sur Internet pendant des années l’extension. Enfin bref, vous voyez ce que je veux dire.<br />
<br />
<b>Nadia Daam : </b>Les popups.<br />
<br />
<b>Édouard Fillias : </b>Les popups, pour avoir un contenu plus intéressant pour l’utilisateur. Le vrai problème, celui d’ailleurs que vous combattez, c’est celui de l’abus du consentement, c’est-à-dire le fait que des données soient utilisées à notre insu en permanence pour nous influencer. Et c’est ça la vraie question, c’est comment est-ce qu’on contrôle le consentement ?<br />
<br />
<b>Nadia Daam : </b>Cette affaire Cambridge Analytica est-ce que c’est du vol ? Est-ce que c’est du pillage ? Est-ce que c’est du cambriolage puisque les données ont été siphonnées sans consentement explicite certes ? Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Facebook leur a donné accès à tout ça. Il n’y a pas de vol, il n’y a pas de bug, c’est Facebook qui leur a donné accès à ça.<br />
<br />
<b>Nadia Daam : </b>Ce que je veux dire c’est que c’est le modèle économique de ces entreprises, c’est le prix.<br />
<br />
<b>Arthur Messaud : </b>Oui, c’est le modèle économique dans lequel on vit aujourd’hui. Cambridge Analytica, ils y sont allés assez forts puisqu’ils sont allés sur le terrain politique, mais tout ça c’est normal. Dans le monde dans lequel on est c’est malheureusement normal et il faut le dénoncer.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Il faut être précis et je pense que ces données de Cambridge Analytica, qui ont été utilisées pour cette opération de propagande, sont des données, je crois, antérieures à 2012, une époque où l’API de Facebook permettait d’accéder à tout et n’importe quoi. Je le sais puisqu’à l’époque j’avais accès à n’importe quoi pour mes clients ce qui, d’ailleurs, me choquait, en réalité. Depuis Facebook a quand même énormément restreint l’accès de ses API de ses données d’ailleurs comme Linkedin avant lui.<br />
<br />
<b>Nadia Daam : </b>Les API ?<br />
<br />
<b>Édouard Fillias : </b>Les API ce sont des applications qui permettent d’exporter des données vers d’autres applications. Une API ouverte est une API où vous pouvez aller ramasser tout ce qui se dit, tout ce qui se passe sur Facebook par exemple. Et ça n’est pas plus le cas maintenant depuis quelques années : il y a des progrès, une prise de conscience a eu lieu, une prise de conscience d’ailleurs politique de la part des plateformes, mais c’est loin d’être suffisant.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud vous êtes sceptique. Il n’y a pas eu un avant et un après Cambridge Analytica ?<br />
<br />
<b>Arthur Messaud : </b>Non, non pas vraiment. En fait le droit évolue constamment, depuis bien dix ans, de façon assez rigoureuse sur ces sujets-là. Évidemment que Facebook et beaucoup d’entreprises font semblant de changer ou changent un peu parfois pour de vrai pour éviter que les scandales s’accumulent. Facebook, Google, si vous mettez ensemble les deux, vous avez un scandale par mois, un scandale tous les deux mois. Évidemment qu’ils ont peur de ça, d’autant plus quand ces scandales-là ont maintenant des conséquences juridiques qui leur font de plus en plus peur ; pas encore très peur, mais on vient et c’est là où l’espoir peut être dans le futur. On a des armes pour leur faire peur qu’on a déjà commencées à mettre en action. On reviendra en détail sur ça je pense.<br />
<br />
<b>Nadia Daam : </b>Il y a une avancée majeure, peut-être pas à l’échelle mondiale, mais en tout cas européenne, c’est le RGPD [Réglement général de protection des donnéEs] qui renforce le droit des internautes européens, qui met en place plusieurs obligations pour les entreprises. Sur le papier ça a l’air d’être une révolution, mais il y a un sondage qui dit que 80 % des internautes cliquent sur le bouton « tout accepter ». Aloïs Brunel, c’est la preuve que dans les mentalités, les automatismes n’ont pas encore évolué tant que ça ou pas suffisamment.<br />
<br />
<b>Aloïs Brunel : </b>Je parle en tant qu’internaute moi-même, je crois qu’aujourd’hui on est sensibilisé au fait que des données, nos données personnelles sont utilisées à des fins mercantiles, on ne sait même pas exactement bien comment elles sont utilisées. Je crois que d’une part on est tous, moi le premier, un peu feignants sur ces choses-là, on a envie d’utiliser ces services.<br />
<br />
<b>Nadia Daam : </b>C’est de la paresse ?<br />
<br />
<b>Aloïs Brunel : </b>Je pense que d’une part il y a une partie de paresse, je pense qu’on a envie de continuer à utiliser ces services.<br />
<br />
<b>Nadia Daam : </b>On a envie d’aller vite.<br />
<br />
<b>Aloïs Brunel : </b>Et on se dit « je vais tout accepter » parce que c’est la quinzième fois qu’on me demande si je veux modifier les paramètres de navigation sur tel ou tel site. Et puis, d’un autre côté, il est vrai aussi qu’un certain nombre de sites ont mis en place ces formulaires d’une manière qui est mauvaise dans le sens où elle ne propose pas un bon choix à l’utilisateur. On dit « tout accepter », il n’y a pas d’autre bouton qui nous dit « ne rien accepter », ou alors ça devient extrêmement compliqué d’aller chercher dans les paramètres qui vont permettre de désactiver telle ou telle fonctionnalité et ça, effectivement, c’est un vrai problème.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Je ne pense pas que ce soit de la paresse, je pense que ce n’est vraiment pas notre faute en tant qu’utilisateurs et utilisatrices. On est victimes de ça, on n’est pas du tout co-auteurs on est juste des victimes. Qu’est-ce qui se passe ? Pourquoi on clique sur « tout accepter » ? Pourquoi on se fait surveiller comme ça alors qu’en théorie on devrait avoir un certain contrôle sur ce qui nous arrive?<br/><br />
En théorie parce que la plupart des sites internet ou des applications de téléphone que vous visitez, violent le droit sans aucun souci, soit parce qu’elles ne demandent pas votre consentement, elles font ce qu’elles ont envie faire et s'en vont le faire, soit elles se contentent d’un consentement implicite. C’est par exemple ce que vous avez sur les sites de presse comme <em>Le Monde</em> ou <em>Le Figaro</em> : vous avez un petit bandeau en bas qui dit « si vous continuez à utiliser ce site vous acceptez toutes nos conditions et c’est comme ça ! »<br />
<br />
<b>Nadia Daam : </b>Et qu’est-ce que ça implique de cliquer « oui » ?<br />
<br />
<b>Arthur Messaud : </b>Il n’y a même pas de « oui », il n’y a même pas de bouton. Dans ce cas-là il n’y a pas de bouton et c’est juste en continuant de visiter le site, en cliquant sur un lien, en scrollant donc en descendant sur la page, ils considèrent que ça c’est un consentement valable.<br />
<br />
<b>Nadia Daam : </b>Que c’est acquis.<br />
<br />
<b>Arthur Messaud : </b>On reviendra là-dessus, ce en quoi ce n’est pas valable. Et le dernier point, c’est ce qu’on retrouve souvent sur les applications de téléphone, au moment d’installer l’application je refais <em>FaceApp</em>, ils vous disent : « On va surveiller tout ce que vous faites, utiliser vos images pour ce qu’on veut. Vous acceptez ? » Oui. Très bien. Si vous refusez vous ne pouvez pas accéder à l’application. C’est souvent, en fait, vu comme une monnaie : les données personnelles, notre vie privée, nos libertés fondamentales dans ce cas-là sont considérées comme une monnaie par ces entreprises-là qui disent : « Si vous voulez accéder à notre service, à notre bien vous devez payer avec une liberté fondamentale ». Il se trouve heureusement que le RGPD et le droit intérieur d’ailleurs, le droit européen dans son ensemble, condamnent cette vision des choses. Les données personnelles ne sont pas une marchandise.<br />
<br />
<b>Nadia Daam : </b>Il y a eu des condamnations sérieuses de sociétés ? Lesquelles ?<br />
<br />
<b>Arthur Messaud : </b>Oui, bien sûr. Déjà en janvier dernier il y a eu une première condamnation de la CNIL contre Google qui traitait surtout l’aspect explicite du consentement, mais avant il y avait eu une condamnation il me semble de <em>Teemo</em> ; il y avait aussi eu une condamnation de Linkedin aussi par la CNIL qui revenait sur cette notion de consentement libre. Notre consentement n’est pas libre, n’est pas valide, s’il est donné sous la contrainte de ne pas accéder à un service ou à un bien. Donc on a des condamnations de la CNIL, on a des jurisprudentielles d’autorités européennes tout à faite explicites et stables et cette philosophie est vraiment au cœur du droit européen des données personnelles : les données personnelles ne sont pas des marchandises parce que, c’est une liberté fondamentale, si elles étaient dans le commerce elles pourraient être marchandées et tous les gens qui ne sont pas très riches iraient les vendre. C’est ce qui se passe sur Facebook : sur Facebook on vend notre liberté fondamentale pour accéder « gratuitement » à un service. En fait, dans ce monde-là, il n’y a plus que les riches qui peuvent se payer un accès payant à Gmail pour que leurs mails ne soient pas surveillés.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias, le <em>think tank</em> Génération Libre auquel vous appartenez a proposé dans un rapport très controversé, je le disais en début d’émission, d’instaurer un droit de propriété des données personnelles. Concrètement ça veut dire que le citoyen peut avoir le droit de vendre ses données ou de les garder et ça se monétise pour le coup. C’est ça ? C’est la marchandisation des données ?<br />
<br />
==19’ 24==<br />
<br />
<b>Édouard Fillias : </b>Il y a trois stratégies pour répondre à la question du consentement, du pacte softien que j’évoquais tout à l’heure en référence, évidemment, à Faust.<br/><br />
La première c’est la stratégie je dirais collectiviste, qui est de dire « on crée une agence nationale de protection des données des citoyens », une stratégie un peu dictatoriale, un peu à la russe. Bon, OK ! Admettons. On considère que c’est une souveraineté numérique de contrôler nos données. Évidemment c’est un système qui nous est profondément étranger parce que ça reviendrait à donner tous les pouvoirs à l’État. D’ailleurs c’est un peu le sens de la lutte que vous menez contre le super fichier TES [fichier des titres électroniques sécurisés] et nous sommes solidaires.<br />
<br />
<b>Nadia Daam : </b>Donc Arthur Messaud avec La Quadrature du Net.<br />
<br />
<b>Édouard Fillias : </b>Voilà. La deuxième stratégie c’est celle de la CNIL, c’est de défendre des droits individuels et donc de porter plainte contre les entreprises, les États, quand ils abusent de ces droits, au nom de droits bien définis. On voit que c’est une stratégie qui, aujourd’hui, tente de fonctionner mais qui en réalité ne fonctionne pas vraiment. C’est d’ailleurs ce que vous disiez, en fait, on vide l’océan avec une petite cuillère.<br />
<br />
<b>Nadia Daam : </b>C’est-à-dire que les entreprises ont toujours un coup d’avance.<br />
<br />
<b>Édouard Fillias : </b>Bien sûr. Elles ont toujours un coup d’avance et elles auront de plus en plus un coup d’avance. Et je crois que c’est tellement tentant cette pierre philosophale de l’intelligence artificielle absolue qui nous contrôle et en réalité, on le sait aujourd’hui, que les possibilités de l’IA pour nous contrôler et nous orienter sont immenses. On est au début du croisement entre les neurosciences, les sciences de l’IA, du Nudge qui sont l’étude des comportements.<br />
<br />
<b>Arthur Messaud : </b>Bingo ! Des mots à la mode !<br />
<br />
<b>Édouard Fillias : </b>Et dernier point, la dernière stratégie c’est celle de la liberté, de la responsabilité individuelle. C’est celle qu’on appelle le droit de patrimonialité des données. C’est-à-dire que chaque individu se voit recevoir une extension de ses droits individuels, de ses libertés individuelles, sur ses propres données. Votre travail est votre propriété, c’est le fruit de vous-même, c’est une extension de vous, c’est reconnu dans la déclaration des droits et c’est inaliénable, c’est le droit de propriété.<br />
<br />
<b>Nadia Daam : </b>Et il en irait de même pour mes données ?<br />
<br />
<b>Édouard Fillias : </b>Il en irait de même pour vos données. On s’inspire Jaron Lanier là-dessus, qui ne vous est pas étranger puisque c’est un des papes de la réalité virtuelle et d’Internet qui, dans un papier de référence à Standford explique <em>Should We Treat Data as Labor? </em>, « est-ce qu’on doit considérer les données comme du travail ? » Et sa réponse est évidemment oui. L’idée c’est exactement comme les droits à polluer par exemple en matière de gestion des champs environnementaux, c’est de donner des droits à chacun de vendre ou de ne pas vendre ses données. C’est-à-dire qu’au lieu de signer des contrats, pseudos contrats qu’en fait personne ne lit, qui sont donc léonins de ce fait, eh bien on vous demanderait : « Est-ce que vous souhaitez ou non commercialiser vos données pour accéder à ce service ? » Ce serait une demande qui serait explicitement formalisée par l’application numérique que vous utiliseriez et vous répondriez oui ou non.<br />
<br />
<b>Nadia Daam : </b>Sommes-nous tous égaux quand cette proposition est faite ? Il n’y a pas le risque de créer une société à deux vitesses : on aurait seuls les riches qui pourraient se permettre le luxe, s’offrir le luxe de conserver leurs données et les plus pauvres qui seraient obligés de les brader ?<br />
<br />
<b>Édouard Fillias : </b>Déjà Facebook nous arnaque déjà en réalité. Parce que l’accès à un pseudo service gratuit en échange de données, échange qui d’ailleurs n’est pas en réalité formalisé, c’est-à-dire que les gens n’en ont pas conscience ; c’est d’ailleurs pour ça que j’ai écrit de ce <em>Manuel de survie sur internet</em>. C’est pour essayer d’instruire chacun des véritables enjeux derrière les applications. Les gens n’ont pas conscience un, de donner leurs données et deux, en réalité ils se font avoir parce que les données qu’ils donnent à Facebook valent beaucoup plus que l’accès gratuit au service.<br />
<br />
<b>Nadia Daam : </b>Vous ne répondez pas à ma question.<br />
<br />
<b>Édouard Fillias : </b>Quelle est votre question ? Pardon.<br />
<br />
<b>Nadia Daam : </b>Je vous demandais est-ce qu’on est tous égaux face à ce que vous proposez ?<br />
<br />
<b>Édouard Fillias : </b>Non. C’est-à-dire que certaine données valent plus cher que d’autres. Des personnes qui ont un très fort pouvoir d’achat et qui sont par exemple obsédées de voitures, mettons de luxe, évidemment les données de ces personnes auront beaucoup plus de valeur pour un vendeur de voitures de luxe à un instant t . Mais on est en train de faire des modélisations économétriques de la valeur moyenne de ces données pour chaque Français et par catégorie de population. On fait ça avec l’École d’économie de Toulouse, la Toulouse School of Economics, et on publiera nos résultats en septembre-octobre. C’est plusieurs dizaines d’euros par mois que chaque Français peut recevoir.<br />
<br />
<b>Arthur Messaud : </b>Oui, que vous dites !<br />
<br />
<b>Édouard Fillias : </b>Non.<br />
<br />
<b>Arthur Messaud : </b>C’est une moyenne que vous faites.<br />
<br />
<b>Édouard Fillias : </b>Une moyenne pour les Français, plusieurs dizaines de revenus par mois de revenus additionnels en échange de l’utilisation des grands services numériques qui existent aujourd’hui.<br/><br />
Évidemment si vous êtes quelqu’un à très fort pouvoir d’achat ça peut être plus. Si, au contraire, vous snobez complètement Internet et que vous êtes un profil réfractaire, évidemment vous n’en tirerez aucun profit. C’est l’idée que vous soyez responsabilisé face à l’utilisation qui est faite de vos données. Encore une fois je le répète, si vous ne souhaitez pas vendre vos données vous pouvez ne pas le faire et ça, effectivement, c’est un vrai changement de philosophie, c’est un vrai changement de façon de voir. Je voudrais citer Proudhon pour conclure avant de céder la parole.<br />
<br />
<b>Nadia Daam : </b>Carrément !<br />
<br />
<b>Édouard Fillias : </b> « La propriété est la plus grande force révolutionnaire qui existe. C’est la propriété qui façonne les sociétés ». Nous proposons d’injecter de la propriété là où il n’y en a pas sur nos données.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Il dit aussi que c’est le vol la propriété. C’est assez délirant de citer Proudhon. Bref ! Là on voit clairement un modèle de société, vous l’avez bien vu, dans lequel les riches auront encore plus d’argent et les pauvres auront encore moins d’argent <br />
<br />
<b>Édouard Fillias : </b>Non. Ils auront plus d’argent aussi !<br />
<br />
<b>Nadia Daam : </b>Et plus de liberté.<br />
<br />
<b>Arthur Messaud : </b>Ils auront 25 centimes par mois.<br />
<br />
<b>Édouard Fillias : </b>Non, ils auront plusieurs dizaines d’euros.<br />
<br />
<b>Nadia Daam : </b>La question c’est aussi sur la liberté, le droit de pouvoir conserver ses données pour soi.<br />
<br />
<b>Arthur Messaud : </b>Honnêtement ce débat, moi je trouve qu’il n’y a pas besoin d’en parler mille ans, il vient apporter des solutions à un problème qui n’existe pas, qu’il n’y a pas. On ne voit pas très bien ce que ça essaie de corriger. On voit surtout que ça apporte beaucoup de problèmes, beaucoup de questions comme vous l’avez dit. Est-ce que tout le monde aura le même accès ? Est-ce qu’il n’y aura que les riches qui pourront accéder gratuitement au service sans être surveillés ? On l’a dit, en tout cas ce n’est pas l’état du droit. L’état du droit c’est « les données personnelles ne sont pas des marchandises ». Évidement qu’on est impatient ! On voit que les plus grosses entreprises continuent de violer la loi et ne sont pas sanctionnées out pas sanctionnées à un montant qui serait utile et efficace. Je comprends cette frustration mais la solution de Génération Libre n’apporte pas du tout de réponse à ce problème-là, vient juste rajouter d’autres problèmes, d’autres problèmes qui, de façon intellectuelle, sont intéressants à débattre, mais ce sont des problèmes très classiques entre ultralibéraux et personnes plus attachées aux libertés fondamentales classiques.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias. Et je voudrais retourner à Aloïs Brunel après.<br />
<br />
<b>Édouard Fillias : </b>Juste un point de philosophie de fond, parce là on touche le fond. Le Conseil d’État, et d’ailleurs l’Europe, s’oppose à ce type de législation parce qu’il considère effectivement que notre corps est une propriété inaliénable. <br />
<br />
<b>Nadia Daam : </b>Et qu’on serait donc dans la marchandisation qui est un encore un tabou absolu dans nos sociétés.<br />
<br />
<b>Édouard Fillias : </b>Nous on conteste cela. Nous pensons que la base d’une société libre est une société où chacun s’appartient et se possède. Par exemple chacun a le droit de décider si l’État, quand il prélève ses organes à sa mort, devra rémunérer ou pas sa famille ce qui aujourd’hui n’est pas le cas. L’État prélève les organes sans même l’autorisation, sans même demander vaguement l’autorisation à votre famille. Donc la meilleure forme de résistance à l’absolutisme de l’État et à la toute puissance de corporations qui ne seraient plus retenues par rien - on pourra parler des GAFA si vous voulez, parce que c’est un débat dans le débat - c’est d’affirmer que nous nous possédons nous-mêmes et si nous nous possédons nous-même, nous possédons nos données. Et ça c’est un point de doctrine de fond qui est effectivement appelé à évoluer. Il évoluera sur ce sujet-là, il évoluera sur les sujets de bioéthiques aussi.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Ça, ça ne répond à aucun problème. On va passer à autre chose, parce qu’on sait qu’en est en désaccord.<br />
<br />
<b>Nadia Daam : </b>On va écouter aussi Aloïs Brunel.<br />
<br />
<b>Arthur Messaud : </b>On comprend très bien votre logique, ça ne répond à aucun problème pratique. Là, le problème pratique en question c’est comment on fait pour que Google et Facebook respectent la loi. Ce que vous décrivez, la marchandisation des données, ce n’est jamais que ce que font déjà Google et Facebook aujourd’hui de façon implicite, mais ils le font déjà. Vous pensez qu’en étant explicite ça serait plu simple. Nous on pense que la priorité c’est de faire respecter la loi, d’ailleurs que ce soit votre loi de propriété ou la loi actuelle. Enfin, comme vous dites, il faut être propriétaire de son corps ça, c’est une pensée qui est assez ancienne, c’est une pensée qu’on a plutôt dépassée en Europe et dans d’autres pays, c’est la pensée dans laquelle on pouvait se mettre en esclavage soi-même pour rembourser une dette, dans laquelle on pouvait mettre en esclavage ses enfants, ses descendants, pour rembourser une dette, ce qui a créé une structure dans laquelle l’esclavagisme était assez normal ; là je parle plus de l’esclavagisme antique, pas tellement moderne. C’est clairement quelque chose qui est entièrement rejeté par nos philosophies modernes. Vous avez une philosophie qui revient beaucoup dans le passé. Nous on pense que ce n’est pas le bon chemin. On continuera d’être en désaccord sur cette idée de propriété de soi qui ne bénéficie qu’aux plus riches.<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel, votre société qu’est-ce qu’elle fait des informations, des données qu’elle reçoit ? Comment est-ce qu’elle les traite ? Où est-ce qu’elle les stocke ? Ce sont des données biométriques.<br />
<br />
<b>Aloïs Brunel : </b>Oui. Tout à fait. Déjà ce qu’il faut savoir de par la nature même de ce qu’on fait et des applications que font nos clients de nos technologies, on n’est pas voué, on n’a pas vocation à stocker des données personnelles genre l’âge, des informations sur telle ou telle personne, des identités. Ceci étant dit, nos systèmes qui analysent des images et des vidéos peuvent être amenés à voir, à certains moments, des informations biométriques ou des informations personnelles. Par exemple dans une caméra on peut voir des personnes et leur visage ; on peut éventuellement voir des plaques d’immatriculation. Je parlais tout à l’heure des plateaux repas, il se peut qu’il y ait une carte de crédit ou un badge qui soit posé sur le plateau repas.<br />
<br />
<b>Nadia Daam : </b>Donc c’est une somme d’informations.<br />
<br />
<b>Aloïs Brunel : </b>Tout ça ce sont des informations qui ne sont absolument pas utiles pour l’exploitation de nos systèmes, mais cela dit, qui peuvent, à un moment donné ou un autre, se retrouvées visualisées par une personne. Pour nous, ce qui est important de faire là-dedans, c’est de faire en sorte que ces données-là ne soient pas visibles pour des humains.<br />
<br />
<b>Nadia Daam : </b>Concrètement vous floutez ?<br />
<br />
<b>Aloïs Brunel : </b>Concrètement, en fait, on floute. C’est globalement ce qu’on fait. On va flouter des plaques d’immatriculation, des visages, les personnes entières, les cartes de crédit, pour que ces choses-là ne soient pas visibles à n’importe quel moment de la chaîne d’exploitation de ces images. En fait c’est même plus fort que ça, c’est-à-dire que ça c’est dans la vie des produits que l’on vend aux entreprises, mais ça crée même des opportunités pour nous puisque des entreprises viennent nous voir uniquement pour faire de l’anonymisation, pour se conformer au RGPD.<br />
<br />
<b>Nadia Daam : </b>En fait pour vous le RGPD a été une aubaine.<br />
<br />
<b>Aloïs Brunel : </b>En partie. Ce sont en partie des opportunités. C’est aussi des contraintes, mais ce sont aussi des opportunités parce que les entreprises cherchent à se conformer au RGPD, donc à anonymiser leurs données. Et pour ça, en fait paradoxalement l’intelligence artificielle peut-être utile puisqu’elle va détecter automatiquement tous ces objets et toutes ces données biométriques pour ensuite les flouter.<br />
<br />
<b>Nadia Daam : </b>On va continuer cette conversation juste après Renan Luce, <em>On s'habitue à tout</em>.<br />
<br />
<b>Pause musicale : </b><em>On s'habitue à tout</em>, Renan Luce.<br />
<br />
==32’ 45==<br />
<br />
<b>Nadia Daam : </b>C’était Renan Luce. À la programmation musicale Thierry Dupin.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em>. Nadia Daam sur France Inter.<br />
<br />
<b>Nadia Daam : </b>On s’intéresse donc à la protection de nos données personnelles. Je voudrais poser, transmettre une question très concrète d’un auditeur parce qu’il faut rester concret. C’est Marie qui nous demande si le fait d’opter pour la navigation privée suffit à la protéger. Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>C’est un bon début. Toutes ces petites astuces-là, sont bien à faire. Installer des extensions pour votre navigateur, par exemple uBlock Origin qui est très bien, ça ce sont de bonnes choses à faire. La navigation privée c’est plus pour se protéger des autres personnes qui utilisent l’ordinateur ; par exemple si son mari veut l’espionner, la navigation privée va la défendre de ça. Après, on ne va pas se mentir, des solutions contre des géants comme Facebook ou Google ou d’autres entreprises plus cachées, ne viendront pas de notre défense individuelle. Il faut se défendre collectivement par la loi, par la CNIL, par des actions de groupe. Malheureusement ces géants sont trop puissants techniquement pour qu’on puisse se défendre tout seul.<br />
<br />
<b>Nadia Daam : </b>On ne parle que de Google et de Facebook depuis tout à l’heure, c’est quelque chose effectivement de la responsabilité uniquement de ces grands GAFAM ou c’est quelque chose de plus global ?<br />
<br />
<b>Arthur Messaud : </b>Nnon, c’est complètement généralisé. D’abord Google et Facebook vendent un service à des clients qui sont extrêmement nombreux qui sont aussi fautifs. Les clients ça va être tous les sites Internet de presse qui relaient, enfin qui utilisent leurs traceurs et leurs outils d’espionnage. Ça va être toutes les marques, toutes les grandes marques de voitures, de voyages, qui font appel aux services de la publicité ciblée pour nous manipuler.<br />
<br />
<b>Nadia Daam : </b>C’est tentaculaire, Facebook, ce que vous êtes en train de dire.<br />
<br />
<b>Arthur Messaud : </b>Non, ce n’est pas Facebook qui est tentaculaire. C’est que cette question-là de surveillance économique de toute la population à des fins de manipulation économique concerne presque toutes les grosses boîtes, celles qui vendent, celles qui produisent, celles qui embauchent, que ce soit en France, aux États-Unis, partout dans le monde. Aujourd’hui comme un grand groupe comme Auchan, Monoprix qui fait de la pub sur Facebook ou de la pub ailleurs que sur Facebook en utilisant les outils de Facebook est complice de ce dévoiement de la société vers une logique de surveillance généralisée.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>D’abord je tiens à dire que la Quadrature du Net fait un travail remarquable, je suis d’ailleurs un donateur et un adhérent historique de ce mouvement. On a une divergence sur cette question, mais le travail est remarquable et utile. Je crois à la responsabilité individuelle. Le mot de passe le plus fréquent en France, c’est 1 2 3 4 5 6.<br />
<br />
<b>Nadia Daam : </b>On va parler des mots de passe <br />
<br />
<b>Édouard Fillias : </b>Ensuite c’est <em>I love you</em>. Ensuite c’est le prénom des enfants.<br />
<br />
<b>Nadia Daam : </b>Le prénom ou le nom du chat.<br />
<br />
<b>Édouard Fillias : </b>Attendez. On va dire qu’on va poursuivre devant la CDH Facebook et on n’est pas capable de se mettre un mot de passe avec une majuscule et une minuscule ? Donc il y a un problème de responsabilité.<br />
<br />
<b>Nadia Daam : </b>Mais comment vous l’expliquez ça ? Cette naïveté ?<br />
<br />
<b>Édouard Fillias : </b>Je pense qu’il y a un décalage entre le débat qu’on a aujourd’hui et la perception, l’acuité de la perception du caractère potentiellement dramatique que ces données manipulées peuvent avoir contre nous. On est en fait comme dans les prémisses du débat écologique. On est dans les années 60-70, on se rend compte qu’il va y avoir un sujet, mais on n’en pas en fait totalement conscience, ce qui se traduit par des comportements profondément irresponsables. Un enfant, par exemple, ne doit pas être seul sur Internet avant douze ans. On ne met pas une console de jeu dans les mains d’un enfant avant six ans.<br />
<br />
<b>Nadia Daam : </b>Qui dit ça ? Qui établit des règles ?<br />
<br />
<b>Édouard Fillias : </b>Serge Tisseron qui est un sociologue et un psychologue et qui a écrit là-dessus cette fameuse règle des « 3-6-9-12 ».<br />
<br />
<b>Nadia Daam : </b>La règle des « 3-6-9-12 », pas d’écran avant.<br />
<br />
<b>Édouard Fillias : </b>C’est quand même une règle de bon sens ! Combien d’enfants traînent devant Internet !<br />
<br />
<b>Arthur Messaud : </b>Moi j’étais petit.<br />
<br />
<b>Édouard Fillias : </b>Peut-être trop tôt alors Arthur ! Par ailleurs on voit sur Internet des photos des enfants qui sont laissées par les familles ; c’est juste inadmissible ; c’est inacceptable !<br />
<br />
<b>Nadia Daam : </b>Ça c’est le paradoxe. Les parents voudraient sensibiliser leurs enfants à ces problématiques et en même temps ils sont les premiers à leur créer une identité numérique en postant des photos.<br />
<br />
<b>Édouard Fillias : </b>Sur les réseaux sociaux. Absolument. Et là, pour le coup, ma spécialité professionnelle c’est la réputation numérique. Quand vous avez une trace numérique, qu’elle soit une trace sur un réseau social, une trace sur Google, etc., elle est gravée sur le chrome pour l’éternité. On ne se défait jamais d’une information qui est arrivée sur vous. Donc il est extrêmement important de sensibiliser les enfants dès l’école au fait que les réseaux sociaux c’est la rue. Un parent ne laisse ses enfants place de Clichy à minuit tout seuls !<br />
<br />
<b>Nadia Daam : </b>Qui le fait ?<br />
<br />
<b>Édouard Fillias : </b>Eh bien aujourd’hui personne ne le fait. Les hommes politiques sont d’une génération qui ne se sent pas directement concernée. Les nouvelles générations arrivent, probablement plus sensibles, je pense, à ces sujets de données. C’est modestement ce que j’ai essayé de faire avec ce <em>Manuel de survie sur Internet</em> qui, en 100 questions, essaie de baliser des conseils très concrets, très simples, par exemple installer les mises à jour de son système d’exploitation.<br />
<br />
<b>Nadia Daam : </b>Tiens, je ne l’ai pas fait !<br />
<br />
<b>Édouard Fillias : </b>Vous ne l’avez pas fait ! Personne ne le fait, c’est rasoir. Évidemment Arthur utilise Linux [GNU/Linux, NdT], donc...<br />
<br />
<b>Arthur Messaud : </b>Il est bien fait. Tout marche très bien.<br />
<br />
<b>Édouard Fillias : </b>Mais la plupart des gens sont sur Windows, donc vous mettez à jour votre système d’exploitation. Ce sont des choses très simples. C’est aussi avoir conscience des menaces. Il y a un vrai business aujourd’hui du trafic de la Carte Bleue sur le darknet vous trouvez des numéros de Cartes Bleues autant que vous voulez, vous trouvez des mots de passe. Allez sur le site HIBP [<em>Have I Been Pwned? </em>], tapez votre adresse mail et vous verrez tous les endroits où vous avez été hacké et où des données ont été likées sur vous. J’ai fait l’exercice moi-même il y a quelques mois, des données sur moi ont été volées sur Dailymotion, sur Linkedin, sur Facebook. Donc c‘est facile.<br />
<br />
<b>Nadia Daam : </b>C’est terrifiant !<br />
<br />
<b>Édouard Fillias : </b>Mais oui !<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Non ce n’est pas terrifiant. Ces cas en question, il faut voir dans le détail ; ce ne sont pas des choses systématiquement dramatiques. Juste je trouve que la comparaison avec l’écologie est très bonne et c’est là où notre désaccord idéologique apparaît de nouveau de façon très claire pour tous les auditeurs et auditrices. En écologie il y a deux positions. Il y a certaines personnes plutôt comme moi je le dis pour Internet vont défendre des solutions collectives, vont penser que les problèmes, qu’ils soient écologiques ou en matière de données personnelles, viennent de grands groupes et de grandes entreprises qui, voulant se faire encore plus d’argent, vont aggraver la situation de la collectivité, du monde entier. Et d’autres personnes qui pensent que le problème vient plus de situations individuelles, donc que les solutions soient individuelles : il faut prendre des douches courtes ; il faut trier ses déchets. Ce n’est pas aux entreprises de trier les déchets ! Ce n’est pas aux entreprises de réduire le plastique dans leurs produits ! Non, non ! C’est à nous petits individus.<br />
<br />
<b>Nadia Daam : </b>Des petits pas !<br />
<br />
<b>Arthur Messaud : </b>On devient tout d’un d’un coup auteurs de la propre situation dont on est en fait victimes.<br />
<br />
<b>Nadia Daam : </b>Et ça c’est faux ? On n’a pas aussi une forme de responsabilité ?<br />
<br />
<b>Arthur Messaud : </b>En matière d’écologie je ne sais pas parce que je ne suis pas expert sur la question.<br />
<br />
<b>Nadia Daam : </b>Non. Sur le sujet qui nous occupe aujourd’hui.<br />
<br />
<b>Arthur Messaud : </b>En matière de données personnelles.<br />
<br />
<b>Édouard Fillias : </b>Bien sûr que si ! Vous vous plaignez des bouteilles d’eau qu’on a en studio.Bien sûr que si vous êtes responsable !<br />
<br />
<b>Arthur Messaud : </b>En fait, en matière de données personnelles, la situation qui s’aggrave c’est-à-dire des manipulations politiques de plus en plus fréquentes, des fuites de données de plus en plus importantes, nous ne sommes pas responsables de ça, nous sommes simplement des victimes. Les responsables ce sont les grands groupes qui bénéficient de ces systèmes et dans ces grands groupes je veux bien mettre Radio France dedans, qui va faire de la publicité sur le site, qui va utiliser les outils de Facebook, de Google et d’autres, évidemment Facebook et Google, toutes ces personnes-là sont responsables et ce sont elles qu’il faut aller chercher, ce sont elles qu’il faut sanctionner et interdire<br />
<br />
<b>Nadia Daam : </b>On ne peut pas faire les deux : tordre le bras des grands groupes et modifier nos comportements ?<br />
<br />
<b>Arthur Messaud : </b>Si, un peu. Mais modifier vos comportements ne va pas changer grand-chose. Si ça vous fait plaisir bien. Protéger ses mots de passe parfois ça a de vrais intérêts pratiques, il n’y a pas de souci, mais c’est juste en surface, ça ne va pas changer grand-chose, vous n’allez pas aller très loin, vous n’allez pas beaucoup vous protéger parce qu’en face ils sont bien meilleurs que vous. S’ils veulent vous attaquer, vous aurez beau éviter d’aller sur Facebook, éviter d’avoir un smartphone, ce que je fais moi, par exemple ; ça ne change rien au fait qu’ils trouveront un moyen.<br />
<br />
<b>Nadia Daam : </b>Vous n’avez pas de téléphone !<br />
<br />
<b>Arthur Messaud : </b>Si j’ai un téléphone. Rien que ça, avoir un téléphone, c’est s’exposer beaucoup . En fait vous pourrez essayer de jouer au plus malin, vous ne serez pas les plus malins face à ces entreprises et encore moins face à l’État, si on rajoute les problèmes de surveillance de l’État. On reviendra après sur ça j’espère.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Tordre le bras, comme vous dites, de ces grands groupes, il faut se lever tôt le matin ! Il y a deux solutions : ou vous les taxez ou vous les disséquez, vous cassez leur oligopole, leur monopole et vous les découpez. Ce qui a été fait avec Standard Oil à une autre époque. Le problème c’est qu’aucune de ces deux stratégies ne fonctionne.<br/><br />
La première, la taxation, eh bien ils augmentent leurs prix, donc voilà c’est réglé. L’affaire Bruno Le Maire l’a illustré récemment.<br/><br />
La deuxième, on n’a tout simplement pas les arguments en droit parce que ce ne sont pas, en réalité, des entreprises en situation de monopole ; elles ont des concurrents. Et puis quelle législation s’appliquerait ? Ça serait l’américaine, pas l’européenne, ça ne marche pas !<br />
<br />
<b>Nadia Daam : </b>Si on en décapite une décapite une, il y en a peut-être dix qui repoussent derrière.<br />
<br />
<b>Édouard Fillias : </b>Exactement. En fait cette histoire n’a pas de fin parce que, de toute façon, si on arrivait mettons à couper la tête de Google, ce qui n’est pas du tout à mon avis quelque chose de souhaitable, eh bien naîtrait un autre Google aussitôt et même peut-être trois autres. Donc comment faire ? Il y a deux façons de faire. Celle que vous faites, celle qu’on essaie de faire aussi c’est-à-dire sensibiliser l’opinion publique. Faire comme ça se passe aussi aujourd’hui pour l’environnement, mettre la pression du consommateur sur la marque et ça ça marche. Et je peux vous le dire, les marques sont extrêmement sensibles à cette perception de leur image. On va voir apparaître dans les années qui viennent…<br />
<br />
<b>Nadia Daam : </b>Ce qu’on appelle le <em>Name and shame</em><br />
<br />
<b>Édouard Fillias : </b>Exactement. De confidentialité, de conformité des data qui sont utilisées sur nous. Je crois énormément que le marché va s’amender là-dessus.<br/><br />
La deuxième stratégie, j’y reviens, c’est celle de donner des responsabilités, des libertés individuelles., Responsabilité aux parents, je l’évoquais, mais aussi des libertés, le droit de patrimonialité. Ça, ça nous semble une façon raisonnable. D’ailleurs on a parlé à Facebook et Google de cette idée de droit de patrimonialité des données, ils ont tout à fait d’accord là-dessus.<br />
<br />
<b>Arthur Messaud : </b>Évidemment ! C’est évident !<br />
<br />
<b>Édouard Fillias : </b>C’est quelque chose qui pour eux peut être un progrès dans leur façon à eux d’assumer leurs responsabilités.<br />
<br />
<b>Nadia Daam : </b>Alois Brunel.<br />
<br />
==41’ 55==<br />
<br />
<b>Aloïs Brunel : </b>Je crois qu’il y a aussi un troisième point qui est intéressant, qui n’a pas été évoqué ici pour régler en partie ce problème, c’est qu’il y a une force qui est très importante pour toutes ces grandes entreprises, Facebook, Google, etc., c’est leur force de travail, c’est leurs employés. Eux misent tout là-dessus, ils les bichonnent, ils leur fournissent un environnement de travail qui est excellent et on a vu récemment que ces employés étaient de plus en plus sensibilisés à ces problématiques également. Des développeurs, chez Facebook, qui commencent à avoir des regrets qui se disent « je suis en train de participer à quelque chose... »<br />
<br />
<b>Nadia Daam : </b>De repentis, des renégats.<br />
<br />
<b>Aloïs Brunel : </b>Des repentis ou des gens, à l’intérieur, qui travaillent encore chez Facebook ou chez Google et qui se posent des questions. Je pense que cette force-là c’est une force de changement au sein de ces entreprises. Je pense qu’il y a une vraie responsabilité des entreprises, c’est vrai, il faut qu’elles se posent les questions éthiques qui vont bien. Je pense que les employés de ces entreprises sont très puissants en fait ; dans ces entreprises technologiques, ils sont puissants et il peuvent être force de pression.<br />
<br />
<b>Nadia Daam : </b>Vous pensez que la pression peut être mise et plus efficace de l’intérieur ?<br />
<br />
<b>Aloïs Brunel : </b>De l’intérieur ; je pense que oui.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud est hyper-sceptique.<br />
<br />
<b>Arthur Messaud : </b>Oui. Encore une fois c’est une petite solution pour des problèmes énormes. On ne va pas juste faire reposer les espoirs de l’humanité, tous nos espoirs communs, on ne va pas les faire reposer sur une dizaine de salariés qui auraient une éthique. Non, non ! Ces boîtes-là ce sont des boîtes qui sont là pour faire de l’argent, qui sont extrêmement puissantes, qui ont des monopoles sur plein de secteurs, elles ne sont pas là pour être éthiques, elles ne seront jamais éthiques. Je pense que personne n’est dupe quand on regarde Marc Zuckerberg et son air extrêmement détaché de tout ce qui peut exister d’humain, personne n’est dupe sur le fait qu’il n’a aucune éthique et que ses salariés, s’ils ont une éthique, ils iront justetravailler pour la concurrence qui n’aura pas beaucoup plus d’éthique en fait.<br />
<br />
<b>Nadia Daam : </b>Alois Brunel.<br />
<br />
<b>Aloïs Brunel : </b>Ce n’est pas vrai. Par exemple chez Google, ils ont réussi à faire abandonner un projet de collaborer avec l’armée américaine.<br />
<br />
<b>Arthur Messaud : </b>C’était un projet ignoble ! Heureusement qu’ils ont abandonné ça. Tous les autres projets qui sont un peu moins ignobles Google continue de les faire.<br />
<br />
<b>Aloïs Brunel : </b>C’est quand même la preuve qu’il y a une certaine puissance des employés au sein de l’entreprise. C’est la preuve qu’ils peuvent faire changer les choses.<br />
<br />
<b>Arthur Messaud : </b>C’est la preuve que les gens qui veulent du mal pour la société ont un minimum de décence, un tout petit peu !<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias, vous voulez réagir.<br />
<br />
<b>Édouard Fillias : </b>Je trouve que votre argument est un très bon argument Aloïs. Il y a un livre d’un prof de gestion, qui s’appelle Kjell Nordstrom, dont le titre <em>Talent Makes Capital Dance </em>, « Le talent domine le capital ». Pourquoi ? Parce qu’il n’y a jamais eu autant de capital dans notre société, il n’y a jamais eu autant d’argent pour faire simple.<br />
<br />
<b>Arthur Messaud : </b>Et aussi de pauvres !<br />
<br />
<b>Édouard Fillias : </b>Non, de moins en moins de pauvres ! Et il n’y a jamais eu aussi peu de talent, c’est-à-dire que le talent c’est la pierre philosophale, c’est le Graal. Aux États-Unis un développeur débutant gagne 150 000 euros par an, à 25 ans. Ce que vous dites, c’est-à-dire l’importance d’embarquer les gens dans des projets qui ont du sens, dans des projets qui sont respectueux est vitale dans des groupes dont les quelques milliers de salariés et pas des dizaines ont une influence évidemment décisive sur le cours des choses. Je crois d’ailleurs que c’est un mouvement qui dépasse la tech, c’est un mouvement général du capitalisme sur comment attirer les talents, comment faire avancer son entreprise en démontrant une implication, un sens, une utilité ; utilité que par ailleurs l’État a un peu renoncé à exercer dans nos sociétés. Je crois profondément que votre remarque est juste ; c’est une force de pression positive, ça n’est pas la seule mais c’en est une.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Après, pour revenir sur des solutions un peu plus réalistes, là le dilemme que vous posez : faut-il démanteler en plusieurs petites entreprises ou faut-il le taxer ?, eh bien c’est un faux dilemme, parce que évidemment plein d’autres solutions beaucoup plus classiques.<br />
<br />
<b>Nadia Daam : </b>Lesquelles ?<br />
<br />
<b>Arthur Messaud : </b>Comment on fait pour interdire par exemple un réseau de traite d’êtres humains. Il existe des réseaux de traite d’êtres humains qui achètent des humains pour les revendre, c’est quelque chose que légalement et moralement...<br />
<br />
<b>Édouard Fillias : </b>Tu ne peux pas comparer ça à Google ! Ce n’est pas sérieux !<br />
<br />
<b>Arthur Messaud : </b>On peut comparer. En fait Google, Facebook, aujourd’hui ce sont des entreprises qui violent le droit de façon quasiment explicite, qui ne s’en cachent même plus.<br />
<br />
<b>Nadia Daam : </b>Vous les mettez au même niveau que la traite d’êtres humains, pour comprendre.<br />
<br />
<b>Arthur Messaud : </b>Je ne mets pas au même niveau. Pourquoi je prenais cet exemple-là, parce que dans les deux cas on a une atteinte générale aux libertés fondamentales, on a une violation très claire de la loi, qui ne fait pas débat, et pourtant des commerces existent. Comment on fait pour lutter contre les pires trafiquants de drogue ou sur ces genres-là de trafics ? On ne dit pas : « On va mettre une taxe plus importante », on ne dit pas : « On va les démanteler en plusieurs structures ». Non ! On les interdit. Ce que font Google et Facebook c’est contraire à la loi. Il faut l’interdire.<br />
<br />
<b>Nadia Daam : </b>Comment est-ce qu’on interdit Google ou Facebook ? Qui décide et comment on agit ?<br />
<br />
<b>Arthur Messaud : </b>Il faut un peu de courage. La CNIL peut le faire. La CNIL peut sanctionner Google 4 milliards tous les six mois.<br />
<br />
<b>Nadia Daam : </b>La CNIL peut littéralement le faire.<br />
<br />
<b>Édouard Fillias : </b>Comment la CNIL pourrait-elle interdire Google ?<br />
<br />
<b>Arthur Messaud : </b>Un juge peut interdire. Un juge peut dire à Google : « Vous avez désormais interdiction sur le territoire français de faire tel et tel... »<br />
<br />
<b>Édouard Fillias : </b>C’est encore moins réaliste que le droit de patrimonialité des données qu’on réalise par ailleurs.<br />
<br />
<b>Nadia Daam : </b>Comment on le met en place ? Juste pour comprendre clairement comment cette interdiction peut se mettre en place ?<br />
<br />
<b>Arthur Messaud : </b>Littéralement aujourd’hui la CNIL a sanctionné Google de 50 millions d’euros d’amende, ce qui est une somme très faible par rapport à Google. Ce que pourrait faire la CNIL, je vais vous dire concrètement, c’est tous les six mois ils se réunissent, ils prennent un petit papier et ils écrivent « aujourd’hui, vu que Google n’a pas modifié son mode de fonctionnement, nous sanctionnons à 4 milliards d’euros », et tous les six mois ils refont ça. C’est vraiment quelque chose sur le papier qui peut arriver. Il n’y a absolument rien de surréaliste, ce n’est pas du tout de la science-fiction ; tout le droit a été écrit pour pouvoir faire ça.<br />
<br />
<b>Nadia Daam : </b>Pourquoi ce n’est pas fait dans ce cas-là si c’est si simple ?<br />
<br />
<b>Arthur Messaud : </b>Pourquoi ce n’est pas fait ? Parce que ce sont des problèmes politiques, ce sont de graves problèmes politiques. Regardez Cédric O, secrétaire d’État au numérique, quand il commente les propositions qu’on fait pour s’en prendre aux géants du Net, il dit à l’Assemblée nationale : « Les propositions de la Quadrature du Net sont très pertinentes, etc., mais ça serait un affront beaucoup trop brutal aux États-Unis et il y aurait des répercutions de la part de Trump sur notre économie ».<br />
<br />
<b>Nadia Daam : </b>La menace est réelle puisque ça a été formulé par le président américain.<br />
<br />
<b>Arthur Messaud : </b>Du coup on se laisse vider de notre économie, on se laisse vider de nos libertés fondamentales, on admet complètement qu’il n’y a plus rien à jouer, on baisse les bras alors qu’on s’est fait chier pour avoir un droit qui est bien construit, qui est bien carré pour nous défendre. En fait non ! Politiquement il n’y a aucune ambition et c’est ça qu’il faut dénoncer. Je ne dis pas que c’est au sein de la CNIL qu’il n’y a aucune ambition, c’est au sein du gouvernement, au sein de la CNIL il y a quand même une ambition plus importantes, mais de graves soucis à se faire.<br/><br />
Tout à l’heure j’expliquais que si vous allez sur un site Internet il y avait un petit bandeau cookie qui vous disait « en continuant à naviguer sur ce site vous acceptez tout et n’importe quoi, vous donnez votre consentement de façon implicite ». Ça c’est illégal depuis un an, depuis l’entrée en application du RGPD, c’est clairement illégal. Maintenant qui ne dit mot refuse. Le « qui ne dit mot consent » qui était un peu toléré dans le passé, maintenant est fini, c’est « qui ne dit mot refuse ». Seulement la CNIL, même si elle rend des décisions intéressantes contre Google ou autres, la CNIL s’est faite « lobbyiée » par le Geste, un syndicat qui réunit des éditeurs de presse et des services de pub, s’est faite « lobbyiée » assez victorieusement parlant parce qu’elle vient de décider, il y a un mois, que pendant encore un an sur Internet, votre consentement explicite n’était plus vraiment requis. Pendant un an encore « qui ne dit mot consent ».<br />
<br />
<b>Nadia Daam : </b>C’est-à-dire qu’ls ont fait un an de rab !<br />
<br />
<b>Arthur Messaud : </b>Ils ont fait un an de rab, alors que ce entreprises-là, ces sites-là avaient déjà eu trois ans de rab par le passé, depuis le vote du RGPD, donc c’est un an de plus dans lequel vous pouvez tranquillement violer la loi parce que, après tout, les petits sites français sont intéressants, alors même que Google, par contre, s’est fait sanctionner immédiatement. Tant mieux ! Du coup on a attaqué la CNIL devant le Conseil d’État en référé. On aura une audience mercredi contre la CNIL. On espère que ça remettra un peu de plomb dans la tête de la CNIL, parce que là ce que je vous décris comme modèle depuis le début, parce que si la CNIL est défaillante c’est sûr que les espoirs sont un peu plus faibles.<br />
<br />
<b>Édouard Fillias : </b>La CNIL que je connais bien, ils sont 60-70, un peu plus, une centaine.<br />
<br />
<b>Nadia Daam : </b>Face à Facebook, ça ne fait pas beaucoup !<br />
<br />
<b>Édouard Fillias : </b>Vous rigolez ! Ils disent eux-mêmes, la CNIL, qu’ils n’ont pas les moyens de contrôler ceux qu’ils sont censés contrôler en France. Donc de là à imaginer qu’ils vont taxer Google de quatre milliards par mois, ce qui aurait pour effet d’ailleurs que Google arrêterait de mettre à disposition ses services en France.<br />
<br />
<b>Arthur Messaud : </b>Mais c’est le but ! Ce sont des services qui violent nos libertés ! Il ne faut plus qu’ils soient là !<br />
<br />
<b>Édouard Fillias : </b>La question de fond, la question de base que vous posez aussi c’est pourquoi est-ce que l’Europe est devenue la colonie numérique des États-Unis ? Comment est-ce qu’on a pu en 20 ans perdre notre souveraineté, notre autonomie, notre destinée numérique ? Ça c’est une question qu’il faut poser à nos hommes politiques.<br />
<br />
<b>Nadia Daam : </b>Ils vous écoutent.<br />
<br />
<b>Édouard Fillias : </b>Qu’il faut poser à notre système d’innovation, de recherche, aux liens entre l’université et le business qui sont inexistants en France. La question que je voudrais qu’on pose c’est comment est-ce qu’on crée un Google, deux Google, dix Google en Europe ? Et là il faut se battre. Il faut prendre OVH plutôt qu ‘Amazon quand on est l’État.<br />
<br />
<b>Nadia Daam : </b>OVH qui est ?<br />
<br />
<b>Édouard Fillias : </b>Qui et une société d’hébergement française. Il y a des solutions politiques : par exemple un investissement massif dans un certain nombre de technologies comme l’intelligence artificielle où en France on est plutôt leader et d’ailleurs ce sont des sujets qui se pensent à l’échelle européenne et pas française. Donc il y a un vrai programme de reconquête de notre industrie, de notre technologie numérique. On a tous les atouts pour, car on a des ingénieurs d’un excellent niveau comme Aloïs.<br />
<br />
<b>Nadia Daam : </b>Et vous pointez du doigt Aloïs Brunel dans ce studio.<br />
<br />
<b>Édouard Fillias : </b>On a les moyens de se battre mais il faut accepter de se battre. Plutôt que de chercher à réglementer, interdire, taxer, etc., jouons le jeu de la compétition. Israël par exemple est un leader numérique. On peut imposer là-dessus un certain nombre de succès à nos partenaires et à être respectés du coup.<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel un dernier mot.<br />
<br />
<b>Aloïs Brunel : </b>Juste pour ajouter mon petit grain de sel à tout ça, je pense effectivement que c’est très important de construire des Google, des Facebook européens, mais d’un autre côté la régulation c’est bien. Je pense que le RGPD montre l’exemple au reste du monde et ça positionne l’Europe et nos entreprises aussi en leaders sur ces questions. Parce qu’au final, ce qu’on voit, c’est qu’aux États-Unis eux aussi commencent à se dire « on a peut être besoin d’un RGPD, nous aussi on a besoin de mettre des amendes à Facebook de cinq milliards », ce qu’ils ont fait. Je pense que la réglementation de temps en temps c’est quand même une bonne manière de se positionner en leaders.<br />
<br />
<b>Nadia Daam : </b>On approche de la fin de l’émission. J’ai encore une dernière question pour mes invités.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em> sur France Inter.<br />
<br />
<b>Nadia Daam : </b>La question rituelle du mois d’août : avec quelle personnalité vivante ou disparue, célèbre ou anonyme, vous aimeriez pourvoir débattre, Édouard Fillias ?<br />
<br />
<b>Édouard Fillias : </b>J’ai lu cet été <em>Terre des hommes</em> d’Antoine de Saint-Exupéry, donc je lui demanderais ce qu’il pense de notre époque. À mon avis il serait à la fois fasciné parce que c’est l’aventure, la nouveauté ; en même temps il se poserait la question de l’humanité et de nos libertés, de notre dignité. Voilà ! J’aimerais avoir cette discussion-là avec lui.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud ?<br />
<br />
<b>Arthur Messaud : </b>J’aimerais bien, enfin je rêve littéralement parfois dans mon sommeil que je débats à nouveau avec mes profs de droit que j’ai beaucoup aimés. S’ils m’entendent je serais ravi de débattre à nouveau avec eux. Je le fais parfois en public. Appelez-moi !<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel, même question.<br />
<br />
<b>Aloïs Brunel : </b>Moi j’aurais dit Mary Shelley qui est donc l’autrice de <em>Frankenstein</em>. Personnellement je suis très intéressé par tous les mouvements de transhumanisme, je suis assez fasciné par les avancées médicales, le génie génétique. Je suis aussi un peu horrifié parfois par ce qui se passe, bien sûr l’intelligence artificielle. On peut un peu se poser la question « est-ce qu’on n’est pas en train de créer plein de petits monstres, de Frankenstein, dans plein de domaines ? » En tout cas je serais assez intéressé de discuter3 avec elle qui a aussi vécu une révolution industrielle et voir comment elle voit le monde d’aujourd’hui.<br />
<br />
<b>Nadia Daam : </b>Merci à tous les trois et merci à l’équipe du <em>Débat de midi</em>. Lucie Lemarchand était à la réalisation ; à la technique Stéphane Baujat et Fabrice Desmas. Demain on se demandera à quoi ça rime d’être maire.</div>D Ohttps://wiki.april.org/index.php?title=Donn%C3%A9es_personnelles_:_sommes-nous_des_victimes_consentantes_-_Le_d%C3%A9bat_de_midi&diff=85548Données personnelles : sommes-nous des victimes consentantes - Le débat de midi2019-09-01T03:05:04Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Données personnelles : sommes-nous des victimes consentantes ? <br />
<br />
'''Intervenants :''' Arthur Messaud - Aloïs Brunel - Édouard Fillias - Nadia Daam<br />
<br />
'''Lieu :''' <em>Le débat de midi</em>, France Inter<br />
<br />
'''Date :''' août 2019<br />
<br />
'''Durée :''' 52 min 37<br />
<br />
'''[http://rf.proxycast.org/1603139209609093120/12440-12.08.2019-ITEMA_22123984-0.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceinter.fr/emissions/le-debat-de-midi/le-debat-de-midi-12-aout-2019 Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
Transcription : MO<br />
<br />
==Description==<br />
<br />
Au moins neuf Français sur dix estiment que leurs données personnelles doivent être mieux protégées, selon une étude Dolmen, Opinionway. Avec tout ce que nous semons en utilisant notre téléphone, notre ordinateur au quotidien, faisons-nous vraiment attention ? Est-ce que nous faisons tout pour protéger nos données ?<br />
<br />
==Transcription==<br />
<br />
<b>Nadia Daam : </b>Vous n’avez pas pu échapper à la déferlante de cheveux gris, de rides et de crânes dégarnis sur Facebook, Twitter ou encore Instagram. Un coup de vieux général permis par le tube de l’été numérique FaceApp, cette application mobile qui, à partir d’un simple selfie, vous permet de savoir à quoi vous ressemblerez dans 50 ans et qui a occupé anonymes et célébrités dans la joie et le détachement d’un mois de juillet, à peine perturbés par les mises en garde des associations de défense des droits des utilisateurs d’Internet et même par le Parti démocrate américain quand ils ont tenté, en vain, de siffler la fin de la récré. En consultant simplement les conditions d’utilisation, on comprend très vite que télécharger son selfie pour ricaner deux minutes c’est céder à l’entreprise un accès irrévocable et perpétuel aux photos concernées et prendre le risque de retrouver sa trombine en 4 X 3 sur une affiche vantant les mérites par exemple d’un monte-escalier ou encore imprimée sur le tract d’un parti politique. Ces avertissements n’ont pas empêché FaceApp de se hisser en tête des applications les plus téléchargées et c’est une insouciance qui interroge. Pourquoi, alors que 9 Français sur 10 se disent inquiets de la protection de leurs données personnelles, continue-t-on à donner des petits bouts de nous-même sans se faire des cheveux blancs ? Parce qu’on n’est pas à une contradiction près, on attend vos avis et vos réactions sur Twitter. Sommes-nous des fichés volontaires ? C’est la question qu’on se pose jusqu’à 13 heures.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em>. Nadia Daam sur France Inter.<br />
<br />
<b>Nadia Daam : </b>Et avec moi pour en débattre en direct j’accueille Aloïs Brunel. Bonjour.<br />
<br />
<b>Aloïs Brunel : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Merci d’être là. Vous êtes le fondateur de Deepomatic, c’est une plateforme de reconnaissance visuelle qui se définit comme le Shazam de l’image. En français et en deux mots ça veut dire quoi ?<br />
<br />
<b>Aloïs Brunel : </b>Ce que fait Deepomatic c’est simple, on édite et on commercialise un logiciel à destination des entreprises qui va leur permettre d’automatiser des tâches visuelles. Tâches visuelles ça peut être toutes sortes de choses par exemple de l‘encaissement dans les restaurants d’entreprise : vous allez à votre cantine, vous passez votre plateau repas en dessous d’une caméra ça détecte entrés, plat, dessert - Yoplait framboise - et ça vous encaisse. Ça peut être détecter des défauts dans des canalisations d’eau potable, ça peut être des péages sans barrière. C’est toutes sortes de choses.<br />
<br />
<b>Nadia Daam : </b>C’est plus clair comme ça, effectivement. Arthur Messaud, bonjour.<br />
<br />
<b>Arthur Messaud : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Vous êtes le juriste de l’association La Quadrature du Net, association de défense des droits et des libertés des citoyens sur Internet. Je vais vous demander votre avis tout à l’heure sur FaceApp. À vos côtés Édouard Fillias. Bonjour.<br />
<br />
<b>Édouard Fillias : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Bienvenue, vous avez publié, co-publié, un <em>Manuel de survie sur internet</em> aux Éditions Ellipses. Vous êtes également vice-président du <em>think tank</em> Génération Libre qui est à l’origine d’une proposition très controversée, on va en parler évidemment tout à l’heure. J’ai une première question pour bien comprendre : les données personnelles c’est ce qu’on sème avec les tablettes, nos téléphones, nos ordinateurs, mais est-ce que ça concerne tout le monde ? Ma mère, 68 ans, n’a pas de compte Facebook, pas de montre connectée, est-ce qu’elle laisse une empreinte numérique ? Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Si vous avez déjà mis une image, une photo de votre mère, de votre grand-mère, si vous avez déjà parlé d’elle, si vous avez des relations par téléphone, par SMS, par mail, eh bien oui, elle rentre dedans.<br />
<br />
<b>Nadia Daam : </b>Elle a une existence numérique.<br />
<br />
<b>Arthur Messaud : </b>Elle a une existence numérique. Elle peut même avoir un compte fantôme, ce qu’on peut appeler sur Facebook un compte fantôme ce sont les gens qui ne sont pas inscrits sur Facebook mais qui sont quand même connus des services de Facebook, notamment pas les traceurs qu’on peut retrouver sur les sites de presse, traceurs qui ont été posés là volontairement par <em>Le Monde</em> ou <em>Le Figaro</em>, qui permettent à Facebook de savoir qui consulte quand, quel article. Et ça votre grand-mère, pour peu que sur son ordinateur elle passe sur un site du <em>Monde</em>, elle aura un compte fantôme.<br />
<br />
<b>Nadia Daam : </b>Ça suffit à lui créer une identité.<br/><br />
Édouard Fillias, pourquoi ces données sont aussi précieuses, à la fois pour les entreprises et aussi pour nous ? Pourquoi est-ce que c’est un sujet si actuel et important ?<br />
<br />
<b>Édouard Fillias : </b>Pour faire court, parce qu’il y a beaucoup de façons de répondre, ces données nourrissent des algorithmes qui permettent de cibler d’une part la communication publicitaire, ce à quoi elles servent principalement aujourd’hui - c’est le cœur de l’affaire Cambridge Analytica -, mais aussi plus profondément elles permettent de comprendre nos comportements donc de les anticiper, donc de les suggérer. Et les algorithmes du futur qui sont en train d’émerger aujourd’hui et qui s’expriment à travers des plateformes comme Alexa ou Amazon ou Facebook que vous citiez auront une capacité d’anticipation et d’orientation de nos comportements très avancée grâce à ces sommes de données colossales qui sont récupérées sur nous depuis maintenant plusieurs années voire plusieurs décennies en réalité. Et ce sont des données qu’on contrôle d’autant moins qu’on signe toute la journée, sans s’en rendre compte, des pactes softiens. On appelle ça chez Génération Libre des pactes softiens par référence au pacte kantien, évidemment. En fait, vous signez des contrats sans les lire, tout le temps, exactement ce que vous disiez sur FaceApp, mais ce n’est pas seulement FaceApp ; toutes les applications, tous les logiciels, tous les services numériques vous demandent de signer des contrats qui font parfois des dizaines de pages.<br />
<br />
<b>Nadia Daam : </b>Et qu’on ne consulte pas.<br />
<br />
<b>Édouard Fillias : </b>Jamais. Que vous ne consultez pas et dans lesquels vous déléguez des droits extrêmement importants sur vos données, des droits de conservation de ces données, des droits d’utilisation sans votre consultation, des droits d’utilisation parfois pour des fins politiques. Et ça, évidemment, ça pose un vrai problème fondamental de liberté individuelle. Est-ce que demain toutes ces données dont nous avons été dépossédés sans notre consentement explicite en réalité, seront utilisées contre nous, pour nous influencer ?<br />
<br />
<b>Nadia Daam : </b>On va définir ces notions de consentement explicite et éclairé juste après Macy Gray, <em>Big Brother</em>.<br />
<br />
<b>Pause musicale : </b><em>Big Brother</em>, Macy Gray.<br />
<br />
==9’ 00==<br />
<br />
<b>Nadia Daam : </b>C’était Macy Gray, une reprise très libre de <em>Big Brother</em> de, j’ai oublié, Stevie Wonder, je ne l’ai même pas reconnu ! Vous êtes sur France Inter et <em>Le débat de midi</em> se penche sur nos données personnelles. Promis, on vous les rend juste après. L’émission est préparée par Caroline Pomes.<br />
<br />
<b>Extrait du documentaire de <em>The Great Hack</em> : </b>Cambridge Analytica n’est pas seulement une entreprise de collecte des données. Elle ne se contente pas de mettre en place des algorithmes. Non. Il s’agit bien d’une véritable machine de propagande. Je devais trouver un moyen de récolter des données alors je suis allé voir des professeurs de l’université de Cambridge pour avoir leur avis.<br/><br />
Le scientifique Aleksandr Kogan nous a proposé une application Facebook qui avait l’autorisation de récolter non seulement les données de la personne qui utilisait l’appli en question mais qui avait aussi le pouvoir de s’introduire dans le cercle d’amis Facebook de la personne et d’en collecter également les données.<br/><br />
On a récolté les mises à jour de statuts, les <em>like</em> et même parfois les messages privés.<br/><br />
On ne ciblait pas seulement les gens en tant qu’électeurs on les ciblait pour leur personnalité.<br/><br />
L’avantage c’est qu’il nous suffisait de toucher seulement quelques centaines de milliers de personnes pour réussir à construire le profil psychologique de tous les électeurs américains.<br/><br />
<br />
— Et les gens ne savaient pas que leurs données étaient collectées ?<br />
<br />
-— Non. <br />
<br />
— Et à aucun moment vous ne vous êtes dit qu’il s’agissait d’informations à caractère privé ett que vous les utilisez sans le consentement des différentes personnes concernées ?<br />
<br />
— Non.<br />
<br />
<b>Nadia Daam : </b>C’était un extrait du documentaire de <em>The Great Hack</em> qui est disponible sur Netflix depuis fin juillet. On vient d’entendre le témoignage de Christopher Wylie c’est lui, entre autres, qui a révélé entre autres comment Cambridge Analytica s’était appropriée les données de 50 millions d’utilisateurs via Facebook. Arthur Messaud, cette affaire Cambridge Analytica montre aussi que les données sont convoitées par les entreprises, certes, mais aussi par les gouvernements ou les partis politiques.<br />
<br />
<b>Arthur Messaud : </b>Tout à fait. Cette affaire, Cambridge Analytica, c’est une caricature de ce qui existe aujourd’hui, de ce qui va exister de plus en plus et c’est un très bon révélateur pour réaliser qu’en fait toute la discussion qu’on a là c’est une discussion politique. On n’est pas en train de débattre pour défendre le consommateur contre des entreprises qui exploiteraient économiquement. Non ! Ces questions-là sont politiques. Cambridge Analityca est une affaire dans laquelle des personnes ont été surveillées de façon massive et de façon assez profonde - on a leur psychologie - pour exercer une influence politique sur des élections. Et ça, en fait, c’est ce qui arrive quotidiennement avec la publicité ciblée en ligne. Déjà la publicité de base, la publicité dans le métro a un rôle assez important de pousser à la consommation de voyages qui vont avoir un coût écologique énorme, de pousser à a la consommation d ‘iPhones qui ont un coût social énorme quand on sait dans quelles conditions les travailleurs sont exploités.<br />
<br />
<b>Nadia Daam : </b>En l’occurrence, il s’agit de ciblage, ces publicités dont vous parlez sont ciblées.<br />
<br />
<b>Arthur Messaud : </b>Ce n’est même plus le cas, là je parlais de la pub dans le métro. Mais quand elles deviennent ciblées elles ont un impact encore plus grand. Ça passe à une échelle assez délirante qui permet, en fait, de maintenir la société tout entière dans des conditions politiques favorables à certaines entreprises qui sont des conditions de consommation de masse, des conditions qui sont complètement contraires aux enjeux écologiques, aux enjeux sociaux et qu’il faut dénoncer. Cambridge Analytica a été très utile comme ça pour être une caricature : regardez, Trump, ce vilain Trump a été élu à cause des rouages de la publicité ciblée qui, en fait, nous manipule constamment toutes et tous et du coup nous concerne tous d’un point de vue politique.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Je pense que c’est un débat et qu’il faut quand même faire attention ; il ne faut pas sombrer dans le techno-scepticisme ou la techno-phobie. Les données qui sont collectées et la publicité ciblée parfois nous profitent, elles aident à améliorer…<br />
<br />
<b>Arthur Messaud : </b>Qui est « nous » là ?<br />
<br />
<b>Édouard Fillias : </b>Nous le citoyen, consommateur, individu. <br />
<br />
<b>Arthur Messaud : </b>Ah !<br />
<br />
<b>Édouard Fillias : </b>Par exemple la publicité ciblée permet de se débarrasser des publicités qui ne nous intéressent pas, des publicités ennuyantes, dont d’ailleurs on a subi sur Internet pendant des années l’extension. Enfin bref, vous voyez ce que je veux dire.<br />
<br />
<b>Nadia Daam : </b>Les popups.<br />
<br />
<b>Édouard Fillias : </b>Les popups, pour avoir un contenu plus intéressant pour l’utilisateur. Le vrai problème, celui d’ailleurs que vous combattez, c’est celui de l’abus du consentement, c’est-à-dire le fait que des données soient utilisées à notre insu en permanence pour nous influencer. Et c’est ça la vraie question, c’est comment est-ce qu’on contrôle le consentement ?<br />
<br />
<b>Nadia Daam : </b>Cette affaire Cambridge Analytica est-ce que c’est du vol ? Est-ce que c’est du pillage ? Est-ce que c’est du cambriolage puisque les données ont été siphonnées sans consentement explicite certes ? Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Facebook leur a donné accès à tout ça. Il n’y a pas de vol, il n’y a pas de bug, c’est Facebook qui leur a donné accès à ça.<br />
<br />
<b>Nadia Daam : </b>Ce que je veux dire c’est que c’est le modèle économique de ces entreprises, c’est le prix.<br />
<br />
<b>Arthur Messaud : </b>Oui, c’est le modèle économique dans lequel on vit aujourd’hui. Cambridge Analytica, ils y sont allés assez forts puisqu’ils sont allés sur le terrain politique, mais tout ça c’est normal. Dans le monde dans lequel on est c’est malheureusement normal et il faut le dénoncer.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Il faut être précis et je pense que ces données de Cambridge Analytica, qui ont été utilisées pour cette opération de propagande, sont des données, je crois, antérieures à 2012, une époque où l’API de Facebook permettait d’accéder à tout et n’importe quoi. Je le sais puisqu’à l’époque j’avais accès à n’importe quoi pour mes clients ce qui, d’ailleurs, me choquait, en réalité. Depuis Facebook a quand même énormément restreint l’accès de ses API de ses données d’ailleurs comme Linkdedin avant lui.<br />
<br />
<b>Nadia Daam : </b>Les API ?<br />
<br />
<b>Édouard Fillias : </b>Les API ce sont des applications qui permettent d’exporter des données vers d’autres applications. Une API ouverte est une API où vous pouvez aller ramasser tout ce qui se dit, tout ce qui se passe sur Facebook par exemple. Et ça n’est pas plus le cas maintenant depuis quelques années : il y a des progrès, une prise de conscience a eu lieu, une prise de conscience d’ailleurs politique de la part des plateformes, mais c’est loin d’être suffisant.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud vous êtes sceptique. Il n’y a pas eu un avant et un après Cambridge Analytica ?<br />
<br />
<b>Arthur Messaud : </b>Non, non pas vraiment. En fait le droit évolue constamment, depuis bien dix ans, de façon assez rigoureuse sur ces sujets-là. Évidemment que Facebook et beaucoup d’entreprises font semblant de changer ou changent un peu parfois pour de vrai pour éviter que les scandales s’accumulent. Facebook, Google, si vous mettez ensemble les deux, vous avez un scandale par mois, un scandale tous les deux mois. Évidemment qu’ils ont peur de ça, d’autant plus quand ces scandales-là ont maintenant des conséquences juridiques qui leur font de plus en plus peur ; pas encore très peur, mais on vient et c’est là où l’espoir peut être dans le futur. On a des armes pour leur faire peur qu’on a déjà commencées à mettre en action. On reviendra en détail sur ça je pense.<br />
<br />
<b>Nadia Daam : </b>Il y a une avancée majeure, peut-être pas à l’échelle mondiale, mais en tout cas européenne, c’est le RGPD [Réglement général de protection des donnéEs] qui renforce le droit des internautes européens, qui met en place plusieurs obligations pour les entreprises. Sur le papier ça a l’air d’être une révolution, mais il y a un sondage qui dit que 80 % des internautes cliquent sur le bouton « tout accepter ». Aloïs Brunel, c’est la preuve que dans les mentalités, les automatismes n’ont pas encore évolué tant que ça ou pas suffisamment.<br />
<br />
<b>Aloïs Brunel : </b>Je parle en tant qu’internaute moi-même, je crois qu’aujourd’hui on est sensibilisé au fait que des données, nos données personnelles sont utilisées à des fins mercantiles, on ne sait même pas exactement bien comment elles sont utilisées. Je crois que d’une part on est tous, moi le premier, un peu feignants sur ces choses-là, on a envie d’utiliser ces services.<br />
<br />
<b>Nadia Daam : </b>C’est de la paresse ?<br />
<br />
<b>Aloïs Brunel : </b>Je pense que d’une part il y a une partie de paresse, je pense qu’on a envie de continuer à utiliser ces services.<br />
<br />
<b>Nadia Daam : </b>On a envie d’aller vite.<br />
<br />
<b>Aloïs Brunel : </b>Et on se dit « je vais tout accepter » parce que c’est la quinzième fois qu’on me demande si je veux modifier les paramètres de navigation sur tel ou tel site. Et puis, d’un autre côté, il est vrai aussi qu’un certain nombre de sites ont mis en place ces formulaires d’une manière qui est mauvaise dans le sens où elle ne propose pas un bon choix à l’utilisateur. On dit « tout accepter », il n’y a pas d’autre bouton qui nous dit « ne rien accepter », ou alors ça devient extrêmement compliqué d’aller chercher dans les paramètres qui vont permettre de désactiver telle ou telle fonctionnalité et ça, effectivement, c’est un vrai problème.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Je ne pense pas que ce soit de la paresse, je pense que ce n’est vraiment pas notre faute en tant qu’utilisateurs et utilisatrices. On est victimes de ça, on n’est pas du tout co-auteurs on est juste des victimes. Qu’est-ce qui se passe ? Pourquoi on clique sur « tout accepter » ? Pourquoi on se fait surveiller comme ça alors qu’en théorie on devrait avoir un certain contrôle sur ce qui nous arrive?<br/><br />
En théorie parce que la plupart des sites internet ou des applications de téléphone que vous visitez, violent le droit sans aucun souci, soit parce qu’elles ne demandent pas votre consentement, elles font ce qu’elles ont envie faire et s'en vont le faire, soit elles se contentent d’un consentement implicite. C’est par exemple ce que vous avez sur les sites de presse comme <em>Le Monde</em> ou <em>Le Figaro</em> : vous avez un petit bandeau en bas qui dit « si vous continuez à utiliser ce site vous acceptez toutes nos conditions et c’est comme ça ! »<br />
<br />
<b>Nadia Daam : </b>Et qu’est-ce que ça implique de cliquer « oui » ?<br />
<br />
<b>Arthur Messaud : </b>Il n’y a même pas de « oui », il n’y a même pas de bouton. Dans ce cas-là il n’y a pas de bouton et c’est juste en continuant de visiter le site, en cliquant sur un lien, en scrollant donc en descendant sur la page, ils considèrent que ça c’est un consentement valable.<br />
<br />
<b>Nadia Daam : </b>Que c’est acquis.<br />
<br />
<b>Arthur Messaud : </b>On reviendra là-dessus, ce en quoi ce n’est pas valable. Et le dernier point, c’est ce qu’on retrouve souvent sur les applications de téléphone, au moment d’installer l’application je refais <em>FaceApp</em>, ils vous disent : « On va surveiller tout ce que vous faites, utiliser vos images pour ce qu’on veut. Vous acceptez ? » Oui. Très bien. Si vous refusez vous ne pouvez pas accéder à l’application. C’est souvent, en fait, vu comme une monnaie : les données personnelles, notre vie privée, nos libertés fondamentales dans ce cas-là sont considérées comme une monnaie par ces entreprises-là qui disent : « Si vous voulez accéder à notre service, à notre bien vous devez payer avec une liberté fondamentale ». Il se trouve heureusement que le RGPD et le droit intérieur d’ailleurs, le droit européen dans son ensemble, condamnent cette vision des choses. Les données personnelles ne sont pas une marchandise.<br />
<br />
<b>Nadia Daam : </b>Il y a eu des condamnations sérieuses de sociétés ? Lesquelles ?<br />
<br />
<b>Arthur Messaud : </b>Oui, bien sûr. Déjà en janvier dernier il y a eu une première condamnation de la CNIL contre Google qui traitait surtout l’aspect explicite du consentement, mais avant il y avait eu une condamnation il me semble de <em>Teemo</em> ; il y avait aussi eu une condamnation de Linkedin aussi par la CNIL qui revenait sur cette notion de consentement libre. Notre consentement n’est pas libre, n’est pas valide, s’il est donné sous la contrainte de ne pas accéder à un service ou à un bien. Donc on a des condamnations de la CNIL, on a des jurisprudentielles d’autorités européennes tout à faite explicites et stables et cette philosophie est vraiment au cœur du droit européen des données personnelles : les données personnelles ne sont pas des marchandises parce que, c’est une liberté fondamentale, si elles étaient dans le commerce elles pourraient être marchandées et tous les gens qui ne sont pas très riches iraient les vendre. C’est ce qui se passe sur Facebook : sur Facebook on vend notre liberté fondamentale pour accéder « gratuitement » à un service. En fait, dans ce monde-là, il n’y a plus que les riches qui peuvent se payer un accès payant à Gmail pour que leurs mails ne soient pas surveillés.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias, le <em>think tank</em> Génération Libre auquel vous appartenez a proposé dans un rapport très controversé, je le disais en début d’émission, d’instaurer un droit de propriété des données personnelles. Concrètement ça veut dire que le citoyen peut avoir le droit de vendre ses données ou de les garder et ça se monétise pour le coup. C’est ça ? C’est la marchandisation des données ?<br />
<br />
==19’ 24==<br />
<br />
<b>Édouard Fillias : </b>Il y a trois stratégies pour répondre à la question du consentement, du pacte softien que j’évoquais tout à l’heure en référence, évidemment, à Faust.<br/><br />
La première c’est la stratégie je dirais collectiviste, qui est de dire « on crée une agence nationale de protection des données des citoyens », une stratégie un peu dictatoriale, un peu à la russe. Bon, OK ! Admettons. On considère que c’est une souveraineté numérique de contrôler nos données. Évidemment c’est un système qui nous est profondément étranger parce que ça reviendrait à donner tous les pouvoirs à l’État. D’ailleurs c’est un peu le sens de la lutte que vous menez contre le super fichier TES [fichier des titres électroniques sécurisés] et nous sommes solidaires.<br />
<br />
<b>Nadia Daam : </b>Donc Arthur Messaud avec La Quadrature du Net.<br />
<br />
<b>Édouard Fillias : </b>Voilà. La deuxième stratégie c’est celle de la CNIL, c’est de défendre des droits individuels et donc de porter plainte contre les entreprises, les États, quand ils abusent de ces droits, au nom de droits bien définis. On voit que c’est une stratégie qui, aujourd’hui, tente de fonctionner mais qui en réalité ne fonctionne pas vraiment. C’est d’ailleurs ce que vous disiez, en fait, on vide l’océan avec une petite cuillère.<br />
<br />
<b>Nadia Daam : </b>C’est-à-dire que les entreprises ont toujours un coup d’avance.<br />
<br />
<b>Édouard Fillias : </b>Bien sûr. Elles ont toujours un coup d’avance et elles auront de plus en plus un coup d’avance. Et je crois que c’est tellement tentant cette pierre philosophale de l’intelligence artificielle absolue qui nous contrôle et en réalité, on le sait aujourd’hui, que les possibilités de l’IA pour nous contrôler et nous orienter sont immenses. On est au début du croisement entre les neurosciences, les sciences de l’IA, du Nudge qui sont l’étude des comportements.<br />
<br />
<b>Arthur Messaud : </b>Bingo ! Des mots à la mode !<br />
<br />
<b>Édouard Fillias : </b>Et dernier point, la dernière stratégie c’est celle de la liberté, de la responsabilité individuelle. C’est celle qu’on appelle le droit de patrimonialité des données. C’est-à-dire que chaque individu se voit recevoir une extension de ses droits individuels, de ses libertés individuelles, sur ses propres données. Votre travail est votre propriété, c’est le fruit de vous-même, c’est une extension de vous, c’est reconnu dans la déclaration des droits et c’est inaliénable, c’est le droit de propriété.<br />
<br />
<b>Nadia Daam : </b>Et il en irait de même pour mes données ?<br />
<br />
<b>Édouard Fillias : </b>Il en irait de même pour vos données. On s’inspire Jaron Lanier là-dessus, qui ne vous est pas étranger puisque c’est un des papes de la réalité virtuelle et d’Internet qui, dans un papier de référence à Standford explique <em>Should We Treat Data as Labor? </em>, « est-ce qu’on doit considérer les données comme du travail ? » Et sa réponse est évidemment oui. L’idée c’est exactement comme les droits à polluer par exemple en matière de gestion des champs environnementaux, c’est de donner des droits à chacun de vendre ou de ne pas vendre ses données. C’est-à-dire qu’au lieu de signer des contrats, pseudos contrats qu’en fait personne ne lit, qui sont donc léonins de ce fait, eh bien on vous demanderait : « Est-ce que vous souhaitez ou non commercialiser vos données pour accéder à ce service ? » Ce serait une demande qui serait explicitement formalisée par l’application numérique que vous utiliseriez et vous répondriez oui ou non.<br />
<br />
<b>Nadia Daam : </b>Sommes-nous tous égaux quand cette proposition est faite ? Il n’y a pas le risque de créer une société à deux vitesses : on aurait seuls les riches qui pourraient se permettre le luxe, s’offrir le luxe de conserver leurs données et les plus pauvres qui seraient obligés de les brader ?<br />
<br />
<b>Édouard Fillias : </b>Déjà Facebook nous arnaque déjà en réalité. Parce que l’accès à un pseudo service gratuit en échange de données, échange qui d’ailleurs n’est pas en réalité formalisé, c’est-à-dire que les gens n’en ont pas conscience ; c’est d’ailleurs pour ça que j’ai écrit de ce <em>Manuel de survie sur internet</em>. C’est pour essayer d’instruire chacun des véritables enjeux derrière les applications. Les gens n’ont pas conscience un, de donner leurs données et deux, en réalité ils se font avoir parce que les données qu’ils donnent à Facebook valent beaucoup plus que l’accès gratuit au service.<br />
<br />
<b>Nadia Daam : </b>Vous ne répondez pas à ma question.<br />
<br />
<b>Édouard Fillias : </b>Quelle est votre question ? Pardon.<br />
<br />
<b>Nadia Daam : </b>Je vous demandais est-ce qu’on est tous égaux face à ce que vous proposez ?<br />
<br />
<b>Édouard Fillias : </b>Non. C’est-à-dire que certaine données valent plus cher que d’autres. Des personnes qui ont un très fort pouvoir d’achat et qui sont par exemple obsédées de voitures, mettons de luxe, évidemment les données de ces personnes auront beaucoup plus de valeur pour un vendeur de voitures de luxe à un instant t . Mais on est en train de faire des modélisations économétriques de la valeur moyenne de ces données pour chaque Français et par catégorie de population. On fait ça avec l’École d’économie de Toulouse, la Toulouse School of Economics, et on publiera nos résultats en septembre-octobre. C’est plusieurs dizaines d’euros par mois que chaque Français peut recevoir.<br />
<br />
<b>Arthur Messaud : </b>Oui, que vous dites !<br />
<br />
<b>Édouard Fillias : </b>Non.<br />
<br />
<b>Arthur Messaud : </b>C’est une moyenne que vous faites.<br />
<br />
<b>Édouard Fillias : </b>Une moyenne pour les Français, plusieurs dizaines de revenus par mois de revenus additionnels en échange de l’utilisation des grands services numériques qui existent aujourd’hui.<br/><br />
Évidemment si vous êtes quelqu’un à très fort pouvoir d’achat ça peut être plus. Si, au contraire, vous snobez complètement Internet et que vous êtes un profil réfractaire, évidemment vous n’en tirerez aucun profit. C’est l’idée que vous soyez responsabilisé face à l’utilisation qui est faite de vos données. Encore une fois je le répète, si vous ne souhaitez pas vendre vos données vous pouvez ne pas le faire et ça, effectivement, c’est un vrai changement de philosophie, c’est un vrai changement de façon de voir. Je voudrais citer Proudhon pour conclure avant de céder la parole.<br />
<br />
<b>Nadia Daam : </b>Carrément !<br />
<br />
<b>Édouard Fillias : </b> « La propriété est la plus grande force révolutionnaire qui existe. C’est la propriété qui façonne les sociétés ». Nous proposons d’injecter de la propriété là où il n’y en a pas sur nos données.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Il dit aussi que c’est le vol la propriété. C’est assez délirant de citer Proudhon. Bref ! Là on voit clairement un modèle de société, vous l’avez bien vu, dans lequel les riches auront encore plus d’argent et les pauvres auront encore moins d’argent <br />
<br />
<b>Édouard Fillias : </b>Non. Ils auront plus d’argent aussi !<br />
<br />
<b>Nadia Daam : </b>Et plus de liberté.<br />
<br />
<b>Arthur Messaud : </b>Ils auront 25 centimes par mois.<br />
<br />
<b>Édouard Fillias : </b>Non, ils auront plusieurs dizaines d’euros.<br />
<br />
<b>Nadia Daam : </b>La question c’est aussi sur la liberté, le droit de pouvoir conserver ses données pour soi.<br />
<br />
<b>Arthur Messaud : </b>Honnêtement ce débat, moi je trouve qu’il n’y a pas besoin d’en parler mille ans, il vient apporter des solutions à un problème qui n’existe pas, qu’il n’y a pas. On ne voit pas très bien ce que ça essaie de corriger. On voit surtout que ça apporte beaucoup de problèmes, beaucoup de questions comme vous l’avez dit. Est-ce que tout le monde aura le même accès ? Est-ce qu’il n’y aura que les riches qui pourront accéder gratuitement au service sans être surveillés ? On l’a dit, en tout cas ce n’est pas l’état du droit. L’état du droit c’est « les données personnelles ne sont pas des marchandises ». Évidement qu’on est impatient ! On voit que les plus grosses entreprises continuent de violer la loi et ne sont pas sanctionnées out pas sanctionnées à un montant qui serait utile et efficace. Je comprends cette frustration mais la solution de Génération Libre n’apporte pas du tout de réponse à ce problème-là, vient juste rajouter d’autres problèmes, d’autres problèmes qui, de façon intellectuelle, sont intéressants à débattre, mais ce sont des problèmes très classiques entre ultralibéraux et personnes plus attachées aux libertés fondamentales classiques.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias. Et je voudrais retourner à Aloïs Brunel après.<br />
<br />
<b>Édouard Fillias : </b>Juste un point de philosophie de fond, parce là on touche le fond. Le Conseil d’État, et d’ailleurs l’Europe, s’oppose à ce type de législation parce qu’il considère effectivement que notre corps est une propriété inaliénable. <br />
<br />
<b>Nadia Daam : </b>Et qu’on serait donc dans la marchandisation qui est un encore un tabou absolu dans nos sociétés.<br />
<br />
<b>Édouard Fillias : </b>Nous on conteste cela. Nous pensons que la base d’une société libre est une société où chacun s’appartient et se possède. Par exemple chacun a le droit de décider si l’État, quand il prélève ses organes à sa mort, devra rémunérer ou pas sa famille ce qui aujourd’hui n’est pas le cas. L’État prélève les organes sans même l’autorisation, sans même demander vaguement l’autorisation à votre famille. Donc la meilleure forme de résistance à l’absolutisme de l’État et à la toute puissance de corporations qui ne seraient plus retenues par rien - on pourra parler des GAFA si vous voulez, parce que c’est un débat dans le débat - c’est d’affirmer que nous nous possédons nous-mêmes et si nous nous possédons nous-même, nous possédons nos données. Et ça c’est un point de doctrine de fond qui est effectivement appelé à évoluer. Il évoluera sur ce sujet-là, il évoluera sur les sujets de bioéthiques aussi.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Ça, ça ne répond à aucun problème. On va passer à autre chose, parce qu’on sait qu’en est en désaccord.<br />
<br />
<b>Nadia Daam : </b>On va écouter aussi Aloïs Brunel.<br />
<br />
<b>Arthur Messaud : </b>On comprend très bien votre logique, ça ne répond à aucun problème pratique. Là, le problème pratique en question c’est comment on fait pour que Google et Facebook respectent la loi. Ce que vous décrivez, la marchandisation des données, ce n’est jamais que ce que font déjà Google et Facebook aujourd’hui de façon implicite, mais ils le font déjà. Vous pensez qu’en étant explicite ça serait plu simple. Nous on pense que la priorité c’est de faire respecter la loi, d’ailleurs que ce soit votre loi de propriété ou la loi actuelle. Enfin, comme vous dites, il faut être propriétaire de son corps ça, c’est une pensée qui est assez ancienne, c’est une pensée qu’on a plutôt dépassée en Europe et dans d’autres pays, c’est la pensée dans laquelle on pouvait se mettre en esclavage soi-même pour rembourser une dette, dans laquelle on pouvait mettre en esclavage ses enfants, ses descendants, pour rembourser une dette, ce qui a créé une structure dans laquelle l’esclavagisme était assez normal ; là je parle plus de l’esclavagisme antique, pas tellement moderne. C’est clairement quelque chose qui est entièrement rejeté par nos philosophies modernes. Vous avez une philosophie qui revient beaucoup dans le passé. Nous on pense que ce n’est pas le bon chemin. On continuera d’être en désaccord sur cette idée de propriété de soi qui ne bénéficie qu’aux plus riches.<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel, votre société qu’est-ce qu’elle fait des informations, des données qu’elle reçoit ? Comment est-ce qu’elle les traite ? Où est-ce qu’elle les stocke ? Ce sont des données biométriques.<br />
<br />
<b>Aloïs Brunel : </b>Oui. Tout à fait. Déjà ce qu’il faut savoir de par la nature même de ce qu’on fait et des applications que font nos clients de nos technologies, on n’est pas voué, on n’a pas vocation à stocker des données personnelles genre l’âge, des informations sur telle ou telle personne, des identités. Ceci étant dit, nos systèmes qui analysent des images et des vidéos peuvent être amenés à voir, à certains moments, des informations biométriques ou des informations personnelles. Par exemple dans une caméra on peut voir des personnes et leur visage ; on peut éventuellement voir des plaques d’immatriculation. Je parlais tout à l’heure des plateaux repas, il se peut qu’il y ait une carte de crédit ou un badge qui soit posé sur le plateau repas.<br />
<br />
<b>Nadia Daam : </b>Donc c’est une somme d’informations.<br />
<br />
<b>Aloïs Brunel : </b>Tout ça ce sont des informations qui ne sont absolument pas utiles pour l’exploitation de nos systèmes, mais cela dit, qui peuvent, à un moment donné ou un autre, se retrouvées visualisées par une personne. Pour nous, ce qui est important de faire là-dedans, c’est de faire en sorte que ces données-là ne soient pas visibles pour des humains.<br />
<br />
<b>Nadia Daam : </b>Concrètement vous floutez ?<br />
<br />
<b>Aloïs Brunel : </b>Concrètement, en fait, on floute. C’est globalement ce qu’on fait. On va flouter des plaques d’immatriculation, des visages, les personnes entières, les cartes de crédit, pour que ces choses-là ne soient pas visibles à n’importe quel moment de la chaîne d’exploitation de ces images. En fait c’est même plus fort que ça, c’est-à-dire que ça c’est dans la vie des produits que l’on vend aux entreprises, mais ça crée même des opportunités pour nous puisque des entreprises viennent nous voir uniquement pour faire de l’anonymisation, pour se conformer au RGPD.<br />
<br />
<b>Nadia Daam : </b>En fait pour vous le RGPD a été une aubaine.<br />
<br />
<b>Aloïs Brunel : </b>En partie. Ce sont en partie des opportunités. C’est aussi des contraintes, mais ce sont aussi des opportunités parce que les entreprises cherchent à se conformer au RGPD, donc à anonymiser leurs données. Et pour ça, en fait paradoxalement l’intelligence artificielle peut-être utile puisqu’elle va détecter automatiquement tous ces objets et toutes ces données biométriques pour ensuite les flouter.<br />
<br />
<b>Nadia Daam : </b>On va continuer cette conversation juste après Renan Luce, <em>On s'habitue à tout</em>.<br />
<br />
<b>Pause musicale : </b><em>On s'habitue à tout</em>, Renan Luce.<br />
<br />
==32’ 45==<br />
<br />
<b>Nadia Daam : </b>C’était Renan Luce. À la programmation musicale Thierry Dupin.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em>. Nadia Daam sur France Inter.<br />
<br />
<b>Nadia Daam : </b>On s’intéresse donc à la protection de nos données personnelles. Je voudrais poser, transmettre une question très concrète d’un auditeur parce qu’il faut rester concret. C’est Marie qui nous demande si le fait d’opter pour la navigation privée suffit à la protéger. Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>C’est un bon début. Toutes ces petites astuces-là, sont bien à faire. Installer des extensions pour votre navigateur, par exemple uBlock Origin qui est très bien, ça ce sont de bonnes choses à faire. La navigation privée c’est plus pour se protéger des autres personnes qui utilisent l’ordinateur ; par exemple si son mari veut l’espionner, la navigation privée va la défendre de ça. Après, on ne va pas se mentir, des solutions contre des géants comme Facebook ou Google ou d’autres entreprises plus cachées, ne viendront pas de notre défense individuelle. Il faut se défendre collectivement par la loi, par la CNIL, par des actions de groupe. Malheureusement ces géants sont trop puissants techniquement pour qu’on puisse se défendre tout seul.<br />
<br />
<b>Nadia Daam : </b>On ne parle que de Google et de Facebook depuis tout à l’heure, c’est quelque chose effectivement de la responsabilité uniquement de ces grands GAFAM ou c’est quelque chose de plus global ?<br />
<br />
<b>Arthur Messaud : </b>Nnon, c’est complètement généralisé. D’abord Google et Facebook vendent un service à des clients qui sont extrêmement nombreux qui sont aussi fautifs. Les clients ça va être tous les sites Internet de presse qui relaient, enfin qui utilisent leurs traceurs et leurs outils d’espionnage. Ça va être toutes les marques, toutes les grandes marques de voitures, de voyages, qui font appel aux services de la publicité ciblée pour nous manipuler.<br />
<br />
<b>Nadia Daam : </b>C’est tentaculaire, Facebook, ce que vous êtes en train de dire.<br />
<br />
<b>Arthur Messaud : </b>Non, ce n’est pas Facebook qui est tentaculaire. C’est que cette question-là de surveillance économique de toute la population à des fins de manipulation économique concerne presque toutes les grosses boîtes, celles qui vendent, celles qui produisent, celles qui embauchent, que ce soit en France, aux États-Unis, partout dans le monde. Aujourd’hui comme un grand groupe comme Auchan, Monoprix qui fait de la pub sur Facebook ou de la pub ailleurs que sur Facebook en utilisant les outils de Facebook est complice de ce dévoiement de la société vers une logique de surveillance généralisée.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>D’abord je tiens à dire que la Quadrature du Net fait un travail remarquable, je suis d’ailleurs un donateur et un adhérent historique de ce mouvement. On a une divergence sur cette question, mais le travail est remarquable et utile. Je crois à la responsabilité individuelle. Le mot de passe le plus fréquent en France, c’est 1 2 3 4 5 6.<br />
<br />
<b>Nadia Daam : </b>On va parler des mots de passe <br />
<br />
<b>Édouard Fillias : </b>Ensuite c’est <em>I love you</em>. Ensuite c’est le prénom des enfants.<br />
<br />
<b>Nadia Daam : </b>Le prénom ou le nom du chat.<br />
<br />
<b>Édouard Fillias : </b>Attendez. On va dire qu’on va poursuivre devant la CDH Facebook et on n’est pas capable de se mettre un mot de passe avec une majuscule et une minuscule ? Donc il y a un problème de responsabilité.<br />
<br />
<b>Nadia Daam : </b>Mais comment vous l’expliquez ça ? Cette naïveté ?<br />
<br />
<b>Édouard Fillias : </b>Je pense qu’il y a un décalage entre le débat qu’on a aujourd’hui et la perception, l’acuité de la perception du caractère potentiellement dramatique que ces données manipulées peuvent avoir contre nous. On est en fait comme dans les prémisses du débat écologique. On est dans les années 60-70, on se rend compte qu’il va y avoir un sujet, mais on n’en pas en fait totalement conscience, ce qui se traduit par des comportements profondément irresponsables. Un enfant, par exemple, ne doit pas être seul sur Internet avant douze ans. On ne met pas une console de jeu dans les mains d’un enfant avant six ans.<br />
<br />
<b>Nadia Daam : </b>Qui dit ça ? Qui établit des règles ?<br />
<br />
<b>Édouard Fillias : </b>Serge Tisseron qui est un sociologue et un psychologue et qui a écrit là-dessus cette fameuse règle des « 3-6-9-12 ».<br />
<br />
<b>Nadia Daam : </b>La règle des « 3-6-9-12 », pas d’écran avant.<br />
<br />
<b>Édouard Fillias : </b>C’est quand même une règle de bon sens ! Combien d’enfants traînent devant Internet !<br />
<br />
<b>Arthur Messaud : </b>Moi j’étais petit.<br />
<br />
<b>Édouard Fillias : </b>Peut-être trop tôt alors Arthur ! Par ailleurs on voit sur Internet des photos des enfants qui sont laissées par les familles ; c’est juste inadmissible ; c’est inacceptable !<br />
<br />
<b>Nadia Daam : </b>Ça c’est le paradoxe. Les parents voudraient sensibiliser leurs enfants à ces problématiques et en même temps ils sont les premiers à leur créer une identité numérique en postant des photos.<br />
<br />
<b>Édouard Fillias : </b>Sur les réseaux sociaux. Absolument. Et là, pour le coup, ma spécialité professionnelle c’est la réputation numérique. Quand vous avez une trace numérique, qu’elle soit une trace sur un réseau social, une trace sur Google, etc., elle est gravée sur le chrome pour l’éternité. On ne se défait jamais d’une information qui est arrivée sur vous. Donc il est extrêmement important de sensibiliser les enfants dès l’école au fait que les réseaux sociaux c’est la rue. Un parent ne laisse ses enfants place de Clichy à minuit tout seuls !<br />
<br />
<b>Nadia Daam : </b>Qui le fait ?<br />
<br />
<b>Édouard Fillias : </b>Eh bien aujourd’hui personne ne le fait. Les hommes politiques sont d’une génération qui ne se sent pas directement concernée. Les nouvelles générations arrivent, probablement plus sensibles, je pense, à ces sujets de données. C’est modestement ce que j’ai essayé de faire avec ce <em>Manuel de survie sur Internet</em> qui, en 100 questions, essaie de baliser des conseils très concrets, très simples, par exemple installer les mises à jour de son système d’exploitation.<br />
<br />
<b>Nadia Daam : </b>Tiens, je ne l’ai pas fait !<br />
<br />
<b>Édouard Fillias : </b>Vous ne l’avez pas fait ! Personne ne le fait, c’est rasoir. Évidemment Arthur utilise Linux [GNU/Linux, NdT], donc...<br />
<br />
<b>Arthur Messaud : </b>Il est bien fait. Tout marche très bien.<br />
<br />
<b>Édouard Fillias : </b>Mais la plupart des gens sont sur Windows, donc vous mettez à jour votre système d’exploitation. Ce sont des choses très simples. C’est aussi avoir conscience des menaces. Il y a un vrai business aujourd’hui du trafic de la Carte Bleue sur le darknet vous trouvez des numéros de Cartes Bleues autant que vous voulez, vous trouvez des mots de passe. Allez sur le site HIBP [<em>Have I Been Pwned? </em>], tapez votre adresse mail et vous verrez tous les endroits où vous avez été hacké et où des données ont été likées sur vous. J’ai fait l’exercice moi-même il y a quelques mois, des données sur moi ont été volées sur Dailymotion, sur Linkedin, sur Facebook. Donc c‘est facile.<br />
<br />
<b>Nadia Daam : </b>C’est terrifiant !<br />
<br />
<b>Édouard Fillias : </b>Mais oui !<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Non ce n’est pas terrifiant. Ces cas en question, il faut voir dans le détail ; ce ne sont pas des choses systématiquement dramatiques. Juste je trouve que la comparaison avec l’écologie est très bonne et c’est là où notre désaccord idéologique apparaît de nouveau de façon très claire pour tous les auditeurs et auditrices. En écologie il y a deux positions. Il y a certaines personnes plutôt comme moi je le dis pour Internet vont défendre des solutions collectives, vont penser que les problèmes, qu’ils soient écologiques ou en matière de données personnelles, viennent de grands groupes et de grandes entreprises qui, voulant se faire encore plus d’argent, vont aggraver la situation de la collectivité, du monde entier. Et d’autres personnes qui pensent que le problème vient plus de situations individuelles, donc que les solutions soient individuelles : il faut prendre des douches courtes ; il faut trier ses déchets. Ce n’est pas aux entreprises de trier les déchets ! Ce n’est pas aux entreprises de réduire le plastique dans leurs produits ! Non, non ! C’est à nous petits individus.<br />
<br />
<b>Nadia Daam : </b>Des petits pas !<br />
<br />
<b>Arthur Messaud : </b>On devient tout d’un d’un coup auteurs de la propre situation dont on est en fait victimes.<br />
<br />
<b>Nadia Daam : </b>Et ça c’est faux ? On n’a pas aussi une forme de responsabilité ?<br />
<br />
<b>Arthur Messaud : </b>En matière d’écologie je ne sais pas parce que je ne suis pas expert sur la question.<br />
<br />
<b>Nadia Daam : </b>Non. Sur le sujet qui nous occupe aujourd’hui.<br />
<br />
<b>Arthur Messaud : </b>En matière de données personnelles.<br />
<br />
<b>Édouard Fillias : </b>Bien sûr que si ! Vous vous plaignez des bouteilles d’eau qu’on a en studio.Bien sûr que si vous êtes responsable !<br />
<br />
<b>Arthur Messaud : </b>En fait, en matière de données personnelles, la situation qui s’aggrave c’est-à-dire des manipulations politiques de plus en plus fréquentes, des fuites de données de plus en plus importantes, nous ne sommes pas responsables de ça, nous sommes simplement des victimes. Les responsables ce sont les grands groupes qui bénéficient de ces systèmes et dans ces grands groupes je veux bien mettre Radio France dedans, qui va faire de la publicité sur le site, qui va utiliser les outils de Facebook, de Google et d’autres, évidemment Facebook et Google, toutes ces personnes-là sont responsables et ce sont elles qu’il faut aller chercher, ce sont elles qu’il faut sanctionner et interdire<br />
<br />
<b>Nadia Daam : </b>On ne peut pas faire les deux : tordre le bras des grands groupes et modifier nos comportements ?<br />
<br />
<b>Arthur Messaud : </b>Si, un peu. Mais modifier vos comportements ne va pas changer grand-chose. Si ça vous fait plaisir bien. Protéger ses mots de passe parfois ça a de vrais intérêts pratiques, il n’y a pas de souci, mais c’est juste en surface, ça ne va pas changer grand-chose, vous n’allez pas aller très loin, vous n’allez pas beaucoup vous protéger parce qu’en face ils sont bien meilleurs que vous. S’ils veulent vous attaquer, vous aurez beau éviter d’aller sur Facebook, éviter d’avoir un smartphone, ce que je fais moi, par exemple ; ça ne change rien au fait qu’ils trouveront un moyen.<br />
<br />
<b>Nadia Daam : </b>Vous n’avez pas de téléphone !<br />
<br />
<b>Arthur Messaud : </b>Si j’ai un téléphone. Rien que ça, avoir un téléphone, c’est s’exposer beaucoup . En fait vous pourrez essayer de jouer au plus malin, vous ne serez pas les plus malins face à ces entreprises et encore moins face à l’État, si on rajoute les problèmes de surveillance de l’État. On reviendra après sur ça j’espère.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Tordre le bras, comme vous dites, de ces grands groupes, il faut se lever tôt le matin ! Il y a deux solutions : ou vous les taxez ou vous les disséquez, vous cassez leur oligopole, leur monopole et vous les découpez. Ce qui a été fait avec Standard Oil à une autre époque. Le problème c’est qu’aucune de ces deux stratégies ne fonctionne.<br/><br />
La première, la taxation, eh bien ils augmentent leurs prix, donc voilà c’est réglé. L’affaire Bruno Le Maire l’a illustré récemment.<br/><br />
La deuxième, on n’a tout simplement pas les arguments en droit parce que ce ne sont pas, en réalité, des entreprises en situation de monopole ; elles ont des concurrents. Et puis quelle législation s’appliquerait ? Ça serait l’américaine, pas l’européenne, ça ne marche pas !<br />
<br />
<b>Nadia Daam : </b>Si on en décapite une décapite une, il y en a peut-être dix qui repoussent derrière.<br />
<br />
<b>Édouard Fillias : </b>Exactement. En fait cette histoire n’a pas de fin parce que, de toute façon, si on arrivait mettons à couper la tête de Google, ce qui n’est pas du tout à mon avis quelque chose de souhaitable, eh bien naîtrait un autre Google aussitôt et même peut-être trois autres. Donc comment faire ? Il y a deux façons de faire. Celle que vous faites, celle qu’on essaie de faire aussi c’est-à-dire sensibiliser l’opinion publique. Faire comme ça se passe aussi aujourd’hui pour l’environnement, mettre la pression du consommateur sur la marque et ça ça marche. Et je peux vous le dire, les marques sont extrêmement sensibles à cette perception de leur image. On va voir apparaître dans les années qui viennent…<br />
<br />
<b>Nadia Daam : </b>Ce qu’on appelle le <em>Name and shame</em><br />
<br />
<b>Édouard Fillias : </b>Exactement. De confidentialité, de conformité des data qui sont utilisées sur nous. Je crois énormément que le marché va s’amender là-dessus.<br/><br />
La deuxième stratégie, j’y reviens, c’est celle de donner des responsabilités, des libertés individuelles., Responsabilité aux parents, je l’évoquais, mais aussi des libertés, le droit de patrimonialité. Ça, ça nous semble une façon raisonnable. D’ailleurs on a parlé à Facebook et Google de cette idée de droit de patrimonialité des données, ils ont tout à fait d’accord là-dessus.<br />
<br />
<b>Arthur Messaud : </b>Évidemment ! C’est évident !<br />
<br />
<b>Édouard Fillias : </b>C’est quelque chose qui pour eux peut être un progrès dans leur façon à eux d’assumer leurs responsabilités.<br />
<br />
<b>Nadia Daam : </b>Alois Brunel.<br />
<br />
==41’ 55==<br />
<br />
<b>Aloïs Brunel : </b>Je crois qu’il y a aussi un troisième point qui est intéressant, qui n’a pas été évoqué ici pour régler en partie ce problème, c’est qu’il y a une force qui est très importante pour toutes ces grandes entreprises, Facebook, Google, etc., c’est leur force de travail, c’est leurs employés. Eux misent tout là-dessus, ils les bichonnent, ils leur fournissent un environnement de travail qui est excellent et on a vu récemment que ces employés étaient de plus en plus sensibilisés à ces problématiques également. Des développeurs, chez Facebook, qui commencent à avoir des regrets qui se disent « je suis en train de participer à quelque chose... »<br />
<br />
<b>Nadia Daam : </b>De repentis, des renégats.<br />
<br />
<b>Aloïs Brunel : </b>Des repentis ou des gens, à l’intérieur, qui travaillent encore chez Facebook ou chez Google et qui se posent des questions. Je pense que cette force-là c’est une force de changement au sein de ces entreprises. Je pense qu’il y a une vraie responsabilité des entreprises, c’est vrai, il faut qu’elles se posent les questions éthiques qui vont bien. Je pense que les employés de ces entreprises sont très puissants en fait ; dans ces entreprises technologiques, ils sont puissants et il peuvent être force de pression.<br />
<br />
<b>Nadia Daam : </b>Vous pensez que la pression peut être mise et plus efficace de l’intérieur ?<br />
<br />
<b>Aloïs Brunel : </b>De l’intérieur ; je pense que oui.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud est hyper-sceptique.<br />
<br />
<b>Arthur Messaud : </b>Oui. Encore une fois c’est une petite solution pour des problèmes énormes. On ne va pas juste faire reposer les espoirs de l’humanité, tous nos espoirs communs, on ne va pas les faire reposer sur une dizaine de salariés qui auraient une éthique. Non, non ! Ces boîtes-là ce sont des boîtes qui sont là pour faire de l’argent, qui sont extrêmement puissantes, qui ont des monopoles sur plein de secteurs, elles ne sont pas là pour être éthiques, elles ne seront jamais éthiques. Je pense que personne n’est dupe quand on regarde Marc Zuckerberg et son air extrêmement détaché de tout ce qui peut exister d’humain, personne n’est dupe sur le fait qu’il n’a aucune éthique et que ses salariés, s’ils ont une éthique, ils iront justetravailler pour la concurrence qui n’aura pas beaucoup plus d’éthique en fait.<br />
<br />
<b>Nadia Daam : </b>Alois Brunel.<br />
<br />
<b>Aloïs Brunel : </b>Ce n’est pas vrai. Par exemple chez Google, ils ont réussi à faire abandonner un projet de collaborer avec l’armée américaine.<br />
<br />
<b>Arthur Messaud : </b>C’était un projet ignoble ! Heureusement qu’ils ont abandonné ça. Tous les autres projets qui sont un peu moins ignobles Google continue de les faire.<br />
<br />
<b>Aloïs Brunel : </b>C’est quand même la preuve qu’il y a une certaine puissance des employés au sein de l’entreprise. C’est la preuve qu’ils peuvent faire changer les choses.<br />
<br />
<b>Arthur Messaud : </b>C’est la preuve que les gens qui veulent du mal pour la société ont un minimum de décence, un tout petit peu !<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias, vous voulez réagir.<br />
<br />
<b>Édouard Fillias : </b>Je trouve que votre argument est un très bon argument Aloïs. Il y a un livre d’un prof de gestion, qui s’appelle Kjell Nordstrom, dont le titre <em>Talent Makes Capital Dance </em>, « Le talent domine le capital ». Pourquoi ? Parce qu’il n’y a jamais eu autant de capital dans notre société, il n’y a jamais eu autant d’argent pour faire simple.<br />
<br />
<b>Arthur Messaud : </b>Et aussi de pauvres !<br />
<br />
<b>Édouard Fillias : </b>Non, de moins en moins de pauvres ! Et il n’y a jamais eu aussi peu de talent, c’est-à-dire que le talent c’est la pierre philosophale, c’est le Graal. Aux États-Unis un développeur débutant gagne 150 000 euros par an, à 25 ans. Ce que vous dites, c’est-à-dire l’importance d’embarquer les gens dans des projets qui ont du sens, dans des projets qui sont respectueux est vitale dans des groupes dont les quelques milliers de salariés et pas des dizaines ont une influence évidemment décisive sur le cours des choses. Je crois d’ailleurs que c’est un mouvement qui dépasse la tech, c’est un mouvement général du capitalisme sur comment attirer les talents, comment faire avancer son entreprise en démontrant une implication, un sens, une utilité ; utilité que par ailleurs l’État a un peu renoncé à exercer dans nos sociétés. Je crois profondément que votre remarque est juste ; c’est une force de pression positive, ça n’est pas la seule mais c’en est une.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Après, pour revenir sur des solutions un peu plus réalistes, là le dilemme que vous posez : faut-il démanteler en plusieurs petites entreprises ou faut-il le taxer ?, eh bien c’est un faux dilemme, parce que évidemment plein d’autres solutions beaucoup plus classiques.<br />
<br />
<b>Nadia Daam : </b>Lesquelles ?<br />
<br />
<b>Arthur Messaud : </b>Comment on fait pour interdire par exemple un réseau de traite d’êtres humains. Il existe des réseaux de traite d’êtres humains qui achètent des humains pour les revendre, c’est quelque chose que légalement et moralement...<br />
<br />
<b>Édouard Fillias : </b>Tu ne peux pas comparer ça à Google ! Ce n’est pas sérieux !<br />
<br />
<b>Arthur Messaud : </b>On peut comparer. En fait Google, Facebook, aujourd’hui ce sont des entreprises qui violent le droit de façon quasiment explicite, qui ne s’en cachent même plus.<br />
<br />
<b>Nadia Daam : </b>Vous les mettez au même niveau que la traite d’êtres humains, pour comprendre.<br />
<br />
<b>Arthur Messaud : </b>Je ne mets pas au même niveau. Pourquoi je prenais cet exemple-là, parce que dans les deux cas on a une atteinte générale aux libertés fondamentales, on a une violation très claire de la loi, qui ne fait pas débat, et pourtant des commerces existent. Comment on fait pour lutter contre les pires trafiquants de drogue ou sur ces genres-là de trafics ? On ne dit pas : « On va mettre une taxe plus importante », on ne dit pas : « On va les démanteler en plusieurs structures ». Non ! On les interdit. Ce que font Google et Facebook c’est contraire à la loi. Il faut l’interdire.<br />
<br />
<b>Nadia Daam : </b>Comment est-ce qu’on interdit Google ou Facebook ? Qui décide et comment on agit ?<br />
<br />
<b>Arthur Messaud : </b>Il faut un peu de courage. La CNIL peut le faire. La CNIL peut sanctionner Google 4 milliards tous les six mois.<br />
<br />
<b>Nadia Daam : </b>La CNIL peut littéralement le faire.<br />
<br />
<b>Édouard Fillias : </b>Comment la CNIL pourrait-elle interdire Google ?<br />
<br />
<b>Arthur Messaud : </b>Un juge peut interdire. Un juge peut dire à Google : « Vous avez désormais interdiction sur le territoire français de faire tel et tel... »<br />
<br />
<b>Édouard Fillias : </b>C’est encore moins réaliste que le droit de patrimonialité des données qu’on réalise par ailleurs.<br />
<br />
<b>Nadia Daam : </b>Comment on le met en place ? Juste pour comprendre clairement comment cette interdiction peut se mettre en place ?<br />
<br />
<b>Arthur Messaud : </b>Littéralement aujourd’hui la CNIL a sanctionné Google de 50 millions d’euros d’amende, ce qui est une somme très faible par rapport à Google. Ce que pourrait faire la CNIL, je vais vous dire concrètement, c’est tous les six mois ils se réunissent, ils prennent un petit papier et ils écrivent « aujourd’hui, vu que Google n’a pas modifié son mode de fonctionnement, nous sanctionnons à 4 milliards d’euros », et tous les six mois ils refont ça. C’est vraiment quelque chose sur le papier qui peut arriver. Il n’y a absolument rien de surréaliste, ce n’est pas du tout de la science-fiction ; tout le droit a été écrit pour pouvoir faire ça.<br />
<br />
<b>Nadia Daam : </b>Pourquoi ce n’est pas fait dans ce cas-là si c’est si simple ?<br />
<br />
<b>Arthur Messaud : </b>Pourquoi ce n’est pas fait ? Parce que ce sont des problèmes politiques, ce sont de graves problèmes politiques. Regardez Cédric O, secrétaire d’État au numérique, quand il commente les propositions qu’on fait pour s’en prendre aux géants du Net, il dit à l’Assemblée nationale : « Les propositions de la Quadrature du Net sont très pertinentes, etc., mais ça serait un affront beaucoup trop brutal aux États-Unis et il y aurait des répercutions de la part de Trump sur notre économie ».<br />
<br />
<b>Nadia Daam : </b>La menace est réelle puisque ça a été formulé par le président américain.<br />
<br />
<b>Arthur Messaud : </b>Du coup on se laisse vider de notre économie, on se laisse vider de nos libertés fondamentales, on admet complètement qu’il n’y a plus rien à jouer, on baisse les bras alors qu’on s’est fait chier pour avoir un droit qui est bien construit, qui est bien carré pour nous défendre. En fait non ! Politiquement il n’y a aucune ambition et c’est ça qu’il faut dénoncer. Je ne dis pas que c’est au sein de la CNIL qu’il n’y a aucune ambition, c’est au sein du gouvernement, au sein de la CNIL il y a quand même une ambition plus importantes, mais de graves soucis à se faire.<br/><br />
Tout à l’heure j’expliquais que si vous allez sur un site Internet il y avait un petit bandeau cookie qui vous disait « en continuant à naviguer sur ce site vous acceptez tout et n’importe quoi, vous donnez votre consentement de façon implicite ». Ça c’est illégal depuis un an, depuis l’entrée en application du RGPD, c’est clairement illégal. Maintenant qui ne dit mot refuse. Le « qui ne dit mot consent » qui était un peu toléré dans le passé, maintenant est fini, c’est « qui ne dit mot refuse ». Seulement la CNIL, même si elle rend des décisions intéressantes contre Google ou autres, la CNIL s’est faite « lobbyiée » par le Geste, un syndicat qui réunit des éditeurs de presse et des services de pub, s’est faite « lobbyiée » assez victorieusement parlant parce qu’elle vient de décider, il y a un mois, que pendant encore un an sur Internet, votre consentement explicite n’était plus vraiment requis. Pendant un an encore « qui ne dit mot consent ».<br />
<br />
<b>Nadia Daam : </b>C’est-à-dire qu’ls ont fait un an de rab !<br />
<br />
<b>Arthur Messaud : </b>Ils ont fait un an de rab, alors que ce entreprises-là, ces sites-là avaient déjà eu trois ans de rab par le passé, depuis le vote du RGPD, donc c’est un an de plus dans lequel vous pouvez tranquillement violer la loi parce que, après tout, les petits sites français sont intéressants, alors même que Google, par contre, s’est fait sanctionner immédiatement. Tant mieux ! Du coup on a attaqué la CNIL devant le Conseil d’État en référé. On aura une audience mercredi contre la CNIL. On espère que ça remettra un peu de plomb dans la tête de la CNIL, parce que là ce que je vous décris comme modèle depuis le début, parce que si la CNIL est défaillante c’est sûr que les espoirs sont un peu plus faibles.<br />
<br />
<b>Édouard Fillias : </b>La CNIL que je connais bien, ils sont 60-70, un peu plus, une centaine.<br />
<br />
<b>Nadia Daam : </b>Face à Facebook, ça ne fait pas beaucoup !<br />
<br />
<b>Édouard Fillias : </b>Vous rigolez ! Ils disent eux-mêmes, la CNIL, qu’ils n’ont pas les moyens de contrôler ceux qu’ils sont censés contrôler en France. Donc de là à imaginer qu’ils vont taxer Google de quatre milliards par mois, ce qui aurait pour effet d’ailleurs que Google arrêterait de mettre à disposition ses services en France.<br />
<br />
<b>Arthur Messaud : </b>Mais c’est le but ! Ce sont des services qui violent nos libertés ! Il ne faut plus qu’ils soient là !<br />
<br />
<b>Édouard Fillias : </b>La question de fond, la question de base que vous posez aussi c’est pourquoi est-ce que l’Europe est devenue la colonie numérique des États-Unis ? Comment est-ce qu’on a pu en 20 ans perdre notre souveraineté, notre autonomie, notre destinée numérique ? Ça c’est une question qu’il faut poser à nos hommes politiques.<br />
<br />
<b>Nadia Daam : </b>Ils vous écoutent.<br />
<br />
<b>Édouard Fillias : </b>Qu’il faut poser à notre système d’innovation, de recherche, aux liens entre l’université et le business qui sont inexistants en France. La question que je voudrais qu’on pose c’est comment est-ce qu’on crée un Google, deux Google, dix Google en Europe ? Et là il faut se battre. Il faut prendre OVH plutôt qu ‘Amazon quand on est l’État.<br />
<br />
<b>Nadia Daam : </b>OVH qui est ?<br />
<br />
<b>Édouard Fillias : </b>Qui et une société d’hébergement française. Il y a des solutions politiques : par exemple un investissement massif dans un certain nombre de technologies comme l’intelligence artificielle où en France on est plutôt leader et d’ailleurs ce sont des sujets qui se pensent à l’échelle européenne et pas française. Donc il y a un vrai programme de reconquête de notre industrie, de notre technologie numérique. On a tous les atouts pour, car on a des ingénieurs d’un excellent niveau comme Aloïs.<br />
<br />
<b>Nadia Daam : </b>Et vous pointez du doigt Aloïs Brunel dans ce studio.<br />
<br />
<b>Édouard Fillias : </b>On a les moyens de se battre mais il faut accepter de se battre. Plutôt que de chercher à réglementer, interdire, taxer, etc., jouons le jeu de la compétition. Israël par exemple est un leader numérique. On peut imposer là-dessus un certain nombre de succès à nos partenaires et à être respectés du coup.<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel un dernier mot.<br />
<br />
<b>Aloïs Brunel : </b>Juste pour ajouter mon petit grain de sel à tout ça, je pense effectivement que c’est très important de construire des Google, des Facebook européens, mais d’un autre côté la régulation c’est bien. Je pense que le RGPD montre l’exemple au reste du monde et ça positionne l’Europe et nos entreprises aussi en leaders sur ces questions. Parce qu’au final, ce qu’on voit, c’est qu’aux États-Unis eux aussi commencent à se dire « on a peut être besoin d’un RGPD, nous aussi on a besoin de mettre des amendes à Facebook de cinq milliards », ce qu’ils ont fait. Je pense que la réglementation de temps en temps c’est quand même une bonne manière de se positionner en leaders.<br />
<br />
<b>Nadia Daam : </b>On approche de la fin de l’émission. J’ai encore une dernière question pour mes invités.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em> sur France Inter.<br />
<br />
<b>Nadia Daam : </b>La question rituelle du mois d’août : avec quelle personnalité vivante ou disparue, célèbre ou anonyme, vous aimeriez pourvoir débattre, Édouard Fillias ?<br />
<br />
<b>Édouard Fillias : </b>J’ai lu cet été <em>Terre des hommes</em> d’Antoine de Saint-Exupéry, donc je lui demanderais ce qu’il pense de notre époque. À mon avis il serait à la fois fasciné parce que c’est l’aventure, la nouveauté ; en même temps il se poserait la question de l’humanité et de nos libertés, de notre dignité. Voilà ! J’aimerais avoir cette discussion-là avec lui.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud ?<br />
<br />
<b>Arthur Messaud : </b>J’aimerais bien, enfin je rêve littéralement parfois dans mon sommeil que je débats à nouveau avec mes profs de droit que j’ai beaucoup aimés. S’ils m’entendent je serais ravi de débattre à nouveau avec eux. Je le fais parfois en public. Appelez-moi !<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel, même question.<br />
<br />
<b>Aloïs Brunel : </b>Moi j’aurais dit Mary Shelley qui est donc l’autrice de <em>Frankenstein</em>. Personnellement je suis très intéressé par tous les mouvements de transhumanisme, je suis assez fasciné par les avancées médicales, le génie génétique. Je suis aussi un peu horrifié parfois par ce qui se passe, bien sûr l’intelligence artificielle. On peut un peu se poser la question « est-ce qu’on n’est pas en train de créer plein de petits monstres, de Frankenstein, dans plein de domaines ? » En tout cas je serais assez intéressé de discuter3 avec elle qui a aussi vécu une révolution industrielle et voir comment elle voit le monde d’aujourd’hui.<br />
<br />
<b>Nadia Daam : </b>Merci à tous les trois et merci à l’équipe du <em>Débat de midi</em>. Lucie Lemarchand était à la réalisation ; à la technique Stéphane Baujat et Fabrice Desmas. Demain on se demandera à quoi ça rime d’être maire.</div>D Ohttps://wiki.april.org/index.php?title=Donn%C3%A9es_personnelles_:_sommes-nous_des_victimes_consentantes_-_Le_d%C3%A9bat_de_midi&diff=85547Données personnelles : sommes-nous des victimes consentantes - Le débat de midi2019-09-01T00:20:18Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Données personnelles : sommes-nous des victimes consentantes ? <br />
<br />
'''Intervenants :''' Arthur Messaud - Aloïs Brunel - Édouard Fillias - Nadia Daam<br />
<br />
'''Lieu :''' <em>Le débat de midi</em>, France Inter<br />
<br />
'''Date :''' août 2019<br />
<br />
'''Durée :''' 52 min 37<br />
<br />
'''[http://rf.proxycast.org/1603139209609093120/12440-12.08.2019-ITEMA_22123984-0.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceinter.fr/emissions/le-debat-de-midi/le-debat-de-midi-12-aout-2019 Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :''' <br />
<br />
'''NB :''' <em>transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.<br /><br />
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.</em><br />
<br />
Transcription : MO<br />
<br />
==Description==<br />
<br />
Au moins neuf Français sur dix estiment que leurs données personnelles doivent être mieux protégées, selon une étude Dolmen, Opinionway. Avec tout ce que nous semons en utilisant notre téléphone, notre ordinateur au quotidien, faisons-nous vraiment attention ? Est-ce que nous faisons tout pour protéger nos données ?<br />
<br />
==Transcription==<br />
<br />
<b>Nadia Daam : </b>Vous n’avez pas pu échapper à la déferlante de cheveux gris, de rides et de crânes dégarnis sur Facebook, Twitter ou encore Instagram. Un coup de vieux général permis par le tube de l’été numérique FaceApp, cette application mobile qui, à partir d’un simple selfie, vous permet de savoir à quoi vous ressemblerez dans 50 ans et qui a occupé anonymes et célébrités dans la joie et le détachement d’un mois de juillet, à peine perturbés par les mises en garde des associations de défense des droits des utilisateurs d’Internet et même par le Parti démocrate américain quand ils ont tenté, en vain, de siffler la fin de la récré. En consultant simplement les conditions d’utilisation, on comprend très vite que télécharger son selfie pour ricaner deux minutes c’est céder à l’entreprise un accès irrévocable et perpétuel aux photos concernées et prendre le risque de retrouver sa trombine en 4 X 3 sur une affiche vantant les mérites par exemple d’un monte-escalier ou encore imprimée sur le tract d’un parti politique. Ces avertissements n’ont pas empêché FaceApp de se hisser en tête des applications les plus téléchargées et c’est une insouciance qui interroge. Pourquoi, alors que 9 Français sur 10 se disent inquiets de la protection de leurs données personnelles, continue-t-on à donner des petits bouts de nous-même sans se faire des cheveux blancs ? Parce qu’on n’est pas à une contradiction près, on attend vos avis et vos réactions sur Twitter. Sommes-nous des fichés volontaires ? C’est la question qu’on se pose jusqu’à 13 heures.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em>. Nadia Daam sur France Inter.<br />
<br />
<b>Nadia Daam : </b>Et avec moi pour en débattre en direct j’accueille Aloïs Brunel. Bonjour.<br />
<br />
<b>Aloïs Brunel : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Merci d’être là. Vous êtes le fondateur de Deepomatic, c’est une plateforme de reconnaissance visuelle qui se définit comme le Shazam de l’image. En français et en deux mots ça veut dire quoi ?<br />
<br />
<b>Aloïs Brunel : </b>Ce que fait Deepomatic c’est simple, on édite et on commercialise un logiciel à destination des entreprises qui va leur permettre d’automatiser des tâches visuelles. Tâches visuelles ça peut être toutes sortes de choses par exemple de l‘encaissement dans les restaurants d’entreprise : vous allez à votre cantine, vous passez votre plateau repas en dessous d’une caméra ça détecte entrés, plat, dessert - Yoplait framboise - et ça vous encaisse. Ça peut être détecter des défauts dans des canalisations d’eau potable, ça peut être des péages sans barrière. C’est toutes sortes de choses.<br />
<br />
<b>Nadia Daam : </b>C’est plus clair comme ça, effectivement. Arthur Messaud, bonjour.<br />
<br />
<b>Arthur Messaud : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Vous êtes le juriste de l’association La Quadrature du Net, association de défense des droits et des libertés des citoyens sur Internet. Je vais vous demander votre avis tout à l’heure sur FaceApp. À vos côtés Édouard Fillias. Bonjour.<br />
<br />
<b>Édouard Fillias : </b>Bonjour.<br />
<br />
<b>Nadia Daam : </b>Bienvenue, vous avez publié, co-publié, un <em>Manuel de survie sur internet</em> aux Éditions Ellipses. Vous êtes également vice-président du <em>think tank</em> Génération Libre qui est à l’origine d’une proposition très controversée, on va en parler évidemment tout à l’heure. J’ai une première question pour bien comprendre : les données personnelles c’est ce qu’on sème avec les tablettes, nos téléphones, nos ordinateurs, mais est-ce que ça concerne tout le monde ? Ma mère, 68 ans, n’a pas de compte Facebook, pas de montre connectée, est-ce qu’elle laisse une empreinte numérique ? Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Si vous avez déjà mis une image, une photo de votre mère, de votre grand-mère, si vous avez déjà parlé d’elle, si vous avez des relations par téléphone, par SMS, par mail, eh bien oui, elle rentre dedans.<br />
<br />
<b>Nadia Daam : </b>Elle a une existence numérique.<br />
<br />
<b>Arthur Messaud : </b>Elle a une existence numérique. Elle peut même avoir un compte fantôme, ce qu’on peut appeler sur Facebook un compte fantôme ce sont les gens qui ne sont pas inscrits sur Facebook mais qui sont quand même connus des services de Facebook, notamment pas les traceurs qu’on peut retrouver sur les sites de presse, traceurs qui ont été posés là volontairement par <em>Le Monde</em> ou <em>Le Figaro</em>, qui permettent à Facebook de savoir qui consulte quand, quel article. Et ça votre grand-mère, pour peu que sur son ordinateur elle passe sur un site du <em>Monde</em>, elle aura un compte fantôme.<br />
<br />
<b>Nadia Daam : </b>Ça suffit à lui créer une identité.<br/><br />
Édouard Fillias, pourquoi ces données sont aussi précieuses, à la fois pour les entreprises et aussi pour nous ? Pourquoi est-ce que c’est un sujet si actuel et important ?<br />
<br />
<b>Édouard Fillias : </b>Pour faire court, parce qu’il y a beaucoup de façons de répondre, ces données nourrissent des algorithmes qui permettent de cibler d’une part la communication publicitaire, ce à quoi elles servent principalement aujourd’hui - c’est le cœur de l’affaire Cambridge Analytica -, mais aussi plus profondément elles permettent de comprendre nos comportements donc de les anticiper, donc de les suggérer. Et les algorithmes du futur qui sont en train d’émerger aujourd’hui et qui s’expriment à travers des plateformes comme Alexa ou Amazon ou Facebook que vous citiez auront une capacité d’anticipation et d’orientation de nos comportements très avancée grâce à ces sommes de données colossales qui sont récupérées sur nous depuis maintenant plusieurs années voire plusieurs décennies en réalité. Et ce sont des données qu’on contrôle d’autant moins qu’on signe toute la journée, sans s’en rendre compte, des pactes softiens. On appelle ça chez Génération Libre des pactes softiens par référence au pacte kantien, évidemment. En fait, vous signez des contrats sans les lire, tout le temps, exactement ce que vous disiez sur FaceApp, mais ce n’est pas seulement FaceApp ; toutes les applications, tous les logiciels, tous les services numériques vous demandent de signer des contrats qui font parfois des dizaines de pages.<br />
<br />
<b>Nadia Daam : </b>Et qu’on ne consulte pas.<br />
<br />
<b>Édouard Fillias : </b>Jamais. Que vous ne consultez pas et dans lesquels vous déléguez des droits extrêmement importants sur vos données, des droits de conservation de ces données, des droits d’utilisation sans votre consultation, des droits d’utilisation parfois pour des fins politiques. Et ça, évidemment, ça pose un vrai problème fondamental de liberté individuelle. Est-ce que demain toutes ces données dont nous avons été dépossédés sans notre consentement explicite en réalité, seront utilisées contre nous, pour nous influencer ?<br />
<br />
<b>Nadia Daam : </b>On va définir ces notions de consentement explicite et éclairé juste après Macy Gray, <em>Big Brother</em>.<br />
<br />
<b>Pause musicale : </b><em>Big Brother</em>, Macy Gray.<br />
<br />
==9’ 00==<br />
<br />
<b>Nadia Daam : </b>C’était Macy Gray, une reprise très libre de <em>Big Brother</em> de, j’ai oublié, Stevie Wonder, je ne l’ai même pas reconnu ! Vous êtes sur France Inter et <em>Le débat de midi</em> se penche sur nos données personnelles. Promis, on vous les rend juste après. L’émission est préparée par Caroline Pomes.<br />
<br />
<b>Extrait du documentaire de <em>The Great Hack</em> : </b>Cambridge Analytica n’est pas seulement une entreprise de collecte des données. Elle ne se contente pas de mettre en place des algorithmes. Non. Il s’agit bien d’une véritable machine de propagande. Je devais trouver un moyen de récolter des données alors je suis allé voir des professeurs de l’université de Cambridge pour avoir leur avis.<br/><br />
Le scientifique Aleksandr Kogan nous a proposé une application Facebook qui avait l’autorisation de récolter non seulement les données de la personne qui utilisait l’appli en question mais qui avait aussi le pouvoir de s’introduire dans le cercle d’amis Facebook de la personne et d’en collecter également les données.<br/><br />
On a récolté les mises à jour de statuts, les <em>like</em> et même parfois les messages privés.<br/><br />
On ne ciblait pas seulement les gens en tant qu’électeurs on les ciblait pour leur personnalité.<br/><br />
L’avantage c’est qu’il nous suffisait de toucher seulement quelques centaines de milliers de personnes pour réussir à construire le profil psychologique de tous les électeurs américains.<br/><br />
<br />
— Et les gens ne savaient pas que leurs données étaient collectées ?<br />
<br />
-— Non. <br />
<br />
— Et à aucun moment vous ne vous êtes dit qu’il s’agissait d’informations à caractère privé ett que vous les utilisez sans le consentement des différentes personnes concernées ?<br />
<br />
— Non.<br />
<br />
<b>Nadia Daam : </b>C’était un extrait du documentaire de <em>The Great Hack</em> qui est disponible sur Netflix depuis fin juillet. On vient d’entendre le témoignage de Christopher Wylie c’est lui, entre autres, qui a révélé entre autres comment Cambridge Analytica s’était appropriée les données de 50 millions d’utilisateurs via Facebook. Arthur Messaud, cette affaire Cambridge Analytica montre aussi que les données sont convoitées par les entreprises, certes, mais aussi par les gouvernements ou les partis politiques.<br />
<br />
<b>Arthur Messaud : </b>Tout à fait. Cette affaire, Cambridge Analytica, c’est une caricature de ce qui existe aujourd’hui, de ce qui va exister de plus en plus et c’est un très bon révélateur pour réaliser qu’en fait toute la discussion qu’on a là c’est une discussion politique. On n’est pas en train de débattre pour défendre le consommateur contre des entreprises qui exploiteraient économiquement. Non ! Ces questions-là sont politiques. Cambridge Analityca est une affaire dans laquelle des personnes ont été surveillées de façon massive et de façon assez profonde - on a leur psychologie - pour exercer une influence politique sur des élections. Et ça, en fait, c’est ce qui arrive quotidiennement avec la publicité ciblée en ligne. Déjà la publicité de base, la publicité dans le métro a un rôle assez important de pousser à la consommation de voyages qui vont avoir un coût écologique énorme, de pousser à a la consommation d ‘iPhones qui ont un coût social énorme quand on sait dans quelles conditions les travailleurs sont exploités.<br />
<br />
<b>Nadia Daam : </b>En l’occurrence, il s’agit de ciblage, ces publicités dont vous parlez sont ciblées.<br />
<br />
<b>Arthur Messaud : </b>Ce n’est même plus le cas, là je parlais de la pub dans le métro. Mais quand elles deviennent ciblées elles ont un impact encore plus grand. Ça passe à une échelle assez délirante qui permet, en fait, de maintenir la société tout entière dans des conditions politiques favorables à certaines entreprises qui sont des conditions de consommation de masse, des conditions qui sont complètement contraires aux enjeux écologiques, aux enjeux sociaux et qu’il faut dénoncer. Cambridge Analytica a été très utile comme ça pour être une caricature : regardez, Trump, ce vilain Trump a été élu à cause des rouages de la publicité ciblée qui, en fait, nous manipule constamment toutes et tous et du coup nous concerne tous d’un point de vue politique.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Je pense que c’est un débat et qu’il faut quand même faire attention ; il ne faut pas sombrer dans le techno-scepticisme ou la techno-phobie. Les données qui sont collectées et la publicité ciblée parfois nous profitent, elles aident à améliorer…<br />
<br />
<b>Arthur Messaud : </b>Qui est « nous » là ?<br />
<br />
<b>Édouard Fillias : </b>Nous le citoyen, consommateur, individu. <br />
<br />
<b>Arthur Messaud : </b>Ah !<br />
<br />
<b>Édouard Fillias : </b>Par exemple la publicité ciblée permet de se débarrasser des publicités qui ne nous intéressent pas, des publicités ennuyantes, dont d’ailleurs on a subi sur Internet pendant des années l’extension. Enfin bref, vous voyez ce que je veux dire.<br />
<br />
<b>Nadia Daam : </b>Les popups.<br />
<br />
<b>Édouard Fillias : </b>Les popups, pour avoir un contenu plus intéressant pour l’utilisateur. Le vrai problème, celui d’ailleurs que vous combattez, c’est celui de l’abus du consentement, c’est-à-dire le fait que des données soient utilisées à notre insu en permanence pour nous influencer. Et c’est ça la vraie question, c’est comment est-ce qu’on contrôle le consentement ?<br />
<br />
<b>Nadia Daam : </b>Cette affaire Cambridge Analytica est-ce que c’est du vol ? Est-ce que c’est du pillage ? Est-ce que c’est du cambriolage puisque les données ont été siphonnées sans consentement explicite certes ? Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Facebook leur a donné accès à tout ça. Il n’y a pas de vol, il n’y a pas de bug, c’est Facebook qui leur a donné accès à ça.<br />
<br />
<b>Nadia Daam : </b>Ce que je veux dire c’est que c’est le modèle économique de ces entreprises, c’est le prix.<br />
<br />
<b>Arthur Messaud : </b>Oui, c’est le modèle économique dans lequel on vit aujourd’hui. Cambridge Analytica, ils y sont allés assez forts puisqu’ils sont allés sur le terrain politique, mais tout ça c’est normal. Dans le monde dans lequel on est c’est malheureusement normal et il faut le dénoncer.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Il faut être précis et je pense que ces données de Cambridge Analytica, qui ont été utilisées pour cette opération de propagande, sont des données, je crois, antérieures à 2012, une époque où l’API de Facebook permettait d’accéder à tout et n’importe quoi. Je le sais puisqu’à l’époque j’avais accès à n’importe quoi pour mes clients ce qui, d’ailleurs, me choquait, en réalité. Depuis Facebook a quand même énormément restreint l’accès de ses API de ses données d’ailleurs comme Linkdedin avant lui.<br />
<br />
<b>Nadia Daam : </b>Les API ?<br />
<br />
<b>Édouard Fillias : </b>Les API ce sont des applications qui permettent d’exporter des données vers d’autres applications. Une API ouverte est une API où vous pouvez aller ramasser tout ce qui se dit, tout ce qui se passe sur Facebook par exemple. Et ça n’est pas plus le cas maintenant depuis quelques années : il y a des progrès, une prise de conscience a eu lieu, une prise de conscience d’ailleurs politique de la part des plateformes, mais c’est loin d’être suffisant.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud vous êtes sceptique. Il n’y a pas eu un avant et un après Cambridge Analytica ?<br />
<br />
<b>Arthur Messaud : </b>Non, non pas vraiment. En fait le droit évolue constamment, depuis bien dix ans, de façon assez rigoureuse sur ces sujets-là. Évidemment que Facebook et beaucoup d’entreprises font semblant de changer ou changent un peu parfois pour de vrai pour éviter que les scandales s’accumulent. Facebook, Google, si vous mettez ensemble les deux, vous avez un scandale par mois, un scandale tous les deux mois. Évidemment qu’ils ont peur de ça, d’autant plus quand ces scandales-là ont maintenant des conséquences juridiques qui leur font de plus en plus peur ; pas encore très peur, mais on vient et c’est là où l’espoir peut être dans le futur. On a des armes pour leur faire peur qu’on a déjà commencées à mettre en action. On reviendra en détail sur ça je pense.<br />
<br />
<b>Nadia Daam : </b>Il y a une avancée majeure, peut-être pas à l’échelle mondiale, mais en tout cas européenne, c’est le RGPD [Réglement général de protection des donnéEs] qui renforce le droit des internautes européens, qui met en place plusieurs obligations pour les entreprises. Sur le papier ça a l’air d’être une révolution, mais il y a un sondage qui dit que 80 % des internautes cliquent sur le bouton « tout accepter ». Aloïs Brunel, c’est la preuve que dans les mentalités, les automatismes n’ont pas encore évolué tant que ça ou pas suffisamment.<br />
<br />
<b>Aloïs Brunel : </b>Je parle en tant qu’internaute moi-même, je crois qu’aujourd’hui on est sensibilisé au fait que des données, nos données personnelles sont utilisées à des fins mercantiles, on ne sait même pas exactement bien comment elles sont utilisées. Je crois que d’une part on est tous, moi le premier, un peu feignants sur ces choses-là, on a envie d’utiliser ces services.<br />
<br />
<b>Nadia Daam : </b>C’est de la paresse ?<br />
<br />
<b>Aloïs Brunel : </b>Je pense que d’une part il y a une partie de paresse, je pense qu’on a envie de continuer à utiliser ces services.<br />
<br />
<b>Nadia Daam : </b>On a envie d’aller vite.<br />
<br />
<b>Aloïs Brunel : </b>Et on se dit « je vais tout accepter » parce que c’est la quinzième fois qu’on me demande si je veux modifier les paramètres de navigation sur tel ou tel site. Et puis, d’un autre côté, il est vrai aussi qu’un certain nombre de sites ont mis en place ces formulaires d’une manière qui est mauvaise dans le sens où elle ne propose pas un bon choix à l’utilisateur. On dit « tout accepter », il n’y a pas d’autre bouton qui nous dit « ne rien accepter », ou alors ça devient extrêmement compliqué d’aller chercher dans les paramètres qui vont permettre de désactiver telle ou telle fonctionnalité et ça, effectivement, c’est un vrai problème.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Je ne pense pas que ce soit de la paresse, je pense que ce n’est vraiment pas notre faute en tant qu’utilisateurs et utilisatrices. On est victimes de ça, on n’est pas du tout co-auteurs on est juste des victimes. Qu’est-ce qui se passe ? Pourquoi on clique sur « tout accepter » ? Pourquoi on se fait surveiller comme ça alors qu’en théorie on devrait avoir un certain contrôle sur ce qui nous arrive?<br/><br />
En théorie parce que la plupart des sites internet ou des applications de téléphone que vous visitez, violent le droit sans aucun souci, soit parce qu’elles ne demandent pas votre consentement, elles font ce qu’elles ont envie faire ???, soit elles se contentent d’un consentement implicite. C’est par exemple ce que vous avez sur les sites de presse comme <em>Le Monde</em> ou <em>Le Figaro</em> : vous avez un petit bandeau en bas qui dit « si vous continuez à utiliser ce site vous acceptez toutes nos conditions et c’est comme ça ! »<br />
<br />
<b>Nadia Daam : </b>Et qu’est-ce que ça implique de cliquer « oui » ?<br />
<br />
<b>Arthur Messaud : </b>Il n’y a même pas de « oui », il n’y a même pas de bouton. Dans ce cas-là il n’y a pas de bouton et c’est juste en continuant de visiter le site, en cliquant sur un lien, en scrollant donc en descendant sur la page, ils considèrent que ça c’est un consentement valable.<br />
<br />
<b>Nadia Daam : </b>Que c’est acquis.<br />
<br />
<b>Arthur Messaud : </b>On reviendra là-dessus, ce en quoi ce n’est pas valable. Et le dernier point, c’est ce qu’on retrouve souvent sur les applications de téléphone, au moment d’installer l’application je refais <em>FaceApp</em>, ils vous disent : « On va surveiller tout ce que vous faites, utiliser vos images pour ce qu’on veut. Vous acceptez ? » Oui. Très bien. Si vous refusez vous ne pouvez pas accéder à l’application. C’est souvent, en fait, vu comme une monnaie : les données personnelles, notre vie privée, nos libertés fondamentales dans ce cas-là sont considérées comme une monnaie par ces entreprises-là qui disent : « Si vous voulez accéder à notre service, à notre bien vous devez payer avec une liberté fondamentale ». Il se trouve heureusement que le RGPD et le droit intérieur d’ailleurs, le droit européen dans son ensemble, condamnent cette vision des choses. Les données personnelles ne sont pas une marchandise.<br />
<br />
<b>Nadia Daam : </b>Il y a eu des condamnations sérieuses de sociétés ? Lesquelles ?<br />
<br />
<b>Arthur Messaud : </b>Oui, bien sûr. Déjà en janvier dernier il y a eu une première condamnation de la CNIL contre Google qui traitait surtout l’aspect explicite du consentement, mais avant il y avait eu une condamnation il me semble de <em>Teemo</em> ; il y avait aussi eu une condamnation de Linkedin aussi par la CNIL qui revenait sur cette notion de consentement libre. Notre consentement n’est pas libre, n’est pas valide, s’il est donné sous la contrainte de ne pas accéder à un service ou à un bien. Donc on a des condamnations de la CNIL, on a des jurisprudentielles d’autorités européennes tout à faite explicites et stables et cette philosophie est vraiment au cœur du droit européen des données personnelles : les données personnelles ne sont pas des marchandises parce que, c’est une liberté fondamentale, si elles étaient dans le commerce elles pourraient être marchandées et tous les gens qui ne sont pas très riches iraient les vendre. C’est ce qui se passe sur Facebook : sur Facebook on vend notre liberté fondamentale pour accéder « gratuitement » à un service. En fait, dans ce monde-là, il n’y a plus que les riches qui peuvent se payer un accès payant à Gmail pour que leurs mails ne soient pas surveillés.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias, le <em>think tank</em> Génération Libre auquel vous appartenez a proposé dans un rapport très controversé, je le disais en début d’émission, d’instaurer un droit de propriété des données personnelles. Concrètement ça veut dire que le citoyen peut avoir le droit de vendre ses données ou de les garder et ça se monétise pour le coup. C’est ça ? C’est la marchandisation des données ?<br />
<br />
==19’ 24==<br />
<br />
<b>Édouard Fillias : </b>Il y a trois stratégies pour répondre à la question du consentement, du pacte softien que j’évoquais tout à l’heure en référence, évidemment, à Faust.<br/><br />
La première c’est la stratégie je dirais collectiviste, qui est de dire « on crée une agence nationale de protection des données des citoyens », une stratégie un peu dictatoriale, un peu à la russe. Bon, OK ! Admettons. On considère que c’est une souveraineté numérique de contrôler nos données. Évidemment c’est un système qui nous est profondément étranger parce que ça reviendrait à donner tous les pouvoirs à l’État. D’ailleurs c’est un peu le sens de la lutte que vous menez contre le super fichier TES [fichier des titres électroniques sécurisés] et nous sommes solidaires.<br />
<br />
<b>Nadia Daam : </b>Donc Arthur Messaud avec La Quadrature du Net.<br />
<br />
<b>Édouard Fillias : </b>Voilà. La deuxième stratégie c’est celle de la CNIL, c’est de défendre des droits individuels et donc de porter plainte contre les entreprises, les États, quand ils abusent de ces droits, au nom de droits bien définis. On voit que c’est une stratégie qui, aujourd’hui, tente de fonctionner mais qui en réalité ne fonctionne pas vraiment. C’est d’ailleurs ce que vous disiez, en fait, on vide l’océan avec une petite cuillère.<br />
<br />
<b>Nadia Daam : </b>C’est-à-dire que les entreprises ont toujours un coup d’avance.<br />
<br />
<b>Édouard Fillias : </b>Bien sûr. Elles ont toujours un coup d’avance et elles auront de plus en plus un coup d’avance. Et je crois que c’est tellement tentant cette pierre philosophale de l’intelligence artificielle absolue qui nous contrôle et en réalité, on le sait aujourd’hui, que les possibilités de l’IA pour nous contrôler et nous orienter sont immenses. On est au début du croisement entre les neurosciences, les sciences de l’IA, du Nudge qui sont l’étude des comportements.<br />
<br />
<b>Arthur Messaud : </b>Bingo ! Des mots à la mode !<br />
<br />
<b>Édouard Fillias : </b>Et dernier point, la dernière stratégie c’est celle de la liberté, de la responsabilité individuelle. C’est celle qu’on appelle le droit de patrimonialité des données. C’est-à-dire que chaque individu se voit recevoir une extension de ses droits individuels, de ses libertés individuelles, sur ses propres données. Votre travail est votre propriété, c’est le fruit de vous-même, c’est une extension de vous, c’est reconnu dans la déclaration des droits et c’est inaliénable, c’est le droit de propriété.<br />
<br />
<b>Nadia Daam : </b>Et il en irait de même pour mes données ?<br />
<br />
<b>Édouard Fillias : </b>Il en irait de même pour vos données. On s’inspire Jaron Lanier là-dessus, qui ne vous est pas étranger puisque c’est un des papes de la réalité virtuelle et d’Internet qui, dans un papier de référence à Standford explique <em>Should We Treat Data as Labor? </em>, « est-ce qu’on doit considérer les données comme du travail ? » Et sa réponse est évidemment oui. L’idée c’est exactement comme les droits à polluer par exemple en matière de gestion des champs environnementaux, c’est de donner des droits à chacun de vendre ou de ne pas vendre ses données. C’est-à-dire qu’au lieu de signer des contrats, pseudos contrats qu’en fait personne ne lit, qui sont donc léonins de ce fait, eh bien on vous demanderait : « Est-ce que vous souhaitez ou non commercialiser vos données pour accéder à ce service ? » Ce serait une demande qui serait explicitement formalisée par l’application numérique que vous utiliseriez et vous répondriez oui ou non.<br />
<br />
<b>Nadia Daam : </b>Sommes-nous tous égaux quand cette proposition est faite ? Il n’y a pas le risque de créer une société à deux vitesses : on aurait seuls les riches qui pourraient se permettre le luxe, s’offrir le luxe de conserver leurs données et les plus pauvres qui seraient obligés de les brader ?<br />
<br />
<b>Édouard Fillias : </b>Déjà Facebook nous arnaque déjà en réalité. Parce que l’accès à un pseudo service gratuit en échange de données, échange qui d’ailleurs n’est pas en réalité formalisé, c’est-à-dire que les gens n’en ont pas conscience ; c’est d’ailleurs pour ça que j’ai écrit de ce <em>Manuel de survie sur internet</em>. C’est pour essayer d’instruire chacun des véritables enjeux derrière les applications. Les gens n’ont pas conscience un, de donner leurs données et deux, en réalité ils se font avoir parce que les données qu’ils donnent à Facebook valent beaucoup plus que l’accès gratuit au service.<br />
<br />
<b>Nadia Daam : </b>Vous ne répondez pas à ma question.<br />
<br />
<b>Édouard Fillias : </b>Quelle est votre question ? Pardon.<br />
<br />
<b>Nadia Daam : </b>Je vous demandais est-ce qu’on est tous égaux face à ce que vous proposez ?<br />
<br />
<b>Édouard Fillias : </b>Non. C’est-à-dire que certaine données valent plus cher que d’autres. Des personnes qui ont un très fort pouvoir d’achat et qui sont par exemple obsédées de voitures, mettons de luxe, évidemment les données de ces personnes auront beaucoup plus de valeur pour un vendeur de voitures de luxe à un instant t . Mais on est en train de faire des modélisations économétriques de la valeur moyenne de ces données pour chaque Français et par catégorie de population. On fait ça avec l’École d’économie de Toulouse, la Toulouse School of Economics, et on publiera nos résultats en septembre-octobre. C’est plusieurs dizaines d’euros par mois que chaque Français peut recevoir.<br />
<br />
<b>Arthur Messaud : </b>Oui, que vous dites !<br />
<br />
<b>Édouard Fillias : </b>Non.<br />
<br />
<b>Arthur Messaud : </b>C’est une moyenne que vous faites.<br />
<br />
<b>Édouard Fillias : </b>Une moyenne pour les Français, plusieurs dizaines de revenus par mois de revenus additionnels en échange de l’utilisation des grands services numériques qui existent aujourd’hui.<br/><br />
Évidemment si vous êtes quelqu’un à très fort pouvoir d’achat ça peut être plus. Si, au contraire, vous snobez complètement Internet et que vous êtes un profil réfractaire, évidemment vous n’en tirerez aucun profit. C’est l’idée que vous soyez responsabilisé face à l’utilisation qui est faite de vos données. Encore une fois je le répète, si vous ne souhaitez pas vendre vos données vous pouvez ne pas le faire et ça, effectivement, c’est un vrai changement de philosophie, c’est un vrai changement de façon de voir. Je voudrais citer Proudhon pour conclure avant de céder la parole.<br />
<br />
<b>Nadia Daam : </b>Carrément !<br />
<br />
<b>Édouard Fillias : </b> « La propriété est la plus grande force révolutionnaire qui existe. C’est la propriété qui façonne les sociétés ». Nous proposons d’injecter de la propriété là où il n’y en a pas sur nos données.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Il dit aussi que c’est le vol la propriété. C’est assez délirant de citer Proudhon. Bref ! Là on voit clairement un modèle de société, vous l’avez bien vu, dans lequel les riches auront encore plus d’argent et les pauvres auront encore moins d’argent <br />
<br />
<b>Édouard Fillias : </b>Non. Ils auront plus d’argent aussi !<br />
<br />
<b>Nadia Daam : </b>Et plus de liberté.<br />
<br />
<b>Arthur Messaud : </b>Ils auront 25 centimes par mois.<br />
<br />
<b>Édouard Fillias : </b>Non, ils auront plusieurs dizaines d’euros.<br />
<br />
<b>Nadia Daam : </b>La question c’est aussi sur la liberté, le droit de pouvoir conserver ses données pour soi.<br />
<br />
<b>Arthur Messaud : </b>Honnêtement ce débat, moi je trouve qu’il n’y a pas besoin d’en parler mille ans, il vient apporter des solutions à un problème qui n’existe pas, qu’il n’y a pas. On ne voit pas très bien ce que ça essaie de corriger. On voit surtout que ça apporte beaucoup de problèmes, beaucoup de questions comme vous l’avez dit. Est-ce que tout le monde aura le même accès ? Est-ce qu’il n’y aura que les riches qui pourront accéder gratuitement au service sans être surveillés ? On l’a dit, en tout cas ce n’est pas l’état du droit. L’état du droit c’est « les données personnelles ne sont pas des marchandises ». Évidement qu’on est impatient ! On voit que les plus grosses entreprises continuent de violer la loi et ne sont pas sanctionnées out pas sanctionnées à un montant qui serait utile et efficace. Je comprends cette frustration mais la solution de Génération Libre n’apporte pas du tout de réponse à ce problème-là, vient juste rajouter d’autres problèmes, d’autres problèmes qui, de façon intellectuelle, sont intéressants à débattre, mais ce sont des problèmes très classiques entre ultralibéraux et personnes plus attachées aux libertés fondamentales classiques.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias. Et je voudrais retourner à Aloïs Brunel après.<br />
<br />
<b>Édouard Fillias : </b>Juste un point de philosophie de fond, parce là on touche le fond. Le Conseil d’État, et d’ailleurs l’Europe, s’oppose à ce type de législation parce qu’il considère effectivement que notre corps est une propriété inaliénable. <br />
<br />
<b>Nadia Daam : </b>Et qu’on serait donc dans la marchandisation qui est un encore un tabou absolu dans nos sociétés.<br />
<br />
<b>Édouard Fillias : </b>Nous on conteste cela. Nous pensons que la base d’une société libre est une société où chacun s’appartient et se possède. Par exemple chacun a le droit de décider si l’État, quand il prélève ses organes à sa mort, devra rémunérer ou pas sa famille ce qui aujourd’hui n’est pas le cas. L’État prélève les organes sans même l’autorisation, sans même demander vaguement l’autorisation à votre famille. Donc la meilleure forme de résistance à l’absolutisme de l’État et à la toute puissance de corporations qui ne seraient plus retenues par rien - on pourra parler des GAFA si vous voulez, parce que c’est un débat dans le débat - c’est d’affirmer que nous nous possédons nous-mêmes et si nous nous possédons nous-même, nous possédons nos données. Et ça c’est un point de doctrine de fond qui est effectivement appelé à évoluer. Il évoluera sur ce sujet-là, il évoluera sur les sujets de bioéthiques aussi.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Ça, ça ne répond à aucun problème. On va passer à autre chose, parce qu’on sait qu’en est en désaccord.<br />
<br />
<b>Nadia Daam : </b>On va écouter aussi Aloïs Brunel.<br />
<br />
<b>Arthur Messaud : </b>On comprend très bien votre logique, ça ne répond à aucun problème pratique. Là, le problème pratique en question c’est comment on fait pour que Google et Facebook respectent la loi. Ce que vous décrivez, la marchandisation des données, ce n’est jamais que ce que font déjà Google et Facebook aujourd’hui de façon implicite, mais ils le font déjà. Vous pensez qu’en étant explicite ça serait plu simple. Nous on pense que la priorité c’est de faire respecter la loi, d’ailleurs que ce soit votre loi de propriété ou la loi actuelle. Enfin, comme vous dites, il faut être propriétaire de son corps ça, c’est une pensée qui est assez ancienne, c’est une pensée qu’on a plutôt dépassée en Europe et dans d’autres pays, c’est la pensée dans laquelle on pouvait se mettre en esclavage soi-même pour rembourser une dette, dans laquelle on pouvait mettre en esclavage ses enfants, ses descendants, pour rembourser une dette, ce qui a créé une structure dans laquelle l’esclavagisme était assez normal ; là je parle plus de l’esclavagisme antique, pas tellement moderne. C’est clairement quelque chose qui est entièrement rejeté par nos philosophies modernes. Vous avez une philosophie qui revient beaucoup dans le passé. Nous on pense que ce n’est pas le bon chemin. On continuera d’être en désaccord sur cette idée de propriété de soi qui ne bénéficie qu’aux plus riches.<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel, votre société qu’est-ce qu’elle fait des informations, des données qu’elle reçoit ? Comment est-ce qu’elle les traite ? Où est-ce qu’elle les stocke ? Ce sont des données biométriques.<br />
<br />
<b>Aloïs Brunel : </b>Oui. Tout à fait. Déjà ce qu’il faut savoir de par la nature même de ce qu’on fait et des applications que font nos clients de nos technologies, on n’est pas voué, on n’a pas vocation à stocker des données personnelles genre l’âge, des informations sur telle ou telle personne, des identités. Ceci étant dit, nos systèmes qui analysent des images et des vidéos peuvent être amenés à voir, à certains moments, des informations biométriques ou des informations personnelles. Par exemple dans une caméra on peut voir des personnes et leur visage ; on peut éventuellement voir des plaques d’immatriculation. Je parlais tout à l’heure des plateaux repas, il se peut qu’il y ait une carte de crédit ou un badge qui soit posé sur le plateau repas.<br />
<br />
<b>Nadia Daam : </b>Donc c’est une somme d’informations.<br />
<br />
<b>Aloïs Brunel : </b>Tout ça ce sont des informations qui ne sont absolument pas utiles pour l’exploitation de nos systèmes, mais cela dit, qui peuvent, à un moment donné ou un autre, se retrouvées visualisées par une personne. Pour nous, ce qui est important de faire là-dedans, c’est de faire en sorte que ces données-là ne soient pas visibles pour des humains.<br />
<br />
<b>Nadia Daam : </b>Concrètement vous floutez ?<br />
<br />
<b>Aloïs Brunel : </b>Concrètement, en fait, on floute. C’est globalement ce qu’on fait. On va flouter des plaques d’immatriculation, des visages, les personnes entières, les cartes de crédit, pour que ces choses-là ne soient pas visibles à n’importe quel moment de la chaîne d’exploitation de ces images. En fait c’est même plus fort que ça, c’est-à-dire que ça c’est dans la vie des produits que l’on vend aux entreprises, mais ça crée même des opportunités pour nous puisque des entreprises viennent nous voir uniquement pour faire de l’anonymisation, pour se conformer au RGPD.<br />
<br />
<b>Nadia Daam : </b>En fait pour vous le RGPD a été une aubaine.<br />
<br />
<b>Aloïs Brunel : </b>En partie. Ce sont en partie des opportunités. C’est aussi des contraintes, mais ce sont aussi des opportunités parce que les entreprises cherchent à se conformer au RGPD, donc à anonymiser leurs données. Et pour ça, en fait paradoxalement l’intelligence artificielle peut-être utile puisqu’elle va détecter automatiquement tous ces objets et toutes ces données biométriques pour ensuite les flouter.<br />
<br />
<b>Nadia Daam : </b>On va continuer cette conversation juste après Renan Luce, <em>On s'habitue à tout</em>.<br />
<br />
<b>Pause musicale : </b><em>On s'habitue à tout</em>, Renan Luce.<br />
<br />
==32’ 45==<br />
<br />
<b>Nadia Daam : </b>C’était Renan Luce. À la programmation musicale Thierry Dupin.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em>. Nadia Daam sur France Inter.<br />
<br />
<b>Nadia Daam : </b>On s’intéresse donc à la protection de nos données personnelles. Je voudrais poser, transmettre une question très concrète d’un auditeur parce qu’il faut rester concret. C’est Marie qui nous demande si le fait d’opter pour la navigation privée suffit à la protéger. Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>C’est un bon début. Toutes ces petites astuces-là, sont bien à faire. Installer des extensions pour votre navigateur, par exemple uBlock Origin qui est très bien, ça ce sont de bonnes choses à faire. La navigation privée c’est plus pour se protéger des autres personnes qui utilisent l’ordinateur ; par exemple si son mari veut l’espionner, la navigation privée va la défendre de ça. Après, on ne va pas se mentir, des solutions contre des géants comme Facebook ou Google ou d’autres entreprises plus cachées, ne viendront pas de notre défense individuelle. Il faut se défendre collectivement par la loi, par la CNIL, par des actions de groupe. Malheureusement ces géants sont trop puissants techniquement pour qu’on puisse se défendre tout seul.<br />
<br />
<b>Nadia Daam : </b>On ne parle que de Google et de Facebook depuis tout à l’heure, c’est quelque chose effectivement de la responsabilité uniquement de ces grands GAFAM ou c’est quelque chose de plus global ?<br />
<br />
<b>Arthur Messaud : </b>Nnon, c’est complètement généralisé. D’abord Google et Facebook vendent un service à des clients qui sont extrêmement nombreux qui sont aussi fautifs. Les clients ça va être tous les sites Internet de presse qui relaient, enfin qui utilisent leurs traceurs et leurs outils d’espionnage. Ça va être toutes les marques, toutes les grandes marques de voitures, de voyages, qui font appel aux services de la publicité ciblée pour nous manipuler.<br />
<br />
<b>Nadia Daam : </b>C’est tentaculaire, Facebook, ce que vous êtes en train de dire.<br />
<br />
<b>Arthur Messaud : </b>Non, ce n’est pas Facebook qui est tentaculaire. C’est que cette question-là de surveillance économique de toute la population à des fins de manipulation économique concerne presque toutes les grosses boîtes, celles qui vendent, celles qui produisent, celles qui embauchent, que ce soit en France, aux États-Unis, partout dans le monde. Aujourd’hui comme un grand groupe comme Auchan, Monoprix qui fait de la pub sur Facebook ou de la pub ailleurs que sur Facebook en utilisant les outils de Facebook est complice de ce dévoiement de la société vers une logique de surveillance généralisée.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>D’abord je tiens à dire que la Quadrature du Net fait un travail remarquable, je suis d’ailleurs un donateur et un adhérent historique de ce mouvement. On a une divergence sur cette question, mais le travail est remarquable et utile. Je crois à la responsabilité individuelle. Le mot de passe le plus fréquent en France, c’est 1 2 3 4 5 6.<br />
<br />
<b>Nadia Daam : </b>On va parler des mots de passe <br />
<br />
<b>Édouard Fillias : </b>Ensuite c’est <em>I love you</em>. Ensuite c’est le prénom des enfants.<br />
<br />
<b>Nadia Daam : </b>Le prénom ou le nom du chat.<br />
<br />
<b>Édouard Fillias : </b>Attendez. On va dire qu’on va poursuivre devant la CDH Facebook et on n’est pas capable de se mettre un mot de passe avec une majuscule et une minuscule ? Donc il y a un problème de responsabilité.<br />
<br />
<b>Nadia Daam : </b>Mais comment vous l’expliquez ça ? Cette naïveté ?<br />
<br />
<b>Édouard Fillias : </b>Je pense qu’il y a un décalage entre le débat qu’on a aujourd’hui et la perception, l’acuité de la perception du caractère potentiellement dramatique que ces données manipulées peuvent avoir contre nous. On est en fait comme dans les prémisses du débat écologique. On est dans les années 60-70, on se rend compte qu’il va y avoir un sujet, mais on n’en pas en fait totalement conscience, ce qui se traduit par des comportements profondément irresponsables. Un enfant, par exemple, ne doit pas être seul sur Internet avant douze ans. On ne met pas une console de jeu dans les mains d’un enfant avant six ans.<br />
<br />
<b>Nadia Daam : </b>Qui dit ça ? Qui établit des règles ?<br />
<br />
<b>Édouard Fillias : </b>Serge Tisseron qui est un sociologue et un psychologue et qui a écrit là-dessus cette fameuse règle des « 3-6-9-12 ».<br />
<br />
<b>Nadia Daam : </b>La règle des « 3-6-9-12 », pas d’écran avant.<br />
<br />
<b>Édouard Fillias : </b>C’est quand même une règle de bon sens ! Combien d’enfants traînent devant Internet !<br />
<br />
<b>Arthur Messaud : </b>Moi j’étais petit.<br />
<br />
<b>Édouard Fillias : </b>Peut-être trop tôt alors Arthur ! Par ailleurs on voit sur Internet des photos des enfants qui sont laissées par les familles ; c’est juste inadmissible ; c’est inacceptable !<br />
<br />
<b>Nadia Daam : </b>Ça c’est le paradoxe. Les parents voudraient sensibiliser leurs enfants à ces problématiques et en même temps ils sont les premiers à leur créer une identité numérique en postant des photos.<br />
<br />
<b>Édouard Fillias : </b>Sur les réseaux sociaux. Absolument. Et là, pour le coup, ma spécialité professionnelle c’est la réputation numérique. Quand vous avez une trace numérique, qu’elle soit une trace sur un réseau social, une trace sur Google, etc., elle est gravée sur le chrome pour l’éternité. On ne se défait jamais d’une information qui est arrivée sur vous. Donc il est extrêmement important de sensibiliser les enfants dès l’école au fait que les réseaux sociaux c’est la rue. Un parent ne laisse ses enfants place de Clichy à minuit tout seuls !<br />
<br />
<b>Nadia Daam : </b>Qui le fait ?<br />
<br />
<b>Édouard Fillias : </b>Eh bien aujourd’hui personne ne le fait. Les hommes politiques sont d’une génération qui ne se sent pas directement concernée. Les nouvelles générations arrivent, probablement plus sensibles, je pense, à ces sujets de données. C’est modestement ce que j’ai essayé de faire avec ce <em>Manuel de survie sur Internet</em> qui, en 100 questions, essaie de baliser des conseils très concrets, très simples, par exemple installer les mises à jour de son système d’exploitation.<br />
<br />
<b>Nadia Daam : </b>Tiens, je ne l’ai pas fait !<br />
<br />
<b>Édouard Fillias : </b>Vous ne l’avez pas fait ! Personne ne le fait, c’est rasoir. Évidemment Arthur utilise Linux [GNU/Linux, NdT], donc...<br />
<br />
<b>Arthur Messaud : </b>Il est bien fait. Tout marche très bien.<br />
<br />
<b>Édouard Fillias : </b>Mais la plupart des gens sont sur Windows, donc vous mettez à jour votre système d’exploitation. Ce sont des choses très simples. C’est aussi avoir conscience des menaces. Il y a un vrai business aujourd’hui du trafic de la Carte Bleue sur le darknet vous trouvez des numéros de Cartes Bleues autant que vous voulez, vous trouvez des mots de passe. Allez sur le site HIBP [<em>Have I Been Pwned? </em>], tapez votre adresse mail et vous verrez tous les endroits où vous avez été hacké et où des données ont été likées sur vous. J’ai fait l’exercice moi-même il y a quelques mois, des données sur moi ont été volées sur Dailymotion, sur Linkedin, sur Facebook. Donc c‘est facile.<br />
<br />
<b>Nadia Daam : </b>C’est terrifiant !<br />
<br />
<b>Édouard Fillias : </b>Mais oui !<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Non ce n’est pas terrifiant. Ces cas en question, il faut voir dans le détail ; ce ne sont pas des choses systématiquement dramatiques. Juste je trouve que la comparaison avec l’écologie est très bonne et c’est là où notre désaccord idéologique apparaît de nouveau de façon très claire pour tous les auditeurs et auditrices. En écologie il y a deux positions. Il y a certaines personnes plutôt comme moi je le dis pour Internet vont défendre des solutions collectives, vont penser que les problèmes, qu’ils soient écologiques ou en matière de données personnelles, viennent de grands groupes et de grandes entreprises qui, voulant se faire encore plus d’argent, vont aggraver la situation de la collectivité, du monde entier. Et d’autres personnes qui pensent que le problème vient plus de situations individuelles, donc que les solutions soient individuelles : il faut prendre des douches courtes ; il faut trier ses déchets. Ce n’est pas aux entreprises de trier les déchets ! Ce n’est pas aux entreprises de réduire le plastique dans leurs produits ! Non, non ! C’est à nous petits individus.<br />
<br />
<b>Nadia Daam : </b>Des petits pas !<br />
<br />
<b>Arthur Messaud : </b>On devient tout d’un d’un coup auteurs de la propre situation dont on est en fait victimes.<br />
<br />
<b>Nadia Daam : </b>Et ça c’est faux ? On n’a pas aussi une forme de responsabilité ?<br />
<br />
<b>Arthur Messaud : </b>En matière d’écologie je ne sais pas parce que je ne suis pas expert sur la question.<br />
<br />
<b>Nadia Daam : </b>Non. Sur le sujet qui nous occupe aujourd’hui.<br />
<br />
<b>Arthur Messaud : </b>En matière de données personnelles.<br />
<br />
<b>Édouard Fillias : </b>Bien sûr que si ! Vous vous plaignez des bouteilles d’eau qu’on a en studio.Bien sûr que si vous êtes responsable !<br />
<br />
<b>Arthur Messaud : </b>En fait, en matière de données personnelles, la situation qui s’aggrave c’est-à-dire des manipulations politiques de plus en plus fréquentes, des fuites de données de plus en plus importantes, nous ne sommes pas responsables de ça, nous sommes simplement des victimes. Les responsables ce sont les grands groupes qui bénéficient de ces systèmes et dans ces grands groupes je veux bien mettre Radio France dedans, qui va faire de la publicité sur le site, qui va utiliser les outils de Facebook, de Google et d’autres, évidemment Facebook et Google, toutes ces personnes-là sont responsables et ce sont elles qu’il faut aller chercher, ce sont elles qu’il faut sanctionner et interdire<br />
<br />
<b>Nadia Daam : </b>On ne peut pas faire les deux : tordre le bras des grands groupes et modifier nos comportements ?<br />
<br />
<b>Arthur Messaud : </b>Si, un peu. Mais modifier vos comportements ne va pas changer grand-chose. Si ça vous fait plaisir bien. Protéger ses mots de passe parfois ça a de vrais intérêts pratiques, il n’y a pas de souci, mais c’est juste en surface, ça ne va pas changer grand-chose, vous n’allez pas aller très loin, vous n’allez pas beaucoup vous protéger parce qu’en face ils sont bien meilleurs que vous. S’ils veulent vous attaquer, vous aurez beau éviter d’aller sur Facebook, éviter d’avoir un smartphone, ce que je fais moi, par exemple ; ça ne change rien au fait qu’ils trouveront un moyen.<br />
<br />
<b>Nadia Daam : </b>Vous n’avez pas de téléphone !<br />
<br />
<b>Arthur Messaud : </b>Si j’ai un téléphone. Rien que ça, avoir un téléphone, c’est s’exposer beaucoup . En fait vous pourrez essayer de jouer au plus malin, vous ne serez pas les plus malins face à ces entreprises et encore moins face à l’État, si on rajoute les problèmes de surveillance de l’État. On reviendra après sur ça j’espère.<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias.<br />
<br />
<b>Édouard Fillias : </b>Tordre le bras, comme vous dites, de ces grands groupes, il faut se lever tôt le matin ! Il y a deux solutions : ou vous les taxez ou vous les disséquez, vous cassez leur oligopole, leur monopole et vous les découpez. Ce qui a été fait avec Standard Oil à une autre époque. Le problème c’est qu’aucune de ces deux stratégies ne fonctionne.<br/><br />
La première, la taxation, eh bien ils augmentent leurs prix, donc voilà c’est réglé. L’affaire Bruno Le Maire l’a illustré récemment.<br/><br />
La deuxième, on n’a tout simplement pas les arguments en droit parce que ce ne sont pas, en réalité, des entreprises en situation de monopole ; elles ont des concurrents. Et puis quelle législation s’appliquerait ? Ça serait l’américaine, pas l’européenne, ça ne marche pas !<br />
<br />
<b>Nadia Daam : </b>Si on en décapite une décapite une, il y en a peut-être dix qui repoussent derrière.<br />
<br />
<b>Édouard Fillias : </b>Exactement. En fait cette histoire n’a pas de fin parce que, de toute façon, si on arrivait mettons à couper la tête de Google, ce qui n’est pas du tout à mon avis quelque chose de souhaitable, eh bien naîtrait un autre Google aussitôt et même peut-être trois autres. Donc comment faire ? Il y a deux façons de faire. Celle que vous faites, celle qu’on essaie de faire aussi c’est-à-dire sensibiliser l’opinion publique. Faire comme ça se passe aussi aujourd’hui pour l’environnement, mettre la pression du consommateur sur la marque et ça ça marche. Et je peux vous le dire, les marques sont extrêmement sensibles à cette perception de leur image. On va voir apparaître dans les années qui viennent…<br />
<br />
<b>Nadia Daam : </b>Ce qu’on appelle le ???<br />
<br />
<b>Édouard Fillias : </b>Exactement. De confidentialité, de conformité des data qui sont utilisées sur nous. Je crois énormément que le marché va s’amender là-dessus.<br/><br />
La deuxième stratégie, j’y reviens, c’est celle de donner des responsabilités, des libertés individuelles., Responsabilité aux parents, je l’évoquais, mais aussi des libertés, le droit de patrimonialité. Ça, ça nous semble une façon raisonnable. D’ailleurs on a parlé à Facebook et Google de cette idée de droit de patrimonialité des données, ils ont tout à fait d’accord là-dessus.<br />
<br />
<b>Arthur Messaud : </b>Évidemment ! C’est évident !<br />
<br />
<b>Édouard Fillias : </b>C’est quelque chose qui pour eux peut être un progrès dans leur façon à eux d’assumer leurs responsabilités.<br />
<br />
<b>Nadia Daam : </b>Alois Brunel.<br />
<br />
==41’ 55==<br />
<br />
<b>Aloïs Brunel : </b>Je crois qu’il y a aussi un troisième point qui est intéressant, qui n’a pas été évoqué ici pour régler en partie ce problème, c’est qu’il y a une force qui est très importante pour toutes ces grandes entreprises, Facebook, Google, etc., c’est leur force de travail, c’est leurs employés. Eux misent tout là-dessus, ils les bichonnent, ils leur fournissent un environnement de travail qui est excellent et on a vu récemment que ces employés étaient de plus en plus sensibilisés à ces problématiques également. Des développeurs, chez Facebook, qui commencent à avoir des regrets qui se disent « je suis en train de participer à quelque chose... »<br />
<br />
<b>Nadia Daam : </b>De repentis, des renégats.<br />
<br />
<b>Aloïs Brunel : </b>Des repentis ou des gens, à l’intérieur, qui travaillent encore chez Facebook ou chez Google et qui se posent des questions. Je pense que cette force-là c’est une force de changement au sein de ces entreprises. Je pense qu’il y a une vraie responsabilité des entreprises, c’est vrai, il faut qu’elles se posent les questions éthiques qui vont bien. Je pense que les employés de ces entreprises sont très puissants en fait ; dans ces entreprises technologiques, ils sont puissants et il peuvent être force de pression.<br />
<br />
<b>Nadia Daam : </b>Vous pensez que la pression peut être mise et plus efficace de l’intérieur ?<br />
<br />
<b>Aloïs Brunel : </b>De l’intérieur ; je pense que oui.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud est hyper-sceptique.<br />
<br />
<b>Arthur Messaud : </b>Oui. Encore une fois c’est une petite solution pour des problèmes énormes. On ne va pas juste faire reposer les espoirs de l’humanité, tous nos espoirs communs, on ne va pas les faire reposer sur une dizaine de salariés qui auraient une éthique. Non, non ! Ces boîtes-là ce sont des boîtes qui sont là pour faire de l’argent, qui sont extrêmement puissantes, qui ont des monopoles sur plein de secteurs, elles ne sont pas là pour être éthiques, elles ne seront jamais éthiques. Je pense que personne n’est dupe quand on regarde Marc Zuckerberg et son air extrêmement détaché de tout ce qui peut exister d’humain, personne n’est dupe sur le fait qu’il n’a aucune éthique et que ses salariés, s’ils ont une éthique, ils iront justetravailler pour la concurrence qui n’aura pas beaucoup plus d’éthique en fait.<br />
<br />
<b>Nadia Daam : </b>Alois Brunel.<br />
<br />
<b>Aloïs Brunel : </b>Ce n’est pas vrai. Par exemple chez Google, ils ont réussi à faire abandonner un projet de collaborer avec l’armée américaine.<br />
<br />
<b>Arthur Messaud : </b>C’était un projet ignoble ! Heureusement qu’ils ont abandonné ça. Tous les autres projets qui sont un peu moins ignobles Google continue de les faire.<br />
<br />
<b>Aloïs Brunel : </b>C’est quand même la preuve qu’il y a une certaine puissance des employés au sein de l’entreprise. C’est la preuve qu’ils peuvent faire changer les choses.<br />
<br />
<b>Arthur Messaud : </b>C’est la preuve que les gens qui veulent du mal pour la société ont un minimum de décence, un tout petit peu !<br />
<br />
<b>Nadia Daam : </b>Édouard Fillias, vous voulez réagir.<br />
<br />
<b>Édouard Fillias : </b>Je trouve que votre argument est un très bon argument Aloïs. Il y a un livre d’un prof de gestion, qui s’appelle Kjell Nordstrom, dont le titre <em>Talent Makes Capital Dance </em>, « Le talent domine le capital ». Pourquoi ? Parce qu’il n’y a jamais eu autant de capital dans notre société, il n’y a jamais eu autant d’argent pour faire simple.<br />
<br />
<b>Arthur Messaud : </b>Et aussi de pauvres !<br />
<br />
<b>Édouard Fillias : </b>Non, de moins en moins de pauvres ! Et il n’y a jamais eu aussi peu de talent, c’est-à-dire que le talent c’est la pierre philosophale, c’est le Graal. Aux États-Unis un développeur débutant gagne 150 000 euros par an, à 25 ans. Ce que vous dites, c’est-à-dire l’importance d’embarquer les gens dans des projets qui ont du sens, dans des projets qui sont respectueux est vitale dans des groupes dont les quelques milliers de salariés et pas des dizaines ont une influence évidemment décisive sur le cours des choses. Je crois d’ailleurs que c’est un mouvement qui dépasse la tech, c’est un mouvement général du capitalisme sur comment attirer les talents, comment faire avancer son entreprise en démontrant une implication, un sens, une utilité ; utilité que par ailleurs l’État a un peu renoncé à exercer dans nos sociétés. Je crois profondément que votre remarque est juste ; c’est une force de pression positive, ça n’est pas la seule mais c’en est une.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud.<br />
<br />
<b>Arthur Messaud : </b>Après, pour revenir sur des solutions un peu plus réalistes, là le dilemme que vous posez : faut-il démanteler en plusieurs petites entreprises ou faut-il le taxer ?, eh bien c’est un faux dilemme, parce que évidemment plein d’autres solutions beaucoup plus classiques.<br />
<br />
<b>Nadia Daam : </b>Lesquelles ?<br />
<br />
<b>Arthur Messaud : </b>Comment on fait pour interdire par exemple un réseau de traite d’êtres humains. Il existe des réseaux de traite d’êtres humains qui achètent des humains pour les revendre, c’est quelque chose que légalement et moralement...<br />
<br />
<b>Édouard Fillias : </b>Tu ne peux pas comparer ça à Google ! Ce n’est pas sérieux !<br />
<br />
<b>Arthur Messaud : </b>On peut comparer. En fait Google, Facebook, aujourd’hui ce sont des entreprises qui violent le droit de façon quasiment explicite, qui ne s’en cachent même plus.<br />
<br />
<b>Nadia Daam : </b>Vous les mettez au même niveau que la traite d’êtres humains, pour comprendre.<br />
<br />
<b>Arthur Messaud : </b>Je ne mets pas au même niveau. Pourquoi je prenais cet exemple-là, parce que dans les deux cas on a une atteinte générale aux libertés fondamentales, on a une violation très claire de la loi, qui ne fait pas débat, et pourtant des commerces existent. Comment on fait pour lutter contre les pires trafiquants de drogue ou sur ces genres-là de trafics ? On ne dit pas : « On va mettre une taxe plus importante », on ne dit pas : « On va les démanteler en plusieurs structures ». Non ! On les interdit. Ce que font Google et Facebook c’est contraire à la loi. Il faut l’interdire.<br />
<br />
<b>Nadia Daam : </b>Comment est-ce qu’on interdit Google ou Facebook ? Qui décide et comment on agit ?<br />
<br />
<b>Arthur Messaud : </b>Il faut un peu de courage. La CNIL peut le faire. La CNIL peut sanctionner Google 4 milliards tous les six mois.<br />
<br />
<b>Nadia Daam : </b>La CNIL peut littéralement le faire.<br />
<br />
<b>Édouard Fillias : </b>Comment la CNIL pourrait-elle interdire Google ?<br />
<br />
<b>Arthur Messaud : </b>Un juge peut interdire. Un juge peut dire à Google : « Vous avez désormais interdiction sur le territoire français de faire tel et tel... »<br />
<br />
<b>Édouard Fillias : </b>C’est encore moins réaliste que le droit de patrimonialité des données qu’on réalise par ailleurs.<br />
<br />
<b>Nadia Daam : </b>Comment on le met en place ? Juste pour comprendre clairement comment cette interdiction peut se mettre en place ?<br />
<br />
<b>Arthur Messaud : </b>Littéralement aujourd’hui la CNIL a sanctionné Google de 50 millions d’euros d’amende, ce qui est une somme très faible par rapport à Google. Ce que pourrait faire la CNIL, je vais vous dire concrètement, c’est tous les six mois ils se réunissent, ils prennent un petit papier et ils écrivent « aujourd’hui, vu que Google n’a pas modifié son mode de fonctionnement, nous sanctionnons à 4 milliards d’euros », et tous les six mois ils refont ça. C’est vraiment quelque chose sur le papier qui peut arriver. Il n’y a absolument rien de surréaliste, ce n’est pas du tout de la science-fiction ; tout le droit a été écrit pour pouvoir faire ça.<br />
<br />
<b>Nadia Daam : </b>Pourquoi ce n’est pas fait dans ce cas-là si c’est si simple ?<br />
<br />
<b>Arthur Messaud : </b>Pourquoi ce n’est pas fait ? Parce que ce sont des problèmes politiques, ce sont de graves problèmes politiques. Regardez Cédric O, secrétaire d’État au numérique, quand il commente les propositions qu’on fait pour s’en prendre aux géants du Net, il dit à l’Assemblée nationale : « Les propositions de la Quadrature du Net sont très pertinentes, etc., mais ça serait un affront beaucoup trop brutal aux États-Unis et il y aurait des répercutions de la part de Trump sur notre économie ».<br />
<br />
<b>Nadia Daam : </b>La menace est réelle puisque ça a été formulé par le président américain.<br />
<br />
<b>Arthur Messaud : </b>Du coup on se laisse vider de notre économie, on se laisse vider de nos libertés fondamentales, on admet complètement qu’il n’y a plus rien à jouer, on baisse les bras alors qu’on s’est fait chier pour avoir un droit qui est bien construit, qui est bien carré pour nous défendre. En fait non ! Politiquement il n’y a aucune ambition et c’est ça qu’il faut dénoncer. Je ne dis pas que c’est au sein de la CNIL qu’il n’y a aucune ambition, c’est au sein du gouvernement, au sein de la CNIL il y a quand même une ambition plus importantes, mais de graves soucis à se faire.<br/><br />
Tout à l’heure j’expliquais que si vous allez sur un site Internet il y avait un petit bandeau cookie qui vous disait « en continuant à naviguer sur ce site vous acceptez tout et n’importe quoi, vous donnez votre consentement de façon implicite ». Ça c’est illégal depuis un an, depuis l’entrée en application du RGPD, c’est clairement illégal. Maintenant qui ne dit mot refuse. Le « qui ne dit mot consent » qui était un peu toléré dans le passé, maintenant est fini, c’est « qui ne dit mot refuse ». Seulement la CNIL, même si elle rend des décisions intéressantes contre Google ou autres, la CNIL s’est faite « lobbyiée » par le Geste, un syndicat qui réunit des éditeurs de presse et des services de pub, s’est faite « lobbyiée » assez victorieusement parlant parce qu’elle vient de décider, il y a un mois, que pendant encore un an sur Internet, votre consentement explicite n’était plus vraiment requis. Pendant un an encore « qui ne dit mot consent ».<br />
<br />
<b>Nadia Daam : </b>C’est-à-dire qu’ls ont fait un an de rab !<br />
<br />
<b>Arthur Messaud : </b>Ils ont fait un an de rab, alors que ce entreprises-là, ces sites-là avaient déjà eu trois ans de rab par le passé, depuis le vote du RGPD, donc c’est un an de plus dans lequel vous pouvez tranquillement violer la loi parce que, après tout, les petits sites français sont intéressants, alors même que Google, par contre, s’est fait sanctionner immédiatement. Tant mieux ! Du coup on a attaqué la CNIL devant le Conseil d’État en référé. On aura une audience mercredi contre la CNIL. On espère que ça remettra un peu de plomb dans la tête de la CNIL, parce que là ce que je vous décris comme modèle depuis le début, parce que si la CNIL est défaillante c’est sûr que les espoirs sont un peu plus faibles.<br />
<br />
<b>Édouard Fillias : </b>La CNIL que je connais bien, ils sont 60-70, un peu plus, une centaine.<br />
<br />
<b>Nadia Daam : </b>Face à Facebook, ça ne fait pas beaucoup !<br />
<br />
<b>Édouard Fillias : </b>Vous rigolez ! Ils disent eux-mêmes, la CNIL, qu’ils n’ont pas les moyens de contrôler ceux qu’ils sont censés contrôler en France. Donc de là à imaginer qu’ils vont taxer Google de quatre milliards par mois, ce qui aurait pour effet d’ailleurs que Google arrêterait de mettre à disposition ses services en France.<br />
<br />
<b>Arthur Messaud : </b>Mais c’est le but ! Ce sont des services qui violent nos libertés ! Il ne faut plus qu’ils soient là !<br />
<br />
<b>Édouard Fillias : </b>La question de fond, la question de base que vous posez aussi c’est pourquoi est-ce que l’Europe est devenue la colonie numérique des États-Unis ? Comment est-ce qu’on a pu en 20 ans perdre notre souveraineté, notre autonomie, notre destinée numérique ? Ça c’est une question qu’il faut poser à nos hommes politiques.<br />
<br />
<b>Nadia Daam : </b>Ils vous écoutent.<br />
<br />
<b>Édouard Fillias : </b>Qu’il faut poser à notre système d’innovation, de recherche, aux liens entre l’université et le business qui sont inexistants en France. La question que je voudrais qu’on pose c’est comment est-ce qu’on crée un Google, deux Google, dix Google en Europe ? Et là il faut se battre. Il faut prendre OVH plutôt qu ‘Amazon quand on est l’État.<br />
<br />
<b>Nadia Daam : </b>OVH qui est ?<br />
<br />
<b>Édouard Fillias : </b>Qui et une société d’hébergement française. Il y a des solutions politiques : par exemple un investissement massif dans un certain nombre de technologies comme l’intelligence artificielle où en France on est plutôt leader et d’ailleurs ce sont des sujets qui se pensent à l’échelle européenne et pas française. Donc il y a un vrai programme de reconquête de notre industrie, de notre technologie numérique. On a tous les atouts pour, car on a des ingénieurs d’un excellent niveau comme Aloïs.<br />
<br />
<b>Nadia Daam : </b>Et vous pointez du doigt Aloïs Brunel dans ce studio.<br />
<br />
<b>Édouard Fillias : </b>On a les moyens de se battre mais il faut accepter de se battre. Plutôt que de chercher à réglementer, interdire, taxer, etc., jouons le jeu de la compétition. Israël par exemple est un leader numérique. On peut imposer là-dessus un certain nombre de succès à nos partenaires et à être respectés du coup.<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel un dernier mot.<br />
<br />
<b>Aloïs Brunel : </b>Juste pour ajouter mon petit grain de sel à tout ça, je pense effectivement que c’est très important de construire des Google, des Facebook européens, mais d’un autre côté la régulation c’est bien. Je pense que le RGPD montre l’exemple au reste du monde et ça positionne l’Europe et nos entreprises aussi en leaders sur ces questions. Parce qu’au final, ce qu’on voit, c’est qu’aux États-Unis eux aussi commencent à se dire « on a peut être besoin d’un RGPD, nous aussi on a besoin de mettre des amendes à Facebook de cinq milliards », ce qu’ils ont fait. Je pense que la réglementation de temps en temps c’est quand même une bonne manière de se positionner en leaders.<br />
<br />
<b>Nadia Daam : </b>On approche de la fin de l’émission. J’ai encore une dernière question pour mes invités.<br />
<br />
<b>Voix off : </b><em>Le débat de midi</em> sur France Inter.<br />
<br />
<b>Nadia Daam : </b>La question rituelle du mois d’août : avec quelle personnalité vivante ou disparue, célèbre ou anonyme, vous aimeriez pourvoir débattre, Édouard Fillias ?<br />
<br />
<b>Édouard Fillias : </b>J’ai lu cet été <em>Terre des hommes</em> d’Antoine de Saint-Exupéry, donc je lui demanderais ce qu’il pense de notre époque. À mon avis il serait à la fois fasciné parce que c’est l’aventure, la nouveauté ; en même temps il se poserait la question de l’humanité et de nos libertés, de notre dignité. Voilà ! J’aimerais avoir cette discussion-là avec lui.<br />
<br />
<b>Nadia Daam : </b>Arthur Messaud ?<br />
<br />
<b>Arthur Messaud : </b>J’aimerais bien, enfin je rêve littéralement parfois dans mon sommeil que je débats à nouveau avec mes profs de droit que j’ai beaucoup aimés. S’ils m’entendent je serais ravi de débattre à nouveau avec eux. Je le fais parfois en public. Appelez-moi !<br />
<br />
<b>Nadia Daam : </b>Aloïs Brunel, même question.<br />
<br />
<b>Aloïs Brunel : </b>Moi j’aurais dit Mary Shelley qui est donc l’autrice de <em>Frankenstein</em>. Personnellement je suis très intéressé par tous les mouvements de transhumanisme, je suis assez fasciné par les avancées médicales, le génie génétique. Je suis aussi un peu horrifié parfois par ce qui se passe, bien sûr l’intelligence artificielle. On peut un peu se poser la question « est-ce qu’on n’est pas en train de créer plein de petits monstres, de Frankenstein, dans plein de domaines ? » En tout cas je serais assez intéressé de discuter avec elle qui a aussi vécu une révolution industrielle et voir comment elle voit le monde d’aujourd’hui.<br />
<br />
<b>Nadia Daam : </b>Merci à tous les trois et merci à l’équipe du <em>Débat de midi</em>. Lucie Lemarchand était à la réalisation ; à la technique Stéphane ??? et Fabrice ???. Demain on se demandera à quoi ça rime d’être maire.</div>D Ohttps://wiki.april.org/index.php?title=%C3%89thique_num%C3%A9rique,_des_datas_sous_serment_-_La_m%C3%A9thode_scientifique&diff=85521Éthique numérique, des datas sous serment - La méthode scientifique2019-08-29T19:04:52Z<p>D O : </p>
<hr />
<div>[[Catégorie:Transcriptions]]<br />
<br />
'''Titre :''' Éthique numérique, des datas sous serment <br />
<br />
'''Intervenants :''' Frédéric Bardolle - Nozha Boujemaa - Nicolas Martin <br />
<br />
'''Lieu :''' <em>La méthode scientifique </em> - France Culture <br />
<br />
'''Date :''' 10 octobre 2018 <br />
<br />
'''Durée :''' 58 min 56<br />
<br />
'''[http://media.radiofrance-podcast.net/podcast09/14312-10.10.2018-ITEMA_21845051-3.mp3 Écouter ou télécharger le podcast]'''<br />
<br />
[https://www.franceculture.fr/emissions/la-methode-scientifique/ethique-numerique-des-datas-sous-serment Page de présentation de l'émission]<br />
<br />
'''Licence de la transcription :''' [http://www.gnu.org/licenses/licenses.html#VerbatimCopying Verbatim]<br />
<br />
'''Illustration :'''<br />
<br />
'''Statut :'''En cours de transcription par D_O<br />
<br />
==Description==<br />
Et si les développeurs et <em>data scientists</em> prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ?<br />
<br />
==Transcription==<br />
<b>Nicolas Martin : </b>Dans le monde numérique qui est le nôtre, il est assez simple de penser qu'un algorithme et bien ce n'est qu'un programme, que foncièrement un programme est par essence neutre. Par exemple, quand je regarde une bande-annonce cinéma sur <em>YouTube</em>, bien à la fin <em>YouTube</em> m'en propose une autre et ainsi de suite et les vaches sont finalement assez bien gardées. Malheureusement, ce n'est pas toujours le cas et les conséquences des algorithmes auxquels nous sommes quotidiennement soumis sont tout sauf neutres. Or, nous n'avons aucun contrôle sur ces algorithmes et sur ces gens qui les programment. D'où cette question : Est-il temps d'imposer une éthique du numérique ?<br />
<br />
[Suite du générique]<br />
<br />
<b>Nicolas Martin : </b> <em>Éthique numérique, des datas sous serment</em> c'est le problème auquel nous allons nous atteler dans l'heure qui vient. Bienvenue dans <em>La méthode scientifique</em>.<br />
<br />
[Fin du générique]<br />
<br />
<b>Nicolas Martin : </b>Et pour décortiquer ce problème aux embranchements et aux conséquences fort complexes au moins aussi complexes que celle d'un algorithme, nous avons donc le plaisir de recevoir aujourd'hui : Nozha Boujemaa. Bonjour.<br />
<br />
<b>Nozha Boujemaa : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes directrice de recherche INRIA, directrice de l'institut DATAIA : institut de convergence français spécialisé en sciences des données, intelligence artificielle et société. Et bonjour Frédéric Bardolle.<br />
<br />
<b>Frédéric Bardolle : </b>Bonjour.<br />
<br />
<b>Nicolas Martin : </b>Vous êtes membre de l'association <em>Data for good</em> et donc d'<em>Algotransparency</em>, une plateforme que vous avez développée et dont nous reparlerons tout à l'heure. Vous pouvez nous suivre comme chaque jour et bien en direct sur les ondes de France Culture, en différé, en <em>podcast</em> via votre application préférée et toujours à quelque moment que vous nous écoutiez, en complément via le fil <em>Twitter</em> de l'émission sur lequel nous allons poster un certain nombre de compléments d'information, d'articles, de graphiques qui vont venir éclairer ce qui va être dit au cours de cette heure et à ce micro. Alors pour commencer, et bien il y a une voix, une voix singulière qui s'est élevée pour réclamer une éthique numérique et dénoncer l'absence de transparence de la plupart des plateformes et des méthodes de programmation. C'est celle de Cathy O'neil, elle est Américaine et mathématicienne. Je vous propose d'écouter un extrait de sa conférence <em>TEDX</em> qui date de l'an dernier.<br />
<br />
==2'40==</div>D Ohttps://wiki.april.org/index.php?title=M%C3%A9dias_%C3%A0_transcrire&diff=85517Médias à transcrire2019-08-29T02:14:02Z<p>D O : </p>
<hr />
<div>[[Image:Transcriptions2.png|right|150px]] <br />
<br />
== Présentation == <br />
<br />
La page principale pour les médias sur le site de l'April est ici: http://www.april.org/fr/videos.<br />
<br />
L'ensemble de ces fichiers sur le serveur sont stockés ici: http://media.april.org/video/ et http://media.april.org/audio/.<br />
<br />
Sur le wiki, une page permet de noter les caractéristiques des fichiers audio et vidéo qui sont sur le serveur avant d'en faire une fiche sur le site web : [[AudioVideo]].<br />
<br />
'''Ces médias sont tous en rapport avec le Logiciel Libre, sa défense, sa promotion…'''<br />
<br />
{{Boite | titre= Les prochaines transcriptions du groupe<br />
| bordure=rgb(132, 136, 220)|fond=Honeydew |largeur=70% |couleurTitre=tomato}}<br />
<br />
''' Les vidéos de la liste ''À relire ou en relecture'''''<br />
<br />
<br />
<br />
<strong>Si vous avez des médias à proposer, complétez la liste ''Suggestions'' et envoyez un message.</strong> <br />
{{BoiteFin}}<br />
<br />
=== Suggestions ===<br />
<br />
*[http://www.la-bas.org/article.php3?id_article=2931 Émission france-inter Là-bas si j'y suis du 05/02/2014 Le bon Dieu te regarde même si tu es aux cabinets 1]<br />
<br />
*[http://www.franceinter.fr/emission-la-bas-si-jy-suis-le-bon-dieu-te-regarde-meme-quand-tu-es-aux-cabinets-2 Émission france-inter Là-bas si j'y suis du 05/02/2014 Le bon Dieu te regarde même si tu es aux cabinets 2]<br />
<br />
*[http://www.freetorrent.fr/index.php?page=torrent-details&id=e8ae902cca9e4d5dd7f8a9691bb6b45fdc8a7e8f Logiciel Libre, Société Libre - Richard M. Stallman à Grenoble - avril 2014] 2h 23 min<br />
<br />
*[https://facil.qc.ca/fsm2016-grande-conf-logiciel-libre La grande conférence sur le logiciel libre avec RMS et Marianne Corvellec - Forum social mondial 2016] 2 h 16 min 26<br />
<br />
*[https://www.youtube.com/watch?v=jZFi-vtqrpo&feature=youtu.be Audition programmatique #20 - Numérique - April et Savoirs communs] 1 h 07 min 39<br />
<br />
* [https://rmll.ubicast.tv/channels/#2017-saint-etienne Conférences des RMLL2017] ad libitum NB : diverses conférences déjà transcrites et publiées<br />
<br />
* [https://framatube.org/media?q=jdll2017 Conférences des JDLL Lyon 2017] ad libitum NB : diverses conférences déjà transcrites et publiées<br />
<br />
* [https://www.youtube.com/embed/_D1TTMOjZiE?version=3&rel=1&fs=1&autohide=2&showsearch=0&showinfo=1&iv_load_policy=1&wmode=transparent Données personnelles et vie privée : ce qui va changer avec le RGPD] 01 h 53 min 49 sec<br />
<br />
*[https://www.youtube.com/watch?v=EbDOuZYmv68 Travailler ensemble pour la défense des libertés - Benjamin Bayart, Pierre-Yves GOSSET, piks3l] 1 h 30 min<br />
<br />
*[https://www.college-de-france.fr/site/claire-mathieu/inaugural-lecture-2017-11-16-18h00.htm Algorithmes - Leçon inaugurale - Claire Mathieu] 1 h 3 min<br />
<br />
*[https://www.franceinter.fr/emissions/affaires-sensibles/affaires-sensibles-28-novembre-2017 Le grand méchant darknet - Amaelle Guitton] 54 min<br />
<br />
*[https://radio.amicus-curiae.net/podcast/open-data-donnees-ouvertes-pour-monde-ouvert-ou-totalitaire/ Open data, données ouvertes pour un monde ouvert ou totalitaire - Amicus Radio] 36 min 45<br />
<br />
*[https://www.franceinter.fr/emissions/comme-un-bruit-qui-court/comme-un-bruit-qui-court-12-mai-2018 Données personnelles : Gare au GAFAM] 53 min<br />
<br />
*[https://www.youtube.com/watch?v=pDPFnywbWDo&index=35&list=PLTbQvx84FrASpPvTGt_0BzttHUvMEvXyP Philosophie de l'Intelligence artificielle - Une introduction] 39 min<br />
<br />
*[https://www.youtube.com/watch?time_continue=9&v=lgOrpwPfW00 Enjeux de la blockchain pour les collectivités | Congrès ADULLACT 2018 - Stéphane Bortzmeyer] 58 min 32<br />
<br />
*[http://www.canalc2.tv/video/15198 Les formats, un sujet toujours d'actualité - Thierry Stoehr - RMLL2018] 59 min 40<br />
<br />
*[https://www.france24.com/fr/20180912-debat-france24-union-europeenne-hongrie-gafa-facebook-google-internet?ref=fb Droit d'auteur : aux géants du net de payer ?] 26 min 15<br />
<br />
*[https://www.youtube.com/watch?time_continue=57&v=5dVmayb6sp4 CN2018 TABLE RONDE] 42 min 46<br />
<br />
*[https://webtv.utc.fr/watch_video.php?v=XUAU4YKB1XMX Des communs fonciers aux communs numériques - Benjamin Coriat] 49 min 25<br />
<br />
*[https://www.youtube.com/watch?time_continue=2&v=SOXAnl7qO8c Parlons-en - Framasoft et le Libre avec Pouhiou] 31 min 33<br />
<br />
* [https://www.april.org/decryptualite-du-8-octobre-2018-fablab-quand-la-maitrise-de-la-technologie-alimente-notre-creativite Décryptualité du 8 octobre 2018 - Fablab : quand la maîtrise de la technologie alimente notre créativité et nous donne du pouvoir sur nos vies] 15 min<br />
<br />
*[https://entreprise.maif.fr/entreprise/pour-une-societe-collaborative/decouvrir-nos-actions/nos-conference-et-debats-a-partager-replay Qui contrôle internet et les médias sociaux - Divina Frau-Meigs - 03/10/2018 à Lons Le Saunier (39)] 1:06:22<br />
<br />
*[https://www.franceculture.fr/emissions/la-methode-scientifique/la-methode-scientifique-du-mercredi-23-mai-2018 Protection des données personnelles : souriez, vous êtes traqués ! La méthode scientifique] 58 min 48<br />
<br />
*[https://www.lejdc.fr/nevers/science/internet-multimedia/2019/01/03/au-royaume-uni-en-france-aux-etats-unis-les-distinctions-s-accumulent-pour-le-nivernais-louis-pouzin-un-des-peres-d-internet_13098569.html Carte blanche à Louis Pouzin - Nevers Libre - Juin 2016] 1 h 29 min<br />
<br />
<br />
<br />
----<br />
<br />
== Travaux ==<br />
<br />
<br />
=== En cours ===<br />
<br />
* [[Free_Libre_alternatives_to_GAFAMs_Internet_a_review_of_French_Initiatives]] : Free/Libre alternatives to GAFAMs Internet a review of French Initiatives, Marianne Corvellec and Jonathan Le Lous à LibrePlanet 2016<br />
<br />
* [[Open_Experience_Art_et_Culture ]] Open Experience : Quels modèles économiques pour l’Open dans l’Art et la Culture ? Lionel Maurel<br />
<br />
* [[Audition et logiciels libres : conférence RMLL juillet 2013]] commencée par Irina<br />
<br />
* [https://wiki.april.org/w/Tristan_Nitot_-_BacFM_Nevers Tristan Nitot interviewé sur BACFM à Nevers dans le cadre d'une émission sur l’événement Dégooglisons internet]] commencée par Techno2900<br />
<br />
* [https://wiki.april.org/w/Donn%C3%A9es_personnelles_:_sommes-nous_des_victimes_consentantes_-_Le_d%C3%A9bat_de_midi Données personnelles : sommes-nous des victimes consentantes - Le débat de midi] 52 min 37<br />
<br />
* [[Éthique numérique, des datas sous serment - La méthode scientifique]] 58 min 56, commencée par D_O<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
----<br />
<br />
=== À relire avec ou sans le son ===<br />
<br />
* [http://wiki.april.org/w/Faut-il_breveter_les_logiciels Faut-il breveter les logiciels ? Table ronde - Aquitaine Science Transfert] 2 heures 3 min<br />
<br />
* [http://wiki.april.org/w/R%C3%A9trospective_juridique_-_Actualit%C3%A9_-_Travaux_en_cours_-_Benjamin_Jean_-_RMLL2015#10.27_16 Rétrospective juridique : actualité et travaux en cours - Benjamin Jean - RMLL2015] 40 min 38<br />
<br />
* [http://wiki.april.org/w/Mettre_en_place_une_politique_publique_en_faveur_du_logiciel_libre_-_Table_ronde Mettre en place une politique publique en faveur du logiciel libre - Table ronde au POSS 2016 animée par Étienne Gonnu] 1 h 36 min 29<br />
<br />
* [https://wiki.april.org/w/Enseignement_sup%C3%A9rieur,_recherche_et_Logiciel_Libre_-_RMLL2018 Enseignement supérieur, recherche et Logiciel Libre - RMLL2018] 1 h 04 min 38<br />
<br />
* [https://wiki.april.org/w/Blockchain_-_Les_temps_%C3%A9lectriques_-_Primavera_De_Filippi Blockchain - Les temps électriques - Primavera De Filippi] 39 min<br />
<br />
* [http://wiki.april.org/w/Ethique_et_l%27int%C3%A9grit%C3%A9_collecte_donn%C3%A9es Éthique et l’intégrité de la collecte et de partage des données] Conférence en anglais de 47 min - relecture en cours par [[Discussion utilisateur:JennyB|JennyB]]<br />
<br />
* [https://wiki.april.org/w/La_technologie_au_service_du_bien_commun,_un_v%C5%93u_pieux_-_D%C3%A9cryptage_-_RFI La technologie au service du bien commun, un vœu pieux - Décryptage - RFI] 19 min 30<br />
<br />
* [https://wiki.april.org/w/Internet_devient-il_un_Minitel_2.0_ou_un_bien_commun_-_Benjamin_Bayart_-_RTS Internet devient-il un Minitel 2.0 ou un bien commun - Benjamin Bayart - RTS] 37 min 50<br />
<br />
* [https://wiki.april.org/w/La_cybersecurite_est-elle_vouee_a_lechec La cybersécurité est-elle vouée à l'échec ? Du grain à moudre] 40 min<br />
<br />
* [https://wiki.april.org/w/Souverainet%C3%A9_num%C3%A9rique_am%C3%A9ricaine_-_Bernard_Benhamou Souveraineté numérique américaine ? - Bernard Benhamou] 42 min 18<br />
<br />
* [https://wiki.april.org/w/Faire_atterrir_les_Communs_num%C3%A9riques Faire atterrir les Communs numériques. Des utopies métaphysiques aux nouveaux territoires de l'hétérotopie - Lionel Maurel] 1 h 02 min<br />
<br />
* [https://wiki.april.org/w/Souverainet%C3%A9_num%C3%A9rique_-_Commission_d%27enqu%C3%AAte_du_S%C3%A9nat_-_Audition_La_Quadrature_du_Net_-_April_-_ISOC_France Souveraineté numérique - Commission d'enquête du Sénat - Audition La Quadrature du Net - April - ISOC France] 1 h 36 min 40<br />
<br />
* [https://wiki.april.org/w/Vers_un_usage_raisonn%C3%A9_du_num%C3%A9rique_-_La_t%C3%AAte_au_carr%C3%A9_-_France_Inter Vers un usage raisonné du numérique - La tête au carré - France Inter] 32 min<br />
<br />
* [https://wiki.april.org/w/Changer_le_monde,_un_ego_%C3%A0_la_fois_-_Pouhiou_-_PSES2019 Changer le monde, un ego à la fois - Pouhiou - PSES2019] 59 min<br />
<br />
* [https://wiki.april.org/w/Contre_la_censure,_la_d%C3%A9centralisation_-_La_Quadrature_du_Net Contre la censure, la décentralisation - La Quadrature du Net] 6 min 19<br />
<br />
* [https://wiki.april.org/w/Education,_sanction,_prospective_:_que_peut_(vraiment)_la_CNIL_pour_prot%C3%A9ger_nos_donn%C3%A9es_-_Soft_Power Education, sanction, prospective : que peut (vraiment) la CNIL pour protéger nos données - Émission Soft Power] 1 h 28 min<br />
<br />
* [[Le numérique nous libère-t-il ou serait-il un nouvel asservissement ? Dominique CARDON - Le grand face-à-face - France Inter]] 38 min environ, transcrit par D_O<br />
<br />
===Relu avec le son, en attente de relecture orthographique===<br />
<br />
* [https://wiki.april.org/w/Responsabilit%C3%A9_des_ing%C3%A9nieurs_-_%C3%89ric_Sadin Responsabilité des ingénieurs - Éric Sadin] 26 min <b>NB : </b> M. Sadin donnera son accord, ou pas, pour la publication de cette transcription, donc en attente - relu par Bookynette & Khrys<br />
<br />
=== En attente de validation ===<br />
<br />
* [[TEDx_Frederic_Couchet]] sous titrage à mettre en ligne sur le site web<br />
<br />
* [http://wiki.april.org/w/Projet_Signoth%C3%A8que_-_PSESHSP_2016 Projet Signothèque - Association Arboré'Sign _ PSESHSF 2016] 43 min 45 - relu par Khrys<br />
<br />
=== Publiées dans le mois ===<br />
<br />
* [https://www.april.org/videosurveillance-et-fichage-sylvain-steer-frequence-protestante Vidéosurveillance et fichage - Sylvain Steer - Fréquence protestante] 30 min<br />
<br />
* [https://www.april.org/le-prix-du-gratuit-gratuite-donnees-publicite-emission-entendez-vous-l-eco Le prix du gratuit - Gratuité, données, publicité - Émission Entendez-vous l'éco] 58 min<br />
<br />
* [https://www.april.org/blockchain-primavera-de-filippi-les-temps-electriques Blockchain - Primavera De Filippi - Les temps électriques] 39 min<br />
<br />
* [https://www.april.org/la-transparence-a-t-elle-un-sens-les-mardis-des-bernardins La transparence a-t-elle un sens ? Les Mardis des Bernardins] 54 min 30<br />
<br />
* [https://www.april.org/moins-de-libertes-moins-de-fun-arthur-messaud-pses-2019 Moins de libertés, moins de fun - Arthur Messaud - PSES 2019] 56 min 30<br />
<br />
* [https://www.april.org/souverainete-numerique-commission-d-enquete-du-senat-libertes-numeriques-audition-conjointe-de-la-qu Souveraineté numérique - Commission d'enquête du Sénat - Libertés numériques - Audition conjointe de La Quadrature du Net - April - ISOC France] 1 h 36 min 40<br />
<br />
* [https://www.april.org/notre-internet-nos-cables-la-quadrature-du-net Notre Internet, nos câbles – La Quadrature du Net] 8 min 35<br />
<br />
<br />
===[[Transcriptions publiées]]===<br />
<br />
== Retour ==<br />
à la [[Transcriptions page d'accueil|page]] d'accueil du groupe.<br />
<br />
[[Catégorie:Transcriptions]]<br />
[[Catégorie:Video]]</div>D O