• l’année dernière
Le patron de Twitter Elon Musk et des centaines d'experts réclament une pause dans l'intelligence articielle. Ils réclament un moratoire jusqu'à la mise en place de systèmes de sécurité. Nos invités pour en discuter : Laurence Devillers, professeure et chercheuse en intelligence artificielle ; Raja Chatila, professeur émérite d’intelligence artificielle à La Sorbonne Université ; Clément Delangue, co-fondateur de la start-up française Hugging Face. Plus d'info : https://www.radiofrance.fr/franceinter/podcasts/l-invite-de-8h20-le-grand-entretien/l-invite-de-8h20-le-grand-entretien-du-vendredi-31-mars-2023-4312849

Category

🗞
News
Transcription
00:00 grand entretien en forme de table ronde ce matin, nous allons parler entre êtres humains
00:04 d'intelligence artificielle. J'attends vos questions au 01 45 24 7000 et sur l'application
00:11 de France Inter. Nous sommes ici en studio à Paris avec Laurence de Villers que je salue.
00:16 Bonjour. - Bonjour. - Professeure d'informatique appliquée aux sciences sociales à la Sorbonne,
00:20 vous avez publié les robots émotionnels aux éditions L'Observatoire. Rajah Chattila,
00:26 bonjour. - Bonjour. - Professeur émérite d'intelligence artificielle et d'éthique des technologies
00:30 à Sorbonne Université, loin, très loin de Paris, en duplex de San Francisco, Clément
00:37 Delangue que je salue. Bonjour. - Bonjour à tous. - Vous êtes cofondateur de la start-up
00:43 française Hugging Face, c'est une entreprise d'intelligence artificielle, 150 employés
00:53 partout dans le monde, mais essentiellement à Paris, valorisé 2 milliards, 15 000 entreprises
01:02 utilisent les modèles de votre boîte, on va le dire comme ça, tout simplement. On
01:11 va revenir vers vous, on va faire circuler la parole à Paris et puis on reviendra vers
01:16 vous dans quelques instants. On démarre sur cette pétition signée avant-hier par des
01:24 centaines d'experts mondiaux de l'intelligence artificielle, appelant à un moratoire de
01:29 six mois dans le développement fulgurant de cette technologie, dont le grand public a
01:34 pris connaissance médusée il y a quelques mois avec le lancement de robots conversationnels,
01:42 dont le plus fameux est désormais Chad GPT. Je cite le texte de cette pétition et les
01:50 mots ne sont pas anodins. Ces derniers mois ont vu les laboratoires d'intelligence artificielle
01:57 s'enfermer dans une course incontrôlée pour développer et déployer des cerveaux
02:03 numériques toujours plus puissants que personne, pas même leur créateur, ne peut comprendre,
02:09 prédire ou contrôler de manière fiable. Devons-nous laisser les machines inonder nos
02:16 canaux d'information, de propagande et de mensonge ? Devons-nous développer des esprits
02:22 non-humains qui pourraient un jour être plus nombreux, plus intelligents, nous rendre obsolètes
02:28 et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation
02:34 ? Alors c'est un peu la gueule de bois, Laurence
02:38 Viller, tout le monde s'est émerveillé en voyant arriver Chad GPT, tout le monde
02:44 a joué avec le merveilleux petit jouet, mais en réalité il semble que ça ne soit
02:49 pas si drôle que ça. Ce que dit ce texte, c'est qu'on est en passe d'être dépassé,
02:55 que l'intelligence artificielle est devenue une menace ou j'exagère en disant ça ?
03:00 Je crois qu'il faut rester prudent et il y a une grosse exagération dans les deux
03:06 sens. C'est-à-dire que ce n'est pas si hallucinant que ça, l'utilisation de Chad
03:11 GPT, on est passé de l'exaltation maintenant à la peur, donc vous avez raison, on joue
03:16 sur les émotions. Et ce moratoire qui arrive pour dire "attention, danger pour le monde
03:22 entier, on va aller vers quelque chose qu'on ne sait pas du tout contrôler", il y a là
03:29 une exagération qui me montre le buzz et l'intention finalement de certains comme
03:35 Elon Musk qui signe cette tribune et dont on parle partout. Et ça c'est inadmissible,
03:40 pas scientifique. Et de l'autre côté, nous chercheurs ou les industriels qui sont
03:45 plus responsables, se posent des questions d'encadrement. Et en Europe, on a prévu
03:51 d'une loi sur l'informatique et des normes autour de ces sujets. Et il y a une réelle
03:55 question. Maintenant, le fait de freiner pendant six mois cette espèce d'emballement n'est
04:01 pas idiot.
04:02 Il y a beaucoup de choses, on va venir sur le moratoire, l'encadrement, etc. Mais alors
04:07 Rajah Chattila, vous, vous l'avez signé, cette pétition. Autre citation, "les systèmes
04:15 d'intelligence artificielle dotés d'une intelligence compétitive avec celle de l'homme
04:19 peuvent présenter des risques profonds pour la société et l'humanité". Je sens quand
04:23 même de la peur en lisant ces lignes, je me trompe ou pas ?
04:27 Alors, évidemment, tout d'abord, en préliminaire, quand on signe une pétition, ça ne veut pas
04:33 dire qu'on est d'accord avec chaque mot.
04:35 Oui, enfin, avec l'esprit du texte au minimum.
04:37 On est d'accord avec l'esprit du texte et surtout, on est d'accord avec l'existence
04:43 du texte. Parce que là, il fallait lever un carton rouge, quelque chose est en train
04:47 de se passer et il fallait effectivement qu'on en prenne conscience collectivement. Donc
04:53 oui, il y a des choses qui peuvent effectivement faire peur, mais il ne s'agit pas de faire
05:00 peur, il s'agit de dire une certaine réalité.
05:02 Alors, qu'est-ce qui se passe ? Vous dites qu'il y a quelque chose qui est en train
05:04 de se passer. Qu'est-ce qui se passe ?
05:06 Il se passe qu'un certain nombre d'institutions, pour dire un mot relativement neutre, sont
05:14 en train de développer, de déployer des systèmes qui sont des systèmes qui sont
05:19 basés sur l'apprentissage automatique, c'est-à-dire de la corrélation statistique entre des
05:23 données, de très grandes quantités de données, qui sont arrivés à un point de
05:28 développement et ils sont faits pour ça, de reproduire des textes qui semblent rédigés
05:35 par des humains. Et comme vous avez dit, joué avec, vous avez vu leur performance.
05:41 Le problème, c'est qu'il y en a plusieurs, mais je vais juste pointer deux problèmes.
05:46 C'est que ces textes ne sont pas porteurs de vérité, c'est-à-dire qu'ils mélangent
05:51 le vrai et le faux et c'est vraiment difficile de distinguer le vrai du faux dans ce qu'ils
05:56 disent. Le deuxième problème, c'est l'absence totale de sens. Ces systèmes, on ne le dit
06:02 pas assez, ne comprennent pas ce qu'ils écrivent ou ce qu'ils disent. Ils ne comprennent
06:07 que la statistique et des chaînes de caractère qui arrivent fréquemment ensemble dans les
06:11 textes qu'ils ont appris. Donc, ils peuvent raconter des choses qui sont essentiellement
06:16 sans aucun sens pour nous. Mais nous projetons un sens sur elles. Et donc, le risque de
06:24 manipulation, le risque d'enfermement, le risque de la vérité, qui est notre point
06:33 commun sur lequel on se retrouve, il est là. Il est mis en cause fortement par ces systèmes.
06:38 Alors, pourquoi sortir le carton rouge aujourd'hui ? Pourquoi dire « attention » ? Parce que
06:46 là, il y a quand même un carton qui a été sorti. Alors, dites-nous, Laurence de Villers.
06:51 Parce qu'en fait, comme le dit très bien Raja, on commence à utiliser ces systèmes.
06:55 Prenons le cas du journalisme. Que font ces systèmes ? Ils amalgament un grand nombre
07:00 de documents qui peuvent être de la connaissance scientifique, des opinions, de l'infox,
07:05 et ils vont perdre totalement les références. C'est-à-dire d'où viennent ces informations.
07:11 Ce qui fait que le résultat de Chadjipété, c'est de la parole quasi humaine, mais sans
07:16 aucune référence. Donc, vous avez le mélange du vrai du faux, sans aucune possibilité
07:21 pour un journaliste, pour un scientifique, de regarder d'où viennent les sources.
07:25 C'est là le début de la fin. Puisqu'en fait, comme on ne peut pas prouver quelle
07:29 est la réflexion qui a été menée pour arriver à quelque chose, et que là, il n'y
07:32 a pas de réflexion, c'est de la statistique pure, il ne faut pas utiliser ces systèmes
07:37 puisque sinon on va niveler vers le bas, on va propager de l'infox partout et ça
07:43 va être un truc terrible. Donc le carton rouge, c'est en premier pour les journalistes,
07:48 en second pour les élèves, en troisième pour tous. C'est-à-dire que la science
07:52 elle-même va perdre. Nous sommes en train de comprendre à quel point ces systèmes
07:57 peuvent apporter des solutions, peut-être parce qu'ils vont chercher les signaux faibles
08:01 dans un ensemble énorme de données que l'humain ne peut pas voir, mais en même temps, il
08:05 est capable de générer des choses hallucinantes avec une émergence de comportements, c'est-à-dire
08:10 des dires qui pour nous vont sembler humains et qu'ils ne sont pas. Et ce système peut
08:14 diverger à n'importe quel moment. Donc ne pas faire confiance. Et ce n'est pas un
08:18 gain de temps d'utiliser ces systèmes parce qu'il faut absolument se reposer la question
08:22 de d'où viennent les sources, qu'est-ce qui se passe. Bing par exemple, qui utilise
08:26 le GPT-4, le moteur de recherche de Microsoft, rajoute des références dans le texte ayant
08:31 bien compris l'importance de cela. Sauf que ces références peuvent être fausses.
08:35 Clément Delangue, vous êtes à San Francisco, en duplex avec nous. Comment voyez-vous ce
08:41 débat depuis là-bas ? Vous travaillez, je l'ai dit, dans l'intelligence artificielle.
08:46 Vous n'avez pas signé cette pétition. Pour quelle raison ?
08:49 En fait, ce qu'on voit ici, c'est que cette pétition ressemble tout de même pas
08:55 mal à une opération un peu de marketing et de communication, un peu dirigée par
09:02 Elon Musk, qui a un peu été dépassé par cette nouvelle technologie de l'intelligence
09:10 artificielle. L'un des problèmes avec cette pétition, c'est que les solutions
09:16 proposées sont vraiment très peu pratiques ou applicables. Parce qu'en fait, limiter
09:23 l'entraînement de ces modèles à l'intérieur d'entreprises privées, qui de toute façon
09:27 aujourd'hui entraînent ces modèles en secret, n'a juste aucune probabilité d'aboutir.
09:36 C'est plus aujourd'hui une opération, à mon avis, de marketing et de communication.
09:40 Je pense que ce qui est important et ce que montre ce débat aujourd'hui, c'est qu'il
09:46 faut plus d'éducation et de transparence au sujet de ces systèmes. C'est-à-dire
09:52 qu'il faut que ces quelques modèles qui sont en fait monopolisés par quelques organisations,
10:00 pour les nommer OpenAI, il faut qu'en fait on ait plus de transparence sur quels sont
10:05 les data sets, quels sont les data qui ont été analysés, qui ont été utilisés pour
10:10 entraîner ces modèles, comment ces modèles fonctionnent, quels sont les challenges et
10:15 les opportunités, les limites de ces modèles. Et vraiment éduquer tout le monde, faire
10:22 comprendre à tout le monde comment ces modèles fonctionnent, pour qu'il n'y ait pas cette
10:28 peur de l'intelligence artificielle, cette peur pas mal inspirée en fait de la science
10:35 fiction, où on rend l'intelligence artificielle humaine alors qu'elle ne l'est pas aujourd'hui.
10:42 C'est vraiment une technologie, un autocompli de textes. Et donc il faut qu'on fasse plus
10:52 d'éducation, qu'on explique plus, qu'on fasse plus la transparence sur ces modèles,
10:56 sur cette technologie, pour qu'ils soient utilisés uniquement à bon escient.
11:00 - Comment vous voyez vous, la perspective, vous qui êtes entrepreneur, la perspective
11:05 de la régulation ? Parce que le texte pose le problème de la régulation. Il demande
11:10 un moratoire de six mois aux entreprises et s'il n'y a pas de moratoire sur les entreprises,
11:15 à ce moment-là il faut que le shérif vienne dans l'espace et se mette à réguler. Ça
11:22 j'imagine que vous êtes contre ?
11:24 - Non, je pense qu'il faut de la régulation. C'est une nouvelle technologie avec un impact
11:30 nouveau qui crée des nouveaux challenges pour la société dans son ensemble. On voit
11:37 que c'est une technologie qui touche toute la société aujourd'hui. Et donc il faut
11:40 que le régulateur puisse mettre des règles en place pour protéger la société. Mais
11:47 je pense que ce qui est important, c'est que le régulateur le fasse en connaissance
11:52 de cause et en comprenant vraiment comment ont été entraînés les modèles actuels,
11:58 sur quels datas, ce qui n'est pas le cas aujourd'hui. Le régulateur a très peu la
12:02 compréhension de comment ces modèles fonctionnent et comment ils ont été entraînés. Donc
12:07 pour moi, une première étape qui ferait sens, c'est d'essayer de motiver, de supporter,
12:14 voire d'obliger à beaucoup plus de transparence sur ces technologies pour que le régulateur
12:19 soit en capacité de comprendre ces systèmes et donc de mettre en place les bonnes limitations
12:24 et les bonnes régulations.
12:25 La pétition souligne le fait que l'ensemble des bouleversements induits par l'intelligence
12:30 artificielle se retrouvent de fait délégués à des leaders technologiques non élus. La
12:37 bataille se joue entre des entreprises, tout simplement. On peut le formuler comme ça.
12:44 Pour vous, Rajah Chattila, c'est le sujet qu'à ce stade, seules les entreprises aient
12:49 la main ?
12:50 Ah oui, ça c'est un sujet parce que depuis quelques temps déjà, évidemment, ce sont
12:54 les entreprises qui sont les géants de la Silicon Valley, mais pas que de la Silicon
12:59 Valley, qui ont la capacité, les données nécessaires et bien sûr les fonds pour développer
13:06 ces systèmes. Donc la recherche académique, la recherche dans les universités, dans les
13:10 centres de recherche n'a pas les moyens d'être en compétition avec des entreprises de ce
13:15 type-là. Et c'est pour ça qu'on n'entend que de Open AI, parler que d'Open AI, de
13:19 Google, de Microsoft, etc. Parce qu'ils ont tout. Et dans les universités, on est petit
13:26 joueur si vous voulez avec ça. Mais le sujet, je voudrais revenir sur ce qu'a dit Clément,
13:32 parce que le sujet n'est pas uniquement celui de la transparence et de celui des données
13:37 d'apprentissage. Le sujet est celui de ce qu'on appelle l'obligation de diligence.
13:43 C'est-à-dire quand vous mettez un produit à disposition ou sur le marché, vous avez
13:47 une obligation que ce produit ne soit pas dangereux et que les dangers qu'il puisse
13:53 présenter soient bien délimités et qu'il y ait des mesures pour les traiter. Ce qui
14:00 n'est pas le cas ici. On ne peut pas dire "Ah, j'ai développé ce produit, regardez,
14:05 il est merveilleux, mais certains pourraient mal l'utiliser, attention, faites attention".
14:09 Non, ça c'est inverser un peu la responsabilité. Et le but de cette pétition, j'insiste sur
14:16 le fait qu'il faut regarder son objectif et pas forcément chaque mot, c'est vraiment
14:21 de pointer les responsabilités et de dire que quelque chose doit être fait ici et
14:26 maintenant. Et la réglementation est en cours, la réglementation européenne est en cours,
14:31 on y reviendra sans doute, mais elle ne sera adoptée que vers la fin de l'année, mise
14:36 en œuvre que deux ans plus tard. Donc, il y a quelque chose à faire dans l'immédiat
14:39 parce qu'en trois ans, on n'aura pas GPT, on n'aura pas GPT4, on aura encore un système
14:46 qui fonctionne toujours de la même manière, c'est-à-dire avec les mêmes dangers, mais
14:50 qui sera beaucoup plus puissant et qui pourra amener à beaucoup plus de dangers.
14:54 - Laurence de Villers ?
14:55 - Donc, moi, je pense qu'il faut quand même parler du gros travail qui a été fait avec
15:00 Huguinfeiss et des chercheurs en Europe puisqu'il y a eu un projet qui s'appelait le projet
15:06 Bloom de faire effectivement un GPT3 équivalent avec 176 milliards de paramètres, des données
15:13 qu'on maîtrisait plus en entrée, avec énormément de librairies que les jeunes chercheurs peuvent
15:17 utiliser pour entraîner des systèmes. Donc, c'est utile d'éduquer par ce biais-là et
15:22 de comprendre quelles sont les limites. C'était l'objectif du multilinguisme aussi présent
15:26 dans ces systèmes. Quel est l'incidence sur l'opinion ? Parce que vous savez, le
15:31 GPAGPT, c'est 46% d'anglais à l'intérieur. Donc, est-ce qu'il y a une incidence sur
15:36 finalement le résultat du système ? Donc, je pense qu'il faut comprendre que la recherche
15:40 a quelque chose à faire. Et d'ailleurs, les chercheurs sont en lien avec ces grands
15:44 géants du numérique pour beaucoup. Et donc, on a besoin de comprendre plus. Et en cela,
15:50 le moratoire est intéressant parce qu'il va freiner l'application.
15:53 - Mais vous y croyez vraiment ?
15:54 - Non, non, attendez.
15:55 - Au moratoire ?
15:56 - Je ne crois pas.
15:57 - C'est lors que ça se passe entre entreprises, laboratoires concurrents ?
16:00 - Je crois à l'irréputation. Attendez, je crois à l'irréputation, d'accord ? C'est-à-dire
16:06 qu'on n'est pas obligé de freiner avec des lois. On peut aussi freiner par la compréhension
16:10 de chacun des dangers de ces systèmes. Quand j'entendais parler les gens, par exemple,
16:16 à la Covid, stop Covid, on avait peur de ce qu'allait faire le gouvernement français
16:20 avec ce système. Mais par contre, on faisait complètement confiance à Apple ou à tous
16:25 ces géants du numérique avec les données qu'on donnait sans questionnement sur Internet.
16:29 Il y a là un paradoxe. Je pense qu'il est utile de répéter cela. Et ce moratoire,
16:33 quelque part, il faut l'interpréter. Moi, je suis d'accord avec vous, le langage utilisé
16:38 n'est pas normal. On montre bien là qu'il y a une affaire de buzz et de marketing. Et
16:42 je suis d'accord avec Clément. Mais fondamentalement, on a quand même besoin de ne pas utiliser
16:48 ces systèmes dans nos applications à l'heure actuelle parce qu'on ne maîtrise pas le résultat.
16:55 Ce n'est pas de la vérité, on n'a pas les références. Et je ne vois pas à quoi
16:58 ça sert d'utiliser finalement une parole totalement non-humaine qui va sûrement avoir
17:05 un excès de confiance. Parce que maintenant, je me pose comme non-expert devant ce système.
17:09 Qu'est-ce qui se passe ? J'ai un système qui parle un français tout à fait correct,
17:13 une syntaxe correcte, qui énonce des idées, des opinions. Pourquoi moi, qui ne comprends
17:18 pas ces systèmes, je ne vais pas adhérer à cela ? Et là, à voir cette anthropomorphie,
17:23 cette projection d'une super intelligence sur cette machine. Donc il y a un réel problème
17:27 de société et l'éducation ne va pas arriver comme ça d'un seul coup. Donc on a besoin
17:32 de freiner aussi parce que nous sommes vulnérables par rapport à ces systèmes. Pour beaucoup,
17:36 les réseaux sociaux le montrent. L'autre chose sur la normalisation en Europe, il y
17:40 a un fort enjeu qui est la responsabilité qu'on va donner à la fois à ceux qui créent
17:48 les technologies et à ceux qui les déploient. Il est important que ce soit partagé et que
17:52 ce ne soient pas juste les déploiements en Europe, mais qu'ils soient ceux qui soient
17:55 critiqués et responsables. On a besoin d'avoir un partage et faire l'inverse de ce qu'on
18:00 a fait pour les réseaux sociaux en disant que ce sont juste des plateformes, ces géants
18:03 ne sont absolument pas responsables. Ce sont des tuyaux.
18:06 Mais est-ce qu'on n'est pas en train de faire exactement la même chose ? C'est-à-dire
18:09 que sur les réseaux sociaux, on mesure aujourd'hui les conséquences qu'ils peuvent avoir sur
18:13 les usagers, on les mesure a posteriori. Là, on a une nouvelle technologie, la JPPT, et
18:22 on dit que c'est exactement le raisonnement que vous aviez. Attendons, la technologie
18:30 est là et on va en mesurer bientôt les conséquences. Est-ce qu'on ne pourrait pas faire les choses
18:35 à l'inverse ?
18:36 Eh bien oui, bien sûr. Faire les choses à l'inverse, ça veut dire les cadrer.
18:40 Vous savez, il y a plusieurs institutions internationales qui ont émis des principes
18:47 sur le développement et le déploiement de l'intelligence artificielle. L'OCDE, la
18:53 Commission européenne elle-même, l'UNESCO et j'en passe. Y compris des associations
19:01 de concepteurs. Par exemple, l'I3E, qui est une association professionnelle. Et tout cela
19:10 a été affirmé, dit, mais ça n'a pas empêché le développement de systèmes qui ne correspondent
19:16 pas à ces principes. Donc, il faut bien faire quelque chose. C'est pour ça que la réglementation
19:21 est importante et tout le monde est d'accord sur la réglementation, mais peut-être pas
19:24 sur les détails de la réglementation. Et c'est pour ça aussi qu'il faut éveiller
19:29 la conscience publique. Alors, on parle d'éducation. Bien sûr, c'est une évidence qu'il faut
19:33 de l'éducation, mais ce n'est pas suffisant. L'éducation, ça prend du temps, les gens
19:38 doivent s'accoutumer, doivent comprendre les concepts et on essaie de les expliquer.
19:42 Mais il faut aussi, parfois, élever le ton un peu. Et je pense que c'est le but de cette
19:49 pétition. Moi, je la vois intéressante par son existence, pas par chacun de ses mots.
19:55 Par le fait qu'on en parle aujourd'hui, qu'on arrête de jouer avec les spaghettis et qu'on
20:01 regarde... - Oui, à dire "Chat GPT, donne-moi une recette de spaghettis".
20:04 - Voilà. Et qu'on regarde effectivement ce qui est en train de se passer. Et ça, c'est
20:08 essentiel, cette prise de conscience. D'ailleurs, elle a été appelée par le PDG de OpenAI,
20:16 Sam Altman lui-même, puisqu'il a dit, et c'est mentionné d'ailleurs dans la pétition,
20:20 à un moment donné, il pourrait être important d'avoir une évaluation indépendante avant
20:26 de commencer à entraîner les futurs systèmes et pour les plus avancés d'entre eux, pour
20:33 être d'accord sur la limitation du taux de croissance de l'utilisation du calcul. Donc,
20:39 prenons-le au mot. - On va passer au standard, où Louis nous
20:43 appelle de Toulouse. Bonjour Louis ! - Bonjour !
20:46 - Vous êtes doctorant ? - Tout à fait, en intelligence artificielle
20:49 et je donne aussi quelques cours à l'université dans ce cadre-là.
20:52 - Allez, on vous écoute ! - Alors moi, c'est plus une remarque qu'une
20:56 question en fait. C'est pour dire que déjà, dès maintenant, moi je conseille à mes élèves
20:59 de l'utiliser, "Chat GPT". D'ailleurs, je me suis rendu compte que c'était impossible
21:02 de leur interdire de toute façon, parce qu'ils sont malins et ça peut en servir. Et en fait,
21:06 autant les encourager à bien l'utiliser. Et donc, j'ai remarqué que ça augmentait
21:10 la qualité de leur rendu. Parce qu'en fait, ils ont basiquement une sorte de super collègue
21:14 qui peuvent demander des conseils ou des reformulations. Ça permet de lisser les inégalités de maîtrise
21:19 de la langue française en s'assurant que tout le monde peut articuler ses idées correctement
21:22 et me rendre un travail de qualité. Et moi-même, dans le cadre de mon travail, je m'en sers
21:26 déjà. J'ai déjà écrit des articles en m'aidant de "Chat GPT". Donc, je trouve
21:30 que c'est un super outil. Et à partir du moment où on retient que c'est un modèle
21:32 de langue qui aide à reformuler ses idées, à les mettre en forme, et pas un modèle
21:36 de connaissances qu'il faut interroger comme Wikipédia. Une fois qu'on a compris ça,
21:40 c'est un super outil. Moi, j'en recommande l'utilisation à tout le monde, y compris
21:42 dans un cadre scolaire.
21:43 - Et bien, merci infiniment pour ce témoignage. On retourne au standard pour donner la parole
21:51 à Angelo. Bonjour et bienvenue.
21:53 - Oui, bonjour. Alors, je pense que vos invités ont déjà abordé la question, mais je me
21:59 pose toujours cette articulation entre une sortie scientifique et l'autorisation de
22:05 l'utiliser. Je pense par exemple à YouTube, qui a été un formidable réseau pour Daesh.
22:10 Ça a été utilisé, il n'y avait pas du tout de modération, c'était un gros bordel.
22:15 Et maintenant, il y a des trucs qui sortent. Je ne suis pas contre l'intelligence artificielle.
22:19 La question la plus globale, c'est l'articulation entre le pouvoir politique, l'interdiction
22:23 d'un produit, on va l'appeler comme ça, avant qu'il soit utilisé. Parce que là,
22:27 j'ai l'impression qu'on fait la démarche inverse. C'est sorti et maintenant, on s'interroge
22:31 sur les dangers.
22:32 - Merci, merci pour cette question, Angelo, parfaitement formulée. C'est sorti, on s'interroge
22:39 sur les dangers. Qui veut répondre sur...
22:41 - Ce n'est pas nouveau.
22:42 - Rajah, Shatila.
22:43 - Oui, ce n'est pas nouveau. On s'est interrogé depuis les dangers depuis longtemps, depuis
22:48 effectivement que ces systèmes, et leurs prédécesseurs aussi d'ailleurs, qui étaient
22:52 moins performants, existent. Et c'est pour ça qu'on en arrive à une réglementation.
22:56 Ça prend du temps, tout ça. Le temps de la réflexion éthique et le temps de la réglementation
23:01 n'est pas le temps de l'industrie. Donc pendant ce temps-là, c'était le Far West. Et c'est
23:07 toujours le Far West. Et c'est pour ça qu'il y a cette réaction-là. Donc, ce n'est pas
23:10 nouveau. Mais effectivement, pour n'importe quel produit, il y a des démarches de certification.
23:16 On ne met pas sur le marché quelque chose qui n'a pas été certifié, qui n'a pas
23:20 été marqué par NF ou CE. Et ici, rien. Et c'est pour ça que justement, on travaille
23:26 sur ça. Alors, il se trouve que Chadjipiti et ses systèmes sont arrivés très, très,
23:31 très vite. Et ils ont abondamment, disons, occupé la place. Et maintenant, on en parle
23:38 pratiquement, on en parle uniquement d'eux. Mais la réflexion n'est pas nouvelle. Il
23:43 y a un autre point sur l'usage, parce que je voudrais juste répondre à lui quand même.
23:47 Il a raison de l'utiliser. Je l'utilise aussi. Mais je l'utilise en connaissance
23:51 de cause, comme il le fait. Parce qu'effectivement, je vais chercher des informations et je sais
23:55 distinguer le vrai et le faux. Et je sais dans quel contexte exact je l'utilise. Et
24:01 justement, c'est ça le problème. Le problème, c'est qu'on a quelque chose qui est plus
24:04 utilisable pour tout. Et donc, on peut l'utiliser pour tout.
24:08 Laurence de Villers, réponse à nos auditeurs.
24:12 Oui, pour l'école, moi aussi, j'ai dit qu'il fallait absolument l'utiliser parce
24:16 qu'à l'heure actuelle, il est important de montrer les dérives de ces systèmes en
24:22 raisonnant sur les réponses qu'ils peuvent donner. Maintenant, demain, est-ce qu'on
24:26 va désapprendre ? Si ces outils étaient utilisés à l'école, est-ce que c'est
24:29 désapprendre l'orthographe ? Vous avez une prothèse qui fournit du langage. Donc
24:33 ça, c'est une question de fond. La deuxième chose sur la normalisation,
24:38 c'est la normalisation qui se passe sur l'Europe. C'est mettre ensemble des industriels,
24:45 des chercheurs, des politiques pour essayer de comprendre, en étant indépendant de
24:50 la politique qui décide, pour essayer de mettre en œuvre des mesures et des méthodologies
24:56 pour pouvoir non seulement certifier à la sortie, mais certifier sur les usages. Et
25:01 donc, c'est important de comprendre qu'il y a trois piliers qu'il va falloir absolument
25:04 comprendre. La loi, les normes qui sont faites avec les entreprises et les règles éthiques.
25:09 Et sur ces dimensions éthiques dont Rajah a parlé, nous avons des groupes de réflexion
25:14 de normalisation sur ces dimensions également, dans l'idée de comprendre les valeurs essentielles
25:18 qu'il faut donner aux concepteurs et que les gouvernements doivent apprendre aussi.
25:22 Je pense qu'on manque de scientifiques dans tous ces gouvernements.
25:25 Le message est passé. Merci à tous les trois, Laurence Devillers, Rajah Chattila et Clément Delangue,
25:30 qui restaient réveillés très tard pour parler ce matin sur France Inter.

Recommandations