L'IA va-t-elle nous remplacer ? Le débat du Talk franceinfo (Partie 2)

  • l’année dernière
ChatGPT, nouvel agent conversationnel en ligne fait la Une des médias depuis plusieurs semaines. Entre maîtrise presque parfaite des langues humaines, raisonnements logiques mais aussi incohérences et fake news : faut-il craindre les intelligences artificielles ? C'est le sujet du Talk franceinfo. Tous les soirs à partir de 18 heures, Manon Mella et ses invités débattent avec les internautes de la chaîne Twitch de franceinfo.

Category

🗞
News
Transcript
00:00 thriller comique qui s'appelle "Kia Aki Garutia" qu'on a écrit avec Serge Abitboul et Gilles
00:06 Doweck et qu'on espère bien voir vivre parce que justement ça donne cette projection dans la vie
00:12 de tous les jours, ce qu'on pourrait attendre de ça et des limites aussi. Et qu'est-ce que c'est
00:16 que sur la mémoire ? Qu'est-ce que ça fait sur nous ? Parce qu'on anthropomorphise ces objets,
00:20 or ce sont des objets. Ils n'ont pas de conscience et pas d'intention, comme il vient de le dire. Et
00:25 en fait il faut apprendre à utiliser ces objets autour de nous. C'est un objet comme un autre
00:30 objet mais qui a des capacités de mémorisation de nos vies. Mais nous on perd même sans parler
00:37 de Tchadjipiti, mais alors je dirais pas que c'est une bonne ou une mauvaise nouvelle, mais on a déjà
00:41 perdu quelques fonctionnalités entre guillemets, les numéros de téléphone de nos proches, les dates
00:47 d'anniversaire. Si vous voulez on a déjà perdu la mémoire du calendrier. On évolue, nos ancêtres
00:54 ils n'avaient pas de téléphone, donc ils n'avaient pas de numéro de téléphone. Donc on se donne des
00:58 outils, donc on s'adapte à ces outils, donc on avait mémorisé le numéro de téléphone. Maintenant,
01:03 dans l'ancien temps, il n'y avait pas de téléphone, il y avait d'autres choses, il y avait d'autres
01:07 capacités. On savait se battre ou faire d'autres choses dans la vie. - Mais on ne savait pas écrire
01:10 non plus ! - Et on ne savait pas écrire. - Nos très grands ancêtres. - On évolue. - Et c'est vrai que
01:15 l'écriture apparaît relativement tardivement dans l'histoire, toute l'épopée de l'humanité.
01:23 Et puis depuis un certain temps, de plus en plus de personnes apprennent à écrire. Et les technologies
01:29 de l'information justement nous aident à écrire. On écrit plus aujourd'hui par exemple.
01:36 Il y a 30-40 ans, on pensait qu'on rentrerait dans une société où on n'écrierait plus. - Visuel.
01:42 - On écrit différemment mais on écrit toujours. - C'est ce que l'on disait. Alors maintenant, on écrit.
01:46 Il y a une histoire qui est intéressante, qui permet de prendre conscience des changements. Un de mes
01:53 amis, un grand philosophe, Dan Sperber, a écrit il y a une trentaine d'années un article dans lequel
01:58 il disait "on va rentrer dans une société sans écriture". Alors il disait "pas sans lecture".
02:03 Alors qu'est-ce qu'il voulait dire ? Il voulait dire qu'avec les machines à dicter, on parlerait et
02:09 on n'aurait plus besoin d'utiliser de stylo. C'est un peu comme... Vous savez que Virgil, par exemple,
02:14 n'écrivait pas. Alors il n'écrivait pas mais il dictait, il avait des scribes. Et donc on va pouvoir
02:19 faire ça avec les machines. Alors on se rend compte que c'est un peu plus compliqué. Ça ne marche
02:24 pas aussi simplement que ça. - Non, parce que l'écriture cursive, on a bien démontré que c'était
02:29 important dans la mémorisation de faire cette écriture cursive. Donc à la main. - Mais avec le clavier,
02:37 par exemple, c'est plus vraiment une écriture cursive. - Justement. Ils ont pas jamais démontré ça.
02:41 - Ce qui est intéressant, c'est qu'on pourrait dire aussi "on est une société sans écriture où les machines
02:47 vont rédiger à notre place". Et là, ça ressemble... Alors, bien sûr, ce qui est amusant, c'est de faire
02:52 des analogies avec ce qui se produisait dans le passé. J'ai dit tout à l'heure, le dictaphone,
02:57 enfin plus exactement la machine à dicter, c'est un peu comme le scribe. Et bien là, on a une
03:02 machine avec chaque GPT, enfin plus exactement avec GPT, qui ressemble aux écrivains publics. Vous savez
03:07 qu'il y a un certain nombre de dizaines d'années, encore au début du XXe siècle, c'est-à-dire si vous
03:13 avez vu "Les enfants du paradis", je crois qu'il y a comme ça un épisode, lorsque des gens qui étaient
03:19 peu cultivés avaient quelque chose à écrire, qu'ils étaient gênés, à ce moment-là, ils demandaient à un
03:24 écrivain public de le faire à leur place. Mais on peut dire que c'est un peu l'utilisation que pourraient
03:30 avoir ces machines. C'est-à-dire que, par exemple, pour écrire une lettre d'amour ou pour répondre à une
03:35 annonce professionnelle... - On serait dans "Heure", quoi. Dans "Heure", c'est ce qu'ils faisaient au départ.
03:39 - Tout à l'heure, vous aviez expliqué que chaque GPT était prédictif, donc ça veut dire "pas factuel".
03:46 Est-ce que c'est ça, aujourd'hui, le plus gros... le premier danger qu'on voit arriver, c'est cette
03:53 crainte de la désinformation, finalement ? - En fait, il est capable de générer... - En gros, plus il y a de la désinformation sur le web...
03:58 - Plus il y en aura. - C'est un peu un cercle vicieux, infernal. - Plus il y a de théorie de données qui viennent de machines.
04:05 Comme tu le dis, sans écriture, fait d'humains. Et là, où va-t-on ? - Mais le problème, c'est même pas le faux sur le web.
04:13 C'est que, dans sa conception même, il engendre le mot le plus plausible dans un contexte donné.
04:22 Donc, c'est juste ce qu'il est de bon ton de dire. Mais ça n'est absolument pas relié à une quelconque véracité,
04:31 à une quelconque recherche. Et c'est bien ça, le problème. - Attend, attend, il y en a quand même...
04:35 Parce que, quand on parle de ces systèmes, il y a quand même des censures derrière.
04:40 Parce que ces systèmes sont quand même des choses qui vont générer beaucoup d'incohérences.
04:44 Et donc, le concepteur, par exemple, d'Opelia... - Laissez-la finir, d'abord.
04:50 - Donc, le concepteur a mis derrière, en fait, ces filtres où on vous dit d'un seul coup, "ce mot-là, c'est pas bien de dire ça"...
04:56 Enfin, voilà. Il rajoute en fait quelque chose qui juge de l'utilité ou pas d'aller interroger ce système sur un sujet,
05:05 parce qu'il n'est pas politiquement correct, ou sur les propos sexuels, ou sur des choses haineuses.
05:10 Bon, eh bien, ça, je suis désolée, c'est un humain qui l'a décidé. Et ce sont les ingénieurs.
05:17 Donc, il y a une poignée d'ingénieurs qui sont à la conception de ce système. - Oui, mais c'est un autre problème, ça.
05:21 - Oui, mais c'est un problème qui apparaît aussi à travers ces machines, puisque, comme je le dis, c'est fait par des humains.
05:25 - Oui, mais attends, Laurence, c'est juste pour préciser quand même pour les auditeurs, pour qu'ils comprennent bien.
05:30 - Qui configure tout ça ?
05:31 - Il y a deux points. Le premier, c'est que le système engendre des écrits simplement sur le fait que les mots s'enchaînent avec une certaine plausibilité.
05:43 Ça, c'est le point important. Alors après, effectivement, il y a une censure.
05:47 - Il n'y a pas que ça, les mots qui l'enchaînent, c'est à partir d'un corpus qui est choisi par des humains.
05:53 - Les humains arrivent à beaucoup d'étages dans cela.
05:56 - Donc, Chef J.P.T. est subjectif, mais il faut le savoir en étant bien conscient.
06:00 - Attendez, laissez-vous parler... - Mais ce sont des normes corpus, quand même, qui sont présentes.
06:04 - Mais quand je fais un deep learning, je veux dire, c'est moi qui le mets en œuvre.
06:07 Donc, je sais combien je mets comme contexte de mémoire, je sais comment je projette sur les différentes couches.
06:12 Et donc, j'ai, moi, en tant que concepteur, un certain nombre de verrous qui sont liés à l'origine.
06:17 Tu vas beau dire que les données font tout, je ne suis pas d'accord.
06:20 En général, il y a une méprise. On dit, il y a des algos et des données.
06:23 - Non, il y a trois choses. - Je ne suis pas en désaccord.
06:25 - D'accord. Il y a des algos, des données et une optimisation.
06:29 Et l'optimisation qui sont tous ces verrous que l'on met à jour, là, et tous ces choix sont très importants.
06:35 - Alors, peut-être que l'enseignement à tirer, peut-être, Jean-Gabriel, ce serait de décentraliser, si je puis dire...
06:45 - Non, parce que justement... - Les gens qu'il y a derrière, quoi.
06:48 - Non, mais comme... - Il y a à la limite plusieurs Chef J.P.T.
06:50 - Non, mais c'est pour ça que je voulais essayer de clarifier les choses.
06:52 On apprend quand même sur des très gros corpus.
06:54 Donc, c'est une décision qui est prise à un moment donné, mais qui a un effet d'entraînement assez long.
07:05 Et donc, on ne change pas comme ça de corpus tout d'un coup.
07:08 - Non, non, ça coûte trop cher. - Parce que ça coûte très cher.
07:10 - Qui choisit les données, demande Fanny dans le chat. C'est bien la question.
07:13 - C'est bien la question. - Ce sont les ingénieurs.
07:15 Pour en utiliser, moi, les J.P.T.
07:17 Quand vous avez une tâche particulière, par exemple, détection des émotions dans une certaine tâche,
07:23 eh bien, je l'adapte, ce chat J.P.T.
07:25 C'est-à-dire que je peux figer une partie des paramètres et l'adapter.
07:29 Et donc, je fais ça sans arrêt.
07:31 Donc, ce qu'il faut voir, c'est que demain, on va utiliser ces modèles.
07:35 Ils vont être encapsulés avec d'autres données plus spécifiques à une tâche,
07:39 sur lesquelles on aura optimisé le système.
07:41 Donc, il va répondre à la fois sur la tâche que vous avez précisé,
07:43 mais avec une connaissance un peu de lieux communs,
07:47 d'une certaine connaissance dans la société,
07:51 mais qui ne sera pas non plus très affûtée,
07:53 qui sera l'ensemble des informations.
07:55 Alors, il faut vraiment se dire que ça a un intérêt quand même, ces énormes systèmes.
08:00 Et on le voit, par exemple, pour la médecine,
08:02 quand on cherche sur les radios à déceler des cancers.
08:05 - Donc, ça, c'est de l'intelligence artificielle.
08:07 - Oui, c'est un peu les principes de ces énormes corpus, si vous voulez, dont on parle là.
08:12 Et quand je transfère le problème sur la reconnaissance sur les images médicales,
08:16 eh bien, la machine voit des choses que je ne vois pas.
08:19 Elle va voir des détails que je n'ai pas vus à l'œil humain.
08:23 Et donc, il faut se dire aussi que dans ces énormes corpus,
08:27 elle est détectée bien avant que le médecin,
08:30 c'est ça tout l'intérêt, de prédire avant d'avoir un regard
08:34 qui permet de faire des analyses et peut-être de ne pas en souffrir après.
08:38 Donc, ce qu'il faut comprendre, c'est que si je fais le parallèle entre le visuel et le langage,
08:43 eh bien, la machine va déceler des corrélations de termes,
08:46 des agglutinations qui arrivent dans ces documents,
08:48 qui ont un sens pour certains, qui n'en ont pas pour d'autres.
08:51 Et il y a quand même quelque chose à aller chercher dans cette massification des données.
08:56 Après, l'utilisation doit en être vraiment...
08:59 On doit apprendre à l'utiliser.
09:01 Et c'est ce que disaient les médecins par rapport à ça.
09:03 Le problème, c'est que quand vous mettez des médecins qui radiologuent devant ces systèmes,
09:08 il y a beaucoup trop de faux positifs.
09:11 C'est-à-dire que la machine détecte beaucoup trop d'indices
09:13 et ils n'ont pas encore été entraînés dans leur programme d'apprentissage
09:18 à utiliser des machines comme celle-là.
09:21 Donc, ça coûte beaucoup à la société si on faisait à nouveau des vérifications
09:25 pour tous les gens qui ont été détectés.
09:27 Donc, c'est vraiment un sujet compliqué, l'équilibre et la compréhension
09:31 qu'il va y avoir de ces systèmes et l'utilisation vont en faire.
09:33 Donc, on est obligé de passer par ces étapes d'apprentissage en interaction avec des machines.
09:38 - Jean-Gabriel, est-ce que l'IA peut être un outil politique idéologique, demande Ebay Commercial Agency ?
09:45 Et je relais cette question parce que tout le monde la pose un peu, j'imagine.
09:51 - Je ne sais pas ce qu'on entend par outil politique et idéologique.
09:56 - Il fait les discours !
09:58 - Est-ce que ça peut faire un discours ? Oui, pourquoi pas.
10:01 - Non mais peut-être dans la hiérarchie de l'information, je ne sais pas, favoriser certains sites.
10:05 - Ça peut manipuler, ça manipule.
10:07 - Certainement, ça manipule.
10:09 - Tu peux influencer si tu décides de parler d'un sujet.
10:12 - Peut-être qu'il faudrait envisager la question d'une autre façon.
10:16 Avec l'intelligence artificielle, on fait depuis un certain temps du profilage,
10:21 c'est-à-dire qu'on est capable de déterminer pour chacun des internautes
10:26 ce qui lui plaît, quelles sont les requêtes qu'il fait sur le moteur de recherche,
10:30 dans quel site il va.
10:32 Et à partir de ça, il y a d'autres outils d'intelligence artificielle
10:36 qui ciblent de l'information.
10:38 Et donc, effectivement, de ce point de vue-là, on peut avoir un effet politique à terme.
10:43 Et les générateurs de textes sont utilisés par un certain nombre de bots
10:48 pour fabriquer des fake news et pour les diffuser sur certaines personnes.
10:53 Et donc, l'effet politique de ces outils d'intelligence artificielle
10:57 peut être extrêmement délétère sur l'ensemble de la société.
11:01 - En fait, on fait monter l'anarchie.
11:03 - Et en même temps, bien sûr... Oui, c'est ça.
11:06 - On fait monter l'anarchie. - Tout à fait.
11:08 - C'est les deux extrêmes.
11:10 Soit vous êtes dans un régime un peu chinois qui prend en main tous les systèmes et qui pilote,
11:14 soit vous êtes au contraire devant tout le monde qui met tout et n'importe quoi
11:18 et qui fait exprès de détourner.
11:20 - Mais on y voit plus clair.
11:22 - On va rajouter et on va arriver sur l'anarchie.
11:25 - Dit autrement, on tend à fragmenter la société.
11:28 C'est-à-dire que là où, avec la maison de la radio, ici, l'ORTF,
11:32 on avait une information commune pour tout le monde...
11:34 - On sait où on est, on sait où on va.
11:36 - Et donc, on se disputait le matin parce qu'on n'était pas d'accord,
11:38 mais au moins, on avait tous vu le 20h.
11:40 Tandis que là, chacun a une information différente.
11:43 Et donc, effectivement, on risque d'avoir des groupes et des muls.
11:48 Donc, de ce point de vue-là, oui, du point de vue politique, ça peut être extrêmement nocif.
11:52 Et surtout, il peut y avoir des groupes de politique
11:56 qui instrumentalisent ces technologies avec des signes qui sont mauvaises.
12:02 C'est-à-dire qu'il faut toujours voir.
12:04 Pour répondre à la question, ce ne sont pas les machines dont il faut avoir peur,
12:08 ce sont les hommes qui sont derrière les machines.
12:10 - Une question de Skill66 qui demande le modèle d'OpenAI d'ouvrir au public.
12:20 Est-il profitable au développement des intelligences artificielles ?
12:24 Expliquez-nous ça. C'est transparent comme technologie ?
12:28 - En partie, oui, parce qu'on a accès à tout.
12:31 Après, il y a plein de paramètres cachés, donc ce n'est pas si transparent que ça.
12:35 Et en France, avec un partenariat public-privé, on a essayé de refaire un chat GPT
12:43 avec 176 milliards de paramètres, parlant 59 langues.
12:48 C'est au niveau européen aussi. Ce projet s'appelle le projet Bloom.
12:52 On a un calculateur à Saclay qui nous permet de monter à des niveaux assez intéressants
12:58 pour faire ce genre de système.
13:00 Et puis, comme je le disais, c'était fait par un partenariat public-privé avec Uninface
13:05 qui a été piloté tout cela, et qui est une société française qui est à New York en ce moment.
13:13 C'est quand même très intéressant que des chercheurs puissent avoir accès à tous les modules
13:19 qui sont utilisés et à travailler sur ces systèmes pour mieux comprendre les limites,
13:25 faire que ce soit plus explicable et plus transparent.
13:27 Donc ça, il y a eu une réelle volonté en France, et on peut en être fiers de ça.
13:30 Il faut le continuer.
13:32 Et donc c'est pour ça que moi j'ai une chaire en IA, on fait de la recherche aussi sur l'interaction
13:36 de ma machine et sur la manipulation possible avec des populations comme des enfants.
13:42 On va dans des écoles où on capture des données, on met des enfants en situation devant des petits robots
13:46 ou des chatbots pour essayer de mieux comprendre et de mieux amener la société à être vigilante,
13:51 prendre conscience et aussi le côté normatif, parce que je suis maintenant aussi sur des aspects de normalisation
13:58 avec des industriels, pour pousser les industriels justement à avoir ces techniques de vérification,
14:03 de mesure et de monitoring, on dit, qui vont permettre après de faire des audits sur les systèmes.
14:09 Imaginons qu'il arrive des problèmes de suicide ou autres grâce à des machines qui vous parlent.
14:15 Et bien comment on va faire pour ouvrir le capot de la voiture si on n'a pas prévu un tout petit peu avant
14:20 d'essayer de comprendre où sont les nœuds complexes dans le système qui est en œuvre.
14:26 C'est du système multi-agent, mélangeant, comme on l'a dit, des agents artificiels, donc des IA, et des humains.
14:32 Et donc il faut comprendre comment la morale peut être instable dans ces sujets
14:38 et comment on peut mesurer ces systèmes et pousser les industriels à le faire.
14:44 Alors il nous reste un quart d'heure, je veux bien qu'on attaque un peu la partie travail.
14:50 On a souvent, dès qu'on parle d'intelligence artificielle, de chat GPT, l'impression qu'on va nous voler notre travail.
14:59 Qu'est-ce que vous avez à dire là-dessus ? En tout cas, si je peux vous confier ça, dans le milieu,
15:05 si je regarde vraiment uniquement mon nombril, chez les journalistes, mine de rien, on se pose directement la question,
15:11 on se dit "tiens, la dépêche avant, qu'on bâtonnait, c'est-à-dire bâtonner, c'est reprendre une dépêche qui existe déjà,
15:18 et puis la reformuler, enrichir, compléter", on se dit "finalement, ce travail un peu automatique,
15:26 ça sera peut-être chat GPT qui pourra le faire à notre place".
15:30 Jean-Gabriel, peut-être ? Sur le côté "l'IA va voler nos emplois".
15:35 C'est une version automatique de texte qui était utilisée pour écrire des nouvelles un peu ordinaires,
15:41 par exemple la météo ou ce genre de choses.
15:44 Il y a des métiers qui pourraient être mal laissés ?
15:47 Ce n'est pas un métier lui-même. Je crois que toute l'erreur, c'est qu'on suppose...
15:53 C'est une tâche.
15:54 C'est une tâche.
15:55 Parmi d'autres tâches.
15:56 Et en général, un métier, c'est plusieurs tâches.
15:59 Il y a des tâches qui sont fastidieuses et on est très content qu'elles soient automatisées.
16:02 Mais bien sûr, le problème, c'est que si les tâches fastidieuses sont automatisées,
16:05 le métier va s'exécuter plus vite et à ce moment-là, il y aura peut-être moins d'emplois pour les personnes.
16:11 Donc, c'est toute la difficulté.
16:13 Regardez, la question de la traduction, par exemple.
16:15 On n'imagine pas qu'une machine traduise du "olderling" parce que c'est beaucoup trop difficile.
16:21 En revanche, si les machines traduisent les modes d'emploi,
16:23 ça veut dire que toute cette activité qui permettait aux traducteurs de survivre,
16:28 celle-là va être faite automatiquement.
16:32 Mais on pourrait aller plus loin.
16:34 On a parlé de l'éducation.
16:36 Effectivement, on peut se demander si l'effet des machines,
16:43 ça ne va pas être de faciliter la formation.
16:46 Mais là, justement, avec chaque GPT, on voit bien que c'est plutôt l'inverse.
16:51 C'est-à-dire que les élèves vont faire leur devoir avec chaque GPT.
16:57 C'est bien ce qu'on condamne.
16:59 Et s'ils le font, ça veut dire que les élèves vont moins apprendre.
17:01 Et donc, de ce point de vue-là, c'est un peu désolant.
17:03 Nous, on est enseignants.
17:05 Et donc, ce qu'on aimerait, c'est que les élèves soient motivés par ce qu'ils veulent apprendre.
17:12 Par exemple, qu'ils aient envie d'apprendre à rédiger.
17:18 Et le fait qu'ils utilisent ces outils,
17:21 qui font qu'ils vont faire moins de devoirs parce qu'ils veulent avoir une bonne note,
17:25 et donc ils vont moins apprendre,
17:27 ça, effectivement, c'est un peu désolant de ce point de vue-là.
17:29 Donc, le risque, ce n'est pas tant que la machine se substitue à l'homme,
17:33 c'est plutôt que par paresse, on perd des compétences.
17:36 Et ça, je crois que c'est un peu le problème.
17:38 - Et je réponds très rapidement à Vedex qui dit
17:41 "Je trouve que chaque GPT est à l'opposé du métier de journaliste,
17:44 vérifier, croiser les sources".
17:45 Mais c'est vrai que, comme vient de le dire Jean-Gabriel,
17:47 il y a le métier de journaliste,
17:49 mais en fait, ce qu'il faut savoir, c'est qu'au sein de notre journée,
17:52 on va faire ce travail de vérifier, croiser les sources.
17:54 Mais parfois, on a des moments où on doit faire vraiment des...
17:57 Par exemple, le TOLE, qu'il faut faire une page web,
18:00 on va prendre mon paragraphe, le copier, le coller.
18:03 Mais Laurence, peut-être sur le côté, l'intelligence artificielle
18:07 qui va interroger de plus en plus nos façons de travailler,
18:10 on va peut-être se concentrer sur d'autres tâches.
18:14 - Comme je disais tout à l'heure pour les médecins, pour les radiologues,
18:18 il faut effectivement avancer là-dessus,
18:20 mais c'est la même comparaison que l'on pourrait faire avec les journalistes.
18:22 Parce que moi, je ne pense pas que vous allez rester journaliste
18:25 si vous faites faire vos devoirs par tchad GPT.
18:27 Ça va être un nouvellement vers le bas.
18:30 Et donc, à ce moment-là, vous n'aurez plus de valeur ajoutée,
18:33 et donc on va remplacer tous les journalistes par des machines.
18:35 Je ne crois pas. - Et ce n'est pas le but, d'ailleurs ?
18:37 - Non, je ne crois pas. Je crois qu'en fait, on cherche...
18:40 On peut aussi imaginer ces machines comme étant des moyens
18:44 d'avoir accès à d'autres informations.
18:46 Vous vous rendez compte quand même que,
18:48 à chaque fois que je vais changer le prompt départ,
18:50 je peux changer ce qu'il y a derrière.
18:52 Il y a un facteur aussi un peu, comme tu l'as dit, stochastique,
18:55 c'est-à-dire hasardeux dans le résultat.
18:57 Donc on peut se retrouver en fait avec des formes un peu bigarrées
19:01 de toutes ces choses.
19:02 Il fait de la fiction, on parle d'imagination,
19:05 mais ce n'est pas de l'imagination.
19:06 Donc de là naît peut-être d'autres choses.
19:10 Il ne faut pas croire que ce soit un perroquet mécanique
19:14 bien sophistiqué qui va vous faire votre devoir parfaitement.
19:17 Je crois qu'il faut arrêter d'avoir cette idée en tête que ça remplace.
19:20 Ça va apporter autre chose de farfelue peut-être,
19:23 qu'on pourrait peut-être utiliser.
19:25 Ça peut dire des choses fausses.
19:27 Donc surtout, ne faites pas confiance.
19:29 Regardez, ce n'est pas un système qui va vous assurer...
19:33 - Ne faites pas présenter vos journaux par TGPT.
19:36 - Ce n'est pas un système qui va vous assurer que vous êtes en train de dire la vérité.
19:38 Aucunement.
19:39 Ni qui est capable finalement de liser les erreurs,
19:41 ni de vérifier les dates,
19:42 ni de vérifier finalement que vous n'êtes pas en train de dire n'importe quoi.
19:46 - Mais qu'est-ce qui nous garantit ça finalement ?
19:48 Qu'on ne va pas abuser de...
19:50 - C'est vous qui...
19:51 - C'est vous la garantie.
19:52 - Alors, normalement, effectivement, c'est le travail du journaliste.
19:55 - De manière générale, dans d'autres professions.
19:57 - Je crois que...
19:58 - Comment faire pour qu'il n'y ait pas d'abus, Jean-Gabriel ?
20:01 - Je pense que justement, c'est...
20:03 L'éthique dans la société de l'information,
20:06 c'est qu'on est tous un peu journalistes.
20:08 - Il y a des entreprises qui n'ont pas d'éthique.
20:10 - Oui, non, mais les individus, quand je dis.
20:12 On est tous un peu journalistes.
20:13 C'est-à-dire qu'il faut apprendre à l'ensemble des citoyens
20:18 que l'information, elle doit pouvoir être confrontée à d'autres informations
20:23 parce que, bien sûr, sinon on n'a aucune connaissance.
20:27 Je crois qu'il est important de comprendre que ces systèmes nous fascinent.
20:32 D'abord parce qu'ils génèrent des textes qui sont étonnants,
20:34 on va peut-être revenir là-dessus après,
20:36 mais aussi du point de vue scientifique.
20:38 Parce que l'intelligence artificielle, avant d'être une technologie,
20:40 c'est une science qui a pour but de simuler nos capacités cognitives.
20:45 Alors, la leçon de chaque GPT, elle est double.
20:49 La première, c'est qu'avec beaucoup de textes,
20:51 beaucoup de données, on arrive à faire un système.
20:55 Et pour des gens qui ont fait de l'IA depuis longtemps,
20:58 c'est quelque chose qui nous surprend.
21:00 Parce qu'au début, moi, quand j'ai commencé, on me disait,
21:02 si on veut faire du traitement du langage naturel,
21:05 il faut mettre de la syntaxe, de la grammaire, du vocabulaire, etc.
21:08 Et là, on ne met plus rien de tout ça,
21:10 on met juste des données.
21:12 Alors ça, ça nous surprend.
21:13 Et puis la deuxième chose, c'est que ça nous montre que
21:15 dans le langage, il y a juste la capacité à parler,
21:19 et ça, on peut l'assimiler,
21:21 et puis il y a autre chose qui est la capacité à raisonner.
21:23 Et ça, bien sûr, on n'est pas capable d'articuler l'un à l'autre.
21:26 Et c'est ça le défi, je crois, pour le futur.
21:28 - Il y a Libre Audio qui demande,
21:30 je pense que Libre Audio parle surtout du métavers,
21:33 et qui dit "un tuteur virtuel pourra-t-il se substituer à un professeur ?"
21:37 - Moi, je ne pense pas.
21:39 En fait, le métavers, d'abord, on n'est pas sûr
21:42 qu'il y ait un métavers qui apparaisse vraiment.
21:44 On aura des métavers particuliers,
21:46 enfin moi, je l'imagine très bien pour des pathologies,
21:48 ou dans des cadres très spécifiques,
21:50 mais le métavers qui serait les réseaux sociaux,
21:52 globalement, où on vivrait une vie parallèle, virtuellement,
21:56 est à mon avis d'un grand danger.
21:58 Parce que, autant, en étant extérieur,
22:00 on peut juger d'un chat GPT et dire "ben là, il fait une bêtise", etc.
22:03 Mais le jour où vous êtes à l'intérieur, avec des capteurs partout,
22:06 on va jouer beaucoup sur les émotions,
22:08 et je ne suis pas sûre qu'on ne soit pas très vulnérables tous,
22:11 par rapport à ces machines,
22:13 et qu'on soit très très influencés.
22:16 Donc, demain, un tuteur dans le métavers,
22:19 si c'est le cas, il faut que ça reste très calibré, très vérifié.
22:23 Et tout à l'heure, j'ai parlé de normalisation.
22:25 Moi, je me suis impliquée sur la normalisation.
22:28 Je pense que c'est, en ce moment, la guerre des normes,
22:31 entre les Etats-Unis, la Chine, l'Europe.
22:33 Il faut penser, quand même, qu'il y a là une voie
22:36 pour mieux comprendre ce qu'on espère faire avec ces machines.
22:39 Et dans tous les métiers, il n'y a pas des mots "il est méchant",
22:42 il faut arrêter. L'industrie veut avant tout faire des systèmes qu'elle vend.
22:45 Bon, maintenant, il faut qu'elle les vende en ayant conscience
22:48 qu'on ne veut pas aller dans certains sujets, parce que c'est pas éthique.
22:52 Et c'est cela qu'on essaie de faire passer à travers les normes, aussi,
22:55 c'est de prendre conscience qu'il faut raison garder.
22:59 Si ça influence trop, si ça va vers pousser des gens au suicide,
23:02 à du harcèlement, etc., on est obligés de normaliser.
23:05 Sinon, vous allez dans la rue, il y a un code de la route,
23:08 les voitures s'arrêtent, il y a des passages piétons, il y a des règles.
23:12 Pourquoi, sur ces autoroutes de l'information,
23:15 il n'y aurait pas des règles, également, pour éviter l'anarchie,
23:18 pour éviter des troubles pour les plus vulnérables ?
23:21 - Jean-Gabriel, est-ce que la France devrait, par exemple,
23:25 se doter d'un chat GPT français ?
23:28 - Alors, ce dont parle Laurence, c'est que ce chat GPT français
23:34 est en train d'être fabriqué.
23:36 Il y a un ordinateur, justement, sur le plateau de Saclay,
23:38 l'ordinateur Janset, avec un système qui est Bloom,
23:41 - Autant pour moi. - C'est ça, c'est ça.
23:44 - 176 millions, 59 ans. - Mais je crois qu'il faut bien comprendre
23:48 que ce chat GPT nous pose un certain nombre de questions,
23:51 nous fascine en même temps, mais en même temps,
23:54 je crois, à un moment un peu particulier avec les technologies de l'information.
23:59 Et le chat GPT, il est un peu un révélateur,
24:01 c'est-à-dire qu'il traumatise tout le monde, tout le monde en parle.
24:03 - Ou il exalte les gens. - Voilà, il exalte les gens.
24:07 Mais vous êtes certainement trop jeune.
24:10 Il y a longtemps, il y a eu une expérience traumatisante
24:14 pour les Français, c'était Amandine.
24:16 Alors, je ne sais pas si vous savez, Amandine, qui c'était ?
24:18 - Moi, j'ai eu le joueur de Go, en expérience traumatisante.
24:21 - Le premier, c'était bien avant. - C'est quand ça ?
24:25 - C'était il y a très longtemps, parce que moi non plus, j'étais tout enfant.
24:28 C'est le premier bébé éprouvette, Amandine.
24:31 - Mais ce n'était pas Elisa ? - Ah non, Elisa, ce n'est pas un bébé éprouvette.
24:34 - C'est quoi ton bébé éprouvette ?
24:37 - C'est bien Amandine, mais c'était en 82.
24:40 - Voilà, en 82. - Donc je n'étais effectivement pas née.
24:43 - Et c'est important parce que c'est à partir de la naissance d'Amandine
24:48 qu'on a créé le Comité Consultatif National d'Éthique.
24:51 Parce qu'on s'est rendu compte que les progrès dans les sciences de la vie
24:54 rendaient nécessaire ce type de choses.
24:57 Et je crois qu'aujourd'hui, avec chaque GPT,
25:00 on est un peu dans le même contexte.
25:02 C'est-à-dire qu'il y a cette expérience traumatisante.
25:04 Et c'est amusant parce qu'il se trouve qu'il y a très longtemps,
25:06 quelqu'un qui s'appelle le professeur Hurrier, qui est un sénateur,
25:09 qui est à l'origine des lois bioéthiques, m'avait dit
25:12 "Effectivement, les questions d'éthique de l'intelligence radiale sont importantes."
25:15 Il me dit "Mais tant que vous n'aurez pas une expérience aussi traumatisante
25:18 que celle qu'on a eue, vous n'arriverez pas à mettre en place ces réflexions."
25:22 Aujourd'hui, je crois qu'elles sont là parce que tout le monde est convaincu
25:25 qu'effectivement... - On est vraiment convaincu.
25:27 Et on le voit à travers l'école.
25:28 - Oui, Laurence de Villers, je vous donne le mot de la fin,
25:30 comme ça après on se dit au revoir, parce qu'on a nos collègues de France Télé
25:33 qui arrivent tout doucement pour leur émission.
25:36 - Je pense qu'il faut vraiment qu'on arrête de penser
25:40 qu'on est juste des cobayes devant ces machines.
25:42 On a toute l'attitude de comprendre leurs limites
25:45 et d'aider les enfants à les comprendre.
25:47 Les enfants, demain, vont créer d'autres machines
25:49 qui auront d'autres capacités.
25:50 Et vraiment, il faut absolument qu'à l'école,
25:52 ce ne soit pas la formation des professeurs qui va prendre du temps,
25:56 même si maintenant on a un CAPES en informatique.
25:59 Il faut absolument que ce soit une transition directe, agile,
26:04 où les élèves et les professeurs apprennent à débattre autour de l'IA.
26:09 L'IA, c'est des objets sociotechniques.
26:11 Le GPT, on le voit très bien.
26:13 On anthropomorphise, on projette sur ces machines.
26:15 On a de l'affectif vis-à-vis de ces machines.
26:18 Donc tous ces sujets de données privées, d'attention prise,
26:21 de manipulation doivent être débattus à l'école,
26:24 dès le cycle 1, là où on en prend les fondamentaux.
26:27 Et c'est une matière interdisciplinaire qui n'est pas tech,
26:30 qui n'est pas philo, qui est les deux.
26:32 Et qui rejoint aussi l'idée que science de la vie,
26:35 ou science de la physique, c'est ce qu'on vit dans le réel.
26:38 Science des données et du numérique,
26:40 c'est ce qu'on doit voir en même temps.
26:42 - Et on peut se dire quand même que, en tout cas pour le moment,
26:44 en termes d'éducation, en tout cas si on voit la réaction de Sciences Po
26:48 d'interdire cet outil-là, sans en parler, on n'y est peut-être pas encore.
26:53 Merci beaucoup.
26:54 Merci Laurence De Villers, professeure en intelligence artificielle
26:57 à l'Université Paris-Sorbonne.
26:59 Merci Jean-Gabriel Ganassia, informaticien, philosophe,
27:03 professeur à la faculté des sciences de la Sorbonne
27:05 et président du comité d'éthique du CNRS.
27:08 Voilà, il est 18h53.
27:11 Alors dans le tchat on nous disait déjà "attention Samuel Etienne arrive".
27:15 Samuel Etienne et Christelle Méral d'ailleurs,
27:17 qui reçoivent Olivier Véran, le porte-parole du gouvernement,
27:20 sur Twitch dès 19h.
27:22 Merci à vous, merci de nous avoir éclairés.
27:25 C'est vite passé quand même 55 minutes,
27:27 mais c'était hyper intéressant, merci à vous.
27:30 Demain au menu du Talk, faut-il arrêter de manger de la viande ?
27:33 Rendez-vous à 18h demain sur Twitch,
27:35 ou un peu plus tard dans la soirée en podcast.
27:38 Merci à toutes et à tous, à demain.
27:40 On lance la petite boucle d'attente
27:42 et nos collègues de France Télé arrivent juste après.
27:45 Salut, merci à vous.
27:46 Merci à vous.
27:48 [Musique]
27:51 [Musique]
27:55 [Musique]
27:58 [Musique]
28:04 [Musique]
28:10 [Musique]
28:16 [Musique]
28:22 [Musique]
28:25 ♪ ♪ ♪

Recommandée