La chercheuse au CNRS et professeure en IA à Sorbonne Université était l'invitée du "8h30 franceinfo", jeudi 2 mars 2023.
Category
🗞
NewsTranscription
00:00 Bonjour Laurence de Villers. L'intelligence artificielle inquiète autant qu'elle fascine.
00:05 On va en parler pendant près d'une demi-heure avec vous ce matin.
00:07 Parlez aussi de votre spécialité puisque vous travaillez sur l'interaction affective avec les machines.
00:12 Vous allez nous expliquer ce que c'est que l'affection avec les machines.
00:16 D'abord, mettons-nous d'accord si vous voulez bien sur les mots quand on parle d'intelligence artificielle
00:20 et on en parle beaucoup ces temps-ci. De quoi parle-t-on ?
00:23 Est-ce que c'est la même intelligence que nous, petits humains ?
00:26 Vous avez raison d'insister là-dessus. En fait, la grande question c'est est-ce que la machine peut reproduire notre intelligence ?
00:32 Et alors ?
00:33 Non. Nous en sommes très loin. Nous sommes sur une autre facette de l'intelligence.
00:38 C'est-à-dire que si on crée des machines qui, à partir de nos traces,
00:41 c'est-à-dire les signaux qu'on va exprimer, les écrits sur Internet, si on pense à Chatterpitty,
00:48 vont pouvoir finalement reproduire une certaine sémantique qui vient de nos traces.
00:53 C'est-à-dire que l'intelligence artificielle nous copie, nous synthétise et nous recrache ?
00:57 Elle nous imite totalement. C'est une pensée calculante.
01:00 Il n'y a pas du tout d'intention, ni d'émotion, ni de conatus, si je prends Spinoza.
01:06 Il n'y a pas d'entité elle-même. C'est juste des programmes, des algorithmes que nous nourrissons avec nos données.
01:13 Et on s'aperçoit qu'effectivement, elles sont capables de générer, avec ces IA génératives comme Chatterpitty...
01:18 Il y a intelligence artificielle. Parce que je sens que vous allez dire cette expression 200 fois dans l'admire qui dit...
01:23 Il y a intelligence artificielle.
01:24 OK. Intelligence artificielle, donc il y a, effectivement...
01:27 C'est donc l'intelligence qui nous fait penser à l'humain et l'artifice qui nous fait penser à la machine.
01:32 Et ça n'a rien à voir avec ce que nous sommes, puisqu'elle n'a pas de corps.
01:35 Bon, sur une journée ordinaire du matin au coucher, l'intelligence artificielle, elle est déjà partout autour de nous, sans qu'on la voit forcément ?
01:42 Bien sûr, elle est sur le téléphone.
01:43 C'est-à-dire par exemple, elle est sur le téléphone qui est là, quand je demande à mon téléphone de vous appeler par exemple.
01:48 Elle est où dans ma voiture ?
01:50 Elle peut être dans l'agent conversationnel qui vous aide à vous piloter ou dans Waze, là, qui vous dit quel est le meilleur chemin à prendre.
01:54 Ou GPS, oui.
01:56 Ça peut être aussi votre montre connectée.
01:59 On va avoir, en fait, déjà de l'IA en médecine, dans différents domaines.
02:04 Et c'est très important de comprendre qu'il y a une IA symbolique qu'on manipule depuis très longtemps,
02:08 et une IA connexionniste avec des réseaux de neurones, ces transformers, ces nouvelles technologies,
02:12 qui arrivent maintenant avec des performances très intéressantes qu'on voit tous dans Chatterpitty.
02:17 Donc, on va en parler. Allons-y.
02:18 Justement, Chatterpitty, on en parle beaucoup en ce moment, c'est tout nouveau pour le grand public.
02:22 C'est un outil conversationnel établi à partir d'une intelligence artificielle.
02:27 Alors, Chatterpitty, il est capable d'échanger avec nous, il est capable de rédiger une dissertation à la place d'un lycéen,
02:33 capable de rédiger un article à la place d'un journaliste.
02:36 Je peux vous couper, Salia. Est-ce qu'il aurait été capable de mener cet entretien avec des questions plus malignes que les nôtres ?
02:42 Il aurait été capable de mener cet entretien...
02:43 Si vous dites oui, je vais me recoucher.
02:45 Mais sûrement pas avec les mêmes questions.
02:47 Avec le mainstream, c'est-à-dire avec les lieux communs, avec tout ce que pense...
02:50 Là, pardon, on a fait quelques lieux communs pour l'instant.
02:51 Les questions basiques.
02:52 Qu'est-ce que l'intelligence ?
02:52 Est-ce qu'il aurait été meilleur que nous ?
02:55 Non, il n'a aucune logique, il n'a aucune morale et il n'a aucune façon de vérifier ce qu'il dit,
03:02 puisqu'il ne comprend pas ce qu'il sort comme succession de mots.
03:05 En fait, si on vous écoute, Chatterpitty, c'est une accumulation d'informations.
03:09 C'est-à-dire que quand on lui demande de rédiger, par exemple, une dissertation,
03:12 quand un lycéen veut tricher un peu et demander une dissertation à sa place,
03:17 décrire une dissertation à sa place, en fait, il va juste rassembler les informations dont il dispose,
03:21 en fait, des informations qu'il trouve sur Internet.
03:23 Alors, c'est pas comme ça.
03:24 On a fait ça une fois en 2021.
03:26 On a ramassé un énorme paquet d'informations Wikipédia ou autre sur Internet.
03:30 Et à partir de là, on fait un modèle qui s'appelle le GPT-3 Transformer,
03:33 qui calcule les corrélations des mots entre les différents mots.
03:37 En gros, c'est comme un puzzle, si vous voulez, ou mieux qu'un puzzle, des Legos.
03:41 Chaque mot, des entités comme ça, sont liés au contexte dans lequel ils apparaissent.
03:45 Et à partir de cette énorme IA générative, on est capable de générer des phrases qui ressemblent à de l'humain,
03:53 à du langage humain, parfaitement d'ailleurs sur la syntaxe.
03:55 Est-ce que c'est un peu comme quand certains téléphones font ça aujourd'hui ?
03:58 On commence à écrire un message et le téléphone le complète tout seul.
04:01 J'écris à ça l'IA "comment" et il me propose "vas-tu".
04:04 C'est l'occurrence qui existe le plus, qui est proposée à chaque fois.
04:07 Et c'est refait à chaque fois.
04:09 C'est pour ça que de temps en temps, sur des textes longs qu'il va générer,
04:12 là je préviens les étudiants, au début ça a l'air cohérent et à la fin plus du tout.
04:16 Parce qu'effectivement, il s'est laissé emballer dans cette histoire.
04:18 Et ce qu'il faut comprendre, c'est qu'il est capable de sortir des choses qui existent
04:22 et qui sont rationnellement intéressantes, et d'autres qui sont des hallucinations,
04:25 qui n'existent pas, des fake news ou des informations farfelues.
04:29 D'ailleurs les créatifs adorent ce côté-là.
04:31 Mais c'est-à-dire qu'en fait, Chadjipiti, comme va chercher les informations sur Internet,
04:35 peut se servir des fake news qui existent aussi ?
04:38 Ah bien bien sûr.
04:39 En ce cas, il est très humain finalement aussi.
04:41 Oui, il va amplifier énormément.
04:44 En plus, il énonce ça sans aucun doute.
04:47 Les complotistes n'ont aucun doute sur le fait que le complot existe.
04:50 Mais vous comprenez ?
04:53 Il y a des comploteurs. C'est là où il faut s'intéresser.
04:55 Qui va tirer profit de ces complots sur Internet avec des Chadjipiti ?
04:59 Vous comprenez que l'éducation nationale s'inquiète.
05:01 Exemple, à Sciences Po, on interdit Chadjipiti.
05:03 Est-ce que vous comprenez cette défiance envers cette nouvelle technologie ?
05:07 Bien sûr, je comprends tout à fait.
05:09 L'anthropomorphisation, c'est-à-dire on projette des capacités de l'humain
05:12 derrière ces machines qui sont juste du calcul.
05:14 Et on veut interdire parce qu'on a peur de ne pas pouvoir évaluer les élèves.
05:18 Donc ça demande quand même beaucoup de transition, évaluer sûrement différemment,
05:22 mais surtout apprendre ces systèmes.
05:24 Donc il ne faut pas les interdire en tant qu'outils pédagogiques.
05:26 C'est-à-dire qu'il faut les désosser et comprendre quels sont les concepts
05:29 qui sont derrière pour ramener tout le monde à la compréhension
05:31 de ce qu'on peut en faire réellement.
05:33 Il faut que les professeurs se forment à Chadjipiti par exemple ?
05:35 Avec leurs élèves.
05:36 Je pense qu'il faut débattre en ce moment des usages avec ses élèves.
05:39 Laurence de Villa, est-ce qu'on peut demander à une intelligence artificielle
05:42 si un texte a été écrit par une autre intelligence artificielle ?
05:46 Oui, on peut empiler comme ça à l'infini.
05:48 Vous allez arriver sur un truc bloubiboulia,
05:51 terriblement bas, aucune morale, aucune compréhension finalement
05:55 de ces manipulations subtiles qui vont être dans ces systèmes.
05:58 Donc attention, non.
05:59 Il faut de l'humain, des experts héticiens.
06:02 On aura de nouveaux métiers autour de tout cela, évidemment.
06:04 Microsoft, là aussi, essaie de mettre en place son Chadjipiti
06:08 dans une nouvelle version de son moteur de recherche Bing.
06:11 Mais pour le moment, il y a quelques ratés.
06:14 D'autres grosses entreprises misent aussi sur un chat,
06:18 du moment à un système conversationnel.
06:20 Pourquoi il n'y a pas de Chadjipiti français ?
06:22 Mais il y en a, en fait.
06:23 Ah bon ?
06:24 Il y a un Chadjipiti, pas exactement.
06:26 Il y a le cœur, le grand modèle dont je vais parler,
06:29 de l'IA dégénérative qui s'appelle Bloom,
06:31 qui a été fait en France, à Saclay, sur un calculateur
06:34 qui s'appelle Janset, avec des milliers de chercheurs,
06:37 avec une collaboration privée-publique,
06:40 avec des acteurs européens.
06:41 Pourquoi on n'en parle pas, alors ?
06:42 Ah ben moi, je suis la première à être désespérée.
06:44 Et il fonctionne parfaitement.
06:46 Est-ce qu'il est accessible au grand public ou pas ?
06:47 Non.
06:48 C'est ça la différence ?
06:49 C'est le cœur.
06:50 Si vous regardez Chadjipiti, c'est le cœur d'un modèle comme ça
06:52 qui peut générer des mots à l'infini à partir d'énormément,
06:54 de milliards de données, et qui est représenté par des milliards
06:57 de paramètres.
06:58 Au-dessus, on a un agent conversationnel qui va interroger,
07:01 finalement, ce grand modèle de langage pour générer des réponses.
07:05 Et au-dessus, nous avons des filtres qui viennent
07:08 directement d'OpenAI pour Chadjipiti, pour éviter que le système
07:12 soit non politiquement correct.
07:14 Et là, il y a des problèmes de censure, qui sont des problèmes éthiques,
07:17 des problèmes de discrimination.
07:18 On parle beaucoup moins de certaines religions que d'autres.
07:20 Et la machine, en plus, n'a pas de moyen de...
07:23 On n'a pas de moyen de vérifier que c'est logique,
07:25 ce qu'elle est en train de dire, sur, finalement,
07:27 ce qu'elle est en train de proposer comme suite de mots.
07:30 Donc, il y a énormément de sujets de recherche.
07:33 Et cet outil français européen n'est pas encapsulé dans ce chatbot,
07:37 donc n'est pas disponible encore.
07:39 - On a le gros de la machine, si je résume, mais on n'a pas le petit machin
07:41 qu'il faut jeter au-dessus pour l'ouvrir...
07:43 - On n'a pas le machin qui peut converser avec vous,
07:44 pour qu'on puisse vous poser des questions et voir ce qu'il y a dans le capot.
07:46 - Par contre, les chercheurs, eux, ils ont enfin un outil "open",
07:49 c'est-à-dire qu'ils peuvent lever de la façon dont ça a été fait
07:51 à l'intérieur de cette grosse machine qui génère du texte.
07:54 - Bon, on va essayer de voir avec vous toutes les autres conséquences
07:57 de l'intelligence artificielle dans nos vies, dans le travail, dans la justice,
08:01 pourquoi pas aussi.
08:02 On a encore un bon quart d'heure à passer là-dessus,
08:04 et je pense qu'il faudra au moins ça.
08:05 Le Fil-Info, tout d'abord, à 8h41.
08:07 Voici Marie Maheu.
08:08 - Il s'est caressé le bas-ventre pendant que je lui exposais mes idées.
08:12 Sur France Info, l'agente de joueurs Sonia Swid dénonce les agissements de Noëlle Legret.
08:17 Elle dit avoir été estomaquée par la défense de l'ex-présidente du foot français
08:21 depuis sa démission il y a deux jours.
08:23 Elle réfléchit à porter plainte.
08:25 Critiquée pour son effet addictif sur les jeunes,
08:27 l'application TikTok met en place des "garde-fous".
08:30 Au bout d'une heure à regarder des vidéos, les mineurs devront entrer un mot de passe.
08:34 D'ici quelques semaines, leurs parents pourront aussi définir un temps d'écran quotidien.
08:38 Il est accusé d'avoir provoqué le pire accident ferroviaire du pays.
08:42 En Grèce, un chef de gare témoigne aujourd'hui devant la justice.
08:46 Deux trains se sont percutés frontalement hier, faisant 42 morts.
08:49 Ils circulaient sur la même voie.
08:51 Justin Bieber ne reviendra pas de Saito en Europe.
08:54 Le chanteur canadien annule ses concerts en France, Irlande ou encore au Royaume-Uni.
08:58 Aucune explication donnée, mais il avait déjà suspendu sa tournée mondiale l'année dernière
09:03 pour des raisons de santé.
09:05 Toujours avec Laurence de Villers, professeure en intelligence artificielle à Sorbonne Université.
09:17 Un utilisateur sur cinq de Chadjipiti craint pour son emploi.
09:22 On a appris par exemple qu'en Allemagne, le groupe média qui possède les journaux Bild et Die Welt
09:27 allait supprimer des emplois de journalistes qui s'occupent de l'édition des papiers.
09:32 Ça vous surprend ou alors c'est le futur ?
09:35 Est-ce qu'il y a des métiers qui vont disparaître avec justement cette intelligence artificielle ?
09:38 Est-ce qu'on va être grand remplacé par les robots ?
09:41 Non, cette phrase-là fait extrêmement peur et je pense qu'il faut rester raisonnable.
09:45 On ne va pas être remplacé. L'humain n'est pas remplacé par une machine.
09:48 Par contre, certaines tâches qu'il faisait peuvent être remplacées par ces machines
09:51 avec beaucoup de succès pour certaines, mais il faut contrôler.
09:54 C'est ce que je disais tout à l'heure avec Chadjipiti, c'est un bon exemple.
09:56 C'est-à-dire qu'il est capable à la fois de faire des choses formidables
09:59 et en même temps de générer des fake news.
10:01 Donc on a besoin dans tous les cas dans l'IA d'avoir des humains experts,
10:06 éthiciens dans les boucles de ce que nous allons construire.
10:09 Mais quels sont les secteurs qui peuvent être touchés par justement cette intelligence artificielle
10:13 qui va prendre le dessus ?
10:15 Je pense à la médecine tout de suite, par exemple.
10:17 C'est évident que ces machines qui agglutinent des milliards de données
10:21 ont une acuité différente de l'humain.
10:24 Le médecin, le radiologue, par exemple, ne verra pas autant d'images
10:27 que la machine en a vu dans sa vie.
10:30 Et donc c'est important de comprendre qu'à partir d'un grand nombre d'images,
10:33 à partir d'une capacité à regarder pixel par pixel,
10:36 et non pas avec des présupposés sémantiques de recherche d'informations dans l'image,
10:40 eh bien il va trouver d'autres, peut-être prémices d'un cancer,
10:43 d'autres informations pour beaucoup de différentes tâches
10:47 qui vont être intéressantes pour nous.
10:49 Ça veut dire que l'intelligence artificielle va permettre à un médecin
10:52 de découvrir par exemple une tumeur ou le début d'un cancer
10:56 parce qu'il ne peut pas le voir lui à l'œil nu en regardant les radios.
10:59 Voilà. Donc on est vraiment sur un champ très innovant
11:01 qui nous permet d'accélérer les processus de tests pour faire un vaccin,
11:05 qui nous permet dans beaucoup d'autres domaines d'avancer, sur la science aussi,
11:09 mais il ne faut pas faire une confiance aveugle à ces systèmes.
11:12 Il y aura toujours leur regard humain à la fin.
11:15 Il y a eu un film il y a plusieurs dizaines d'années de ça,
11:18 que vous avez sans doute vu comme nous, qui s'appelait Minority Report,
11:21 qui s'était projeté dans un futur, je ne sais pas si c'était en 2023,
11:25 où la police arrêtait les délinquants avant même qu'ils soient passés à l'acte,
11:31 une forme de police et de justice prédictive.
11:34 Est-ce que l'intelligence artificielle un jour fera ça ?
11:37 Je crois que c'est extrêmement dangereux dans ce cas-là,
11:39 parce qu'il ne s'agit pas d'anticiper le futur,
11:43 qui arrive avec un hasard qu'on connaît bien.
11:46 Il peut nous arriver des choses qu'on n'a absolument pas prévues.
11:49 Comment une machine pourrait les prévoir ?
11:51 Dans certains cas, on peut imaginer quelques tendances,
11:54 mais encore une fois, c'est à l'humain de comprendre
11:57 qu'est-ce que pourraient être ces tendances.
11:59 - Il y a des tentatives aujourd'hui au Canada.
12:01 L'État de l'Ontario va tenter de résoudre certains conflits,
12:04 les petits conflits de voisinage notamment.
12:06 Les confiants, c'est autre chose.
12:08 À l'intelligence artificielle, c'est-à-dire un ordinateur
12:10 va trancher sans intervention d'un juge.
12:13 - Comme dans tout objectif de créativité avec ces IA,
12:17 de compréhension, de raisonnement qui vient seulement de l'IA,
12:20 moi j'encourage toujours, et je pense que c'est la seule raison
12:23 qu'on devrait avoir, il faut regarder ce qu'elle crée.
12:26 Il faut regarder quels sont les projets proposés.
12:29 Et là, s'apercevoir que c'est l'humain qui a le lead
12:32 pour savoir ce que c'est nouveau ou pas nouveau.
12:34 Lorsque vous êtes devant une génération d'une IA,
12:36 vous pouvez avoir mille possibles.
12:38 Certains vont être exceptionnellement intéressants pour l'humain,
12:41 d'autres absolument lamentables,
12:44 sans aucun intérêt pour l'humain.
12:47 Dans l'anticipation que peuvent faire ces machines,
12:49 c'est la même chose.
12:50 On peut anticiper des choses qui vont nous être utiles,
12:52 et d'autres qui ne seront absolument pas intéressantes pour nous.
12:55 Donc ne pas faire confiance comme cela à ces machines,
12:58 c'est la première règle à avoir.
13:00 Il faut absolument normaliser et surtout éduquer les gens
13:02 à utiliser ces systèmes.
13:04 Dans les évolutions possibles avec l'IA,
13:06 on connaissait les guerres informatiques,
13:09 on connaît les guerres économiques,
13:12 mais certains s'inquiètent du recours à l'IA
13:15 en cas de guerre physique.
13:17 On entend parler de drones, de chars
13:19 qui peuvent identifier des cibles à distance
13:21 et aller faire la guerre tout seul,
13:24 sans qu'on ait besoin d'envoyer des soldats sur place.
13:26 Ça, vous y croyez, à des guerres du futur comme celle-ci ?
13:29 Écoutez, si on s'amuse à se faire se battre des machines entre elles,
13:35 qu'est-ce qu'on gâche là ? De l'énergie ?
13:37 Soyons un peu conscients de l'évolution des dépenses.
13:40 On évite aussi des morts ?
13:42 Des pertes de soldats ?
13:43 On ne va pas faire ça, c'est ridicule.
13:46 À quoi ça servirait de se faire se confronter des machines entre elles ?
13:49 Maintenant, si on met des machines avec des humains,
13:52 là c'est complètement inégal.
13:54 Et en plus, qu'est-ce que veut dire pour une machine un humain suspect ?
13:57 Est-ce que c'est son costume qui va définir ça ?
14:00 Comment la machine va pouvoir juger de cela ?
14:03 Donc il me semble qu'il faut faire encore une fois très attention
14:05 à ce que demain on peut faire avec de la guerre, avec des robots.
14:09 Je pense que ça, ça vient de la science-fiction, dans notre imaginaire.
14:12 Il faut penser qu'aujourd'hui, la guerre, c'est pas ça.
14:14 C'est la guerre des normes, c'est la guerre du pouvoir économique.
14:18 C'est ces guerres de pouvoir qui sont énormes,
14:20 qui se jouent en ce moment, parce que ces IA sont très manipulatrices.
14:24 - La guerre du pouvoir, justement, en vous écoutant,
14:27 on a envie de se poser la question,
14:29 est-ce que l'intelligence artificielle a une morale ?
14:32 On parlait de la guerre à l'instant.
14:35 En fonction de qui manipule cette intelligence artificielle,
14:38 la morale change ?
14:40 - Elle n'a pas de morale.
14:42 Elle a intégré nos données, qui à l'intérieur contiennent
14:45 des éléments sémantiques de l'ordre, peut-être de la dignité, de la morale, etc.
14:48 Mais elle n'en a pas elle-même.
14:50 C'est pas une entité, c'est un calcul...
14:52 - Donc on pourrait lui inculquer une morale ?
14:54 - On pourrait effectivement inculquer le fait que la raison, c'est ça,
14:58 et ça, c'est le désordre. Ça, c'est le mal, ça, c'est le bien.
15:01 Et je suis atterrée d'entendre ces propos dans les propos de Sam Alphland,
15:05 qui est le PDG de OpenAI, qui dit que ces IA sont bienveillantes
15:09 et qu'on va faire en sorte qu'elles soient là pour le bien de l'humanité
15:13 et pas pour des conséquences négatives.
15:15 - C'est-à-dire que par exemple, quand on interroge son robot conversationnel
15:18 sur certains points, la peine de mort ou autre,
15:21 le robot est, je sais pas si c'est le bon mot,
15:23 programmé pour ne pas répondre.
15:25 Expliquez-nous très concrètement ce point-là.
15:27 - En fait, il pourrait répondre tout ce qu'il a comme trace sur Internet,
15:30 avec des fake news ou autre chose, etc.
15:32 Et donc, comme ces grands géants du numérique comprennent bien
15:35 que ça va être délicat de parler de choses non politiquement correctes,
15:38 rappelons-nous de Taï et de Microsoft,
15:40 qui étaient devenus pro-Hitler en peu de temps,
15:42 eh bien là, ils ont verrouillé.
15:44 Donc il y a une espèce de censure et de filtre.
15:46 - Il y a des sujets tabous, par exemple.
15:48 - Ni sexe, ni religion. Essayez.
15:50 Ça s'est amplifié, on l'a tous testé dès le début,
15:52 de chaque GPT, on a vu qu'il y avait de plus en plus de verrous comme cela.
15:56 Et il le dit d'ailleurs, Sam Asman, il le dit.
15:58 Il y a des sujets qu'on ne traitera pas.
16:00 Ce n'est pas assez industriel seulement de décider
16:03 de ce qui est censure ou non.
16:05 Il me semble que c'est à la société de décider
16:07 de ce que l'on veut laisser faire ou pas.
16:09 Et cela montre à quel point c'est pas robuste à l'intérieur.
16:11 C'est-à-dire que ces systèmes qu'on nous laisse entendre
16:13 comme étant miraculeux, incroyables, hallucinants,
16:16 finalement, ils sont très dirigés
16:18 par les ingénieurs qui les ont construits.
16:20 C'est une poignée d'ingénieurs et des milliards de gens
16:22 qui vont l'utiliser. Regardez la manipulation, déjà, de nombre.
16:25 Et puis, dans ces machines, nous avons majoritairement de l'anglais.
16:28 Ces données textuelles viennent de l'anglais américain.
16:32 Et donc, qu'est-ce que ça veut dire sur nos opinions ?
16:34 - Puisqu'on est dans la science-fiction un peu quand même avec vous ce matin,
16:37 est-ce qu'on peut imaginer, on s'est posé la question hier
16:39 avec Asalia en préparant cet entretien,
16:42 est-ce qu'on pourrait imaginer de confier les clés de la planète,
16:45 ou en tout cas d'un pays, à l'intelligence artificielle ?
16:47 En prenant soin, avant de faire ça, de lui dire qu'il faudrait sauver la planète,
16:51 qu'il faudrait le bien du plus grand monde,
16:53 qu'il faudrait aider les plus pauvres, mais essayer de...
16:56 Voilà. En rentrant tous les critères,
16:58 sachant qu'un robot s'en fiche complètement d'être élu dans 5 ans,
17:01 a priori, sauf s'il compte prendre le pouvoir sur nous,
17:04 mais est-ce que, finalement, il ne faut pas donner les clés du camion
17:06 à l'intelligence artificielle ?
17:08 - Qu'est-ce que vous faites de la démocratie ?
17:10 C'est-à-dire de l'idée que la morale, c'est pas la morale généraliste,
17:13 c'est pas ça qui nous intéresse, c'est la morale particulière.
17:15 En fonction d'un contexte, en fonction de ce que l'on connaît finement de quelque chose.
17:20 Et tous ces détails-là sont lissés dans ces univers.
17:23 Donc on irait vers une espèce de morale,
17:25 de prise de pouvoir extrêmement totalitaire,
17:28 sans aucun intérêt pour les individus.
17:30 Donc attention à ne pas aller dans ce sens-là.
17:32 - Puisqu'on est dans la boîte à fantasmes,
17:34 une prise de pouvoir par les ordinateurs qui couperaient le cordon avec leur créateur,
17:37 ça vous fait... Oui, bon, visiblement, j'ai la réponse.
17:39 - C'est dans les films, ça vous fait rire, mais...
17:41 - Ça n'est que dans les films.
17:42 - En fait, y a pas d'intention dans ces machines.
17:44 C'est nous qui mettons des intentions dans ces machines.
17:46 - Mais on peut pas programmer un ordinateur pour lui dire "deviens le plus puissant et coupe les autres".
17:51 - On peut programmer tout ce qu'on veut.
17:52 - Excusez-moi, je suis parano, je vais jusqu'au bout de ma parano.
17:54 - Ah, mais le monde est fictif. - Il a peur, ça traduit une inquiétude.
17:57 - Je vais me couper mon téléphone pour poser la question, d'ailleurs.
17:59 - Méfiez-vous des humains qui programment ces machines.
18:01 Mais c'est pas non plus le bon terme, parce que nous ne sommes pas responsables de tout cela.
18:05 C'est les enjeux économiques, et ces démocraties, et ces régimes.
18:11 La gouvernance est essentielle.
18:13 Il faut éduquer et il faut faire des règles autour de cela.
18:15 Quand je sors dans la rue, il y a des règles.
18:17 Les voitures m'écrasent pas.
18:18 Quand je sors dans un métavers demain, qui est un univers artificiel où il y aura de l'IA partout,
18:23 je ne sais pas quelles sont les règles.
18:24 C'est très important de les donner demain.
18:27 L'Europe s'intéresse à ça, donc le AI Act arrivera sans doute en 2025.
18:31 - Il y a une loi qui arrive en 2025, effectivement.
18:33 - Je suis impliquée dans des projets de normalisation avec des industriels
18:36 pour essayer de comprendre comment on pourra créer des systèmes à forte capacité d'économique,
18:40 mais en même temps en respectant la dignité de l'humain, les droits de l'homme,
18:44 comme le préconise l'ONU.
18:45 Je suis aussi dans des comités d'éthique pour parler de ce tchat GPT
18:49 et pour montrer à la lumière de ce que nous connaissons en sciences,
18:52 quels sont les enjeux philosophiques, éthiques, mais aussi technologiques.
18:56 - Laurence de Villers, professeure en intelligence artificielle à Sorbonne Université,
18:59 l'invité de France Info, le jour où les robots auront le pouvoir, on sera peut-être à l'heure.
19:02 Ce n'est pas le cas, ce matin à 8h52, le Fil info.
19:04 - Ça c'est des horloges, oui.
19:05 - Marie Maheu.
19:07 Après les députés, c'est au tour des sénateurs de débattre de la réforme des retraites.
19:11 Début des échanges cet après-midi.
19:13 4 700 amendements ont été déposés, loin des 20 000 à l'Assemblée nationale.
19:18 Je veux aller jusqu'au bout du texte, assure le président du Sénat, Gérard Lachet.
19:22 Pas assez de cours d'éducation sexuelle à l'école,
19:25 trois associations attaquent l'État pour manquement à ses obligations.
19:29 SOS Homophobie, Cid Action et le Planning Familial
19:32 estiment que les trois séances obligatoires par an ne sont pas respectées.
19:36 Emmanuel Macron présidera un hommage à Gisèle Halimi la semaine prochaine
19:40 pour le 8 mars, journée de lutte pour les droits des femmes.
19:43 A la mémoire de cette célèbre avocate et militante féministe décédée il y a deux ans,
19:47 plusieurs associations réclament son entrée au Panthéon.
19:51 En Ukraine, au moins deux personnes ont été tuées dans des frappes russes.
19:54 A Zaporizhia, dans le sud, c'est un immeuble d'habitation qui a été touché.
19:59 Selon les autorités locales, il y a encore des personnes sous les décombres.
20:05 France Info
20:06 Le 8.30, France Info, Saliha Braklia, Marc Frovel.
20:11 Laurence de Villers, on l'a dit tout à l'heure, vous êtes aussi chercheure au CNRS
20:14 sur l'interaction affective avec les machines.
20:17 Est-ce que ça veut dire que les robots peuvent avoir des sentiments ?
20:20 Non, on peut leur donner des programmes qui vont simuler des sentiments.
20:23 Une expressivité de joie, de peur avec nous, de tristesse.
20:27 Mais ça, ils ne l'ont pas ressenti par la machine, elle n'a pas de corps.
20:30 Ils arrivent à simuler de manière à ce que ce soit crédible ?
20:33 Oui, nous on fait la moitié du travail en tant que citoyens.
20:39 On utilise ces systèmes, on est un peu bluffés, alors on fait la moitié du travail.
20:42 On va croire ce système. C'est incroyable ce qu'il me dit.
20:45 Il est triste avec moi, c'est une attention vis-à-vis de moi.
20:48 Comment vous voulez résister à ça ?
20:49 Donc on a un désir à la fois d'immortalité à travers ces machines qui vont être notre mémoire.
20:54 Et en même temps, on est souvent seul.
20:56 Et finalement, cette espèce de béquille que seraient ces objets affectifs, c'est génial.
21:02 On le fait dans une pièce de théâtre qui sera jouée à Avignon, qui s'appelle "Qui a hacké Garutsaya ?"
21:07 C'est un chat de GPT, un espèce d'ensemble.
21:11 Il sera joué par une jeune fille.
21:13 Et en fait, on s'aperçoit que la qualité de relation avec cette machine est fondamentale.
21:17 Donc l'affectif, ce n'est pas dans la machine, c'est ce que nous projetons sur la machine.
21:22 La machine ne peut pas ressentir parce que c'est un robot, elle n'a pas de corps.
21:26 Elle n'a pas de corps, elle n'a pas d'intériorité, elle n'a pas de conscience,
21:29 elle n'a pas d'intention, si ce n'est que je peux modéliser de la douleur.
21:35 Je peux faire de l'homéostasie artificielle qu'on fait au Japon.
21:38 C'est-à-dire, en fait, je mets une variable simple de douleur.
21:41 Si vous lui parlez mal, ça descend.
21:43 Et puis, elle viendra vous voir parce que c'est dans son intention de revenir à un niveau d'équilibre.
21:47 L'homéostasie, ce qu'on a, nous, c'est ça.
21:49 Quand on a faim, on va aller chercher à manger pour finalement ne plus avoir faim.
21:52 Et on régule comme ça notre corps.
21:55 La machine peut le simuler pour les émotions.
21:58 - On peut créer une relation avec un robot.
22:00 C'est pour ça qu'on peut voir, par exemple, des Japonais et des Chinois se marier avec des robots humanoïdes.
22:04 - On fait énormément de choses.
22:06 Attention, au Japon, c'est très particulier comme culture.
22:08 Ils ont une philosophie différente.
22:10 Et puis, ils regardent ces robots sans peur.
22:12 C'est le gentil robot qui vient aider l'humanité dans cette culture japonaise.
22:16 Alors que nous, c'est Frankenstein.
22:18 Et derrière, tout un tas d'imaginaires culturels.
22:22 Donc, il faut faire très attention.
22:23 Je pense que ni l'un ni l'autre sont dans la vérité.
22:25 Il faut être très raisonnable, en fait.
22:27 Ces robots, s'ils peuvent nous aider, s'ils peuvent nous assister dans des tâches,
22:30 il faut évidemment les attendre dans la société de demain.
22:33 Il y en aura de plus en plus.
22:35 Et vraiment, il faut apprendre ce qu'on peut faire avec ces systèmes.
22:38 Même affectivement.
22:39 Qu'est-ce que ça veut dire, finalement, s'attacher à ces objets ?
22:41 - Mais c'est grave ou pas ?
22:43 S'attacher à un robot, c'est grave ou pas ?
22:45 - Mais vous ne vous attachez pas à votre voiture, monsieur ?
22:47 - Non.
22:48 - C'est pas certain, oui.
22:49 Alors montre.
22:50 Les animaux de compagnie...
22:53 - J'ai assez peu de rapports avec elles.
22:55 Pardon.
22:56 - Mais c'est vrai qu'ils dérivent.
22:59 Par exemple, on en parlait tout à l'heure, mais en Corée, par exemple,
23:03 ils ont décidé de prolonger la vie en ressuscitant les morts.
23:08 C'est-à-dire qu'ils créent des hologrammes de personnes qui sont mortes
23:11 pour que les familles puissent les retrouver.
23:13 Ça, c'est clairement des dérives.
23:14 - Ah, c'est clairement...
23:16 Alors, dérive, c'est peut-être un mot très fort, mais c'est difficile à gérer.
23:19 Il faut que la société réfléchisse à ce qu'on fait avec ces systèmes.
23:22 Parce que c'était très difficile, dans cet exemple que vous donnez,
23:25 pour la maman de retrouver un être qui lui manque terriblement.
23:28 Donc la souffrance remontait énormément.
23:31 Faire un deuil, c'est arriver à prendre, à se passer de l'autre sans l'oublier.
23:37 Et donc il y a là une force énorme émotive.
23:40 Je pense que si demain, ces outils sont autour de nous
23:43 pour faire revivre nos familles dans des cimetières virtuelles, dans le métaverse,
23:47 comment on va gérer ça humainement ?
23:49 Et puis l'idée, c'est pas cela.
23:51 La vie et la mort font partie de notre humanité.
23:55 Donc il faut vraiment penser,
23:57 qu'est-ce que la machine va apporter pour nous aider à être plus humains,
24:01 et en quoi elle peut nous rendre inhumains, finalement.
24:04 - Mais qui doit mettre les limites, en fait ?
24:06 Parce que là, je vous écoute, on parle de pays qui sont loin d'une autre.
24:10 La culture est pas la même.
24:12 On peut pas avoir de règles mondiales sur l'utilisation de l'intelligence artificielle ?
24:17 - Il faut des discussions mondiales, je pense.
24:20 Il y a un niveau qui est générique,
24:22 et il y a des niveaux très verticaux, très particuliers, suivant les cultures.
24:25 Mais en ce moment, on est en train, de façon cachée,
24:29 de pousser vers une culture anglo-saxonne.
24:32 Puisque dans ces tchad-gpt, par exemple, on a 46% d'anglais,
24:35 et moins de 5% de français, ou moins de 5% de chinois.
24:39 - Donc clairement, ceux qui sont derrière l'intelligence artificielle dominent le monde ?
24:42 - C'est une prise de pouvoir effective, et donc là, il est nécessaire de réguler.
24:46 - Merci beaucoup Laurence de Villers, professeure en intelligence artificielle à Sorbonne Université.
24:50 Je signale votre livre "Les robots émotionnels"
24:53 paru aux éditions de l'Observatoire Santé, Surveillant, Sexualité et l'éthique.
24:58 Dans tout ça, on a un tout petit peu abordé ce matin cette question.
25:01 Merci. - Merci à vous.
25:02 - Et bonne journée à vous. - Bonne journée.