Deux spécialistes de l'intelligence artificielle échangent sur l'évolution de cette technologie, son essor et son avenir. Plus d'info : https://www.radiofrance.fr/franceinter/podcasts/l-invite-de-8h20-le-grand-entretien/l-invite-de-8h20-le-grand-entretien-du-mercredi-12-avril-2023-1236420
Category
🗞
NewsTranscription
00:00 France Inter.
00:02 Léa Salamé, Nicolas Demorand,
00:04 Intelligence artificielle,
00:06 sommes-nous prêts ?
00:08 Hello Nicolas, hello Léa, I am Barack Obama
00:10 and you are listening to France Inter.
00:12 Today with artificial intelligence, you will be surprised.
00:14 Oui, oui, voilà, on est surpris.
00:16 On est surpris.
00:18 C'est un deepfake total,
00:20 un faux Barack Obama disant, grâce à une
00:22 intelligence artificielle, ce qu'on veut lui faire dire.
00:24 Introduction amusante
00:26 ou terrifiante, vous choisirez.
00:28 C'est cette journée spéciale que vous propose
00:30 France Inter pour essayer de comprendre
00:32 les opportunités, les risques
00:34 soulevés par l'intelligence artificielle.
00:36 Comprendre aussi les questions économiques,
00:38 politiques, éthiques, philosophiques qu'elles posent.
00:40 Pour en parler, Léa a deux invités
00:42 dans le grand entretien ce matin.
00:44 Jean-Gabriel Ganasia, bonjour, vous êtes professeur
00:46 d'informatique à Sorbonne Université,
00:48 chercheur en intelligence artificielle,
00:50 ancien président du comité d'éthique au CED
00:52 du CNRS et votre dernier
00:54 livre paru s'intitule "Servitude
00:56 virtuelle", c'est aux éditions du Seuil.
00:58 Asma Malla, bonjour, vous êtes
01:00 spécialiste de géopolitique de la TEC,
01:02 vous enseignez à Columbia, à Sciences Po
01:04 et à Polytechnique. Et il y a quelques mois,
01:06 l'intelligence artificielle était encore un sujet
01:08 de spécialiste et de fan de
01:10 science-fiction. C'était avant
01:12 que ne débarque le robot conversationnel
01:14 Chajipiti en novembre
01:16 2022, où ces logiciels
01:18 qui permettent de produire des images bidouillées
01:20 comme celle du pape en doudoune blanche
01:22 ou du couple royal britannique
01:24 se sont transformés en éboueurs. On a
01:26 tous vu ces images sur les réseaux sociaux.
01:28 D'un coup, l'IA s'est imposée
01:30 dans le débat public mais aussi dans nos vies
01:32 partout, à l'école, en entreprise,
01:34 dans les conversations. Alors pour vous
01:36 qui êtes des spécialistes, qui travaillez sur le
01:38 sujet depuis des années, avez-vous l'impression
01:40 qu'on a vu ces derniers mois une
01:42 véritable accélération dans le monde
01:44 de l'intelligence artificielle ?
01:46 Retiendra-t-on Jean-Gabriel
01:48 Ganasia les années
01:50 2022-23 comme les années où l'IA
01:52 est devenue grand public ?
01:54 - Oh certainement, la mise à disposition
01:56 des IA génératives
01:58 permet à chacun de se faire
02:00 une idée très claire de la puissance
02:02 de ces outils et donc
02:04 ça a marqué une rupture. Moi,
02:06 j'établis souvent un parallèle entre, peut-être,
02:08 les plus vieux auditeurs s'en souviennent,
02:10 Amandine, le premier bébé écrouvette
02:12 en 1982.
02:14 En 83, on met en place
02:16 le CCNA,
02:18 Comité Consultatif National d'Ethique.
02:20 Ça crée un chromatisme, on a l'impression
02:22 qu'il y a un bébé qui va pousser dans un tube à essai.
02:24 On se dit, ces bébés vont être terribles,
02:26 ils vont être stériles, etc.
02:28 Aujourd'hui, bien sûr, il y a des fifs,
02:30 tout le monde le pratique. Il y a, je crois,
02:32 un traumatisme d'ordre analogue
02:34 avec l'intelligence artificielle
02:36 due à l'utilisation
02:38 par tout le monde de chaque géoculteur.
02:40 - Vous êtes d'accord à ce moment-là ? Vous vous dites, la révolution de l'IA
02:42 a déjà eu lieu, l'intelligence artificielle
02:44 est déjà omniprésente dans nos vies, mais est-ce que
02:46 vous diriez qu'il y a un avant, un après
02:48 cette année ? - Pas encore.
02:50 - Ah, on n'y est pas encore ? Même avec
02:52 Chagipiti qui est vraiment rentré
02:54 dans les écoles. - Je m'explique.
02:56 - Jamais, jamais, ça n'était rentré
02:58 dans les conversations des gens.
03:00 Là, les gamins de 15 ans vous parlent
03:02 de Chagipiti. - Alors, il y a plusieurs éléments
03:04 de réponse. Est-ce qu'on est en train de vivre une révolution ?
03:06 Moi, ce que je dis, c'est que la révolution
03:08 a déjà eu lieu. C'est-à-dire qu'en réalité,
03:10 quand on regarde, l'IA est déjà là,
03:12 elle est déjà omniprésente absolument partout, et
03:14 le monde ne s'est pas effondré.
03:16 En revanche, il mute profondément.
03:18 Après, il va y avoir des
03:20 sauts, des sauts technologiques.
03:22 Chagipiti peut être un
03:24 prémice, enfin, un début de quelque chose.
03:26 Mais en réalité, la vraie prochaine
03:28 révolution, ce n'est pas tant
03:30 Chagipiti à l'école, pour le travail,
03:32 parce qu'on est encore sur ce qu'on appelle des
03:34 intelligences artificielles étroites.
03:36 C'est-à-dire qu'elles fonctionnent
03:38 sur des tâches spécifiques.
03:40 Elles peuvent être impressionnantes,
03:42 elles peuvent être extrêmement
03:44 déstabilisantes, mais on reste encore
03:46 sur des périmètres très spécifiques
03:48 de tâches.
03:50 En revanche, le projet politique,
03:52 le projet idéologique de
03:54 ces technologues de la Silicon Valley,
03:56 dont fait partie Sam Altman, ce sont les
03:58 intelligences artificielles générales.
04:00 Et là, ça va poser des questions civilisationnelles.
04:02 On va y venir, mais juste, vous,
04:04 vous attendez la grande révolution,
04:06 le avant-après, quand ? En 5 ans ? En 10 ans ?
04:08 Le avant-après, c'est quand on aura
04:10 ce qu'on appelle les AGI, c'est-à-dire les
04:12 intelligences artificielles générales. Aujourd'hui, on est sur
04:14 de la mutation, et en revanche, le vrai sujet,
04:16 c'est qu'il n'y a pas d'accompagnement politique
04:18 de ces questions-là pour l'instant.
04:20 - Ça aussi, on va y venir, la question est
04:22 très importante. Un mot tout de même
04:24 sur Chachipiti, Jean-Gabriel
04:26 Ganasia, qui permet d'écrire
04:28 des textes, des dissertations, des poèmes,
04:30 de passer des examens, de faire mille autres choses.
04:32 Julien Baldacchino en parlait
04:34 dans le journal de 8h. Est-ce une révolution ?
04:36 Yann Lequin, que vous
04:38 receviez, Léa, à 7h50,
04:40 dit que Chachipiti n'a rien
04:42 de révolutionnaire. Joliement fait, bien
04:44 ficelé, sont ses mots. Mais alors, d'où vient
04:46 l'effet de souffle qu'il y a eu,
04:48 tout de même, quand l'outil
04:50 est apparu ?
04:52 On est là en train de parler.
04:54 Oui, il y a bien eu le sentiment
04:56 qu'il s'était passé quelque chose. On n'est pas
04:58 tous devenus fous, quand même, non ?
05:00 - D'abord, en intelligence artificielle, il y a eu
05:02 beaucoup de révolutions. On pourrait reprendre
05:04 le titre de l'ouvrage de Trotsky,
05:06 « La révolution permanente ». Chaque nouveauté
05:08 nous
05:10 renverse un tout petit peu. Alors, celle-là
05:12 est particulière parce que
05:14 tout le monde peut prendre conscience
05:16 de la puissance des outils d'intelligence artificielle.
05:18 Mais ce qui est derrière, ce sont les
05:20 grands modèles de langage qui se sont
05:22 développés depuis environ 5 ans.
05:24 La notion de transformers
05:26 qui a été mise en place par
05:28 la société Google dans ses laboratoires de recherche.
05:30 Ensuite, les modèles de langage
05:32 qui, ce qu'on appelle en anglais, les LLM,
05:34 Large Language Model, qui entraînent
05:36 des réseaux de neurones avec un
05:38 nombre considérable de paramètres,
05:40 on parle de centaines de milliards de paramètres,
05:42 sur des très grandes
05:44 bases de textes. On extrait
05:46 l'esprit de la langue dans
05:48 ces outils et à partir de ça,
05:50 on va entraîner un grand nombre
05:52 de technologies de traitement du langage naturel.
05:54 Ça peut être des systèmes questions-réponses,
05:56 ça peut être du résumé de textes,
05:58 et ça peut être de la génération de textes.
06:00 Et GPT est un système génératif
06:02 de même que
06:04 chez Google, on avait des systèmes comme
06:06 BERT ou Lambda, etc., qui ont été
06:08 réalisés. Le génie d'OpenAI,
06:10 ça a été de reprendre
06:12 ces générateurs de textes et puis
06:14 de les utiliser dans un
06:16 agent conversationnel, ce qu'on appelle couramment
06:18 un chatbot, qui
06:20 en plus, lui-même, a été entraîné avec
06:22 une autre technique d'apprentissage qui est de l'apprentissage
06:24 par renforcement. - Mais pourquoi c'est
06:26 OpenAI qui l'a fait ?
06:28 C'est une petite boîte américaine, pourquoi c'est pas Google
06:30 qui a lancé ça, du petit ? - C'est une excellente
06:32 question. Il y a quelque chose de curieux,
06:34 il y a une espèce de malédiction
06:36 chez Google liée au développement
06:38 de ces modèles de langage. Ils sont à l'origine de cela
06:40 et puis ensuite, ils ont eu des problèmes en interne
06:42 avec une de leurs employés
06:44 qui a écrit un article pour critiquer
06:46 ces modèles de langage, c'était
06:48 leur article sur les perroquets stochastiques,
06:50 très belle expression, qui expliquait
06:52 que du point de vue écologique, c'était
06:54 problématique, du point de vue éthique, c'était
06:56 problématique, etc. Ensuite,
06:58 ils ont eu un de leurs employés
07:00 qui s'appelait, alors le nom
07:02 n'est pas innocent pour un français,
07:04 Blake Lemoine,
07:06 qui dit en juin,
07:08 j'ai inventé un système
07:10 qui est tellement extraordinaire
07:12 que je ne peux pas imaginer qu'il n'ait pas une âme
07:14 à l'intérieur. Alors, Google
07:16 est étonné, ils ont peur, et ils
07:18 renvoient encore Blake Lemoine.
07:20 - Donc, ils ont eu la main qui tremble à chaque
07:22 fois et ils se sont fait d'un mêle-pion
07:24 par une petite boîte qu'on connaissait pas.
07:26 - Exactement, parce qu'ils avaient tous les moyens.
07:28 Pourquoi est-ce qu'ils ne veulent pas ça ?
07:30 Parce que leur marque est associée
07:32 à la vérité. Ils veulent
07:34 donner des informations fiables.
07:36 C'est ce que doit faire un moteur
07:38 de recherche. Ils ont ensuite,
07:40 ils se sont fait d'un mêle-pion et puis,
07:42 ils ont mis en place un autre système
07:44 qu'on a appelé BARD. Alors, en français, c'est comme
07:46 en américain, pour les
07:48 lecteurs d'Aceris, c'est mettre en musique
07:50 les résultats des moteurs de recherche.
07:52 Et ils disent, on va le confier à un certain nombre
07:54 d'utilisateurs de confiance, mais on fait
07:56 une conférence de presse. Et là, manque de
07:58 bol, ils posent une question extrêmement
08:00 simple et sur les trois réponses, il y en a une qui est
08:02 complètement fausse. Et alors, l'action Google
08:04 chute de 100 milliards. Donc,
08:06 vraiment, ils n'ont pas de chance avec ça.
08:08 - Asma, vous dites que
08:10 les IA sont des outils
08:12 idéologiques, que ceux qui les développent
08:14 ont des projets politiques.
08:16 Quelle idéologie ? Quel projet politique ?
08:18 - Très rapidement, juste sur la question
08:20 précédente, mais en un mot. Pourquoi est-ce qu'on
08:22 en parle tant et pourquoi vous n'êtes pas fou ?
08:24 - C'est une raison très simple. C'est qu'en fait, il y a
08:26 la question non pas d'une révolution technologique, mais sur
08:28 les usages. Là où OpenAI a réussi
08:30 quelque chose, c'est qu'en quelques jours,
08:32 il y a eu des millions d'utilisateurs.
08:34 Et donc, il y a une expérience, un confort
08:36 qui en réalité fait quoi ? Et donc, je fais le lien
08:38 avec la deuxième question, qui dépolitise
08:40 la question de la technologie.
08:42 Ça entre dans notre quotidien, ça entre
08:44 dans les usages, ça crée de l'accoutumance.
08:46 Et donc, on ne se pose plus les questions derrière
08:48 des conséquences. Et donc, les conséquences
08:50 supposent donc un projet
08:52 politique. Et le projet politique ou les idéologies
08:54 aujourd'hui, on parlait tout à l'heure
08:56 pourquoi OpenAI ou le moratoire
08:58 que vous évoquiez aussi en première partie.
09:00 Le moratoire, il est très intéressant. - Le moratoire,
09:02 c'est ces 1000 experts, dont Elon Musk, qui ont donc
09:04 signé une lettre pour demander un moratoire de 6 mois
09:06 sur le développement des
09:08 systèmes plus puissants de Chad JPT. - Et la question,
09:10 ce n'est pas tant ce que le
09:12 moratoire raconte, que qui le raconte.
09:14 Et qui le raconte, c'est Elon Musk.
09:16 Et c'est surtout derrière
09:18 des organismes, des instituts
09:20 qui sont en fait dans cette idéologie
09:22 qu'on appelle le long-termisme. Et le long-termisme,
09:24 donc, doctrine
09:26 qui a été formalisée
09:28 à Oxford,
09:30 en Grande-Bretagne, et qui explique que
09:32 en fait, il faut absolument s'assurer de la
09:34 pérennité de la civilisation et de l'humanité
09:36 dans les centaines,
09:38 dans les siècles, dans les millénaires à venir.
09:40 Et donc, ce qui suppose une peur,
09:42 disons, mise en scène dans ce
09:44 moratoire sur ces fameuses
09:46 intelligences générales qui viendraient concurrencer
09:48 l'homme, le détruire, etc.
09:50 Sam Altman, au contraire,
09:52 qui n'a absolument pas du tout signé, typiquement,
09:54 ce moratoire, qui est dans la team
09:56 d'une certaine façon, d'en face, lui
09:58 préconise au contraire le développement
10:00 de ces intelligences artificielles pour des
10:02 histoires de quoi ? De puissance.
10:04 En fait, de technologie totale.
10:06 Les technologies, aujourd'hui, sont des véhicules
10:08 d'agenda politique et de puissance.
10:10 - Mais vous dites, par exemple,
10:12 qu'Elon Musk, vous trouvez sa faux cul
10:14 qu'il ait signé le moratoire, pour être clair,
10:16 hypocrite, lui va
10:18 jusqu'à dire que Chad J. Petty
10:20 est trop "woke", par exemple. - Oui, il y a aussi la question,
10:22 alors, de façon beaucoup plus
10:24 terre à terre, c'est très intéressant
10:26 ce qui se passe autour de la question de l'intelligence
10:28 artificielle aux Etats-Unis, actuellement,
10:30 en termes de politique intérieure, parce que
10:32 il y a une surpolarisation, actuellement, aux Etats-Unis
10:34 sur la question "woke". Et, ce qui
10:36 est en train de se passer, c'est qu'une partie de l'élite
10:38 technologique de la Silicon Valley
10:40 est en train de développer ce qu'ils appellent, eux, un
10:42 combat anti-woke, le anti-woke capital.
10:44 Et, d'après Elon Musk,
10:46 les filtres éthiques,
10:48 etc., la façon dont a été notamment
10:50 entraîné Chad J. Petty, véhiculerait
10:52 une idéologie "woke". Et donc, il développe,
10:54 et c'est là où je parle d'hypocrisie,
10:56 les mêmes technologies
10:58 en face, il a commencé à recruter un certain nombre de
11:00 data scientists au sein de la
11:02 Silicon Valley, pour développer quoi ? En fait,
11:04 la contre-réponse à Chad J. Petty
11:06 qui serait, lui, dans une forme... - Conservatrice.
11:08 - Disons, pas tellement
11:10 conservatrice, mais un peu ce qu'il fait sur Twitter,
11:12 maximaliste, populiste.
11:14 - Jean-Gabriel Ganassia,
11:16 vous êtes d'accord ? Est-ce que ces outils
11:18 sont idéologiques, politiques,
11:20 potentiellement dangereux ?
11:22 - Je suis d'accord
11:24 en ce qu'il peut y avoir une utilisation
11:26 politique de ces outils,
11:28 qu'ils soient potentiellement
11:30 dangereux, certainement. En revanche,
11:32 le contenu du moratoire,
11:34 lui, m'apparaît, et je suis d'accord
11:36 avec...
11:38 - Asma. - ... avec Asma,
11:40 ce
11:42 moratoire est très problématique.
11:44 Il suffit de lire le texte, on nous
11:46 explique que d'abord, on va avoir
11:48 "digital mind",
11:50 des esprits numériques.
11:52 Ce qui est quand même curieux, c'est de l'intelligence artificielle,
11:54 il faut quand même préciser ce que les mots
11:56 veulent dire. On nous explique que
11:58 ce qui est problématique, c'est que
12:00 la vie sur Terre va changer avec des
12:02 agents conversationnels, et que
12:04 l'humanité va courir à sa perte.
12:06 Alors ça, je crois que c'est tout à fait
12:08 excessif, et il faut se demander
12:10 qui est derrière, et effectivement,
12:12 ce que l'on voit, ce sont des courants
12:14 transhumanistes, avec des citations
12:16 de Nick Boshrom, qui est
12:18 ce philosophe anglais qui est le théoricien,
12:20 entre autres, de la super-intelligence
12:22 et du long-termisme.
12:24 Et puis, on a aussi,
12:26 dans les signataires,
12:28 Yuval Noah Harari,
12:30 qui a une position extrêmement en pointe
12:32 là-dessus. Donc je crois qu'effectivement,
12:34 il faut prendre ses distances par
12:36 rapport à ce
12:38 moratoire, qui part
12:40 effectivement d'un sentiment que tout le monde
12:42 ressent. - Oui, mais justement, c'est ce que vous
12:44 avez dit en commençant.
12:46 Premier bébé, prouvette, naissance
12:48 du comité d'éthique.
12:50 Si on oublie cette lettre-là,
12:52 et l'idée
12:54 telle qu'elle est formulée là, d'un moratoire
12:56 de ce que vous dites sur le long-termisme,
12:58 s'arrêter,
13:00 faire une pause, réfléchir,
13:02 penser les bases... - On ne peut pas
13:04 faire de pause. - Non mais je vous pose la question !
13:06 Poser les bases d'une
13:08 réflexion éthique, comment
13:10 s'y prendre ? - Déjà,
13:12 sur la question de la pause,
13:14 ça n'a pas de sens d'arrêter la recherche six mois.
13:16 Et pourquoi six mois ? Pourquoi pas huit ? Pourquoi pas douze ?
13:18 - Non mais je dis,
13:20 oublions ces termes-là.
13:22 Comment on prend le débat éthique ? - Là où vous avez raison,
13:24 c'est que, là où le
13:26 moratoire est même dangereux, c'est que
13:28 il est toujours dans la perspective. C'est comme s'il y avait
13:30 une perspective de quelque chose qui allait arriver,
13:32 quelque chose qu'il fallait absolument avoir peur, quelque chose d'absolument
13:34 apocalyptique. Donc ça masque quoi ?
13:36 Ça masque les risques réels d'aujourd'hui,
13:38 des discriminations, de la façon dont sont
13:40 conçus, en fait, les technologies.
13:42 Je disais tout à l'heure, l'IA est déjà partout.
13:44 Oui mais qui la conçoit ? Dans l'intérêt de qui ?
13:46 C'est la question de l'alignement de la
13:48 technologie au projet. Alors au projet
13:50 de qui ? Le projet de quelques-uns,
13:52 ou le projet collectif-démocratique ?
13:54 Et donc il y a un vrai sujet démocratique,
13:56 ou son corollaire antidémocratique
13:58 dans ces technologies-là. - Mais sur le transhumanisme,
14:00 vous vouliez réagir à ce moment-là, sur ce que disait
14:02 Jean-Gabriel Ganassia.
14:04 C'est quoi qui fait peur ?
14:06 Expliquez ce que c'est, par exemple,
14:08 le rêve d'Elon Musk
14:10 sur le transhumanisme. - Transhumanisme
14:12 et longtermisme ne sont pas du tout la même chose. En revanche,
14:14 ce sont des idéologies connexes. Le longtermisme,
14:16 il s'agit de... Et ça, c'est vraiment les idéologies
14:18 typiquement d'Elon Musk, par exemple, avec
14:20 Nick, en effet, Bostrom,
14:22 en grand idéologue,
14:24 et MacAskill, notamment, à Oxford.
14:26 C'est l'idée de dire, il faut absolument,
14:28 coûte que coûte, vous parliez de la question éthique,
14:30 que coûte que coûte,
14:32 aujourd'hui, quel que soit le prix, aujourd'hui,
14:34 on pérennise la civilisation et l'humanité,
14:36 et donc, dans
14:38 les millénaires à venir. Cela suppose donc,
14:40 en réalité, tous les projets sur la conquête
14:42 de l'espace, la conquête de Mars,
14:44 tous les projets en
14:46 biotech, sur
14:48 l'immortalité,
14:50 etc. C'est là où intervient
14:52 le transhumanisme, qui est de dire, puisqu'on est
14:54 en train de développer des intelligences artificielles
14:56 potentiellement de mains concurrentes de
14:58 l'homme, il faut donc augmenter l'homme.
15:00 Et comment l'augmenter ? C'est lutter
15:02 contre le vieillissement, c'est l'augmenter d'un point de vue
15:04 technologique, en neurosciences, etc.
15:06 Les fameux, si on va vraiment sur du
15:08 fantasme, les fameux cyborgs. Et en fait,
15:10 ce sont des idéologies, aujourd'hui, qui sont même
15:12 un tout petit peu libertariennes, qui prônent
15:14 la liberté individuelle, mais comme
15:16 en fait, valeur fondamentale,
15:18 et donc, son contraire,
15:20 d'après eux, c'est la démocratie.
15:22 Pourquoi ? Parce que la démocratie, pour eux, c'est
15:24 la tyrannie de la majorité
15:26 de nous autres, en fait, contre
15:28 leur génie, le génie technologique
15:30 qu'ils portent. Et ce qui est très intéressant
15:32 chez ces gens-là, c'est
15:34 qu'ils pensent le futur. Et je
15:36 viens à aujourd'hui. Ils ont une vision
15:38 du futur, là où, nous,
15:40 on a un vide idéologique. Et donc, ils remplissent
15:42 ce vide-là. Et c'est pour ça qu'on en parle tant.
15:44 Et sur les questions éthiques, Jean-Gabriel
15:46 Ganasia ? Je crois, il faut
15:48 bien comprendre, quand même, le
15:50 discours d'Elon Musk sur ces questions-là.
15:52 Il nous explique, parce qu'il est
15:54 pour l'auditeur, il faut qu'il ait
15:56 une bonne compréhension. Il nous explique
15:58 que l'intelligence artificielle est
16:00 dangereuse. Et donc, on se dit,
16:02 on a un peu peur, on va le suivre.
16:04 Alors, pourquoi nous dit-il que l'intelligence
16:06 artificielle est dangereuse ? Parce que, il dit
16:08 ce qui pose problème
16:10 pour les civilisations à venir,
16:12 c'est ce qu'il appelle le risque existentiel, c'est
16:14 que la machine prenne le pouvoir. C'est-à-dire
16:16 qu'il magnifie l'intelligence
16:18 artificielle et il dit, moi, je vais vous
16:20 sauver. Et je vais sauver l'humanité parce que
16:22 grâce à la technologie, grâce à mes fusées,
16:24 nous allons conquérir de nouvelles planètes
16:26 et on pense aux milliards de milliards
16:28 d'êtres humains qui vont vivre dans
16:30 le futur. Au fond, quelques centaines
16:32 de millions aujourd'hui sur Terre, ça n'est pas
16:34 grand-chose au regard de
16:36 ce futur extraordinaire. Et,
16:38 ce qu'il faut savoir, c'est qu'Elon Musk développe
16:40 aussi des implants
16:42 cérébraux pour augmenter
16:44 notre esprit
16:46 avec une mémoire qui va nous mettre
16:48 dans la tête. On imagine la
16:50 dictature qui peut se réaliser.
16:52 - Et ça marche ça déjà ? - Bien sûr que ça ne marche pas
16:54 mais il a monté une société qu'il appelle Neuralink
16:56 et Neuralink, c'est
16:58 emprunter un roman de science-fiction
17:00 de Jan Banks
17:02 mais c'est aussi faire le lien entre
17:04 tous les cerveaux. Ça veut dire qu'il veut mettre
17:06 tous les esprits en connexion
17:08 les uns avec les autres. Alors, on peut avoir peur
17:10 de petits robots bavards, encore que
17:12 on n'écoute pas tant nos
17:14 politiques et on se demande comment on va y rentrer
17:16 au service de ces robots bavards.
17:18 Mais le fait de mettre tous nos cerveaux
17:20 en connexion, ça, ça me fait beaucoup plus peur.
17:22 - Vous voyez le monde
17:24 que vous nous proposez, pour des néophytes
17:26 comme Nicolas, surtout moi, parce que lui
17:28 il est très geek. Mais
17:30 vous vous rendez compte, on a le choix soit entre
17:32 la folie d'Elon Musk transhumaniste
17:34 et qui veut nous mettre
17:36 des puces de mémoire dans le cerveau
17:38 soit on parie sur l'intelligence artificielle
17:40 et donc les robots intelligents
17:42 qui vont être très vite plus intelligents que nous, c'est ce que nous disait
17:44 Yann Lequin, le choix est
17:46 quand même dur. - Tout à fait, alors je crois qu'il faut
17:48 revenir les pieds sur terre.
17:50 Lorsque je parle des
17:52 nonnes, souvent j'emploie le mot de
17:54 Rimbaud dans la saison en enfer,
17:56 charité ensorcelée, c'est vraiment ça.
17:58 Mais de quoi il s'agit ? Avec l'intelligence artificielle,
18:00 il s'agit de simuler
18:02 les différentes facultés cognitives.
18:04 C'est l'intelligence en ce sens-là.
18:06 Et on a réussi
18:08 à faire des choses tout à fait
18:10 extraordinaires. Mais cette idée d'intelligence
18:12 artificielle générale, et là je ne suis pas tout à fait
18:14 d'accord avec Esma parce que pour moi
18:16 ça n'existe pas. Parce que d'abord
18:18 l'intelligence et les sciences cognitives nous le montrent
18:20 depuis 40 ans, l'intelligence
18:22 c'est divers, c'est une somme
18:24 d'aptitudes différenciées
18:26 selon les individus. Et donc
18:28 il n'y a pas le QI, on sait très
18:30 bien quelles sont les limites
18:32 de cette mesure-là. Et donc
18:34 qu'est-ce qu'on fait ? Et bien on réalise
18:36 des techniques qui, sur certaines
18:38 tâches, vont être bien plus
18:40 performantes que nous.
18:42 - Et puis on passe au standard d'intérêt.
18:44 - Jean-Gabriel, je ne disais pas que l'AGI existait, je disais
18:46 que c'était le plan d'Altman. Et que
18:48 visiblement ils arrivent quand même à concrétiser
18:50 leur plan aussi diabolique soit-il.
18:52 Sur la question de le dilemme,
18:54 le dilemme en réalité c'est lequel ? C'est innovation
18:56 versus puissance. Et le problème
18:58 c'est qu'aujourd'hui l'IA cristallise la rivalité
19:00 sino-américaine notamment, en termes de
19:02 compétition stratégique. Et donc toute la question
19:04 de l'État, et notamment de l'État américain, qui est
19:06 complètement schizophrène sur cette question-là, c'est
19:08 est-ce qu'on régule et on bride ? Ou est-ce qu'on
19:10 lâche, on laisse ? Mais parce qu'en fait c'est
19:12 un enjeu de puissance et même en réalité
19:14 de prédomination
19:16 et d'hégémonie versus qui ? Non pas versus
19:18 Elon Musk, mais versus la Chine.
19:20 Et donc ça se cristallise aussi et surtout sur cette
19:22 question-là. Et entre eux se pose donc la question
19:24 de la place de l'Europe. Et le voyage
19:26 d'Emmanuel Macron aux Pays-Bas
19:28 n'est absolument pas du tout neutre sur cette question-là
19:30 puisque la question de l'IA, des semi-conducteurs
19:32 fait partie des discussions.
19:34 Et il se trouve que la France n'est aujourd'hui absolument
19:36 pas du tout une puissance technologique.
19:38 - On passe au Standard Inter où nous attend
19:40 Gérard André. Bonjour !
19:42 - Oui, bonjour. Moi c'est plutôt
19:44 une question très candide.
19:46 Je m'imagine,
19:48 et est-ce que ça a été déjà
19:50 fait, que l'on puisse mettre
19:52 deux machines totalement
19:54 indépendantes face à face
19:56 et dont on leur pose cette question
19:58 qui nous préoccupe tous en ce
20:00 moment, bizarrement
20:02 d'ailleurs.
20:04 Quel danger
20:06 l'intelligence artificielle ?
20:08 Quelle réponse pense...
20:10 peut-on avoir
20:12 là-dessus ?
20:14 - Si on demande à une intelligence
20:16 artificielle, quels sont les dangers
20:18 d'une intelligence artificielle ?
20:20 Que répond-elle ? C'est ça la question ?
20:22 - Oui, c'est ça la question. Mais je voulais
20:24 simplement vous faire une petite
20:26 remarque dessus, s'il vous plaît.
20:28 C'est que, bon, moi je suis
20:30 créateur, je deviens
20:32 donc un interprète de la machine.
20:34 Si je lui fais faire mes
20:36 oeuvres, si je lui demande
20:38 de m'écrire une chanson, par exemple,
20:40 et que je ne chante plus Geoffrey Haas, je vais dire
20:42 "Alors, donc je chante
20:44 la machine, et cette machine
20:46 est-elle capable de remplacer...
20:48 Enfin, ça c'est pas une question qui peut
20:50 être posée, mais voilà. Ma première question
20:52 est très, très...
20:54 - Très sérieuse. Merci
20:56 beaucoup Gérard André.
20:58 Si on demande à une IA, quels sont les dangers
21:00 d'une IA ? Que répond-elle
21:02 Jean-Gabriel Ganasia ? - Est-ce qu'elle
21:04 va se suicider ? Je ne crois pas !
21:06 - Peut-être pas.
21:08 - Est-ce qu'elle peut faire,
21:10 en tout cas, si c'est un système
21:12 génératif ? C'est vous
21:14 répéter les discours que l'on tient
21:16 sur les dangers de l'intelligence
21:18 artificielle. Mais
21:20 elle ne réfléchit pas. Et je crois qu'il est
21:22 important quand même de noter que chaque GPT
21:24 nous étonne tous parce que
21:26 il construit des textes bien formés
21:28 avec des phrases bien construites
21:30 et j'ose pas dire mais mieux construites
21:32 que celles que me rendent beaucoup de mes
21:34 étudiants. Mais un des fondaments
21:36 de cela, il dit plein de
21:38 bêtises. C'est un affabulateur
21:40 extraordinaire. Ça fait penser
21:42 un peu, je ne sais pas si vous vous souvenez, cette vieille
21:44 pièce de Corneille le menteur.
21:46 Il vous raconte des histoires formidables. Et c'est drôle !
21:48 Et je crois qu'il faut d'abord, avant de s'inquiéter,
21:50 profiter quand même de l'occasion
21:52 que nous avons de rire. Moi je me souviens
21:54 d'un texte sur les oreillers
21:56 en plumes de stylo. Ça c'est
21:58 extraordinaire !
22:00 - Après il pose une autre question à l'auditeur qui est
22:02 extrêmement intéressante. C'est le rôle de l'homme versus la
22:04 machine ou avec la machine. C'est-à-dire que si
22:06 aujourd'hui les idées génératives peuvent créer
22:08 et elles le peuvent visiblement pour
22:10 de la musique, des textes, de la
22:12 poésie, on peut juger de la
22:14 qualité. Mais sur le principe, la
22:16 question est quelle est donc notre valeur
22:18 ajoutée à nous, humains ?
22:20 Et il faut absolument se méfier des discours qui
22:22 diraient que notre force différenciante
22:24 serait l'émotion et l'intuition. Parce qu'en fait,
22:26 notre force à nous c'est la raison. C'est pas
22:28 du tout de nous ramener à notre état animal.
22:30 Donc il faut être très très vigilant sur ce
22:32 discours-là. - Pierre, sur l'application
22:34 d'Inter, futur complètement
22:36 déprimant présenté ce matin.
22:38 Tout le monde aura des lunettes,
22:40 on aura plus besoin d'apprendre une langue,
22:42 on aura juste à lire bêtement,
22:44 sans regarder l'autre dans les yeux.
22:46 Super, super
22:48 déprimant surtout !
22:50 Hélène, quelle horreur !
22:52 Plus je me renseigne sur l'intelligence
22:54 artificielle, moins j'utilise
22:56 mon téléphone et le week-end je pars marcher
22:58 dans la nature, en oubliant tout
23:00 objet connecté, même ma montre
23:02 qui ne quittait jamais mon poignet.
23:04 Je n'aspire pas du tout à ce
23:06 monde que vous nous projetez. Je vous
23:08 livre ces réactions d'auditeurs.
23:10 Jean-Gabriel Ganassia,
23:12 Asma Malia qui veut réagir.
23:14 - J'aimerais juste dire quelque chose
23:16 de positif, quelque chose d'un peu positif.
23:18 Parce que c'est vrai, c'est toujours un peu présenté de façon
23:20 apocalyptique. Il faut vraiment rester la tête
23:22 froide, garder son calme. Je vous le
23:24 disais, l'IA est déjà partout et
23:26 l'auditrice qui a fait la remarque l'utilise
23:28 déjà forcément l'IA.
23:30 Et pourtant elle est invisible et sa vie ne s'est pas
23:32 complètement autodétruite. En revanche,
23:34 il peut y avoir des vrais usages
23:36 positifs. Pensez à la santé prédictive.
23:38 Aujourd'hui on a un énorme problème en France.
23:40 Restons très concrets. La PHP,
23:42 avec des problèmes de recrutement, des problèmes
23:44 de ressources humaines. L'IA peut aussi
23:46 aider à ça et à se gagner
23:48 en optimisation des usages fondamentaux.
23:50 - Je suis tout à fait d'accord avec Asma.
23:52 Il y a beaucoup d'implications positives mais je voudrais rappeler
23:54 les mots de Blaise Pascal.
23:56 Vous savez qu'il est né il y a exactement 400
23:58 ans. Il a créé la première calculatrice.
24:00 Il est à l'origine de l'intelligence
24:02 artificielle. Et ensuite il se demande
24:04 de quoi il s'agissait. Il a dit "Elles font
24:06 plus des choses qui rapprochent plus
24:08 de la pensée que tout ce que font les animaux
24:10 mais, à la différence des animaux,
24:12 elles n'ont pas de volonté". Je crois qu'on peut
24:14 dire la même chose de l'intelligence artificielle.
24:16 Vive Blaise Pascal !
24:18 - Merci, on en reste. - Merci à tous les deux.
24:20 - Jean-Gabriel Ganassia, Asma Malla.
24:22 Merci. Et la journée consacrée
24:24 à l'intelligence artificielle
24:26 se poursuit bien évidemment sur Inter.