• l’année dernière
Mardi 30 mai 2023, SMART TECH reçoit Véronique Ventos (cofondatrice et chef de la recherche, NukkAI) et Jean-Gabriel Ganascia (professeur, Sorbonne Université et directeur de l'équipe ACASA, Lip6-CNRS)

Category

🗞
News
Transcription
00:00 Débat aujourd'hui dans Smartech autour des intelligences artificielles génératives.
00:07 Faut-il freiner leur déploiement, limiter les utilisations ? On a Sam Altman, le grand
00:13 patron fondateur de Tchad GPT qui s'est lancé dans une tournée européenne pour rassurer
00:19 face aux défiances que génèrent ces IA et puis aussi pour dire finalement on a besoin
00:24 de régulation, on a besoin de réponses réglementaires pour avancer.
00:28 On parle de ce sujet avec Véronique Vanto, chercheure en intelligence artificielle.
00:33 Vous êtes la directrice de recherche et cofondatrice de Noucaille.
00:37 Alors Noucaille, je vous ai reçu dans une grande interview je crois, startup pionnière
00:41 d'une IA nouvelle génération, symbolique, dont les trois grandes caractéristiques sont
00:48 d'abord des interfaces qui permettent une bonne collaboration entre l'homme et la machine.
00:52 Ensuite une association aux prises de décisions et la capacité de fournir des explications
00:57 aussi compréhensibles par les humains et puis une IA qui soit économe en énergie.
01:02 Avec vous sur ce débat Jean-Gabriel Ganassia, professeur à la faculté des sciences de
01:08 Sorbonne Université.
01:09 Vous êtes le directeur de l'équipe ACASA de l'IPSIS.
01:11 ACASA donc pour agents cognitifs et apprentissage symbolique automatique.
01:17 Donc vous parlez de l'IA symbolique tous les deux.
01:20 Vous êtes aussi informaticien philosophe.
01:23 Vous avez présidé le comité d'éthique du CNRS et déjà publié plusieurs ouvrages
01:28 au seuil.
01:29 On peut citer l'âme-machine, un précurseur en 1990, le mythe de la singularité en 2017
01:35 et puis votre dernier ouvrage Servitude virtuelle sorti en 2022 toujours au seuil qui porte
01:40 sur ces questions éthiques autour de l'intelligence artificielle.
01:44 Et restez avec nous en plateau Nicolas Delatte, le cofondateur de CellSense Analytics qui
01:49 s'occupe d'installer des dispositifs qui surveillent l'état de fonctionnement des
01:53 bateaux et dans lequel il y a de l'intelligence artificielle pourrait évidemment interagir
01:58 avec nous sur ce débat.
02:00 Je voulais le lancer ce débat avec une image, une image d'explosion aux abords du Pentagone
02:05 qui a été relayée sur Twitter le 22 mai dernier et qui aurait fait dévisser les marchés
02:11 pendant quelques minutes.
02:12 C'est des médias américains qui ont noté que Wall Street avait sensiblement baissé
02:16 dans les instants qui ont suivi la diffusion de cette image qui est une fausse image générée
02:21 par une intelligence artificielle générative.
02:23 Est-ce que ça vous inquiète ou est-ce que ça vous fait sourire Jean-Gabriel ?
02:27 Ce qui est inquiétant c'est la profusion d'infox, ce qu'on appelle en anglais les
02:33 fake news qui ne sont pas nouvelles parce que bon on sait que dans l'ancliquité Sun Tzu
02:38 par exemple dans son Art de la guerre en préconisait d'envoyer des fausses informations pour déstabiliser
02:43 les adversaires et puis on se souvient au 18e siècle des libelles ou des canards au
02:47 19e ou la désinformation, le terme fleur bon les années 50.
02:51 Mais aujourd'hui on est capable de produire industriellement ces fausses informations
02:56 et qui plus est avec les techniques d'IA génératives on produit non seulement des
03:00 textes mais on produit des images, on produit des vidéos, on prend des bandes sons.
03:04 Ce qui fait que ce que l'on voit de nos yeux, ce que l'on entend de nos oreilles,
03:08 ceux-là il faut se méfier.
03:10 Et ça c'est extrêmement inquiétant.
03:12 Ce qui est encore plus inquiétant c'est le fait qu'on arrive avec les techniques
03:16 de profilage à cibler exactement les personnes à qui l'on envoie chaque type d'informations
03:22 parce qu'on sait qu'elles y sont sensibles au point tout d'un coup de perdre leur rationalité
03:27 etc. et de se livrer à des actions ou de répondre de façon excessive.
03:31 Donc effectivement je crois que la démocratie déléborative a un besoin à un moment donné
03:37 de référence commune et bien sûr il faut limiter ces fausses informations.
03:42 Un très grand philosophe de la communication, Jürgen Habermas, qui s'est beaucoup intéressé
03:47 à la notion de délibération collective, fondement selon lui de la démocratie, est
03:54 bien sûr aujourd'hui très inquiet.
03:56 Il vient d'écrire un ouvrage qui a été traduit en français et il dit justement démocratie
04:03 délibérative le tournant.
04:04 Donc je crois que c'est quelque chose d'inquiétant, il faut être très prudent, il faut se demander
04:09 comment faire.
04:10 Il termine son ouvrage en disant que justement lutter contre les infox est un impératif
04:17 proprement constitutionnel.
04:19 C'est quelque chose de tout à fait essentiel aujourd'hui si on veut sauvegarder ce qu'est
04:23 notre démocratie.
04:24 Véronique, est-ce qu'on peut apprendre justement à dompter ces intelligences artificielles
04:29 génératives ?
04:31 Oui tout à fait.
04:32 Pour rebondir un petit peu, moi ce qui m'inquiète plus, ça va être l'humain, c'est pas l'IA.
04:37 Parce qu'on lui prête des intentions, elle n'a aucune intention.
04:40 Ça veut dire que l'image qu'on a vue, c'est pas une IA qui a décidé de semer la panique
04:45 sur Wall Street, c'est un humain.
04:47 On parle beaucoup de propagande russe d'ailleurs, derrière cette image.
04:50 Ça je ne sais pas.
04:51 Ce sont des hypothèses qui ont été évoquées en tout cas.
04:53 Ce que je veux dire c'est que ces IA génératives c'est vraiment une super techno, c'est un
04:58 outil.
04:59 C'est un outil dont on devrait se servir pour justement gagner du temps.
05:04 C'est un outil qui ne remplace pas l'humain.
05:06 Parce que justement l'humain garde sa créativité donc il est un peu à la fois survendu et
05:10 mal utilisé.
05:11 Donc moi je me dis, gardons ces super outils, surtout qu'ils ont quand même coûté beaucoup
05:21 à la planète en termes de ressources.
05:24 Voilà, ça il faut le savoir parce que toutes ces méthodes sont basées sur des prêts
05:28 traitements qui en fait utilisent énormément de puissance de calcul.
05:33 Donc on ne va pas se priver de les utiliser mais il faudrait que l'humain apprenne à
05:40 les dompter.
05:41 Ça veut dire apprenne par exemple à utiliser ce qu'on appelle des prompts.
05:45 Ça veut dire que sur ChatGPT, si on le met dans une situation, il va être beaucoup plus
05:51 cohérent, il va être beaucoup plus en phase plutôt que d'aller récupérer stochastiquement
05:55 des informations un petit peu partout.
05:57 Donc typiquement si je dis "pourquoi le ciel est bleu" je vais commencer par "je suis avec
06:03 mon neveu de 5 ans qui me demande pourquoi le ciel est bleu".
06:05 Et à ce moment là ce n'est pas que l'IA raisonne et sait qu'elle doit donner une réponse
06:11 à un enfant de 5 ans, c'est que stochastiquement elle va aller rechercher dans des zones du
06:16 web sur tous les documents qu'elle a regroupés en fait et elle va plutôt aller sur des sites
06:23 dédiés aux enfants que par exemple des sites dédiés à des étudiants de MATSUP.
06:28 Donc apprendre à rédiger ces prompts par exemple ce serait une première façon de
06:33 dompter un peu l'arrivée de ces nouveaux outils parce que ce ne sont que des outils.
06:38 Exactement.
06:39 Comment est-ce que vous avez réagi quand ce moratoire est apparu, cet appel lancé le
06:44 29 mars par plus de 1000 experts qui ont demandé une pause d'au moins 6 mois dans
06:51 la recherche sur les IA génératives qui sont plus puissantes que Chad GPT-4, le modèle
06:57 d'OpenAI ?
06:58 Je l'ai lu et j'ai fait une analyse de texte.
07:03 Première phrase, est-ce que l'on peut effectivement arrêter les recherches sur l'entraînement
07:10 des intelligences artificielles avec des machines plus puissantes de GPT-4 ? Est-ce que c'est
07:16 raisonnable ? Est-ce qu'on peut imaginer que le gouvernement américain va interdire
07:21 à ses industriels de le développer ? C'est peu probable.
07:23 Est-ce qu'on peut imaginer que le gouvernement chinois va s'inquiéter ? C'est peu probable
07:29 aussi.
07:30 Est-ce qu'on peut imaginer que l'Europe nous empêche ? Ah ! Eh bien peut-être.
07:34 Et vous voyez il y a des stratégies de ces grands industriels américains qui sont de
07:39 vouloir absolument éliminer toutes sortes de concurrents et lorsque Sam Alman vient
07:43 et nous explique qu'il faut absolument réguler, il est bienvenu par le Parlement européen
07:48 qui dans son IA Act impose des contraintes extrêmement fortes qui risquent d'empêcher
07:53 tout développement des techniques d'intelligence artificielle en Europe.
07:56 Donc je crois effectivement qu'il faut être prudent mais jusqu'à un certain point.
08:00 D'ailleurs le ministre du numérique Jean-Noël Barrault, il y a quelques jours, vient de
08:05 s'exprimer et de manifester ses inquiétudes de ce point de vue-là parce qu'il dit qu'il
08:09 y a des contraintes qui sont tellement fortes que ça risque d'empêcher les Européens
08:15 de concevoir eux-mêmes leur propre modèle de langage.
08:18 Donc je crois qu'il faut être raisonnable.
08:20 Il faut se demander quelles sont ces contraintes.
08:22 Quand vous avez lu ce texte, vous avez lu une stratégie anti-concurrentielle ?
08:28 Disons, oui, le meilleur exemple c'est quand même Elon Musk qui est l'un des premiers
08:33 signataires et qu'il dit "oui, oui, il faut arrêter tout de suite".
08:35 Puis quelques jours après il dit "je vais monter une entreprise mais chaque GPT est
08:39 trop woke".
08:40 Vraiment woke.
08:41 "Mais moi je vais monter un autre agent conversationnel qui va dire la vérité et
08:45 il l'appelle TroucheGPT".
08:46 Ça veut dire que c'est un peu une bravedad au point zéro.
08:49 Ce qui m'inquiète d'ailleurs beaucoup plus d'une certaine façon.
08:53 Et puis j'ai lu d'autres choses.
08:56 C'est-à-dire que quand on regarde le texte en détail, ce n'est pas simplement l'annonce
09:00 du texte.
09:01 Il va y avoir des esprits numériques dans ces machines.
09:03 Qu'est-ce que c'est qu'un esprit numérique ? Des esprits non-humains.
09:06 On nous parle de risque de perte de contrôle.
09:11 Pour l'instant, un robot bavard, ça parle.
09:14 Les hommes politiques parlent.
09:16 Ils n'arrêtent pas d'ailleurs.
09:17 Ils ont des moyens pour les relayer.
09:19 Et puis ils ont aussi des forces de coercition.
09:22 Et pourtant, dans les démocraties comme les nôtres, on n'obéit quand même pas toujours
09:26 aux hommes politiques.
09:27 Est-ce que vous croyez sérieusement que parce qu'un agent conventionnel parle, il dit pas
09:32 mal de bêtises, tout le monde va se mettre en garde à vous et se soumettre ?
09:35 Ce n'est pas raisonnable.
09:37 Et on nous dit beaucoup de choses.
09:39 On nous dit que c'est une intelligence artificielle générale.
09:43 On nous dit qu'ils nous dépassent sur des tâches générales.
09:46 Qu'est-ce que c'est qu'une tâche générale ? Moi, je ne sais pas.
09:49 Est-ce que parler, c'est une tâche générale ? On ne fait pas que parler dans la vie.
09:53 Quand on fait de la voile, par exemple, il faut avoir d'autres aptitudes, d'autres compétences
09:58 que celles du langage.
09:59 Donc, de ce point de vue-là, lorsqu'on lit en détail, on se rend compte toutes les apories,
10:04 toutes les absurdités qui sont à l'intérieur.
10:07 Et on nous parle de risque existentiel.
10:09 Or, il faut savoir que ce terme est employé par un certain nombre de transhumanistes pour
10:14 nous expliquer que les machines vont nous dépasser, qu'elles vont prendre le pouvoir.
10:18 Et quand on sait qu'Elon Musk est l'un des principaux signateurs, quand on lit la bibliographie
10:22 qui est associée, ou on lit, par exemple, le nom de ce philosophe anglais, Nick Boshrom,
10:30 qui est un partisan de ce qu'il appelle la super-intelligence, on se rend compte que
10:34 derrière, il y a une visée qui est toute autre, qui est de nous convaincre que les
10:39 machines risquent de prendre le pouvoir, d'être plus puissantes que nous, et on se dit "on
10:43 va les arrêter".
10:44 La singularité.
10:45 La singularité.
10:46 Ou alors, c'est même autre chose, avec Elon Musk aujourd'hui, c'est ce qu'on appelle
10:51 le long-termisme, c'est l'idée qu'un philosophe utilitariste doit se préoccuper de la somme
10:56 des plaisirs et des peines, et donc il se dit "dans des millions d'années, il y aura
11:00 des milliards et des milliards d'êtres humains, et donc le bien c'est justement de penser
11:04 à ces milliards et des milliards d'êtres humains".
11:06 La clé de ce développement de l'humanité, c'est conquérir les autres planètes, et
11:10 c'est donc la technologie, et donc bien sûr, les hommes sont tous égaux entre eux, mais
11:14 il y a ceux qui vont contribuer à cette humanité future, ce sont les spécialistes de technologie,
11:20 et donc eux, il faut peut-être les avantager un petit peu.
11:22 Donc vous voyez qu'on est dans un univers tout à fait surprenant, et c'est ça qui
11:27 est derrière, en filigrane, il suffit d'une analyse de texte très simple pour se rendre
11:31 compte de tout cela.
11:32 Tout ça explique pourquoi je n'ai pas signé, et pourquoi je crois qu'il faut dénoncer
11:36 ce type d'appel au moratoire, parce que dans un premier temps on se dit "ah bah oui, on
11:41 est tous un peu inquiet", parce qu'on est déconcerté bien sûr par ces machines.
11:45 Moi je l'ai été il y a même un an, j'avais essayé GPT avant, chaque GPT, et j'avais
11:49 écrit une chronique dans la revue La Recherche, la moitié était écrite par GPT.
11:53 C'est très surprenant, c'est très étonnant, mais bien sûr il faut raison garder, c'est-à-dire
11:58 que ce n'est pas parce qu'on est un tout petit peu bluffé, on utilise souvent le terme,
12:03 par ces capacités des machines que l'on doit soumettre, et qu'on va imaginer qu'elles
12:08 vont prendre le pouvoir et nous gouverner.
12:10 Véronique, vous n'avez pas non plus signé cet appel à pratiquer une pause dans la recherche
12:16 en intelligence artificielle générative, pour quelle raison ?
12:19 La première en fait, c'est que je ne suis pas tellement pour des interdictions etc. en
12:32 général, j'aimerais que les gens puissent prendre leurs responsabilités, et ce qui
12:37 m'a beaucoup gênée c'est qu'en fait ce qui a été relayé, ce n'était pas une
12:41 pause dans l'IA générative, mais une pause dans l'IA.
12:43 Alors ça c'est la première chose, et vous avez dit au départ que j'étais dans l'IA
12:50 symbolique, en fait je ne suis pas dans l'IA symbolique, j'ai fait beaucoup de recherche
12:56 en IA symbolique parce qu'effectivement c'est une IA qui va plus garder l'humain dans
13:00 la boucle, mais je suis plus sur l'IA hybride en fait, c'est-à-dire que des techniques
13:07 comme celles d'IA générative ou les réseaux de neurones, je ne vais pas m'en passer,
13:13 il faut être guidé par un problème et utiliser différentes techniques plutôt que de les
13:18 opposer et les mettre ensemble.
13:20 Et justement chez nous, Caille, on a démarré un travail sur comment aider l'humain à
13:27 dompter ses IAs génératives, notamment Chagibiti, en se disant "ben voilà c'est un super outil",
13:34 mais comme l'a dit un chercheur, malheureusement ce n'est pas moi, il a l'aplomb d'un menteur,
13:39 mais c'est un perroquet stochastique.
13:40 Donc l'idée, comme je l'ai dit, c'est d'essayer de générer des promptes et des IAs de type
13:49 symbolique qui vont récupérer une expertise du métier peuvent très bien faire ça.
13:52 Donc l'idée en fait c'est…
13:54 Juste pour préciser, parce qu'on parle d'IA symbolique, ça peut paraître un peu
13:58 difficile à comprendre pour les téléspectateurs, mais en fait c'est des IAs qui fonctionnent
14:02 à partir de règles qu'on lui donne ?
14:05 En fait ça va fonctionner à partir d'un langage que l'expert va définir, puisque
14:10 c'est lui le patron, il ne faut pas l'oublier.
14:12 Donc il va exprimer des choses, des termes, son vocabulaire et puis effectivement des
14:19 règles.
14:20 Mais ce n'est pas seulement lui, c'est-à-dire que l'IA symbolique peut permettre d'apprendre
14:23 ses règles.
14:24 L'idée c'est qu'il y a une sorte d'espéranto entre l'homme et la machine qui s'appelle
14:27 la logique, et qui fait que la machine va utiliser ses règles, va en proposer une nouvelle,
14:33 et comme elle va les montrer à l'expert, il va pouvoir les valider ou pas.
14:37 Et sur un petit domaine, ça, ça marche très bien.
14:39 Ça veut dire que Tchadjipiti sur le monde entier, sur tous les domaines, on va avoir
14:46 du mal à faire quelque chose.
14:47 Par contre, par exemple en finance, en discutant avec des experts, on peut récupérer ce
14:52 qu'on appelle une connaissance, une base de connaissances, et utiliser cette base de
14:57 connaissances pour, à partir d'une requête d'un utilisateur en particulier, proposer
15:02 des promptes automatiquement, qui utilisent donc ces briques définies par l'expert,
15:08 lancer Tchadjipiti plusieurs fois, puisqu'il est stochastique, et puis de la même manière
15:14 faire un post-traitement.
15:15 C'est-à-dire qu'il y a le pré-traitement pour que la machine se dirige vers les zones
15:20 qui concernent la finance par exemple, et le post-traitement, ça va être toujours
15:25 réutiliser ces abstractions pour donner une réponse qui soit plus courte, parce que n'oublions
15:31 pas que Tchadjipiti ne sait pas qu'on lui pose une question, donc il peut répondre
15:34 par une question.
15:35 Donc on va éliminer, et puis également on va personnaliser, c'est-à-dire que si
15:41 c'est un utilisateur qui interroge sa banque, il y a un passé, donc on va savoir des choses
15:46 sur lui, non pas en l'espionnant, pas du tout, le but c'est vraiment de l'aider,
15:50 on va savoir par exemple qu'il est plus ou moins jeune, etc., ou alors qu'il a déjà
15:55 posé ce type de requête, et on va pouvoir affiner les réponses de Tchadjipiti.
16:00 Ça veut dire qu'en fait on apporte une réponse technologique, qui a besoin de travailler
16:05 donc la recherche en intelligence artificielle pour contrôler les éventuelles dérives
16:11 de ces IA.
16:12 C'est ça la meilleure réponse, mieux que la régulation ?
16:14 Jean-Gabriel Gannatia ?
16:15 Il faut d'abord dire que Tchadjipiti et les modèles de langage sont conçus sur l'apprentissage
16:24 profond et on prédit le mot suivant dans un contexte donné.
16:28 Et ça marche merveilleusement parce qu'on a appris sur des très gros réseaux de neurones
16:33 qui contiennent des centaines de milliards, voire des milliers de milliards de connexions,
16:38 et avec des très gros corpus.
16:40 Donc on extrait l'esprit de la langue.
16:42 Et donc on a des machines qui parlent, mais elles ne savent pas ce qu'elles disent,
16:45 et elles affabulent.
16:46 On appelle ça en termes techniques des hallucinations, même si le terme n'est pas approprié.
16:51 Mais effectivement ce sont des menteurs patentés, c'est bien évident.
16:55 Alors à partir de ça, si on veut utiliser ces machines, il faudrait être capable de
17:01 confronter ce qu'elles disent avec un certain nombre de faits.
17:04 C'est-à-dire essayer d'avoir un étage de rationalité.
17:09 Parce qu'aujourd'hui ce sont des salades de mots, des salades qui effectivement quand
17:13 on les écoute ça a l'air pas mal, mais quand on creuse dans le détail on voit beaucoup
17:17 d'erreurs et d'approximations.
17:18 C'est Luc Julia sur ce plateau qui disait "les problèmes de ces IA c'est leur pertinence,
17:25 36% d'erreurs, autrement dit de bêtises, c'est quand même beaucoup".
17:28 Exactement, on peut améliorer mais ça ne change rien, il y aura toujours un peu d'erreurs.
17:33 Moi je me souviens qu'il y a quelques jours on m'a interviewé sur la possibilité d'utiliser
17:38 ces technologies dans la fonction publique.
17:40 Alors vous imaginez une administration, ça vous répond effectivement, mais dans 10 ou
17:44 20% des cas ça vous dit une bêtise.
17:46 Vous cherchez, vous dites "est-ce que j'ai le droit à telle allocation ?" on vous dit
17:50 "oui oui oui tout à fait" et puis vous vous rendez compte vous n'avez pas le droit.
17:53 Ou alors l'inverse, on vous dit "vous n'avez pas le droit" et en réalité vous avez le
17:56 droit.
17:57 Mais en fait, à un moment donné il faut raisonner.
17:59 Et c'est là où l'IA symbolique joue un rôle central.
18:03 Il faut bien comprendre que l'histoire de l'IA c'est à la fois le symbolique et le
18:09 numérique.
18:10 Et le début de l'IA, vous aviez des logiciens comme John McCarthy et puis des personnes
18:15 comme Marvin Minsky qui venaient de la cybernétique.
18:17 Et ça a été toujours ça.
18:20 Et moi-même j'ai travaillé plutôt dans le symbolique mais on a fait du symbolique
18:25 numérique et je me souviens très très bien qu'on a organisé des journées où j'étais
18:30 jeune étudiant dans les années 80 là-dessus.
18:32 Donc il y a toujours eu une hybridation de tout un tas de technologies dont certaines
18:37 font appel à du numérique et d'autres à de la logique.
18:40 Et cette logique ne sont pas simplement des règles, ce sont aussi des démonstrateurs
18:43 automatiques de théorèmes.
18:44 Et puis ce sont des logiques un peu "exotiques" qui prennent en compte ce qu'on appelle la
18:51 non-monotonie, la possibilité de surmonter des contradictions.
18:54 Et dans mon équipe, on travaille justement là-dessus.
18:57 On essaye de concevoir des modules, des superviseurs éthiques qui contraignent ces machines, qui
19:04 soumettent ces machines à un certain nombre de prescriptions.
19:06 C'est-à-dire qui rajoutent une fois que la déduction a été faite un certain nombre
19:11 de contraintes en disant "voilà dans telle situation il y a des choses qu'on n'a pas
19:13 le droit de".
19:14 Mais là vous adressez tous les deux la question de la pertinence.
19:18 Il y a aussi la question du droit d'auteur, du copyright, de la protection des données
19:23 des utilisateurs.
19:24 Parce que pour entraîner ces intelligences artificielles, il faut aller piocher dans
19:28 un capital.
19:29 On ne doit pas forcément demander notre avis avant.
19:31 Merci.
19:32 Oui, peut-être Véronique ?
19:34 Oui, tout à fait.
19:35 Quand je disais que j'avais plus peur de l'humain que de la machine, enfin pour le
19:40 moment, c'est exactement le problème.
19:45 C'est-à-dire que pourquoi est-ce qu'on a fait ces IA génératives ? Est-ce que c'est
19:49 pour aider les êtres humains à passer moins de temps ? Malheureusement, j'ai un petit
19:55 peu peur que ce soit également, comme d'habitude, pour récupérer un maximum d'informations
20:02 et puis finalement le but c'est de gagner un max d'argent.
20:06 Voilà.
20:07 Donc ça veut dire que, en gros, ce qui m'a un petit peu inquiétée dernièrement, et
20:10 je continue à dire "c'est rigolo, c'est un bel outil, on va le dompter, je ne suis
20:13 pas contre", c'est qu'on s'est aperçu que les utilisateurs, au départ on leur dit
20:21 "voilà, tout le monde a testé dans ma boîte, vous pouvez jouer avec, on fait joujou, c'est
20:26 génial" et finalement, ce que même nous on n'avait pas compris, c'est que tout ce
20:32 que vous rentrez a pu être récupéré.
20:34 Ça veut dire les questions, ça veut dire vos réactions et je sais qu'il y a eu une
20:39 fuite très grave où finalement, dans une entreprise, pareil, des jeunes, un petit
20:46 peu comme les miens, ont fait joujou avec Chachipiti et lui ont passé des bouts de
20:51 code, des choses qu'il ne fallait pas passer et il y a eu des fuites.
20:55 Donc ça c'est extrêmement gênant, c'est le côté encore continuer à récupérer
21:01 un maximum et toujours pas pour aider, pour un petit peu ensuite revendre, etc.
21:07 Et puis effectivement, l'autre problème, c'est ces histoires de fake news.
21:14 Donc c'est des outils plus…
21:16 Est-ce qu'on pourrait se dire, tant que ces produits ne sont pas correctement finalisés,
21:21 tant qu'on n'a pas un cadre international et qu'on ne s'est pas mis tous autour
21:25 de la table pour dire "ok, on est d'accord pour les déploiements dans telle et telle
21:28 condition", est-ce qu'il faut limiter les déploiements ? Est-ce qu'il faut limiter
21:32 les usages ? Par exemple, Google a fait ce choix sur un produit de très haute technologie
21:37 d'intelligence artificielle, ils ont dit "bon ben ça on le réserve à certains clients,
21:41 partenaires, on ne le met pas ça entre les mains de tout le monde".
21:44 Est-ce qu'il faut en arriver à fixer des limites, d'après vous ?
21:46 C'est extrêmement difficile parce qu'on a le droit de procéder à des expérimentations.
21:52 C'est tout le débat entre Google et OpenAI.
21:55 Ces technologies ont trouvé leur origine dans les laboratoires de Google en 2017 avec
22:01 la notion de transformeurs et puis les tout premiers modèles de langage en 2019.
22:06 Et puis ensuite, Google a continué et d'autres l'ont fait en parallèle.
22:11 Je ne sais pas si vous vous souvenez, il y a à peu près un an, c'était en juin 2022,
22:16 un employé de chez Google qui s'appelle Black Lemoine, alors le nom n'est pas anodin en
22:21 français.
22:22 Qui s'est inquiété de la santé mentale de son intelligence artificielle.
22:25 Pas de la santé mentale, qui a expliqué que son intelligence artificielle lambda,
22:30 qui était un logiciel de dialogue, tenait des propos tels qu'il ne pouvait pas imaginer
22:35 que cette machine n'avait pas d'âme.
22:37 Alors bien sûr, ça inquiétait tout le monde.
22:39 On a dit qu'il était prêtre d'ailleurs.
22:40 Mais justement, parce que comme on arrive à la fin du débat, excusez-moi Jean-Gabriel,
22:45 je vais vous couper un peu.
22:46 Mais comme on est dans cette idée que Google joue le responsable, voilà, toutes les entreprises
22:52 ne sont pas forcément dans cette posture de la responsabilité.
22:55 Est-ce qu'on doit nous fixer des règles pour limiter ces usages ? Je pose aussi la
22:58 question à Véronique, mais très rapidement, tous les deux.
23:01 Très rapidement, je crois qu'effectivement, sur les applications précises, il faut essayer
23:10 de savoir exactement quelle est la pertinence et quelles sont les performances des logiciels.
23:15 Mais on ne peut pas aller beaucoup plus loin.
23:18 OpenAI a fait un logiciel pour amuser le monde et il l'a emporté.
23:23 C'est extrêmement difficile de lutter contre ça, parce que sinon, on dirait qu'on ne
23:26 peut plus s'amuser.
23:27 C'est embêtant.
23:28 Véronique ? Moi, je serais plus sur le fait de former
23:34 les gens à cet usage.
23:35 C'est-à-dire que ce genre d'entreprise devrait fournir des tutoriels, expliquer exactement
23:42 ce qu'il y a derrière.
23:43 Et je pense qu'il joue beaucoup sur cette espèce d'inconnu.
23:47 Donc, ça va aller, on va tous être remplacés.
23:50 Et je n'ai pas eu le temps de le dire, mais ce qu'il faut que tout le monde sache, c'est
23:55 que pour le moment, et je pense que c'est pour un bon bout de temps, l'humain ne doit
23:59 pas sortir de la boucle.
24:01 J'ai vu beaucoup de gens m'approcher.
24:02 Un réalisateur qui disait "oui, mais comment je vais faire ? Je vais perdre mon travail".
24:07 Des journalistes, et bien pas du tout.
24:08 Parce que la créativité de l'homme, on est très très loin de la voir remplacée
24:14 par ses outils.
24:16 Donc, c'est pour ça que je dis, apprenons à les dompter.
24:20 J'ai juste appris une chose.
24:21 Juste un mot là.
24:22 Oui, pardon.
24:23 Pourquoi est-ce que l'IA d'OpenAI est au WOC ? Parce que derrière, on a fait ce
24:28 qu'on appelle de l'apprentissage par renforcement, mais pas automatique, par des humains qui
24:32 ont mis des notes, qui ont dit "ça bien, ça pas bien".
24:35 Voilà.
24:36 Ah ben ça, point de vigilance.
24:37 Merci beaucoup Véronique Vantos, cofondatrice, chef de la recherche chez Noucaille, Jean-Gabriel
24:41 Ganasia, professeur à la Faculté des sciences de Sorbonne Université, directeur de l'équipe
24:44 Acasa de l'IPSIS et Nicolas Delatte, cofondateur de CellSense Analytique.
24:48 Merci à tous les trois.
24:50 On marque une petite pause et on va s'intéresser aux monnaies numériques des banques centrales.