"Ce n'est pas possible d'éviter les erreurs de l'IA", affirme Luc Julia

  • l’année dernière
Aujourd'hui, dans le grand entretien, nous recevons Luc Julia, ingénieur et informaticien, directeur scientifique de Renault et co-créateur de l’assistant vocal Siri. Il a publié "L’intelligence artificielle n’existe pas" (First), et “Un français dans la Silicon Valley” (Kennes).
Transcript
00:00 Le grand entretien de ce dimanche matin avec Marion Lourds, nous avons le bonheur de recevoir
00:04 un invité qui est ingénieur informaticien, un français dans la Silicon Valley, c'est
00:09 comme ça qu'il se présente et le titre de l'un de ses livres, la Silicon Valley où
00:13 il a fait une grande partie de sa vie et de sa carrière.
00:16 Il a monté plusieurs start-up, il est à l'origine de plusieurs inventions majeures, c'est un
00:21 grand nom de la tech, ses innovations comme ses chemises à fleurs font partie de sa légende.
00:27 Il est directeur scientifique aujourd'hui de Renault Group, co-créateur de l'assistant
00:31 vocal Siri, mais ce n'est que l'une de ses inventions et on va en reparler.
00:35 Son livre, l'intelligence artificielle n'existe pas, vient d'être republié.
00:40 Posez vos questions chers auditeurs, intervenez au 01 45 24 7000 ou sur l'application France
00:46 Inter.
00:47 Bonjour Luc Julia.
00:48 Bonjour Marion, bonjour Ali.
00:49 Et bienvenue, merci infiniment d'être avec nous.
00:52 Vous êtes un français dans la Silicon Valley, pour dresser votre portrait à grands traits,
01:01 on peut dire que vous y avez travaillé, que vous y avez inventé, que vous êtes à la
01:06 fois chef d'entreprise et d'un autre côté l'un des grands créateurs, innovateurs comme
01:11 on dit de l'autre côté de l'Atlantique.
01:13 Il y a maintenant un an qu'on n'arrête pas de parler d'intelligence artificielle, depuis
01:19 qu'un robot conversationnel nommé Chat GPT s'est imposé dans nos vocabulaires, dans
01:24 nos informations, sans qu'on sache toujours très précisément de quoi il est question.
01:29 Et c'est en tout cas le symbole aujourd'hui de l'intelligence artificielle.
01:34 L'intelligence artificielle n'existe pas pourtant, nous dites-vous.
01:38 Pourquoi Luc Julia ?
01:40 L'intelligence artificielle qui n'existe pas, c'est celle dont justement on nous parle
01:44 sans trop comprendre ce que ça veut dire.
01:46 Et c'est celle que j'appelle l'intelligence artificielle de Hollywood.
01:50 C'est celle des films Her ou des films Terminator, celle qui fait peur ou qui fait envie peut-être.
01:55 Et c'est celle-là qui n'existe pas.
01:57 Celle de machines qui deviennent conscience ?
01:59 Exactement.
02:00 Her par exemple, qui est un robot, qui est une voix, qui est un algorithme qui devient
02:05 conscient et dont on peut même tomber amoureux ?
02:07 Exactement.
02:08 Je ne conseille pas d'ailleurs, ça ne sert à rien.
02:10 Oui, c'est platonique comme relation.
02:12 Mais parce que selon vous, un algorithme ne peut pas être doué de conscience, qu'il
02:18 prenne la forme de la voix de Scarlett Johansson dans un film comme Her ou qu'il soit incarné
02:23 par le soulèvement des machines comme dans Terminator ?
02:25 Exactement.
02:26 Donc on ne peut pas avoir des machines.
02:28 On peut programmer des machines pour faire ça.
02:30 Donc ça, moi je peux programmer quelque chose qui va faire ça.
02:32 Je peux programmer des robots qui tuent.
02:33 Enfin, on peut faire plein de choses, mais c'est moi qui décide tout le temps.
02:36 Moi ?
02:37 Moi, moi, moi.
02:38 Donc celui qui les fait, qui les crée ces machines.
02:40 Justement, le verbe « créer » est important ici.
02:44 Il faut bien comprendre que les machines ne créent rien elles-mêmes.
02:48 C'est-à-dire que c'est moi qui suis toujours à l'origine quelque part.
02:51 Moi, l'humain, qui suis à l'origine de ça.
02:53 Intelligence artificielle, le mot, il date pas d'hier.
02:58 1956.
02:59 John McCarthy, informaticien, mathématicien, futur créateur d'un langage informatique
03:05 qui propose avec Marvin Minsky d'organiser un séminaire sur l'intelligence artificielle.
03:11 Et voilà, c'est comme ça que commence cette histoire.
03:14 C'est comme ça que naît l'IA.
03:15 Et le projet initial détaille « L'étude se fondera sur la conjecture que chaque aspect
03:21 de l'apprentissage ou toute autre caractéristique de l'intelligence peut en principe être
03:26 décrit avec une précision telle qu'une machine peut être fabriquée pour le stimuler ».
03:31 Expliquez-nous ça, parce que c'est l'acte fondateur de l'IA.
03:35 Qu'est-ce que ça veut dire ?
03:37 Ça veut dire qu'on va créer des machines, on va fabriquer des machines ou des systèmes
03:42 qui vont simuler, et c'est là où le mot est important, ce que pourrait faire un cerveau
03:47 humain.
03:48 Mais en fait, ça date pas de 1956.
03:49 Depuis la nuit des temps, l'humain essaye de simuler des choses, que ce soit le travail
03:54 lui-même, c'est-à-dire des trucs, des robots qui vont faire des choses de force, on va
03:58 dire, ou alors simuler des choses qui ont l'air intelligente.
04:01 Comme par exemple en 1642, quand Pascal a inventé la Pascaline, la première machine
04:08 à calculer.
04:09 Ça simulait quelque chose d'intelligent, de faire une addition ou une subtraction.
04:12 Donc on fait ça depuis très très longtemps, et ces machines, effectivement, elles ne font
04:16 que simuler.
04:17 Mais Luc Julias, ce que vous nous dites, vous nous l'avez dit, il y a toujours l'humain
04:20 derrière, je suis toujours là, c'est moi qui pousse le bouton au fond.
04:22 Qu'est-ce qui nous le garantit, ça c'est vraiment sûr ?
04:24 C'est vraiment sûr, oui, la façon dont les machines sont faites aujourd'hui, ce n'est
04:29 pas possible autrement.
04:30 Et demain ?
04:31 Demain aussi, en fait, tant que...
04:33 Enfin, je ne peux pas dire demain, demain, je n'en sais rien, personne ne sait.
04:36 Mais ce qui est sûr, c'est qu'aujourd'hui, la façon dont on utilise les mathématiques,
04:40 parce que toutes ces machines sont basées sur les mathématiques, que ce soit de la
04:43 logique ou des statistiques.
04:45 Donc c'est juste impossible qu'elles créent quoi que ce soit, parce que quand on fait
04:48 de la logique, c'est nous qui mettons les règles en place.
04:51 On sait exactement comment ça va se passer.
04:52 Et quand on fait des statistiques, on est basé sur le passé.
04:57 Et donc sur le passé, c'est nous qui décidons, c'est nous qui choisissons les données sur
05:01 lesquelles on va positionner ces machines.
05:04 Et donc, le passé, on le connaît.
05:06 Vous parlez justement des données dans votre livre et dans vos interventions, parce que
05:11 ces intelligences artificielles, elles se basent sur des données qui sont par exemple
05:13 disponibles sur Internet.
05:14 Et sauf que ces données, il y en a beaucoup qui sont fausses.
05:17 Par exemple, on peut me dire que la Terre est plate aussi sur Internet.
05:20 Alors comment faire pour éviter les erreurs de l'intelligence artificielle dans ce cadre ?
05:24 C'est là où ce n'est pas possible.
05:26 Ce n'est pas possible de les éviter.
05:27 C'est pour ça que quand on parle de Chachipiti en ce moment et qu'on vénère Chachipiti,
05:31 il faut comprendre que Chachipiti fait beaucoup, beaucoup d'erreurs.
05:33 Ce qu'on appelle les hallucinations, ou ce qu'on appelle les erreurs tout court, c'est
05:38 parce que c'est basé justement sur des données biaisées.
05:41 Le mot est génial d'ailleurs, qu'on parle d'hallucination concernant un robot.
05:44 Oui, parce que ce n'est justement pas terrible comme mot dans le sens où hallucination, ça
05:49 fait croire à la créativité justement, alors qu'il n'y en a pas.
05:52 Mais ce qu'il faut comprendre, c'est que c'est une sorte de mélange de ces données
05:55 passées.
05:56 Et donc, ça vous ressort quelque chose qui n'est pas vraiment un truc du passé, mais
06:00 qui est quelque chose dont vous avez besoin.
06:02 Ce qu'il faut comprendre, c'est que ces IA, et particulièrement les IA génératives,
06:08 elles vous font plaisir.
06:09 Et la façon dont vous allez poser la question, vous orientez déjà la réponse.
06:12 Et donc, c'est pour ça que ça peut halluciner quelque chose que vous allez demander finalement.
06:15 L'IA, c'est l'un des grands mythes du XXIe siècle, vous seriez d'accord pour dire ça ?
06:21 Oui, je pense qu'on peut dire ça, mais c'est aussi quelque chose qui est très, très utile
06:25 dans plein, plein d'endroits.
06:26 Donc, il ne faut pas non plus le jeter à la poubelle.
06:28 Non, non, bien sûr, mais je parle de mythe au sens où c'est vrai que nous en avons parfois
06:31 un rapport magique.
06:34 Vous parliez du passé.
06:35 La grande partie de l'intelligence artificielle, elle est pourtant fondée sur des technologies
06:41 prédictives.
06:42 Elle est capable de prévoir ce que je vais vouloir regarder comme film, vous-même en
06:48 inventant Siri, en créant Siri, pardon, c'est peut-être un terme plus adapté.
06:53 Vous inventez aussi, vous rentrez dans nos têtes.
06:58 Il y avait un livre qui avait été publié qui disait "à quoi rêvent les algorithmes".
07:02 Les algorithmes comme Siri peuvent rêver à notre place ?
07:05 Non, alors les algorithmes ne vont pas rêver, c'est nous qui allons rêver.
07:08 Et justement, c'est nous qui créons Siri, par exemple, c'est nous qui l'en créons,
07:10 et c'est des humains.
07:11 C'est la différence entre la créativité et ces algorithmes qui ne font que répéter,
07:16 que remacher le passé.
07:17 Mais technologies prédictives ?
07:18 C'est intéressant parce que la prédiction, c'est quoi ? Ce n'est pas une chose que
07:21 c'est statistique.
07:22 Les statistiques sont basées sur des données.
07:24 Et les données sont passées, c'est parce que les choses se répètent.
07:27 On dit souvent "l'histoire ne fait que se répéter".
07:29 C'est la vérité, l'histoire ne fait que se répéter.
07:32 Je regarde le passé et en fonction de ce que je vois dans le passé, je peux plus ou
07:35 moins prédire l'avenir avec des taux de probabilité plus ou moins bons.
07:39 Ce n'est pas non plus quelque chose que je ne vais pas vous affirmer, demain il va se
07:42 passer ça.
07:43 Vous dites que les intelligences artificielles ne sont pas créatives et en même temps on
07:47 a vu émerger des duos complètement fictifs de différents artistes.
07:51 On va bientôt pouvoir avoir des acteurs morts qui jouent dans des films et des séries.
07:57 Ça a d'ailleurs été à l'origine de cette longue grève des scénaristes et des
08:00 acteurs à Hollywood.
08:02 Donc elles ne sont pas créatives, mais quand même un peu, non ? Et surtout, qu'est-ce
08:05 qu'on fait des droits d'auteur là-dedans ?
08:06 Alors, c'est une question complètement différente.
08:09 Ce qu'il faut comprendre, c'est que je peux demander à ce que ça imite quelque
08:15 chose qui existe déjà.
08:16 Un acteur mort, il existait.
08:18 Je peux demander à imiter ça.
08:20 Et ça, c'est relativement facile.
08:21 Mais je peux aussi demander à imiter un scénario qui a été déjà plus ou moins
08:26 et puis ça va remacher quelque chose.
08:28 Il faut bien faire attention entre générer et créer.
08:32 Ça peut générer plein de choses.
08:33 Donc il faut respirer un tout petit peu pour comprendre que ces IA, elles ne créent rien,
08:37 mais elles peuvent générer n'importe quoi quand je le demande.
08:39 Quand je le demande.
08:41 Dis Siri, je te demande.
08:43 C'est comme ça que souvent on fait marcher.
08:45 D'ailleurs, j'ai allumé mon téléphone.
08:46 Je vais immédiatement l'éteindre.
08:48 Jean-Yves, bonjour.
08:49 On fait le standard inter.
08:53 Jean-Yves, vous êtes avec nous et avec Luc, Julia, vous nous appelez de la Seine-sur-Mer.
08:57 Vous avez une question pour notre invité.
09:00 Oui, d'abord, je voulais remercier votre invité d'avoir créé Siri parce que moi,
09:07 je suis malvoyant et donc j'utilise en permanence Siri pour lui demander des informations,
09:14 pour lui demander de passer des coups de téléphone.
09:19 Voilà.
09:20 Et je voudrais, si possible, que Siri soit encore plus développé pour nous aider, nous,
09:26 les malvoyants et les non-voyants dans notre vie quotidienne.
09:29 Et puis, je voudrais aussi demander à ce que Siri soit un peu plus précis dans ses
09:36 termes, puisqu'il y a quelques jours, je demande à une amie qui habite comme moi dans
09:44 la région toulonnaise, si elle veut venir manger, un ail au lit, vendredi avec moi.
09:52 Et Siri lui a dit « est-ce que tu veux venir vendredi au lit avec moi ? ».
09:56 Voilà, donc je pense qu'effectivement les algorithmes ne sont pas habitués à connaître
10:06 l'ail au lit, mais bon, l'ail au lit est utilisé beaucoup en Provence.
10:10 Voilà.
10:11 Merci infiniment Jean-Yves pour votre témoignage au boulot, au boulot Luc, Julia.
10:16 Il y a toujours des erreurs, c'est clair.
10:19 Manger de l'ail au lit vendredi avec moi, est-ce que tu veux venir dans mon lit vendredi ?
10:23 Oui, c'est une ambiguïté, c'est quelque chose que ces machines ne comprennent pas.
10:27 Encore une fois, les machines ne comprennent rien.
10:29 Elles ne font que générer des choses qui sont basées sur les probabilités.
10:33 Et la probabilité d'aller au lit est certainement beaucoup plus importante que la probabilité
10:37 de manger de l'ail au lit.
10:38 Mais on arrivera forcément un jour au moment où Siri ne se trompera plus ?
10:43 Non, c'est juste pas possible.
10:46 Nous, on se trompe toujours aussi.
10:48 Donc, ces perceptions, c'est très très compliqué.
10:51 Il y aura toujours des ambiguïtés, il y aura toujours des moments où ça se trompe.
10:54 Justement, quand on fait croire au fait que ces machines peuvent être parfaites, c'est
10:59 une grande erreur.
11:00 Autre question, bonjour Catherine.
11:02 Oui, bonjour.
11:03 Merci de participer au 6/9.
11:04 Merci à vous.
11:05 Ma question est la suivante.
11:06 Déjà, pour poser le principe, je suis enseignante en arts plastiques.
11:13 Et je voudrais dire que cette question de l'imitation par la machine et les algorithmes
11:19 me conduit à deux remarques.
11:21 Un, j'aimerais savoir quel est le plus civilisationnel et culturel et humain qu'ont apporté ces
11:29 machines.
11:30 Et deux, je me sens réduite en tant qu'enseignante à devoir utiliser tous les process qui sont
11:37 justement anti-créatifs.
11:38 Donc, je suis gênée et j'ai l'impression que tout ça n'est qu'une entourloupe générale
11:45 juste pour faire beaucoup d'argent sur le travail des gens.
11:48 Merci pour votre intervention.
11:50 Luc Juliard ?
11:51 Moi, je pense qu'il faut faire un peu attention d'être complètement réfractaire à l'outil.
11:55 Il faut bien considérer que ces machines ne sont que des outils justement.
12:00 Donc, on respire un tout petit peu parce que, comme je disais, elles ne sont pas créatives.
12:03 Et la créativité reste toujours du côté de l'humain.
12:05 Et en particulier du côté de l'art ou des arts graphiques ou audio, etc.
12:10 Ce que je trouve très intéressant dans ces machines-là, c'est exactement ce qui
12:14 s'est passé par exemple avec Photoshop il y a 20 ans, 25 ans.
12:18 Le logiciel de retouche de photos.
12:20 Exactement.
12:21 Donc, ce qu'il y a, c'est que moi, si je suis créatif, je vais pouvoir utiliser cet
12:24 outil pour justement exprimer d'une manière différente ma créativité.
12:29 Par exemple, je peux demander à quelque chose comme Mitch journée, je peux lui demander
12:32 "Dessine-moi une vache verte sur la tour Eiffel".
12:34 La vache verte sur la tour Eiffel, il va me générer des vaches vertes sur la tour Eiffel
12:38 qui ne vont pas avoir exactement l'image mentale que j'en avais, mais qui vont me permettre
12:42 de créer moi cette vache verte sur la tour Eiffel.
12:44 Donc, pas de différence pour vous Luc Juliard entre ce que faisait Léonard de Vinci quand
12:48 il inventait un faux lion, un robot lion pour divertir François 1er.
12:53 Pas de différence entre ce que faisait, d'après la légende, Descartes qui perd sa
12:57 fille et qui crée un automate qu'il appelle Francine et ce qui se passe aujourd'hui avec
13:02 les robots qu'on nous voyons et qui nous sidèrent par leur nouveauté.
13:06 Non, pas du tout, c'est la même chose.
13:08 C'est la continuité, c'est une évolution normale des technologies.
13:11 Alors, on l'a entendu avec notre auditrice, il y a des réserves évidemment sur l'intelligence
13:15 artificielle et la semaine dernière, les 27 États membres de l'Union européenne
13:19 se sont mis d'accord pour réguler l'intelligence artificielle, protéger les données personnelles
13:24 des utilisateurs, prévenir les risques en matière de sécurité, d'éducation notamment.
13:27 Il faudra mentionner ce qui est le fruit d'une intelligence artificielle ou pas sur les photos,
13:33 sur les clichés.
13:34 Emmanuel Macron a parlé du risque d'écraser les innovateurs européens sous une réglementation
13:40 trop lourde.
13:41 Vous êtes d'accord avec lui ?
13:42 Oui, je suis complètement d'accord avec lui.
13:43 Il faut faire très attention de ne pas se couper les ailes en interdisant des choses.
13:48 Vous savez, dans les années 80, je pense, je ne me rappelle plus exactement, on avait
13:52 interdit la génétique, la manipulation génétique.
13:54 C'est une erreur fondamentale.
13:56 Ah oui ?
13:57 Ben oui, c'est une erreur fondamentale parce qu'évidemment...
13:58 On avait peur ?
13:59 Mais on avait peur, justement, c'est ça le problème, c'est qu'on a peur des technologies.
14:02 Mais il faut avoir peur des applications des technologies.
14:04 Donc, évidemment que je ne veux pas faire de l'eugénisme et que machin, il y a des
14:08 applications de la génétique qu'il fallait définitivement interdire.
14:10 Mais il y a des applications, on voit ça avec la génothérapie aujourd'hui, qu'il
14:13 fallait définitivement autoriser.
14:16 Et donc, on a pris du retard parce qu'on s'était interdit de faire ici en France.
14:20 Si on fait la même chose avec l'intelligence artificielle, ça va être la même chose.
14:22 Donc, il faut interdire les applications, il faut les comprendre déjà et après, on
14:26 peut interdire ces applications, mais pas la technologie.
14:28 Mais il ne s'agit pas de l'interdire, mais par exemple, mentionner sur une photo que
14:31 c'est le fruit de l'intelligence artificielle.
14:32 Oui, ça c'est autre chose.
14:33 Le pape en doudou, non précise.
14:35 Bon, en fait, c'est...
14:36 J'ai rebondi sur ce que vous avez dit, je n'ai pas répondu sur l'IP, sur la propriété
14:41 intellectuelle.
14:42 Oui, il y a des problèmes là.
14:43 Et effectivement, ces gros, gros modèles qui utilisent des choses qui ne sont pas eux
14:46 et qui, après, ressortent, ça, c'est un problème.
14:49 Donc, il faut effectivement savoir quelles sont les données sur lesquelles ces choses
14:51 sont entraînées et quelles sont les choses qui appartiennent vraiment à ceux qui créent
14:56 ces modèles.
14:57 Donc, c'est ça qu'il faut mettre en avant.
14:59 Mais il ne faut pas voler les choses.
15:01 Donc, ça, c'est effectivement quelque chose qu'il faut répréhender.
15:03 Mais sinon, dire que je vais...
15:06 Vous savez, dans la loi européenne dont on parle, il y a quatre niveaux.
15:09 Et le dernier niveau, c'est une interdiction.
15:10 Et donc, l'interdiction, c'est ça qui nous embête.
15:13 Et je pense que c'est ce que voulait dire le président Macron aussi.
15:16 Il y a Daniel qui, lui aussi, est non voyant et qui vous dit, Luc Julia, pour nous, non
15:21 voyants, Syrie, c'est un nirvana, ce que vous avez créé avec Steve Jobs dans la Silicon
15:27 Valley.
15:28 Synthèse vocale, toutes les questions qu'on peut lui poser.
15:30 Il vous fait le meilleur compliment.
15:32 Il vous donne l'ouverture au monde.
15:33 Vous savez, c'était exactement...
15:34 Enfin, c'est pas pour...
15:35 Franchement, c'est pas pour les non voyants qu'on l'a créé.
15:37 Mais moi, c'est ce que j'appelle les vrais gens.
15:39 Vous voyez, on voit beaucoup ça comme un gadget.
15:42 Mais la vérité, c'est qu'on a touché beaucoup de gens.
15:45 On a eu des centaines de lettres de non voyants.
15:48 On s'en est aperçu à posteriori.
15:50 On n'a pas fait exprès.
15:51 Vous n'imaginiez pas au départ, en travaillant avec Steve Jobs et Apple, que ça donnerait
15:55 ce résultat ?
15:56 Non, pas du tout.
15:57 On savait que ça allait aider des vrais gens.
15:58 On savait parce que le but du jeu, c'était de donner accès à Internet, en l'occurrence,
16:04 pour tout le monde, d'une manière beaucoup plus facile, à travers la voix.
16:07 C'était ça, la première idée, en 1997.
16:09 Ça a commencé.
16:10 Donc, très très longtemps.
16:11 Mais on s'est aperçu.
16:13 On a non seulement donné des applications extraordinaires pour les non voyants, c'est
16:17 vrai, et on a sauvé des vies.
16:19 On peut pas le savoir, mais on a des gens qui ont été sauvés parce que, par exemple,
16:22 il y a un gars, un jour, qui réparait sa voiture.
16:24 Sa voiture lui est tombée dessus.
16:25 Il ne pouvait plus bouger.
16:26 Il était complètement bloqué sous sa voiture.
16:29 Mais il avait dans sa poche, derrière, son téléphone.
16:31 Il a appelé « Hey Siri, call 911, appelle les secours ».
16:35 Et les secours sont arrivés.
16:36 Il y a, malgré tout, quand on regarde la question de l'intelligence artificielle,
16:40 telle qu'elle est posée dans le débat public, en gros, deux types de discours qui
16:44 s'affrontent.
16:45 Et on n'en sort pas.
16:46 Deux grands types de discours qui s'imposent dans le monde de la tech, mais aussi dans
16:51 nos conversations.
16:52 Il y a ceux qui pensent que l'émergence de la conscience chez l'intelligence artificielle,
16:56 c'est qu'une question de temps.
16:58 Elon Musk, par exemple, en fait partie.
17:00 Sam Altman, le père de Chad J.
17:02 Petit, également.
17:03 Et puis, il y a les autres qui pensent que, comme vous, c'est un fantasme.
17:06 Pourquoi est-ce qu'on n'en sort pas de cette binarité ? Comme si on était incapable,
17:12 finalement, de se faire une idée de ce qui était nouveau, de ce qui ne l'était pas.
17:15 Quand je fais un peu la liste des gens qui sont dans le contenu de l'autre, je trouve
17:19 que la liste des gens de mon côté, c'est beaucoup plus des scientifiques qui pratiquent
17:24 l'IA.
17:25 Et puis après, il y a ceux qui en parlent.
17:27 Elon Musk, il en parle.
17:29 Donc, c'est ça qu'il faut faire attention aussi, à regarder un peu ses sources, justement,
17:35 là aussi, et regarder qui en parle.
17:37 Quand c'est des gens comme Yann Lecun ou Aurélie Jean ou des gens comme moi qui en
17:42 parlent, je pense que…
17:43 Yann Lecun qui travaille chez Facebook et qui est l'un des pères de l'intelligence
17:46 artificielle.
17:47 Oui, tout à fait.
17:48 Je veux dire, écoutons les scientifiques.
17:51 Et encore une fois, on peut critiquer, on peut débattre.
17:54 Mais quand on voit la liste, encore une fois, je pense que c'est assez clair.
17:58 Étonnant le nombre d'auditeurs qui nous envoient leurs témoignages.
18:02 Sylvie qui nous dit « Je rejoins la personne précédente.
18:05 Mon frère est tétraplégique.
18:07 Il utilise Siri tous les jours dans son quotidien.
18:08 Ça lui permet de faire des choses seule.
18:10 C'est important pour une personne handicapée.
18:12 Vous parliez de Yann Lecun, d'Aurélie Jean.
18:15 Et à vous aussi, on a beaucoup de talents français dans l'intelligence artificielle.
18:19 Alors, il y a un fonds qui vient d'être créé par Xavier Niel, notamment pour un
18:26 laboratoire d'intelligence artificielle.
18:28 Il y a une start-up française qui réussit, c'est Mistral, qui a annoncé une levée
18:32 record d'argent de 385 millions d'euros.
18:35 Est-ce qu'on va avoir, nous, français, notre chat GPT, est-ce qu'on peut être
18:38 aussi des champions de l'intelligence artificielle ?
18:41 Alors d'abord, il faut être clair, on est les champions de l'intelligence artificielle
18:44 dans le monde aujourd'hui parce qu'on est les meilleurs du monde en mathématiques.
18:47 Il se trouve que, comme je disais tout à l'heure, c'est des mathématiques.
18:49 Et je ne dis pas ça comme ça en l'air.
18:52 On a le plus grand nombre de Medaille Fields, qui est le Nobel des mathématiques.
18:56 Donc, on est les meilleurs en mathématiques.
18:58 Et il se trouve que comme l'IA, c'est des mathématiques, on est les meilleurs en
19:00 IA dans le monde.
19:01 Dans la Silicon Valley, il y a beaucoup, beaucoup de Français qui sont des chefs de l'IA.
19:04 On parle souvent français, oui, quand on est dans l'IA, en Californie.
19:09 Pratiquement toutes les grandes entreprises de la Silicon Valley ont à leur tête de
19:12 l'IA un français.
19:13 Oui, mais les grandes entreprises ne sont pas françaises.
19:16 Je vous confirme.
19:17 Donc, c'est pour ça qu'il y en a qui reviennent.
19:18 Et puis, c'est pour ça aussi qu'on en forme ici de plus en plus grâce à, depuis
19:22 10 ans, la French Tech.
19:23 On voit émerger, justement, Mistral.
19:25 On voit évidemment avec Xavier Niel et QTI, ce qui aide.
19:29 Donc, évidemment qu'on va pouvoir créer quelque chose ici, en France, en Europe.
19:33 Et on va avoir de toute façon, on a déjà avec Mistral, on a déjà un modèle qui est
19:37 très intéressant avec ce qui vient de sortir dans les 3, 4 derniers mois.
19:40 Donc, oui, on a des chances de rebondir.
19:44 Mais il faudrait qu'on soit meilleur en affaires et qu'on apprenne à rater aussi, peut-être ?
19:47 Voilà, c'est ça.
19:48 Alors, il y a deux choses.
19:49 Il y a les sous.
19:50 Donc, il faut vraiment mettre des sous.
19:51 Et il se trouve que Xavier Niel est la co-dire.
19:52 Il en met.
19:53 Donc, ils ont mis des sous.
19:55 300 millions d'euros, c'est pas mal.
19:56 C'est pas mal ou c'est très insuffisant par rapport à ce que peuvent investir des entreprises
20:00 comme Google, par exemple ?
20:02 On parle de milliards de l'autre côté.
20:04 Dizaines, centaines de milliards.
20:06 Donc, là, 300 millions, c'est déjà pas mal.
20:08 C'est un labo de recherche qui fait.
20:09 C'est une étincelle.
20:11 Et puis, on va partir de là.
20:12 Donc, j'ai oublié la deuxième partie de votre question.
20:15 Non, je disais qu'il faut qu'on apprenne à rater aussi.
20:17 Oui, alors c'est ça.
20:18 Le problème, c'est qu'il faut accepter l'échec.
20:21 Le problème, c'est qu'en Silicon Valley, on accepte l'échec.
20:24 Ça fait partie de l'apprentissage.
20:25 Ici, en France, on est un peu marqué dès qu'on échoue.
20:27 Qu'est-ce qui nous attend, Luc Julia ?
20:32 Juste, d'un mot, est-ce que vous pouvez l'imaginer puisque vous avez été un pionnier
20:36 et que vous êtes toujours l'un de ceux qui sont en prise avec ce qu'on crée en
20:41 matière d'intelligence artificielle ?
20:43 Est-ce que vous pourriez nous donner un petit aperçu de demain ?
20:47 Je ne suis pas de devant, mais ce que je peux dire, c'est que…
20:50 Non, mais c'est sur quoi vous travaillez ?
20:51 Aujourd'hui, ce qu'on peut dire, en tout cas, c'est que ces intelligences artificielles,
20:54 elles ne sont pas non plus clean clean, dans le sens où elles utilisent énormément
20:58 de données, comme on l'a dit, mais aussi énormément d'énergie.
21:00 Et donc, le futur, on sait très bien que ce n'est pas quelque chose qui est durable.
21:04 Il va falloir réduire un peu tout ça, être beaucoup plus frugal, beaucoup plus frugaux
21:09 dans la façon dont on crée ces modèles, la façon dont on utilise ces intelligences
21:12 artificielles, la façon dont on va pouvoir les choisir aussi.
21:15 Donc, la frugalité est quelque chose qu'il faut se récompenser.
21:19 Il y a une question aussi sur ces grandes entreprises qui finalement, c'est l'autorité
21:23 de la concurrence en France qui alerte.
21:25 Est-ce qu'elles ne vont pas détourner dans un sens tout ça à leur profit, puisque
21:28 c'est elles qui ont l'argent ?
21:29 Et ça peut donner des ventes groupées, des obstacles à l'accès aux données, des
21:32 références pour elles-mêmes, comme on a vu pour Google parfois aussi ?
21:36 Ça c'est possible.
21:37 Et justement, c'est là que moi je suis par anti-régulation.
21:39 Quand je disais tout à l'heure qu'il faut faire attention à ce que la régulation ne
21:42 coupe pas les ailes, mais en même temps, dans les applications, dans certaines façons,
21:45 dans certaines méthodes, il faut que la régulation soit là, le régulateur soit là pour empêcher
21:49 ces méthodes, par exemple, celles que vous venez de décrire.
21:52 Donc, il faut faire attention, mais il faut pour ça comprendre.
21:54 La chose essentielle, c'est l'éducation de base.
21:58 On ne demande pas à tout le monde de devenir un informaticien ou un data scientist ou quelque
22:02 autre, mais qu'on comprenne et que collectivement, on demande, parce qu'on a compris, on demande
22:06 à nos députés, aux gens qui font les lois, de faire les choses correctement.
22:10 Et qu'ils lisent, par exemple, Luc Julia et votre livre "L'intelligence artificielle
22:15 n'existe pas".
22:16 On va laisser le dernier mot, Luc Julia, à Pascal.
22:19 Pascal, qui vous remercie d'expliquer les biais, d'expliquer la sémantique, d'expliquer
22:25 si bien à toutes celles et ceux qui ne sont pas comme nous en train de baigner dans l'IA.
22:30 Merci de démystifier si bien.
22:32 C'est un beau compliment.
22:33 Oui, c'est exactement ce que je fais depuis des années.
22:37 J'essaye de faire ça parce qu'en rêver, il ne faut pas mentir.
22:40 Merci d'avoir été l'invité de France Inter ce matin, Luc Julia.

Recommandée