L'invité des Matins de France Culture.
Comprendre le monde c'est déjà le transformer, l’invité était Chloé Clavel_Gilles Babinet (07h40 - 08h00 - 23 Août 2022)
Retrouvez tous les invités de Guillaume Erner sur www.franceculture.fr
Comprendre le monde c'est déjà le transformer, l’invité était Chloé Clavel_Gilles Babinet (07h40 - 08h00 - 23 Août 2022)
Retrouvez tous les invités de Guillaume Erner sur www.franceculture.fr
Category
🗞
NewsTranscription
00:00 *Générique*
00:04 Les Matins de France Culture, Guillaume Erner.
00:06 Chat GPT, 1000 journées en matière d'intelligence artificielle.
00:10 On n'arrête plus le progrès.
00:12 Il semble d'ailleurs se bousculer le progrès.
00:14 Bonnes ou mauvaises nouvelles ?
00:16 En tout cas pour 1100 patrons de l'intelligence artificielle
00:21 ou de l'informatique ou du secteur de la technologie,
00:26 notamment aux Etats-Unis, c'est une mauvaise nouvelle.
00:29 Il faut faire une pause.
00:31 Et cette pause, elle est réclamée puisqu'on vient de parler de l'Italie,
00:35 dans ce pays où Chat GPT serait débranché de l'Internet.
00:41 On ne pourrait plus y avoir accès.
00:43 De plus en plus de voix s'élèvent pour dire qu'il faut agir
00:47 avant que ces systèmes nous grand-remplacent.
00:51 C'est la raison pour laquelle nous avons décidé d'en parler aujourd'hui
00:55 en compagnie de Chloé Clavel.
00:57 Bonjour.
00:58 Vous êtes professeur en intelligence artificielle à Télécom Paris Tech,
01:03 Gilles Babinet, vous êtes entrepreneur vice-président du Conseil du numérique,
01:06 conseiller de l'Institut Montagne sur les questions numériques.
01:10 Il s'est produit quelque chose d'étonnant, Gilles Babinet, avec Chat GPT,
01:13 c'est-à-dire qu'en très peu de temps, cette application qui était inconnue de la plupart
01:19 est devenue l'une des applications les plus utilisées au monde.
01:23 Alors, la plus utilisée peut-être pas, mais en tout cas ce qui est remarquable,
01:26 c'est qu'en seulement quatre mois, elle a dépassé les 100 millions d'utilisateurs
01:30 et ça n'était jamais arrivé.
01:31 C'est-à-dire que si vous prenez les réseaux sociaux qui ont eu le plus grand taux de popularité,
01:36 eh bien, ils ont mis plus de quatre mois pour atteindre ces 100 millions d'utilisateurs.
01:40 Donc, c'est une première mondiale.
01:42 Et puis, au-delà de ça, ça a été un choc parce que c'est la première fois
01:45 où tout un chacun pouvait voir concrètement la puissance que représentait l'intelligence artificielle
01:51 qui était finalement connue dans les laboratoires,
01:53 mais qui n'avait pas été diffusée à une telle échelle.
01:56 - Vous-même, est-ce que vous avez, est-ce que vous voulez signer cet appel
02:02 à faire une pause en matière d'intelligence artificielle ?
02:04 - Écoutez, je ne suis pas sur cette ligne parce que je pense que ces technologies
02:09 ont ce que j'appelle un coefficient de prolifération qui est extrêmement élevé
02:14 et que si certains s'arrêtent, ce n'est pas forcément les bons qui vont s'arrêter
02:19 et que les méchants vont continuer.
02:21 Excusez-moi d'être manichéen ainsi, mais je pense que ces technologies
02:25 sont très, très faciles à mettre en œuvre.
02:27 Et donc, c'est important que finalement, au sein des...
02:30 - Très facile, vous voulez dire, lorsque l'application existe ?
02:33 - Non, même pas.
02:34 Vous pouvez développer l'application vous-même très facilement,
02:38 c'est-à-dire avec un peu de connaissances en informatique et en intelligence artificielle.
02:43 Vous pouvez à peu près reproduire ce que fait Chet GPT à une plus petite échelle
02:48 et finalement le développer de façon différente pour faire, par exemple, des virus informatiques.
02:53 Et donc, ce qu'il faut, c'est qu'on ait en face, encore une fois,
02:57 mille excuses d'être aussi manichéen, mais des forces du bien,
02:59 c'est-à-dire des gens qui comprennent comment fonctionnent ces technologies
03:02 pour pouvoir contrer leurs effets néfastes.
03:04 - Bon, il va falloir que vous nous expliquiez ça, Claude Clavel,
03:07 parce que lorsqu'on nous dit que c'est simple à faire, évidemment, il y a de la surprise.
03:14 Il va tout d'abord falloir que vous nous expliquiez ce qu'est la spécificité de Chet GPT,
03:19 puisque l'intelligence artificielle n'est pas née en décembre de l'an dernier,
03:23 même si on a l'impression que quelque chose s'est produit.
03:26 Dites-nous, vous qui êtes professeur en intelligence artificielle,
03:29 en quoi ce programme est différent de ce qu'on avait eu auparavant ?
03:34 - Alors, ce n'est pas différent de ce qu'on avait l'habitude de manipuler
03:39 dans les laboratoires de recherche ou même, je pense, dans les entreprises.
03:44 La grosse différence a été, comme disait Gilles Babinet,
03:47 a été cette ouverture au grand public qui a permis à la fois de collecter des données,
03:54 de nouvelles données, de nouveaux problèmes,
03:56 donc d'améliorer aussi l'intelligence artificielle.
03:59 Parce qu'il ne faut pas oublier que dans ce type de modèle, le type Chet GPT,
04:03 il y a un rôle important de l'humain dans le développement de ces intelligences artificielles.
04:08 C'est-à-dire que c'est à la base des humains qui ont écrit les textes,
04:12 qui ont servi à entraîner ces modèles.
04:15 Sans ces humains, l'intelligence artificielle n'est pas performante.
04:19 - Mais alors, comment ça fonctionne ?
04:21 Parce que ce qu'il y a de très étonnant pour Chet GPT,
04:25 c'est que chacun voit que ce programme écrit, il n'écrit pas très bien,
04:29 ce n'est pas beau de l'air, mais enfin, il écrit des phrases qui ont un sens,
04:36 il peut même concevoir un texte qui a un sens.
04:39 Comment s'y prend-on pour fabriquer un robot conversationnel
04:43 qui peut écrire des phrases inédites ? Elles sont inédites.
04:46 - Oui, parce que ce qu'il y a derrière, c'est le rôle de l'humain et le rôle de la statistique derrière.
04:53 Certains de mes collègues utilisaient l'image du perroquet stochastique.
04:59 Donc l'idée, c'est que sur cette masse de textes et d'annotations aussi des humains,
05:04 va être calculée la probabilité d'un mot d'apparaître dans un certain contexte.
05:11 Et dans le cadre de, alors pour GPT 4, je ne sais pas, mais pour GPT 3,
05:15 c'est 2048 mots de contexte qui sont utilisés,
05:18 c'est-à-dire que jusqu'à 2048 mots, on prédit le mot d'après.
05:22 Donc c'est énormément de contextes et de fortes calculs qui sont déployés
05:25 pour pouvoir prédire ce mot étant donné ce contexte.
05:29 Ensuite derrière, il y a ces modèles de type transformers qui sont des architectures neuronales sophistiquées
05:35 qui permettent de porter l'attention au bon endroit dans le contexte.
05:40 Et donc ce qui fait que ces intelligences artificielles qui sont dites génératives
05:44 permettent de générer des textes en fonction d'un texte qui a été écrit
05:51 ou une question qui a été écrite par un humain.
05:53 - Ce qui est étonnant, c'est de voir que ce programme peut parler dans toutes les langues.
05:58 Je disais par exemple hier un article qui expliquait qu'on ne savait pas exactement
06:04 dans combien de langues Chadjipiti s'exprimait.
06:07 Alors expliquez-nous comment on peut concevoir un robot conversationnel sans même savoir
06:13 dans combien de langues il va réussir à s'exprimer.
06:16 - Alors le modèle prend cette masse de données et un grand nombre de langues différentes.
06:23 Et donc on a ce qu'on appelle des modèles multilingues qui vont essayer d'apprendre
06:27 ce qui va être commun, des mécanismes communs à l'ensemble des langues
06:32 pour pouvoir s'adapter plus facilement à une nouvelle langue.
06:36 Donc il y a cette capacité d'adaptation et de transfert en fait d'une connaissance
06:41 qu'on a apprise sur certaines données vers d'autres données
06:44 qui sont possibles par ces modèles-là.
06:48 - Il y a donc une application conversationnelle avec du texte
06:51 et il y a aujourd'hui la nouveauté dans la nouveauté si j'ose dire,
06:56 Chloé Clavel, c'est le fait qu'il y a aussi désormais des images.
07:00 - Oui, alors c'est la nouveauté dans GPT4, le fait que ça a été appris sur des images
07:10 et leurs titres, de manière à pouvoir apprendre des représentations communes
07:16 au texte et aux images et pouvoir ainsi apprendre à faire ce...
07:24 à apprendre la sémantique commune au texte et à l'image
07:27 et à passer ainsi du texte à l'image comme c'est le cas avec l'application Midourney.
07:34 - Et il y a aujourd'hui énormément bien sûr de perspectives dans le domaine de la technologie,
07:41 dans le domaine des applications industrielles ou même dans la bureautique.
07:46 Gilles Babinet, il y a par exemple la possibilité de faire en sorte que
07:51 cette intelligence artificielle soit mise au service d'applications bureautiques
07:56 qu'on utilise tous les jours, intégration dans Excel par exemple, tableur,
08:01 intégration dans les outils de tous les jours.
08:04 Les perspectives semblent extrêmement importantes voire aujourd'hui presque illimitées.
08:11 C'est ce qui, j'imagine, met en ébullition l'industrie de la technologie.
08:16 - Oui, exactement. Et c'est même, je pense, ce qu'on pourrait appeler un point de singularité économique.
08:21 On parle du point de singularité dans le domaine de l'intelligence artificielle
08:24 pour décrire le moment où les intelligences artificielles deviendraient avec une intelligence générale.
08:31 On n'en est pas là, on en est même relativement loin.
08:34 En tout cas, ce qui est vraisemblable, c'est que l'impact sur l'économie
08:38 qui est attendu depuis maintenant plus de 40 ans.
08:41 Il y a 40 ans, un économiste avait fait observer qu'on voyait des ordinateurs partout,
08:45 mais pas dans les statistiques économiques.
08:47 Et notamment parce que c'est compliqué de mettre en oeuvre les ordinateurs.
08:51 Avec cette forme de technologie, on voit effectivement que des problèmes de tous les jours,
08:58 quotidiens, qui sont extrêmement variés, peuvent être résolus très efficacement.
09:02 Et aujourd'hui, il y a par exemple une étude qui a été faite aux Etats-Unis
09:06 qui montre que la moitié des entreprises américaines qui ont effectivement mis en oeuvre
09:11 CHAT, GPT dans leur processus, ont réorganisé ces processus.
09:16 Ça ne veut pas dire qu'on s'est séparé des gens, mais ça veut dire qu'on les a fait travailler de façon différente.
09:22 Si vous avez des gains de productivité, vous aurez nécessairement un moment où il y aura des licenciements.
09:28 Tout à fait. C'est même le propre de la productivité.
09:31 Je vous remercie de le dire ainsi parce que je me tue à l'expliquer assez souvent.
09:35 La productivité, les gains de productivité sont totalement corrélés au fait d'avoir des pertes d'emploi d'une certaine manière.
09:43 C'est ça qui aujourd'hui est évidemment redouté.
09:46 Mais l'histoire économique nous montre qu'il y a vraiment un phénomène Schumpeterien,
09:50 c'est-à-dire que rapidement après, vous avez de nouvelles formes d'emploi qui se créent.
09:55 Et depuis l'origine de l'économie moderne, on a cette crainte ludiste de la disparition définitive de l'emploi.
10:02 - Rappelez-nous ce qu'est le ludisme. - Le ludisme, c'est un mouvement qui va s'étendre au début du 19ème siècle,
10:09 qui est le moment de l'apparition du métier à tisser automatisé,
10:14 et qui amène des gains de productivité extrêmement importants dans ce métier de tisserant.
10:19 Et qui va aboutir à un mouvement où on va casser, on va brûler les métiers à tisser.
10:24 Et ça restera dans l'histoire économique comme un mouvement extrêmement célèbre.
10:28 Alors est-ce qu'on va avoir des gens qui vont casser les intelligences artificielles ?
10:32 Je ne sais pas, mais je pense que c'est un moment qui est important,
10:36 parce qu'il va falloir organiser cette transition schumpeterienne.
10:39 Il y a un enjeu de politique publique, à mon avis, assez central.
10:42 Justement, Chloé Clavel, quand on dit que l'intelligence artificielle
10:46 est aujourd'hui à même de remplacer des individus.
10:49 Quand on prend un texte, par exemple, les journalistes font partie de ces professions
10:54 qui aujourd'hui est considéré comme étant visé par l'intelligence artificielle.
10:59 Alors, il se pourrait que pour produire effectivement un texte répétitif,
11:03 comme par exemple la météo ou les cours de la bourse, ce soit envisageable.
11:07 Pour le reste, est-ce qu'il est réellement impossible de distinguer un texte de bonne qualité
11:14 d'un texte qui serait écrit grâce à un programme d'intelligence artificielle ?
11:19 Alors, effectivement, le style de l'intelligence artificielle jusque maintenant était assez monotone.
11:25 Je crois que dans GPTK, justement, ils ont essayé de pallier ce manque de variabilité
11:32 dans le style de langue, donc d'essayer d'améliorer la manœuvrabilité du modèle
11:41 de manière à l'orienter vers différents styles.
11:44 Donc ça, c'est l'aspect style. Sur l'aspect créativité, il est encore difficile
11:49 de pouvoir demander à une intelligence artificielle d'être créative.
11:55 Par ailleurs, je pense qu'il y a aussi un problème dans la manière dont ces
12:01 intelligences artificielles sont construites, qui sont construites à partir des données,
12:04 donc qui ont besoin de cet humain comme modèle.
12:07 Donc sans les modèles de chroniques de journalistes ou les plaidoiries d'avocats,
12:11 elles ne sont pas capables de reproduire ces plaidoiries ou ces modèles
12:16 ou ces articles de journaux.
12:18 Mais là aussi, c'est assez mystérieux parce que vous nous dites que finalement,
12:22 la manière dont Chad GPT utilise les mots est une manière qui est régie par la statistique,
12:29 c'est-à-dire que le programme ne comprend pas les phrases qu'il écrit ou qu'il prononce.
12:34 Le programme utilise juste une suite de mots en raison de règles de probabilité.
12:40 Or, a priori, le fait d'écrire n'est pas régi par ces règles de probabilité.
12:46 Donc quelle manière peut-on utiliser pour que Chad GPT 4 soit plus créatif que Chad GPT 3 ?
12:53 Alors, avant, je voulais quand même signaler le côté vérifiabilité de ce qui est produit par GPT.
13:00 Pour l'instant, étant donné que l'opacité des modèles n'est pas un problème qui est résolu,
13:07 et ce n'est pas une direction dans laquelle ces gros modèles vont.
13:11 Qu'est-ce que vous appelez l'opacité d'un modèle ?
13:13 L'opacité d'un modèle, c'est-à-dire que ce sont des modèles où il y a 175 milliards de paramètres
13:18 pour GPT 3, pour GPT 4, je ne sais pas.
13:21 Et donc, c'est très difficile de voir l'information qui a été vraiment encodée dans ce modèle
13:26 et de pouvoir disséquer le modèle.
13:28 Donc, dans ce contexte, on ne peut pas vérifier que la réponse qui est fournie,
13:35 par exemple, si on vous demandait à GPT 4 de vous générer un article de journal,
13:41 on ne peut pas vérifier que ce qui a été écrit est vrai.
13:46 On s'est même rendu compte qu'il mentait.
13:48 Oui, et on ne connaît pas les sources.
13:50 Je dis qu'on s'est rendu compte qu'il mentait, par exemple, qu'il donne de fausses citations.
13:54 Alors, lui attribuer une intention de mentir, je pense que c'est vraiment...
13:59 C'est qu'il produit ce qu'il a vu et puis il produit ça de manière statistique
14:02 sans avoir comme les vieux modèles d'intelligence artificielle
14:06 où on avait des règles derrière qui permettaient de reproduire les raisonnements.
14:10 On pouvait reconstituer exactement tout le processus de génération qu'il y avait derrière.
14:15 - Gilles Bébinet ?
14:16 - Oui, je pense que c'est un sujet d'inquiétude vraiment premier.
14:19 C'est-à-dire le fait que, ne connaissant pas les informations sur lesquelles ces modèles ont été entraînés,
14:26 on a un gros doute sur leur véracité.
14:29 Et puis, il faut bien être conscient que lorsque nous interagissons avec ces machines,
14:34 on les alimente, en fait. Et on les alimente beaucoup.
14:37 Et il peut y avoir des gens pas forcément bien intentionnés
14:41 qui vont les alimenter d'informations fausses à des fins politiques, économiques, etc.
14:46 Et donc, c'est un gros biais...
14:47 - Donc ça, c'est le volet fake news dont on reparlera parce que c'est une grande inquiétude.
14:51 - Oui, oui, mais c'est quelque chose d'assez central.
14:54 C'est-à-dire que si votre modèle n'est pas pensé structurellement, en gouvernance,
14:59 pour éviter qu'on les alimente avec n'importe quoi,
15:02 ils vont être alimentés avec n'importe quoi et ils vont s'auto-intoxiquer.
15:05 Il faut bien être conscient que, dans une échelle de temps courte,
15:08 la majorité du contenu qui pourrait être sur Internet pourrait potentiellement être produit par ces machines.
15:13 Et donc, ça veut dire que la capacité qu'on aura de les ré-influencer positivement sera assez faible.
15:19 Donc, si vous créez des modèles, et c'est pour ça qu'on peut d'ailleurs appeler à des pauses potentiellement
15:23 dans le développement de ces technologies.
15:25 C'est-à-dire de se dire "Ok, on arrête là et on regarde les enjeux de gouvernance
15:29 parce que ce que vous faites, c'est n'importe quoi.
15:31 Vous pouvez tout aussi bien tuer l'Internet tel qu'on le connaît aujourd'hui".
15:34 C'est-à-dire avoir des photos de gens qui n'ont jamais existé, comme on les voit beaucoup,
15:39 des citations de Wikipédia qui sont fausses, etc.
15:42 Donc, c'est un problème premier.
15:44 - Et ça, effectivement, ça fait partie des nouveautés encore.
15:47 Je parlais des nouveautés nouvelles, mais c'est vraiment ça, Chloé Clavel.
15:50 Le fait de pouvoir générer des images en intelligence artificielle
15:54 qui sont tout simplement des images complètement fausses.
15:57 Là aussi, comment s'y prend-on ?
15:59 - Alors, c'est effectivement...
16:01 Il y avait d'abord l'application d'Ali, de OpenAI,
16:04 qui générait plutôt des peintures à partir d'un texte.
16:09 Donc, à l'intérieur, dans les données, ce sont des textes avec des images.
16:15 On apprend, dans Mise journée, du texte, on va générer une photo.
16:22 On va utiliser les capacités de compréhension de GPT-4
16:25 pour comprendre le descriptif du texte et ensuite générer la photo.
16:31 Le texte peut être très descriptif jusqu'à l'angle de vue.
16:34 Et GPT-4 peut aussi servir à générer le texte qui va générer la photo.
16:37 Donc, derrière tout ça, ce sont des représentations communes
16:41 de partage de sémantiques, comme je disais tout à l'heure,
16:43 entre l'image et le texte, qui permettent de faire tout ça.
16:45 - Mais c'est quand même, là aussi, compliqué de comprendre comment il s'y prend.
16:48 Alors là, il n'y a plus du tout de statistiques.
16:50 - Ah si ! Complètement ! C'est sur la masse de données.
16:53 C'est sur la masse de données, on apprend le mapping.
16:55 Comment ? La traduction, vous voyez, vous avez un ensemble de textes...
16:58 - Comment peut-il faire pour générer un texte qui génère une image,
17:02 sachant qu'il n'y a généralement pas de statistiques sur, je ne sais pas,
17:07 des textes demandant des générations d'images ?
17:10 - Non, mais vous avez une masse de textes, de photos sur Internet avec des titres.
17:14 - Oui, ils sont préentraînés sur ce rapport entre le texte et le titre.
17:17 - Et lorsqu'on lui demande, et ça aussi c'est quelque chose qui fait particulièrement trembler,
17:24 de créer une fausse image, par exemple un accident d'avion en Ukraine,
17:30 il est possible de le générer à partir de ces mêmes principes ?
17:33 - Oui, parce que derrière, GPTK va comprendre ce qu'on demande
17:37 et ensuite le traduire, pas dans une autre langue, mais dans une image,
17:42 traduire ce qu'il a compris du texte qu'on avait entré.
17:47 - On se retrouve dans quelques instants.
17:49 Chloé Calavelle, je rappelle que vous êtes professeure en intelligence artificielle à Télécom ParisTech.
17:54 Gilles Babinet, vous êtes entrepreneur et vice-président du Conseil du numérique.
17:59 On va voir donc à la fois quelles sont les perspectives de développement,
18:02 mais aussi les risques. On a commencé à parler des fake news,
18:05 on va voir comment on peut éventuellement les contrer,
18:08 même si celles-ci seraient générées par de l'intelligence artificielle,
18:12 et puis bien entendu les destructions d'emplois.
18:14 Il est 8h sur France Culture.
18:16 * 7h-9h, les matins de France Culture, Guillaume Erner. *
18:23 Perspectives, limites et risques de l'intelligence artificielle,
18:27 après un appel à la pause, appelé par plus de 1100 chefs d'entreprise,
18:35 ingénieurs, membres de la Silicon Valley.
18:39 Faut-il mettre sur pause l'intelligence artificielle ?
18:42 On en parle avec Gilles Babinet, entrepreneur, vice-président du Conseil du numérique,
18:47 conseiller de l'Institut Montaigne sur les questions numériques,
18:50 et Chloé Calavelle, professeure en intelligence artificielle à Télécom ParisTech.
18:55 Les questions morales ne peuvent pas être tranchées par l'intelligence artificielle, Chloé Calavelle.
19:00 Je le dis parce que sur votre fiche, il est dit que vous êtes professeure associée en informatique affective.
19:06 Qu'est-ce que c'est l'informatique affective ?
19:09 - Alors déjà, ça ne se traduit pas du tout comme informatique affective.
19:12 On parle d'affective computing en anglais, donc c'est l'informatique émotionnelle,
19:16 où l'idée c'est d'essayer de modéliser comment les émotions interagissent au sein d'une conversation.
19:22 Donc on a un objectif avant tout de compréhension.
19:25 Et ça c'est important aussi de souligner qu'on parle beaucoup d'intelligence artificielle en ce moment,
19:29 en parlant des intelligences artificielles génératives, mais pas des intelligences artificielles compréhensives.
19:34 Ça cache un peu toutes ces parties, et ce sont les mêmes modèles qui sont derrière.
19:36 - Expliquez-nous quelle est la différence entre les deux.
19:38 - C'est-à-dire que derrière ces modèles qui sont très performants pour effectivement générer des nouveaux textes,
19:42 ces mêmes modèles vont être utilisés pour essayer de comprendre les textes.
19:46 Par exemple, vous avez des modèles qui vont être utilisés à mauvais escient pour générer des fake news,
19:54 mais si vous essayez sur la masse des données qui sont disponibles sur internet,
19:58 de demander à un humain d'aller traquer l'ensemble des fake news,
20:02 il a besoin quand même de ces mêmes modèles pour aller essayer de traquer les fake news.
20:06 Donc c'est-à-dire que ces intelligences artificielles génératives,
20:11 ce sont les mêmes modèles qui derrière permettent de comprendre, de prédire et d'assister l'humain
20:17 dans sa tâche d'analyse et de compréhension de la société.
20:21 - Mais alors, est-ce que par exemple vous pourriez demander à l'intelligence artificielle de résumer un texte ?
20:25 - Oui, complètement. Oui, oui, oui. D'ailleurs, je crois que c'est un des usages favoris de ChatGPT,
20:30 c'est de faire une capacité de résumer des textes.
20:34 - Mais alors, ça c'est assez étonnant parce qu'on a l'impression que pour résumer un texte, il faut le comprendre.
20:39 Est-ce que le terme de compréhension a un sens en intelligence artificielle ?
20:43 - Alors, la machine va essayer de reproduire le processus de compréhension en ayant,
20:48 en ayant regardé, c'est comme les images tout à l'heure, les images et les titres des images,
20:52 en ayant regardé une masse de données d'images et de titres, là on regarde une masse de documents et leurs résumés.
20:57 Des résumés produits par des humains. Et l'intelligence artificielle va essayer de reproduire ce que fait l'humain
21:02 quand lui, il synthétise le texte. Donc c'est du mimétisme.
21:07 - Mais là aussi, comment expliquer cette forme-là de structuration de l'intelligence artificielle,
21:15 alors même que pour les êtres humains eux-mêmes, la manière dont ils se saisissent d'un sujet,
21:21 dont ils résument un texte, est encore largement mystérieuse ?
21:25 - C'est la masse de données et l'observation de cette masse de données qui essayent de disséquer.
21:29 Donc ce que je voudrais souligner aussi, c'est que justement, l'intelligence artificielle,
21:33 dans ses capacités d'analyse, et aussi parce qu'elle regarde un grand nombre de données,
21:37 qu'elle est capable de manger cette quantité de données,
21:39 elle est capable aussi d'analyser, d'essayer de reproduire le processus décisionnel,
21:43 et également en limitant, mais aussi de faire ressortir les biais de jugement humain.
21:48 C'est-à-dire qu'en créant des modèles qui essayent de reproduire le processus humain,
21:53 on peut jouer avec ces modèles, faire des protocoles expérimentaux,
21:57 qui peut essayer de faire ressortir des biais.
21:59 Donc on peut voir que par exemple, il y a des stéréotypes de genre dans le modèle,
22:03 parce que ces stéréotypes de genre étaient présents dans les données à la base.
22:08 Dans les recrutements, on peut essayer d'identifier des biais de recrutement,
22:12 parce que les recruteurs peuvent avoir des biais de recrutement.
22:14 Donc en fait, elle nous apprend aussi sur nous-mêmes.
22:16 Donc elle a un pouvoir d'objectivation qui est très important.
22:19 Et donc ça, c'est quelque chose que je voudrais souligner,
22:22 parce que ce qui est mentionné dans ce moratoire sur l'intelligence artificielle,
22:27 ce n'est pas une pose de l'intelligence artificielle en général,
22:30 c'est une pose de l'intelligence artificielle sur ces types de modèles opaques.
22:34 Et ils préconisent de mettre les efforts vers des intelligences artificielles
22:40 qui soient transparentes et responsables,
22:42 et qui s'occupent de réfléchir à comment cette intelligence artificielle
22:47 peut s'intégrer de manière bonne dans la société.
22:51 Alors la pose, pour le moment, elle est demandée, mais elle n'est pas obtenue.
22:55 - Et Gilles Babinet, il y a eu une annonce extrêmement spectaculaire.
23:01 Microsoft investirait 10 milliards de dollars dans OpenAI,
23:05 autrement dit, cette société qui a développé ChatGPT.
23:09 10 milliards, c'est le PIB d'un petit pays.
23:12 C'est quelque chose d'extrêmement abstrait.
23:14 Qu'est-ce que ça veut dire d'investir 10 milliards dans une technologie ?
23:17 - Vous êtes dans le propre de cette économie numérique
23:20 qui fonctionne par innovation de rupture.
23:23 C'est-à-dire où vous avez des gens qui arrivent et qui, en quelques mois,
23:28 peuvent faire vaciller des géants, comme par exemple Google.
23:33 Et là, c'est ce qu'a vu Microsoft, ils se sont dit.
23:36 - Pourquoi ? Parce que Google pourrait être gêné par l'arrivée ?
23:41 - Le sujet, c'est potentiellement de passer au-delà du moteur de recherche.
23:46 Alors le moteur de recherche que nous utilisons tous,
23:48 en particulier Google, en France, qui a, je crois, 94% de parts de marché,
23:52 eh bien, on voit bien que plutôt que de poser 50 questions,
23:56 pour faire par approximation, essayer de cerner un peu le sujet,
24:00 lorsque, par exemple, on travaille sur une copie de cours,
24:03 eh bien, en une question ou quelques questions avec ChatGPT,
24:08 on va beaucoup plus vite.
24:10 Donc il y aurait, pas pour tout, mais pour un certain nombre de requêtes,
24:13 la possibilité de substituer ChatGPT au moteur de recherche classique.
24:18 Et c'est une très grande opportunité parce que ce marché-là,
24:21 vous le voyez à la valorisation de Google, qui doit valoir 1 500 milliards de dollars,
24:26 eh bien, il a une très très grande valeur.
24:29 Et finalement, en mettant 10 milliards de dollars,
24:32 l'opportunité pour Microsoft, c'est potentiellement de reprendre,
24:36 excusez-moi pour l'anglicisme, le leadership sur ce sujet.
24:41 C'est comme ça que fonctionne l'économie du capital risque dans la Silicon Valley.
24:45 C'est leur possibilité, finalement, d'être les premiers à accéder à cette nouvelle forme de technologie
24:52 et également d'accéder à cette communauté de 100 millions d'utilisateurs qu'a développée ChatGPT.
24:59 Mais d'un autre côté, d'ores et déjà,
25:03 Google, par exemple, avec son application de messagerie,
25:06 utilise déjà l'intelligence artificielle ?
25:09 Oui, de toute façon, vous savez, l'intelligence artificielle,
25:12 ce que vous voyez avec ChatGPT, c'est son application la plus spectaculaire.
25:16 Mais la plupart de vos apps dans votre téléphone mobile
25:19 utilisent à mains égards, pour différentes choses,
25:22 parfois pour des fonctions qui sont plutôt du côté de l'administrateur,
25:25 parfois pour vous, pour vous simplifier, par exemple,
25:28 quand vous faites des fautes d'orthographe, ça corrige,
25:30 c'est une forme rudimentaire d'intelligence artificielle.
25:33 Bon, et donc, on a pris l'habitude d'avoir ça absolument partout.
25:36 Mais là, c'est quelque chose qui est plus élaboré
25:40 et qui fait qu'on répond à des usages qui sont absolument partout,
25:43 totalement disséminés dans l'ensemble de l'économie et de la société.
25:46 Mais alors, intégrer, par exemple, l'intelligence artificielle
25:49 dans un tableur, dans Excel, qu'est-ce que ça veut dire ?
25:51 Qu'est-ce que vous auriez la possibilité de faire ?
25:53 Eh bien, imaginez que vous soyez le président d'une association de pêche,
25:57 par exemple, vous êtes soumis à l'obligation de présenter des budgets
26:00 à vos membres une fois par an.
26:02 C'est quelque chose qui est extrêmement rasant,
26:04 parce que vous ne savez pas vous servir d'Excel.
26:06 Là, vous pourriez dire, eh bien, j'envisage qu'on va avoir
26:09 500 nouveaux membres, qu'on va acheter une cabane à pêche, etc.
26:14 Et ça va potentiellement vous faire le tableau Excel,
26:18 en vous disant, eh bien, voilà, le coût d'une cabane à pêche s'étend,
26:21 donc je l'ai mis, je l'ai amorti sur 12 mois, etc.
26:24 Et donc cet exercice pour lequel vous n'êtes absolument pas rompu,
26:26 qui est compliqué pour vous, sur lequel vous mettez généralement des semaines,
26:30 vous pouvez le faire en quelques dizaines de minutes, de cette façon-là.
26:33 Ce dont je vous parle, c'est concrètement ce qu'on voit aujourd'hui
26:36 avec la façon dont Microsoft a intégré ces technologies dans Excel.
26:41 Ce qui veut dire qu'il y a un risque pour cette association de pêche
26:45 de se séparer de son comptable.
26:48 Oui, mais si vous voulez, cette peur, elle est millénariste.
26:55 C'est-à-dire qu'à chaque fois qu'on a eu des nouvelles technologies,
26:58 on a dit, voilà, c'est la fin de l'emploi.
27:00 La fin de l'emploi, pas forcément, mais en tout cas, la fin de cet emploi,
27:04 c'est quasiment certain.
27:06 Vous savez, quand on a construit la Watchman Fair qui va de Boston à San Francisco,
27:09 on a fait disparaître 700 000 emplois.
27:11 Les gens qui avaient des diligences, etc.
27:15 Bon, et on a dit, mais c'est un drame, etc.
27:17 On a recréé de très, très nombreux emplois derrière.
27:20 Donc, à chaque fois qu'on a eu des nouvelles,
27:23 quand les ordinateurs sont arrivés dans le métier des comptables
27:25 que vous décriviez à l'instant, on a dit, c'est la fin des comptables.
27:28 On l'a dit pendant 50 ans.
27:30 Bon, il n'y a jamais eu autant de comptables, je veux dire, qu'aujourd'hui.
27:33 Parce qu'on leur demande plus de choses.
27:35 Et on va leur demander plus de choses.
27:37 Donc, je n'ai pas cette inquiétude.
27:39 Par contre, il va y avoir très clairement un frottement choumpétérien important.
27:42 Un frottement choumpétérien, vous voulez dire ?
27:44 C'est-à-dire, une disparition d'emplois sous leur forme actuelle.
27:47 Chloé Clavell, justement, vous qui êtes professeure d'intelligence artificielle,
27:52 est-ce que d'abord, vous partagez cette crainte ?
27:54 Est-ce que lorsque l'on travaille dans ce domaine-là,
27:57 on se dit, on va supprimer des emplois ?
27:59 Alors, moi, de mon point de vue chercheuse,
28:02 je dirais que je cherche à travailler sur des applications
28:05 où l'intelligence artificielle va mettre l'humain au centre,
28:10 dont va venir aider, assister, épauler l'humain dans des tâches
28:15 qui peuvent être pénibles.
28:17 Donnez-nous des exemples.
28:19 Par exemple, moi, je travaille aussi beaucoup sur des applications liées à l'éducation.
28:24 Donc, chercher à développer des systèmes qui aident les personnes à s'entraîner.
28:29 Par exemple, s'entraîner à la prise de parole en public.
28:32 On est sur un projet de recherche sur ce sujet.
28:34 Donc, aider les personnes à s'entraîner à la prise de parole en public.
28:37 Comment ça fonctionne ?
28:38 C'est-à-dire que l'intelligence artificielle, derrière,
28:40 va disséquer la manière dont la personne a parlé,
28:42 chercher les indices qui sont liés à l'intonation de sa voix,
28:44 à ses gestes, à ses expressions faciales,
28:46 et aux textes, aux mots qui ont été choisis,
28:49 qui font que la prise de parole en public a été jugée bonne
28:54 ou moins bonne par des personnes.
28:56 Ce qui est de disséquer le processus de perception.
28:59 Ce sont des applications où l'intelligence artificielle va aider l'humain à mieux comprendre.
29:07 Il y a vraiment des usages où l'humain ne pourra jamais avoir accès
29:12 à autant de données que l'intelligence artificielle.
29:15 Donc, autant exploiter ça et venir ainsi épauler l'humain
29:19 dans ses capacités d'analyse et développer ses capacités d'analyse.
29:22 Ça, c'est mon point de vue de chercheuse.
29:23 Et c'est les directions dans lesquelles je pense qu'il faut mener la recherche.
29:26 - Et alors, a contrario, est-ce que vous dites qu'il y a des domaines, Chloé Clavel,
29:30 où là, à coup sûr, l'humain ne pourra pas être remplacé ?
29:34 Ou est-ce que, je ne sais pas, en intelligence artificielle,
29:36 on est dans la toute-puissance en ce moment ?
29:38 On se dit que finalement, l'être humain, c'est quelque chose qui est daté
29:42 et qui va pouvoir être largement dépassé ?
29:46 - Alors, on a encore, sur certaines tâches,
29:48 notamment sur le fait de voir si la machine est capable de reproduire des raisonnements logiques.
29:54 Il y a encore une capacité de la machine qui est limitée
29:58 à reproduire des raisonnements logiques poussés.
30:01 On a également, sur la partie émotionnelle,
30:05 la capacité de la machine à bien comprendre les contextes émotionnels,
30:09 comprendre toute la diversité, toute la complexité des phénomènes.
30:14 Donc, moi, c'est les deux choses sur lesquelles on a encore du mal.
30:19 Je ne sais pas comment les systèmes vont évoluer,
30:23 mais ce qui est sûr, c'est que s'ils continuent d'évoluer vers de l'opacité,
30:26 et au détriment de la transparence, c'est-à-dire de la possibilité de comprendre ces modèles,
30:32 on va vers quelque chose qui n'est pas la bonne direction.
30:35 Et c'est ce que j'aime bien dans ce moratoire, c'est le fait de se dire,
30:39 attention, l'intelligence artificielle n'est pas que ça,
30:41 et l'intelligence artificielle doit aller vers quelque chose de responsable et de transparent.
30:46 - Gilles Babinet, dans le domaine des affaires aujourd'hui,
30:49 quelles sont les utilisations de l'intelligence artificielle qui sont les plus valorisées,
30:55 peut-être aussi, selon vous, les plus prometteuses pour l'avenir ?
30:59 - Écoutez, il y a une liste qui a été faite par différents cabinets d'études aux Etats-Unis.
31:04 On parle de 70 métiers qui sont particulièrement exposés aux IA.
31:09 Je pense que l'exemple qu'on donne le plus, par exemple,
31:12 c'est celui de ce qu'on appelle l'opinion juridique faite par un avocat.
31:16 Vous avez un contentieux et vous cherchez à savoir si la loi est en votre faveur ou pas.
31:21 Et vous avez, par exemple, en France, beaucoup de droits.
31:24 Vous avez la jurisprudence, le droit commun, et puis vous avez le droit européen.
31:28 Ça vous fait un agrégat de cela, de façon extrêmement efficace,
31:32 avec un niveau de certitude qui est relativement élevé,
31:34 puisque lorsqu'on prend GPT-4 et qu'on le met sur les exercices qui permettent de passer le barreau américain,
31:41 on est dans les 10% des meilleurs élèves.
31:43 Donc ce genre de choses va évidemment se répandre extrêmement vite.
31:47 Ça doit déjà être le cas, à mon avis, dans les cabinets d'avocats.
31:50 Je vais vous dire, moi j'ai déjeuné avec un ami qui a un cabinet d'avocats de 400 personnes,
31:56 et qui m'a dit "je peux demain me passer de un quart de mes avocats".
32:01 Vous allez me dire "vous voyez, c'est bien ce qu'on disait, c'est de la destruction nette d'emploi".
32:06 Mais encore une fois, je pense que ce qui va se passer, c'est une forme de course aux armements.
32:10 C'est-à-dire qu'on va avoir une sophistication du droit qui va se développer de façon forte.
32:15 J'ai été au conseil d'administration de ce qu'on appelle un des "Big Four",
32:22 une des très grandes firmes de conseil, et j'ai siégé dans ce conseil pendant 8 ans.
32:29 Et on a eu de cesse de me dire "ah oui, mais l'intelligence artificielle arrive, les ordinateurs arrivent".
32:35 La réalité, c'est que nos effectifs croissaient de 10% par an.
32:39 Donc encore une fois, cette expérience m'a montré que la technologie était plutôt une façon d'accroître
32:45 la valeur ajoutée qu'on pouvait amener à nos clients de ce fait.
32:48 Donc il est vrai qu'on va avoir des destructions nettes d'emploi.
32:54 Et je pense qu'à cet égard, les cabinets d'études qui travaillent sur ces sujets ne se trompent pas.
33:00 Aux Etats-Unis, par exemple, vous avez 15 millions de personnes qui travaillent directement dans le monde du transport,
33:05 et 25 millions qui sont associés à ce monde du transport.
33:08 Dès lors que vous avez la capacité de conduire un camion de façon autonome,
33:12 et que vous pouvez vous séparer du conducteur, vous avez des destructions nettes d'emploi à cet égard.
33:17 On va avoir ce genre de choses, mais je dirais qu'on va l'avoir aussi à un moment
33:22 où on veut des supply chain qui soient plus ce qu'on appelle de l'économie circulaire,
33:26 et qui a un coût important en termes de transport, etc.
33:29 En réalité, face aux problèmes qui se présentent à nous, comme celui de l'environnement,
33:35 nous avons besoin de gains de productivité.
33:38 Face aux problèmes des retraites, les gens ne veulent pas travailler plus d'années, etc.
33:43 On a besoin de gains de productivité.
33:45 Donc c'est réellement une bonne nouvelle, et il faut le répéter,
33:49 et éviter d'avoir cette peur de quelque chose qui n'est pas contrôlé,
33:53 comme cette absence de source.
33:56 À mon avis, les deux craintes, c'est la peur et l'absence de gouvernance de saisir.
34:02 Donc pour vous, il y a une opportunité à saisir.
34:05 L'autre risque dont on parlait, Chloé Clavell, c'est le risque des fake news.
34:08 La possibilité pour ces intelligences artificielles aujourd'hui de générer de fausses images.
34:14 Je ne sais pas, une rencontre entre Zelensky et Ben Laden,
34:20 on peut tout imaginer dans ce domaine-là.
34:22 Mais en tout cas, lorsqu'on est confronté à cette image,
34:25 à la manière dont les images circulent de façon virale sur les réseaux sociaux,
34:30 on est face à une image dont on ne peut plus détecter si elle est vraie ou fausse.
34:35 Il y a donc quelque chose d'idédit.
34:38 Alors, effectivement, l'image générée, au début on pouvait les détecter
34:42 parce qu'on voyait qu'il y avait sept doigts.
34:44 Donc ça faisait partie des choses.
34:47 Mais je crois que ça a été corrigé.
34:48 Donc petit à petit, ça s'améliore de plus en plus.
34:51 Donc il faut aussi développer des méthodes derrière qui vont essayer de traquer ces images.
34:58 Moi, je ne connais rien en traitement de l'image.
35:01 Je ne vais plus te parler du texte.
35:03 Donc en tout cas, traquer des erreurs de raisonnement dans les textes,
35:06 traquer de la désinformation, traquer le fake news, traquer du cyber harcèlement,
35:11 c'est des recherches qui sont menées actuellement aussi.
35:14 Pour rebondir aussi sur...
35:15 En tout cas, sur le domaine des textes, par exemple, ce que l'on sait,
35:18 c'est que Chachipiti est protégé d'un certain nombre de choses.
35:23 Par exemple, vous ne pouvez pas lui demander comment on fabrique une bombe,
35:26 mais il y a d'ores et déjà des méthodes qui sont utilisées pour détourner ces protections.
35:31 Oui, alors ce qui se passe, c'est que c'est un apprentissage par renfortement,
35:34 par un retour humain.
35:35 Donc c'est un humain derrière qui a dit oui, non, oui, c'est bien, non,
35:38 c'est pas bien de générer ces choses-là.
35:39 Et donc derrière, ils apprennent, ils rédrigent le modèle vers quelque chose qui est jugé correct.
35:45 Donc ça peut être fait tout le temps, cet apprentissage par renforcement,
35:49 mais c'est de la correction à postérioriser en permanence,
35:52 au lieu de réfléchir à des modèles dont on puisse contrôler vraiment la prédiction ou la génération en amont.
35:59 Il y a cette question aussi de la vérifiabilité, je voudrais dire,
36:02 pour ces histoires de génération, de plaidoiries,
36:06 c'est qu'on a encore du mal à retourner aux sources.
36:09 Donc ça, c'est à l'heure actuelle, je pense que des systèmes ne sont pas utilisables tels quels,
36:14 parce qu'on ne vérifie pas la réponse, on ne peut pas vérifier la réponse,
36:17 on ne peut pas savoir quelle est la source qui a permis à Chadjipeté de générer cette réponse-là.
36:22 C'est-à-dire, vous ne savez pas, c'est-à-dire, il ne cite pas ses sources.
36:26 Exactement, la manière dont il les construit n'est pas faite pour.
36:29 Mais il y a d'autres systèmes d'intelligence artificielle qui, en recherche d'informations...
36:32 Qui fait du plagiat.
36:34 Alors, il essaye de reproduire quelque chose de probable, quelque chose de crédible, quelque chose de probable.
36:39 Mais pas d'aller sourcer, chercher l'information dans les sources.
36:43 Et pouvoir retirer la source, et c'est cette information-là qui m'a permis de dire ça.
36:47 Donc, vous pouvez faire confiance à cette information.
36:50 Impossible de faire confiance à une information qui sort de Chadjipeté à l'heure actuelle.
36:53 Gilles Babinet, vous êtes co-président du Conseil du numérique,
36:56 et vous êtes aussi entrepreneur. La France, comment se situe-t-elle dans ce domaine-là ?
37:00 Donc, on a un retard important dans le domaine du numérique,
37:04 puisque aucun des gars femmes n'est français. Est-ce qu'on pourrait combler ce retard ?
37:08 Écoutez, c'est vraiment étonnant, parce que moi, j'ai un copain qui revient de OpenAI,
37:16 donc qui a été passé à un entretien d'embauche, malheureusement, je crois, infructueux pour lui, pour l'instant.
37:22 Et qui me disait qu'il est rentré dans les locaux d'OpenAI,
37:26 qu'il était très surpris parce qu'il a retrouvé plein d'amis qu'il connaissait, qu'il avait rencontrés à Normal auparavant.
37:32 Et c'est vrai également de Lama, qui est la technologie un peu qui fait face à GPT.
37:41 Et c'est absolument dominé par les Français.
37:45 C'est bien, mais c'est des Français qui sont à l'étranger.
37:47 Exactement. Alors, le problème, c'est que ce sont des technologies qui sont faites par des Français,
37:51 mais qui sont faites par des Français à l'étranger.
37:53 Chloé Clavel, est-ce que vous, en tant que chercheuse, vous estimez que la France est bien placée aujourd'hui dans ce domaine ?
38:01 Alors, la France n'a pas forcément les moyens, en termes de recherche académique,
38:08 de pouvoir travailler sur des modèles qui soient aussi gros que ceux qui sont développés.
38:15 Par contre, nous, les laboratoires académiques français,
38:18 ont compris cette importance de travailler sur des modèles transparents,
38:23 des modèles frugaux, qui n'utilisent pas trop de ressources informatiques.
38:29 Et donc, continuent ces recherches dans ces directions.
38:31 Après, question des moyens, qui est une autre question.
38:33 Ça veut dire qu'il y a quand même des entreprises, Gilles Babinet, qui travaillent dans ce domaine-là en France ?
38:38 Oui, alors là, il y a un vrai réveil, je pense, du monde des startups,
38:42 parce qu'on essaye de stimuler cette technologie.
38:45 Je pense que c'est quelque chose que les gouvernements successifs ont tâché de faire depuis une dizaine d'années.
38:51 Et c'est bienvenu, parce que c'est finalement le pouvoir de demain.
38:56 Maintenant, si vous voulez, par habitant, par rapport aux États-Unis,
38:59 la France est cinq fois moins investie dans le capital risque.
39:03 Donc, ça fait un rapport de 1 à 30 à l'échelle des pays.
39:07 Donc, il y a un très, très gros différentiel.
39:09 Il faut essayer de le combler.
39:11 Et puis, je pense qu'au-delà de ça, il faut absolument éviter de faire, de recopier les technologies.
39:19 Ce qu'il faut, c'est aller, il faut éviter de faire quant' en d'autres termes.
39:22 C'est-à-dire faire du montant de recherche.
39:24 Un moteur de recherche français qui, finalement, a été un peu moins utilisé que Google.
39:29 Et la France, dans le domaine de l'intelligence artificielle, Chloé vient de le dire,
39:32 il y a plein d'opportunités sur lesquelles on peut aller, on est fort,
39:36 qui sont probablement des technologies de demain dans l'IA.
39:39 Merci beaucoup, Gilles Babinet.
39:41 Je rappelle que vous êtes coprésident du Conseil du numérique, entrepreneur et conseiller de l'Institut Montaigne sur les questions numériques.
39:47 Chloé Clavel, vous êtes professeur en intelligence artificielle à Télécom Paris Tech.