Les Vraies Voix responsables avec Laurent Alexandre, médecin et essayiste, Jean-Gabriel Ganascia, professeur à la faculté des sciences de la Sorbonne Université et chercheur au lip6, Nathan Bonnet, fondateur de PolymnIA.
---
Abonnez-vous pour plus de contenus : http://ow.ly/7FZy50G1rry
———————————————————————
▶️ Suivez le direct : https://www.dailymotion.com/video/x75yzts
Retrouvez nos podcasts et articles : https://www.sudradio.fr/
———————————————————————
Nous suivre sur les réseaux sociaux
▪️ Facebook : https://www.facebook.com/SudRadioOfficiel
▪️ Instagram : https://www.instagram.com/sudradioofficiel/
▪️ Twitter : https://twitter.com/SudRadio
▪️ TikTok : https://www.tiktok.com/@sudradio?lang=fr
##LES_VRAIES_VOIX_RESPONSABLES-2023-09-20##
---
Abonnez-vous pour plus de contenus : http://ow.ly/7FZy50G1rry
———————————————————————
▶️ Suivez le direct : https://www.dailymotion.com/video/x75yzts
Retrouvez nos podcasts et articles : https://www.sudradio.fr/
———————————————————————
Nous suivre sur les réseaux sociaux
▪️ Facebook : https://www.facebook.com/SudRadioOfficiel
▪️ Instagram : https://www.instagram.com/sudradioofficiel/
▪️ Twitter : https://twitter.com/SudRadio
▪️ TikTok : https://www.tiktok.com/@sudradio?lang=fr
##LES_VRAIES_VOIX_RESPONSABLES-2023-09-20##
Category
🗞
NewsTranscription
00:00 19h20, les vrais voies responsables.
00:03 Bienvenue dans les vrais voies responsables, on est ravis de vous accueillir.
00:07 On va parler intelligence artificielle, aujourd'hui on va parler emploi.
00:11 Écoutez ce témoignage, c'était Denis ce matin chez Patrick Roger et dans Sud Radio vous explique.
00:16 Il va y avoir des parts, des licenciements qui devraient s'étaler au cours du premier semestre de l'année prochaine.
00:23 Une armada technologique qui devrait donc remplacer effectivement l'humain pour trier, sélectionner, hiérarchiser l'information.
00:31 Les synthèses de presse qui sont faites pour des clients qui sont connus dans les TAC 40.
00:36 Le coup est dur en soi et je ne doute pas que pour la médecine ou d'autres domaines comme ça c'est complètement...
00:42 Ou même peut-être pour l'automobile pour calculer les choses, pour le spatial on ne dit pas le contraire.
00:46 Après là ce qui se passe c'est que nous travaillons sur du sens nous.
00:50 Et nous travaillons sur du sens nous. On va parler de cette intelligence artificielle au sommaire de cette émission.
00:55 Donc face à l'émergente, fulgurante de l'intelligence artificielle, le monde du travail se trouve donc à un carrefour décisif.
01:02 Un espoir de nouvelles perspectives et des appréhensions aussi liées à ces changements inédits.
01:07 Et alors que l'IA promet de créer de nouvelles professions, la disparition potentielle de certaines activités traditionnelles éveille forcément les inquiétudes.
01:15 Oui, Elisabeth Borne a annoncé le lancement d'une commission d'experts sur l'IA générative pour étudier les opportunités et risques.
01:22 Face aux interrogations concernant son impact sur divers secteurs, comme le travail et l'éducation, le gouvernement souhaite prendre des mesures éclairées.
01:30 Alors quels sont donc les véritables défis à relever dans ce bouleversement technologique ?
01:34 Dans quelles mesures l'IA peut-elle vraiment remplacer le travail humain ? Et où se situe la limite s'il y en a une ?
01:40 Et l'IA pourrait-elle contribuer à réduire les inégalités professionnelles par exemple ou au contraire les exacerber ?
01:46 Et comment assurer une transition équitable pour les travailleurs des secteurs les plus susceptibles d'être automatisés ?
01:51 Y a-t-il des domaines professionnels où l'IA ne devrait pas s'immiscer pour des raisons d'éthique et morale ?
01:57 On va en parler avec nos invités ce soir avec Laurent Alexandre qui est avec nous, médecin et essayiste,
02:03 auteur des livres "La guerre des intelligences, intelligence artificielle versus intelligence humaine" et "La guerre des intelligences" à l'heure de Tchad GPT,
02:10 les deux publiés chez Jean-Claude Lattès. Bonsoir Laurent Alexandre, merci d'être avec nous.
02:16 Bonsoir.
02:17 Jean-Gabriel Ganassia, professeur à la faculté des sciences de la Sorbonne Université et chercheur au LIPSIS, laboratoire d'informatique de Paris 6. Bonsoir.
02:27 Bonsoir et je me permets quand même de dire que je suis aussi essayiste et que mon dernier essai s'intitule "Servitude virtuelle"
02:34 ce qui me semble être exactement la problématique de ce soir.
02:38 Absolument et Nathan Bonnet qui est avec nous, bonsoir, merci d'être avec nous, fondateur de Polymia,
02:43 la première intelligence artificielle de correction à la prise de parole publique, directeur de l'observatoire IA et éthique chez Sapiens
02:50 et gérant de l'incubateur Polycup spécialisé dans les startups de l'IA. Bonsoir, merci d'être avec nous.
02:56 Et on va démarrer tout de suite sur cette compréhension finalement de l'intelligence artificielle qui est cruciale
03:02 dans un monde où on est de plus en plus automatisé et je vais m'adresser directement à vous peut-être Laurent Alexandre,
03:09 pour ceux qui nous écoutent, mais qu'est-ce qu'est réellement l'intelligence artificielle aujourd'hui ?
03:15 Alors l'intelligence artificielle c'est un ensemble disparate de logiciels qui essaient d'émuler, d'imiter le fonctionnement de notre cerveau
03:24 sur des fonctions limitées comme la vision, le mouvement, mais parfois sur la compréhension plus globale de l'intelligence humaine.
03:33 C'est le cas des nouveaux réseaux de neurones qu'on appelle les LLM qui ont la particularité de très bien maîtriser le langage humain,
03:40 c'est-à-dire de le comprendre, de le synthétiser et d'être capable de discuter avec des humains.
03:46 Jean-Gabriel Gabouche, pardon, allez-y Laurent Alexandre.
03:49 Le choc des LLM, il a été fort quand chaque GPT 3.5 est sorti le 30 novembre 2022,
03:59 les gens ont été très étonnés de la très bonne maîtrise du langage humain et de la réflexion humaine,
04:05 même si cette intelligence artificielle n'est absolument pas consciente.
04:09 Vous voyez, ce que fait GPT 4 en médecine, et bien le 29 novembre 2022, la veille de la sortie de chaque GPT 3,
04:19 je n'imaginais pas qu'une intelligence artificielle puisse faire ça avant 2040, 2050.
04:25 Ce qui est important de rappeler, pardon.
04:26 De prendre un dossier médical avec de l'argode, du patois, des abréviations,
04:33 et de le transformer en un diagnostic médical, c'est quelque chose qui me semblait nécessiter plusieurs décennies.
04:40 Aujourd'hui, GPT 4 le fait très bien, et cette semaine on s'est rendu compte par exemple
04:45 qu'un gamin qui avait été vu par les 17 meilleurs spécialistes américains de la douleur
04:49 et qui n'avait pas fait le diagnostic, sa maman est allée sur GPT 4, qui a fait le diagnostic en 10 secondes.
04:55 C'est quelque chose qui était impensable il y a deux ou trois ans.
04:58 Jean-Gabriel Ganasias, c'est important d'expliquer, parce que tout le monde ne sait pas ce que c'est que chaque GPT,
05:02 on en a beaucoup entendu parler, mais c'est important aussi d'expliquer ce que c'est,
05:06 ce que ça peut révolutionner aujourd'hui.
05:09 Alors d'abord, peut-être précisons ce qu'est l'intelligence artificielle.
05:13 Car ça n'est pas simplement un ensemble disparate de logiciels,
05:16 et ça ne sert pas uniquement à brûler le cerveau.
05:20 C'est d'abord une discipline scientifique qui a un certain âge, elle est née en 1956,
05:24 et son but c'est de simuler les différentes facultés cognitives.
05:30 Ça peut être la mémoire, ça peut être la perception,
05:34 par exemple la reconnaissance des formes, la reconnaissance des visages,
05:37 la reconnaissance de la parole, ça peut être le raisonnement,
05:40 et ça peut être effectivement le langage.
05:43 Et dans ces différentes techniques, on a fait des progrès considérables en 67 ans,
05:51 petit à petit, et les derniers progrès sont liés à l'utilisation de ce qu'on appelle les réseaux de neurones formels,
05:56 qui ont assez peu de rapports avec ce qui se produit dans le cerveau.
05:59 Ce sont des automates qui sont connectés entre eux,
06:02 et ce qu'on est capable de faire aujourd'hui,
06:04 c'est de faire apprendre des automates avec un nombre considérable de connexions entre eux.
06:10 Ils ont des centaines de milliards de connexions,
06:12 et on les entraîne de différentes façons.
06:14 On peut les entraîner à générer automatiquement des images,
06:17 c'est ce qu'on fait avec les réseaux adversariaux,
06:19 ce qui donne les fake news qu'on connaît aujourd'hui, qui sont impressionnantes.
06:23 Et puis, la dernière chose, ce sont les modèles de langage,
06:26 qui sont nés en 2017, c'est l'associé Google qui l'a mis au point,
06:31 avec une notion qui est la notion de transformeur.
06:34 D'ailleurs, vous voyez, quand on parle de GPT, le T veut dire transformeur,
06:36 mais avant GPT, il y a eu en 2019 le premier modèle de langage qui s'appelait BERT.
06:43 Il y a des déclinaisons dans différentes langues,
06:45 et en français, par exemple, vous avez deux déclinaisons,
06:48 CAM en BERT, et puis JAUBERT.
06:50 Ces modèles de langage permettent d'améliorer les différentes techniques de traitement de la langue,
06:56 mais ils sont aussi capables de générer des textes,
06:58 et c'est cette génération de textes, qu'on a commencé assez tôt, en 2021-2022,
07:04 mais ensuite qui a été mise à profit d'abord par la société Google,
07:09 avec un système qui s'appelait Lambda,
07:10 mais surtout après par une société de moindre importance,
07:15 qui s'appelle Onegai, qui a fait chaque GPT,
07:17 et qui a effectivement été à la disposition du grand public,
07:21 qui lui a permis de prendre conscience de la réalité, de la puissance de ces technologies.
07:25 - Nathan Bonnet, est-ce que l'IA est susceptible d'entrer dans tous les secteurs de la vie économique,
07:30 et même tous les secteurs de la vie tout court ?
07:32 - Alors, ce qui est certain, c'est que l'intelligence artificielle va très vite,
07:35 mais qu'elle est en train, enfin c'est une démonstration de manière actuelle,
07:38 on n'en parlait pas il y a un an, et en moins d'un an,
07:41 on est capable de le voir son évolution un petit peu partout,
07:43 et dans tous les domaines d'activité.
07:45 Alors, pour mettre et parler rapidement aussi de ce débat-là,
07:48 qui va sûrement à un moment avoir lieu autour de cette table ce soir,
07:52 elle ne remplacera sûrement jamais l'être humain ou ce genre de choses à proprement parler,
07:55 par contre ça risque d'être un puissant outil décisionnel,
07:58 qui va nous aider dans beaucoup des cheminements intellectuels que l'on a dans notre prise de décision.
08:02 - Oui, mais est-ce qu'aujourd'hui elle peut être autonome, par exemple ?
08:05 - Dans certains domaines, oui, elle peut être autonome.
08:07 - Sur quoi par exemple ?
08:08 - Par exemple, quand on prend par exemple des cas juridiques,
08:12 j'ai un ami à moi, il a monté une start-up qui s'appelle Bouddh Légal,
08:16 et en fait vous êtes capable de prendre n'importe quel fichier juridique, de les envoyer,
08:20 et on vous envoie des synthèses plus complètes que ce que vous auriez pu faire,
08:23 et puis elle les automatise et est capable à chaque fois de les changer
08:27 pour qu'on ne puisse pas avoir à chaque fois le même rendu.
08:29 - Ça peut carrément vous faire une peignoirie quoi.
08:30 - Oui, mais quand je dis autonome, elle ne fera rien toute seule,
08:34 c'est-à-dire que c'est la main de l'homme qui... de toute façon.
08:36 - Non, effectivement.
08:37 - Laurent Alexandre.
08:38 - Non, ce n'est pas ce qu'on appelle parfois une intelligence artificielle forte,
08:44 autonome, avec un âge d'à propre,
08:47 c'est ce que les anglo-sacraux appellent la gentilité,
08:50 et nous ne sommes pas dans ce cas-là,
08:52 c'est-à-dire qu'une intelligence artificielle ne peut pas tout d'un coup décider
08:55 de travailler de son propre chef.
08:58 On peut créer des agents qui ont une certaine autonomie
09:01 et qui utilisent souvent chez HGPT,
09:04 mais ce ne sont pas des agents qui vont tout seuls décider
09:07 de lancer un programme de recherche sur le cancer,
09:09 on va leur demander d'effectuer un certain nombre de tâches
09:12 et ils vont avoir une certaine autonomie,
09:15 mais l'objectif premier, l'agenda premier a été donné par le cerveau humain,
09:19 il n'y a pas d'autonomie, il n'y a pas de volition,
09:21 de volonté propre de l'intelligence artificielle aujourd'hui,
09:24 et il y a un débat très fort sur ce sujet,
09:27 on a pu démontrer qu'il n'y a aucune conscience
09:31 et aucune volonté propre en HGPT,
09:34 mais les chercheurs n'excluent pas que dans les décennies,
09:37 les siècles qui viennent, on puisse avoir des réseaux de neurones
09:40 qui acquièrent une conscience artificielle,
09:42 mais c'est une possibilité,
09:44 ça n'est absolument pas une certitude aujourd'hui.
09:47 En tout cas, dans quelques instants, on reviendra sur l'intelligence artificielle
09:50 qui révolutionne forcément les filières,
09:53 l'emploi en général avec des jobs qui existent aujourd'hui
09:57 qui n'existeront pas, et vice versa,
09:59 ça révolutionne un petit peu ce côté professionnel,
10:02 on va en parler dans quelques instants avec nos invités,
10:04 vous voulez réagir ?
10:05 C'est clair, c'est le numéro de téléphone, c'est facile,
10:07 0 826 300 300,
10:09 et c'est pas une intelligence artificielle,
10:11 c'est bien Aude qui sera là.
10:13 - Qui va vous répondre !
10:14 - A tout de suite !
10:16 Les voix de voix responsables, on parle de l'intelligence artificielle,
10:19 cette intelligence qui révolutionne forcément de manière significative
10:22 divers secteurs professionnels, modifiant forcément les méthodes de travail
10:25 et les exigences aussi professionnelles,
10:27 et on en parle avec nos invités,
10:29 Laurent-Alexandre Médecin et essayiste et auteur de ces livres,
10:32 "La gare des intelligences, intelligence artificielle versus intelligence humaine"
10:36 et "La gare des intelligences" à l'heure de "Chat GPT",
10:38 les deux publiés chez Jean-Claude Lattès et Jean-Gabriel Ganassiap,
10:42 professeur de la faculté des sciences de la Sorbonne,
10:44 université, chercheur au laboratoire d'informatique Paris 6,
10:49 et ce livre que vous sortez aussi, Jean-Gabriel...
10:51 - "Servitude virtuelle"
10:53 - Ah oui, c'est exactement ça,
10:54 et Nathan Bonnac est avec nous, fondateur de Polymia,
10:56 la première intelligence artificielle de correction de la prise de parole en public.
11:01 On nous avait un invité ce soir au 0826 300 300 Philippe.
11:05 - Oui, c'est Frédéric Guyonnet, président du syndicat national des banques CFE CGC,
11:10 bonsoir.
11:11 - Bonsoir Philippe.
11:13 - Alors, vous dans la banque,
11:15 - Merci d'être avec nous.
11:16 - Merci d'être avec nous, vous dans la banque,
11:17 quelles vont être les conséquences de l'IA,
11:19 et ce qu'il n'y en a pas déjà, tiens,
11:21 parce que c'est une entreprise de veille de médiatique
11:23 qui a supprimé 217 emplois sur 380,
11:27 est-ce que vous, dans les banques, vous êtes déjà touché,
11:29 ou est-ce que vous les allez être touchés, et si oui, sur quels postes ?
11:32 - Alors déjà, le secteur bancaire a été l'un des premiers secteurs
11:36 à utiliser l'intelligence artificielle en France.
11:39 Watson, l'intelligence artificielle du crédit mutuel, est arrivé en 2017.
11:44 Alors en 2017, quand l'intelligence artificielle est arrivée au crédit mutuel,
11:48 on annonçait la suppression de 2500 postes.
11:52 Aujourd'hui, 6 ans après, on constate quoi ?
11:56 Les 20 000 conseillers clientèles qui utilisent l'intelligence artificielle Watson
12:01 ont gagné 3 minutes de travail par jour.
12:05 Donc pour l'instant, ce n'est pas une réussite.
12:09 Alors après, il y a les banques en ligne qui utilisent beaucoup
12:13 l'intelligence artificielle type Orange Bank.
12:16 Chez Orange Bank, l'intelligence artificielle...
12:18 - C'est ce qu'on appelle les chatbots, pour...
12:20 - Exactement. - Au guise de conseillers de clients, c'est ça ?
12:22 - Exactement, et capable de traiter environ 24 000 mails par semaine.
12:28 Voilà, alors sur quel métier on a impacté ?
12:32 Ça va être sur la gestion d'actifs, puisque au niveau des assurances vie,
12:36 beaucoup de pilotage d'assurances vie au niveau des actifs et des fonds
12:41 sont pilotés par des intelligences artificielles.
12:44 Donc ils viennent plutôt aider l'humain.
12:48 Pour l'instant, ils ne le remplacent pas.
12:50 - Oui. - D'accord.
12:52 - J'ai l'impression que vous hochettez de la tête, Nathan Bonnet,
12:56 sur ce qu'il dit, on ne les remplace pas.
12:58 Je vais revenir avant vous avec Laurent Alexandre.
13:01 Il y a quelques années, Laurent Alexandre, vous disiez
13:04 que forcément, plein d'emplois allaient disparaître
13:07 et qu'on ne se rendrait pas compte du nombre d'emplois
13:09 qui aujourd'hui existent et qui n'existeront plus en 2040.
13:12 On en est où aujourd'hui ?
13:13 - Alors moi, je suis un chou péterien, je suis un libéral.
13:16 Je pense que la technologie crée énormément d'emplois.
13:19 Il y avait 29 000 porteurs d'eau en France en 1793.
13:23 Il n'y a plus de porteurs d'eau, mais il y a beaucoup plus de gens
13:26 que 29 000 personnes qui distribuent l'eau, qui épurent l'eau.
13:30 Donc je pense que l'intelligence artificielle va générer
13:33 un nombre absolument colossal d'emplois.
13:35 Mais il va y avoir des transformations d'emplois.
13:37 Alors je voudrais mettre en garde vos auditeurs.
13:40 On a parlé de Watson dans la banque.
13:42 Watson est un flop énorme.
13:44 IBM a un retard en intelligence artificielle absolument considérable.
13:47 D'ailleurs, il y a eu des problèmes avec des clients
13:50 parce que notamment en médecine, Watson était tellement mauvais
13:53 que ça a été très problématique chez certains clients hospitaliers américains.
13:57 Donc si on veut parler des conséquences sur l'emploi de l'IA,
14:00 il ne faut pas parler de Watson parce que Watson, c'est un flop
14:03 et c'est vraiment un mauvais produit qui a échoué
14:06 dans la quasi-totalité de ses domaines d'utilisation.
14:09 Donc attention, l'IA, ce n'est pas Watson.
14:12 Il y a des IA qui vont avoir un impact important dans le monde du travail.
14:17 Il faudrait faire attention à ne pas prendre des canards boiteux comme exemple
14:22 parce que sinon, on ne va pas s'y retrouver.
14:24 Attendez, vous avez la parole à Jean-Gabriel Ganasia
14:27 parce qu'on le voit rire.
14:29 On le voit rire et élémentaire mon cher Watson, on allait dire, Jean-Gabriel Ganasia.
14:34 Watson est un programme qui a été extrêmement impressionnant.
14:39 Il a gagné, c'est un jeu public.
14:42 C'est un des premiers programmes qui était capable
14:46 de répondre à des questions en langage naturel.
14:49 Ensuite, il a été utilisé dans différents domaines
14:52 dont la médecine et la banque avec peut-être des erreurs.
14:55 Mais dans le domaine de la banque
14:57 et plus généralement dans le domaine des technologies financières,
15:00 il y a énormément d'utilisation de l'intelligence artificielle.
15:04 En particulier, on l'a dit tout à l'heure, pour la gestion des actifs
15:08 dans le domaine des assurances pour l'anticipation des risques,
15:12 pour essayer d'évaluer la capacité, la solvabilité des clients
15:19 dans le domaine de la banque.
15:20 - Mais est-ce qu'on peut leur faire confiance ?
15:22 On peut faire confiance à cette intelligence artificielle ?
15:25 Parce qu'est-ce qu'elle est capable de discerner le vrai du faux ?
15:28 - Alors ça, c'est une autre question.
15:31 L'intelligence artificielle, telle que...
15:34 - Oui, mais justement dans l'assurance, dans l'appréciation de l'assurance.
15:37 Est-ce qu'on est capable de discerner ?
15:40 Est-ce que l'intelligence artificielle est capable de faire ce que fait l'humain ?
15:44 - Si elle est structurée derrière par un humain avec une bonne méthode,
15:48 c'est à peu près certain qu'elle est capable de le faire, oui.
15:51 - D'accord.
15:52 - En tout cas, elle aide l'humain à prendre des décisions,
15:56 à anticiper les conséquences d'un certain nombre de situations,
16:00 à interpréter des signes.
16:03 Bien sûr, si on est dans des situations un peu catastrophiques,
16:07 à ce moment-là, elle a des difficultés.
16:09 Ce qui est problématique dans le secteur financier, ce sont les crises.
16:13 Mais les crises sont ponctuelles.
16:15 Entre les crises, les outils d'intelligence artificielle
16:18 rendent des services considérables.
16:20 Et ils ont beaucoup modifié l'activité.
16:23 Alors ça ne veut pas dire qu'on va mettre tous les banquiers au chômage.
16:27 Au contraire, souvent on se rend compte que l'intelligence artificielle
16:32 peut aider un certain nombre de personnes
16:36 dans leur activité professionnelle.
16:38 Et donc on ne supprime pas des emplois, mais on transforme des métiers.
16:42 Et ça, c'est un enjeu majeur dont je pense que nous allons parler ce soir,
16:47 car ceux qui n'auront pas été capables de prendre
16:50 le tournant de l'intelligence artificielle risquent d'avoir des difficultés.
16:53 - Frédéric Guianet veut réagir.
16:56 - Oui, je partage ce qui est dit par rapport à Watson.
17:01 Effectivement, Watson n'est pas au rendez-vous.
17:04 L'intelligence artificielle est très utile dans le secteur bancaire,
17:08 notamment pour lutter contre la fraude.
17:12 Il y a une recrudescence de fraude, il n'y en avait pas autant il y a quelques années.
17:16 Donc on ne peut pas dire que ça remplace les emplois,
17:18 puisqu'au contraire, l'intelligence artificielle vient aider,
17:22 encore une fois, les banques à lutter contre la fraude
17:25 avec des algorithmes pour trouver plus facilement les systèmes de fraude.
17:30 Sur la gestion d'actifs, par rapport au fait qu'il puisse y avoir des erreurs,
17:37 l'intelligence artificielle fonctionne tant qu'on est dans un cycle qui est normal.
17:47 Dès qu'il y a des événements extérieurs qui viennent perturber un cycle normal,
17:55 l'intelligence artificielle n'est pas capable de réagir,
17:58 et là on a besoin de l'homme.
18:00 Donc l'intelligence artificielle est très intéressante
18:03 quand on est sur quelque chose de récurrent, qui revient, etc.
18:07 Dès qu'il y a des imprévus, ce n'est pas bon.
18:10 Un mot, oui, court, parce qu'après on doit faire la pub.
18:14 Pour un mot là-dessus aussi, ce que je voulais rajouter,
18:17 c'est que la force que Watson n'avait pas réussi à faire,
18:19 qui est quand même une bonne intelligence artificielle,
18:21 c'est qu'en fait, ce qu'elle n'a pas réussi à faire,
18:23 mais ce que Chad JPT est en train de faire en un an,
18:25 c'est qu'elle a démocratisé tout ça,
18:26 et qu'elle permet maintenant à n'importe qui seul
18:28 de pouvoir créer des outils de manière très rapide.
18:30 Donc en fait, ce n'est pas que ça va créer de nouveaux emplois,
18:33 mais surtout ça va créer de l'autonomie pour n'importe qui
18:35 qui a envie de travailler seul aussi.
18:37 Et ça franchement, c'est quand même un pas vers l'avant
18:39 pour nos sociétés, intéressant je pense.
18:41 Frédéric Buellet, vous devez nous laisser,
18:43 parce que vous avez un avion à prendre.
18:44 On vous remercie beaucoup, si vous avez l'intelligence artificielle
18:47 qui est capable de prendre de l'argent,
18:48 même sur le compte de Cécile de Ménibus,
18:50 vous pouvez l'inviter pour l'envoyer sur le mien,
18:52 je vous envoie mon RIB, il n'y a pas de problème.
18:54 Ou l'inverse, bien entendu.
18:56 On n'en est pas là.
18:58 Merci beaucoup d'avoir été avec nous,
18:59 Eva se posait forcément la question de cette formation
19:02 de gérer cette intelligence artificielle,
19:04 qui j'imagine, chaque jour,
19:07 elle se forme et il faut avancer aussi vite qu'elle.
19:10 Je pense que ça va être un souci,
19:12 on va en parler dans quelques instants avec nos invités.
19:14 Restez avec nous, c'est Les Vraies Voix,
19:16 on est ensemble jusqu'à 20h avec Philippe David,
19:18 et on vous parle effectivement de cette intelligence artificielle.
19:21 A tout de suite.
19:22 Sud Radio, les vraies voix qui font bouger la France,
19:27 19h20, Les Vraies Voix Responsables.
19:30 Les Vraies Voix Responsables,
19:32 et c'est une responsabilité de l'intelligence artificielle,
19:34 qui redéfinit forcément notre façon de travailler.
19:37 Va-t-il falloir que nous nous reformions,
19:40 et à quelle vitesse ?
19:41 Parce que forcément, en face de nous,
19:42 cette intelligence artificielle est ultra rapide.
19:45 On en parle avec Jean-Gabriel Ganassia,
19:47 professeur à la Faculté des Sciences de Sorbonne,
19:49 université et chercheur au Laboratoire d'informatique de Paris 6,
19:52 et puis avec Laurent Alexandre...
19:54 - Auteur de "Servitude virtuelle", on rappelle son livre !
19:57 - Et puis Laurent Alexandre, médecin essayiste et auteur de plein de livres.
20:01 On en a parlé, mais on les redira à la fin,
20:03 et Nathor Bonnet, qui est fondateur de Polymia,
20:06 la première intelligence artificielle de correction et la prise de parole en public.
20:09 Laurent Alexandre, le problème, c'est ce que je disais,
20:12 c'est forcément la formation de l'humain,
20:14 face à cette intelligence artificielle,
20:16 qui, elle, accélère, accélère, accélère,
20:19 beaucoup plus rapidement que nous.
20:21 - Oui.
20:24 Le fait nouveau, il est vraiment autour de chaque GPT et de ses équivalents.
20:28 Il y a un fossé entre les intelligences artificielles anciennes
20:31 et puis les nouvelles intelligences artificielles,
20:33 qu'on appelle les LLM, comme GPT-4.
20:35 En médecine, par exemple, on est face à une révolution.
20:38 C'est-à-dire que le médecin ne va pas pouvoir travailler
20:40 sans intelligence artificielle dans les années qui viennent
20:42 pour faire des diagnostics.
20:44 D'abord parce qu'il y a trop de connaissances médicales
20:47 et qu'un cerveau humain, le cerveau du médecin,
20:49 ne peut pas connaître toute la médecine.
20:51 Moi, j'ai calculé, pour l'écriture de mon dernier livre,
20:54 je me suis attelé à essayer de déterminer
20:57 quel pourcentage de la médecine je connaissais.
21:00 Je connais environ un millionième du savoir médical et biologique
21:04 qui existe sur Terre. Un millionième.
21:06 - Et vous êtes heureux.
21:08 - Vous voyez bien, oui, enfin, ce n'est pas une insulte.
21:11 - Non, non, pas du tout, mais vous êtes un médecin très qualifié,
21:13 c'est ce que je voulais dire.
21:15 - Vous voyez bien que un médecin ne peut pas connaître
21:19 la totalité de la médecine, puisque moi,
21:21 qui fais beaucoup d'efforts pour me former
21:23 et qui travaille quand même beaucoup,
21:25 je ne connais qu'un millionième de la médecine
21:27 et j'estime que dans quelques années,
21:29 je connaîtrai un milliardième de la médecine.
21:31 Le savoir biologique, il double tous les 72.
21:33 - Oui, mais là, je vous pose une question, Laurent-Alexandre,
21:36 c'est qu'à quel moment l'humain,
21:38 aussi qualifié soit-il dans son expertise comme vous,
21:41 est capable de déterminer si le diagnostic proposé
21:44 par l'intelligence artificielle est la bonne ou pas ?
21:47 C'est ça ou si ?
21:48 - Un cerveau humain ne pourra pas le déterminer tout seul.
21:51 Il faudra faire des essais cliniques pour le déterminer,
21:54 parce que si vous prenez par exemple un diagnostic génétique,
21:57 Google vient de sortir une nouvelle intelligence artificielle
22:00 pour analyser notre ADN.
22:02 Notre ADN, ça présente en données brutes
22:04 20 000 milliards de données.
22:06 Aucun médecin sur Terre n'est capable d'analyser
22:09 20 000 milliards de données pendant une consultation médicale,
22:12 ce que l'intelligence artificielle est capable de faire.
22:15 Donc le médecin, il peut faire ce qu'il veut,
22:18 il ne pourra jamais analyser 20 000 milliards de données
22:21 pendant une consultation.
22:23 - Donc il faudra faire confiance ?
22:25 - Il faudra faire confiance et il faudra faire des études.
22:28 Pour comparer le diagnostic des médecins et le diagnostic de l'IA,
22:31 vérifier que l'IA est supérieure ou égale au médecin
22:34 quand on se fie à elle.
22:36 Mais il ne sera pas possible spontanément et facilement
22:39 de juger ce que fait l'IA,
22:41 parce que l'IA traite beaucoup trop de données.
22:43 C'est comme un pilote d'avion.
22:45 Dans un avion aujourd'hui, les capteurs réalisent
22:48 des milliards et des milliards, des milliers de milliards
22:51 de données sur l'état de l'avion.
22:54 Les pilotes ne peuvent pas traiter des milliers de milliards de données.
22:57 Il faut bien faire confiance à l'avion.
22:59 En médecine, ce sera la même chose.
23:01 Donc il va falloir que nous réorganisions la façon dont nous travaillons
23:04 dans plein de domaines.
23:06 La médecine n'est qu'un exemple.
23:08 Je vous rappelle que GPT-4 réussit mieux que les neurochirurgiens.
23:13 L'examen pour être qualifié en neurochirurgie aux Etats-Unis.
23:16 Mieux que les avocats.
23:18 L'examen du board américain pour être avocat.
23:21 C'est la même chose dans plein de domaines.
23:23 Nous avons une intelligence artificielle qui nous challenge.
23:26 Je ne crois pas du tout que nous allons disparaître.
23:28 Je ne crois pas du tout en tant que médecin
23:30 que je vais partir à la retraite demain matin.
23:32 Je veux voir que l'on travaille en synergie avec l'intelligence artificielle.
23:35 Parce que l'intelligence artificielle, dans pas mal de domaines,
23:38 va faire mieux que nous dans beaucoup de métiers.
23:42 Jean-Gabriel Ganasia, on entend ça.
23:44 L'intelligence artificielle fait mieux que les neurochirurgiens.
23:47 Fait mieux que les avocats.
23:48 Maintenant, il y a une peur dans les entreprises, le faubot.
23:51 La peur de devenir obsolète.
23:53 Là, c'est même des médecins, des avocats,
23:55 donc des gens très qualifiés qui sont obsolètes.
23:57 Est-ce que toute l'espèce humaine va pas finir par être obsolète ?
24:00 Est-ce que Einstein, s'il était encore vivant,
24:02 deviendrait lui aussi obsolète ?
24:04 Alors, je comprends tout à fait l'enthousiasme de Laurent Alexandre.
24:08 Mais il faut essayer de prendre un peu de recul.
24:10 Ça fait longtemps que les machines font mieux que nous.
24:13 Elles font des additions et des multiplications beaucoup mieux connues.
24:17 Je ne sais pas si vous vous souvenez,
24:18 la première machine à calculer a été faite par Blaise Pascal,
24:21 il y a pratiquement 400 ans.
24:23 Les ordinateurs font des multiplications bien mieux connues.
24:26 Et dans le domaine médical,
24:27 on fait des analyses médicales de façon automatique.
24:29 Dans le domaine aéronautique, avant chaque GPT,
24:31 on a bien sûr traité énormément de données.
24:34 Mais effectivement, il y a des étapes,
24:37 il y a des avancées considérables.
24:40 Mais il faut quand même modérer l'enthousiasme.
24:41 Parce que, par exemple, Laurent Alexandre parle de cet examen
24:46 qui a été passé par la machine chaque GPT aux barreaux américains.
24:51 Mais il y a un autre article qui est paru,
24:54 qui a essayé de relativiser tout à fait ces résultats,
24:57 en disant "bon, écoutez, l'article d'Eric Martinez,
25:00 je peux vous l'envoyer aux auditeurs s'ils le souhaitent,
25:03 il dit mais en fait, ça n'est qu'un examen,
25:06 et ce n'est pas un examen majeur.
25:08 Donc, ça ne veut pas dire que les machines
25:10 vont être meilleures que les avocats.
25:12 Mais effectivement, je crois que toutes les professions
25:15 sont transformées.
25:16 Et les avocats, bien sûr, peuvent utiliser chaque GPT.
25:20 Aujourd'hui, ils l'utilisent beaucoup,
25:21 mais ça ne veut pas dire que ça les remplace.
25:22 Ça veut dire que ça les aide.
25:24 - Upgrader, en fait, upgrader.
25:27 - Et en particulier, vous, les journalistes,
25:29 qui peuvent utiliser éventuellement ces outils.
25:33 Mais moi, je ne suis pas aussi pessimiste que ça.
25:35 Je dirais l'inverse.
25:36 Je pense que c'est la grande chance des journalistes aujourd'hui
25:39 d'avoir des agents conversationnels,
25:41 parce qu'il y a énormément de fausses nouvelles
25:43 qui vont être générées toute la journée.
25:45 Et justement, le vrai métier du journaliste,
25:47 ça va être de confronter les sources
25:50 et de détecter ce qui est vrai
25:52 et de les distinguer de ce qu'il faut.
25:54 Donc, je pense que c'est la chance
25:56 pour un certain nombre de professions intellectuelles,
25:58 contrairement à ce que l'on dit.
25:59 - Nathan Bonnet.
26:00 - Exactement.
26:01 Pour répéter en plus la dernière phrase qu'il vient de citer,
26:03 c'est vrai que ce sont les métiers intellectuels
26:05 qui vont être le plus touchés,
26:06 ce qui n'est pas si mal aussi d'une certaine manière,
26:08 parce qu'il y aura peut-être une revalorisation aussi
26:10 de tous les métiers qui sont manuels,
26:12 qui depuis quelques années, quand même, ce sont...
26:14 - Enfin, les métiers automatiques de répétition,
26:17 je pense qu'ils vont être aussi...
26:18 - Il y a de l'intelligence artificielle déjà dans les machines,
26:20 même dans les processus de commande
26:22 de certains projets, ce genre de choses.
26:24 - Vous diriez que l'IA va être au col blanc,
26:26 ce que la robotisation a été au col bleu, Nathan Bonnet ?
26:28 - C'est un petit peu aussi ce qui se dit actuellement,
26:31 et je pense qu'on y tend, d'une certaine manière.
26:33 En tout cas, vu que l'IA générative
26:35 est capable de refaire mieux que nous
26:37 certains discours ou certains articles
26:39 qu'on doit écrire, qui avant prenaient du travail,
26:41 par contre, elle ne sera pas capable de faire notre baguette,
26:43 en tout cas, pas de cette manière-là.
26:46 Donc, je pense aussi que ça va remettre
26:48 un petit peu d'ordre sur certaines choses.
26:50 On était quand même vraiment partis
26:52 loin dans le monde de l'entreprise.
26:54 On est partis avec des boulots à tout va,
26:57 avec des postes pour beaucoup de choses.
26:59 Peut-être aussi qu'on va réussir à centraliser
27:01 l'émission sur certaines personnes,
27:03 avec juste des outils.
27:04 Ça va créer surtout d'autres modèles économiques.
27:07 Je pense qu'il ne faut pas être pessimiste
27:09 sur le fait que ça va apporter plus de bien que de mal.
27:11 - Oui, mais quand Jean-Gabriel Ganasia a dit
27:13 qu'effectivement, le rôle des journalistes,
27:15 par exemple, ce sera d'aller chercher
27:17 la bonne et la fausse information,
27:18 c'est compliqué, en fait.
27:20 Dans un univers où on a de la deep fake,
27:22 c'est-à-dire qu'on est capable de faire dire à quelqu'un
27:24 avec son visage, sa voix, n'importe quoi,
27:27 ça va être difficile, ça va prendre du temps.
27:29 Est-ce que finalement, le temps
27:31 ne va pas être notre meilleur ennemi ?
27:34 - Pour certains boulots comme le journalisme,
27:37 au fond, je pense que oui, d'ailleurs, c'est marrant.
27:39 C'est la première chose que j'ai dit l'année dernière
27:41 à mes étudiants en journalisme.
27:42 Je leur ai dit, vous devriez prendre vite en possession
27:44 les outils comme ce tchat GPT,
27:46 parce que d'une certaine manière,
27:47 ils seront plus rapides et plus efficaces que vous,
27:49 même dans le traitement de données.
27:51 Donc, c'est des outils, maintenant,
27:53 dans lesquels vous avez, à mon avis,
27:54 une obligation de contrainte.
27:56 - Eh bien, vous restez avec nous.
27:57 - Moi, on m'a montré un deep fake,
27:58 a priori, c'était Cécile de Minibus qui disait
28:00 "Philippe David est un crétin".
28:02 C'était bien une intelligence artificielle
28:03 qui nous avait piraté, non ?
28:04 - Non, non, c'était vraiment moi.
28:05 - Voilà.
28:06 - C'était une vraie vidéo.
28:07 Elle a fait le tour de TikTok.
28:09 Non, jamais j'aurais dit ça.
28:11 Vous restez avec nous dans un instant.
28:12 Un sujet important, forcément,
28:14 ça lève des questions sur l'éthique, forcément.
28:17 Est-ce qu'une intelligence artificielle
28:20 est éthique ou pas ?
28:22 En tout cas, on en parle avec nos invités
28:24 qui ont forcément des réponses passionnantes
28:26 à nous donner.
28:27 Allez, restez avec nous.
28:28 On est ensemble jusqu'à 20h.
28:29 Et les vrais voix responsables, ce soir,
28:31 s'intéressent à l'intelligence artificielle
28:33 et avec des interlocuteurs passionnants.
28:36 Et on vous remercie beaucoup, messieurs.
28:38 Laurent Alexandre, médecin SIS,
28:39 auteur de beaucoup, beaucoup, beaucoup de livres
28:42 qu'on rappellera après la fin de l'émission.
28:44 Jean-Gabriel Ganassia, professeur à la faculté des sciences
28:47 de la Sorbonne Université
28:48 et chercheur au laboratoire d'informatique de Paris 6.
28:51 Et Nathan Bonnet, fondateur de PolyMIA,
28:54 la première intelligence artificielle
28:55 de correction de la prise de parole publique
28:57 et directeur de l'observatoire IA et éthique chez Sapiens.
29:00 La question se posait, en teasing, Laurent Alexandre,
29:05 sur l'éthique, finalement, de l'intelligence artificielle.
29:09 Parce que c'est aussi un sujet important
29:12 dont on parle depuis, finalement, l'utilisation des données
29:16 et comment gérer ce problème
29:20 qui est un monde entier, en fait.
29:24 C'est un sommet énorme, Laurent Alexandre.
29:27 Alors, on a plein de problèmes éthiques.
29:30 D'abord, l'origine, le tri, l'organisation des données
29:35 avec lesquelles on a éduqué l'intelligence artificielle
29:38 pour modifier le comportement de l'intelligence artificielle.
29:41 Et d'autre part, on peut mettre des filtres.
29:43 On peut rendre une intelligence artificielle
29:45 plus ou moins woke.
29:47 Avec Olivier Babaud, nous avions même écrit un papier
29:49 dans le Figaro, ChatGPT ou la Pravda 2.0.
29:53 Donc, la façon dont on éduque les intelligences artificielles
29:56 modifie leur comportement.
29:58 Xi Jinping, en Chine, a exigé que les équivalents chinois
30:01 de ChatGPT soient éduqués avec des données
30:04 uniquement chinoises pour être certains
30:07 que ces intelligences artificielles, même les Chines,
30:11 seraient conformes à l'idéologie du Parti communiste chinois
30:16 et respecteraient la vision que lui, Xi Jinping,
30:20 veut donner à l'intelligence artificielle.
30:22 Donc, les problèmes éthiques, ils sont considérables.
30:25 L'éducation de l'intelligence artificielle,
30:27 la façon dont elle est organisée,
30:30 va modifier son comportement,
30:32 notamment au travers de ses paramètres
30:34 qui sont la façon qui lui permettent de se représenter le monde,
30:37 puisque l'intelligence artificielle se représente le monde
30:41 sous forme de paramètres qui sont des espèces
30:45 de milliards de petits vecteurs
30:47 qui lui permettent de comprendre la complexité du monde.
30:51 Donc, l'éthique, la gouvernance, l'organisation
30:55 de l'intelligence artificielle, ça va être un vrai problème,
30:58 mais je ne voudrais pas que le lecteur ait l'impression
31:01 que l'intelligence artificielle ne va pas bousculer le marché du travail,
31:06 parce qu'une étude récente a montré
31:09 que l'intelligence artificielle GPT-4
31:13 écrabouillait les marketeurs
31:16 sur la façon de trouver des idées nouvelles.
31:21 On a pris les étudiants du MBA de Wharton,
31:24 qui est l'un des trois ou quatre meilleurs MBA au monde,
31:27 et on les a comparés à GPT-4 pour émettre des idées business,
31:30 des idées marketing innovantes.
31:33 GPT-4 a écrabouillé ces étudiants
31:36 qui sont parmi les plus brillants au monde en business.
31:39 Donc, il ne faut pas se tromper,
31:41 on va être très fortement challengés en matière d'intelligence artificielle.
31:44 Il n'y a pas que des problèmes éthiques,
31:46 il y a aussi des vrais problèmes économiques, éducatifs
31:49 et d'organisation du monde du travail.
31:51 Et peut-être qu'il faut, avant de s'occuper d'éthique,
31:54 s'occuper d'adapter les travailleurs français au monde qui vient.
31:57 - Jean-Gabriel Ganasia, on a parlé de l'IA version californienne
32:00 ou version de Xi Jinping,
32:02 vous travaillez en laboratoire en France,
32:04 est-ce que, où en est-on la France en termes d'IA
32:07 par rapport aux Américains ou Chinois, etc.?
32:10 - Il faut d'abord dire que la France a joué un rôle très important.
32:15 Ce qu'on appelle l'apprentissage profond
32:17 a été fait par quelqu'un qui s'appelle Niall Lecun,
32:20 qui a passé sa thèse dans mon université
32:23 et qui ensuite est allé travailler au Bell Labs.
32:26 Donc on a beaucoup de grands chercheurs en France.
32:29 Malheureusement, du fait qu'il n'y a pas de grandes sociétés
32:34 de l'Internet en France et en Europe,
32:38 on a du mal à les retenir,
32:40 mais on a des laboratoires de qualité.
32:42 Et puis il y a beaucoup de start-up qui se trouvent en France.
32:45 Malheureusement, souvent elles sont rachetées
32:48 par des sociétés américaines.
32:50 Donc c'est vraiment un problème économique,
32:52 un problème politique majeur.
32:54 Les questions éthiques, je crois qu'il est important de le rappeler,
32:58 c'est qu'elles sont relatives à toute la société.
33:01 Et donc, bien sûr, les questions économiques majeures,
33:04 elles ont aussi une dimension éthique centrale aujourd'hui.
33:08 Puisque vous parlez de la recherche,
33:10 dans notre laboratoire, justement,
33:12 on travaille sur ce qu'on appelle l'éthique computationnelle,
33:15 c'est-à-dire la façon d'encoder des règles éthiques
33:19 à l'intérieur des outils d'intelligence artificielle
33:22 afin de faire des machines qui ne sont pas éthiques en ce sens.
33:25 Si on prend la distinction d'un philosophe allemand très classique
33:28 entre agir par devoir et conformément au devoir,
33:30 la machine n'agit pas par devoir, parce qu'elle n'a pas de conscience,
33:33 mais en revanche, on fait en sorte qu'elle agisse conformément
33:36 à un certain nombre de règles éthiques
33:39 pour éviter toutes sortes de dérives possibles.
33:42 Et donc c'est ça, je crois,
33:44 qui constitue les enjeux majeurs pour le futur,
33:47 pour qu'on ait des machines qui ne compreviennent pas
33:51 à toutes les règles que l'on connaît,
33:54 qui sont les règles des droits de l'homme, etc.
33:56 - Nathan Bonnet, vous travaillez également dans la création d'IA.
33:59 - Actuellement, il existe un prototype simple
34:02 qu'on est en train de mettre en place chez PolyQ.
34:05 On est le premier incubateur à le faire,
34:07 et on ne comprenait pas pourquoi personne d'autre ne l'avait fait.
34:09 C'était simplement de prendre nous-mêmes
34:12 nos propres ordinateurs de stockage
34:14 pour pouvoir faire entraîner nos propres modèles
34:17 d'open source, comme celui de Lama,
34:19 comme ce qu'a prévu de faire Mistral.ai,
34:21 pour pouvoir commencer à être indépendant
34:23 et commencer à pouvoir nous-mêmes aussi
34:25 savoir faire le tri sur les données qu'on peut trier,
34:28 qu'on doit régulariser,
34:30 et commencer à comprendre aussi ses limites
34:32 pour pouvoir y travailler de manière plus profonde.
34:35 Le gros problème de tout ça, c'est qu'on aurait pu être en avance
34:37 sur tous ces sujets-là, parce qu'en fait,
34:39 25% des personnes qui ont créé OpenHRGPT,
34:42 c'était des Français qui sont partis chez OpenAI.
34:45 Donc déjà, cette hémorragie aussi,
34:46 on aurait peut-être pu la calmer il y a des années et des années.
34:48 - L'appui des cerveaux.
34:49 - Voilà, c'est ça.
34:50 On n'a pas réussi à les garder.
34:52 Peut-être aussi parce qu'on n'avait pas de vision
34:54 sur ce genre de sujet.
34:55 Mais actuellement, si on veut pouvoir parler d'éthique
34:58 et de manière concrète, c'est-à-dire avec une solution,
35:00 je pense qu'il faut commencer à héberger
35:02 nos données de manière souveraine ici,
35:04 pour pouvoir commencer à travailler petit à petit
35:07 sur la manière dont on doit régulariser tout ça.
35:09 C'est ce que nous, on est en train d'essayer de faire.
35:11 En tout cas, ce qu'on va réussir à faire,
35:13 parce qu'il faut le faire.
35:14 - Quand vous dites "nous", c'est quoi ?
35:15 C'est le gouvernement français ?
35:16 - Non, "nous", c'est à notre simple échelle.
35:18 - Non, mais on devrait faire, vous dites...
35:20 - Oui, je pense.
35:21 Au fond, je pense.
35:22 Ce n'est pas très libéraliste, au fond,
35:24 mais je pense qu'on devrait aussi, peut-être,
35:26 penser à faire des IAS ou BREL, ce genre de choses.
35:29 - On peut la réguler de manière juridique, par exemple ?
35:31 - C'est très, très dur, là.
35:32 Je pense que pour l'instant...
35:34 - On n'y est pas, là.
35:35 - Oui, voilà.
35:36 Je pense que c'est impossible.
35:37 - Oui.
35:38 - Je crois que je suis bon.
35:39 - Jean-Gabriel Ganassia.
35:40 - De pas mentionner les projets de régulation
35:42 qui ont été lancés au plan européen.
35:44 Vous vous souvenez, la Commission européenne a écrit une loi
35:47 qu'elle a sortie en juin 2022.
35:50 Ensuite, le Parlement s'en est saisi
35:52 et il a voté cette loi,
35:54 sur laquelle il avait fait 3 000 amendements.
35:56 Il l'a votée en juin 2020.
35:59 Et ensuite, le Conseil des ministres s'est opposé à cette loi
36:03 parce qu'il s'inquiète des obstacles extrêmement forts
36:08 qu'il y a sur le développement de l'intelligence artificielle.
36:11 Alors, moi, je l'ai lu en détail, ce règlement.
36:15 Il est très touchu, extrêmement compliqué.
36:17 Mais surtout, ce qui est problématique,
36:19 c'est qu'il se fonde sur la notion de risque.
36:21 L'intelligence artificielle, avant d'être des risques...
36:23 - C'est un marché.
36:24 - Parmi les risques, il y a des choses incroyables.
36:26 Par exemple, il y a des risques qui sont considérés
36:29 comme étant excessifs.
36:31 Et donc, on ne doit pas développer un certain nombre de choses.
36:33 Parmi ces risques, il y a les systèmes de notation.
36:36 - 30 secondes.
36:38 - Que l'on ait peur.
36:39 Mais si on interdit les systèmes de notation,
36:41 je le dis brièvement,
36:42 on va interdire le permis de conduire à point.
36:45 Alors, il me semble que ça n'a rien à voir avec l'intelligence artificielle.
36:49 Et donc, il faut se méfier.
36:50 Pourtant, il y a de l'intelligence artificielle
36:51 dans le permis de conduire à point.
36:52 - Laurent-Alexandre, le mot de la fin.
36:54 Vous avez 30 secondes.
36:56 - Je pense qu'en Europe, nous n'avons que des nains
36:59 en intelligence artificielle,
37:01 même si nous avons des bons chercheurs.
37:03 Il est aujourd'hui fondamental qu'on investisse massivement
37:05 parce que nous sommes vraiment écrabouillés
37:08 par les géants du numérique de la Silicon Valley
37:10 qui valent, comme vous le savez, des milliers de milliards en bourse.
37:13 Alors que nous, nous n'avons que des sympathiques start-up.
37:15 Il y a un énorme travail à faire pour rattraper notre ordre.
37:18 - On n'attend bonnet, n'acquiesce pas.
37:20 - Au fond, je suis d'accord avec ce que Laurent-Alexandre a dit.
37:24 On a manqué sûrement de moyens à ce niveau-là.
37:27 Mais par contre, pour reprendre sur la notation,
37:28 parce que ça pourrait être aussi mon mot de la fin,
37:30 c'est que je pense que ça va être super.
37:31 Parce que ça va permettre aussi aux profs,
37:33 et on n'en a pas parlé dans l'éducation,
37:34 de pouvoir se soulager aussi de la notation
37:36 qui obstruait à mon avis aussi beaucoup de la compétence du prof.
37:40 Et donc peut-être qu'on aura enfin place à la pédagogie.
37:42 - En tout cas, il y avait tellement de choses à dire.
37:44 Merci mille fois Laurent-Alexandre,
37:45 médecin essayiste, auteur des livres
37:47 "La guerre des intelligences",
37:48 "Intelligence artificielle versus intelligence humaine"
37:51 et "La guerre des intelligences" à l'heure de "Chat JPT".
37:53 Les deux publiés chez Jean-Claude Lattès.
37:56 - Jean-Gabriel Ganassia, professeur à la faculté des sciences
37:58 de la Sorbonne Université,
37:59 chercheur au LIPSIS,
38:00 laboratoire d'informatique de Paris 6
38:02 et auteur de "Servitudes virtuelles".
38:04 - Et Nathan Bonnet, fondateur de PolyMia,
38:06 la première intelligence artificielle de correction
38:08 à la prise de parole en public,
38:10 directeur de l'Observatoire IA et Éthique chez Sapiens
38:12 et gérant de l'incubateur Polycube,
38:15 spécialisé dans la start-up de l'IA.
38:17 Merci mille fois d'avoir été avec nous.
38:19 Vous nous avez passionnés messieurs.
38:21 Vous restez avec nous,
38:22 Sud Radio, ça continue.
38:23 Dans un instant, on parle rugby.
38:25 - Oui, on parle rugby avec Alexandre Priam
38:27 à la veille du match des Bleus contre la Namibie.
38:29 Nous, on se retrouve à 17h.
38:31 - Demain.
38:32 On se retrouve tout de suite dans le Sud Radio à votre service.
38:34 Salut à demain. Merci à notre équipe.