L’Intelligence artificielle va-t-elle bouleverser le monde ?

  • l’année dernière
Midi actu avec Laurent Alexandre, Auteur de "La Guerre des intelligences à l’heure de ChatGPT" (Editions JC Lattès)

Retrouvez Parlons Vrai chez Bourdin du lundi au vendredi de 10h30 à 12h30 sur #SudRadio.
---
Abonnez-vous pour plus de contenus : http://ow.ly/7FZy50G1rry

———————————————————————

▶️ Suivez le direct : https://www.dailymotion.com/video/x75yzts
Retrouvez nos podcasts et articles : https://www.sudradio.fr/

———————————————————————

Nous suivre sur les réseaux sociaux

▪️ Facebook : https://www.facebook.com/SudRadioOfficiel
▪️ Instagram : https://www.instagram.com/sudradioofficiel/
▪️ Twitter : https://twitter.com/SudRadio
▪️ TikTok : https://www.tiktok.com/@sudradio?lang=fr
———————————————————————

☀️ Et pour plus de vidéos Parlons vrai chez Bourdin : https://www.youtube.com/playlist?list=PLaXVMKmPLMDQkzX4JBcyhPDl9yzBynYbV

##LE FACE_A_FACE-2023-07-25##

Category

🗞
News
Transcript
00:00 Les débats de l'été Sud Radio, midi 13h30, Stéphanie Demuru.
00:06 Il est 13h07, soyez les bienvenus en direct sur Sud Radio.
00:09 C'est l'heure d'accueillir mon invité du jour, Laurent Alexandre.
00:12 Bonjour Laurent Alexandre.
00:14 Bonjour.
00:15 Bonjour. Il y a 6 ans déjà, le chirurgien Hénard que vous êtes, fondateur de Doctissimo,
00:19 publié "La guerre des intelligences" dans laquelle vous évoquiez les perspectives vertigineuses
00:25 de l'intelligence artificielle, notamment en matière d'éducation.
00:28 Suite à l'éruption fulgurante de Chad J.P.T. dans nos vies, vous êtes empressé de faire une mise à jour incontournable
00:35 avec "La guerre des intelligences" à l'heure de Chad J.P.T. aux éditions Lattesse.
00:40 On va revenir avec vous sur cette révolution qui nous pend au nez, qui a déjà d'ailleurs commencé.
00:46 Vous doutiez, Laurent Alexandre, il y a 6 ans, en écrivant votre livre,
00:50 que vous deviez justement ajouter à l'heure de Chad J.P.T. en 2023.
00:55 Eh bien, je ne pensais pas que les choses iraient si vite.
00:58 Pour tout vous dire, ce que réalise aujourd'hui par exemple en médecine J.P.T. 4,
01:02 je n'imaginais pas ça envisageable avant 2030, 2040.
01:06 Donc oui, j'ai été surpris par l'accélération depuis un an de la technologie
01:11 et des performances extraordinaires de ce qu'on appelle les LLM, les grands modèles de langage,
01:16 qui s'expriment aussi bien que les hommes, parfois mieux, par exemple dans le domaine de la médecine.
01:23 J.P.T. 4, la dernière version de Chad J.P.T. est plus performante que les médecins,
01:28 dans beaucoup de spécialités, et elle réalise par exemple des performances extraordinaires
01:33 à l'examen de qualification pour être neurochirurgien aux Etats-Unis,
01:37 ce qu'on appelle le board de neurochirurgie.
01:39 Elle a des performances qui étaient inimaginables, impensables il y a un an.
01:43 Donc oui, cette révolution va plus vite que prévu,
01:46 et donc elle va poser des questions sociales et politiques importantes,
01:50 parce qu'on n'a pas anticipé cette tornade technologique.
01:53 - Et comment vous voyez justement l'évolution de l'IA dans les années à venir ?
01:58 - Écoutez, je crois que personne aujourd'hui sur Terre n'est capable de dire
02:03 à quelle vitesse la révolution technologique va aller.
02:07 Nous sommes dans une espèce de brouillard technologique,
02:11 parce que les choses vont plus vite que prévu.
02:14 Donc on peut aujourd'hui à mon avis faire trois scénarios.
02:18 Le premier scénario, qui est le scénario lent,
02:21 dans lequel l'IA ne dépasse pas l'IA humaine dans les années qui viennent.
02:27 Et là, l'IA entraînera simplement une révolution industrielle,
02:31 une révolution schumpeterienne, comme l'électricité ou la vapeur.
02:35 Ou l'Internet, la feinte.
02:37 Le deuxième scénario, qui est privilégié par les experts,
02:40 c'est que l'IA arrive dans les 1 000 à 2 000 jours
02:43 au niveau de ce qu'on appelle l'intelligence artificielle générale,
02:46 ou la CGI en anglais.
02:48 C'est-à-dire qu'elle dépasserait l'homme dans toutes les dimensions.
02:51 Ça, ce serait une révolution civilisationnelle.
02:54 Et puis le troisième scénario, qui est le scénario privilégié par Sam Altman,
02:58 le fondateur du ChatGPT,
03:00 c'est que la super-intelligence artificielle arrive avant 2030.
03:03 Là, ce ne serait plus un changement civilisationnel,
03:07 ce serait un changement anthropologique,
03:09 parce que la place de l'homme sur Terre serait radicalement nouvelle,
03:13 car il serait marginalisé par la super-intelligence artificielle.
03:16 Donc vous voyez, le brouillard technologique dans lequel on est,
03:19 notre incertitude par rapport aux trois scénarios que je vous ai décrits,
03:23 fait qu'il est difficile de savoir ce qui va se passer
03:26 entre une révolution industrielle comme une autre,
03:29 et puis l'arrivée de la super-intelligence artificielle,
03:32 qui est un vrai changement anthropologique.
03:35 Il y a d'énormes différences.
03:37 Donc je crois qu'il faut se préparer aux trois scénarios.
03:39 Mais ça n'est pas facile,
03:40 parce que les choses vont beaucoup plus vite qu'on l'envisageait.
03:42 On a compris qu'on était dans le flou et dans l'expectatif.
03:46 Est-ce qu'on doit en avoir peur, ou on doit au contraire s'en réjouir,
03:49 ou les deux ?
03:51 Alors écoutez, de savoir ce qu'on va faire de cet outil extraordinaire
03:55 est très difficile.
03:57 De savoir si l'intelligence artificielle pourrait devenir hostile un jour,
04:01 c'est difficile à déterminer.
04:03 Vous avez probablement vu que la plupart des experts mondiaux
04:06 et des industriels de l'intelligence artificielle
04:08 ont publié un écrit de 22 mots le mois dernier,
04:12 expliquant que pour limiter le risque d'extermination de l'homme
04:16 par l'intelligence artificielle,
04:18 il fallait que tout le monde travaille
04:20 comme nous travaillons à réduire le risque de guerre nucléaire
04:23 ou de pandémie mondiale.
04:25 Donc vous voyez, il y a des gens très pessimistes.
04:27 A l'opposé, il y a des gens extrêmement optimistes
04:30 qui pensent que nous allons rentrer dans un nouveau siècle des lumières,
04:33 dans une explosion technologique extraordinaire.
04:36 Le vice-président de Google, Ray Kurzweil,
04:40 a même déclaré qu'il pensait que la mort de la mort,
04:42 l'immortalité, pourrait grâce à chaque GPT
04:45 et à ses successeurs, arriver dès 2029.
04:48 Vous voyez qu'il y a des très optimistes
04:50 et des très pessimistes par rapport à notre place
04:53 face à l'intelligence artificielle.
04:54 Mais peut-être parce qu'il y a des bienfaits,
04:56 mais aussi des dangers.
04:58 Elon Musk, par exemple, prône, on le sait, un moratoire de 6 mois.
05:02 Il évoque des risques majeurs pour l'humanité.
05:05 Quels pourraient être concrètement ces risques, Laurent Alexandre ?
05:08 Alors l'utilisation malfaisante,
05:12 c'est-à-dire la désinformation,
05:14 la manipulation des gens par l'intelligence artificielle.
05:17 On pourrait avoir aussi une révolution industrielle et économique mal gérée
05:22 avec beaucoup de gens sur le bord de la route.
05:25 Vous voyez, il y a des domaines dans lesquels l'intelligence artificielle
05:28 est très supérieure à nous.
05:30 Que vont devenir les professions qui sont challengées,
05:33 les avocats, les médecins,
05:35 si nous n'organisons pas une réforme des études médicales, par exemple,
05:39 dans mon domaine qui est la médecine ?
05:41 On va avoir des mauvaises surprises
05:43 parce qu'il y a beaucoup de secteurs dans lesquels
05:45 l'intelligence artificielle va dépasser les capacités humaines.
05:50 Mais est-ce qu'elle ne peut pas justement,
05:52 c'est ce qui se passe un petit peu en ce moment,
05:54 mais on en est qu'au prémice, vous l'avez très bien expliqué,
05:56 est-ce que ça ne peut pas tout simplement venir en support,
05:58 en aide de l'être humain ?
06:00 Oui, bien sûr.
06:02 Mais pour que l'intelligence artificielle soit positive,
06:05 soit complémentaire, soit un support par rapport à l'homme,
06:09 il faut d'abord savoir s'en servir.
06:11 Et puis, il faut faire des choses que l'intelligence artificielle ne fait pas.
06:14 Vous voyez, si vous êtes un cadre
06:16 et que vous faites en trois jours ce que chaque GPT fait en 15 secondes,
06:20 ça va mal se passer dans l'entreprise.
06:22 De la même façon, dans le monde des journalistes,
06:25 il faut apporter une valeur ajoutée par rapport à GPT-4.
06:28 Aujourd'hui, on sait que beaucoup de journalistes
06:31 écrivent leurs articles avec chaque GPT dans sa version 4.
06:35 Est-ce que les rédactions accepteront éternellement
06:38 que les journalistes se servent de l'outil
06:40 sans apporter de valeur ajoutée ? Je ne suis pas sûr.
06:42 - En fait, chaque GPT, pardon Laurent Alexandre,
06:44 alors moi je ne l'utilise pas, je vous le dis tout de suite,
06:46 je l'ai utilisé pour faire les devoirs avec mes enfants,
06:49 pour tout vous dire.
06:51 Mais il faut prioriser l'information,
06:54 chaque GPT ne le fait pas encore, n'est-ce pas ?
06:57 - Il le fait de mieux en mieux.
07:00 Je vous conseille d'utiliser non pas chaque GPT,
07:02 mais GPT-4 qui est la version, la toute dernière version de chaque GPT.
07:05 Vous allez voir qu'il y a un énorme problème pour les journalistes
07:08 et il y a déjà des journaux qui sont en train de remplacer
07:11 une partie de leur équipe journalistique par l'intelligence artificielle.
07:14 Donc moi je ne suis pas un pessimiste,
07:16 mais pour que les scénarios roses se déroulent,
07:19 il faut réformer radicalement nos institutions,
07:22 il faut bien sûr réformer l'école,
07:25 parce qu'aujourd'hui l'école forme au métier d'avant chaque GPT
07:28 et pas au métier de l'époque de chaque GPT et de ses successeurs.
07:31 - Il y a du retard dans l'éducation nationale,
07:34 vous êtes catastrophé de voir ça.
07:37 Il faudrait l'intégrer comment aujourd'hui ?
07:40 - Le retard est immense, mais ce n'est pas spécifique à la France.
07:43 Ce n'est pas la faute de Pape Nyaïn, ce n'est pas la faute de Macron,
07:46 ce n'est pas la faute d'Elisabeth Borne.
07:48 Dans tous les pays, les institutions ne sont pas prêtes
07:51 parce que la tornade technologique est allée trop vite.
07:54 Nous sommes aujourd'hui dans une difficulté
07:57 à prévoir ce qui va se passer.
08:00 On a vu le niveau d'incertitude face auquel on est.
08:03 Et puis nous ne savons pas à quelle vitesse l'IA va aller,
08:06 donc nous ne savons pas comment il faut former les enfants.
08:09 Vous voyez bien que si l'IA galope très vite,
08:12 les métiers auxquels l'éducation va dans 6 mois former nos gamins
08:15 n'existeront plus sous la forme actuelle
08:18 parce que l'intelligence artificielle aura progressé.
08:21 - Vous leur diriez quoi aujourd'hui à ces jeunes, Laurent Alexandre, finalement ?
08:24 - Alors, culture générale.
08:27 Culture générale. Culture générale.
08:30 L'école doit former à une bonne culture générale.
08:35 Le plus important, c'est que les gamins
08:38 aient une pensée transversale, connaissent le monde.
08:41 Il ne faut surtout pas avoir des savoirs techniques très étroits
08:44 parce que l'intelligence artificielle nous dépassera
08:47 dans les savoirs techniques très étroits.
08:50 Donc il faut être transversal et avoir beaucoup de culture générale.
08:53 En 1934, le général de Gaulle écrivait
08:56 "La culture générale est l'école du commandement".
08:59 Eh bien, on peut dire en 2023
09:02 que la culture générale est la bonne école
09:05 pour être complémentaire face à l'intelligence artificielle.
09:08 La phrase de de Gaulle est plus vraie que jamais.
09:11 C'est la culture générale qui est importante.
09:14 Apprendre à coder n'est pas le sujet. D'ailleurs, chaque GPT code très bien
09:17 et ses successeurs coderont mieux que la plupart des êtres humains.
09:20 Donc il ne faut pas précipiter nos enfants à apprendre à coder.
09:23 Il faut leur donner une grande culture, une grande curiosité,
09:26 une déshumanité plus une culture scientifique générale.
09:29 C'est la transversalité qui va nous apporter
09:32 une complémentarité face à l'intelligence artificielle.
09:35 Ne soyons surtout pas des techniciens spécialisés.
09:38 Il y a aussi un enjeu de souveraineté.
09:41 Aujourd'hui, la Chine a une grande longueur d'avance.
09:44 Comment va faire l'Europe pour rattraper ce retard ?
09:47 La Chine était plutôt en avance sur l'Europe
09:50 et était à égalité avec les Etats-Unis en intelligence artificielle.
09:53 Mais depuis six mois, les Etats-Unis ont pris une très grosse avance.
09:56 Aujourd'hui, la Chine a deux à trois années de retard
09:59 par rapport à ce que fait GPT4.
10:02 Elle n'arrive pas à rattraper son retard.
10:05 D'abord parce que le Parti communiste censure
10:08 beaucoup les états-unis.
10:11 Le Parti communiste censure beaucoup les intelligences artificielles
10:14 et a exigé que les intelligences artificielles chinoises
10:17 respectent les principes du Parti communiste.
10:20 Cette censure diminue beaucoup
10:23 les performances des intelligences artificielles chinoises.
10:26 Aujourd'hui, c'est la Californie qui est maître du monde
10:29 en matière d'intelligence artificielle
10:32 avec les leaders que vous connaissez.
10:35 La Chine est derrière et l'Europe est complètement larguée.
10:38 Aujourd'hui, l'Europe a entre 5 et 10 années de retard
10:41 en intelligence artificielle sur la Californie.
10:44 Mais nous investissons très peu.
10:47 N'oublions jamais que le budget de recherche d'Amazon, du seul Amazon,
10:50 est de 40 milliards de dollars par an,
10:53 c'est-à-dire cinq fois le budget du CNRS en France.
10:56 Il y a la question de souveraineté culturelle aussi.
10:59 Justement, si les modèles de langue ne sont pas construits
11:02 à partir de nos propres données et valeurs d'Européens,
11:05 on risque de voir une représentation du monde
11:08 qui n'est peut-être pas la nôtre, n'est-ce pas ?
11:11 Oui, bien sûr. Un modèle de données reproduit
11:14 la vision culturelle de ses créateurs.
11:17 Mais il faut bien comprendre qu'il n'est pas possible de construire
11:20 un modèle de données uniquement à partir des données européennes.
11:23 Il n'y en a pas assez. Il faut les données du monde entier
11:26 pour qu'une intelligence artificielle de type JAT-GPT soit performante.
11:29 Si nous éduquions des intelligences artificielles
11:32 uniquement avec les données numériques européennes,
11:35 elles seraient mauvaises, médiocres.
11:38 Nous aurions le même problème qu'ont les Chinois,
11:41 qui éduquent leurs intelligences artificielles uniquement avec les données chinoises.
11:44 Il faut éduquer une intelligence artificielle avec toutes les langues du monde,
11:47 tous les argots du monde, tous les patois du monde,
11:50 dans tous les domaines de la connaissance humaine
11:53 pour avoir une intelligence artificielle pertinente.
11:56 Donc, un nationalisme étroit,
11:59 un protectionnisme étroit qui limiterait
12:02 les intelligences artificielles européennes aux données européennes
12:05 serait catastrophique parce que cela produirait
12:08 des intelligences artificielles qui seraient à JAT-GPT,
12:11 ce que les Minitel et à Internet.
12:14 - Justement, vous mettez le doigt sur l'un des dangers.
12:17 D'ailleurs, on parlait d'Elon Musk tout à l'heure. Il accuse OpenAI
12:20 d'être programmé pour être, par exemple, WOC,
12:23 Pro-immigration, favorable à la cause LGBT.
12:26 Ce n'est pas un souci en soi,
12:29 mais c'est orienté, selon en tout cas
12:32 Elon Musk, il y a vraiment ce danger.
12:35 - Tout créateur de contenu
12:38 formate les outils intellectuels en fonction de ses valeurs.
12:41 C'est normal.
12:44 Pape Diagne n'est pas bienvenu sur Sud Radio
12:47 de la même façon que Jordan Bardella
12:50 n'est pas forcément bien accueilli
12:53 chez Libération. Donc, il y a toujours un biais culturel
12:56 quand on crée un outil cognitif, un outil intellectuel.
12:59 L'intelligence artificielle n'y échappe pas.
13:02 OpenAI est assez WOC et a construit
13:05 un outil qui est plutôt WOC. D'ailleurs, dans le Figaro
13:08 avec mon ami Babo, on a écrit un article
13:11 JAT-GPT ou la Pravda 2.0.
13:14 Il y a très clairement un biais culturel
13:17 chez JAT-GPT. - Alors, vous parlez de la Pravda.
13:20 Je ne sais pas pourquoi, ça me fait penser au deepfake.
13:23 C'est l'un des dangers aussi peut-être de l'intelligence artificielle
13:26 quand on imite les voix, les vidéos.
13:29 C'est un fléau
13:32 qui va nous tomber dessus.
13:35 - Il va falloir des outils de cybersécurité très innovants.
13:38 Récemment, une journaliste du Wall Street Journal
13:41 grâce à l'intelligence artificielle a trompé son banquier
13:44 et ses parents.
13:47 Elle s'est fait passer pour elle-même
13:50 avec une vidéo d'elle-même qui discutait
13:53 avec ses parents. Ses parents ont cru que c'était elle
13:56 alors qu'en fait, c'était elle représentée par une intelligence
13:59 artificielle. Elle a réussi à manipuler sa famille
14:02 et elle a également manipulé
14:05 sa banquière à partir
14:08 d'une vidéo produite par l'intelligence artificielle.
14:11 Donc oui, les problèmes de sécurité vont être importants
14:14 et la cybersécurité va être un enjeu immense
14:17 dans les années qui viennent. Ce qui veut dire qu'il va falloir moderniser
14:20 la police parce que les policiers de 2023
14:23 ne sont pas forcément des grands spécialistes de l'intelligence artificielle
14:26 et c'est un euphémisme.
14:29 - Que pensez-vous de l'idée récurrente
14:32 que l'IA pourrait un jour surpasser
14:35 l'intelligence humaine ?
14:38 - Je n'en sais rien.
14:41 Je ne sais rien de tout le monde. Je vois que le débat est extrêmement
14:44 tranché. Si vous prenez les trois fondateurs
14:47 de l'intelligence artificielle moderne, sous la forme
14:50 des réseaux de neurones comme CHAD-GPT,
14:53 ce qu'on appelle les réseaux de neurones profonds, vous avez Yann Lequin
14:56 qui affirme que l'intelligence artificielle va nous dépasser
14:59 mais qu'elle ne sera jamais hostile. Et vous avez les deux autres
15:02 inventeurs des réseaux de neurones qui sont Ben Jio
15:05 et Einton qui sont extrêmement
15:08 inquiets et qui ont peur d'une extermination de l'humanité
15:11 par l'intelligence artificielle. Vous voyez, parmi les fondateurs
15:14 de ces réseaux de neurones, il y a un désaccord
15:17 complet. Donc moi, là-dedans, je ne suis pas capable de trancher.
15:20 Je vois les inquiétudes et j'observe
15:23 surtout la très grande difficulté de se faire une opinion
15:26 parce que la tornade technologique va très vite
15:29 et parce qu'il n'y a pas d'accord parmi les spécialistes du secteur.
15:32 C'est quand même troublant de voir que la plus puissante
15:35 des inventions humaines ne conduisent à aucun
15:38 consensus entre les experts, entre les savants.
15:41 Je parlais de brouillard numérique. Oui, nous devons
15:44 gérer cette révolution en plein brouillard numérique
15:47 avec des désaccords profonds au sein des plus grands
15:50 spécialistes mondiaux de ce sujet. - Est-il temps de la brider ?
15:53 De la réglementer, en tout cas ?
15:56 - Écoutez, je pense que c'est impossible.
15:59 Personne n'accepterait qu'on se prive des bienfaits
16:02 que l'intelligence artificielle va donner.
16:05 Dans le domaine de la médecine, ma conviction, c'est que l'intelligence
16:08 artificielle va permettre de guérir la quasi-totalité
16:11 des cancers dans les prochaines années grâce à sa
16:14 puissance extraordinaire. Qui accepterait que l'on
16:17 continue à mourir du cancer si l'intelligence artificielle
16:20 peut, dans les années qui viennent, guérir la plupart
16:23 des cancers ? On pourrait dire la même chose
16:26 dans la plupart des domaines. Donc je pense
16:29 que l'on ne freinera pas l'intelligence artificielle.
16:32 C'est pour ça qu'il faut bien réfléchir à sa régulation et surtout
16:35 à la façon dont on va moderniser l'école parce que nous
16:38 rentrons dans un monde où nous allons être baignés dans une quantité
16:41 infinie d'intelligence gratuite et nous n'y sommes pas
16:44 préparés. Le patron de Nvidia
16:47 qui fabrique les puces électroniques
16:50 qui équipent la plupart des ordinateurs qui font de l'intelligence artificielle
16:53 sur Terre a déclaré il y a deux mois que
16:56 selon lui, l'intelligence artificielle en
16:59 2032 sera un million de fois plus intelligente
17:02 que GPT-4. Vous voyez que
17:05 nous rentrons dans un monde où l'intelligence humaine va
17:08 être minoritaire. L'intelligence biologique générée
17:11 par des neurones, par des cerveaux biologiques
17:14 va être ultra minoritaire parmi l'intelligence
17:17 dans le monde. On peut d'ailleurs
17:20 imaginer, envisager qu'au début
17:23 des années 2030, l'intelligence humaine ne
17:26 représente plus qu'un millionième
17:29 de l'intelligence totale sur Terre.
17:32 999 000, 999ème
17:35 de l'intelligence sur Terre serait artificielle.
17:38 C'est une vraie révolution à laquelle il faut
17:41 réfléchir et on n'y a pas réfléchi. - Vous me parlez d'une
17:44 intelligence brute, donc du QI d'une certaine manière
17:47 même si on ne peut pas vraiment le transcrire
17:50 comme ça, mais sans émotion ?
17:53 - Oui, mais vous savez, là-dessus
17:56 on s'est trompé. Une étude publiée
17:59 dans le JAMA, qui est la troisième plus grande revue médicale
18:02 au monde, le Journal of Medical
18:05 Association, a montré
18:08 que GPT est
18:11 deux fois plus empathique que les médecins pour
18:14 répondre aux interrogations et aux angoisses des malades.
18:17 Donc l'idée selon laquelle l'intelligence artificielle
18:20 s'occuperait du quotient intellectuel et puis que nous nous occuperions
18:23 du quotient émotionnel des sentiments, de l'empathie
18:26 est une idée fausse parce que l'intelligence artificielle est très
18:29 patiente. Un patient peut parler à GPT-4
18:32 150 heures de suite,
18:35 GPT-4 ne lui dira à aucun moment "J'ai faim, je vais manger"
18:38 ou "Je vais retrouver ma famille".
18:41 - Attention à la déception au bout quand même, parce que ça reste un robot.
18:44 - Non, la patience de l'intelligence artificielle
18:47 elle est totale. Donc il va falloir
18:50 que nous inventions notre place dans ce monde
18:53 gorgé d'intelligence artificielle. Pour l'instant, nous n'avons pas
18:56 de solution simple. C'est pour ça qu'il est urgent d'ouvrir un débat
18:59 sur la place de l'intelligence artificielle dans nos sociétés.
19:02 Mais il ne faut pas qu'on se surestime. Il est
19:05 certain que l'intelligence artificielle va nous dépasser.
19:08 Ce qui ne veut pas dire qu'elle sera hostile. Et d'ailleurs
19:11 l'un des objectifs de l'humanité, à mon avis,
19:14 c'est d'assurer un alignement entre l'intelligence artificielle et l'intelligence humaine
19:17 pour éviter les scénarios noirs qui ont été
19:20 décrits par les gens dont vous parliez
19:23 notamment Elon Musk, qui a très peur que l'intelligence
19:26 artificielle nous écrase.

Recommandée