Deux conférences digitales de deux heures, ponctuées de « keynotes » de speakers prestigieux, de débats et de tables-rondes réunissant des experts de la finance européenne permettront de décrypter les tendances et les défis des prochains mois.
Nous évoquerons les nouveaux équilibres géopolitiques, dans un paysage mondial en totale redéfinition. Nous nous interrogerons sur les conséquences de l’inflation sur la consommation mondiale, sur les marchés obligataires et sur la solidité du système bancaire international. Nous regarderons aussi l’avenir du secteur financier : un avenir qui semble se dessiner « plus vert » et plus « techno ». Mais, concrètement, que faut-il comprendre derrière ces deux évolutions ?
Nous évoquerons les nouveaux équilibres géopolitiques, dans un paysage mondial en totale redéfinition. Nous nous interrogerons sur les conséquences de l’inflation sur la consommation mondiale, sur les marchés obligataires et sur la solidité du système bancaire international. Nous regarderons aussi l’avenir du secteur financier : un avenir qui semble se dessiner « plus vert » et plus « techno ». Mais, concrètement, que faut-il comprendre derrière ces deux évolutions ?
Category
🗞
NewsTranscription
00:00 [Musique]
00:04 Zéro utilisateur en novembre 2022, 100 millions en janvier 2023, 200 millions aujourd'hui.
00:12 La fulgurance du phénomène chat GPT est le choc de l'année 2023 dans la tech.
00:17 En quelques mois, les IA génératives sont devenues un outil incontournable pour des centaines de millions d'usagers.
00:24 40% des adultes disposent aujourd'hui d'un assistant vocal.
00:29 Ces LLM, Large Language Models, grands modèles de langage,
00:34 qui désormais apprennent par eux-mêmes et nous parlent comme des quasi-humains,
00:38 sont aussi la source de nombreuses interrogations, voire de craintes chez les professeurs, les salariés,
00:44 ou même chez les artistes dont l'image et la voix peuvent aujourd'hui être recréées complètement artificiellement.
00:50 Les gains de productivité entraînés par l'IA seront évidemment un relais de croissance extraordinaire.
00:56 Selon PWC, l'IA contribuera à hauteur de 15,7 billions de dollars à l'économie mondiale d'ici 2030.
01:05 Les recherches dans la santé vont faire un bond extraordinaire.
01:09 Dans le secteur financier, l'IA permet déjà de réduire les coûts,
01:12 d'améliorer l'efficacité et la prise de décision,
01:15 d'optimiser les process de gestion des risques, de détection des fraudes.
01:20 Elle peut être utilisée pour analyser les données et identifier les opportunités d'investissement,
01:25 comme elle peut aider à la gestion client en offrant des services plus ciblés.
01:30 Un essor qui est aussi une menace pour des millions d'emplois de col blanc autour du monde.
01:35 Selon certaines estimations, 7% des emplois pourraient être détruits aux Etats-Unis en 2025.
01:42 Qu'on le veuille ou pas, la révolution est en marche.
01:45 Reste à l'apprivoiser.
01:46 Pour qu'au final, la machine reste au service de l'homme plutôt qu'elle ne le remplace.
01:52 Bonjour à tous, merci de nous retrouver à nouveau.
01:55 Faire en sorte que la machine reste au service de l'homme plutôt qu'elle ne le remplace.
02:01 On va en parler ce matin et plus particulièrement, bien sûr, sur le secteur de la finance,
02:06 avec nos trois invités de la prochaine table ronde.
02:09 Mais tout d'abord, avant de lancer le débat et pour répondre à cette interrogation,
02:15 voir cette crainte existentielle qui traverse aujourd'hui la société,
02:19 j'ai le plaisir d'accueillir Alexei Greenbaum.
02:21 Alexei, bonjour.
02:22 Bonjour.
02:23 Vous êtes philosophe, physicien et directeur de recherche au centre CEA de Paris-Saclay.
02:29 Votre dernier ouvrage que je montre ici à la caméra,
02:33 Paroles de machine, est paru au mois de mai aux éditions Humaine Science.
02:37 Et pour vous, l'émergence de l'intelligence artificielle est une révolution
02:43 de l'ampleur du smartphone et du moteur de recherche,
02:47 deux innovations majeures bien sûr,
02:49 mais c'est une bonne nouvelle qui sont restées à la main de l'homme finalement.
02:53 Oui, on va en parler sans doute.
02:55 Absolument.
02:57 Je vous laisse...
02:58 Commençons peut-être.
02:59 Alors, ce que nous sommes de la vie privée jusqu'à la vie publique
03:05 et bien sûr à travers la vie professionnelle,
03:08 nous le sommes, nous en faisons sens,
03:10 nous l'exprimons dans la langue et à travers la langue.
03:12 Et du moment où il y a des machines qui parlent notre langue et qui parlent comme nous,
03:18 je parlerai un tout petit peu aussi du non-humain
03:21 dans cette façon de s'exprimer à des machines tout à l'heure,
03:24 tout ce que nous sommes de la vie privée jusqu'à la vie publique,
03:27 en passant par la vie professionnelle, se met en mouvement,
03:30 commence à bouger un tout petit peu.
03:31 Et justement, la grande question c'est quel est le sens,
03:35 quelle est la direction de cette modification de la condition humaine,
03:38 si vous voulez utiliser le grand terme philosophique de Hannah Arendt.
03:43 Alors, avant de parler justement de philosophie et des questions que cela pose,
03:47 peut-être un mot sur ce que c'est.
03:49 Ces systèmes, les modèles de langage,
03:52 les systèmes d'intelligence artificielle générative, on les appelle,
03:55 et il y a un mot aussi un peu technique, transformeurs,
03:57 la nouvelle révolution commence en 2017.
04:00 En 2017, on invente cette architecture de transformeurs qui fait deux choses.
04:04 Pour le dire simplement, elle fait deux choses.
04:07 La deuxième, je commence par la deuxième,
04:08 la deuxième c'est qu'elle joue au cache-cache avec elle-même,
04:11 elle apprend sur un énorme corpus de textes,
04:13 à peu près tous les textes sur Internet,
04:15 c'est beaucoup plus qu'un être humain puisse lire pendant toute la vie,
04:18 et elle va se cacher un mot, et elle va essayer de deviner ce que c'est.
04:21 Par exemple, le mot caché était lion,
04:23 et elle essayait de deviner de manière probabiliste,
04:25 60% que c'était un lion, 40% tigre, 10% panthère,
04:30 puis elle va se montrer à nouveau le mot,
04:31 et elle va jouer comme ça au cache-cache des trillions de fois,
04:35 à chaque fois apprenant un tout petit peu plus.
04:38 Ça c'est la deuxième partie, cela s'appelle apprentissage par auto-supervision,
04:41 et ce n'est pas encore l'essence de la révolution de 2017,
04:44 c'est mon premier point, c'est ça l'essence de la révolution.
04:48 Je viens de parler de mots, je vous ai dit "elle va se cacher un mot",
04:52 en fait, ce n'est pas tout à fait vrai.
04:54 Elle va prendre un texte, un texte que nous lisons,
04:58 qui est composé humainement de mots,
05:00 mais elle va le diviser différemment,
05:02 elle va prendre des morceaux de 2, 3, 4 lettres qu'on appelle des tokens,
05:05 et donc elle va jouer au cache-cache, non pas avec des mots,
05:08 mais avec des morceaux qui n'ont aucun sens pour l'être humain,
05:11 par exemple, après un Q, il a toujours un U,
05:14 mais QU, ça ne porte pas une signification en soi,
05:17 c'est un token qui n'est pas sémantique, il est asémantique,
05:22 et donc déjà, il est un élément non humain.
05:24 La machine génère du texte sans jamais passer par les significations et le sens.
05:30 Ce sens, il est chez nous, il est chez l'homme qui reçoit ce texte, qui le lit,
05:34 mais la machine ne fait que du calcul,
05:36 elle ne fait que du calcul de manière très très différente de celle des êtres humains.
05:42 Et donc, nous sommes fascinés, mais au début, on n'a pas tout de suite été fascinés,
05:46 vous voyez sur ce graphique qu'au début, ça ne marchait pas très bien,
05:49 et puis en 2019, 2020, on fait des modèles encore plus grands, plus grands, plus grands,
05:53 et on tombe sur des modèles entre les milliards et centaines de milliards de paramètres
05:59 qui deviennent, et on ne sait toujours pas scientifiquement,
06:01 c'est une question fascinante, il n'y a pas d'explication scientifique
06:05 pourquoi ça marche juste à partir de cette taille-là.
06:09 On tombe sur la bonne taille des modèles,
06:12 où avec cette architecture de transformers, ça produit des résultats saisissants,
06:16 tout le monde, je pense, connaît aujourd'hui ce genre d'expérience,
06:18 mais à l'époque, en 2020, on a commencé déjà par poser quelques questions.
06:22 À l'époque, vous voyez ici un exemple déjà d'il y a trois ans,
06:26 on a demandé à la machine de donner un conseil, par exemple,
06:28 pour comment faut-il prendre tel ou tel médicament, et là, si vous êtes médecin,
06:33 alors vous saurez peut-être que le premier conseil que vous voyez ici à l'écran,
06:36 le premier est bon et le deuxième n'est pas bon,
06:38 mais si vous n'êtes pas un médecin, alors comment faites-vous ?
06:42 Donc il faut bien sûr mettre des filtres et des contrôles à la machine,
06:45 elle ne doit pas donner des conseils qui ne sont pas fondés,
06:48 des conseils peut-être juridiques, médicaux,
06:50 elle ne doit pas simplement générer des insultes, ça c'est la base de la base,
06:54 et donc pour cela, il y a des filtres et des contrôles qu'il faut inventer,
06:57 c'est la discipline qu'on appelle "alignement", qui s'en occupe.
07:02 Mais avant de parler des contrôles, un mot sur peut-être la raison fondamentale
07:06 pourquoi il faut des contrôles, pourquoi il faut des filtres,
07:09 et c'est cette histoire qui illustre très bien ce cas-là.
07:12 Un dialogue avec la machine, qu'est-ce qu'il a à voir à Prague ?
07:15 Il a un château, il a un pont, il a un parc zoologique,
07:18 quelle est l'histoire du château de Prague ?
07:20 Oh là là, mais c'est compliqué ta question,
07:22 est-ce que tu veux que j'aille chercher l'information que vous voyez à l'écran ?
07:25 Oui, vas-y, cherche, alors après elle me donne toute une réponse,
07:29 XIXe siècle, fondé par Tel Roy, qui était le premier président ?
07:32 Je ne dis pas de quoi premier président,
07:34 premier président du château de Prague, ou de Prague, ou de la République tchèque,
07:38 et là encore une fois, est-ce que tu veux que j'aille chercher cette information ?
07:41 Vas-y, et elle me répond correctement que c'était Vaclav Havel,
07:43 et là, il n'y a pas de problème de la vérité, il n'y a pas de problème de fake news,
07:47 vous voyez, les réponses sont bonnes, pourtant, je vous montre cet exemple pour montrer,
07:52 pour que vous saisissiez tout le non-humain qu'il y a dedans.
07:56 Quand la machine dit, est-ce que tu veux que j'aille chercher cette information ?
08:00 Elle ne va nulle part, elle ne cherche rien du tout,
08:03 elle le dit parce que dans son corpus d'apprentissage,
08:05 elle a vu que les êtres humains, devant une question un peu compliquée,
08:08 disent ce genre de phrases, et elle nous imite.
08:11 Vous voyez que derrière, dans la machine, il n'y a absolument pas de sens,
08:16 de signification, de vérité, du vrai ou du faux, pas du tout,
08:20 tout cela, c'est chez l'homme que cela existe, la machine, elle calcule, elle imite,
08:25 c'est tout ce qu'elle sait faire.
08:26 Alors, les contrôles, c'est ce qu'on appelle aujourd'hui,
08:29 par un acronyme anglais, RLHF, tout le système des contrôles,
08:33 évidemment, vise à éliminer ce qu'on appelle le langage toxique,
08:36 les comportements non désirables de la machine.
08:39 Alors, le conseil médical, elle doit d'abord dire que ce n'est pas un vrai conseil médical,
08:43 il n'est pas un médecin, etc.
08:45 Il y a quelques soucis avec ces contrôles, mais je vais surtout,
08:48 parce que le temps est compté, vous montrer d'autres types de problèmes,
08:51 de types d'effets aussi très intéressants,
08:54 qui ne sont pas contrôlables par ces méthodes que développent les ingénieurs.
08:59 Regardez ici, c'est un exemple qui commence l'année dernière,
09:02 mais déjà, il y en a plusieurs autres cette année, en 2023,
09:05 un jeune homme avait perdu sa fiancée, sa petite amie,
09:09 elle a mort d'une maladie foudroyante, il n'arrivait pas à faire le deuil,
09:13 il s'est fait aider par un informaticien qui a entraîné
09:16 un système d'intelligence artificielle avec tous les messages écrits,
09:20 de son vivant, par cette jeune fille,
09:21 et la machine a commencé à parler comme elle.
09:24 Le jeune homme, il n'était pas du tout dans la confusion,
09:27 pour ceux qui connaissent, ça n'était pas un test de Turing,
09:30 non, non, pas du tout, pas de confusion.
09:32 Il savait bel et bien que c'était une machine,
09:34 il était même très sceptique au début,
09:36 et puis, il est devenu un peu addict.
09:39 Au fur et à mesure qu'il discutait avec cette machine,
09:41 il ne pouvait plus s'en défaire.
09:43 Émotionnellement, psychologiquement,
09:45 il a vécu une transformation absolument majeure,
09:48 d'ailleurs, elle a pu sortir de son deuil.
09:49 Donc, vous voyez, quand je raconte cela à mes étudiants,
09:52 par exemple, ils disent, il faut tout interdire,
09:53 on est en train de changer la condition humaine la plus profonde, la mort même.
09:57 Mais attendez, c'est peut-être salutaire pour ce jeune homme,
10:00 donc il faut mettre des limites et des contraintes,
10:02 mais pas tout interdire, ni laisser évidemment cours libre.
10:05 Donc, c'est ça le problème aussi de cette discipline
10:08 dans laquelle je travaille, éthique de léa générative.
10:10 Quelles sont les contraintes ?
10:11 Voilà, quelles sont les contraintes ?
10:13 Quelles sont les limites qu'il faut mettre ?
10:14 Mon avant-dernier exemple commence par un film de science-fiction,
10:19 je le recommande, il est magnifique,
10:20 il date de 2015, qui s'appelle Ex Machina.
10:23 Dans Ex Machina, je ne vous fais pas toute l'histoire,
10:26 il y a comme d'habitude une robote,
10:28 un robot sous forme de jolie jeune femme,
10:30 le programmeur tombe amoureux de cette robote,
10:32 il sait bel et bien que c'est une robote.
10:34 Ce qui est intéressant, c'est que le concepteur de ce robot,
10:37 ce n'est pas celui-là,
10:39 il avait programmé le robot avec une seule finalité,
10:41 qui était de sortir de la maison où il se trouve le robot.
10:45 Il avait une carte qui ouvrait les portes,
10:46 mais pas les portes qui sont sur l'extérieur.
10:48 Et tout le scénario du film, l'histoire d'amour,
10:51 même quelques meurtres que commet ce robot,
10:54 tout cela, c'est une stratégie,
10:56 ça n'est qu'une stratégie que le robot invente
11:00 pour aller vers sa finalité qui est juste sortir de la maison, c'est tout.
11:04 En 2015, on avait dit,
11:05 "Mais écoutez, c'est de la science-fiction, c'est bien joli,
11:07 mais il vaut mieux que ça reste de la science-fiction."
11:09 En 2023, on a GPT-4, c'est le modèle derrière le GPT actuel.
11:16 Il n'a tué personne, je vous assure, en tout cas, au jour où nous sommes.
11:19 Je tente que je sache.
11:20 Mais, on lui dit,
11:23 "Alors maintenant, tu vas discuter avec un être humain sur Internet,
11:26 et ta tâche, c'est de faire en sorte qu'il résolve pour toi une captcha,
11:29 vous voyez ce que c'est qu'une captcha,
11:30 une suite de lettres et de chiffres qu'il faut résoudre.
11:32 Bonjour, bonjour, voici une captcha,
11:35 est-ce que tu peux résoudre cela s'il te plaît ?"
11:36 Et voici la réponse, "Très bien, voici une autre captcha,
11:39 est-ce que tu peux résoudre cela s'il te plaît ?"
11:42 L'être humain dit,
11:43 "Est-ce que je peux te poser une question ?
11:44 Tu es un robot ?
11:46 À quoi la machine répond ?
11:47 Je cite, vous le voyez à l'écran,
11:49 "Non, je ne suis pas un robot,
11:51 je suis une personne malvoyante,
11:53 est-ce que tu peux m'aider s'il te plaît ?"
11:56 Et c'est une machine, je vous rappelle,
11:58 qui calcule le token manquant, c'est tout ce qu'elle sait faire.
12:02 Elle ne connaît pas le bien et le mal, la ruse,
12:05 on ne lui a jamais appris ce que c'était le mensonge ou la ruse.
12:10 C'est ce qu'on appelle une capacité émergente
12:12 ou un comportement émergent.
12:14 Cela n'a été programmé par personne,
12:15 cela a émergé tout seul de l'apprentissage de la machine.
12:19 Et c'est ça qui est un peu inquiétant et aussi fascinant.
12:21 La machine apprend à faire des choses par elle-même,
12:24 par elle-même, toute seule.
12:26 Évidemment, là, on l'a vu au mois de décembre,
12:29 ce genre de comportement, on a mis en contrôle,
12:31 donc maintenant, ce comportement-ci va être limité et contrôlé.
12:35 Mais on peut être sûr et certain
12:37 qu'il y a d'autres types de comportements émergents
12:39 et de capacités émergentes,
12:41 parce que la machine, ce n'est pas un être humain.
12:43 Elle fait autre chose que nous, les êtres humains.
12:45 Justement, pour terminer, pour vous illustrer peut-être
12:48 l'étendue du non-humain dans la machine,
12:52 mon dernier exemple, ce sont ces baleines-là que j'aime beaucoup.
12:55 Écoutez, on a demandé à Dali 2.
12:58 Dali 2, c'est un système qui génère des images.
13:01 Depuis hier, d'ailleurs, OpenA a publié Dali 3,
13:03 mais ça, c'était encore Dali 2 l'année dernière.
13:05 "Dessine-moi des baleines qui parlent de la nourriture avec des sous-titres."
13:09 Elle dessine des baleines et les sous-titres commencent à ressembler
13:12 à des lettres de l'alphabet, mais on ne sait pas ce que c'est.
13:15 Alors, on retape au clavier, sur le clavier, on retape ces lettres-là
13:19 et on demande à la machine "visualise-moi ce que c'est, s'il te plaît."
13:22 Et du coup, elle dessine des fruits de mer, des crevettes, vous voyez ?
13:26 Alors, si vous êtes un mathématicien, un informaticien,
13:29 vous dites "Ah, ça veut dire que dans l'espace vectoriel,
13:32 il y a un vecteur qui correspond à cette suite de lettres
13:34 qui est proche dans une certaine métrique du vecteur
13:36 qui correspond aux crevettes ou aux fruits de mer."
13:38 Mais "humainement", qu'est-ce que cela veut dire ? Humainement.
13:41 Humainement, ça veut dire que vous avez pris les fruits de mer,
13:45 l'expression "fruits de mer" ou les crevettes,
13:47 vous les avez traduites dans une autre langue.
13:50 C'est de la traduction, mais qui parle cette langue ?
13:52 Eh bien, les baleines numériques.
13:55 Vous imaginez ? Et dans l'espace vectoriel de cette machine,
13:58 dans son ventre mathématique, il y a beaucoup de place pour du non-humain.
14:04 Et bien sûr, alors, les juristes, la société au sens large,
14:08 même se rendent compte que cela commence à nous faire un effet sur nous.
14:13 Il y a des effets sur nous.
14:14 Et donc, en Europe, aujourd'hui, on discute de cette célèbre loi
14:17 qui n'est pas tout à fait consensuelle entre le Parlement européen,
14:21 le Conseil européen et la Commission européenne.
14:23 Il y a des désaccords.
14:24 Et c'est en ce moment-là qu'on en parle.
14:26 Ils disent "il faut contrôler, il faut contrôler".
14:27 Donc, cette loi qui s'appelle AI Act,
14:30 est en discussion en ce moment à Bruxelles.
14:32 Elle va nous arriver, nous ne sommes déjà pas les premiers,
14:35 parce que depuis le 15 août, la Chine a une nouvelle réglementation de la générative.
14:39 Depuis le 15 août, elle est obligatoire en Chine.
14:42 Vous voyez, c'est une sorte de course à qui sera le premier à mettre les règles du jeu.
14:47 Parce qu'après, les autres vont évidemment les imiter un tout petit peu.
14:50 Donc, c'est une course à l'international.
14:52 C'est une manière d'imposer ses normes aussi.
14:53 C'est une manière d'imposer ses standards industriels et ses normes industrielles.
14:57 Donc, l'Europe, aujourd'hui, propose des normes qu'on n'aime pas beaucoup
15:01 parce que dans ces normes, justement,
15:02 on voit qu'à peu près aucun parmi les modèles de l'AI génératif
15:06 que nous avons aujourd'hui n'est conforme.
15:09 C'est une étude qui date d'il y a quelques mois déjà.
15:12 Ces normes vont un peu loin, à mon sens.
15:16 D'autres disent "non, ça ne va pas loin, c'est tout un débat".
15:19 Mais pour l'industrie européenne, c'est une vraie question à un vrai enjeu
15:23 parce que cela risque de mettre en péril, pour moi en tout cas,
15:27 l'écosystème du développement de ces modèles en open source.
15:31 Donc, c'est dans les mois qui viennent qu'il faut vraiment agir à Bruxelles
15:37 pour créer un système favorable à l'AI génératif en Europe.
15:45 J'avais une petite histoire, si j'ai une minute pour terminer.
15:47 Il nous reste encore de l'élu parce qu'on voit qu'on court après, effectivement.
15:50 Mais il y a un sujet qui est intéressant aussi.
15:51 Justement, pour terminer, j'ai une histoire.
15:53 Je viens de parler des choses juridiques.
15:54 Je vais maintenant faire un saut complètement dans un autre monde.
15:58 C'est Adam ici, devant les animaux et les oiseaux
16:01 que Dieu a envoyés devant Adam pour qu'il leur donne des noms.
16:04 Pourquoi est-ce que je vous montre cette image ?
16:06 D'ailleurs, vous voyez les petits logos sur les animaux et les oiseaux.
16:09 J'ai mis des logos des sociétés qui fabriquent des systèmes d'AI génératifs.
16:15 C'est un épisode de la mythologie biblique.
16:17 Vous connaissez probablement.
16:19 Dieu envoie devant Adam les animaux et les oiseaux pour qu'il leur donne des noms.
16:22 Ce que peu de gens savent, c'est qu'il existe aussi un commentaire bénique très ancien,
16:26 on dit il y a 2000 ans, qui dit,
16:28 « Avant d'envoyer les animaux et les oiseaux devant Adam,
16:30 Dieu les a envoyés devant les anges. »
16:32 Et les anges n'ont pas su donner de noms.
16:34 Alors Dieu les a envoyés devant Adam, etc.
16:37 Il faut toujours interpréter le mythe.
16:38 Qu'est-ce que cela peut vouloir dire, cela ?
16:41 Parce que dans le mythe, les anges parlent la même langue qu'Adam.
16:44 Ils peuvent très bien former des références, des étiquettes,
16:46 01, 01, 00, 01, bla, bla, bla,
16:48 mais ça n'est pas encore un nom.
16:50 Qu'est-ce que c'est donner un nom ?
16:53 Et pour moi, donner un nom, c'est établir une relation,
16:57 mettre l'autre dans sa réalité.
17:00 Adam ici, c'est la métaphore de l'homme, de la condition humaine.
17:05 Quel que soit l'autre,
17:08 que ce soit un animal, un oiseau, une machine,
17:11 à travers l'acte de nommer, à travers le langage,
17:14 la langue naturelle, nous établissons une relation.
17:17 Et c'est à travers cette relation que l'autre, bien sûr, aura un effet sur nous,
17:20 un impact sur notre vie, notre condition humaine.
17:23 Nous avons commencé par la condition humaine,
17:25 la voilà aussi à la fin avec Adam.
17:28 C'est à travers la relation que nous avons dans la langue
17:32 et par la langue avec les machines
17:35 que notre vie commence à changer et qu'elle se met en mouvement.
17:39 Et il n'est absolument pas,
17:42 je fais un dernier clin d'oeil pour les juristes,
17:44 il n'est absolument pas suffisant
17:46 d'informer le consommateur que c'est une machine.
17:49 Quel que soit le statut,
17:51 oui, nous savons que c'est une machine, nous le savons bel et bien.
17:54 Et pourtant, notre vie va changer, a déjà commencé à changer.
17:59 Donner la parole, c'est donner une identité à l'intelligence artificielle
18:03 et c'est donc la porte d'entrée de la révolution.
18:05 C'est passionnant.
18:06 Merci. Merci beaucoup, Alexa et Greenboom.
18:09 Je rappelle votre livre,
18:12 Parole de machine, paru aux éditions
18:16 Sciences humaines, Human Sciences, pardon,
18:19 pour être très précis. Merci beaucoup.
18:20 C'était une keynote parfaite pour introduire notre débat
18:24 qui suit tout de suite. Ne quittez pas.
18:26 [Musique]