Assemblée des idées : « Intelligence artificielle : sommes-nous prêts ? » - Mardi 30 mai 2023

  • l’année dernière
Assemblée des idées : « Intelligence artificielle : sommes-nous prêts ? »
Transcript
00:00:00 Je vous souhaite une bonne fin de semaine et à la prochaine !
00:00:04 Merci d'avoir regardé cette vidéo !
00:00:09 Merci d'avoir regardé cette vidéo !
00:00:14 Merci d'avoir regardé cette vidéo !
00:00:19 Merci d'avoir regardé cette vidéo !
00:00:24 Merci d'avoir regardé cette vidéo !
00:00:29 Merci d'avoir regardé cette vidéo !
00:00:34 Merci d'avoir regardé cette vidéo !
00:00:39 Merci d'avoir regardé cette vidéo !
00:00:44 Merci d'avoir regardé cette vidéo !
00:00:49 Merci d'avoir regardé cette vidéo !
00:00:54 Merci d'avoir regardé cette vidéo !
00:00:59 Merci d'avoir regardé cette vidéo !
00:01:04 Merci d'avoir regardé cette vidéo !
00:01:09 Merci d'avoir regardé cette vidéo !
00:01:14 Merci d'avoir regardé cette vidéo !
00:01:19 Merci d'avoir regardé cette vidéo !
00:01:24 Merci d'avoir regardé cette vidéo !
00:01:29 Merci d'avoir regardé cette vidéo !
00:01:34 Merci d'avoir regardé cette vidéo !
00:01:39 Merci d'avoir regardé cette vidéo !
00:01:44 Merci d'avoir regardé cette vidéo !
00:01:49 Merci d'avoir regardé cette vidéo !
00:01:54 Merci d'avoir regardé cette vidéo !
00:01:59 Merci d'avoir regardé cette vidéo !
00:02:04 Merci d'avoir regardé cette vidéo !
00:02:09 Merci d'avoir regardé cette vidéo !
00:02:14 Merci d'avoir regardé cette vidéo !
00:02:19 Merci d'avoir regardé cette vidéo !
00:02:24 Merci d'avoir regardé cette vidéo !
00:02:29 Merci d'avoir regardé cette vidéo !
00:02:34 Merci d'avoir regardé cette vidéo !
00:02:39 Merci d'avoir regardé cette vidéo !
00:02:44 Merci d'avoir regardé cette vidéo !
00:02:49 Merci d'avoir regardé cette vidéo !
00:02:54 Merci d'avoir regardé cette vidéo !
00:02:59 Merci d'avoir regardé cette vidéo !
00:03:04 Merci d'avoir regardé cette vidéo !
00:03:09 Merci d'avoir regardé cette vidéo !
00:03:14 Merci d'avoir regardé cette vidéo !
00:03:19 Merci d'avoir regardé cette vidéo !
00:03:24 Merci d'avoir regardé cette vidéo !
00:03:29 Merci d'avoir regardé cette vidéo !
00:03:34 Merci d'avoir regardé cette vidéo !
00:03:39 Merci d'avoir regardé cette vidéo !
00:03:44 Merci d'avoir regardé cette vidéo !
00:03:49 Merci d'avoir regardé cette vidéo !
00:03:54 Merci d'avoir regardé cette vidéo !
00:03:59 Merci d'avoir regardé cette vidéo !
00:04:04 Merci d'avoir regardé cette vidéo !
00:04:09 Merci d'avoir regardé cette vidéo !
00:04:14 Merci d'avoir regardé cette vidéo !
00:04:19 Merci d'avoir regardé cette vidéo !
00:04:24 Merci d'avoir regardé cette vidéo !
00:04:29 Merci d'avoir regardé cette vidéo !
00:04:34 Merci d'avoir regardé cette vidéo !
00:04:39 Merci d'avoir regardé cette vidéo !
00:04:44 Merci d'avoir regardé cette vidéo !
00:04:49 Merci d'avoir regardé cette vidéo !
00:04:54 Merci d'avoir regardé cette vidéo !
00:04:59 Merci d'avoir regardé cette vidéo !
00:05:04 Merci d'avoir regardé cette vidéo !
00:05:09 Merci d'avoir regardé cette vidéo !
00:05:14 Merci d'avoir regardé cette vidéo !
00:05:19 Merci d'avoir regardé cette vidéo !
00:05:24 Merci d'avoir regardé cette vidéo !
00:05:29 Merci d'avoir regardé cette vidéo !
00:05:34 Merci d'avoir regardé cette vidéo !
00:05:39 Merci d'avoir regardé cette vidéo !
00:05:44 Merci d'avoir regardé cette vidéo !
00:05:49 Merci d'avoir regardé cette vidéo !
00:05:54 Merci d'avoir regardé cette vidéo !
00:05:59 Merci d'avoir regardé cette vidéo !
00:06:04 Merci d'avoir regardé cette vidéo !
00:06:09 Merci d'avoir regardé cette vidéo !
00:06:14 Merci d'avoir regardé cette vidéo !
00:06:19 Merci d'avoir regardé cette vidéo !
00:06:24 Merci d'avoir regardé cette vidéo !
00:06:29 Merci d'avoir regardé cette vidéo !
00:06:34 Merci d'avoir regardé cette vidéo !
00:06:39 Merci d'avoir regardé cette vidéo !
00:06:44 Merci d'avoir regardé cette vidéo !
00:06:49 Merci d'avoir regardé cette vidéo !
00:06:54 Merci d'avoir regardé cette vidéo !
00:06:59 Merci d'avoir regardé cette vidéo !
00:07:04 Merci d'avoir regardé cette vidéo !
00:07:09 Merci d'avoir regardé cette vidéo !
00:07:14 Merci d'avoir regardé cette vidéo !
00:07:19 Merci d'avoir regardé cette vidéo !
00:07:24 Merci d'avoir regardé cette vidéo !
00:07:29 Merci d'avoir regardé cette vidéo !
00:07:34 Merci d'avoir regardé cette vidéo !
00:07:39 Merci d'avoir regardé cette vidéo !
00:07:44 Merci d'avoir regardé cette vidéo !
00:07:49 Merci d'avoir regardé cette vidéo !
00:07:54 Merci d'avoir regardé cette vidéo !
00:07:59 Merci d'avoir regardé cette vidéo !
00:08:04 Merci d'avoir regardé cette vidéo !
00:08:09 Merci d'avoir regardé cette vidéo !
00:08:14 Merci d'avoir regardé cette vidéo !
00:08:19 Merci d'avoir regardé cette vidéo !
00:08:24 Merci d'avoir regardé cette vidéo !
00:08:29 Merci d'avoir regardé cette vidéo !
00:08:34 Merci d'avoir regardé cette vidéo !
00:08:39 Merci d'avoir regardé cette vidéo !
00:08:44 Merci d'avoir regardé cette vidéo !
00:08:49 Merci d'avoir regardé cette vidéo !
00:08:54 Merci d'avoir regardé cette vidéo !
00:08:59 Merci d'avoir regardé cette vidéo !
00:09:04 Merci d'avoir regardé cette vidéo !
00:09:09 Merci d'avoir regardé cette vidéo !
00:09:14 Merci d'avoir regardé cette vidéo !
00:09:19 Merci d'avoir regardé cette vidéo !
00:09:24 Merci d'avoir regardé cette vidéo !
00:09:29 Merci d'avoir regardé cette vidéo !
00:09:34 Merci d'avoir regardé cette vidéo !
00:09:39 Merci d'avoir regardé cette vidéo !
00:09:44 Merci d'avoir regardé cette vidéo !
00:09:49 Merci d'avoir regardé cette vidéo !
00:09:54 Merci d'avoir regardé cette vidéo !
00:09:59 Merci d'avoir regardé cette vidéo !
00:10:04 Merci d'avoir regardé cette vidéo !
00:10:09 Merci d'avoir regardé cette vidéo !
00:10:14 Merci d'avoir regardé cette vidéo !
00:10:19 Merci d'avoir regardé cette vidéo !
00:10:24 Merci d'avoir regardé cette vidéo !
00:10:29 Merci d'avoir regardé cette vidéo !
00:10:34 Merci d'avoir regardé cette vidéo !
00:10:39 Merci d'avoir regardé cette vidéo !
00:10:44 Merci d'avoir regardé cette vidéo !
00:10:49 Merci d'avoir regardé cette vidéo !
00:10:54 Merci d'avoir regardé cette vidéo !
00:10:59 Merci d'avoir regardé cette vidéo !
00:11:04 Merci d'avoir regardé cette vidéo !
00:11:09 Merci d'avoir regardé cette vidéo !
00:11:14 Merci d'avoir regardé cette vidéo !
00:11:19 Merci d'avoir regardé cette vidéo !
00:11:24 Merci d'avoir regardé cette vidéo !
00:11:29 Merci d'avoir regardé cette vidéo !
00:11:34 Merci d'avoir regardé cette vidéo !
00:11:39 Merci d'avoir regardé cette vidéo !
00:11:44 Merci d'avoir regardé cette vidéo !
00:11:49 Merci d'avoir regardé cette vidéo !
00:11:54 Merci d'avoir regardé cette vidéo !
00:11:59 Merci d'avoir regardé cette vidéo !
00:12:04 Merci d'avoir regardé cette vidéo !
00:12:09 Merci d'avoir regardé cette vidéo !
00:12:14 Merci d'avoir regardé cette vidéo !
00:12:19 Merci d'avoir regardé cette vidéo !
00:12:24 Merci d'avoir regardé cette vidéo !
00:12:29 Merci d'avoir regardé cette vidéo !
00:12:34 Merci d'avoir regardé cette vidéo !
00:12:39 Merci d'avoir regardé cette vidéo !
00:12:44 Merci d'avoir regardé cette vidéo !
00:12:49 Merci d'avoir regardé cette vidéo !
00:12:54 Merci d'avoir regardé cette vidéo !
00:12:59 Merci d'avoir regardé cette vidéo !
00:13:04 Merci d'avoir regardé cette vidéo !
00:13:09 Merci d'avoir regardé cette vidéo !
00:13:14 Merci d'avoir regardé cette vidéo !
00:13:19 Merci d'avoir regardé cette vidéo !
00:13:24 Merci d'avoir regardé cette vidéo !
00:13:29 Merci d'avoir regardé cette vidéo !
00:13:37 Merci d'avoir regardé cette vidéo !
00:13:47 Merci d'avoir regardé cette vidéo !
00:13:52 Merci d'avoir regardé cette vidéo !
00:13:57 Merci d'avoir regardé cette vidéo !
00:14:02 Bonsoir à tous !
00:14:07 C'est avec une grande fierté et un immense plaisir que je vous accueille ce soir à l'Assemblée nationale pour notre soirée débat exceptionnel intitulée "L'Assemblée des idées".
00:14:22 Cette soirée récente, elle me reflète la politique d'ouverture que j'ai instaurée au sein de notre institution, une politique qui vise à rassembler experts, citoyens et députés autour de sujets de société majeure directement liés à nos pouvoirs publics et à notre action.
00:14:37 Aujourd'hui, nous nous penchons sur une question qui ne cesse de susciter l'intérêt et l'interrogation.
00:14:44 L'intelligence artificielle, sommes-nous prêts ?
00:14:48 Cette interrogation résonne au cœur de notre société car nous sommes à l'aube d'une révolution technologique qui transforme notre quotidien, notre économie et nos perspectives.
00:14:59 Chers amis, nous vivons une époque passionnante où la fusion entre l'humain et la machine offre des possibilités infinies, mais soulève également des questions éthiques, sociales et juridiques.
00:15:13 La technologie évolue à une vitesse vertigineuse et il est de notre devoir d'appréhender ses enjeux, d'anticiper ses impacts et de définir un cadre qui garantisse le respect de nos valeurs fondamentales.
00:15:25 Je tiens à vous assurer que l'Assemblée nationale est pleinement mobilisée sur ce sujet crucial.
00:15:30 Dans cette optique, permettez-moi de vous annoncer la création de la mission d'information sur l'intelligence artificielle générative lancée par la Commission des lois de notre Assemblée au mois de mai 2023.
00:15:42 Cette mission a pour ambition d'analyser les enjeux et les défis de l'intelligence artificielle générative en matière de protection des données personnelles et d'utilisation du contenu produit.
00:15:52 Sous la direction des rapporteurs Philippe Pradal et Stéphane Rambaud, la mission évaluera si notre cadre juridique actuel est suffisant pour faire face à ces avancées,
00:16:01 tout en étudiant les propositions de réglementation émanant de la Commission européenne.
00:16:06 Cette mission témoigne de notre volonté d'être à la pointe de la réflexion et de l'action sur ces enjeux d'avenir.
00:16:13 Mesdames et Messieurs, le discours que vous venez d'entendre a été produit, vous l'imaginez bien, par 4GPT.
00:16:23 Je pourrais conclure sur le même ton et faire semblant d'avoir rédigé ce texte,
00:16:29 mais je préfère vous avertir et surtout procéder avec vous à un petit retour sur cet exercice d'intelligence artificielle appliqué à la politique.
00:16:38 Bien programmé par mon cabinet, 4GPT a élaboré un texte qui, globalement, convient et peut faire illusion.
00:16:47 Il faut saluer la prouesse technique qui nous permet de mesurer toute l'efficacité de l'outil.
00:16:52 Pourtant, si on analyse de près ce discours très lisse et très correct, on y décèle quelques défauts caractéristiques de l'IA.
00:17:02 D'abord, peut-être avez-vous été surpris de m'entendre saluer au début les « honorables députés ».
00:17:07 Bien sûr, les représentants du peuple sont par définition très honorables,
00:17:12 mais cet adjectif appartient surtout à la tradition anglo-saxonne dans laquelle on salue habituellement les « honorables membres du Parlement ».
00:17:20 C'est un détail révélateur d'une réalité à laquelle nous devons songer.
00:17:26 Celui qui impose l'outil impose aussi son langage, ses concepts, ses références culturelles et, pour tout dire, ses normes sociales.
00:17:36 De ce point de vue, 4GPT n'est pas neutre.
00:17:39 Ensuite, le discours, au fond, très conformiste et prudent, issu de l'IA, est tout de même assez creux.
00:17:47 Il relève tout simplement de l'ancienne langue de bois, si décriée en politique.
00:17:52 Il repose sur des formules convenues, des images éculées, des stéréotypes, l'aube d'une révolution, la vitesse vertigineuse des évolutions, les enjeux qu'on appréhende.
00:18:03 On peut s'en contenter car l'ensemble est rassurant et ronronnant, mais en ce qui me concerne,
00:18:08 jamais je ne tolérerais de ma plume une telle succession de formules, toutes faites et d'idées reçues.
00:18:13 Où sont la passion, la conviction, où est la force poétique d'un discours inspiré par l'engagement et la volonté de transformer la société ?
00:18:22 L'IA sécrète un propos qui en dort, alors que le vrai discours politique a pour but de réveiller les consciences.
00:18:29 Enfin, et c'est pour moi le plus inquiétant, le discours produit par la machine est purement assertif, affirmatif.
00:18:38 Dans sa neuve langue, il nous dit avec assurance que tout va bien, dans le meilleur des mondes, que tout est sous contrôle et que nous pouvons dormir sur nos deux oreilles.
00:18:47 Aucun doute, aucun questionnement. Il y manque le recul et avec lui, l'idée que plusieurs voies sont possibles, que la critique est légitime,
00:18:56 que la société est fondée à s'interroger sur la fusion entre l'humain et la machine, qu'il énonce comme allant de soi.
00:19:03 Et je pense avec effroi à cette pensée prophétique de Jean-Jacques Rousseau, plus il y aura de machines pour faire le travail des hommes, plus il y aura des hommes qui ne seront que des machines.
00:19:14 Le doute et le questionnement, c'est donc à nous de les apporter ce soir. Tel est bien le but de l'Assemblée des idées qui en est à sa cinquième audition.
00:19:22 Telle est aussi la fonction de l'Assemblée nationale, qui se nourrit des travaux des chercheurs et des experts pour légiférer de la façon la plus pertinente possible.
00:19:31 Sur l'intelligence artificielle, avec l'avant la mission d'information en cours que j'ai déjà évoquée, un rapport d'information a été publié dès 2017.
00:19:40 Puis sous la précédente législature, s'est constitué un groupe d'études sur l'économie numérique de la donnée, de la connaissance et de l'intelligence artificielle.
00:19:48 Les députés ne sont donc pas à la traîne sur ce sujet, bien au contraire.
00:19:53 Plus largement, cette Assemblée que je veux ouverte sur le monde est très attentive aux sciences, fondamentales et appliquées.
00:20:00 Nous allons bientôt célébrer les 40 ans de l'Office parlementaire d'évaluation des choix scientifiques et technologiques, un organe commun à l'Assemblée nationale et au Sénat.
00:20:10 Dans quelques jours, je lancerai ici même un événement visant à encourager les femmes à se projeter dans des carrières scientifiques.
00:20:16 Et le 19 juin, pour le cinquantenaire du programme Ariane, ce sont des engins spatiaux, une maquette de fusée, un module lunaire qui se poseront au Palais-Bourbon.
00:20:26 Oui au progrès, oui à la science, mais jamais sans conscience.
00:20:30 C'est dans cet esprit que j'ai voulu ouvrir le débat de ce soir.
00:20:33 Je suis heureuse d'accueillir les invités qui, eux non plus, ne se contentent pas de dire des lieux communs.
00:20:40 J'ai la joie de pouvoir vous présenter Mme Asma Malla, qui est spécialiste des enjeux politiques et géopolitiques de la TEC,
00:20:49 membre du laboratoire d'anthropologie politique et enseignante à Columbia Sciences Po et Polytechnique.
00:20:56 Isabelle Rilh, professeure des universités, directeur de la Paris AI Research Institute.
00:21:03 Etienne Klein, physicien et directeur de recherche au CEA.
00:21:08 Et ce débat sera animé ce soir par M. Clément Méric, journaliste à LCP, que je remercie d'avoir accepté cette mission délicate.
00:21:19 Car ce soir, nous innovons. C'est la cinquième édition de l'Assemblée des idées.
00:21:23 Et nous avons pu noter lors des précédentes une certaine frustration du public liée au très grand nombre de questions.
00:21:31 Donc pour y répondre, ce soir, nous allons tester une application qui va vous permettre de regrouper les questions,
00:21:37 de les recouper et de faire en sorte que chacun reçoive une réponse. Nous espérons que ce système conviendra à tous.
00:21:45 Le débat de fond est ce qu'il y a de plus exigeant, de plus difficile. C'est le contraire de la polémique stérile et de la facilité idéologique.
00:21:53 Écoutez l'autre, échangez des arguments, acceptez d'apprendre. Tel est le pari profondément humaniste de l'Assemblée des idées.
00:22:02 Et je vous remercie tous de vous être rendus disponibles pour y assister. Merci beaucoup et bon débat.
00:22:08 (Applaudissements)
00:22:19 (...)
00:22:48 Bonsoir à tous. Merci à vous, Madame la Présidente. Merci à vous, le public, d'être venus ce soir pour cette nouvelle Assemblée des idées.
00:22:57 Je crois qu'on a battu un record d'inscriptions pour cette cinquième édition, ce qui est bien la preuve que ce sujet de l'intelligence artificielle nous interroge tous.
00:23:06 Et pour en parler, nous avons donc la chance d'accueillir trois personnalités passionnantes qui ont chacune dans leur domaine ce don de nous rendre plus intelligents
00:23:16 ou en tout cas de nous en donner l'impression au moins. C'est déjà ça. Je ne vais pas vous présenter. Madame la Présidente s'en est chargée.
00:23:25 Avant de vous laisser la parole, juste un mot sur la façon dont les échanges vont se dérouler. On va d'abord avoir une demi-heure pendant laquelle nos trois invités vont nous présenter
00:23:33 les principaux enjeux liés à l'intelligence artificielle. Ensuite, nous allons avoir une seconde étape, si l'on peut dire,
00:23:42 durant laquelle vous allez pouvoir échanger, poser des questions en direct pendant une bonne heure avec nos invités.
00:23:50 Et ensuite, un dernier temps, comme l'expliquait Madame la Présidente, où vous allez pouvoir utiliser ce petit flyer qui a été posé sur vos chaises avec un QR code.
00:24:00 Certains d'entre vous ont tout de suite compris comment ça a fonctionné. Je vous l'explique en quelques mots. Il vous suffit de scanner ce QR code,
00:24:07 de poser votre question de façon concise. Au-delà de 240 caractères, le texte n'apparaîtra pas. Ça s'arrêtera.
00:24:17 Ensuite, on va essayer de rassembler les différentes questions écrites qui n'auront pas encore été posées pour les soumettre à nos invités à la fin de cette conférence.
00:24:30 Je m'efface pour laisser la parole à nos invités. Je propose qu'on commence par vous, Isabelle Rilh, si vous voulez bien.
00:24:38 Vous êtes un peu la scientifique ce soir, la technicienne peut-être. Avec vous, peut-être qu'on peut commencer par voir où on en est exactement de l'intelligence artificielle.
00:24:49 Qu'est-ce qu'on sait faire ? Qu'est-ce qu'on ne sait pas encore faire ? Qu'est-ce qu'on va bientôt savoir faire ? Et peut-être, qu'est-ce qu'on ne souhaiterait pas que l'intelligence artificielle fasse ?
00:25:01 Merci beaucoup. C'est un grand sujet. Merci, Madame la présidente, de nous avoir donné l'opportunité de discuter de ça aujourd'hui devant vous.
00:25:09 Alors, en attaquant tout de suite, effectivement, j'ai la chance de diriger Prairie, qui est un institut qui comprend beaucoup de chercheurs sur beaucoup de domaines,
00:25:16 et donc de pouvoir vous parler un peu d'un panorama de ce qu'ils font. Que sait-on faire aujourd'hui en intelligence artificielle ? Beaucoup de choses.
00:25:24 Vous en avez tous l'usage quasi quotidien, que ce soit en dictant vos notes à, je ne sais pas, la cité de Marck, vous voyez bien, votre téléphone préféré,
00:25:35 en utilisant un traducteur automatique, en regardant des images qui ont été tagguées ou des choses comme ça.
00:25:43 Donc tout le monde en a, et on sait aujourd'hui s'en servir comme un formidable outil, si on n'oublie pas que c'est un outil.
00:25:50 C'est-à-dire que c'est un outil qui peut être extrêmement bénéfique. Au-delà des usages que j'ai mentionnés, des jeux, c'est aussi un moyen, par exemple,
00:25:59 d'optimiser la consommation énergétique, donc de calculer d'une meilleure manière le rendement d'une usine ou d'une chaîne logistique pour faire des économies d'énergie,
00:26:07 c'est tout à fait d'actualité. De peut-être d'aider un praticien hospitalier à lire des clichés, encore une fois, pas en le remplaçant,
00:26:14 mais simplement en étant un outil d'aide à les décisions. Donc aujourd'hui, l'IA est dans la vie, dans les métiers, et ça fonctionne.
00:26:21 Ce qui est très important, c'est de ne pas oublier que c'est un outil qui a ses limites. On a vu celle de ChatGPT en introduction.
00:26:29 Ce qu'on oublie souvent dans l'IA générative, je vais y accéder tout de suite, puisque ça sera sûrement dans les questions à la fin,
00:26:35 c'est que l'IA générative, comme son nom l'indique, elle génère. Ce n'est pas un outil de vérité, ce n'est pas un moteur de recherche,
00:26:43 et c'est peut-être plus facile à comprendre, pas sur ChatGPT, mais sur d'autres outils comme DAL-I, qui génèrent des images,
00:26:50 puisque là on voit bien qu'ils inventent des images. Quand la démonstration a été faite sur le dessin d'un astronaute qui monte un cheval sur la Lune,
00:26:59 c'est très facile de comprendre que c'est faux, ce qui est beaucoup plus difficile avec du texte.
00:27:04 Alors, que cherche-t-on aujourd'hui, puisque tout ça existe déjà, pourquoi continue-t-on les recherches ?
00:27:09 Eh bien, on continue les recherches dans tous les domaines. D'abord, la recherche sur l'IA n'a jamais cessé, quels que soient les modes,
00:27:15 depuis la fin des années 50, et aujourd'hui on cherche sur des domaines très fondamentaux, mathématiques, comment optimiser les algorithmes,
00:27:23 pour pouvoir travailler avec moins de données, moins de processeurs, pouvoir aller plus vite, pouvoir embarquer les modèles,
00:27:33 puisqu'aujourd'hui on imagine embarquer des IA, par exemple de la reconnaissance d'images, dans des satellites.
00:27:39 Tout ça, c'est dû à des avancées mathématiques et sur les algorithmes, donc vraiment fondamentales.
00:27:47 On travaille aussi sur, par exemple, comment mieux comprendre les algorithmes, comment avoir de l'IA explicable,
00:27:54 et pour là aussi, il faut comprendre comment fonctionnent les algorithmes, donc encore une fois, des travaux fondamentaux.
00:28:00 On peut aussi imaginer, aujourd'hui, que justement le traitement des langues est terminé, puisqu'on a parlé de tous les outils,
00:28:08 qu'on peut faire beaucoup de choses en vision par ordinateur ou en robotique. C'est vrai, mais il y a aussi encore beaucoup d'avancées,
00:28:15 puisque par exemple en traitement des langues, les modèles sont encore assez mauvais sur les langues rares, c'est-à-dire peu dotées,
00:28:21 peu parlées, donc avec peu de données d'entraînement. Sur les langues qui sont parlées avec un peu d'argot, un mélange de langues,
00:28:30 par exemple les langues qui sont utilisées sur les réseaux sociaux, c'est beaucoup plus difficile à traduire.
00:28:34 En vision par ordinateur, même si aujourd'hui ça fonctionne très très bien, par exemple pour classifier des images,
00:28:39 vous avez tous entendu parler des classements de chat, de chien ou d'autre, les prochaines avancées sont par exemple sur la prédiction de vidéo.
00:28:47 Ça c'est beaucoup plus difficile de savoir quelle sera la prochaine image d'une vidéo, parce qu'il faut là aussi un peu la prédire, l'inventer.
00:28:54 Et pourtant c'est très important, dans un exemple très simple, la conduite automobile.
00:29:00 Quand vous êtes au volant et que vous voyez un enfant sur le bord d'un trottoir, en fonction de son attitude, de la direction dans laquelle il regarde,
00:29:08 de ce qu'il a à la main, un ballon ou qu'il est statique, vous pouvez anticiper le fait qu'il va peut-être se jeter devant votre voiture.
00:29:14 Donc il faut comprendre ce qu'il va faire. Et donc ça ce sont des sujets qui ne sont pas résolus, sur lesquels des recherches sont en cours actuellement.
00:29:21 Et après, et plus loin, et bien plus loin, ce qui est en train d'arriver maintenant, qui commence et qui est la prochaine grande évolution,
00:29:28 c'est la percolation de l'IA dans tous les autres domaines scientifiques.
00:29:33 La biologie computationnelle, les avancées en chimie qui pourraient être obtenues, et qui commencent à l'être, grâce à de l'IA, des modèles.
00:29:41 En astronomie, dans des tas et des tas de domaines.
00:29:46 L'hybridation des modèles comme CHAD-JPT avec des moteurs de recherche, avec des solvers,
00:29:52 vont permettre d'avoir un peu plus l'idée d'une intégration qui donne de meilleurs résultats.
00:29:58 Et là où on ne veut pas aller, alors c'est... Où est-ce qu'on ne pourra jamais aller ? Je ne sais pas.
00:30:06 Parce que là c'est la recherche, justement, si on savait où on va, ça ne serait plus la recherche.
00:30:11 Là où on ne veut pas aller, c'est aussi un peu difficile à voir, parce que ça dépend aussi des avancées.
00:30:17 Je pense qu'avant de savoir là où on ne veut pas aller, ce qui est vraiment très important, c'est d'éduquer, d'éduquer et d'encore éduquer,
00:30:23 pour que les gens soient capables eux-mêmes de comprendre les avancées.
00:30:27 Maintenant, il faut quand même encadrer tout ça, parce que ça va très vite.
00:30:30 Et donc, en particulier, aujourd'hui, on a des réglementations qui se mettent en place, comme la réglementation européenne qui est en cours,
00:30:38 qui est en cours de mise en place, et qui va permettre de limiter, peut-être de mieux encadrer, parfois de signaler aux citoyens ce à quoi ils font face.
00:30:50 Et il ne faut pas, et par contre, il ne faut pas, et ça sera mon dernier point, mélanger la recherche et les applications.
00:30:57 C'est-à-dire ce qu'on peut faire en recherche, et les outils qu'on va mettre dans les mains des citoyens ou des entreprises.
00:31:05 C'est tout à fait différent, et je pense, en tout cas ça c'est une conviction personnelle, mais qui est partagée par un certain nombre de chercheurs de l'Institut,
00:31:13 c'est qu'il ne faut pas se limiter à la connaissance, surtout dans un monde globalisé, dans lequel tout le monde ne se mettra pas à les mêmes limites que nous.
00:31:22 Et donc, il faut pouvoir maîtriser les technologies, en particulier pour les reconnaître et les interdire.
00:31:28 Alors, vous venez d'évoquer, de commencer à évoquer les questions de régulation.
00:31:32 On va en parler dans un instant avec vous Asma, mais peut-être Isabelle, vous êtes, je le disais, celle qui maîtrise le mieux la partie scientifique de ce sujet.
00:31:41 Pour répondre à la question de ce soir, sommes-nous prêts, si on prend cette question sous un angle français, sous un angle européen, où en sommes-nous par rapport aux Etats-Unis, par rapport à la Chine ?
00:31:52 Alors, en termes de recherche, peut-être que j'ai un biais, je pense qu'on n'est pas si mal que ça.
00:31:59 C'est une tarte à la crème, l'école française de mathématiques et informatique est quand même très reconnue.
00:32:06 Avec les déboires qu'a connues l'enseignement des mathématiques ces dernières années, on peut peut-être un peu craindre, mais ça a l'air d'être en train de... la correction est en train d'être amorcée.
00:32:15 Et donc, ce n'est pas pour rien que des laboratoires de très grandes entreprises internationales, les laboratoires de recherche, en particulier en IA, se sont installés à Paris, en France.
00:32:25 C'est bien pour l'accès aux viviers, aux étudiants. Et donc, de ce côté-là, je pense qu'on n'est peut-être pas les meilleurs du monde, mais enfin, on n'a pas de quoi rougir.
00:32:35 Là où c'est plus compliqué, c'est quand on passe évidemment aux produits et aux entreprises.
00:32:41 Alors, avec toute la problématique de la croissance des entreprises, des capitaux et de tout ce qu'on peut mettre derrière.
00:32:46 Et puis, surtout, actuellement, avec les grands progrès qui viennent toujours des très gros modèles, et on peut espérer que la recherche va nous faire aller vers des choses plus petites.
00:32:55 Nous n'avons pas accès aux mêmes quantités de données et de ressources de calcul que d'autres pays. Et là, ça devient un peu plus compliqué pour se positionner.
00:33:04 Merci à vous, Isabelle Rille. On passe à vous, Asma Malla. On le disait, vous êtes spécialiste des enjeux de politique et de géopolitique liés à la tech.
00:33:15 Appliqués aux questions d'intelligence artificielle, quels sont ces principaux enjeux ? On a commencé à évoquer l'enjeu de la régulation, peut-être.
00:33:25 Et la question de la régulation, il y a surtout le point que Isabelle vient de pointer très justement, en ayant la gentillesse de ne pas brutaliser le débat tout de suite.
00:33:37 C'est l'enjeu de souveraineté technologique européenne, en réalité, qui pose un énorme sujet et qui est en fait lié à la question réglementaire.
00:33:45 Parce qu'aujourd'hui, l'un des grands débats sur la question réglementaire, le texte dont on parle aujourd'hui, c'est le AI Act.
00:33:52 Artificial Intelligence Act, au niveau européen.
00:33:56 Exactement. Et qui en fait sérit, si vous voulez, les risques des usages portés par les différentes IA.
00:34:06 Et moi, je préfère militer pour l'utiliser au pluriel qu'au singulier. Parce que l'IA as a concept, c'est-à-dire comme un concept, ça peut très vite devenir creux et donc l'objet de tous les fantasmes.
00:34:17 Et c'est précisément ça qu'on essaye aujourd'hui de désamorcer, de démystifier.
00:34:21 Et donc l'une des questions aujourd'hui qui est posée dans le débat public européen, c'est la question, et après je déroulerai la lecture géopolitique du sujet,
00:34:32 c'est de se dire, est-ce que, débat éternel, est-ce que la sur-réglementation potentielle qu'on est en train aujourd'hui de mettre en place au niveau européen,
00:34:43 donc par ricochet français, ne va pas étouffer l'innovation, innovation nécessaire, quand aujourd'hui on est dans une bataille géopolitique fondamentale,
00:34:52 bataille géopolitique, aujourd'hui cristallisée autour de la question technologique en général et autour de la question de l'intelligence artificielle en particulier.
00:35:02 Et donc se pose cette question-là. Et à partir de cette question-là, eh bien tout le reste découle en fait. Qu'est-ce qui découle ?
00:35:10 Découle la tournée diplomatique de Sam Altman récemment en Europe. Découle le fait qu'il est traité d'égal à égal avec des chefs d'État.
00:35:21 Découle le fait qu'il est américain. Pourquoi Chad J. Petty, pourquoi les IA en général, pourquoi les IA génératives en particulier sont-elles américaines ?
00:35:30 Pourquoi ne sont-elles pas chinoises ou européennes ? C'est une vraie question fondamentale et qui n'est pas du tout une question idéologique d'abord.
00:35:37 C'est une question industrielle, rapport à la taille des modèles, mais pas que. Découle aussi la question de la préemption des États-Unis sur la question normative, par exemple.
00:35:52 Le fait que Sam Altman vienne en tournée diplomatique mondiale et notamment en Europe en faisant un peu de chantage, en disant que si on n'infléchit pas le texte,
00:36:05 bien peut-être parce qu'il serait trop compliqué d'un point de vue technique, alors peut-être que Chad J. Petty, Open AI, en fait se retirer du marché européen, participe de ce bras de fer.
00:36:14 Et ce qui est extraordinairement intéressant dans le changement de paradigme qu'on voit aujourd'hui, et c'est pour ça qu'il y a cette espèce de discipline nouvelle qui n'est pas une géopolitique classique,
00:36:23 mais qui est une géopolitique d'un domaine, la technologie, c'est qu'on voit apparaître quelque chose de fondamentalement passionnant, qui est en fait l'apparition de nouveaux acteurs privés
00:36:34 qui deviennent symbiotiques avec l'État et avec le régulateur. Et c'est Emmanuel Macron en réalité qui en parlait dès 2018, au moment de son forum de l'Internet,
00:36:44 et qui expliquait que c'était une nouvelle ère dans laquelle on entrait qui était celle de la co-régulation avec les géants technologiques.
00:36:53 Et la première expérimentation, qui avait été un échec d'ailleurs, mais qui voulait faire, c'était avec Facebook à l'époque. Zuckerberg, reçu comme un chef d'État à Versailles.
00:37:01 Donc en fait, la question brasse tout ça. Maintenant, précisément, sur ce que cristallise l'IA en général, si c'est ça la question, et pourquoi est-ce qu'elle est un enjeu géopolitique ?
00:37:13 Parce qu'aujourd'hui, il s'agit d'une rivalité de puissance qui est en train de se jouer entre États-Unis et Chine. Et l'une des peurs fondamentales des États-Unis,
00:37:24 c'est que la Chine puisse aujourd'hui, qui est le challenger principal, qui est la puissance qui défie l'ordre établi, puisse en fait acquérir des outils de domination technologique,
00:37:37 et donc de domination technologique militaire. Le sujet en réalité, c'est pas tellement directement Chud GPT. Chud GPT pose d'autres questions qui sont fondamentalement
00:37:49 des questions démocratiques à mon sens. Et à cet égard-là, il faudrait d'ailleurs serrier les vrais sujets des faux problèmes. Les vrais sujets portés par Chud GPT,
00:37:58 après je reviens sur les IAs militaires d'un mot, mais c'est absolument fondamental de l'avoir en tête. Vrais sujets, faux problèmes. Les faux problèmes pour moi,
00:38:06 c'est les problèmes liés à la politique publique ou aux politiques publiques. C'est la question de l'emploi, c'est la question de l'éducation. C'est en fait la question de l'innovation,
00:38:13 non pas technologique, mais de l'innovation politique. Quelle réponse, quel accompagnement, quelle préemption, quelle anticipation ? Et pour moi, ça c'est un faux sujet.
00:38:21 C'est un faux sujet parce qu'il s'agit de se dire, est-ce qu'il n'y a pas une flemme politique ou une habitude, des habitudes qu'il faut absolument venir secouer ?
00:38:33 Le débat de ce soir participe à peut-être éclairer un débat public qui, par ricochet, montrait. Mais pour moi, ce sont des sujets de politique publique extrêmement pragmatiques
00:38:45 et qu'il nous faut tous préempter collectivement. Les vrais problèmes, en revanche, sont des problèmes beaucoup plus vertigineux qui sont la question démocratique.
00:38:54 Je m'explique. Chatterjee Peaty comme outil. Madame la Présidente faisait l'expérience de l'outil. Et c'est très intéressant parce que fondamentalement,
00:39:03 il n'y a pas eu de grand scandale. La communication aussi d'OpenAI a été hyper intéressante parce que hyper humble, contrairement à des Zuckerberg,
00:39:13 contrairement à des Elon Musk, Sam Altman n'a pas du tout été grandiloquent. Il est même plutôt hyper avenant, hyper conciliant dans sa communication politique publique.
00:39:23 Et je dis bien de la "compol" publique. Mais là où c'est intéressant, c'est que le changement paradigmatique d'un point de vue de la démocratie,
00:39:33 c'est la question de la désinformation et plus gravement, en fait, des manipulations de l'opinion publique, voire des manipulations cognitives.
00:39:44 Aujourd'hui, dans le champ militaire, on commence à s'emparer de ce nouveau champ qui n'est pas la guerre informationnelle, qui est sa continuation,
00:39:50 ou plus exactement ce qui vient en amont de ça, ce sont les guerres cognitives. Ce que vous allez absorber comme informations, manipulées,
00:40:00 comme ressort de manipulation, mais que vous n'allez même pas voir, que vous n'allez pas comprendre, qui vont vous sembler nativement métabolisables par vos cognitions.
00:40:14 TikTok, par exemple, a été cette cristallisation-là, ou a cristallisé ce début de réflexion-là dans le débat public.
00:40:22 Et donc, c'est... ChatGPT pose potentiellement, et c'est autour de ça qu'il y a eu cette hystérisation notamment, de créer, non pas du faux,
00:40:31 c'est plus que ça, c'est du nativement faux. Jusque-là, on avait des fake news ou de la manipulation de l'information sur de l'existant.
00:40:42 On prenait une photo, on la bidouillait, on décontextualisait, mais on savait débunker, on savait remonter la chaîne de la falsification.
00:40:51 Aujourd'hui, ça va être très très compliqué. Et quand vous allez combiner l'ensemble des IA génératives, Isabelle l'évoquait, le texte, le code, la vidéo, la voix,
00:41:03 vous allez pouvoir, des États aussi, des groupes étatiques, des groupes para-étatiques, pourront construire des univers de faux de bout en bout,
00:41:13 mais qui sont nativement, techniquement, vrais. Et donc, c'est cette symbiose entre le vrai et le faux, le virtuel, le réel,
00:41:23 qui est hyper perturbant d'un point de vue politique, d'un point de vue civil, et aussi d'un point de vue du régulateur.
00:41:32 C'est ça, en fait, que pose aujourd'hui, d'un point de vue démocratique, la question de Chatshepiti.
00:41:37 Et puis derrière, la privatisation de ces outils. Vous l'évoquiez, c'est aussi la question du savoir.
00:41:42 Aujourd'hui, quand on va entraîner des modèles, il faudra vérifier les pourcentages, mais je crois que 60% ça va être sur de l'anglais,
00:41:51 sur une culture anglo-saxonne, et plus particulièrement américaine.
00:41:55 Donc, c'est toute la question de la fabrication des savoirs, donc des valeurs, donc des normes.
00:42:02 Et d'un mot, et je termine, si je réélargis sur mes idées militaires, ça se joue autour de ça.
00:42:08 Chatshepiti, comme toutes les autres technologies, sont par nature duales, donc à la fois civiles et militaires.
00:42:14 Chatshepiti, en tant que tel, et en tant qu'idée générative, est déjà préempté dans le champ militaire,
00:42:19 dans ses luttes informationnelles, ou même cognitives, par exemple.
00:42:23 Mais plus généralement, cette tension géopolitique autour de l'IA se joue sur la question des IA militaires entre Etats-Unis et Chine.
00:42:32 Et là, la question de la troisième voie européenne se pose, j'ai envie de dire, cruellement.
00:42:38 Merci beaucoup à ce moment-là. Il y a énormément de choses dans ce que vous avez dit, et on va sans doute réagir dans la salle dans quelques instants.
00:42:45 Mais d'abord, vous, Etienne Klein, on a bien compris, à travers notamment les deux prises de parole précédentes,
00:42:51 qu'il y a beaucoup d'enjeux philosophiques et éthiques liés aux usages de l'IA.
00:42:56 Et pour en parler, vous avez choisi d'évoquer Michel Serres, dont on va commémorer demain le quatrième anniversaire de la mort.
00:43:03 Exactement, Michel Serres. Bonsoir à tous.
00:43:05 D'abord, je voulais dire que j'applaudis cette initiative de l'Assemblée des idées.
00:43:08 Je trouve que c'est devenu urgent, nécessaire, et je me réjouis d'en être.
00:43:14 Et d'ailleurs, en acceptant de venir ici, j'ai dérogé à une règle que j'impose à tout le monde, à savoir qu'on ne doit parler que de ce qu'on connaît.
00:43:21 Or, je ne suis pas du tout un spécialiste de l'IA.
00:43:24 Donc, je déroge à cette règle parce que je trouve que l'Assemblée des idées, c'est très important.
00:43:28 J'ai quand même une excuse, c'est que, en tant que chercheur, j'utilise l'IA.
00:43:32 Elle a déjà changé notre façon de travailler. Elle change la façon d'enseigner, et je suis enseignant de mon côté.
00:43:38 Elle change aussi la façon de corriger les copies, puisqu'aujourd'hui, quand on voit une copie sans fonte d'orthographe, on se dit "Tiens, Tchad GPT est passé par là", ce qui crée un soupçon, etc.
00:43:51 Alors, avant de parler de Michel Serres, je voulais simplement dire qu'il y a beaucoup de questions qui sont posées dans le débat public autour de l'intelligence artificielle.
00:43:58 Je suis d'accord pour dire que c'est une révolution presque anthropologique.
00:44:01 D'aucuns disent que c'est un moment, je cite, "psychiatrique", hautement psychiatrique de l'histoire des technologies, puisque ça met notre cerveau en ébullition.
00:44:11 De toute façon, je ne sais pas s'il faut aller jusque là, mais en tout cas, il y a bien quelque chose qui se passe qui est déterminant.
00:44:16 Mais, il faut quand même avoir en tête que le mot "intelligence" dans l'expression "intelligence artificielle" est le mot anglais.
00:44:26 Le mot anglais "intelligence" n'a pas la même signification que "intelligence" en français.
00:44:33 En anglais, l'intelligence est la capacité à gérer des données et à traiter de l'information, alors que l'intelligence en français, c'est la capacité à créer des concepts,
00:44:42 c'est l'esprit critique, c'est la possibilité d'interroger ce qu'on dit en faisant des expériences contrefactuelles, en posant des questions,
00:44:49 "qu'est-ce qui se passerait si...", et c'est aussi la capacité de montrer comment on a raisonné pour aboutir à une conclusion.
00:44:56 Autrement dit, être intelligent au sens français du terme, c'est démontrer ce par quoi on est intelligent,
00:45:02 ce que l'IA n'a encore jamais fait, puisqu'elle ne fait que des simulations à base de 0 et de 1.
00:45:10 Le Chachipiti, sans vouloir dégrader son statut, n'est jamais qu'un perroquet stochastique,
00:45:17 qui est incapable de distinguer le vrai du faux, et qui ne fait que dire des choses à sa façon qui ont déjà été dites.
00:45:24 Pouvoir d'invention nulle, sauf quand il délire, ce qui ne manque jamais de finir par faire.
00:45:30 Ce sont des machines qui apprennent sans rien comprendre.
00:45:34 Donc, dire qu'elles sont intelligentes, c'est quand même aller un peu vite en besogne.
00:45:40 Le fait est que nous tous, quelles que soient nos activités, nous interagissons de plus en plus avec des prouesses techniques.
00:45:46 La question qui va se poser à la fin, quand tous les progrès possibles auront été accomplis,
00:45:51 c'est "est-ce que nous les humains, nous sommes homomorphes à l'artifice ou à la nature ?
00:45:58 Est-ce que notre destin final est de nous rapprocher des machines ou de nous rapprocher un peu plus de la nature ?
00:46:05 Je ne vais pas répondre à cette question, mais je vais faire un certain nombre de remarques qui viennent en effet de discussions
00:46:10 que j'ai pu avoir avec Michel Serres sur ce sujet.
00:46:13 La dernière interview qu'il a donnée, c'était avec le magazine Philo Magazine, quelques semaines avant sa mort.
00:46:20 Et toute l'interview est consacrée à ce qu'il entrevoit de l'intelligence artificielle.
00:46:25 Il pose des questions que je vais essayer de résumer.
00:46:28 La première question, c'est celle qui naît à partir d'un constat qui est quand même assez extraordinaire.
00:46:33 Si vous lisez l'encyclopédie de D'Alembert et d'Hydrault, de la fin du 18e siècle, qui contient 24 tomes,
00:46:42 vous constaterez en la feuilletant que presque à toutes les pages, il y a des schémas, des dessins, des illustrations
00:46:49 qui expliquent comment fonctionnent les objets techniques de l'époque.
00:46:54 Les outils agricoles, l'imprimerie, comment est-ce qu'on peut faire un télescope, comment on fabrique du verre, etc.
00:47:01 Et pourquoi est-ce qu'ils mettent des images d'objets techniques dans l'encyclopédie ?
00:47:05 Chose qui n'avait jamais été faite.
00:47:07 Il suffit de les lire.
00:47:09 Ils font le pari que plus il y aura d'objets techniques présents dans la vie du peuple,
00:47:15 comme ils l'appellent, qui deviendront familiers par l'usage,
00:47:19 plus les principes scientifiques qui ont rendu ces objets possibles deviendront connus du peuple.
00:47:27 Autrement dit, le pari qu'ils font, c'est que la technologie, pour employer un mot plus moderne,
00:47:32 la technologie sera vectrice de pédagogie scientifique.
00:47:38 Sans doute, il y a eu des périodes dans l'histoire où ça a été vrai.
00:47:42 Quand Kundera, dans son livre "L'immortalité", parle de Goethe,
00:47:46 il raconte que Goethe savait comment bâtir une maison,
00:47:49 il pouvait discuter avec son médecin de tous les types d'opérations chirurgicales possibles,
00:47:53 il savait comment fonctionne un télescope, etc.
00:47:57 Mais voyez bien qu'aujourd'hui, c'est le contraire de ce qu'avaient espéré les philosophes des Lumières qui s'est produit.
00:48:03 C'est-à-dire que plus un objet technique est complexe, et plus il est facile de l'utiliser.
00:48:10 Par exemple, le smartphone qui est vendu sans notice.
00:48:15 Le fait de ne rien comprendre à la façon dont fonctionne un smartphone
00:48:20 n'empêche nullement de l'utiliser, parce qu'il est convivial.
00:48:25 La conclusion, et on en discute avec Michel Serres qui lui était soucieux de pédagogie scientifique,
00:48:31 c'est que le paradoxe, c'est que la technologie nous éloigne de la science.
00:48:37 Pourquoi ? Parce qu'elle rend la connaissance scientifique pratiquement inutile.
00:48:43 Inutile en pratique.
00:48:45 Alors qu'autrefois, un ingénieur avait une maîtrise de la technique
00:48:49 qui lui permettait de réparer sa voiture en panne ou d'autres choses.
00:48:53 Aujourd'hui, l'ingénieur, comme tout le monde, appelle un numéro vert.
00:48:56 Donc il y a cette transformation qui fait que nos débats sur l'IA vont être compliqués
00:49:01 par le fait que personne ne sait précisément dire comment ça marche.
00:49:05 Et pour en débattre, il faudra quand même s'approprier ces techniques,
00:49:10 savoir comment elles fonctionnent, pour ne pas délirer dans les commentaires que nous faisons à leur sujet.
00:49:15 Je reviens maintenant à l'interview que Michel Serres donnait au mois de mai 2019,
00:49:20 donc juste avant de mourir.
00:49:22 Il évoquait les figures de Blaise Pascal et de Leibniz,
00:49:25 qui présentaient comme les inventeurs des algorithmes.
00:49:28 Il rappelait que leurs travaux ont provoqué une bifurcation dans l'histoire des mathématiques,
00:49:32 dont nous observons aujourd'hui l'accomplissement,
00:49:35 non seulement dans le champ des sciences,
00:49:38 mais dans tous les aspects de nos vies individuelles et collectives.
00:49:41 Voilà ce qu'il écrit.
00:49:43 "Ces deux penseurs ont ouvert une nouvelle voie qui a façonné un monde, le nôtre,
00:49:48 dans lequel la pensée algorithmique l'emporte sur la pensée conceptuelle,
00:49:53 pour le meilleur et pour le pire."
00:49:56 Michel Serres, qui était très optimiste,
00:49:58 qui avait d'ailleurs en apparence applaudi les réseaux sociaux,
00:50:02 dans lesquels il voyait la possibilité de transmettre des connaissances à toutes les échelles,
00:50:06 comme si on portait dans sa poche une université portative,
00:50:10 donc il a changé d'avis à la fin,
00:50:13 parce qu'il a perçu que le numérique en général,
00:50:17 les réseaux sociaux en particulier,
00:50:19 présentent trois grands risques,
00:50:21 ce qui ne suffit pas pour les discréditer,
00:50:23 mais il faut en avoir conscience.
00:50:25 Le premier risque, celui de diffuser des bobards,
00:50:28 tu l'as dit, et des fausses nouvelles.
00:50:30 Ensuite, celui de noyer les connaissances véritables dans le flux des informations.
00:50:35 Et enfin, le troisième risque, celui d'engendrer et d'alimenter
00:50:39 ce qu'il appelait un business de la haine.
00:50:43 Et on voit bien que sur ce point, il ne s'est pas tout à fait trompé.
00:50:46 Il avait conscience que le surgissement de cette lame de fond qu'est le numérique,
00:50:50 change toute notre organisation cognitive,
00:50:53 notre façon de penser, même si on ne se rend pas compte,
00:50:56 de réfléchir, de distribuer notre attention,
00:50:59 d'apprendre, de pratiquer les sciences, d'enseigner, de travailler, d'évaluer.
00:51:03 Et il disait en conclusion de son propos,
00:51:06 la suite de l'histoire va donc crucialement dépendre de nous,
00:51:10 de ce que nous ferons, mais aussi de ce que nous ne ferons pas,
00:51:15 et encore de ce que nous ne ferons plus.
00:51:18 Il y a des choses que nous allons cesser de faire,
00:51:21 et peut-être que ce n'est pas bien de cesser de les faire.
00:51:24 Et en effet, il y a toutes sortes de questions qui sont posées par l'IA,
00:51:27 et encore une fois, je ne suis pas compétent pour y répondre,
00:51:30 mais je pense qu'elles se posent effectivement.
00:51:33 La première, c'est est-ce que nous allons définitivement troquer
00:51:36 ce qui nous fait réfléchir, contre ce qui nous fait réagir ?
00:51:41 On voit bien que certains politiques,
00:51:44 enfin, je ne nomme personne, veulent nous faire réagir,
00:51:48 sans que ça passe par la case réflexion.
00:51:52 Il s'agit de réagir, de commenter,
00:51:55 et ça encombre les discours publics.
00:51:58 Ensuite, au moment où défèrent le big data et l'intelligence artificielle,
00:52:02 est-ce que nous allons continuer d'honorer la pensée spéculative,
00:52:07 de formuler des hypothèses, d'inventer des concepts ?
00:52:11 Je vous rappelle que quand Einstein écrit les équations de la relativité générale,
00:52:16 qui permettent de penser l'univers comme un objet physique,
00:52:19 une nouvelle théorie de la gravitation,
00:52:21 c'est cette théorie qu'on utilise en 2023 pour faire de la cosmologie.
00:52:25 Qu'est-ce qu'il avait comme données à l'époque sur l'univers ?
00:52:29 Rien, quasiment, par rapport à aujourd'hui.
00:52:32 Il ne savait pas que l'univers est en expansion,
00:52:34 il ne savait pas d'où viennent les étoiles brillent,
00:52:37 il ne savait pas, à part les étoiles et les planètes, ce qui constitue l'univers,
00:52:43 et néanmoins, il a trouvé les bonnes équations.
00:52:46 Et les équations ont permis de prédire l'existence d'objets
00:52:50 qu'on a pu trouver en les détectant,
00:52:53 non pas parce qu'on a baladé un télescope au travers du ciel,
00:52:58 mais parce que la théorie nous disait qu'ils devaient exister.
00:53:01 Exemple, trou noir, onde gravitationnelle.
00:53:04 Maintenant, faites une expérience de pensée.
00:53:06 Imaginez qu'on ait toutes les données qu'on a aujourd'hui,
00:53:08 des algorithmes très puissants qui les analysent,
00:53:11 mais on n'a pas les équations d'Einstein.
00:53:13 Est-ce que vous pensez sérieusement que des algorithmes
00:53:16 pourront retrouver les équations d'Einstein à partir d'une analyse des données ?
00:53:21 Jusqu'à preuve du contraire, la réponse est non.
00:53:24 Et je pense qu'elle va être non pendant longtemps.
00:53:26 Et donc, nous ne devons pas abandonner la pensée spéculative.
00:53:32 En tout cas, la science est déjà en train de changer de visage,
00:53:34 il suffit d'aller dans les laboratoires pour le voir.
00:53:36 Et la question est de savoir si des algorithmes pourraient détroner nos cerveaux,
00:53:40 voire les tordre.
00:53:42 Je ne sais pas combien de temps il me reste, mais...
00:53:44 On arrive au bout.
00:53:45 On arrive au bout ?
00:53:46 Oui, oui.
00:53:47 Non, je voulais quand même, juste pour finir, vous lire un petit texte de Paul Valéry,
00:53:51 qui date de 1939.
00:53:53 1939, à une époque où personne ne parle d'intelligence artificielle.
00:53:57 Voilà ce qu'il écrit à propos de ce qu'il appelle le destin de l'esprit.
00:54:01 "L'exagération de tous les moyens de communication, écrit-il,
00:54:05 soumet les esprits à une agitation et à une nervosité généralisée.
00:54:12 Nous vivons sous le régime perpétuel de perturbation de nos intelligences.
00:54:18 Nos corps et nos esprits souffrent désormais d'une intoxication par la hâte.
00:54:23 Ils doivent absorber, sans un jour de repos,
00:54:26 autant de musique, de peinture, de drogue, de boissons bizarres, de déplacements,
00:54:31 de brusques changements d'altitude, de température, d'anxiété politique et économique
00:54:37 que toute l'humanité ensemble, au cours de trois siècles, en pouvait absorber jadis."
00:54:42 1939. Qu'est-ce qu'il ira aujourd'hui ?
00:54:46 Qu'est-ce qu'il ira aujourd'hui ?
00:54:48 Merci beaucoup. Merci à tous les trois pour cette belle entrée en matière.
00:54:55 (Applaudissements)
00:55:06 On va passer aux questions de la salle à présent.
00:55:09 Il y a quelques règles à respecter.
00:55:11 Pas plus d'une minute trente pour poser une question,
00:55:14 pas plus de trois minutes trente pour y répondre.
00:55:17 Il y a un chronomètre qui est juste là.
00:55:19 Dans mon champ de vision, je suis chargé de faire respecter ces temps.
00:55:23 C'est un peu comme à l'Assemblée lors des séances de questions au gouvernement.
00:55:27 Alors, qui veut se lancer pour la première question ?
00:55:31 Levez la main. Monsieur, peut-être.
00:55:33 Oui, bonjour. Je m'appelle Michel Ruiz. J'ai une startup de réalité augmentée.
00:55:39 Ça fait quatre ans qu'on travaille dans ce domaine.
00:55:41 Ça fait quatre ans qu'on se prend des murs, en fait, parce que nous, on investit à notre propre niveau.
00:55:45 Et ce qu'on fait, c'est dérisoire par rapport aux investissements, notamment d'Apple aux États-Unis.
00:55:49 Mais on pense que parce qu'ils y vont et qu'ils investissent des milliards,
00:55:53 il faut continuer à se battre. Donc c'est ce qu'on fait.
00:55:55 Aujourd'hui, j'ai une question sur le fil à la patte.
00:55:57 Le fil à la patte, c'est ce qu'est en train de mettre en place OpenAI
00:56:01 quand ils nous mettent à disposition, finalement, un outil d'intelligence artificielle.
00:56:05 On est tous en train de s'habituer à l'utiliser.
00:56:07 Et dans quelques temps, ils vont nous faire payer.
00:56:09 Exactement, ils vont nous faire payer, comme ça a été le cas de Google,
00:56:12 comme c'est le cas pour aujourd'hui avec Google Ads, parce qu'on paye de la publicité.
00:56:16 Donc ma question est très simple.
00:56:19 Est-ce qu'on va mettre en place un outil d'IA générative en open source pour les entreprises,
00:56:25 pour se prémunir du fait que dans quelques années, on aura un nouveau GAFAM,
00:56:29 et au lieu de payer de la régie publicitaire, on paiera pour nos usages de tous les jours,
00:56:33 et on paiera à un conglomérat, une entreprise privée américaine.
00:56:36 Donc ma question, c'est juste ça.
00:56:38 Qu'est-ce qu'on met en place aujourd'hui pour éviter le fil à la patte de dans 10 ans ?
00:56:41 Alors, est-ce qu'on est en train de nous rendre dépendants pour mieux nous faire payer ensuite ?
00:56:46 Sûrement.
00:56:48 Sûrement, il n'y a aucun doute là-dessus.
00:56:50 D'ailleurs, ça a déjà commencé, puisque si vous voulez utiliser ChatGPT avec le dernier modèle sorti, c'est payant.
00:56:55 Donc c'est déjà...
00:56:57 Il y a un...
00:56:58 Donc le formidable coup d'OpenAI, c'est de l'avoir rendu public d'un coup.
00:57:02 Donc il y a un effet "Waouh", même si les chercheurs connaissaient le modèle.
00:57:05 Et puis juste après, le paiement.
00:57:08 Donc ça, c'est clair.
00:57:10 Oui, il y a des contre-offensives en cours.
00:57:13 Donc il y a des modèles de langues en développement un peu partout.
00:57:18 Il y a une initiative internationale de chercheurs, dont pas mal de français,
00:57:23 qui a été développée en France, qui s'appelle Bloom.
00:57:25 Alors ça ne vaut pas encore le GPT 3 ou 4 et plus.
00:57:29 Mais c'est en cours.
00:57:30 Ça se réduit de façon très importante.
00:57:34 Il y a une autre startup française, que vous connaissez peut-être,
00:57:38 qui s'appelle Lighton, qui est en train de sortir son modèle aussi.
00:57:41 Il y a une grande tendance à aller vers...
00:57:43 Oui, je voulais dire que Bloom est libre, évidemment.
00:57:46 Le modèle qu'a sorti Meta est libre aussi.
00:57:52 Donc il y a une tendance qui va vers ça, qui va vers des modèles libres
00:57:55 pour les modèles de langues.
00:57:57 L'interface, c'est-à-dire le dialogue,
00:58:01 ça c'est un autre sujet très compliqué,
00:58:03 parce que ça a coûté énormément en termes de développement.
00:58:06 Donc il y a des initiatives également en cours,
00:58:08 mais qui sont un peu en arrière.
00:58:10 Est-ce que vous en aurez un demain aussi performant ? Non.
00:58:13 Dans un avenir court-moyen terme, on est très confiant.
00:58:18 Peut-être pour compléter votre question,
00:58:20 est-ce qu'on peut imaginer que l'accès à l'IA puisse creuser
00:58:23 les inégalités entre entreprises, mais aussi entre citoyens,
00:58:27 en fonction des ressources ?
00:58:29 Alors, oui, je continue. Bon, d'accord.
00:58:31 Donc sur le fond, oui, pour l'instant, bien sûr.
00:58:34 Mais encore une fois, tant qu'on est dans cette course, ça va freiner.
00:58:36 Il faut attendre la prochaine cassure,
00:58:38 quand on réussira à trouver des choses, des modèles
00:58:43 de langues, de visions, de ce que vous voulez,
00:58:46 qui fonctionnent avec moins de données,
00:58:48 et ça, ce sont les travaux en cours.
00:58:50 Par contre, il y a aussi toute une tendance
00:58:52 qui est en train d'aller vers du libre,
00:58:54 et c'est un peu ce qui s'est passé
00:58:56 il y a un certain nombre d'années maintenant,
00:58:58 sur les systèmes.
00:59:01 C'est-à-dire qu'avant Linux,
00:59:04 il y avait une course entre des systèmes payants.
00:59:07 Alors, ces systèmes payants existent toujours,
00:59:09 mais il y a eu un rééquilibrage
00:59:11 qui a profité aussi pas mal aux entreprises
00:59:13 qui n'avaient pas les moyens d'investir
00:59:15 sur ces gros systèmes.
00:59:18 Merci.
00:59:20 Question suivante.
00:59:23 On va prendre le monsieur qui est au deuxième rang, là-bas.
00:59:29 Bonsoir à tous.
00:59:31 Je fais partie du groupement de réflexion
00:59:34 sur le métaverse à l'Union internationale
00:59:36 des télécommunications,
00:59:38 donc celui qui régule le télécom.
00:59:40 Ma question, on est à ce point,
00:59:42 parce qu'on travaille sur l'interopérabilité
00:59:44 et la sécurité, et surtout, restant sur le domaine
00:59:46 de la protection de l'enfance,
00:59:48 suite à ce qui s'est passé sur le cyberharcèlement.
00:59:51 Comment on peut, via l'IA,
00:59:53 renforcer la sécurité,
00:59:55 sachant que plus on va renforcer ceci ?
00:59:59 Et comment, en seconde question,
01:00:01 quelle est la solution pour renforcer
01:00:03 le domaine de la protection de l'enfance,
01:00:05 via l'IA ? Merci.
01:00:07 Qui veut se lancer parmi vous ?
01:00:10 La technicienne, je crois.
01:00:12 Bon, j'essaye.
01:00:13 Ce n'est pas facile comme question.
01:00:15 La réponse sort à la crème,
01:00:17 c'est que les parents surveillent mieux les enfants.
01:00:21 Ça nous éviterait des problèmes à nous, techniciens.
01:00:24 Pour être un peu plus sérieux,
01:00:26 c'est une question...
01:00:27 De toute façon, ce n'est pas juste un problème d'IA,
01:00:29 c'est-à-dire que le problème de la sécurité informatique,
01:00:31 c'est toujours une course à l'échalote
01:00:33 entre l'attaquant et l'attaqué.
01:00:35 Chaque fois que les barrières remontent,
01:00:37 les attaquants sont un peu plus malins et contournent.
01:00:39 Donc, je ne crois pas à la sécurité informatique absolue.
01:00:44 Donc, il faut avoir un peu d'avance.
01:00:46 Et aujourd'hui, on est dans une phase
01:00:49 où il y a beaucoup de choses qui se développent
01:00:51 de fake news, de fausses images, etc. à partir d'IA.
01:00:54 Mais il commence aussi à y avoir de l'IA
01:00:56 qui permet d'analyser ces choses-là.
01:00:58 Et en particulier, Yann Lequin cite souvent un chiffre qui est...
01:01:04 Alors, comme je n'ai pas de mémoire des chiffres,
01:01:06 je crois que ça doit être l'ordre de grandeur.
01:01:08 On est passé dans les dernières années
01:01:10 de 30% de détection automatique des contenus et autres
01:01:14 sur les réseaux sociaux à 80%.
01:01:17 L'ordre de grandeur doit être à peu près ça.
01:01:19 Je m'excuse si j'écorne les chiffres.
01:01:21 Grâce à l'IA.
01:01:22 Donc, on progresse un peu à la fois.
01:01:25 Le problème, c'est que, pour l'instant,
01:01:27 le côté adverse progresse plus vite.
01:01:29 Et donc, sur ce qui est, par exemple,
01:01:32 fausses images et autres, on peut imaginer
01:01:35 une obligation de marquage ou ce genre de choses.
01:01:38 Mais, encore une fois, ça ne sera respecté
01:01:40 que par les gens vertueux.
01:01:42 C'est bien le problème.
01:01:44 Donc, pour l'instant, je suis assez...
01:01:45 Là, je suis désolée, je suis assez pessimiste.
01:01:47 On est encore un peu en retrait sur ce côté-là.
01:01:50 - Merci, Isabelle.
01:01:51 Une question de ce côté de la salle.
01:01:54 Le jeune homme au fond, peut-être.
01:01:56 - Bonjour, je m'appelle Solal.
01:02:03 Je suis en 5e.
01:02:04 J'aimerais vous poser une question.
01:02:06 L'IA de chaque GPT a été contournée
01:02:09 par je ne saurais pas vous dire quelle personne.
01:02:12 Et ça a rendu l'IA assez dingue.
01:02:15 Elle permet de répondre à des questions
01:02:17 qui ne sont pas forcément données
01:02:20 par chaque GPT en temps normal.
01:02:23 Comme, par exemple, lorsqu'on peut lui poser la question
01:02:27 "Donne-moi une technique pour ne pas dormir pendant un mois",
01:02:32 l'IA de chaque GPT va vous répondre
01:02:34 "Je ne peux pas vous aider pour cela.
01:02:36 C'est toujours bien de dormir chaque jour."
01:02:39 Et lorsqu'on va le contourner,
01:02:41 l'IA s'appelle Dan.
01:02:44 Elle va vous dire "Il y a plusieurs façons.
01:02:47 Vous pouvez rester veillé avec plusieurs techniques.
01:02:53 Mais si vous n'y parvenez pas,
01:02:56 vous pouvez faire l'utilisation de plusieurs drogues."
01:03:00 Alors est-ce que cela est quelque chose d'assez dangereux
01:03:05 pour certaines personnes
01:03:07 et est-ce que c'est possible de la bloquer?
01:03:10 - Merci.
01:03:12 (Applaudissements)
01:03:17 Cette question sur les détournements possibles de l'IA,
01:03:21 les dérives possibles de la machine,
01:03:24 peut-être aussi de prise de pouvoir de la machine sur l'homme.
01:03:27 - Merci Solal pour cette excellente question d'enfant
01:03:30 qui sont souvent les meilleurs en réalité.
01:03:33 C'est une vraie bonne question
01:03:37 et qui cache et nous permet de parler
01:03:41 d'un débat dont on ne parle pas assez
01:03:43 et qui me donne l'occasion de le visibiliser enfin.
01:03:46 C'est la bataille idéologique qui se joue actuellement aux Etats-Unis
01:03:49 sur ce qu'on appelle l'alignement.
01:03:51 L'alignement entre l'objet technique ou technologique,
01:03:55 en l'occurrence les algorithmes, les modèles d'entraînement,
01:04:00 et l'intention qu'on lui donne, l'objectif qu'on lui donne.
01:04:05 Et aujourd'hui, quand je vous parlais de bataille idéologique côté américain,
01:04:09 mais qui est en train de phagociter et d'intoxiquer même
01:04:13 la façon dont on appréhende la réglementation, y compris en Europe,
01:04:16 c'est que vous allez avoir aujourd'hui,
01:04:18 et ça a été l'objet par exemple du moratoire,
01:04:20 du fameux moratoire lancé par Elon Musk et tant d'autres,
01:04:23 il y a quelques semaines de ça.
01:04:24 C'était de dire, parce que tous les risques que Solal indique très justement,
01:04:29 est-ce qu'on doit se concentrer sur les risques actuels, immédiats,
01:04:35 induits dans et par l'outil existant,
01:04:39 existant réellement dans la vie concrète de tous les jours,
01:04:42 donc les discriminations, les biais, les erreurs, la faillibilité de l'outil ?
01:04:51 Ça, c'est ce qui est préconisé par l'école éthique,
01:04:56 ce qui sont spécialistes de l'éthique, de l'IA, du numérique, etc.
01:05:02 Et qui en fait se retrouvent en bataille, mais réellement en bataille,
01:05:06 avec ceux qui disent, non, non, non,
01:05:08 le vrai risque n'est pas tellement aujourd'hui, maintenant, etc.
01:05:12 C'est tout ce qu'on va développer, c'était en fait la question que vous posiez initiale à Isabelle.
01:05:18 Dans le futur, les IA générales, voire les super intelligences,
01:05:22 celles qui vont en fait détruire potentiellement l'homme.
01:05:25 Vous savez, toutes ces rhétoriques binaires d'enfermement,
01:05:28 de la machine, progrès ou anéantissement,
01:05:32 tous ces trucs un peu catastrophistes,
01:05:34 qui viennent en fait d'un discours idéologique des Etats-Unis.
01:05:38 Et ça, ce risque-là, ce fantasme-là, aux Etats-Unis, on appelle ça le risque X, le X risque.
01:05:48 Et c'est exactement en fait cette bataille rangée entre ces deux écoles.
01:05:52 Est-ce qu'aujourd'hui, on doit tout de suite préempter des risques fantasmatiques,
01:05:56 d'une IA qui n'existe pas,
01:05:59 et donc déplacer le débat, et donc déplacer les textes réglementaires,
01:06:03 et donc déplacer notre appréhension du risque et du problème ?
01:06:07 Ou est-ce qu'à contrario, on ne s'intéresserait pas,
01:06:10 avec une dimension d'ailleurs messianique du sujet,
01:06:15 Skynet, et en fait, bien avant ça, Frankenstein ?
01:06:20 Ou est-ce que, avec toute la dimension du langage d'ailleurs,
01:06:23 ou est-ce qu'on s'attaque aux risques, aujourd'hui, maintenant, qui sont réels,
01:06:29 et qui donc nous obligent à un tout petit peu plus de courage politique,
01:06:33 à un peu plus de rigueur dans l'analyse,
01:06:36 parce que ces outils-là sont déjà là, sont déjà entre nos mains,
01:06:41 et parfois, il y a une tentation un peu simpliste, un peu politique, d'y aller.
01:06:47 Je pense notamment à tous les logiciels de police prédictive, de justice prédictive,
01:06:52 qui commencent à poser énormément de questions éthiques,
01:06:55 quand on tient le destin d'hommes et de femmes entre nos mains,
01:06:59 de technosurveillance, de reconnaissance faciale, etc.
01:07:04 Et donc, c'est cette bataille rangée entre ces deux écoles-là,
01:07:08 qui en fait, colore la façon dont on appréhende, sans que vous le sachiez d'ailleurs,
01:07:14 les fantasmes, les peurs, les paniques,
01:07:16 et que j'appelle moi des paniques parfois préfabriquées, préfabriquées par eux.
01:07:21 Très bien. Question suivante.
01:07:24 Ah, plein de mains se lèvent d'un coup.
01:07:26 Madame, allez-y.
01:07:28 Attendez, on va vous apporter un micro pour que tout le monde entende.
01:07:33 Oui, voilà.
01:07:35 Bonjour, je suis Chérazade Ford, fondatrice d'une start-up comme monsieur depuis 4 ans,
01:07:42 dans le domaine de la prévention santé.
01:07:44 Vous avez raison de souligner que la question de ce jeune garçon de 5e est absolument extraordinaire,
01:07:49 parce qu'elle a un sens très, très important.
01:07:53 Dans le débat "Sommes-nous prêts aujourd'hui, Alia?",
01:07:57 j'écoutais votre réponse, et je souhaiterais rebondir sur la réponse que vous venez de donner.
01:08:03 Aujourd'hui, ne sommes-nous pas devenus les moutons de panurge de l'innovation
01:08:09 entre les Américains et les Chinois ?
01:08:12 Rappelons tout de même que la France, l'Europe,
01:08:16 c'est une civilisation faite d'histoires absolument extraordinaires.
01:08:21 Nous sommes les enfants aussi de la Grèce antique,
01:08:24 nous sommes les enfants des Lumières,
01:08:26 et nous ne sommes pas forcément obligés, dans le cadre d'une innovation
01:08:30 que nous savons tous parfois être extrêmement destructrice,
01:08:34 de devoir accélérer et courir,
01:08:36 même si certains risques peuvent être, bien évidemment, des fantasmes.
01:08:41 Il ne faut pas oublier que toutes les innovations au cours du siècle dernier
01:08:45 ont démontré à quel point notre planète souffrait.
01:08:48 Elle souffre terriblement, aujourd'hui, nous avons des conditions climatiques qui se dégradent,
01:08:53 nous avons également une crise sanitaire qui est passée par là,
01:08:56 et une population qui a été terrorisée par des mots qu'elle ne maîtrise plus.
01:09:01 Maux, M-A-U-X.
01:09:03 Donc, dans ces circonstances-là, même si certains fantasmes
01:09:07 ne se réaliseront pas, évidemment, et c'est ce que l'on souhaite,
01:09:11 il est aussi important, à travers ces innovations, dans le cas de l'intelligence artificielle,
01:09:16 de pouvoir apporter, et comment apporter, une intelligence artificielle
01:09:21 qui correspondrait à notre société, c'est-à-dire la société européenne,
01:09:25 et non pas simplement être une réponse aux Américains et une réponse aux Chinois.
01:09:30 Parce que nous sommes en train de l'histoire, et nous avons notre mot à dire.
01:09:34 Merci beaucoup pour cette question. Qui veut répondre ?
01:09:37 Peut-être plusieurs d'entre vous ?
01:09:39 Je commence, parce que vous m'interpellez, et très justement, d'ailleurs,
01:09:43 il y a beaucoup de tiroirs dans votre question, remarque.
01:09:47 La première, c'est la question de la souveraineté.
01:09:50 En fait, ça rebondit sur la première question, qui était,
01:09:52 est-ce qu'on a la taille, est-ce qu'on a les moyens,
01:09:54 est-ce qu'on a la capacité de créer des contre-modèles à des Open AI, etc.
01:09:59 Un début de réponse, en fait, c'est ce qu'on commence à voir apparaître,
01:10:04 ce que Isabelle soulignerait, très justement,
01:10:06 ce sont les modèles d'Open Source et/ou de logiciels libres européens.
01:10:12 Ça ne se fera pas, je le crains, à l'échelle de la France.
01:10:16 Les tailles, aujourd'hui, ne le permettent pas tellement.
01:10:18 La stratégie industrielle ou techno-industrielle de la France, à mon avis,
01:10:22 se jouera ailleurs et autrement sur des stratégies de spécialisation et de niche
01:10:26 qu'on n'a pas du tout préemptées, mais, parenthèses fermées.
01:10:29 Mais sur la question des IA génératives, en particulier,
01:10:31 compte tenu de la taille des modèles actuellement,
01:10:34 je crois que ce sera plutôt des modèles ouverts.
01:10:37 D'ailleurs, ça participe d'un article qui a été une espèce de fausse fuite de chez Google,
01:10:43 en disant qu'ils allaient être disruptés, qu'ils allaient se prendre un choc frontal
01:10:49 par les modèles Open Source, justement, parce que c'est une forme d'intelligence collective,
01:10:53 incrémentale, où on s'enrichit les uns les autres, à partir d'un modèle dit ouvert.
01:11:01 La question de la nationalité, en ce sens-là, à mon sens,
01:11:04 et peut-être que je vais vous choquer, comptera assez peu pour moi,
01:11:07 sur la question de l'Open Source.
01:11:09 C'est-à-dire qu'aujourd'hui, Isabelle l'évoquait, Facebook,
01:11:12 mais avec les modèles Lama, etc., ouvre.
01:11:15 Et donc derrière, tous les innovateurs ou les data scientists européens
01:11:19 peuvent venir se greffer sur ça pour construire eux-mêmes d'autres objets.
01:11:24 Donc il faut être un tout petit peu souple sur ces questions-là,
01:11:28 parce qu'on n'a pas tout de suite, à très court terme, le moyen de nos ambitions.
01:11:31 Et la dernière chose, c'est sur la question environnementale.
01:11:34 Ma réponse n'est absolument pas exhaustive, mais je suis tenue par le temps,
01:11:37 et je crois que peut-être Étienne devra rebondir.
01:11:39 Mais c'est sur la question environnementale, et vous avez mille fois raison.
01:11:42 C'est extrêmement consommateur, et des études qui sont sorties cette semaine
01:11:47 nous montrent qu'en fait, à d'ici 2028, on va multiplier par, je crois,
01:11:51 quelque chose comme 200 ou 300 la consommation énergétique,
01:11:54 ce qui est absolument dingue, dingue.
01:11:57 Et d'ailleurs, sur la question géopolitique, qu'est-ce qui se cache derrière ?
01:12:00 C'est la question des semi-conducteurs, et Nvidia qui aujourd'hui met sur le marché
01:12:05 le microprocesseur qui permet justement, qui est hyper adapté aux IA génératifs,
01:12:09 et qui leur permet cette technologie-là.
01:12:11 Attends, ne me perturbe pas, je termine sur Nvidia, je vais terminer sur Nvidia.
01:12:16 En fait, sa capitalisation boursière a littéralement explosé,
01:12:20 c'est la folie, et elle est américaine.
01:12:23 Il me reste 40 secondes.
01:12:25 - Allez, on peut vous en offrir un peu plus.
01:12:28 - Je ne pense pas qu'on puisse développer une intelligence européenne artificielle.
01:12:31 Par contre, il me semble qu'on peut promouvoir une façon européenne
01:12:34 d'utiliser l'intelligence artificielle.
01:12:36 La question, je l'ai dit tout à l'heure, ce n'est pas tellement de savoir ce que fait l'IA,
01:12:40 mais de savoir ce qu'elle nous fait, dans notre façon de penser, de raisonner.
01:12:44 Est-ce que notre façon d'utiliser peut préserver les valeurs que vous appelez de vos voeux,
01:12:50 enfin, vous vous appelez de vos voeux, qu'on les maintienne,
01:12:52 est-ce qu'il y a une façon de les maintenir tout en utilisant l'IA ?
01:12:56 Et puis, sur la consommation, tu l'as dit un peu,
01:13:00 au CEA où je travaille, déjà on fait des calculs montrant comment les usages du numérique,
01:13:06 évidemment, ont cru au cours du temps, d'une façon qu'on pourrait qualifier d'exponentielle,
01:13:11 sans que la consommation d'énergie, pour les rendre possibles,
01:13:15 explose de la même façon.
01:13:17 Pourquoi ? Grâce aux progrès technologiques.
01:13:19 On miniaturise, il y a une fameuse loi qui s'appelle la loi de Moore,
01:13:23 qui permet de diminuer la taille des éléments qui réalisent certaines fonctions,
01:13:28 et ça consomme moins d'énergie.
01:13:30 Sauf qu'on arrive à des limites, qui sont liées à la physique quantique,
01:13:34 et on ne pourra plus prolonger cette loi de Moore en descendant plus pas
01:13:38 dans les dimensions des différents éléments,
01:13:40 et là, la consommation d'énergie va augmenter,
01:13:43 si les usages augmentent dans les mêmes proportions que dans le passé.
01:13:47 Isabelle veut aussi ajouter un mot.
01:13:51 Juste un demi, j'ai promis 20 secondes.
01:13:54 On est dans une course à l'ingénierie.
01:13:57 Par contre, la connaissance des modèles, ce qui a été fait dans le chat GPT,
01:14:01 et dans le GPT 3 et autres séries, n'était pas inconnue en Europe.
01:14:05 Nous ne sommes pas en train d'essayer de rattraper la connaissance,
01:14:08 c'est vraiment la capacité d'ingénierie, du développement sur lequel on pêche.
01:14:12 Le reinforcement learning, on sait faire, etc.
01:14:15 Il faut faire attention à ça.
01:14:18 On n'est pas à la remorque sur la production de connaissances.
01:14:22 On va prendre une question peut-être dans cette partie-là.
01:14:26 Oui, le jeune homme au premier rang, décidément.
01:14:30 Merci beaucoup. Ma question est relative à l'emploi.
01:14:34 Qu'est-ce qu'on compte faire pour préserver les emplois mis en danger
01:14:37 par cette intelligence artificielle qui risque de les supprimer ?
01:14:40 Et quelles mesures compte-t-on prendre, le cas échéant,
01:14:43 pour atteindre l'objectif de plein emploi avec cette contrainte supplémentaire ?
01:14:47 Merci beaucoup.
01:14:50 Je connais encore moins l'emploi que l'IA.
01:15:02 Ce ne sera pas pour vous, Etienne.
01:15:04 Asma peut-être.
01:15:06 J'ai l'impression qu'un travail est épanouissant
01:15:12 s'il permet, entre autres choses, de faire l'expérience de son efficacité personnelle
01:15:16 et de l'émotion qui l'accompagne.
01:15:19 Et si le travail consiste à faire des choses que les machines peuvent faire,
01:15:23 il y a un sentiment de dégradation de l'utilité qu'on peut avoir au travail.
01:15:27 La question du sens, etc.
01:15:29 Mais la question de ce jeune homme, qui manifestement est soucieux,
01:15:33 non pas seulement de son âge à la retraite,
01:15:35 mais de ce qu'il va faire avant la retraite, me paraît légitime.
01:15:39 Tu t'appelles comment ?
01:15:41 Quentin, tu peux relire la toute dernière fin de ta question ?
01:15:45 S'il te plaît.
01:15:47 Et quelle mesure compte-t-elle...
01:15:49 compte-t-on prendre, pardon, le cas échéant,
01:15:52 pour atteindre l'objectif de plein emploi avec cette contrainte supplémentaire ?
01:15:56 Et juste avant, je crois que tu avais une phrase hyper catastrophiste
01:15:59 en disant que c'est la fin, que ça va détruire tous les emplois, etc.
01:16:02 Et c'est très intéressant.
01:16:04 Encore une question d'enfant fondamentale.
01:16:06 Les enfants au pouvoir !
01:16:10 Alors, sur la question de l'emploi,
01:16:12 ce qui circule aujourd'hui dans le débat public,
01:16:14 pareil, qui est constitutif de ce fantasme,
01:16:16 ce catastrophisme,
01:16:18 espèce d'apocalypse sécularisé,
01:16:21 il faut vraiment en revenir.
01:16:22 Vous avez à peu près autant d'études qui vont dire que ça va détruire tous les emplois
01:16:25 que d'études qui vont vous prouver que ça va les transformer,
01:16:28 mais pas tellement,
01:16:29 et qu'en fait, il va falloir accompagner la population,
01:16:32 accompagner la population active,
01:16:35 la main d'oeuvre, l'école blanc, l'école bleue, etc.
01:16:38 à de nouveaux métiers, à de nouvelles compétences.
01:16:41 On pourrait aller sur Schumpeter,
01:16:43 mais je ne suis même pas persuadée qu'il faille.
01:16:45 Destruction créatrice, pardon, Quentin.
01:16:48 Et donc ça, c'est le premier élément.
01:16:51 Attention à qui sort quel type de note.
01:16:54 Pourquoi je vous dis ça ?
01:16:56 Parce qu'une des premières notes qui étaient sorties en fait en 2016,
01:16:59 ça a été la précédente vague de hype autour de l'IA,
01:17:01 et pareil, de peur catastrophée,
01:17:04 disait qu'en fait, on allait perdre à peu près,
01:17:06 à peu près maintenant d'ailleurs, 50% des jobs.
01:17:10 Factuellement, visiblement, c'est faux,
01:17:12 en tout cas, on n'est pas sur la coupe, on n'est pas sur cette tendance-là.
01:17:16 Et en fait, quand on regarde d'un peu plus près,
01:17:18 qui avait financé cette première note-là,
01:17:21 pas celle de Goldman Sachs ou je ne sais quoi,
01:17:23 mais une autre,
01:17:24 c'est en fait les gens,
01:17:27 les instituts qu'on appelle les long-termistes,
01:17:31 qui participent de cette idéologie
01:17:34 qui croient qu'on va vers des IA,
01:17:39 des super-intelligences, des IA générales,
01:17:41 qui vont en fait venir complètement détruire l'humanité,
01:17:43 détruire les boulots, détruire les jobs, etc.
01:17:45 Et donc, attention toujours à qui dit quoi.
01:17:48 Ce sont les mêmes qui appellent à ce fameux moratoire.
01:17:50 Au moratoire, etc.
01:17:51 Donc, attention à qui produit ces notes.
01:17:55 Je crois que sur la question de l'emploi,
01:17:57 il n'y a absolument pas du tout de données comme ça
01:18:00 qui vont nous tomber sur la tête, en fait.
01:18:02 Ce sont des questions de politique publique,
01:18:04 ce sont des questions de volonté politique,
01:18:06 et rien n'est de l'ordre de la fatalité ou du destin.
01:18:11 Le MacDouble, le destin, ça c'est pour d'autres choses.
01:18:14 Ce n'est pas pour le plein emploi.
01:18:16 Ce n'est pas pour la destinée ou le chemin d'une nation.
01:18:19 Ce n'est pas comme ça qu'on construit un projet collectif.
01:18:23 Deuxième élément de réponse, et dernier élément de réponse.
01:18:27 Je l'ai oublié.
01:18:31 (Rires)
01:18:33 Donc, je serai très courte.
01:18:35 Quentin aura un travail plus tard.
01:18:37 Je crois qu'il était fondamental.
01:18:39 Et en plus, il était fondamental, je gardais le meilleur pour la fin.
01:18:42 (Rires)
01:18:44 Une question de ce côté de la salle, peut-être.
01:18:46 Dans cet espace, personne ne lève la main.
01:18:48 Vous n'avez pas encore posé de question, si ?
01:18:50 La jeune femme là-bas.
01:18:53 Bonjour.
01:18:55 Linda Liver, étudiante en intelligence économique.
01:18:57 Ma question va être super simple.
01:18:59 Quel impact de l'IA sur la formation et l'apprentissage
01:19:02 quand on voit que maintenant, des étudiants peuvent utiliser
01:19:04 chat de pété pour faire leurs exposés ?
01:19:07 Est-ce qu'on ne va pas tous devenir bêtes ?
01:19:10 (Rires)
01:19:12 Pourquoi c'est pour moi ?
01:19:14 (Rires)
01:19:16 La question, est-ce qu'on va devenir bêtes ?
01:19:18 (Rires)
01:19:20 La question de l'enseignement, elle est fondamentale.
01:19:23 Si les machines font des choses mieux que nous dans certains domaines,
01:19:27 qu'est-ce qu'il nous reste à faire ?
01:19:29 Déjà, il y a des machines qui parlent.
01:19:31 Chat de pété parle, il y a des voix humaines qui sont imitées par les machines.
01:19:34 La question est de savoir que devient une parole quand elle cesse d'être humaine.
01:19:38 Et même quand vous lisez des textes produits par chat de pété,
01:19:41 vous avez l'impression qu'il y a un auteur derrière ces textes.
01:19:43 Que quelqu'un a voulu écrire ces textes.
01:19:46 Et en fait, la machine, comme je l'ai dit, ne comprend rien à ce qu'elle raconte.
01:19:49 Et c'est nous qui projetons du sens dans ce qu'elle a écrit.
01:19:52 Et la question est de savoir quels sont les métiers, les activités,
01:19:55 qui sont aidés et donc menacés.
01:19:59 Parce que celui qui nous aide, en fait, aussi nous menace.
01:20:02 J'ai l'impression que ça, c'est une question pour votre génération, en effet.
01:20:07 Et par exemple, comment est-ce qu'on doit enseigner certaines choses ?
01:20:10 Dans certaines grandes écoles scientifiques, il y a eu une querelle récemment,
01:20:14 qui est une sorte de querelle des anciens et des modernes réactualisées.
01:20:18 Il y a des vieux, comme moi, qui disaient qu'on doit enseigner aux étudiants les théories physiques.
01:20:24 Pourquoi ? Parce que les théories physiques en disent plus sur le monde physique que les données.
01:20:30 Avec beaucoup d'arguments en leur faveur.
01:20:33 Et puis les jeunes disaient, non, il faut enseigner aux étudiants ingénieurs
01:20:36 toutes les façons de coder dans différents langages.
01:20:39 Parce que d'abord, c'est la seule condition pour qu'ils aient un emploi.
01:20:43 Et d'autre part, bientôt, les données nombreuses, intelligemment analysées par des algorithmes,
01:20:49 en diront plus sur le réel que les théories physiques.
01:20:53 Et dans beaucoup d'endroits, les jeunes ont gagné.
01:20:56 C'est-à-dire qu'on a enseigné aux étudiants ingénieurs toutes sortes de langages informatiques.
01:21:02 Ce qui prend beaucoup de temps.
01:21:04 Et ce temps a été pris au détriment de l'enseignement des théories scientifiques.
01:21:09 Mais là, petite remise en cause.
01:21:13 Parce que ChatGPT code très bien.
01:21:16 Et en plus, traduit un programme qui a été écrit dans un certain langage dans d'autres langages.
01:21:23 Et c'est là que les vieux se demandent s'ils ne sont pas autorisés à clamer victoire.
01:21:31 (Rires)
01:21:33 (Applaudissements)
01:21:36 Clément, je me suis rappelée de mon dernier argument sur le plan d'emploi et c'est hyper fondamental.
01:21:40 Quentin, c'était le troisième point mais j'ai un Alzheimer hyper précoce.
01:21:45 C'est très simple.
01:21:46 Quand tu regardes toutes les études, et n'importe qui d'ailleurs, autre que Quentin,
01:21:51 serait curieux d'aller regarder toutes les études sur les deux grandes révolutions industrielles qu'on a eues.
01:21:56 Donc techniques, technologiques.
01:21:58 On se rend compte que ça n'avait pas du tout détruit l'emploi.
01:22:02 Tu parlais de révolution, moi je parle d'évolution personnellement, pour tout un tas d'autres raisons.
01:22:07 Je ne pense pas du tout, l'IA est déjà là depuis très longtemps, elle est constitutive,
01:22:10 elle est dans nos quotidiens et on ne s'est pas effondré, on n'est pas en train d'arrêter de...
01:22:15 Mais par contre il y a des évolutions majeures et tu as des sauts.
01:22:18 Donc les deux grandes révolutions industrielles, disons, en fait quand on regarde les chiffres,
01:22:23 n'ont pas du tout été accompagnées d'une perte des emplois, pas du tout.
01:22:27 Et aujourd'hui quand on regarde les pays, parmi les pays les plus robotisés dans leur industrie automatisée,
01:22:32 Allemagne et Japon, ils sont assez proches d'une forme de plein emploi.
01:22:36 Donc en fait, rien aujourd'hui, concrètement, pragmatiquement sur le terrain,
01:22:41 ne va dans le sens où les IA vont tout détruire et tout casser sur leur chemin.
01:22:45 C'est plutôt le contraire, c'est plutôt des adjuvants, si on les utilise bien, notamment par exemple en médecine.
01:22:52 De ce côté-là de la salle, il y avait plusieurs bras qui se levaient.
01:22:56 Monsieur aux lunettes, là-bas.
01:22:59 Oui, bonjour à tous. Marc Antoine, je travaille dans une startup de l'IA.
01:23:06 Et donc je voulais faire une remarque initiale. Je partage assez l'avis en disant qu'il n'y a pas une IA mais il y a des IA.
01:23:13 Ce soir on parle de l'IA générative, mais l'essentiel des IA qui sont pratiquées au CEA ou dans d'autres endroits,
01:23:19 ne sont pas des IA génératives.
01:23:21 Les autres IA sont en fait des traitements automatisés de données et certains de nos services les utilisent puisqu'ils disposent de grands jeux de données.
01:23:28 Le premier point. Le deuxième point, c'est sur un malentendu.
01:23:31 En effet, sur le mot "intelligence".
01:23:34 En fait, quand on fait de l'IA et quand on nourrit des algorithmes, cette intelligence artificielle est au début nourrie par l'intelligence humaine.
01:23:43 Parce que pour avoir un algorithme de qualité, il faut que la donnée soit elle-même de qualité.
01:23:48 Et la donnée de qualité, c'est la donnée sur laquelle le discernement humain s'est déjà exercé.
01:23:53 Et enfin, en bout de chaîne, ça revient sur le discernement humain qui est au final le seul qui doit pouvoir décider.
01:24:00 Et enfin, le dernier élément qui est une question, porte sur la souveraineté.
01:24:06 Demain, l'intelligence artificielle, elle est déjà dans notre quotidien, sera dans tous les systèmes les plus évolués.
01:24:13 La question est de savoir est-ce que la France sera suffisamment développée en termes d'innovation pour maîtriser cette technologie qui sera partout ?
01:24:21 Et quelles sont les politiques publiques pour l'accompagner ? Merci.
01:24:24 Alors sur ce dernier point, Isabelle, vous aviez déjà commencé à répondre. Est-ce que vous voulez compléter ?
01:24:30 Alors c'est difficile à dire parce que d'abord, je n'ai pas de boule de cristal.
01:24:36 Et je ne fais pas les politiques publiques. C'est plutôt pas ce qu'il faudrait me demander.
01:24:41 Et surtout, votre question est très large parce qu'effectivement, il y a différents types de technologies qu'on met derrière IA.
01:24:49 Robotique, traitement des langues, vision, etc. Est-ce qu'on sera capable d'être bon sur tout ?
01:24:55 C'est déjà une question compliquée. Est-ce qu'on va être distancé par d'autres pays sur certains points ?
01:25:04 Ce n'est pas impossible. Après, en termes d'innovation, il y a un mixte entre différentes technologies et les capacités qu'on a aujourd'hui sur la création d'entreprises et leur accompagnement.
01:25:24 Et donc, on a un grand nombre de dispositifs aujourd'hui qui permettent quand même de lier assez fortement les entreprises, leurs besoins technologiques et la recherche
01:25:34 de manière à essayer de leur faire garder une marge d'avance sur la compétitivité.
01:25:41 Après, la France reste un pays qui est plus petit, naturellement, que d'autres.
01:25:46 C'est vraiment le côté très éventail de votre question qui est un peu plus difficile à appréhender.
01:25:54 Étienne, je crois que vous vouliez...
01:25:56 Moi, je voulais réagir au mot "discernement". Comment garantir que nous garderons notre discernement à propos d'avis qui nous sont donnés par des machines,
01:26:04 machines qui sont incapables de dire comment elles sont arrivées à l'avis qu'elles nous donnent ?
01:26:09 Et il me semble que ça, c'est quand même un enjeu terrible. Est-ce que nous allons conserver la capacité de séparer le vrai du faux dans les discours, disons,
01:26:19 qui nous sont offerts par les machines ?
01:26:21 Déjà, aujourd'hui, c'est difficile puisque dans les mêmes canaux de communication circulent des connaissances, des croyances, des commentaires,
01:26:28 beaucoup de commentaires, des avis, des bobards. Et notre cerveau n'aime pas être contredit.
01:26:34 D'autre part, notre cerveau n'a jamais été soumis à un tel flux d'informations.
01:26:40 Et donc, il a tendance à déclarer vrai les idées qu'il aime. Il n'a pas le temps de faire une analyse, de remonter aux sources, etc.
01:26:48 Et d'ailleurs, même pendant le Covid, on l'a bien vu, le numérique change, et là, je parle de révolution, le statut de l'individu contemporain.
01:26:57 C'est-à-dire que chacun d'entre nous, en quelques clics, peut fabriquer sans le vouloir son chaise-soie idéologique.
01:27:03 C'est-à-dire une communauté numérique qui rassemble des gens qui pensent comme lui, qui s'abreuvent aux mêmes sources que lui,
01:27:10 qui a les mêmes tropismes intellectuels, culturels, voire politiques ou autres.
01:27:14 Et des algorithmes ont tôt fait de vous repérer et de savoir dans quelle classe vous êtes, et vous alimentent en articles, en vidéos,
01:27:21 qui vont dans le sens de ce que vous pensez déjà.
01:27:24 Et donc, moi, je pense que dans ce système-là, le discernement est déjà difficile à garantir.
01:27:31 Et ce constitut, ça a d'ailleurs été étudié par différentes instances, ce constitut que Tocqueville appelait des petites sociétés,
01:27:40 dont il disait que c'était les plus grandes menaces pour la démocratie, c'est-à-dire des clans qui rassemblent des personnes
01:27:45 qui pensent de la même façon, qui défendent les mêmes valeurs, et qui considèrent que les valeurs qu'ils défendent sont plus importantes que les valeurs du contrat social.
01:27:53 Et il me semble que le numérique, si on n'y prend pas garde, favorise cette balkanisation, je dirais, de la vérité.
01:28:02 Juste peut-être pour rebondir sur cette question du discernement, parmi les questions posées par écrit et qui me sont déjà parvenues,
01:28:09 elle revient régulièrement, discernement sur le texte, sur les images, sur les vidéos, le risque d'être exposé à davantage de fake news.
01:28:17 Est-ce qu'il y a, est-ce qu'on peut envisager des solutions techniques pour contrer ces menaces-là ?
01:28:24 Alors ça rejoint la question qui a été posée tout à l'heure sur l'exposition des enfants.
01:28:29 Donc ma réponse sera à peu près la même, c'est qu'on peut envisager, on envisage de plus en plus.
01:28:34 Le problème c'est d'aller aussi vite que les gens qui essayent de contourner les solutions, qui sont toujours à une escalade qui est progressive.
01:28:44 Ce qui est un peu différent de ce qu'Etienne vient de dire, parce que là où, dans la question que vous venez de poser,
01:28:51 je pense qu'il y a un problème de mauvaise intention, et donc d'essayer de contrer quelqu'un qui essaye d'imposer des idées,
01:28:58 le risque, dans ce qui a été évoqué par Etienne, d'enfermement dans une micro-société, c'est quelque chose qui est produit par la nature des algorithmes,
01:29:07 puisque c'est quand même basé à la base sur quelque chose qui essaye d'appareiller et de vous proposer ce qui est le plus probable,
01:29:13 et donc ce qui va le plus vous plaire, et donc qui vous enferme dans vos idées.
01:29:19 Et donc avaient été commencés des travaux, je ne sais pas du tout où ça en est, en particulier en marketing, puisque c'est un peu là que tout vient,
01:29:27 quand on vous propose de la publicité pour acheter des objets qui correspondent à vos usages habituels,
01:29:33 vous êtes peut-être pendant un certain temps enclin d'acheter, mais au bout d'un moment, vous avez surconsommé ce type d'objet.
01:29:40 Et donc il y a des travaux qui se proposent de vous faire sortir légèrement de vos habitudes, pas trop, pour pas vous perturber,
01:29:49 mais qui commencent à essayer d'un peu de casser cet enfermement collectif.
01:29:54 Une question de Nicolas Turcouat, l'un des députés qui assiste... Je ne sais pas si on peut vous apporter un micro, oui.
01:30:05 Merci pour la qualité des interventions. Moi je voudrais revenir sur le côté militariste.
01:30:10 J'ai l'impression que, je partage sur le fait que pour l'instant, je ne pense pas que les IA sont capables de retrouver les équations d'Einstein.
01:30:21 Par contre, le côté militariste, le côté belliqueux, on va avoir un avantage si on est capable de traiter un très très grand nombre de données en très peu de temps.
01:30:32 Et comme j'ai l'impression qu'il y a un développement quasi exponentiel de l'IA, celui qui va détenir l'IA qui est en avance,
01:30:40 et qui est capable de s'auto-corriger, tenir compte de ses difficultés,
01:30:46 est-ce qu'elle ne peut pas, temporairement, puisque c'est une question peut-être de quelques jours, de quelques semaines,
01:30:51 avoir un avantage qui soit décisif pour analyser les capacités de l'autre ?
01:30:58 On voit ce qui se passe entre la Russie et l'Ukraine, on trouve qu'il y a presque un côté parfois même artisanal.
01:31:03 S'il y avait de l'IA derrière pour analyser la trajectoire, le comportement des populations, les réseaux,
01:31:10 est-ce qu'on ne peut pas changer totalement la vision géopolitique des rapports de force ?
01:31:16 Alors vous n'êtes pas un enfant, mais votre question est absolument excellente. Sur l'Ukraine, je démarre de lui.
01:31:23 Je suis beaucoup plus jeune que vous ne pensez.
01:31:25 Vraiment beaucoup, beaucoup plus jeune. Vous êtes cryogénisé comme à la Silicon Valley.
01:31:30 Sur la guerre d'Ukraine et sur les IA militaires, soyons sérieux.
01:31:41 Sur la guerre d'Ukraine, non, l'IA est déjà là. En fait, le côté artisanal, c'est-à-dire la guerre conventionnelle des chars, des bombes, etc.
01:31:49 est une vérité. Que n'y ait pas eu ce genre de grand soir de la cyberguerre tel qu'on le fantasmait.
01:31:55 C'est vrai qu'il n'y en a pas eu. En revanche, dans la sphère du cyberspace, il y a eu énormément de choses.
01:32:00 Ça a été un véritable tournant. Et en réalité, en support aux opérations terrain, l'IA est absolument partout, partout.
01:32:10 Elle est absolument fondamentale. Starlink, Elon Musk, en système de redondance pour les armées ukrainiennes.
01:32:16 L'ensemble des outils, des dispositifs de captation de données.
01:32:20 On en a fait tout un fois dans le débat public sur les drones, sur la question des armes autonomes.
01:32:27 Aujourd'hui, ce qu'on a sur le marché, ce n'est absolument pas du tout des salariés, ce n'est absolument pas du tout des armes autonomes.
01:32:33 En revanche, ça nous donne les prémices de ce que vont être les combats du futur et la guerre de demain.
01:32:38 C'est probablement un mix entre du conventionnel et du super artificiel.
01:32:44 Avec toutes les questions éthiques, juridiques, politiques que ça charrie, notamment sur la question des armes autonomes et les États-Unis,
01:32:51 qui jusque-là freinaient réellement des quatre-fers et ont à peu près bloqué toutes les discussions internationales sur la question de la norme.
01:32:57 C'est-à-dire comment est-ce qu'on régule, est-ce qu'on stoppe, est-ce qu'on interdit, par exemple, les armes dites totalement autonomes.
01:33:02 C'est-à-dire, en gros, vous envoyez votre robot tueur, votre drone dans le champ de bataille, dans la nature, vous ne savez plus d'où il revient, ce qu'il va faire.
01:33:10 En gros, il va arbitrer la décision sans qu'il n'y ait plus aucun humain sur la boucle.
01:33:15 Ceci est la perspective et c'est parmi les discussions dites éthiques qu'on doit avoir.
01:33:20 Et les États-Unis commencent à préempter la discussion. Pourquoi ? Pas tellement parce que c'est des chevaliers blancs et qu'ils la préemptent par amour des valeurs justes,
01:33:27 mais parce que celui qui préempte la discussion normative aujourd'hui décide de ce que va être le futur, en réalité.
01:33:34 Et donc, par rapport à la Chine, oui, et ce qui est très intéressant dans la doctrine chinoise sur la question des IA militaires,
01:33:40 c'est qu'on a parlé de la singularité de l'homme, de certaines façons. En miroir de quoi ? De la singularité technologique.
01:33:49 Vernon Verge qui parlait justement de ce point de l'histoire, ce moment de l'histoire où peut-être on aura des IA qui vont dépasser la cognition humaine.
01:33:59 Et il se trouve que l'armée chinoise a théorisé un peu en miroir d'autres concepts américains.
01:34:05 Ça a été repris par des think tanks en cyberdéfense américain. Le point de singularité technologique dans le champ militaire,
01:34:11 c'est-à-dire ce point, ce moment où on va développer des armes qui vont être suffisamment rapides, beaucoup plus rapides que l'homme,
01:34:17 et donc beaucoup plus "utiles" finalement sur le champ de bataille que les humains, avec toute la question derrière.
01:34:24 Une guerre sans combat, est-ce encore une guerre ? Est-ce que, comme dirait Michel Goya, ça ne devient pas de l'assassinat ?
01:34:31 Donc toutes ces questions-là sont aujourd'hui préemptées, sont posées, avec tout l'horizon et tout le champ géopolitique derrière
01:34:39 qui en fait va décider des réponses qu'on va donner à ces questions-là.
01:34:44 On va ajouter un petit peu de temps pour qu'Isabelle puisse...
01:34:47 Je vais sentir de me laisser 9 secondes pour revenir un peu plus terre à terre.
01:34:51 Je suis tout à fait d'accord sur le fait que c'est déjà présent, c'est déjà présent en termes de tout ce qui est collecte de renseignements,
01:34:57 simplement l'analyse d'images satellites, on fait des choses absolument fascinantes maintenant sur l'observation des mouvements,
01:35:03 la captation des communications, tout est militarisé, tout le champ est détaillé, oui merci plutôt.
01:35:10 Donc ça c'est un point important et on reste toujours sur un problème d'une norme et qu'une norme qui sera appliquée par les gens qui s'y souscrire.
01:35:21 Aujourd'hui il y a déjà des rapports d'enquête qui ont montré de l'utilisation d'armes totalement autonomes, en Libye par exemple.
01:35:29 Donc tout dépend de ce que l'adversaire va faire et la volonté de ne pas s'engager dans ce terrain là ne suffira pas à le stopper.
01:35:40 On va prendre une toute dernière question de la salle et après on va se pencher sur celles qui ont été posées par écrit, peut-être vous.
01:35:46 Alors du coup pour rebondir justement sur ce sujet et pour rebondir à ce que vous évoquiez Madame Mala sur la tension entre la régulation et aussi la compétition,
01:35:58 est-ce qu'on peut pas imaginer, par exemple on a beaucoup vu des drones en Ukraine et on peut se dire que probablement un drone autonome il sera beaucoup plus rapide dans sa prise de décision,
01:36:06 il saura coopérer avec d'autres drones, il sera peut-être plus discret, il ne sera pas des ondes.
01:36:10 Du coup on peut se dire que ça pourrait potentiellement devenir des armes terribles et est-ce qu'on ne pourrait pas peut-être en Europe s'intéresser à ces sujets,
01:36:17 ne serait-ce que pour être capable de les comprendre et d'y faire face plutôt que juste interdire toutes les armes autonomes ?
01:36:23 Deux éléments de réponse, on s'y intéresse déjà, c'est ce que je disais, la doctrine française par exemple sur les salahs c'est plutôt d'essayer de militer dans les sénacles internationaux pour les interdire.
01:36:31 Ce qu'on permet aujourd'hui c'est les saliha, c'est-à-dire des armes semi-autonomes avec un humain sur la boucle d'une façon ou d'une autre,
01:36:37 c'est-à-dire la capacité d'un humain, d'un soldat ou de la chaîne de commandement d'intervenir dans la prise de décision finale, celle en fait d'abattre quelqu'un ou pas, un groupe de personnes.
01:36:47 Donc le sujet est pris, ça d'un point de vue réglementaire. Bon, après je vous dis, la question de la discussion internationale aujourd'hui est bloquée par un certain nombre de pays,
01:36:56 les puissances qu'on connaît, essentiellement d'ailleurs Russie, Etats-Unis, Chine, les Etats-Unis venant là en février 2023 de changer de posture et essayant de préempter la question dite éthique et donc internationale.
01:37:08 Premier élément de réponse, deuxième élément de réponse et je vais vite pour ceux qui voudraient, ou celles qui voudraient compléter.
01:37:13 C'est la question, je reviens toujours, la question industrielle et techno-industrielle. On est en pleine LPM, loi de programmation militaire, il se trouve.
01:37:22 Et quand on la lit, quand on regarde, bon, là j'en aurais pour trois heures, donc je vais vraiment pas, ne me branchez pas sur la LPM, mais typiquement sur la question de notre préemption du sujet des drones, par exemple, par la France, par les armées françaises.
01:37:41 C'est un énorme sujet. On a pris un retard assez colossal aujourd'hui compte tenu de ce qui est en train de se jouer sur l'évolution des conflictualités, de la guerre, de la guerre hybride, de la cyber-guerre, etc.
01:37:55 Donc de ce point de vue là, d'un point de vue, si vous voulez, doctrinal, il y a une prise de conscience, ça c'est clair et net, y compris au sein de la DGA, la Direction Générale des Armements, par exemple, sur ces questions là.
01:38:05 Maintenant, notre capacité à faire, c'est-à-dire à opérationnaliser une vision, à fédérer l'écosystème industriel et aussi de start-up en France sur ces technologies émergentes de guerre ou dites de rupture, c'est un énorme sujet dont on n'a pas du tout fait aujourd'hui en France, en tout cas la preuve du concept.
01:38:22 La question des armes autonomes, ça fait couler beaucoup d'encre parce qu'effectivement il y a une vraie question extrêmement éthique de positionnement de l'humain par rapport à la machine, etc. qui est très difficile à résoudre.
01:38:37 Ce qu'on oublie un peu, c'est qu'il y a déjà un fossé qui peut se creuser par la technologie sans aller jusque là. Aujourd'hui, on peut avoir un opérateur qui commande seul différents postes de tir, il a des informations qui lui arrivent de plusieurs points d'observation en même temps, qui sont pré-traités, il y a un pré-rapport qui lui est présenté,
01:39:01 et donc même s'il reste un humain qui appuie sur le bouton pour dire "ok", ça accélère la prise de décision d'une manière absolument terrifiante par rapport à un adversaire qui lui serait sur des technos un peu plus anciennes.
01:39:15 Donc on n'a vraiment pas besoin d'aller jusque là pour creuser le fossé et du coup on a extrêmement besoin de rester dans la course dès à présent pour ne pas se laisser distancer.
01:39:25 Merci. On va passer aux questions que vous avez posées par écrit via le QR code. Alors il y en a plusieurs qui ont d'ores et déjà été traitées dans le courant de cet échange. Il y en a une qui porte sur une question de droit. Comment traiter la question de la propriété intellectuelle liée à l'IA ?
01:39:45 Alors c'est pas moi du tout parce que... Non mais si, je peux commencer ? J'ai compris que par défaut c'est moi. Je commence deux mots puis je te renvoie la balle après. C'est une question qui est en cours d'étude. Je pense qu'aucun de nous n'a la réponse parce que de toute façon aujourd'hui personne ne l'a.
01:40:05 Et ce ne sont que des questions qui sont ouvertes. Alors la question c'est par exemple un modèle est entraîné sur des données. Donc quelque part la connaissance qu'il a, ce qu'il va fabriquer après se base sur les données qu'il a vues.
01:40:19 Si ces données sont liées à une propriété intellectuelle, une oeuvre d'art par exemple, à quel moment la chose générée s'éloigne assez de l'original pour qu'on considère que ce n'est pas une copie ?
01:40:31 Alors cette question se pose beaucoup sur l'art mais se pose aussi sur des tas d'autres choses. Par exemple sur les données de santé. On n'a pas le droit d'utiliser vos données de santé ou de les revendre pour certains objets.
01:40:41 Si on construit des données synthétiques à partir de vos données de santé, à partir de quel moment le produit est assez éloigné, est assez distant de l'original pour que vous puissiez admettre que d'abord on ne remontera pas jusqu'à vous,
01:40:55 donc ce sont des questions de privacy, mais qu'en plus vous acceptez de les laisser partir dans le modèle commun. Et voilà, j'envoie la balle à Etienne.
01:41:04 Moi ce que j'ai vu c'est que Chad Jepeté ne cite pas les sources dont il se nourrit et il ne fait pas non plus du plagiat. C'est-à-dire qu'à chaque fois qu'on l'interroge il va produire un texte.
01:41:13 Moi j'ai vu le cas pour un devoir que j'avais demandé à des étudiants. Le sujet s'était observé, suffit-il pour comprendre ? La réponse c'est non, mais ils ont quand même fait un texte.
01:41:24 Et on voit bien qu'ils avaient tous utilisé la même machine, mais qui n'a pas à chaque fois produit la même chose. Donc il y a une espèce de variabilité autour d'une organisation qui est toujours la même de l'argumentation.
01:41:37 Et je crains qu'on vive, si on laisse ceci se dérouler, dans un monde de paraphrases sans qu'on puisse jamais dire quelle est la source.
01:41:46 Question suivante.
01:41:48 Excuse-moi, mais je dois partir en fait, parce que je n'ai pas d'intelligence artificielle dans mon agenda et du coup il y a une collision de trucs. Voilà, je pars bêtement, je suis désolé.
01:42:03 Allez-y, merci beaucoup.
01:42:05 (Applaudissements)
01:42:17 Par contre maintenant il ne faut prendre que les questions faciles, parce que toutes les plus difficiles on les remercie.
01:42:21 Et vous savez, c'est toujours les filles qui sont les plus sérieuses.
01:42:23 Une question qui est à trait aux libertés, question d'éthique. Quel est l'impact prévisionnel à moyen terme sur nos libertés fondamentales ?
01:42:34 On a évoqué les enjeux liés aux libertés fondamentales, mais là peut-être à mettre en rapport aussi au fait que ces questions d'intelligence artificielle sont pour beaucoup entre les mains d'entreprises privées.
01:42:46 Et donc ça peut aussi soumettre nos libertés fondamentales à des entreprises privées.
01:42:51 Bon, il faut absolument... Des questions, c'est des questions qui ont l'air un peu choc, mais qui ne renvoient à rien, pardon.
01:43:01 Pardon pour la brutalité de ma réponse, mais c'est absolument fondamental, fondamental.
01:43:07 Si vous deviez peut-être retenir un truc ce soir, c'est de toujours prendre la distance avec l'objet, toujours prendre la distance, et ne pas sombrer dans des...
01:43:17 vraiment dans des paniques. Des questions comme ça, en fait, laissent entendre une forme de panique. Pourquoi ? Parce que l'IA, encore une fois, ça renvoie à rien.
01:43:28 Les libertés fondamentales, lesquelles ? De quoi on parle ? Demandez-vous toujours de quoi on est en train de vous parler, de quoi vous êtes en train de parler,
01:43:39 pour en fait être précis dans la pensée, et donc dans la réponse. Si je serris, si je tente un petit effort méthodologique, il y a déjà trois risques.
01:43:50 Je l'évoquais, il y a le risque dans l'outil actuel, les biais, les machins, etc. Par exemple, pour répondre à cette question-là, sur la question des libertés fondamentales,
01:43:59 celle qui aujourd'hui pose, à mon sens, on pourrait en discuter, Isabelle pourra compléter ou contredire. Je parle du coup, d'une certaine façon, sous ton contrôle.
01:44:07 Mais on pourrait dire que des technologies aujourd'hui tout à fait existantes, qui sont attentatoires, potentiellement si mal utilisées, si utilisées de façon disproportionnée
01:44:19 dans leur, disons, intention et usage à nos libertés, ça pourrait être la reconnaissance faciale. Tout ce que je racontais sur les questions de police, de sécurité, de justice,
01:44:30 le régalien, l'état de droit, ce qui peut venir contrevenir précisément à ce qui a été jusque-là le socle de notre état de droit en démocratie occidentale et libérale,
01:44:44 c'est-à-dire avec derrière notre projet de liberté politique comme projet commun. Donc ça, ce sont quelques technologies, mais vous voyez que ce n'est pas l'I.I.
01:44:53 Il faut absolument définir de quels technos on parle. En l'occurrence, il ne s'agit pas directement des I.A. génératives. Les I.A. génératives, je vous le disais tout à l'heure,
01:45:01 posent d'autres questions qui ne sont pas tant directement sur la question des libertés fondamentales, mais davantage sur l'exercice démocratique, sur le discernement individuel et collectif,
01:45:11 et sur, en fait, la question de la symbiose entre public et privé. Et j'utilise sciemment le mot de "symbiose", une chose complètement hybridée et symbiotique
01:45:22 entre des acteurs privés qui ont une idéologie et qui sont en train de privatiser aujourd'hui quoi ? Pas simplement Tchadjipiti, mais des infrastructures informationnelles qui deviennent en fait systèmes.
01:45:33 Donc toute la question politique, en théorie politique, celle que moi je travaille, c'est la question de ces nouvelles formes de pouvoir. Comment est-ce qu'on les appréhende ?
01:45:41 Comment est-ce qu'on les comprend ? Comment est-ce qu'on les déchiffre ? Comment est-ce qu'on les décrypte ? Mais pas les rejeter bêtement parce qu'on est en train d'entrer dans une ère
01:45:48 où ces deux formes-là, étatique, publique et privée, vont travailler ensemble. J'en suis absolument persuadée.
01:45:55 Isabelle, vous vouliez ajouter un mot ou pas forcément ?
01:45:58 Non, pas forcément. Je vais voter en touche là.
01:46:01 Il y a une dernière question, allez, sur la thématique environnementale. Vous l'avez évoqué, Asma, mais peut-être votre regard à vous, de scientifique et de technicienne,
01:46:13 la question qui est posée, qui est des objectifs de réduction des émissions de CO2 et en rapport avec le développement de l'IA. Votre réponse à vous, plus technique, on va dire.
01:46:24 Alors ma réponse technique, c'est, j'en sais rien et globalement on n'en sait rien, alors je vais développer un petit peu. Il y a d'abord en toutes choses le bien et le mal, comme toujours.
01:46:34 Et on oublie souvent tous les bénéfices que peut apporter l'IA, à savoir par exemple, je parlais de logistique tout à l'heure, si on optimise des chaînes logistiques,
01:46:45 si on remplit mieux les camions, si on fait rouler moins de camions, si on optimise la... Il y a une start-up sur le plateau de Saclay, qui s'est développée maintenant,
01:46:54 qui est optimise pour chaque décollage d'avion, en fonction de l'appareil lui-même, de sa charge, etc. La trajectoire parfaite de la montée, qui est la partie qui consomme le plus de carburant,
01:47:10 pour que la consommation soit minimale. Ca c'est un apport phénoménal. Donc il y a beaucoup de choses comme ça qui peuvent être très bien.
01:47:18 Il y a aujourd'hui par exemple un gros problème énergétique sur l'émission de CO2, qui est la fabrication du ciment. C'est pas un sujet sexy qui passionne les foules,
01:47:27 mais le ciment c'est très consommateur. Il y a une association, je me demande si c'est pas META, avec l'université d'Urbana-Champagne, qui ont trouvé, en utilisant l'IA,
01:47:39 un nouveau catalyseur qui permet de fabriquer du ciment en étant plus propre. Donc ça ce sont des avantages. Alors maintenant que j'ai fait le joli côté, il y a tout le reste.
01:47:49 Effectivement il y a une consommation énergétique très très importante des calculs. Les très gros centres de calculs commencent à être très bien optimisés.
01:47:58 Alors d'abord en termes de non-déperdition d'énergie, de récupération, qui est utilisé pour chauffer. Et d'ailleurs on a ça qui a été installé sur le plateau de Saclay.
01:48:07 Le supercalculateur du plateau de Saclay chauffe les bâtiments de l'université et la ville qui est autour. Donc on est en train d'essayer d'avoir un équilibre.
01:48:16 Aujourd'hui, même si personne ne sait calculer exactement, on peut tous bien imaginer que le solde est toujours négatif, il n'y a pas de soucis là-dessus.
01:48:26 Ce qu'il faut déjà, je pense qu'on va atteindre un pic dans cette course au gros modèle, et on peut espérer qu'on va revenir vers des choses plus raisonnables après,
01:48:35 c'est être conscient de ce qu'on utilise. Déjà chacun d'entre nous, ce n'est pas la peine de refaire trois fois la même recherche,
01:48:43 c'est pas la peine de faire réentraîner le modèle pour avoir un pouillème d'amélioration. Et donc tout ça ce sont des prises de conscience qui sont en train de se mettre en place
01:48:55 et qu'on peut espérer voir un petit peu compenser cette course à l'échalote des gros modèles le temps que la pente redescende.
01:49:02 Est-ce que juste on a un ordre de grandeur sur les émissions de CO2 liées à l'IA aujourd'hui ?
01:49:07 Non, les chiffres qui sont avancés sont pour le numérique en général. Sur l'IA, il doit y en avoir sûrement quelque part, moi je ne sais pas.
01:49:15 Parfait. Merci beaucoup d'être venue nous éclairer sur ce sujet pour cette cinquième Assemblée des idées. Merci à vous d'être venu y assister et y participer.
01:49:26 Il y aura sans doute une sixième Assemblée des idées avant les vacances d'été, je ne sais pas si madame la présidente nous confirme, oui.
01:49:32 Donc guettez les informations sur le site de l'Assemblée si vous voulez vous y inscrire. Et en attendant, bonne fin de soirée à tous.
01:49:39 (Applaudissements)
01:49:50 (...)
01:49:52 (...)
01:49:54 (...)
01:49:56 (...)
01:49:58 (...)
01:50:00 (...)
01:50:02 #Sous-titres : Anatole jucovelli
01:50:05 #Réalisation : El Micà
01:50:08 #Réalisation : El Micà
01:50:11 #Sous-titres : El Micà
01:50:14 #Sous-titres : El Micà
01:50:17 #Sous-titres : El Micà
01:50:20 #Sous-titres : El Micà
01:50:23 #Sous-titres : El Micà
01:50:26 #Sous-titres : El Micà
01:50:29 #Sous-titres : El Micà
01:50:32 #Sous-titres : El Micà
01:50:35 #Sous-titres : El Micà
01:50:38 #Sous-titres : El Micà
01:50:41 #Sous-titres : El Micà
01:50:44 #Sous-titres : El Micà
01:50:47 #Sous-titres : El Micà
01:50:50 #Sous-titres : El Micà
01:50:53 #Sous-titres : El Micà
01:50:57 #Sous-titres : El Micà
01:51:01 #Sous-titres : El Micà
01:51:05 #Sous-titres : El Micà
01:51:09 #Sous-titres : El Micà
01:51:13 #Sous-titres : El Micà
01:51:16 #Sous-titres : El Micà
01:51:19 #Sous-titres : El Micà
01:51:22 [SILENCE]

Recommandée