• l’année dernière
Cette semaine, Geoffrey Hinton, l'un des père de l'intelligence artificielle moderne, a décidé de quitter Google pour enfin parler de dangers de ces nouvelles technologies. l'IA est-elle une menace ? La réponse avec Asma Mallah, spécialiste de la géopolitique de la technologie. 

Category

📺
TV
Transcription
00:00 Il est 8h11, c'est l'heure de l'interview d'actualité.
00:03 Maya, vous recevez ce matin Asma Malla, spécialiste de la géopolitique,
00:07 de la technologie, enseignante à Sciences Po et polytechnique.
00:10 Bonjour Asma Malla.
00:11 Bonjour.
00:12 Merci d'être avec nous ce matin.
00:13 On a appris cette semaine que l'un des pères de l'intelligence artificielle moderne,
00:16 Geoffrey Hinton, un peu docteur Frankenstein,
00:19 a décidé de quitter Google pour pouvoir enfin parler des dangers de son bébé monstre.
00:24 Avant de voir avec vous si effectivement ça va trop vite et trop loin,
00:27 l'intelligence artificielle, est-ce que vous pouvez nous en rappeler la définition ?
00:30 Parce qu'on en parle tout le temps et on ne sait pas vraiment à quoi ça correspond.
00:32 C'est une excellente question parce que l'intelligence artificielle,
00:34 grosso modo, quand on parle d'usage, ça renvoie à pas grand-chose d'après moi.
00:38 On ne sait jamais ce dont on parle, donc on a mystifié un objet.
00:41 La première chose, c'est que l'intelligence artificielle n'a rien de nouveau.
00:44 Ça a commencé dans les années, en gros, 50, puis ça a vraiment évolué.
00:49 Ça, c'est la première chose.
00:50 C'est d'abord un domaine scientifique.
00:52 Et l'objectif initial, c'était de comprendre le cerveau humain.
00:55 Et puis, au fur et à mesure, on a industrialisé des usages.
00:58 Et donc, vous allez avoir autant, finalement, d'applications d'usage que même d'industrie.
01:02 Donc, dans l'intelligence artificielle, vous avez des systèmes experts
01:05 qui sont très peu intelligents et puis de systèmes assez intelligents.
01:08 Et par exemple, les algorithmes de recommandation, la reconnaissance facile,
01:12 la médecine prédictive.
01:13 Ça nous donne le quotidien. C'est quoi ? C'est le chatbot avec une entreprise ?
01:17 Comment est-ce que la reconnaissance facile, pour par exemple déverrouiller votre téléphone
01:22 ou ce qui va permettre de reconnaître tel ami ou tel copain sur les albums photos de Google ?
01:28 C'est l'enceinte à la maison pour lancer de la musique.
01:31 C'est Netflix qui va vous recommander exactement la série que vous allez apprécier
01:35 au moment où vous allez avoir envie de la regarder, etc.
01:38 Donc, ça va être...
01:39 C'est la faune et la foi.
01:41 C'est ça.
01:42 C'est aussi, vous évoquez la médecine prédictive,
01:44 c'est aussi des avancées et de l'aide vraiment en médecine.
01:46 Donc, ça va à la fois, quoi, nous aider et un peu nous manipuler, un peu des deux ?
01:49 En fait, tout dépend de ce qu'on voudra bien en faire.
01:51 Et c'est ça la question.
01:52 C'est en fait, la façon dont le débat est systématiquement pris,
01:56 et c'est un peu d'ailleurs le tort de nous tous collectivement,
01:58 c'est de le prendre de façon passive, comme si ça nous était imposé,
02:02 comme si ça s'abattait sur nous.
02:04 Et c'est un peu les imaginaires humains depuis toujours, l'apocalypse, la catastrophe, etc.
02:09 Non, ce sont des productions, ce sont des fabrications, ce sont des outils humains
02:14 qui sont d'ailleurs conçus par des humains, pour des humains.
02:18 Et donc, de ce point de vue-là, c'est à nous aussi de savoir ce qu'on voudra en faire.
02:22 Et donc, la discussion, elle est fondamentalement politique.
02:25 Oui, avec des risques, et on va en parler des risques.
02:27 Par exemple, le journal Libération a évoqué cette semaine l'appli Replica,
02:30 qui nous permet de trouver le compagnon virtuel idéal.
02:32 Snapchat a lancé il y a quelques jours son robot conversationnel.
02:35 Certains utilisateurs se disent effrayés par le réalisme de ces discussions.
02:40 Est-ce qu'il y a d'abord premier risque ?
02:42 Celui de confondre le réel et la réalité.
02:45 Mais c'est déjà le cas.
02:46 Le virtuel, pardon, et la réalité.
02:47 C'est déjà le cas.
02:48 En fait, on est en train de changer d'air.
02:50 Toute la question philosophique, c'est est-ce qu'on est dans une évolution ou dans une révolution ?
02:54 Ce qui n'est pas exactement la même chose.
02:56 Et moi, mon propos est de dire la révolution, anthropologique, civilisationnelle,
03:00 les liens de sociabilité, etc., a déjà eu lieu.
03:03 Donc en fait, on est par contre, et il est vrai, dans un moment d'accélération,
03:07 de saut technologique.
03:09 Mais est-ce que ça va tout chambouler ?
03:11 Oui, mais c'est déjà en cours.
03:12 Et pourtant, le monde ne s'est pas effondré pour autant.
03:15 En revanche, ce qu'il faut pointer, c'est qu'il mute.
03:17 L'emploi, par exemple.
03:19 La banque Goldman Sachs, qui indique que 300 millions d'emplois dans le monde
03:22 pourraient être remplacés par l'intelligence artificielle.
03:25 Il y a énormément de batailles, de chiffres, d'études, de cabinets de conseil, de think-tank, etc.
03:31 Je peux vous présenter exactement les mêmes études qui vont dire à peu près le contraire.
03:35 En fait, il y a trois choses à savoir sur la question des risques, spécifiquement.
03:40 Un, il faut absolument démystifier la chose.
03:43 C'est ce qu'on est en train de faire, donc expliquer ce dont on parle.
03:46 Ça, c'est la première chose.
03:47 La deuxième chose, c'est la nature des risques.
03:49 À mon avis, il y en a trois, si on devait schématiser.
03:51 La première, c'est les risques induits dans l'outil, c'est-à-dire dans les algorithmes.
03:56 Là, on va retrouver toute la question des biais, des discriminations, des injustices,
04:01 de la reproduction, de tout un tas de choses qui ne vont pas,
04:04 mais qui n'allaient pas déjà dans le monde réel,
04:06 et que tout d'un coup, disons, la "machine" va amplifier.
04:09 Ça, c'est le premier risque, la première nature de risque.
04:11 La deuxième nature de risque, c'est les risques politiques,
04:14 disons, qui sont induits par l'outil et non pas dans l'outil.
04:17 Là, ce sont les risques démocratiques.
04:19 C'est exactement ce que vous pointez, le vrai et le faux,
04:21 l'industrialisation potentiellement massive de la désinformation,
04:25 de l'influence étrangère, etc.
04:26 C'est déjà le cas, ça existe déjà.
04:27 C'est déjà le cas sur les réseaux sociaux.
04:29 C'est ce qu'on appelle toujours, d'ailleurs, les guerres ou les luttes informationnelles.
04:32 La guerre d'Ukraine a été un exemple absolument extraordinaire,
04:36 vraiment en deux mots, de ça.
04:38 La lutte informationnelle franco-russe au Sahel est aussi ça,
04:41 et elle se jouait où ?
04:42 Elle se joue où ?
04:43 Sur les réseaux sociaux, déjà.
04:44 Cambridge Analytica, etc.
04:46 Donc, c'est pour ça que je dis évolution, révolution,
04:49 mais en revanche, un outil comme ChatGPT peut industrialiser et amplifier ça.
04:54 On va rappeler qu'il va générer du texte, ChatGPT.
04:56 Ce sont des IA génératives de contenu.
04:59 En l'occurrence, celui-ci va générer en effet du texte
05:01 à partir de ce qu'on appelle des prompts,
05:02 c'est-à-dire la consigne que vous allez mettre, la discussion,
05:05 que vous allez engager sur l'application.
05:07 Ça veut dire qu'on va mettre des mots-clés
05:09 et que ça va générer du texte à partir de ces mots-clés ?
05:11 Ça va brasser toute la data, toute la connaissance qui circulait déjà,
05:15 et puis de façon probabiliste, vous donner, si vous voulez,
05:18 la réponse la plus pertinente selon un calcul de probabilité.
05:22 Et donc, ce que vous disiez sur la partie anthropomorphe,
05:24 c'est-à-dire on a l'impression, et en effet,
05:26 les résultats sont assez spectaculaires, ça c'est vrai.
05:29 Mais attention, le discours de l'anthropomorphisme
05:31 vient d'abord et surtout des concepteurs de la Silicon Valley,
05:35 pour créer quoi de la fascination ?
05:37 La fascination fait quoi, potentiellement ?
05:40 Ça crée quoi de la peur ?
05:41 La peur anesthésie quoi ?
05:42 La capacité de penser, donc de politiser la question.
05:45 Il faut vraiment éviter ces pièges-là.
05:47 Ça reste aujourd'hui ce qu'on appelle des IA étroites,
05:50 c'est-à-dire spécifiques sur des tâches,
05:52 aussi époustouflantes soient-elles.
05:55 Vous évoquiez les concepteurs de la Silicon Valley,
05:57 ils ont été convoqués à la Maison Blanche
05:59 il y a quelques heures à peine,
06:01 par notamment Kamala Harris,
06:03 qui va gérer l'intelligence artificielle pour l'administration Biden.
06:08 Ça montre quoi ?
06:09 Qu'il y a une inquiétude ?
06:11 Les États-Unis entrent en période électorale ?
06:13 C'est hyper intéressant cette séquence,
06:15 parce qu'au-delà de simplement le commentaire de l'annonce,
06:17 ce qu'il faut comprendre, c'est que les technologies numériques,
06:20 ces nouvelles technologies-là, sont par nature duales.
06:24 Qu'est-ce que ça veut dire "duales" ?
06:25 C'est qu'elles sont toujours à la fois civiles et militaires.
06:28 Tout le discours de l'administration Biden,
06:30 et qui ne date pas d'hier en réalité,
06:32 ça a commencé vraiment, l'accélération de la discussion,
06:35 de la gouvernance de ces outils,
06:37 a commencé cet été sur les questions de cybersécurité d'ailleurs.
06:40 Parce qu'on est aussi dans un temps de conflictualité,
06:42 de tensions géopolitiques,
06:43 et que les questions de cyberattaque,
06:45 de cyberespionnage, sont un peu un point culminant.
06:49 Et donc il y a aussi la question de la sécurité de ces outils.
06:52 Donc la discussion a commencé cet été,
06:55 ça a augmenté en octobre 2022,
06:57 quand la Maison Blanche a sorti un certain nombre de bonnes pratiques,
07:01 et puis la discussion d'hier.
07:03 Et ce qui est intéressant, c'est que tout le focus de la discussion d'hier,
07:06 c'était sur la sécurité intérieure,
07:08 c'est-à-dire l'usage civil pour et par les Américains,
07:12 en omettant totalement la partie extérieure,
07:15 c'est-à-dire l'IA, comme projection de puissance.
07:17 Or, il faut remettre ça dans un contexte géopolitique,
07:19 la rivalité Etats-Unis-Chine,
07:21 et qui se joue beaucoup sur quoi ?
07:22 Sur la question technologique et les IA militaires.
07:25 Nous, en France, est-ce que nos gouvernants s'intéressent assez
07:29 à cette question d'intelligence artificielle et à ces risques ?
07:32 Est-ce qu'ils s'intéressent ? Oui.
07:34 Est-ce qu'ils le prennent en compte suffisamment ?
07:36 Est-ce qu'ils le prennent en compte ?
07:38 Il peut y avoir des volontés de le faire.
07:41 La question, c'est la question de la marge de manœuvre.
07:43 Au niveau européen, il y a ce qu'on appelle,
07:44 pardon pour le jargonnage, mais c'est vraiment son nom,
07:46 l'AI Act, donc ça va être le grand règlement européen
07:49 qui va venir, si vous voulez, embrasser les règles,
07:52 le cadre de l'usage de ces technologies-là,
07:55 de l'IA en particulier.
07:57 Maintenant, il y a fondamentalement la question
07:59 de la souveraineté technologique.
08:00 Ce sont des technologies américaines.
08:02 Et donc, ça repose une question fondamentale.
08:04 Quel est notre rapport de force et nos usages à nous
08:07 d'une technologie qu'on ne maîtrise pas ?
08:09 Merci beaucoup, Asma Maladet, ce matin.
08:10 Merci à vous.
08:11 Merci à toutes les deux.

Recommandations