Quand l'IA s'empare de l'Histoire

  • l’année dernière

Category

🗞
News
Transcript
00:00 des morts qui parlent, des archives de guerre colorisées, des images créées de toutes pièces,
00:04 et si l'intelligence artificielle reconstruisait l'histoire ?
00:07 1969. Après le lancement d'Apollo 11 vers la Lune,
00:11 le président américain Richard Nixon prend la parole à la télévision pour annoncer l'échec de la mission.
00:16 "Fate has ordained that the men who went to the moon to explore in peace
00:22 will stay on the moon to rest in peace."
00:26 Vous y avez cru ? C'est exactement ce qu'ont cherché les deux artistes visuels qui ont créé ce deepfake,
00:31 qui est en fait une œuvre censée alerter les visiteurs sur les possibles manipulations de l'histoire.
00:35 Si ils se disent "Waouh, si je pouvais être convaincu, même pour un instant,
00:40 que la mission d'Apollo 11 était une erreur,
00:43 que signifie-t-il pour tous les volumes de vidéos, de textos, de photos et d'audio
00:49 qui me sont envoyés sur Facebook, Instagram et toutes les autres plateformes sociales ?
00:56 Combien de choses sont fausses ? Combien de choses devrais-je croire ?
00:58 Et que devrais-je faire pour essayer de me protéger ?"
01:02 Les deux artistes se sont appuyés sur l'IA pour recréer ce discours
01:05 qui avait été écrit mais jamais prononcé.
01:07 En détournant l'un des événements les plus iconiques de l'histoire
01:10 et aussi une des plus grandes sources de théories du complot,
01:13 ils veulent susciter une réaction chez le public.
01:15 "Prenez cette conscience avec eux dans les autres domaines de leur vie
01:17 pour ne pas être aussi vulnérables aux médias manipulés."
01:22 Le deepfake, cet hyper-trucage qui consiste à faire parler des gens,
01:25 est de plus en plus accessible à mesure que sa technologie se développe.
01:28 S'il est parfois utilisé à des fins humoristiques, comme pour fusionner Emmanuel Macron et Squeezie,
01:33 "Dégagez de là par pitié quoi !"
01:35 ou encore pour faire chanter Staline et Hitler,
01:37 "Video killed the radio star !"
01:40 il peut aussi être utilisé à des fins plus floues.
01:42 Imaginons le pire des scénarios.
01:44 "L'intelligence artificielle pourrait être utilisée par des négationnistes par exemple,
01:49 qui pourraient recréer des images à l'appui de leur thèse,
01:54 ou des régimes politiques aussi qui pourraient finalement utiliser de vraies fausses images d'archives."
02:00 L'IA a démultiplié ses usages ces dernières années.
02:02 En quelques clics sur un site gratuit,
02:04 vous pouvez par exemple coloriser les photos en noir et blanc de vos ancêtres,
02:07 ou augmenter la définition de vieux clichés historiques.
02:10 "L'une des caractéristiques de l'intelligence artificielle moderne,
02:12 c'est qu'elle est devenue extrêmement accessible,
02:14 elle s'est démocratisée.
02:15 A peu près n'importe qui aujourd'hui peut aller récupérer des codes ou des modèles préentraînés,
02:20 ou carrément avoir des logiciels sous la main pour générer ses propres contenus selon ses désirs."
02:25 Nicolas Aubin s'y connaît en IA,
02:26 puisqu'avec son laboratoire de l'IRCAM,
02:28 il a travaillé sur la reconstitution de voix de célébrités mortes.
02:31 Dans un but de divertissement d'abord, comme avec Marilyn Monroe,
02:34 ou encore d'Alida pour l'émission "Hôtel du Temps" de Thierry Ardisson.
02:37 Mais aussi pour des reconstitutions historiques.
02:39 "Plus récemment, on a eu une explosion de demandes,
02:42 mais on a participé concrètement à la recréation du discours du 18 juin du général de Gaulle,
02:47 donc en collaboration avec Le Monde."
02:48 "La flamme de la résistance française ne doit pas s'éteindre et ne s'éteindra pas."
02:55 Là où la création d'images peut être problématique,
02:57 c'est lorsqu'elle n'est pas mentionnée explicitement.
02:59 En octobre 2023, la série documentaire "Welcome to Wrexham",
03:03 qui s'intéresse à un club de foot gallois,
03:05 est sous le feu des critiques pour cette photo.
03:07 Regardez ces mains, ce visage, ces ouvriers pourtant pauvres qui tiennent des mugs en argent,
03:11 dont un qui flotte dans les airs.
03:13 Beaucoup d'internautes ont conclu à une photo générée par une IA,
03:16 ce dont les deux documentaristes ne se sont pas défendus.
03:18 Et aucune indication d'une photo générée artificiellement n'est mentionnée.
03:21 L'IA remplace aussi des techniques qui existent depuis longtemps,
03:24 mais qui étaient par le passé plus longues, fastidieuses et coûteuses.
03:27 En fait, elle réactive des enjeux éthiques anciens.
03:29 Prenons l'exemple du recadrage des images sources,
03:31 tournées par le passé en 4/3,
03:33 et recadrées pour épouser la forme de nos écrans 16/9.
03:36 Ça pose une question,
03:37 est-ce que les sources primaires d'archives sont vouées à disparaître ?
03:39 Ces interventions-là ont tendance à gommer les spécificités,
03:44 les aspérités finalement de l'histoire.
03:46 Il me semble que quand on fait un film d'histoire,
03:48 on doit tenir compte de ça aussi.
03:49 On raconte l'histoire d'un événement ou d'une personnalité,
03:53 mais on la raconte, cette histoire, avec des images qui ont elles-mêmes leur propre histoire.
03:57 Ce que la colorisation, ou le passage au 16/9, a tendance à gommer en fait.
04:03 Apocalypse, une série documentaire sur la première et la deuxième guerre mondiale,
04:06 a par exemple suscité beaucoup de débats lorsqu'elle s'est mise à coloriser les images en noir et blanc, en 2009,
04:11 bien avant les miracles actuels de l'IA.
04:13 Le but, c'était de casser la barrière du temps,
04:15 d'actualiser l'histoire, en la rendant plus proche de nous, plus attrayante pour le grand public.
04:19 Et ça n'a pas loupé, preuve par le succès d'audience de la série.
04:22 Les critiques se sont concentrées sur l'illusion de vouloir recréer la réalité.
04:25 Le philosophe et historien de l'art, George Didier Huberman, disait même à propos d'Apocalypse,
04:29 "Coloriser n'est rien d'autre que maquiller, c'est ajouter du visible sur du visible, c'est donc cacher quelque chose."
04:35 C'est aussi céder à ce que l'historien François Hartog nomme le présentisme,
04:38 soit le présent comme point de repère absolu,
04:40 puisqu'on ne s'oriente plus en fonction d'un passé actualisé, ni d'un avenir sans avenir.
04:45 Concrètement, si cette photo colorisée par le mémorial de Auschwitz nous frappe plus que sa version originale,
04:50 c'est parce qu'on la regarde en la ramenant à nous et à aujourd'hui.
04:53 Les défenseurs de la retouche historique diront aussi qu'on peut se rendre compte en un clic
04:57 que la tour Eiffel fut rouge Venise à ses débuts,
04:59 ou encore que les soldats français en 1914 portaient des pantalons rouges, visibles de loin,
05:03 ce qui permet de comprendre une des raisons de la débâcle du début de la guerre.
05:06 Dans notre propre cas à France Culture, ces utilisations ont été un sujet de conversation.
05:10 On a décidé, par mesure de précaution, de suspendre les colorisations sur les images historiques,
05:15 pour ne pas spectaculariser l'histoire, ainsi que la génération d'images pour respecter les droits d'auteur.
05:19 Et quand on reconstitue aussi finalement les manques, c'est-à-dire les images qui n'existent pas, c'est pareil.
05:23 On gomme finalement quelque chose qui a du sens,
05:26 parce que parfois s'il n'existe pas certaines images sur un sujet, c'est pour des raisons précises.
05:31 Exemple avec ce docu-fiction de 1992, Hôtel du Parc, du nom de la résidence du gouvernement du régime de Vichy.
05:37 Dans cette scène, le réalisateur Pierre Beuchaut utilise une archive de propagande
05:40 dans laquelle on voit le chef du gouvernement, Pierre Laval, rendre visite au maréchal Pétain.
05:44 À l'époque, les deux hommes sont en froid, à tel point qu'une grille a été installée entre leurs étages respectifs,
05:49 grille ouverte seulement sur autorisation du maréchal.
05:52 Devinez quoi ? Dans ce film de propagande, la grille a disparu.
05:55 Circuler, il n'y a rien à voir.
05:57 Pour rendre compte de la vraie situation, le réalisateur a donc modifié l'archive et tourné un plan additionnel
06:02 où on voit un acteur de dos franchir la grille.
06:04 Ou comment rétablir une vérité avec un faux.
06:07 À l'avenir, on s'attend à ce qu'il y ait en ligne plus de contenu généré par une IA que par des humains.
06:12 90% du contenu numérique d'ici 2026 selon ce rapport d'Europol.
06:16 Casse-tête en perspective pour la vérification d'archives.
06:18 L'histoire c'est quelque chose quand même de très sérieux,
06:20 et on sait bien à quel point l'histoire joue un rôle fondamental dans les identités des sociétés,
06:26 dans les politiques qui sont menées.
06:29 Donc l'histoire peut être instrumentalisée au sens propre comme au sens figuré.
06:33 On parle aussi d'images qui peuvent avoir une influence finalement sur les opinions publiques.
06:38 Alors qui peut encadrer l'IA ?
06:40 Déjà la loi.
06:40 Et en Europe, deux textes la régulent, le RGPD et l'IA Act, considérés comme précurseurs dans le monde.
06:46 On pourrait aussi imaginer bannir les discours politiques ou historiques du corpus d'entraînement des IA
06:50 sur lequel elles se basent pour apprendre.
06:52 Ensuite il y a des solutions techniques.
06:54 Par exemple pour identifier clairement un deepfake.
06:56 Chaque manipulation, chaque transformation, qu'elle soit malveillante ou non,
07:01 laisse une trace caractéristique dans le signal, dans le contenu.
07:06 Il est donc possible d'identifier une vidéo comme étant authentique ou modifiée de façon bénigne ou malveillante.
07:11 Il y a deux solutions qui sont envisageables pour ça,
07:14 c'est soit être capable de marquer en amont de la chaîne d'un contenu numérique,
07:18 de mettre une marque dans le contenu lui-même au moment de sa captation.
07:22 C'est ce qu'on appelle le watermarking, sorte de tatouage numérique d'un contenu.
07:26 Qui serait une sorte de certification d'authenticité avec aussi des informations, par exemple, relatives à la date, etc.
07:33 La deuxième option, c'est la détection automatique des manipulations en aval de la chaîne de modification.
07:38 Enfin, dernier volet, et non des moindres.
07:39 Je crois beaucoup aussi à l'éducation, l'éducation au regard, apprendre à regarder les images,
07:45 apprendre à les décrypter, apprendre à les interpréter,
07:48 puisque, on le sait bien, une image, c'est toujours le choix d'un sujet,
07:52 le choix d'un point de vue, le choix d'un cadrage, enfin bref.
07:55 Il y a tout un tas de codes qui montrent bien qu'une image n'est qu'une perception de la réalité.
08:01 [Musique]

Recommandée