• il y a 8 mois
Le projet de loi pour sécuriser internet achève son parcours parlementaire à l'Assemblée nationale, ce mercredi 10 avril, où il devrait être adopté largement. Parmi les différents sujets concernés par ce projet de loi: les "deepfake", ce sont ces images et vidéos ultra réalistes générées par l'intelligence artificielle. Gérald Holubowicz, spécialiste de l'intelligence artificielle et des "deepfake" nous éclaire sur les façons dont nous pouvons nous en protéger.

Category

🗞
News
Transcription
00:00 Les députés doivent adopter aujourd'hui la loi sur la régulation de l'espace numérique.
00:05 C'est un texte qui ambitionne de réguler le far-west qu'est devenu Internet, en particulier avec les deepfakes.
00:11 Vous savez, ce sont ces images et ces vidéos ultra réalistes générées par l'intelligence artificielle.
00:17 Marie nous en a souvent montré dans l'image du jour.
00:19 C'est vrai qu'au début, ça nous a épaté, voire ça nous a bien fait rire, mais plus du tout aujourd'hui.
00:24 Non, les deepfakes, ça existe depuis sept ans, mais leur degré de précision n'a pas cessé d'évoluer
00:28 au point maintenant de tromper même ceux qui sont les plus vigilants.
00:31 Les plaintes pour escroqueries se multiplient.
00:33 On va regarder quelques exemples avec ce reportage de Blandine D'Alena et Philippine Navide.
00:37 Et on en parle ensuite avec vous, Gérald Holubovitch, spécialiste de l'intelligence artificielle,
00:41 d'EddyFake et fondateur par ailleurs de la newsletter Synth Media Reportage.
00:45 Le célèbre acteur français Guillaume Canet a annoncé le lancement d'une nouvelle application mobile
00:51 qui permet à quiconque de gagner de l'argent.
00:53 Vous devez être dans le jeu et jouer pour de l'argent réel.
00:57 Que ce soit Anne-Claire Coudray ou Guillaume Canet, aucun des deux n'a jamais prononcé ces mots.
01:02 Il s'agit d'un deepfake, un montage réalisé grâce à l'intelligence artificielle,
01:06 qui n'a pas plu du tout à l'acteur français.
01:09 Alors non, je ne parle pas comme un robot et non, je n'ai créé aucune application pour jeu d'argent
01:13 et je ne le ferai jamais.
01:14 Les responsables politiques ont eux aussi le droit à leur deepfake.
01:17 Vladimir Poutine qui vous prend en photo, ou Donald Trump en prison.
01:21 Autant de fake news qui inondent Internet.
01:24 Le plus souvent, elles sont faites pour tromper.
01:26 On peut tous imaginer que citoyens, que nous sommes,
01:31 soyons trompés dans notre jugement et peut-être même dans notre vote lors des campagnes électorales.
01:37 Dans un règlement applicable d'ici deux ans,
01:39 l'Union européenne imposera au créateur du deepfake une obligation de transparence.
01:44 Le 2 avril, en France, le Sénat est allé plus loin en votant un nouveau texte.
01:48 Ce projet prévoit d'adapter l'infraction de montage à l'intelligence artificielle, au deepfake.
01:55 Donc on va pouvoir réprimer ceux qui effectuent un montage grâce à l'intelligence artificielle.
02:02 Pour le revenge porn, l'infraction a également été élargie
02:06 parce que maintenant, on inclut l'intelligence artificielle.
02:09 C'était uniquement avec l'utilisation des images réelles.
02:12 En cas de publication d'un deepfake sans le consentement de la personne,
02:16 l'auteur risquera jusqu'à deux ans de prison et 45 000 euros d'amende.
02:19 S'il est à caractère sexuel, la sanction monte à trois ans d'emprisonnement et 75 000 euros d'amende.
02:25 Gérald, comment on fait pour repérer un deepfake ?
02:29 C'est très compliqué parce qu'en réalité, il n'existe pas de détecteur estampillé officiel.
02:35 Donc du coup, il faut en revenir aux bonnes vieilles méthodes, l'esprit critique, un peu de recul.
02:41 On voit d'où vient le contenu qui nous est proposé.
02:45 Évidemment, on essaie de prendre un peu de distance avec tout ce qui se dit sur Internet
02:51 et de réfléchir un peu à tout ça.
02:53 L'esprit critique, c'est de se dire que Guillaume Canet ne va pas faire la promo d'un truc lancé par une claircoudrée, c'est ça ?
02:58 Voilà, c'est-à-dire que quand c'est trop beau, c'est effectivement trop beau pour être vrai.
03:02 Ce n'est pas toujours facile quand la présentation semble tout à fait officielle.
03:06 On le voit là avec un journal télévisé qui est détourné
03:09 ou on a parfois des allocutions politiques avec des gens derrière des pupitres.
03:13 Oui, c'est ça en fait. Les deepfakes, ces médias un peu synthétiques qui arrivent dans nos vies comme ça,
03:19 elles arrivent par la petite porte, par une messagerie WhatsApp, par une messagerie signal.
03:24 Et puis, c'est dans nos vies.
03:26 C'est-à-dire qu'on regarde ça en faisant les courses ou autre chose
03:29 et on ne prête pas forcément attention à ce genre de détails.
03:32 Mais effectivement, maintenant, il faut faire vraiment attention à l'ensemble du paquet.
03:37 Je pense que l'IA, en fait, annonce une ère où on va devoir être de plus en plus critique sur Internet
03:44 et faire de plus en plus attention à ce qu'on relaie aussi sur les réseaux.
03:48 D'autant que ça génère d'énormes escroqueries avec des arnaques qui s'élèvent à des dizaines de milliers d'euros.
03:53 Quelle est à votre connaissance la plus grosse escroquerie liée à un deepfake ?
03:58 Il y avait eu il y a quelques années déjà au niveau avec un deepfake audio,
04:03 une forme d'arnaque d'une entreprise en Grande-Bretagne.
04:07 On avait parlé de 2 millions de pounds à l'époque.
04:10 Mais bon, voilà, en fait, c'est plutôt dans le cumulatif qu'on va aller aujourd'hui.
04:15 Et puis, l'IA générative qui est apparue il y a deux ans maintenant,
04:20 en fait, facilite énormément cette pratique et donc, du coup, génère énormément d'argent.
04:26 Là, pour le coup, au niveau international, c'est plusieurs milliards de dollars.
04:30 Comment on fait la différence entre ce qui est un deepfake et ce qui est une simple blague ?
04:33 Parce que, par exemple, quand on voit Donald Trump en prison avec sa combinaison orange,
04:37 on se doute que ce n'est pas vrai. On sait qu'il n'a jamais été mis en prison.
04:41 Alors, nous, on se doute que ce n'est pas vrai, mais c'est peut-être pour certains, ça peut être effectivement le cas.
04:46 Il y avait eu la même image, une image un peu similaire où on le voyait arrêté par les policiers à Mar-à-Lago.
04:53 Et en fait, certains avaient cru qu'effectivement, il était arrêté.
04:57 Et ça va poser un vrai problème démocratique avec les campagnes électorales ?
05:01 Alors, il y a déjà eu un exemple en Slovaquie à l'automne dernier.
05:05 En fait, il y a le candidat de gauche qui était à couteau tiré avec le candidat de droite qui était à 21-19,
05:11 en fait, a été victime d'un deepfake audio qui lui a fait chuter dans les élections.
05:16 C'était 48 heures avant le scrutin et il a perdu.
05:19 C'est un deepfake où on l'entendait manipuler à l'avance les résultats du scrutin.
05:24 Comment on se débarrasse de tout ça, de ces deepfakes ?
05:27 Parce qu'on a l'impression qu'on a beau essayer d'éviter les pièges, ils reviennent à chaque fois en fait.
05:32 Ça revient à chaque fois.
05:33 Malheureusement, on ne pourra pas se débarrasser de tout ça.
05:36 Maintenant, le génie est hors de la boîte.
05:38 En fait, les logiciels sont disponibles pour beaucoup sur Internet en open source ou alors de façon commerciale gratuite.
05:45 Et donc, du coup, en fait, ça permet à beaucoup de gens de pouvoir se saisir de l'outil et puis de faire ce qu'ils ont envie de faire avec.
05:52 Il y a une proposition de loi qui sera adoptée cet après-midi à l'Assemblée nationale.
05:56 Il y a aussi l'Union européenne qui a demandé aux plateformes de lutter contre la désinformation avant les élections européennes et américaines.
06:02 Et Meta a annoncé une nouveauté il y a quelques jours.
06:06 Il y aura une mention "made with AI", fait avec intelligence artificielle, sur les vidéos et les photos générées par l'IA.
06:14 Ça peut être le bon filtre d'imposer une mention ?
06:18 Ça vient un peu tard, parce que le phénomène des deepfakes, c'est quand même pas tout neuf.
06:22 Ils avaient déjà tenté des dispositifs de ce type-là.
06:26 Est-ce que ça peut servir ? Oui et non.
06:28 C'est-à-dire qu'en fait, ces dispositifs sont facilement contournables.
06:31 Si effectivement, c'est embarqué sur la plateforme, pourquoi pas.
06:34 Mais on ne peut pas dire que Facebook ait montré beaucoup d'acuité sur l'accuration de ces contenus.
06:40 Soyez vigilant et exercez votre esprit critique.
06:43 C'est la leçon du jour.
06:45 Merci Gérald d'avoir été avec nous ce matin.

Recommandations