L’intelligence artificielle peut-elle piéger votre mère en imitant votre voix ?

  • l’année dernière
De nouvelles I.A. sont capables d’imiter le timbre de n’importe quelle voix humaine, pour lui faire dire autre chose ou même de lui faire parler une autre langue. Si vous avez toujours rêvé de faire croire que vous parlez mandarin, ces technologies qui intriguent la presse étrangère pourraient vous intéresser.
Transcript
00:00 Pensez-vous que votre mère saurait distinguer votre voix d'une voix créée par un ordinateur ?
00:25 Cette intelligence artificielle a presque réussi à piéger la mère de Donny O'Sullivan,
00:30 spécialiste des nouvelles technologies pour la chaîne américaine CNN.
00:34 C'est l'accent qui lui a mis la puce à l'oreille.
00:36 Si le journaliste n'avait pas été irlandais, le tour était joué.
00:40 Au-delà de l'effervescence autour des intelligences artificielles
00:42 capables de rédiger des textes, comme "Chat GPT",
00:45 ou de créer des images, comme "Mid-Journey",
00:49 de nouveaux outils capables d'imiter le timbre de nos voix intriguent la presse mondiale.
00:54 L'entreprise britannique Eleven Labs, par exemple,
00:57 a dévoilé dès septembre 2022 une démonstration des capacités de son I.A.
01:01 Grâce à cet outil, un discours de Leonardo DiCaprio à l'ONU
01:05 est prononcé par les voix de plusieurs personnalités publiques,
01:08 comme Steve Jobs, le créateur d'Apple, aujourd'hui disparu,
01:11 ou encore la vedette américaine Kim Kardashian.
01:18 Et ce n'est pas tout.
01:22 Si vous avez toujours rêvé de faire croire que vous maîtrisez parfaitement l'anglais
01:26 ou le mandarin, par exemple,
01:27 vous pourriez être intéressé par Vol.i,
01:29 la nouvelle I.A. dévoilée en début d'année par Microsoft.
01:32 En faisant un tour sur leur site de présentation,
01:35 on peut faire dire à une voix une même phrase en anglais et en chinois,
01:39 et même jouer sur les émotions.
01:49 "Réfléchis, sérieusement."
01:52 "Beaucoup de réponses très simples."
01:55 Certains internautes ont profité de ces nouveaux outils
01:57 pour faire chanter toutes sortes de chansons à leurs artistes préférés,
02:00 comme par exemple ce morceau de Lana Del Rey,
02:03 modifié pour être interprété avec la voix de Lady Gaga,
02:17 ou bien la voix d'Ariana Grande utilisée pour chanter en coréen
02:21 et en espagnol.
02:28 Alors évidemment, ces nouvelles fonctionnalités posent beaucoup,
02:37 beaucoup de questions éthiques.
02:39 "Parce que les dérives possibles sont nombreuses",
02:42 explique Annie Farid, professeure à l'université de Berkeley,
02:45 interrogée par CNN.
02:47 "C'est beaucoup de plaisir."
02:48 "Bien sûr, mais c'est aussi vraiment effrayant."
02:50 "Je pense que, une fois que vous avez éliminé ce facteur de géo-wise,
02:54 je ne pense pas que ça prend du temps à regarder les risques."
02:57 Le reporter de CNN donne un exemple pour montrer
03:00 en quoi utiliser la voix de quelqu'un d'autre,
03:02 ici un de ses collègues présentateurs,
03:04 pour lui faire dire des choses qu'il n'a jamais dites,
03:06 peut bien sûr lui porter préjudice.
03:09 "En m'implantant quelques minutes dans les voix de mes collègues
03:12 dans un service audio AI,
03:14 j'ai pu créer quelques fakes convaincants,
03:17 y compris celui de Anderson Cooper."
03:19 "D'O'Neill Sullivan est un vrai morceau de chien."
03:21 "C'est l'IA."
03:24 Tout le danger des deepfakes
03:26 est qu'ils peuvent être utilisés de manière malveillante
03:28 pour diffuser de fausses informations.
03:30 De nombreux exemples ont déjà été relevés sur les réseaux sociaux,
03:33 comme dans cette vidéo modifiée pour faire croire que le président ukrainien,
03:37 Volodymyr Zelensky, appelait ses troupes à se replier.
03:41 À l'approche de l'élection présidentielle 2024 aux Etats-Unis,
03:44 les médias sonnent l'alerte et se préparent à un raz-de-marée de trucages.
03:48 Insider publie par exemple un article
03:50 qui liste des techniques pour détecter les contenus truqués.
03:53 Le site américain évoque notamment l'outil FakeCatcher,
03:57 développé par la firme Intel,
03:59 qui se targue d'avoir un taux de réussite de 96%
04:02 pour détecter les deepfakes vidéo.
04:04 Parmi les facteurs analysés,
04:06 Intel cite la couleur des veines.
04:08 "Quand notre cœur pompe le sang,
04:10 nos veines changent de couleur.
04:12 Ces signaux de flux sanguins sont collectés sur tout le visage
04:15 et les algorithmes traduisent ces signaux en cartes spatio-temporelles."
04:19 Ce paramètre permettrait de déterminer
04:21 si une vidéo a été truquée ou non.
04:24 Mais certains nouveaux outils compliquent encore la donne.
04:27 Dernière née parmi les intelligences artificielles
04:29 capables de truquer des vidéos,
04:31 l'application FaceMega permet de remplacer n'importe quel visage
04:35 par celui d'une autre personne.
04:37 "Le social media est en train de se faire un frenzy
04:39 sur de nouvelles vidéos de deepfakes
04:41 qui dépiquent une femme
04:43 avec ce qui semble être la tête d'une actrice Emma Watson
04:46 qui est impliquée dans un acte sexuel explicit."
04:48 "C'est absolument fou.
04:49 La campagne de la large-scale application
04:51 a promis une nouvelle application de deepfake
04:53 qui permet aux utilisateurs de changer de visage avec n'importe qui."
04:56 Certains Etats ont commencé à légiférer
04:58 pour limiter ces dérives.
05:00 Au Royaume-Uni, depuis fin 2022,
05:02 la pornographie en deepfake est un délit passible de prison.
05:05 En revanche, le fait de diffuser ces contenus en ligne
05:07 n'engendre pas de poursuites.
05:09 Et la Chine est le pays qui possède
05:11 les lois les plus complètes au monde
05:13 sur l'encadrement de ces nouvelles technologies,
05:15 d'après le magazine "De Diplomate".
05:17 Le 10 janvier 2023,
05:19 l'organe d'administration du cyberespace chinois
05:21 a dévoilé une législation
05:23 qui interdit la production de deepfake
05:25 sans le consentement de l'utilisateur concerné
05:27 et exige qu'une mention spécifique
05:29 distingue les contenus
05:31 créés par une intelligence artificielle.
05:33 Partout dans le monde, cet enjeu est en passe
05:35 de devenir central.
05:37 ...

Recommandée