Passer au playerPasser au contenu principalPasser au pied de page
  • 25/03/2025
Ceci n’est pas Tom Cruise...
Les deepfakes, voilà comment ça marche.

Catégorie

🤖
Technologie
Transcription
00:00Je vais vous montrer un peu de magie, c'est la vraie chose.
00:07J'adore vraiment le processus de manipuler les gens en ligne pour de l'argent.
00:22Si les humains sont déjà manipulés par des e-mails de spam simple,
00:25je pense que DeepFakes sera vraiment efficace dans le futur,
00:27si il n'y a pas d'outils en place contre eux.
00:30Il y a un projet qui s'appelle le Programme de Révision des Vidéos,
00:33et c'était la première application majeure d'un DeepFake.
00:35Tu peux prendre une personne qui parle dans une vidéo
00:37et le synchroniser avec une autre vidéo,
00:39et manipuler leur visage pour que ça ressemble
00:41à ce qu'ils parlent dans l'autre vidéo.
00:43Je n'ai jamais rencontré Forrest Gump.
00:44Je suis un petit pot de thé, court et étouffé.
00:51Le terme DeepFake vient de l'anglais,
00:53et c'est un terme qui est très populaire.
00:56Le terme DeepFake vient de l'apprentissage profond
00:58mélangé à l'événement faux.
00:59L'événement faux est l'output de ce que l'apprentissage profond
01:02vient de réaliser, et l'apprentissage profond
01:05est le processus pour réaliser les algorithmes
01:08et tout pour combiner l'image avec la vidéo.
01:11Tu peux prendre une image et l'appliquer à une vidéo
01:14de quelqu'un qui bouge son visage.
01:26Si ça a été utilisé pour des raisons maléfiques,
01:29tu peux utiliser une plateforme comme TikTok
01:31pour aller en viral et diffuser des nouvelles dangereuses.
01:42En tant qu'homme, si nous prenons une vidéo de quelqu'un
01:44et que les voix ressemblent ou ne ressemblent pas,
01:46c'est parce qu'on ne sait pas ce qu'il veut dire.
01:48On ne sait pas ce qu'il veut dire.
01:50On ne sait pas ce qu'il veut dire.
01:52On ne sait pas ce qu'il veut dire.
01:54Si ça ressemble suffisamment,
01:56l'image de l'apprentissage profond
01:58va tricoter les oreilles
02:00en disant que c'est sa voix.
02:02Il y a de bons acteurs de voix
02:04qui peuvent presque réplicer la réalité.
02:19C'est de donner des apprentissages profonds
02:22qui n'ont jamais été vus auparavant.
02:24Par exemple, en faisant une photo
02:26d'un membre de famille décédé
02:28et en le transformant en vie,
02:30c'est une expérience cool pour beaucoup de gens.
02:33Oh mon Dieu !
03:04Les membres de famille peuvent être impersonnés,
03:06donc des fraudes peuvent se produire aussi.
03:08Il y a 10 ans, quand le texte était le plus important,
03:10le texte et les images,
03:12ce n'était pas un problème.
03:14Mais maintenant, je sens que les plateformes
03:16de vidéo plus courtes
03:18ont déjà un énorme problème d'information
03:20et de fausses nouvelles.
03:22Parce que la vidéo est tellement convaincante.
03:24Je suis sûr que les hackers vont devenir
03:26beaucoup plus créatifs sur ce sujet,
03:28surtout à l'avenir.
03:30Je pense que Big Tech va s'unir
03:32pour éviter les fausses nouvelles
03:34ou les attraper tout de suite.
03:36Ils vont probablement proposer des marquages
03:38pour dire que ce n'est pas bon,
03:40surtout sur Facebook, Instagram,
03:42TikTok, ou n'importe quel appareil.
03:44Les entreprises de médias sociaux
03:46doivent se concentrer sur ces outils
03:48à l'avant-plan de tout ça,
03:50car c'est eux qui seront le plus touchés
03:52et leurs utilisateurs aussi.

Recommandations