• l’année dernière
PAF : Analyses, décryptages et investigations sur les émissions télé ! 




Du lundi au vendredi à 17h50 sur C8.




Tous les extraits et émissions de "PAF" sont à retrouver sur MyCANAL : https://www.canalplus.com/c8/tpmp/touche-pas-a-mon-poste




PAF sur les réseaux sociaux : 
Facebook : https://www.facebook.com/TPMPTV
Twitter : https://twitter.com/TPMP
Instagram : https://instagram.com/tpmptv/

Category

📺
TV
Transcription
00:00 -Vous avez vu cette histoire que X fait la promotion d'une application
00:02 qui déshabille les femmes via l'intelligence artificielle.
00:05 Est-ce que vous avez vu ça ? -Oui.
00:06 -Regardez ça, et Gilles, tu veux gueuler après ?
00:08 -Comme vous voulez, mais on est dans une ambiance d'arcade,
00:10 donc ça me gêne.
00:11 (Rires)
00:13 -C'est quoi ? -C'est vener.
00:14 -C'est quoi ? C'est ce que je te propose ?
00:15 -Il est vexé. -Je sais que je t'adore,
00:16 mais comme on est dans une ambiance d'arcade,
00:17 tu peux rentrer chez toi.
00:18 (Rires)
00:20 -Il est sucé, lui. -Regardez, non, mais...
00:21 Non, mais c'est un enfer.
00:22 (Propos inaudibles)
00:48 -Alors, ce que je fais,
00:50 je prends le robot de Daniel, je le donne à Fatou.
00:52 (Rires)
00:54 -Si, si, si, si.
00:55 Tu m'as saoulé, tu m'as saoulé.
00:57 Allez, regardez.
00:58 On s'en fout de ça, de X, là.
00:59 On s'en fout.
01:00 -Marie Monroe, la photo originale existe,
01:03 et j'ai obtenu ce résultat grâce à une application
01:07 qui permet de déshabiller n'importe qui
01:09 grâce à une simple photo.
01:11 Ça pose la question de l'utilisation
01:12 qui peut être faite de ces photos montage
01:14 pour les mineurs,
01:15 et particulièrement pour les enfants.
01:17 J'en parlais hier avec Martine Brousse,
01:18 qui est présidente de l'association La Voix de l'Enfant,
01:20 et elle me disait qu'elle était très, très inquiète.
01:21 On l'écoute.
01:22 -La pédopornographie, mais va se répandre à une vitesse...
01:26 Enfin, ça fait froid dans le dos.
01:27 -Ce truc-là.
01:28 -Ouais, non, ça, c'est...
01:29 -Elle a raison.
01:30 -Je suis juste demandé aux gens d'arrêter de m'écrire pour le robot.
01:32 (Rires)
01:33 On est en rupture de stock.
01:34 Oui, qu'est-ce que tu veux ?
01:34 -Non, mais ça fait suite à ce qui s'était passé en Espagne,
01:37 où il y avait des photos de jeunes filles
01:38 qui avaient été diffusées.
01:39 En France, il y a l'ENA Situation aussi,
01:41 qui a été victime de ça.
01:42 Donc, c'est très grave,
01:43 parce que ça peut créer une forme de harcèlement,
01:45 et des femmes peuvent se sentir humiliées et devenir dépressives.
01:49 Il faut faire attention à ça.
01:50 -D'accord.
01:51 -C'est très grave.
01:51 -Très bien.
01:52 -Non, mais c'est honteux d'avoir celui qui a inventé ça.
01:53 C'est une honte qu'on utilise l'IA pour des trucs bien, OK,
01:55 mais là, effectivement, les dérives,
01:57 les faux sextapes, les faux trucs, etc.,
02:00 ça peut mettre vraiment certaines personnes dans la merde.
02:01 Mais c'est vrai, c'est dangereux de faire ça.
02:03 Quoi, qu'est-ce qu'il y a ?
02:04 -Tu enlèves ton robot.
02:05 (Rires)
02:08 -C'est un décryptage média, là, ce truc.
02:08 -Toute prise de parole est hyper touchée.
02:10 -A l'inverse, si on veut voir le côté positif,
02:12 ça donne moins de valeur aux vrais sextapes,
02:14 parce qu'on dit "mais non, c'est une fausse,
02:16 tu vois bien, avec l'intelligence artificielle,
02:17 on peut créer n'importe quoi".
02:18 Du coup, les vraies vidéos, les vraies photos...
02:20 -Perdent de la valeur.
02:21 -Perdent de la valeur.
02:22 -On aura jamais ton robot.
02:23 (Rires)
02:24 -C'est chiant.
02:25 [Rires]
02:26 [Musique]

Recommandations