SMART TECH - La "sextorsion" en explosion avec l'IA

  • avant-hier
Lundi 7 octobre 2024, SMART TECH reçoit Marie-Laure Pezant (porte-parole, Gendarmerie Nationale) et Jean-Christophe Le Toquin (Président, CyAN)

Category

🗞
News
Transcription
00:00Un adulte sur 7 en 2024 est victime ou menacé de s'extorsion dans le monde.
00:09En France, 12 000 victimes de s'extorsion ont été signalées selon l'Office mineur en 2023.
00:15Quel est ce phénomène en pleine explosion ? Comment se protéger ? Quels sont les recours pour les victimes ?
00:20Que font les autorités pour en parler ? J'ai convié Marie-Laure Pesan.
00:24Bonjour. Vous êtes porte-parole de la Gendarmerie nationale, donc habilitée à vous exprimer notamment pour le commandement de la Gendarmerie dans le cyberespace.
00:32A côté de vous, Jean-Christophe Le Touquin. Bonjour. Co-fondateur de Stisa. Alors ça, c'est une nouvelle initiative. Qu'est-ce qu'il y a derrière Stisa ?
00:41Alors Stisa, derrière, vous avez 4, pour l'instant, hotlines, c'est-à-dire services qui reçoivent des signalements de victimes pour aider au retrait de leur contenu.
00:50Vous avez deux régulateurs, le régulateur australien et le régulateur coréen, où là, ces questions sont un problème national. Et puis, vous avez deux hotlines européennes, la hollandaise et la française.
01:00Donc vraiment dédiées à traiter ces sujets de violence sexuelle par l'image. Mais je voulais quand même qu'on fasse un point sur le vocabulaire, justement, que j'ai employé.
01:10S'extorsion, violence sexuelle par l'image. Qu'est-ce qu'on désigne exactement derrière ces mots ?
01:17Alors vous avez, la sextorsion va plutôt recouvrir une attaque contre les hommes. En Angleterre, 93% des cas de sextorsion sont signalés par des hommes.
01:26Ce sont des jeunes hommes, et ça peut être des hommes plus âgés aussi, qui sont contactés au fin de leur faire envoyer des photos intimes d'eux-mêmes pour ensuite les menacer et obtenir une compensation financière.
01:37Chantage, donc.
01:38Ensuite, ça c'est la sextorsion. C'est pas forcément très lié à l'IA. Ensuite, vous avez tout ce qui est lié plus à la génération d'images fausses, donc les deepfakes, on en parlera.
01:48Où là, ce sont les femmes qui sont victimes à 99%. Donc là, ce sont des images truquées, représentant, nudifiant les femmes pour ensuite les humilier, faire de la pression sur elles, obtenir d'autres compensations.
02:02Est-ce que ça rentre dans ce qu'on appelle plus largement, finalement, le cyberharcèlement ?
02:07Ça en fait partie. Tout dépend, en fait, de l'utilisation qui en est faite, puisque le cyberharcèlement, en fait, c'est de diffuser des messages ou des vidéos ou des photos de manière répétée pour nuire, en fait, globalement à la personne.
02:20Et en fait, le harcèlement, c'est le fait d'être répété et ensuite d'avoir un impact sur la dignité de la personne, sur la qualité de sa vie, sur la perception qu'elle a d'elle-même. Donc ça entre aussi dans cette catégorie.
02:33En fait, c'est presque un nouveau champ, finalement, du cyberharcèlement, cette utilisation de la photo, de la vidéo, parfois créée par des intelligences artificielles. On va en parler.
02:43Mais qu'est-ce qu'elles nous disent, les études ? Je disais que c'était un phénomène en pleine explosion. Qu'est-ce qu'on apprend derrière les études, derrière les professionnels que vous êtes qui observaient ce phénomène ?
02:52Ce qu'on voit, il y a une très bonne étude en France, par exemple, qui a été faite par Ipsos, avec l'association féministe contre le cyberharcèlement, qui est la plus détaillée, c'est publique, tous les détails sont en ligne.
03:04Et donc on voit que ça touche plus les femmes que les hommes, plus les minorités LGBT que les personnes, je dirais, binaires, qu'au sein de ces différentes violences, la plus sévère est celle qui concerne la divulgation d'images intimes vraies ou fausses.
03:21Puisque là, à ce moment-là, on entre dans des préjudices très lourds avec des cas de 50% des victimes de ce type de partage non consenti ont des tentations suicidaires.
03:32Et est-ce qu'il y a des pays plus touchés que d'autres ?
03:36Alors la Corée est certainement le pays le plus touché au monde, avec un phénomène surtout lié à l'IA et lié à ces fameux deepfakes ou hypertrucages, où là, c'est reconnu comme un problème national, de crise nationale,
03:50avec touchant principalement, mais pas seulement, les célébrités de la K-pop féminine, avec un cas aussi unique en Corée, qui est que 15% des victimes, donc les femmes victimes de ces hypertrucages, deviennent elles-mêmes, je dirais, productrices de ces images, en revanche, pour se venger de leur partenaire ou d'autres personnes.
04:19Donc c'est le seul cas où les femmes deviennent elles-mêmes, je dirais, de manière vraiment mesurable, rentrent dans le cycle de la vengeance et du crime, en fait.
04:27Et en France, on est plutôt protégé encore de ce phénomène d'utilisation des images, truquées ou non ?
04:35Alors non, on n'est pas protégé. Je pense que l'association un peu modèle dans le domaine Estop Ficha, qui a été la première à se mobiliser durant le Covid sur ce qui concerne les jeunes femmes, les étudiantes, avec donc publication en fait d'images, de photos, de détails, de coordonnées visant à, je dirais, mettre la pression, faire du cyberharcèlement contre les personnes liées de nature sexuelle, bien sûr.
05:00Un phénomène qu'on retrouve aussi en Hollande, par exemple, où là, il y a des vraies difficultés pour faire retirer ensuite ces comptes, notamment sur Telegram.
05:08Et alors, qu'est-ce qu'on doit faire ? Quelles sont vos recommandations, Marie-Laure, et à la Gendarmerie nationale, si on a été victime d'utilisation d'images intimes ?
05:18Si on a été victime, la première chose à faire, c'est déjà de rompre le contact avec les personnes qui ont diffusé ces vidéos, parce que parfois, on pourrait avoir la tentation de reprendre contact, d'essayer de régler la chose en direct.
05:31Ou de se venger.
05:33Ou de se venger, donc non, plutôt rompre le contact. D'aller porter plainte, ça, c'est quelque chose vraiment qu'on conseille, parce que si on veut pouvoir ensuite retirer les contenus et puis que la personne soit poursuivie, parce qu'il y a quand même une infraction, il faut aller porter plainte.
05:47Et comment on porte plainte dans ce type de cas ?
05:50On va pousser la porte d'une gendarmerie ou d'un commissariat si on est dans une zone police, et on va donner les faits, on va expliquer ce qui s'est arrivé.
05:59Donc il faut avoir soi-même des captures d'écran, il faut constituer des preuves.
06:02C'est l'autre conseil, c'est vrai, c'est de garder toutes les informations, les photos, les vidéos, les échanges de communication, les logins pour aller sur les sites, enfin vraiment tout, sur les messageries.
06:13Garder le maximum d'informations qui vont permettre ensuite de matérialiser et de caractériser l'infraction, pour qu'ensuite les enquêteurs puissent travailler sur ce sujet-là.
06:24Et aussi un autre conseil qu'on pourrait leur donner, c'est aussi de se rapprocher des associations qui sont spécialisées, parce qu'on travaille nous en partenariat très fréquent avec ces associations.
06:33Ils ont une expertise, ils peuvent accompagner ces personnes, leur prodiguer des conseils, les accompagner psychologiquement aussi, parce que ce sont des événements très difficiles à vivre,
06:43et donc c'est important qu'ils puissent y avoir cet accompagnement-là.
06:46Donc ça c'est vraiment les conseils qu'on peut donner, de manière plus générale, dire aux gens de toujours réfléchir avant de partager une photo, de l'utilisation qu'on pourrait faire de ces images-là,
06:55parce que parfois on n'y pense pas sur le moment, et puis c'est après qu'elles sont détournées.
07:00Donc attention, et si vraiment, alors il est quand même plutôt déconseillé de transmettre des images dénudées ou des images intimes, mais si vraiment la personne veut le faire,
07:09j'ai envie de dire, faites en sorte de faire ça devant un mur blanc, où on ne voit pas votre tête, où il n'y a pas de tatouage, rien qui permette de vous identifier.
07:15Ça sera déjà une première protection.
07:17Mais alors quel problème particulier pose l'arrivée de l'IA générative ?
07:21Parce que là on dit, évitons déjà de partager nos propres images ou les images de nos enfants,
07:26mais avec l'IA générative finalement, il suffit d'avoir notre visage en photo, ce qui est quand même assez simple à obtenir,
07:35pour créer ces images et en arriver à faire de la sextortion par exemple.
07:39Donc comment est-ce qu'on peut agir dans ce cas-là ?
07:42Est-ce qu'on peut parler même d'images intimes quand ce n'est pas véritablement notre corps finalement qu'on voit sur l'image ?
07:48Alors pour la personne qui est représentée, que ça soit du vrai ou du faux, l'impact est pratiquement le même, un impact très grave,
07:56et donc c'est pour ça que c'est un problème de santé publique et qu'il y a un besoin de réagir fortement.
08:01Ce dont les victimes ont besoin, sur lequel elles ont besoin d'être rassurées,
08:06et malheureusement aujourd'hui on ne peut pas les rassurer complètement, loin de là,
08:10c'est de leur dire qu'on est organisé pour faire retirer ces images au moins de l'espace public.
08:16Alors l'espace public c'est tous les sites, je dirais les réseaux sociaux, etc.
08:20Et aujourd'hui le fait est qu'il n'y a pas de coordination internationale, mondiale organisée,
08:27de telle manière à ce que les signalements remontant du terrain localement soient ensuite partagés de manière efficace
08:33pour être retirés par toutes les plateformes coopératives.
08:37Faut aller chercher chaque plateforme en fait.
08:39C'est ça, et ça franchement c'est une violence qu'on impose aux victimes,
08:43puisque déjà c'est extrêmement perturbant et troublant, et après on leur dit,
08:47si vous êtes victime sur TikTok, allez sur TikTok, si vous êtes victime sur Twitter, allez sur Twitter, et multipliez par ça.
08:54Et qu'est-ce qu'on déclare, qu'est-ce qu'on demande de retirer ? Parce qu'on ne sait pas toujours d'ailleurs qui est derrière cette violence.
09:00Alors on ne sait pas, et puis après souvent un certain nombre d'hébergeurs ou de plateformes, à juste titre d'ailleurs, disent
09:06mais qui êtes-vous et qu'est-ce qui me garantit que vous êtes bien la personne et que vous avez bien un préjudice ?
09:11Et donc là c'est doublement compliqué pour la victime parce qu'elle doit prouver son préjudice,
09:17ce qui est déjà émotionnellement très difficile, le faire sur de multiples plateformes potentiellement,
09:21surtout que certaines sont victimes de harceleurs qui vont s'ingénier à publier les contenus partout.
09:26Donc là on voit un vrai déquilibre entre la victime et les autres.
09:30Ça peut s'organiser, mais ce n'est pas le cas aujourd'hui.
09:33Oui, c'est pour ça aussi que c'est important de porter plainte et de se rapprocher des associations qui sont spécialisées,
09:40parce qu'en fait ça permet de retirer les contenus, soit par le biais d'une décision juridique,
09:47et ça peut être aussi, les associations sont considérées comme des tiers de confiance auprès des plateformes
09:53et donc aussi quand ils vont signaler, il y a un retrait qui se fait finalement plus rapide aussi parfois,
09:58donc ça peut être intéressant et c'est important de passer par les associations et de porter plainte.
10:03Mais comment le Comcyberjante traite cette question des deepfakes aujourd'hui ?
10:08Alors on a plusieurs manières de les traiter, le Comcyberjante c'est une unité qui est nationale aussi,
10:16enfin c'est une unité nationale du ministère de l'Intérieur, dans laquelle on a aussi une unité nationale cyber qui va faire de l'enquête,
10:23donc elle peut détecter aussi, avoir un travail de détection avec des cyber enquêteurs qui vont patrouiller, faire des cyberpatrouilles,
10:29essayer de voir, détecter s'il y a des deepfakes, et pour ça on a des outils qui sont propres à la gendarmerie,
10:37qui sont en capacité de voir si une photo a été truquée, a été modifiée,
10:42et là on travaille de plus en plus pour améliorer encore cet outil pour qu'il soit de plus en plus rapide
10:47et qu'il puisse avoir une analyse quasiment instantanée de la véracité d'une image.
10:52Donc on travaille vraiment sur ce sujet là, on utilise ces outils d'intelligence artificielle.
10:57Donc on est équipé, on a les bons outils technologiques aujourd'hui pour lutter contre les deepfakes ou contre cette nouvelle forme de violence numérique ?
11:04Oui la technologie, l'IA est bien équipée pour lutter contre l'IA.
11:09Lorsque vous allez avoir des limites, c'est qu'à un moment, le préjudice subi par une victime,
11:15qu'est-ce qui est intime et à quel moment moi, victime, j'ai un préjudice et je souffre qu'une image intime de moi ait été transmise,
11:22l'IA ne va pas forcément être capable de déterminer.
11:25Evidemment si c'est une personne nue, c'est assez facile, l'IA sait très bien repérer un corps nu, masculin, féminin, d'enfant, etc.
11:31Donc ce n'est pas un souci.
11:33En revanche, il y a certaines photos, une femme sans voile par exemple, pour des raisons religieuses,
11:39peut être dramatique pour elle et l'IA va être incapable, faute de contexte, de comprendre que cette personne est victime.
11:45Le conseil pratique qu'on est en train de mettre en oeuvre, c'est Point de Contact, la structure française de Hotline,
11:53reçoit les signalements d'images et de vidéos intimes et les fait retirer.
11:59Dans son expérience, elle a reçu 1300 signalements en un an et la moitié ne sont pas pertinents,
12:06c'est-à-dire que la moitié sont des personnes qui disent être victime.
12:09Effectivement, la photo est dans un contexte public et il n'y a pas de fondement juridique,
12:13on ne peut pas vraiment parler de préjudice.
12:16Toutefois, 50% est légitime et à ce moment-là, les hébergeurs souvent demandent,
12:22mais qui est cette victime ? Est-elle vraiment victime ?
12:25Et c'est là où le rôle de l'intermédiaire peut être très précieux et est un maillon dans l'ensemble.
12:30A côté de la plainte, effectivement, la plainte est nécessaire pas suffisante,
12:34le signalement est nécessaire pas suffisant, il faut les deux et il faut mieux l'interpasser entre les deux.
12:40Et au-delà d'enlever les images compromettantes, il y a aussi le problème d'aller chercher la source, non ?
12:48Enfin, tout ce travail d'enquête qui doit être extrêmement long,
12:51il ne peut fonctionner que s'il y a vraiment une collaboration étroite avec les plateformes,
12:55mais j'ai aussi envie de dire les opérateurs, les fournisseurs d'accès.
12:59Oui, c'est une lutte qui doit être globale avec différents acteurs et c'est pour ça aussi que l'Europe s'en est saisie.
13:07Nous, au niveau des polices et de la gendarmerie, on a des structures comme Europol, par exemple,
13:13qui nous permet de travailler avec l'ensemble des polices d'Europe pour travailler sur des phénomènes,
13:18parce que c'est vrai que c'est un phénomène qui dépasse les frontières, qui nécessite une coordination internationale.
13:24Et les plateformes ont une responsabilité ?
13:26Alors, les plateformes ont des responsabilités, ont une réglementation.
13:30Le DSA, le Service Digital Security Act a imposé un certain nombre de règles,
13:39notamment avoir un modérateur, faire de la modération, avoir un outil de signalement pour les utilisateurs,
13:46effectivement aussi pour qu'ils puissent signaler un contenu qui est haineux ou qui livre des images qu'il ne devrait pas.
13:55Et aussi l'obligation de collaborer avec les forces de l'ordre.
14:00Donc ça, c'est trois obligations qui sont celles des plateformes.
14:04Parce que tout ça, ça se passe quand même en général sur les réseaux sociaux ou sur les messageries,
14:09qui sont devenues des réseaux sociaux d'ailleurs en soi, puisqu'on voit beaucoup de groupes dessus.
14:14L'interpellation du patron de Telegram, Pavel Durov, Jean-Christophe Le Toquin,
14:20dont dans les chefs d'accusation il y avait notamment la complicité pour diffusion de contenus pédopornographiques,
14:27ça s'inscrit vraiment dans cette lutte contre ces nouveaux usages du numérique qui portent atteinte à la personne par l'image ?
14:37Alors, c'est certainement un tournant dans la question de la responsabilité des plateformes.
14:43Alors, Telegram est un acteur atypique.
14:45Pourquoi ? Pourquoi c'est un cas particulier ?
14:47Parce qu'il est beaucoup plus petit que les autres, il n'est pas américain ni chinois,
14:52donc il fait partie des acteurs, je dirais, par leur taille, par leur origine, par leur financement, qui n'est pas comparable aux autres.
14:59Ceci étant, ce qu'on a constaté, et je pense que ça peut être une leçon pour tous les acteurs,
15:05on a constaté qu'après l'arrestation de son PDG, quelques semaines après,
15:10il y a eu deux tournants très étonnants qui auraient pu arriver plus tôt, qui n'étaient pas arrivés plus tôt,
15:15et peut-être pour cette bonne raison.
15:17Premier mouvement qui a été que Telegram a accepté de collaborer avec les Coréens,
15:22alors que les Coréens leur disaient depuis des mois, des années, que c'est un problème national chez eux.
15:27Peu après l'arrestation, changement d'attitude.
15:29Mais oui, on va travailler avec vous, et depuis maintenant, de ce que je comprends,
15:32il y a une collaboration qui s'est installée sur ces questions de violence par l'image.
15:36Et puis ensuite, une semaine ou deux après, rechangement d'attitude vis-à-vis, cette fois,
15:41de l'ensemble des services de police judiciaire, où ils ont dit,
15:45mais bien sûr, nous allons collaborer avec les services de police judiciaire.
15:48Donc l'affaire lui-même, le patron est toujours arrêté et toujours en France, à ma connaissance,
15:54mais on voit bien que, c'est peut-être tout à fait un hasard,
15:57mais en tout cas, on voit des conséquences concrètes dans l'attitude de la plateforme.
16:01Mais donc, est-ce qu'il vous semble qu'il y a une prise de conscience, aujourd'hui, des gouvernements dans le monde,
16:05sur l'importance de traiter ces nouvelles menaces numériques ?
16:09Alors, il y a une prise de conscience.
16:11Là, début en mi-septembre, vous avez eu coup sur coup, à deux jours, le lendemain, l'un après l'autre.
16:17Demeurent très curieuses, peut-être un hasard.
16:20La Maison-Blanche et le lendemain, le gouvernement anglais ont tous les deux, je dirais,
16:25publié une série d'actions qu'ils avaient prises pour renforcer les actions de leur pays dans ce domaine-là,
16:31mais ça restait très hétérogène.
16:34C'est-à-dire qu'aujourd'hui, il n'y a pas de vision centrée sur la personne.
16:39Ils ne disent pas un discours simple, du type,
16:42on va protéger les personnes et s'assurer que leur contenu soit retiré en ligne.
16:45Une question très, très simple.
16:46Ils parlent sur des choses très complexes,
16:48genre l'IA, on va faire des procédures et des machins,
16:50mais ça manque de simplicité et de choses qui parlent aux personnes.
16:54Il ne nous reste plus beaucoup de temps, Marie-Laure, pour conclure aujourd'hui.
16:58Qu'est-ce qui nous manque pour avoir une force de frappe encore plus importante ?
17:01Je pense que pour l'instant, on a déjà des outils juridiques qui sont déjà bien dimensionnés.
17:06On a pas mal de choses qu'on peut faire.
17:08Ce qui est important, c'est de continuer à développer, je pense, d'innover en matière technologique
17:13pour justement arriver à travailler parce qu'on est face à des infractions qui sont de masse,
17:18des photos, des vidéos en masse.
17:20Il faut aussi pouvoir avoir les outils technologiques pour y faire face et pour faire appliquer le droit.
17:25Bon, 30 secondes. On doit en arriver à un chat contrôle
17:30puisqu'on a un texte qui est en attente au niveau de l'Europe
17:34pour obliger les messageries, les plateformes sociales, finalement,
17:39à scanner l'ensemble des conversations de leurs utilisateurs
17:42afin de retirer automatiquement, en amont, de manière préventive, finalement,
17:46des contenus qui pourraient être illicites.
17:48Alors, sur ce sujet-là, qui est un sujet qui est connexe...
17:50Et en plus en 30 secondes.
17:52Ce qu'on peut dire, c'est que là, sur ces questions,
17:54les adultes victimes d'abus par l'image ne sont pas demandeurs, forcément,
17:59d'une grande intrusion sur les messageries privées
18:01parce qu'elles-mêmes, elles savent que face à des harceleurs,
18:03elles ont besoin d'être protégées.
18:05Donc là, il y a un vrai hiatus entre les associations de protection de l'enfance
18:08qui demandent ce chat contrôle
18:10et les activistes, je dirais, victimes de ce type de menace
18:15qui, adultes, disent attention, on a besoin du chiffrement pour se protéger.
18:18Merci beaucoup, Jean-Christophe Le Toquin, co-fondateur de STISA
18:23et Marie-Laure Pesan, forte parole de la Gendarmerie nationale.
18:26Merci.

Recommandations