Katia Roux, chargée de plaidoyer chez Amnesty International, nous alerte sur les dangers de Tiktok comme le stipule leur dernier rapport.

  • l’année dernière
Transcription
00:00 TikTok peut aggraver les problèmes de santé mentale à travers son algorithme et son fil "Pour toi" et je vais vous expliquer pourquoi.
00:05 On s'est intéressé à TikTok en particulier parce que c'est une plateforme qui rassemble à priori plus d'un milliard
00:13 d'utilisateurs et utilisatrices. On a vu que pour des jeunes qui par exemple
00:16 présentaient un intérêt pour des questions liées à la santé mentale, TikTok va leur proposer tellement de vidéos sur le sujet qu'ils vont être
00:23 aspirés petit à petit et rentrer dans cette spirale de contenus néfastes, potentiellement dangereux,
00:28 qui vont venir banaliser, voire idéaliser, encourager la dépression, l'automutilation, voire le suicide. Au bout de
00:35 20 minutes, en réalité c'est entre 3 et 20 minutes, les comptes d'utilisateurs qui présentaient un intérêt pour les enjeux liés à la santé mentale
00:43 se voyaient donc proposer des vidéos, quasiment que des vidéos, sur la dépression et l'automutilation.
00:49 La conclusion de notre recherche c'est que TikTok va s'immiscer dans la vie privée des jeunes en pistant ce qu'ils et elles font
00:56 en ligne, les vidéos qu'ils regardent, combien de temps, les interactions, pour en déduire en gros des états émotionnels, des centres d'intérêt, un niveau de bien-être
01:04 et après proposer des contenus spécifiques, personnalisés sur le fil "pour toi" de la plateforme. Très concrètement ce sont des vidéos
01:12 de jeunes par exemple qui eux-mêmes souffrent de dépression, qui expliquent leur état, qui parlent parfois du suicide comme une solution,
01:20 mais vraiment sur des vidéos qui peuvent aggraver des symptômes dépressifs déjà existants.
01:25 Le problème, il ne vient pas en réalité des vidéos qui sont postées, qui sont liées à la santé mentale. C'est tout à fait
01:31 compréhensible de pouvoir poster, s'exprimer sur les réseaux sociaux, partager effectivement ce qu'on ressent, ça permet aussi à certaines personnes de se sentir moins seule,
01:39 ça peut avoir un effet bénéfique. En revanche, ce qui n'est pas bénéfique, c'est que ces vidéos-là soient utilisées pour attirer
01:46 justement les utilisateurs et les aspirer dans cette spirale de contenus toxiques.
01:51 Nous on a eu des jeunes qui nous ont témoigné du fait que parce qu'ils avaient passé quelques secondes sur une vidéo en lien avec
01:57 des sujets de santé mentale, mais pas forcément de dépression ou de suicide, ils ont eu leur fil mais complètement
02:02 envahi de ce genre de vidéos, en tout cas la même vidéo revenait tout le temps et d'autres encore, et tout ça est voulu, tout ça est
02:08 intentionnel et fait partie du système d'algorithme de TikTok. Ce qu'il faut bien comprendre c'est que en soi le système
02:14 algorithmique de TikTok, il n'est pas prévu et conçu pour diffuser,
02:19 alimenter des vidéos, des contenus dépressifs. En revanche, si des jeunes utilisateurs et utilisatrices
02:24 montrent un intérêt pour ce type de sujet, ils vont se voir associés à ces sujets et on va leur en proposer beaucoup.
02:31 Pourquoi ? Parce que l'objectif de TikTok c'est de maintenir le plus possible les jeunes sur sa plateforme. Ça va permettre à
02:37 l'entreprise de collecter un maximum de données personnelles et donc de proposer des contenus personnalisés
02:42 et donc de maintenir les jeunes sur la plateforme. Donc c'est sans fin en réalité, c'est le modèle économique de développement de TikTok.
02:49 Et c'est le principe d'ailleurs de tous les réseaux sociaux, il n'y a pas que TikTok, tous les réseaux sociaux
02:52 fonctionnent sur ce modèle-là, captent des données personnelles pour faire de la publicité ciblée. C'est pour ça qu'aujourd'hui on demande à TikTok de prendre
02:59 des mesures très claires, la première étant d'interdire la publicité
03:03 ciblée partout dans le monde et pas que en Europe, et quel que soit l'âge. Et on demande aussi à TikTok de pouvoir arrêter
03:10 personnaliser à outrance le fil pour toi et surtout par défaut. En fait, les jeunes utilisateurs et utilisatrices devraient être libres de
03:18 choisir les sujets qu'ils et elles souhaitent
03:21 voir apparaître dans leur fil. Et c'est aussi ça le message, c'est-à-dire qu'il ne s'agit pas de victimiser, de
03:26 culpabiliser les jeunes qui sont sur cette plateforme. C'est normal d'avoir des espaces pour partager du contenu et
03:32 créer cette communauté aussi. D'ailleurs TikTok se présente comme une plateforme
03:36 créative de divertissement avec cet esprit de communauté, mais pour qu'elle le soit vraiment, il faut enrayer cet engrenage de collecte
03:45 massive de données et d'amplification de contenus potentiellement toxiques et dangereux.
03:50 *BIP*

Recommandations