Les parents de Marie, une jeune fille de 15 ans qui s'est suicidée en septembre 2021, ont décidé de porter plainte contre TikTok, accusant l'algorithme de la plateforme d'avoir participé à l'aggravation du mal-être de l'adolescente.
Category
🗞
NewsTranscription
00:00 C'est une grosse pression en ce moment qui a lieu sur les réseaux sociaux.
00:03 Est-ce qu'ils peuvent y répondre, Raphaël Grabli ?
00:06 Et j'ai envie de vous dire, peut-on faire bouger TikTok ?
00:10 Enfin bref, les grands réseaux sur ces questions-là ?
00:12 - C'est assez difficile déjà juridiquement.
00:14 Alors il y a une plainte contre TikTok.
00:15 Pénalement, c'est assez compliqué parce que ce sont des hébergeurs
00:18 qui ne sont juridiquement pas forcément responsables de ce qui est publié.
00:22 L'autre volet qui est intéressant ici, dans le cas de la jeune Marie,
00:25 c'est l'algorithme. Cette fois, c'est l'algorithme de recommandation.
00:28 On ne dit pas seulement que les réseaux sociaux n'ont pas su voir quelque chose
00:32 et n'ont pas su le modérer ou le supprimer.
00:33 Ça, on sait qu'ils ne savent pas le faire, qu'ils n'y arrivent pas.
00:35 Ils n'ont pas les...
00:37 - Pardonnez-moi, l'algorithme leur échappe ?
00:39 - Ah oui. - Techniquement ?
00:40 - Bien sûr. - Non, mais c'est important.
00:41 - C'est documenté.
00:42 - Il faut le préciser pour les spectateurs.
00:45 - Et donc là, ce n'est même pas un manque de modération
00:47 qui est acté par tous les spécialistes.
00:49 C'est le fait que de façon proactive,
00:52 on parle de TikTok, mais ça peut être un autre réseau social,
00:55 qui va mettre en avant des contenus, par exemple,
00:59 qui vont être liés au suicide,
01:01 mais pas des contenus de prévention du suicide,
01:03 des contenus qui, malheureusement, vont être de l'incitation au suicide,
01:06 parce que c'est le fonctionnement même de ces réseaux sociaux
01:09 qui font que, pour qu'on y passe le plus de temps,
01:11 font que si on va passer deux secondes sur une vidéo au lieu d'une,
01:15 la plateforme va partir du principe qu'on est intéressé par cette vidéo
01:18 et donc, pour qu'on y passe le plus de temps possible,
01:21 va nous diffuser des vidéos de la même nature.
01:24 - Donc je peux déclencher des incendies,
01:25 mais je n'aurai jamais à côté de moi les pompiers qui peuvent l'éteindre.
01:28 - Exactement. - Voire pire, le vent va se le faire.
01:31 - En général, on dit que les réseaux sociaux,
01:33 on parle des bulles de filtres.
01:35 C'est en fait un vecteur de radicalisation,
01:37 on peut appeler ça comme on veut, de fuite en avant,
01:40 alors de cercle vicieux dans ce cas-là, en fait,
01:42 de cercle vicieux, voilà, tout simplement,
01:44 parce qu'on commence à voir des vidéos.
01:45 Officiellement, vous demandez à ces plateformes,
01:47 attendez, si une jeune ou un jeune recherche
01:50 ou s'intéresse à des vidéos sur le suicide,
01:52 elles vont vous répondre, bien sûr,
01:54 mais enfin, nous, ce qu'on va mettre en avant,
01:55 c'est des vidéos de prévention sur le suicide.
01:57 Sauf que le problème, c'est qu'il y a des millions de vidéos
01:59 qui ne sont pas du tout de la prévention
02:01 et que les plateformes sont elles-mêmes dépassées par ces vidéos
02:03 et qu'elles ne savent pas du tout les juguler.
02:05 Et donc, in fine, les adolescents se retrouvent face à ces vidéos
02:09 et donc vivent malheureusement un cercle vicieux.
02:11 - Alors, Raphaël, il y a eu un cas quasiment similaire en Angleterre
02:14 avec une jeune fille qui s'appelait Molly, je crois.
02:16 La justice a fait son boulot, là ?
02:18 - Oui, Instagram et Pinterest,
02:20 mais Instagram, donc maison mère, Méta, Facebook,
02:23 a été reconnue comme en partie responsable
02:27 effectivement du suicide de la jeune Molly.
02:31 Mais à l'inverse, il y a eu aussi une autre jurisprudence aux États-Unis,
02:34 notamment... - À cause des algorithmes.
02:36 - Exactement, à cause des algorithmes,
02:38 sur cette fois des attentats,
02:40 où les plateformes comme Facebook, Google,
02:42 étaient accusées d'avoir "radicalisé"
02:45 et diffusé la propagande des groupes terroristes,
02:48 notamment dans le cadre de l'attentat du Pataclan.
02:50 Et là, la justice, la Cour suprême américaine a dit non,
02:54 les plateformes n'ont pas eu de rôle là-dedans.
02:56 - Joseph Agostini, ma question va peut-être vous paraître,
02:59 je ne sais pas, naïve ou innocente,
03:01 mais pourquoi un ado qui se fait insulter,
03:03 malmené sur les réseaux sociaux,
03:05 ne coupe-t-il pas le fil, tout simplement ?
03:07 - Parce qu'il n'y arrive pas.
03:09 Parce qu'il y a un mécanisme qui s'appelle l'addiction,
03:12 il y a une dépendance à l'outil.
03:14 Et je crois que ce que vous décrivez,
03:16 c'est-à-dire que c'est la société qui en est malade
03:18 et qui essaye désespérément de trouver une régulation.
03:22 Mais je crois qu'un ado tout seul ne peut pas,
03:26 finalement, s'en sortir, ne peut pas s'extraire
03:29 de cette espèce de gang, là, finalement, d'addiction.
03:33 Je crois que les parents, là, doivent intervenir.
03:35 - Si vous sortez de votre collège et que vous savez
03:38 qu'il y a quatre types qui vous attendent tous les jours
03:39 pour vous casser la gueule, vous piquer votre argent
03:41 ou éventuellement votre paquet de biscuits dans votre sac à dos,
03:45 vous changez de route ?
03:47 - Oui.
03:48 - Pardonnez-moi, je sais que ce que je vous dis est un peu simpliste,
03:50 mais je suis sûr que c'est une question
03:52 que se posent beaucoup de personnes qui nous écoutent ce soir,
03:54 et notamment d'adultes.
03:55 - Oui, mais je pense que TikTok sait très bien
03:57 ce que vous êtes en train de dire
03:58 et peut tout à fait dépasser cette logique-là.
04:04 - Raphaël Gravely.
04:05 - Oui, si je peux me permettre, avec le smartphone,
04:07 les quatre personnes qui vous attendent, les harcèleurs,
04:09 ils sont dans votre poche, ils sont dans votre lit,
04:12 et vous êtes seul dans votre lit face à eux.
04:15 C'est même plus le cas de certains cas de cyberharcèlement
04:18 qu'on a pu avoir ces dernières années à l'époque des Skype blogs.
04:20 On se souvient, il y avait déjà du cyberharcèlement,
04:22 mais c'était sur l'ordinateur familial.
04:25 Donc, il pouvait y avoir un contact avec les adultes.
04:27 Là, contrairement à la cour de récréation, au préau
04:29 ou la salle de classe, c'est un vase clos, c'est une boîte noire.
04:33 Il n'y a aucun contact avec un adulte.
04:34 Et donc, ce sont des jeunes qui sont face à face,
04:37 face aussi à des algorithmes,
04:39 mais qui sont face à un smartphone qu'ils ont dans leurs mains,
04:42 et les parents sont extrêmement éloignés de tout ça.