• l’année dernière
Les parents de Marie, une jeune fille de 15 ans qui s'est suicidée en septembre 2021, ont décidé de porter plainte contre TikTok, accusant l'algorithme de la plateforme d'avoir participé à l'aggravation du mal-être de l'adolescente.

Category

🗞
News
Transcription
00:00 C'est une grosse pression en ce moment qui a lieu sur les réseaux sociaux.
00:03 Est-ce qu'ils peuvent y répondre, Raphaël Grabli ?
00:06 Et j'ai envie de vous dire, peut-on faire bouger TikTok ?
00:10 Enfin bref, les grands réseaux sur ces questions-là ?
00:12 - C'est assez difficile déjà juridiquement.
00:14 Alors il y a une plainte contre TikTok.
00:15 Pénalement, c'est assez compliqué parce que ce sont des hébergeurs
00:18 qui ne sont juridiquement pas forcément responsables de ce qui est publié.
00:22 L'autre volet qui est intéressant ici, dans le cas de la jeune Marie,
00:25 c'est l'algorithme. Cette fois, c'est l'algorithme de recommandation.
00:28 On ne dit pas seulement que les réseaux sociaux n'ont pas su voir quelque chose
00:32 et n'ont pas su le modérer ou le supprimer.
00:33 Ça, on sait qu'ils ne savent pas le faire, qu'ils n'y arrivent pas.
00:35 Ils n'ont pas les...
00:37 - Pardonnez-moi, l'algorithme leur échappe ?
00:39 - Ah oui. - Techniquement ?
00:40 - Bien sûr. - Non, mais c'est important.
00:41 - C'est documenté.
00:42 - Il faut le préciser pour les spectateurs.
00:45 - Et donc là, ce n'est même pas un manque de modération
00:47 qui est acté par tous les spécialistes.
00:49 C'est le fait que de façon proactive,
00:52 on parle de TikTok, mais ça peut être un autre réseau social,
00:55 qui va mettre en avant des contenus, par exemple,
00:59 qui vont être liés au suicide,
01:01 mais pas des contenus de prévention du suicide,
01:03 des contenus qui, malheureusement, vont être de l'incitation au suicide,
01:06 parce que c'est le fonctionnement même de ces réseaux sociaux
01:09 qui font que, pour qu'on y passe le plus de temps,
01:11 font que si on va passer deux secondes sur une vidéo au lieu d'une,
01:15 la plateforme va partir du principe qu'on est intéressé par cette vidéo
01:18 et donc, pour qu'on y passe le plus de temps possible,
01:21 va nous diffuser des vidéos de la même nature.
01:24 - Donc je peux déclencher des incendies,
01:25 mais je n'aurai jamais à côté de moi les pompiers qui peuvent l'éteindre.
01:28 - Exactement. - Voire pire, le vent va se le faire.
01:31 - En général, on dit que les réseaux sociaux,
01:33 on parle des bulles de filtres.
01:35 C'est en fait un vecteur de radicalisation,
01:37 on peut appeler ça comme on veut, de fuite en avant,
01:40 alors de cercle vicieux dans ce cas-là, en fait,
01:42 de cercle vicieux, voilà, tout simplement,
01:44 parce qu'on commence à voir des vidéos.
01:45 Officiellement, vous demandez à ces plateformes,
01:47 attendez, si une jeune ou un jeune recherche
01:50 ou s'intéresse à des vidéos sur le suicide,
01:52 elles vont vous répondre, bien sûr,
01:54 mais enfin, nous, ce qu'on va mettre en avant,
01:55 c'est des vidéos de prévention sur le suicide.
01:57 Sauf que le problème, c'est qu'il y a des millions de vidéos
01:59 qui ne sont pas du tout de la prévention
02:01 et que les plateformes sont elles-mêmes dépassées par ces vidéos
02:03 et qu'elles ne savent pas du tout les juguler.
02:05 Et donc, in fine, les adolescents se retrouvent face à ces vidéos
02:09 et donc vivent malheureusement un cercle vicieux.
02:11 - Alors, Raphaël, il y a eu un cas quasiment similaire en Angleterre
02:14 avec une jeune fille qui s'appelait Molly, je crois.
02:16 La justice a fait son boulot, là ?
02:18 - Oui, Instagram et Pinterest,
02:20 mais Instagram, donc maison mère, Méta, Facebook,
02:23 a été reconnue comme en partie responsable
02:27 effectivement du suicide de la jeune Molly.
02:31 Mais à l'inverse, il y a eu aussi une autre jurisprudence aux États-Unis,
02:34 notamment... - À cause des algorithmes.
02:36 - Exactement, à cause des algorithmes,
02:38 sur cette fois des attentats,
02:40 où les plateformes comme Facebook, Google,
02:42 étaient accusées d'avoir "radicalisé"
02:45 et diffusé la propagande des groupes terroristes,
02:48 notamment dans le cadre de l'attentat du Pataclan.
02:50 Et là, la justice, la Cour suprême américaine a dit non,
02:54 les plateformes n'ont pas eu de rôle là-dedans.
02:56 - Joseph Agostini, ma question va peut-être vous paraître,
02:59 je ne sais pas, naïve ou innocente,
03:01 mais pourquoi un ado qui se fait insulter,
03:03 malmené sur les réseaux sociaux,
03:05 ne coupe-t-il pas le fil, tout simplement ?
03:07 - Parce qu'il n'y arrive pas.
03:09 Parce qu'il y a un mécanisme qui s'appelle l'addiction,
03:12 il y a une dépendance à l'outil.
03:14 Et je crois que ce que vous décrivez,
03:16 c'est-à-dire que c'est la société qui en est malade
03:18 et qui essaye désespérément de trouver une régulation.
03:22 Mais je crois qu'un ado tout seul ne peut pas,
03:26 finalement, s'en sortir, ne peut pas s'extraire
03:29 de cette espèce de gang, là, finalement, d'addiction.
03:33 Je crois que les parents, là, doivent intervenir.
03:35 - Si vous sortez de votre collège et que vous savez
03:38 qu'il y a quatre types qui vous attendent tous les jours
03:39 pour vous casser la gueule, vous piquer votre argent
03:41 ou éventuellement votre paquet de biscuits dans votre sac à dos,
03:45 vous changez de route ?
03:47 - Oui.
03:48 - Pardonnez-moi, je sais que ce que je vous dis est un peu simpliste,
03:50 mais je suis sûr que c'est une question
03:52 que se posent beaucoup de personnes qui nous écoutent ce soir,
03:54 et notamment d'adultes.
03:55 - Oui, mais je pense que TikTok sait très bien
03:57 ce que vous êtes en train de dire
03:58 et peut tout à fait dépasser cette logique-là.
04:04 - Raphaël Gravely.
04:05 - Oui, si je peux me permettre, avec le smartphone,
04:07 les quatre personnes qui vous attendent, les harcèleurs,
04:09 ils sont dans votre poche, ils sont dans votre lit,
04:12 et vous êtes seul dans votre lit face à eux.
04:15 C'est même plus le cas de certains cas de cyberharcèlement
04:18 qu'on a pu avoir ces dernières années à l'époque des Skype blogs.
04:20 On se souvient, il y avait déjà du cyberharcèlement,
04:22 mais c'était sur l'ordinateur familial.
04:25 Donc, il pouvait y avoir un contact avec les adultes.
04:27 Là, contrairement à la cour de récréation, au préau
04:29 ou la salle de classe, c'est un vase clos, c'est une boîte noire.
04:33 Il n'y a aucun contact avec un adulte.
04:34 Et donc, ce sont des jeunes qui sont face à face,
04:37 face aussi à des algorithmes,
04:39 mais qui sont face à un smartphone qu'ils ont dans leurs mains,
04:42 et les parents sont extrêmement éloignés de tout ça.

Recommandations