Sept familles ont décidé d'assigner TikTok en justice, Lucie Chaumette reçoit Maitre Laure Boutron-Marmion pour revenir sur les circonstances à l'origine de cette plainte. Tout a débuté avec le décès de Marie, une adolescente victime de harcèlement scolaire qui diffusait des vidéos très alarmantes sur son état. L'avocate explique que la plateforme n'a pas censuré les vidéos, n'a pas alerté sur son état et a participé à accélérer son mal-être. Pour les parents TikTok a donc participé à ce drame.
Category
📺
TVTranscription
00:00Bonjour Maître, merci d'être avec nous.
00:02Pour bien comprendre ce qui a motivé ces familles à attaquer en justice le réseau social chinois,
00:06j'aimerais qu'on revienne ensemble sur leur histoire.
00:09Elles ont cofondé avec vous un collectif qui s'appelle Algos Victima
00:12et à l'origine, il y a le drame vécu par une jeune fille, Marie, 15 ans.
00:16Qu'est-ce qui s'est passé pour elle ? On la voit juste ici.
00:20Marie était victime de harcèlement scolaire.
00:25Elle s'est donnée la mort il y a trois ans maintenant.
00:30Et avec les parents, on a commencé à mener le combat judiciaire
00:35pour trouver la vérité de ce qui avait pu se passer dans son établissement.
00:39Et au cours de cette enquête et de ce dossier,
00:42qui est actuellement dans les mains d'un juge d'instruction,
00:45on s'est également rendu compte que dans les derniers mois avant sa mort,
00:50si je puis m'exprimer ainsi, elle s'était complètement enfermée,
00:55réfugiée dans le réseau social TikTok,
00:58a diffusé des vidéos très alarmantes sur son état,
01:01sur son envie d'en finir.
01:03Et que non seulement la plateforme n'a pas censuré ces vidéos
01:06qui se sont diffusées tranquillement à d'autres,
01:10mais également elle en a reçu dans la même idée.
01:15Donc ça a alimenté en quelque sorte ?
01:17Ça a alimenté complètement son mal-être.
01:19Marie était une petite qui souffrait déjà
01:22quand elle s'est vraiment enfermée dans ce réseau.
01:24Mais en fait, si vous voulez, l'engrenage a été terrible
01:28parce que ça a été un accélérateur tout bonnement de son mal-être.
01:32Donc il y a une responsabilité là-dedans pour vous de TikTok
01:34dans le suicide de Marie ?
01:35Exactement.
01:36C'est-à-dire qu'après, avec les parents, on s'est dit
01:38mais on ne peut pas ne pas réagir.
01:40Parce que oui, effectivement, il y a des comptes à rendre
01:43sur le harcèlement qu'elle a vécu.
01:45Mais également, TikTok a participé finalement au drame absolu.
01:50Marie, ce n'est pas la seule enfant victime que vous défendez aujourd'hui.
01:54Vous représentez aussi Elisa et ses parents.
01:56Elisa a 13 ans.
01:57Qu'est-ce qui se passe pour elle ?
01:59Elisa, c'est très difficile parce qu'aujourd'hui,
02:01on pourrait dire qu'elle est dans la tourmente
02:03et qu'elle n'en est pas encore sortie
02:05parce qu'elle refuse de croire qu'elle ne va pas bien
02:10et qu'il faut qu'elle se soigne.
02:12Alors que pour autant, elle ne va pas bien
02:14puisqu'elle a déjà fait des séjours à l'hôpital.
02:20Simplement, pour elle, elle a l'impression que finalement,
02:24c'est la vie tout ça.
02:25Parce qu'il faut comprendre que pour beaucoup de jeunes,
02:27le fait d'être sur les réseaux pendant X heures pendant la journée
02:30et finalement, voir défiler des vidéos
02:33au contenu absolument affreux, anxiogène
02:36ou qui promeut le suicide, c'est normal.
02:38Pour Elisa, on parle de maltraitance envers elle-même.
02:41Elle se fait du mal, on sait bien ça.
02:43Est-ce qu'elle allait mal avant de devenir addicte aux réseaux sociaux ?
02:48Est-ce que ça a amplifié un mal-être ?
02:50Ou au contraire, ça l'a créé ?
02:51Non. Et justement, c'est ça qu'il faut aussi bien comprendre,
02:53c'est que moi, les familles qui viennent me voir,
02:55on est sur des profils de jeunes tout à fait divers
02:58et on n'est pas que sur des jeunes
03:00qui finalement sont allés sur le réseau
03:02parce que comme ils étaient un peu exclus des autres,
03:06se sont réfugiés là-dedans et donc étaient déjà fragiles.
03:08Attention, le mal-être que vit beaucoup d'adolescents
03:11aujourd'hui en France, ce n'est pas un mal-être
03:13qui est réservé aux personnes vulnérables si vous voulez
03:16et aux enfants vulnérables.
03:17Il y a aujourd'hui sept familles que vous représentez
03:19qui vont attaquer TikTok en justice dans les prochains jours.
03:23Est-ce que vous pensez vraiment pouvoir gagner
03:25contre un tel géant comme TikTok ?
03:28C'est-à-dire que je ne me pose même pas cette question
03:31dans le sens où moi, je vais présenter au juge
03:35des faits tout à fait incontestables
03:38et des liens tout aussi incontestables
03:40entre ce qui a pu être visionné,
03:43ce qui est visible aujourd'hui sur la plateforme
03:45et le lien de causalité direct avec le mal-être de ces jeunes.
03:49Donc je suis plutôt très sereine et je le suis d'autant plus
03:52que le débat s'internationalise
03:54et que je ne suis pas la seule aujourd'hui.
03:56Nous ne sommes pas que la France à, si vous voulez,
03:59se battre et essayer de faire réagir
04:01les entreprises de réseaux sociaux.
04:03Mais il y a quelques instants justement,
04:04on apprenait que l'autorité australienne
04:06abandonnait son bras de fer judiciaire
04:08qu'elle avait engagé contre X
04:10pour faire enlever des vidéos difficiles,
04:12violentes de ce réseau social-là.
04:14Un État, une justice qui abandonne face à X
04:18et vous, avec cette famille qui continue le combat,
04:20il n'y a pas un décalage ?
04:22Alors je vais vous dire la différence.
04:24C'est que justement, il s'agit d'un État
04:26et là il s'agit de parents.
04:27Et les parents, ils sont du coup en souffrance
04:29et ils veulent justement que ça change
04:32et aussi pour leurs enfants.
04:34Pour ceux qui sont encore là, pour qui se disent
04:36« Ah là là, mes parents se battent,
04:38donc il faut que j'aille mieux,
04:39donc on va y aller, on va continuer le combat. »
04:41Et puis pour ceux qui ne sont plus là,
04:43ils se le doivent encore plus.
04:44C'est ça la principale différence.
04:45Est-ce que vous allez demander
04:46d'interdire TikTok en France ?
04:47Non, non, non, non.
04:49Alors beaucoup effectivement
04:51de détracteurs de notre combat
04:53veulent le résumer à finalement
04:55le collectif Algos Victimas
04:57souhaiterait interdire TikTok.
04:59Ce n'est absolument pas ça.
05:00Nous, on souhaite la régulation.
05:01Et ça passe par quoi ?
05:02De cette plateforme qui aujourd'hui
05:03est au degré zéro de la régulation.
05:05Justement, par une initiative
05:07collective comme la nôtre,
05:09le but, il est double.
05:11Le premier but, évidemment,
05:13c'est de porter en justice nos doléances
05:15et que cette entreprise soit condamnée
05:20parce qu'aujourd'hui,
05:21elle présente un outil commercial défectueux, point.
05:24Et puis le deuxième but,
05:27c'est de porter une impulsion plus grande
05:29qui fera qu'à un moment,
05:30cette entreprise ne pourra plus se dire
05:32qu'elle peut continuer ses outils commerciaux.
05:34Très concrètement, ça veut dire quoi ?
05:36Ça veut dire vraiment appliquer l'interdiction
05:38à l'application pour les moins de 13 ans ?
05:40Ça veut dire...
05:41C'est plein de choses.
05:42Là, vous avez vu qu'aujourd'hui,
05:43les évolutions du législatif
05:45sont quand même assez multiples.
05:46Il y a le DSA à l'échelle européenne
05:48qui a été mis en place il y a quelques mois.
05:50On a effectivement les interdictions
05:51de réseaux sociaux.
05:52Sauf que tout ça, évidemment,
05:53il faut que ça puisse être incarné.
05:55Et pour que demain,
05:56l'application puisse être effective,
05:58effectivement, ça doit passer
06:01par des combats comme celui qu'on mène.
06:02Merci, merci beaucoup,
06:03maître Laure Boutron-Marmillon,
06:04d'avoir accepté notre invitation.
06:05Merci à vous.