Avec Elisa Jadot, réalisatrice et Maître Laure Boutron-Marmion
Abonnez-vous pour plus de contenus : http://ow.ly/7FZy50G1rry
---
———————————————————————
▶️ Suivez le direct : https://www.dailymotion.com/video/x75yzts
🎧 Retrouvez nos podcasts et articles : https://www.sudradio.fr/
———————————————————————
🔴 Nous suivre sur les réseaux sociaux 🔴
▪️ Facebook : https://www.facebook.com/SudRadioOfficiel
▪️ Instagram : https://www.instagram.com/sudradioofficiel/
▪️ Twitter : https://twitter.com/SudRadio
▪️ TikTok : https://www.tiktok.com/@sudradio?lang=fr
##LE_SUPPLEMENT_MEDIA-2024-12-11##
Abonnez-vous pour plus de contenus : http://ow.ly/7FZy50G1rry
---
———————————————————————
▶️ Suivez le direct : https://www.dailymotion.com/video/x75yzts
🎧 Retrouvez nos podcasts et articles : https://www.sudradio.fr/
———————————————————————
🔴 Nous suivre sur les réseaux sociaux 🔴
▪️ Facebook : https://www.facebook.com/SudRadioOfficiel
▪️ Instagram : https://www.instagram.com/sudradioofficiel/
▪️ Twitter : https://twitter.com/SudRadio
▪️ TikTok : https://www.tiktok.com/@sudradio?lang=fr
##LE_SUPPLEMENT_MEDIA-2024-12-11##
Category
🗞
NewsTranscription
00:00Le Supplément Média avec, je reçois Elisa Jadot, bonjour, vous êtes réalisatrice et
00:09maître Laure Boutron-Marmion, on va parler avec vous de ce document qu'il faut absolument
00:15regarder, ça a été diffusé sur France 5 hier soir, il y avait une grosse concurrence
00:19dont vraiment ce matin on a voulu vous recevoir parce que vous n'avez pas eu de chance en
00:23programmation et qu'il faut aller absolument le voir en replay, en prise numérique, 5
00:28femmes contre les Big 5, alors les Big 5 ce sont les 5 entreprises du numérique, Facebook,
00:36TikTok, Instagram, Snapchat, tous ces réseaux sur lesquels nos enfants, nos ados se rendent
00:45avec un danger dont on ne se rend pas compte forcément nous parents et donc il y a 5
00:50femmes dans ce document qui racontent comment, qui se battent contre ces Big 5 et qui racontent
00:56l'emprise et la façon dont leurs enfants ont été victimes, alors racontez-nous un
01:02petit peu Elisa Jadot, d'où est parti, comment vous avez construit ce document, qui est exceptionnel
01:08vraiment je le dis, la réalisation est formidable et le propos est excessivement important
01:14pour tous les parents qui nous écoutent et grands-parents.
01:16Je vous remercie, oui, le documentaire sera en replay pendant un petit mois sur la plateforme
01:21France.TV, c'est le troisième film que je réalise sur le numérique et les conséquences sur la santé
01:29mentale des adolescents et donc en fait quand on rentre dans cet univers, quand on commence à
01:33rentrer, à enquêter dans cet univers, c'est comme ouvrir la boîte de Pandore, donc à chaque fois
01:38je me rendais compte de choses encore plus terrifiantes, encore plus surprenantes et puis
01:44j'ai eu l'occasion de lire des témoignages notamment le témoignage d'un papa en Angleterre
01:51dont la fille Molly Russell s'est suicidée à cause de son addiction aux réseaux sociaux et c'est la
01:58première fois en fait qu'une plainte était déposée contre TikTok en Europe et la première fois qu'un
02:03tribunal reconnaissait la responsabilité de la plateforme dans le suicide d'une jeune fille.
02:08Là je me suis dit, quand même, il y a quelque chose à faire.
02:10Et comment on peut se suicider parce qu'on a une addiction sur TikTok ?
02:13En fait comme on le montre dans le film, la problématique des réseaux sociaux, qui peuvent
02:18être très bien très éducatifs par ailleurs, c'est les algorithmes. En fait les algorithmes sont
02:23conçus pour faire rester un maximum de temps l'utilisateur sur la plateforme. C'est comme ça
02:28que les plateformes gagnent de l'argent. Et donc elles choisissent, les algorithmes sont conçus
02:31pour choisir en fonction de l'âge de l'utilisateur les contenus qui peuvent le faire rester. Donc
02:36peut-être pour vous ce sera du foot, des petits chats, des vidéos de cuisine. Mais pour les
02:42adolescents qui sont déjà, on le sait, à cet âge-là en souffrance, en détresse, en caissé, en perte de
02:48repères, qui sont en train de passer à l'âge adulte, finalement une des thématiques qui les
02:55fait rester très longtemps, c'est autour de la santé mentale. Et donc l'algorithme l'a bien
02:59compris depuis des années en récoltant les données des utilisateurs. Et donc ils ont vu,
03:04ils ont remarqué que ces problématiques liées à la santé mentale, à la dépression, à l'ascarification,
03:09à l'automutilation, eh bien sont des contenus qui font rester les enfants longtemps sur la
03:13plateforme et donc qui les suggèrent en masse. C'est ça qui est assez fou, alors peut-être mettre...
03:18Oui, juste pour en dire, ce qu'on découvre avec vous, dans un cas très précis, il y a une jeune
03:25fille qui a des idées noires et du coup elle se confie à TikTok. Et forcément, à ce moment-là,
03:32on lui envoie d'autres ados qui ont aussi des idées noires et elle se dit, ah ben finalement,
03:38c'est pas si grave que ça, parce que d'autres ados y pensent. Et puis elle a même des suggestions
03:43de comment se suicider. Je vais vous raconter la suite. C'est-à-dire que ça fonctionne un peu
03:50comme un étouffoir. C'est-à-dire, ce qui s'est passé pour Marie, mais d'ailleurs dans le recours,
03:54il y a aussi Charlize, qui a mis fin à ces jours de la même manière. L'idée, ce sont des jeunes
04:00qui, à un moment ou à un trait de temps, soit vont publier une vidéo qui exprime leur mal-être
04:07et qui leur montre qu'elles ne vont pas bien, soit elles vont aller voir un contenu un peu sur
04:13ces sujets-là. Et alors là, c'est la déferlante. Et c'est ce que montre très bien le documentaire
04:17et ce qu'a fait Elisa avec son travail de Lili. C'est le côté, le biberonnage de contenus encore
04:23et encore et encore, qui, évidemment, dans la tête d'un adolescent, vous fait dire, ah ben
04:27finalement, c'est OK de penser au suicide. C'est pas grave. Et ça le valide, si vous voulez. Non
04:32seulement ça valide dans son mal-être, mais en plus, ça le fait absolument tomber dans une
04:39espèce de descente aux enfers sur son mal-être, qui voit poindre et verrouille tout bonnement son
04:49idée de se suicider. Mais c'est à un point tel qu'aujourd'hui, on en est à des vidéos qui
04:54carrément disent, voilà, ce soir, je vais en finir. Ça y est, je suis convaincue. Et avec
04:59des commentaires, t'inquiète pas, tu vas y arriver. Cœur, cœur, émoji, on pense à toi.
05:04On parle de la mort. Une communauté, en fait. C'est ça qui est terrible aujourd'hui.
05:09Mais quel est l'intérêt, entre guillemets, des plateformes, pardon de poser cette question,
05:13peut-être que les gens se posent, mais l'intérêt d'aller sur ce type de sujet pour eux ?
05:17Alors, c'est ce que disait tout à l'heure Elisa, c'est le temps de visionnage. Ça rend,
05:24en fait, si vous voulez, c'est la conjonction de deux choses. Une application qui, par essence,
05:29est addictive. Parce que, de toute façon, on a créé les réseaux sociaux pour ça. S'ils ne sont
05:33pas addictifs, ils ne sont pas intéressants puisqu'on ne passe pas du temps dessus. Aujourd'hui,
05:37une plateforme, elle gagne de l'argent si son utilisateur reste du temps dessus. Premièrement.
05:40Et puis, la deuxième chose, la non-modération des contenus. Et donc, pour le jeune, c'est un
05:45cocktail, si vous voulez, absolument mortifère, puisqu'il se retrouve non seulement avec une
05:50application qui, de façon pas anodine, est déjà addictive par essence, par la rythmique,
05:55le côté un peu ludique, la machine à like, etc., mais sur des contenus qui parlent du suicide et de
06:01la scarification. Vous, par exemple, dans le film, Meta a donné une valeur à chaque adolescent qui
06:07est 270 dollars. Alors, je ne sais pas, ça vous paraît beaucoup, ça vous paraît peu, 270 dollars
06:11par adolescent, par temps passé en moyenne. Mais quand on prend conscience qu'il y a plus d'un
06:18milliard d'adolescents connectés aux réseaux sociaux, vous multipliez 270 dollars par un
06:22milliard. Vous comprenez les revenus que ça génère. Alors, Maître, vous avez attaqué TikTok. Moi,
06:30si j'étais TikTok, je vous dirais, mais apportez-moi la preuve qu'elle ne serait pas suicidée sans les
06:36réseaux. Comment vous pouvez prouver que derrière... En termes juridiques, ça ne fonctionne pas
06:42nécessairement comme ça. Parce qu'en fait, si vous voulez, évidemment, qu'on a fait un travail de
06:46fourmi avec chaque histoire de ces jeunes. On est allé fouiller leurs comptes, qu'est-ce qu'ils ont
06:52publié, pourquoi ça n'a pas été censuré, etc. Alors, d'abord, il y a un premier élément de droit,
06:58si je puis dire, c'est que la plateforme s'engage elle-même dans sa charte d'utilisation, puisqu'elle
07:02dit, je vous garantis un environnement sain, vous, utilisateurs. Donc, rassurez-vous, ces contenus-là
07:07sont illicites. Ils sont censurés, ils sont modérés. Force est de constater que ce n'est pas le cas.
07:12C'est ce que, déjà, je démontre d'une première part. Ensuite, c'est très facile de voir poindre
07:19le lien de causalité entre la dégradation vertigineuse de l'état de santé du jeune par
07:24rapport à ce qu'il a visionné, tant c'est rapide et énorme. Si vous voulez, je vous donne un exemple.
07:30Par exemple, sur la scarification, on n'est pas sur une ou deux cicatrices. Moi, j'ai des jeunes
07:35filles qui, aujourd'hui, ont les bras et les jambes entièrement couvertes de cicatrices, ce qui montre
07:42bien le phénomène amplifié, qui montre que c'est par, justement, cette amplification algorithmique,
07:50par la rythmique même du réseau social. Et puis, ces contenus sont largement diffusés,
07:55comme on l'a montré dans le documentaire, sur les plateformes. Et j'ai essayé d'être très
08:00édulcorée aussi dans ce que je montrais, pour que les spectateurs ne soient pas non plus trop
08:03choqués par les contenus. Mais enfin, moi, j'ai été confrontée, puisque j'ai créé un profil d'une
08:08adolescente, pour avoir vraiment, prendre conscience de ce qui était vraiment proposé et suggéré aux
08:13adolescents. On parle de plaies qui sont fraîches, on parle de sang très rouge qui dégouline, on parle
08:20pas juste d'une cicatrice, d'une blessure d'il y a trois jours. On parle d'une scarification qui
08:26vient d'être réalisée, qui est mise en avant par la personne, et c'est largement commenté. Et puis,
08:32ils s'engraignent en plus. C'est si ça saigne pas, ça marche pas. Si tu vas pas à l'hôpital après
08:37t'être scarifiée, c'est pas assez. Pourquoi moi, j'ai des gens qui glissent sur de la glace ou des
08:45petits chiens qui sourient, et j'ai jamais des scarifications ? Parce que vous n'avez pas le
08:49même âge. C'est peut-être qu'à votre âge, vous n'êtes pas attiré par ce type de contenu,
08:52comme le sont les adolescents. Ça veut dire que les parents ne peuvent pas savoir ce que leurs
08:58ados regardent sur TikTok. C'est très difficile pour les parents de savoir. D'ailleurs, si vous
09:01mettez vous, si vous allez taper maintenant sur Instagram, TikTok, tiens, j'aimerais voir de la
09:06scarification, hashtag scarification, vous allez être bloqué par la plateforme. Puisque ces contenus
09:11sont censurés, soi-disant, donc quand vous les tapez, quand vous les cherchez, vous êtes bloqués.
09:16En revanche, quand vous ne les cherchez pas, et que vous êtes adolescent, ils vous les suggèrent.
09:22Alors, ce qu'on voit dans le document, et c'est aussi le propos, c'est de voir que les parents
09:26commencent à se révolter, à se rebeller et à vouloir agir. Donc, il y a cinq femmes qui parlent
09:33dans ce document. Vraiment, regardez-le en replay sur France 5, et qui ont décidé de s'attaquer,
09:40de porter plainte. Et on voit l'exemple en Espagne de cette femme qui réussit finalement à mobiliser
09:45beaucoup, beaucoup de parents. Mais est-ce que ce n'est pas le pot de terre contre le pot de fer ?
09:49On a l'impression qu'on ne peut rien contre ces algorithmes, contre ces Big Five, justement.
09:54Alors, je dirais que c'est plusieurs pots de terre contre le pot de fer. Parce qu'aujourd'hui,
09:59on est, à mon sens, à un tournant. C'est-à-dire que jusqu'à il y a peu, effectivement, les plateformes
10:04profitaient de l'ignorance de la plupart des parents. Et de toute cette génération de parents qui,
10:08n'ayant pas été confrontés à ce bain digital à 100% dès l'enfance, ou en tout cas l'adolescence,
10:16ne savaient pas, et ignoraient totalement. Aujourd'hui, ce n'est plus le cas. En tout cas,
10:21c'est en train de ne plus être le cas. Et les parents, très vite, il suffit qu'ils aient une
10:26petite brèche. Et là, ils font les recoupements. En général, les mamans, c'est ce qu'elles me
10:32disent toutes, et les papas, c'est qu'on sentait bien qu'il y avait quelque chose avec ce que
10:37voyait notre enfant sur les réseaux. Mais on se disait que ce n'était pas possible. Et aujourd'hui,
10:40nous, c'est ça. Avec le documentaire, c'est ce qu'Elisa tente de faire. C'est le lien en se disant
10:45« Mais si, en fait, il est possible aujourd'hui que des grandes plateformes qui ont pignon sur rue
10:51et qui font des chiffres astronomiques d'affaires, et bien aujourd'hui, nuisent à la santé de nos
10:59jeunes et des utilisateurs mineurs, sans que ça leur pose le moindre problème. »
11:02« Juste l'Australie qui veut imposer un âge minimum de 14 ans. Ça marche ou pas,
11:09où il y a forcément des contournements ? »
11:11« À mon sens, c'est une partie de la solution. Déjà, de se dire que les réseaux sociaux doivent
11:16être interdits en deçà d'un certain âge. Puisqu'il faut quand même voir deux choses. »
11:21« Mais est-ce que ça ne peut pas les rendre plus attractifs, l'interdit ? »
11:24« Encore faut-il contrôler l'âge. »
11:25« Certainement. Mais au moins, ça limitera quand même l'usage. Ça rentrera aussi dans l'inconscient
11:32collectif que les réseaux sociaux peuvent être dangereux. Et en tout cas, qu'il y a du coup une
11:36éducation à leur utilisation. Ce qui n'était pas le cas encore aujourd'hui. Comme vous le dites si
11:41bien, la plupart des gens voyaient les réseaux sociaux comme quelque chose de ludique et d'attractif.
11:46Aujourd'hui, il faut aussi mettre dans les données de l'équation la dangerosité des réseaux sociaux. »
11:50« Que c'est très dangereux. Vous, vous avez monté une association. C'est une association qui
11:54s'appelle « El Ghos Victim ». Vous défendez des parents qui veulent aujourd'hui se retourner
12:00contre TikTok. Le conseil qu'on peut donner aux parents, c'est quoi ? Parce qu'on est très
12:04démuni. L'adulte est seul avec son portable dans sa chambre. C'est compliqué de supprimer les
12:12portables. Comment on fait ? Communiquer avec son enfant. Être attentif. Regarder le film déjà,
12:19parce que c'est un bon support aussi pédagogique pour les parents, pour les écoles. Mais dans le
12:24doc, la jeune fille qui s'est suicidée, sa mère lui avait donné des horaires de portable, avait
12:32même verrouillé son portable avec un contrôle parental. La seule différence, c'est qu'elle a
12:38fait sauter tout ça. » On parle d'il y a trois ans, Stéphanie n'avait pas conscience des choses.
12:43Aujourd'hui, l'avantage, c'est que des paroles se lèvent sur ce sujet-là. À mon sens, effectivement,
12:49le documentaire est aussi une des clés, c'est-à-dire dialoguer avec le jeune, l'adolescent,
12:54voir un peu quel est son usage des réseaux sociaux, qu'est-ce qu'il voit, etc. Très vite,
12:58il va vous dire « Ah bah oui, ça, maman, papa, c'est pléthore. Ça, j'en vois plein, etc. » « Oui,
13:02mais t'es pas branché, maman. Tu connais rien, c'est pas ton époque, c'est pas grave. » C'est
13:06pour ça qu'il ne faut pas laisser les parents, ils ne peuvent pas s'en sortir seuls. Ils ont
13:10besoin d'aide. Ils sont dans une période aussi avec leur enfant adolescent où de toute façon,
13:14par essence, ils vont être en conflit avec. Donc là, ça rajoute du conflit supplémentaire à la
13:19maison. C'est « Ah, mais je ne veux pas que mon enfant se sente isolé, donc je vais lui donner.
13:24Mais en même temps, il va peut-être avoir accès à ses contenus. Comment je fais ? » Il y a une
13:29énorme pression sociale sur les parents pour donner un téléphone à leurs enfants. De plus
13:34en plus tôt. Vous voyez cette jeune fille qui s'est enfuie après que son père lui ait cassé son
13:38téléphone. C'est des histoires qui arrivent les unes après les autres. C'est toujours la même
13:43histoire. Le problème, c'est qu'il faut aussi aider les parents, leur dire « mobilisez-vous
13:48pour faire bouger aussi les institutions. » Là, à Noël, il y a plein d'adolescentes qui vont
13:52peut-être avoir un portable et découvrir tout ça. Et puis, on parle aussi du contrôle parental et
13:57de la possibilité des parents. Oui, mais vous avez la possibilité d'installer le contrôle
14:00parental, de vérifier ce que font vos enfants. Mais les enfants, ils ont aussi d'autres comptes.
14:05Aujourd'hui, juste avec une adresse mail, vous pouvez ouvrir un compte sur les réseaux sociaux
14:09sans qu'il n'y ait la moindre vérification de votre âge. Vous pouvez avoir 5 ans, vous pouvez
14:14avoir un réseau social librement. Moi, j'ai une amie qui s'est rendue compte que sa fille avait
14:20filmé le code qu'elle faisait pour bloquer son téléphone. Elle a filmé l'écran et donc ils sont
14:26très ingénieux. C'est pour ça que je pense aussi qu'une partie de la solution, c'est effectivement
14:31éduquer à tout ça et éduquer à la dangerosité des réseaux sociaux. C'est à voir vraiment,
14:37vraiment. En prise numérique, 5 femmes contre les Big Five, c'est sur France 5. C'est disponible
14:41en replay sur France.tv. J'espère que ce sera diffusé dans les écoles. Il est question que
14:46ce soit diffusé dans les écoles. Il est également question que ce soit diffusé à l'Assemblée
14:50nationale. Donc, on espère que ça va faire bouger les lignes. Bravo et on va suivre ça avec beaucoup
14:55d'intérêt. Merci à vous. Merci. Dans un instant, les débats.