7 MINUTES POUR COMPRENDRE - Faut-il bannir TikTok ?

  • il y a 6 mois
La Chambre américaine des représentants a largement adopté une loi qui oblige la maison-mère de Tiktok, Bytedance, à vendre sa filiale américaine sous peine d'être interdite. Ainsi, la question se pose en France, faut-il restreindre ou finalement bannir Tiktok ? Le 7 minutes pour comprendre

Category

🗞
News
Transcript
00:00 Avec nous, Mickaël Vallée, sénateur socialiste de Charente-Maritime.
00:08 Vous présidez la commission d'enquête sénatoriale sur la plateforme TikTok depuis juillet 2023.
00:13 Bonjour et merci d'être là face à Raphaël Grabli, le rédacteur en chef adjoint de BFM Business.
00:17 Bonjour Raphaël.
00:18 Et puis nous sommes avec Stéphanie Mistre.
00:20 Stéphanie, vous êtes la maman de Marie, une adolescente de 15 ans qui a mis fin à ses jours en septembre 2021,
00:26 après ce qu'on appelle un "revenge porn".
00:28 Pourquoi selon vous, Stéphanie, est-ce que TikTok porte une responsabilité dans la mort de votre fille ?
00:34 Je me suis rendu compte, bonjour déjà, bonjour à tout le monde.
00:40 Je me suis rendu compte après le départ de Marie en rentrant sur son téléphone,
00:46 de tous les contenus nocifs qu'elle avait pu recevoir suite à des recherches au départ sur de la perte de poids.
00:57 Et en fait, on a retrouvé un grand nombre de vidéos sur le suicide, des moyens de...
01:06 des chansons qui prônent le suicide, des contenus sur le suicide, de s'auto-mutiler,
01:14 que c'était une libération, qu'on se sentait mieux derrière.
01:17 Des contenus vraiment nocifs pour une adolescente qui se cherche,
01:22 qui subit du harcèlement et donc qui est dans une position de faiblesse.
01:26 Et en quoi, enfin pour moi, la nocivité de TikTok, c'est qu'en fait, il va chercher la fragilité des gens,
01:33 que ce soit des adultes, des adolescents ou des jeunes adultes,
01:37 il va chercher leur fragilité dans l'algorithme et à partir de là, il ne les lâche plus.
01:42 Alors ça, c'est très intéressant.
01:44 Vous avez décidé avec deux autres couples donc de créer un collectif
01:48 pour lutter contre ou essayer de lutter contre les dérives de TikTok
01:50 et ce collectif s'appelle "Algos Victimas".
01:53 Raphaël, elle fait allusion Stéphanie à l'algorithme.
01:57 Vous voulez bien nous expliquer pourquoi cet algorithme est mortifère ?
02:01 Alors, en fait, le problème, c'est qu'il va chercher à connaître chaque détail,
02:06 des goûts de chaque utilisateur en quelques, je ne vais pas dire quelques secondes,
02:10 quelques millisecondes.
02:11 C'est-à-dire que la première fois qu'on installe TikTok,
02:13 l'application va nous présenter des vidéos.
02:15 Si je passe 15 millisecondes sur une vidéo et si je passe 17 millisecondes sur une vidéo,
02:19 TikTok va se dire "Ah, elle a passé 17 millisecondes sur une vidéo, je vais lui en présenter".
02:23 Et c'est ce qu'on appelle, on connaît les bulles de filtre,
02:25 c'est-à-dire le fait de nous proposer des contenus avec lesquels on est en accord.
02:29 Là, on parle carrément de terrier de lapin,
02:31 c'est-à-dire que l'application va nous enfermer et va nous diffuser des contenus
02:35 en permanence pour approfondir et pour nous maintenir devant l'application.
02:39 Et donc TikTok, l'algorithme, est fait pour, on va dire,
02:42 absorber tous nos goûts ou nos aspérités en quelques millisecondes.
02:46 Le problème, c'est que quand, en l'occurrence,
02:48 on regarde des contenus qui peuvent être mortifères,
02:51 ces contenus vont être amplifiés de la même façon que n'importe quel autre contenu.
02:55 - Enfermement, finalement, c'est ce dont on parle, dans le mal-être.
02:58 - C'est pour ça, exactement.
02:59 C'est vraiment le terme qui est utilisé, terrier de lapin,
03:01 c'est-à-dire qu'on nous enferme dans une sorte de grotte
03:03 où on n'a plus que des contenus qui vont nous maintenir sur l'application.
03:07 - Le problème, vous avez prononcé le mot aussi,
03:09 ce n'est pas que l'algorithme, c'est les contenus.
03:12 C'est-à-dire, l'algorithme certes, mais comment se fait-il
03:15 qu'on puisse trouver encore sur TikTok ou sur Instagram
03:18 des contenus qui incitent au suicide, par exemple ?
03:20 - Il y a deux bouts, il y a l'algorithme et puis il y a la modération.
03:22 - Il n'y a pas de modération non plus ?
03:24 - La modération, elle est algorithmique, c'est-à-dire que ces entreprises,
03:27 mais là, le problème est le même pour Instagram, pour Facebook,
03:29 ces entreprises ont choisi d'avoir des milliards de utilisateurs
03:31 et de ne pas dépenser l'argent pour avoir des modérateurs.
03:33 - Stéphanie, vous vouliez intervenir ?
03:35 - Oui, en fait, ces contenus et ces modérateurs,
03:40 en fait, ils sont là pour tenir l'enfant en haleine
03:43 et pour faire engendrer de l'argent.
03:46 En fait, c'est ça qui est terrible.
03:48 C'est utiliser nos enfants pour faire de l'argent
03:51 sur leur santé physique et mentale.
03:53 C'est pour ça que je ne trouve pas ça normal,
03:56 l'attitude de TikTok et de tous ses réseaux sociaux.
03:59 Parce qu'un adolescent, quand il marque perte de poids,
04:03 ça veut dire que quoi ?
04:04 C'est pas qu'il a un problème mental, psychique.
04:07 Pourquoi ne pas lui renvoyer des images positives,
04:09 comme allons faire du sport, je ne sais pas, des programmes diététiques ?
04:14 Mais pourquoi renvoyer ce nocif tout le temps ?
04:17 C'est ça qui me percute et qui fait que pourquoi attaquer les enfants,
04:21 faire du business sur des enfants et rendre notre société,
04:27 nos enfants, dans un état de dépression quand même ?
04:30 Soyons clairs.
04:31 - Mickaël Vallée, c'est un monstre TikTok,
04:34 qui, vous allez dire, nous dépasse.
04:37 Est-ce qu'un régulateur peut répondre à ça ?
04:40 Est-ce que les députés français, les sénateurs français
04:43 peuvent répondre à ça par un texte efficace ?
04:47 - Alors d'abord, cette commission d'enquête, qui n'existe plus,
04:50 parce qu'une commission d'enquête, ça dure six mois,
04:52 en fait, elle a objectivé tout ce qui vient d'être exposé ici.
04:55 On est rentré dans les détails à l'initiative de Claude Malluret,
04:58 le président du groupe des indépendants, qui était le rapporteur
05:01 et qui a vraiment voulu pousser ce sujet-là.
05:04 Le régulateur, il existe en droit.
05:07 C'est-à-dire que vous avez différents textes juridiques,
05:09 dont un très important.
05:10 Ce n'est pas un européiste fervent qui vous le dit,
05:12 mais il se trouve qu'il faut gérer ça au niveau de l'Union européenne
05:15 et au niveau de grands ensembles pour pouvoir faire face à ces mastodontes.
05:18 Le règlement sur les services numériques,
05:20 dont vous entendez quelques effets régulièrement
05:23 de la part de la Commission européenne sur le fait qu'on essaye
05:25 de mettre au carré les gaffes.
05:27 - Oui, mais dans les faits.
05:28 - Oui, mais dans les faits, la possibilité maintenant existe de sanctionner.
05:34 La question de la modération et des régulateurs,
05:36 elle est regardée de près.
05:37 Et si les instances se rendent compte
05:40 qu'il n'y a pas assez de moyens mis là-dessus,
05:42 la question, c'est celle de la responsabilité de celui qui publie.
05:46 Parce que ce qu'il faut dire au public, le point saillant,
05:49 c'est qu'eux se considèrent comme de simples hébergeurs.
05:52 J'ai vu passer une vidéo qui incite à l'anorexie.
05:54 J'y suis pour rien, madame, je n'étais même pas au courant.
05:56 Alors qu'en fait, ils sont finalement des éditeurs.
05:59 Et toute la difficulté, elle est là.
06:00 Et ce qu'exprime cette dame,
06:02 qui est bien courageuse de prendre le taureau par les cornes
06:04 et de donner un témoignage personnel, c'est exactement cela.
06:08 Pour résumer avant, quand vous aviez un ordinateur dans le salon,
06:11 les parents pouvaient passer derrière
06:12 et voir ce que l'enfant était en train de faire.
06:14 Aujourd'hui, c'est dans la poche du gamin et c'est dans sa chambre.
06:16 Stéphanie, vous vouliez intervenir ou poser une question à monsieur Vallée ?
06:19 Oui, ce n'est pas parce qu'un enfant va aller regarder...
06:22 Je me permets, pardon, je réponds au monsieur.
06:24 Va aller par curiosité, au cas où, regarder un sujet
06:28 qu'on est obligé de lui envoyer des algorithmes toute la journée,
06:32 en cercle fermé, en version obsessionnelle.
06:36 Pas du tout.
06:37 Après, d'autre part, concernant, je reviens à ce que vous avez dit récemment,
06:42 les régulateurs, on a quand même le DSA depuis le mois d'août,
06:46 qui est censé contrôler et faire en sorte que TikTok
06:49 n'ait plus le droit d'envoyer des contenus nocifs et d'agir là-dessus.
06:53 Et d'autre part, j'ai envie de dire,
06:56 c'est la cause de l'hébergeur, certes,
07:00 mais en même temps, il y a un moment où il va falloir que les autorités,
07:03 il va falloir que la France, le gouvernement, prennent conscience
07:06 que là, on est devant une réalité avec assez de choses qui nous sont prouvées,
07:11 comme quoi les réseaux sont néfastes pour nos enfants.
07:14 Que ce soit les enfants des responsables, de tout le monde.
07:19 Il y a un souci, il y a un enfermement.
07:20 - Monsieur Vallée va vous répondre.
07:21 Le DSA, d'abord, c'est quoi ?
07:23 - C'est le règlement sur les services numériques.
07:24 C'est un vilain anglicisme que tout le monde utilise.
07:27 C'est le règlement sur les services numériques,
07:28 qui amène de nouvelles obligations.
07:30 Ce que vous dites, madame, c'est une question de conscientisation.
07:33 Quand vous dites aujourd'hui, il faut que les parents sachent
07:35 ce que les enfants regardent, c'est exactement ce qu'on dit dans le rapport,
07:38 où la sonnette d'alarme est tirée et on est les premiers à regretter
07:42 le manque de prise de conscience des autorités publiques
07:45 partout à travers l'Europe.
07:46 Et l'autre aspect extrêmement important de ce que vous faites,
07:49 c'est qu'il faut que les parents sachent qu'ils ont l'obligation,
07:52 leurs enfants sont des mineurs, ils ont l'obligation de regarder
07:55 le contenu de ce que les gamins ont dans leur poche.
07:57 Tout le monde est dépassé, parents compris,
08:00 parce que le mastodonte lui-même a eu une croissance exponentielle
08:02 depuis quatre-cinq ans.
08:03 - Sauf qu'il n'est pas dépassé chez lui, monsieur Vallée.
08:04 Vous êtes législateur, les Chinois eux-mêmes...
08:05 - Attendez, vous n'avez pas TikTok en face de vous.
08:08 - Non, mais vous êtes législateur.
08:10 Vous êtes juste législateur.
08:12 Les Chinois eux-mêmes trouvent le produit tellement nocif,
08:15 tellement addictif qu'ils ont décidé de le réguler et d'interdire
08:18 aux enfants de le regarder plus de 40 minutes par jour.
08:21 - Bien sûr.
08:22 - Pourquoi nous, en France...
08:23 - La France ne peut rien faire là-dessus, il faut quand même le rappeler.
08:25 - Pourquoi ?
08:26 - Parce que tout ça se fait au niveau européen.
08:27 La France n'a aucun pouvoir de régulation des géants du numérique.
08:30 Ça, ça se fait uniquement au niveau européen.
08:32 Et après, le jour où on veut bannir TikTok,
08:34 les responsables politiques européens, ils ne gardent pas TikTok par complaisance.
08:39 Il faut dire les choses franchement aussi.
08:41 C'est que le jour où on bannit TikTok, qu'est-ce qu'on a ?
08:43 On a des mesures de rétorsion de la part de la Chine.
08:46 Je pense qu'avant de revendre des bouteilles de Bordeaux en Chine,
08:48 vous allez pouvoir attendre.
08:49 Le luxe, ça va être très compliqué.
08:51 Donc c'est aussi, malheureusement, on a vu ce qui s'est passé avec les agriculteurs.
08:54 On va handicaper aussi les agriculteurs.
08:55 Et donc, simplement pour rappeler que tout ça, c'est un débat aussi qui est géopolitique et économique.
09:00 - Et il est sans fin. On aurait aimé avoir davantage de temps.
09:02 Stéphanie, on est obligé de s'arrêter. Je suis désolé.
09:05 - Merci à tous les trois. Les 7 minutes sont écoulées.
09:07 - Voilà, malheureusement.
09:08 - C'est la promesse, ces 7 minutes.
09:09 - Merci pour ma cour.
09:10 - Dans un instant, on va parler des déficits publics avec Nicolas 12,
09:14 5,5 % en 2023, 5,5 % du PIB.
09:17 Et puis ensuite, ce sera le face-à-face d'Apolline Demalerbe sur BFM TV et RMC.
09:23 Vous restez avec nous. On revient dans un tout petit instant.
09:26 [Musique]

Recommandée