Face aux accusations, TikTok entendu par le Sénat

  • l’année dernière
Le 8 juin, Marlène Masure, directrice des opérations France, Benelux et Europe du Sud de Tiktok, répondait aux questions posées par la commission d’enquête du Sénat sur TikTok.


Après l’audition de nombreux spécialistes (psychologues, spécialistes du numérique, de la géopolitique, …), et les accusations qui pèsent sur le réseau social, les sénateurs entendent les principaux intéressés : les représentants de TikTok. L’enjeu est d’obtenir un maximum de précisions relatives à la gestion des données personnelles récoltées par l’application, qu’il s’agisse de leur conservation ou transfert, ainsi qu’à la politique de la plateforme en termes de modération de contenu, ou encore de comprendre ses liens avec le gouvernement chinois.

Pour suivre toute l'actualité politique et parlementaire, abonnez-vous à notre chaîne YouTube : https://www.youtube.com/user/publicsenat?sub_confirmation=1

Notre site internet : http://www.publicsenat.fr

Abonnez-vous à notre newsletter : https://urlz.fr/iinC 

Suivez-nous sur les réseaux sociaux
Facebook : https://www.facebook.com/publicsenat
Twitter : https://twitter.com/publicsenat
Instagram : https://instagram.com/publicsenat
LinkedIn : https://www.linkedin.com/company/2996809/
Transcript
00:00 Le sujet du bien-être numérique est important pour nous, il est important pour toutes les plateformes.
00:10 C'est un sujet sur lequel on passe du temps, on réfléchit beaucoup à toutes les solutions.
00:17 Une des solutions sur lesquelles je peux agir, c'est de m'assurer que dans nos gestes,
00:25 à l'échelle de la France, on va s'assurer de créer du contenu le plus qualitatif possible
00:32 pour que l'expérience sur la plateforme soit la plus génératrice de valeurs.
00:39 Quand on travaille sur promouvoir un événement autour du livre, autour du cinéma,
00:48 autour du sport, comme on le fait en ce moment avec Roland Garros, comme on le fera avec le Tour de France,
00:55 comme on le fait avec beaucoup d'autres événements sportifs, on s'assure en tout cas que la qualité des contenus est à la hauteur.
01:01 C'est de la langue de bois, excusez-moi. La réalité, c'est ça, la réalité, c'est pas la qualité des contenus.
01:08 Il y a une petite partie, c'est du pâté d'alouette et de cheval, il y a une petite partie d'alouette et puis le reste c'est du cheval.
01:14 Le reste c'est de la vidéo qui défile, c'est de l'addiction, c'est des mômes qui dorment pas, c'est des troubles du développement cognitif.
01:23 Ne me dites pas que vous allez régler ça en augmentant la qualité du contenu.
01:28 Pourquoi ne prenez-vous pas l'exemple de la Chine pour une fois et pourquoi ne limitez-vous pas,
01:35 comme le tabac est interdit aux enfants, l'alcool est interdit en vente, etc.
01:39 Pourquoi ne limitez-vous pas, ce serait pas une nouveauté, l'utilisation de votre plateforme,
01:46 si ce n'est pour des raisons d'augmenter le nombre d'utilisateurs, donc d'augmenter les recettes.
01:52 Permettez-moi d'être en désaccord avec votre premier point parce que c'est mon travail.
01:58 Donc en fait, pour moi, c'est important d'améliorer la qualité et de continuer à soutenir des moments importants à l'échelle du pays
02:06 et de nous assurer que la qualité des contenus soit la plus importante possible.
02:11 Je pense que ça, c'est un premier élément de réponse.
02:16 Ensuite, on a beaucoup de fonctionnalités qui sont à disposition au sein de la plateforme
02:22 et sur lesquelles, j'en ai parlé un petit peu au début, on doit faire un meilleur travail de communication et le mettre à disposition.
02:29 Les 60 minutes auxquelles vous faites référence pour les moins de 18 ans,
02:32 TikTok est la seule plateforme à avoir pris cette initiative.
02:36 On n'a pas eu beaucoup de félicitations pour ça, mais on trouve que quand même, c'est une super initiative.
02:43 Et aujourd'hui, trois quarts des moins de 18 ans ont une fonctionnalité de gestion de temps d'écran qui est activée sur leur plateforme.
02:52 Ça veut dire que ça ne vous empêche pas effectivement de continuer à vivre l'expérience sur la plateforme.
03:01 Mais en tout cas, c'est un message important qui vous fait réfléchir sur quel est le temps que vous êtes prêt à accorder à cette expérience sur la plateforme.
03:09 Donc, les fonctionnalités, aujourd'hui, vous permettent d'être en contrôle de ce temps d'écran.
03:15 On a le mode connexion famille sur lequel on veut aussi continuer à plus communiquer parce qu'il est extrêmement puissant.
03:21 Il permet aux parents d'avoir des tableaux de bord chaque semaine sur le temps d'écran de leurs enfants, de contrôler le temps d'écran par jour.
03:35 C'est-à-dire que si vous voulez donner plus de temps le mercredi que le mardi, vous pouvez le faire, de vous assurer que vos enfants communiquent uniquement avec leurs amis, etc.
03:44 Donc, il y a beaucoup de choses qu'on peut faire par l'intermédiaire des parents et on a besoin de construire cette relation avec les parents aussi pour qu'ils soient nos meilleurs alliés.
03:52 Donc, les outils sont à disposition sur la plateforme et on doit effectivement s'assurer qu'on en fasse un meilleur usage.
04:01 Vous nous dites tout à l'heure que les poussées de contenu représentent une goutte d'eau par rapport à l'ensemble de l'utilisation.
04:15 Et là, vous nous dites qu'on est en train de travailler sur l'amélioration des contenus pour que les expériences soient plus enrichissantes, etc.
04:22 Vous n'allez pas me convaincre.
04:25 Deuxièmement, vous me parlez du contrôle parental.
04:28 Si vous mettez cet accent sur le contrôle parental, c'est justement parce qu'il y a des problèmes.
04:34 Et moi, ce que je pense, c'est que les applications comme la vôtre, elles ne devraient pas se fier sur le contrôle parental pour des milliers de raisons, mais pour une notamment,
04:42 et vous êtes certainement beaucoup plus au fait que moi de ça, c'est que ça introduit une ségrégation sociale évidente.
04:49 Les parents au CSP+ sont beaucoup plus contrôleurs des applications de leurs enfants, à commencer d'ailleurs par les responsables des grandes plateformes qui interdisent très souvent à leurs enfants carrément d'utiliser les écrans.
05:02 Mais en tout cas, les CSP+ sont infiniment plus vigilants que les CSP-.
05:08 Par conséquent, vous introduisez une discrimination sociale en faisant ça considérable, vous la renforcez.
05:14 Pour moi, et c'est pour ça que je vous demande, par exemple, Nintendo le fait, vous dites que l'on est les seuls à le faire, Nintendo le fait d'une façon plus switch aussi.
05:22 Sur les 60 minutes ?
05:24 Tant qu'il n'y aura pas une protection by design de l'application sur le temps d'utilisation ou sur d'autres choses, tout le reste, excusez-moi, mais ça n'est pas sérieux.
05:35 Le safety by design, il commence par le 60 minutes par jour pour tous les moins de 18 ans. Vous n'avez pas d'autres plateformes aujourd'hui qui le proposent.
05:45 Vous avez mesuré combien ça arrête au bout de 60 minutes ?
05:48 En tout cas, ce que je peux vous dire, c'est que trois quarts des moins de 18 ans conservent cette fonctionnalité, ne la désactivent pas. Donc c'est énorme, c'est significatif.
05:58 Mais ce qui compte, c'est le résultat. C'est là-dessus que je voulais vous interroger. Techniquement, je pense vraiment que vous avez la possibilité de savoir combien ça arrête.
06:08 D'abord, ne serait-ce que d'un point de vue des questions de pouvoir faire valoir à vos annonceurs comment fonctionnent les utilisateurs.
06:15 C'est fondamental pour vous de savoir comment se comportent vos consommateurs, comme pour toute entreprise et pas uniquement dans le domaine de la technologie.
06:23 Donc moi, j'aimerais savoir, s'il le faut, vous pouvez nous le dire par écrit après coup, mais il n'y en a que 25 % qui suppriment cette possibilité d'être informé au bout de 60 minutes.
06:37 Mais combien ça arrête dans le quart d'heure, mettons, qui suit le... puisque les neuropsychologues expliquent souvent que ce n'est pas sur le moment même, c'est parce qu'on sait que ça va s'arrêter.
06:48 Donc on a un petit laps de temps supplémentaire. Après, on s'arrête comme quand on dit tu vas arrêter la télé, ce n'est jamais sur le moment. C'est rarement sur le moment.
06:55 Est-ce que vous avez la possibilité technique, oui ou non, de nous dire plus tard s'il le faut, combien ça arrête au bout des 60 minutes ou presque ?
07:03 Ça me semble important parce que mettre les 60 minutes pour dire... Enfin, vous savez, il y a les dix commandements depuis 2000 ans et pour autant, il y a toujours des gens qui tuent.
07:12 Donc ce qui est intéressant, c'est de savoir ce que ça produit derrière. Donc si vous avez cette information, techniquement, nous sommes preneurs.
07:19 Absolument. Je pense même que ça peut aider à objectiver les choses.
07:22 On reviendra vers vous, effectivement, si nous reviendrons vers vous.
07:25 Maintenant, puisque vous nous répondez sur ces questions, je voudrais les prendre en auto-noir et puis pour essayer de faire un parallèle et nous faire comprendre ceux qui suivent nos travaux.
07:34 Si un enfant qu'on a dans son entourage se met à s'enfermer dans sa chambre 12 heures par jour au bout d'un moment pour relire,
07:44 tant qu'il est déjà lu, tout Proust, puisqu'on dit toujours relire Proust, est-ce qu'on laisse un gamin s'enfermer dans sa chambre pour relire Proust 12 heures par jour tout un été ?
07:55 Vous n'êtes pas psychologue clinicienne, mais est-ce qu'on peut admettre entre nous qu'il y a un moment où on lui propose d'aller prendre l'air ?
08:03 Je ne sais pas combien de temps on admet qu'un gamin s'enferme et se met à lire de la grande littérature.
08:12 Il arrive un moment où ça devient acceptable. Au regard de ce que nous font remonter les psychologues cliniciens,
08:19 au regard, c'est du qualitatif et pas du quantitatif ou pas de l'objectif et statistique,
08:25 mais au regard de chacun dans nos circonscriptions de ce que peuvent nous raconter des enseignants ou des personnes chargées de l'encadrer des enfants dans les collèges par exemple.
08:34 Vous avez des familles, et ça revient souvent, enfin en tout cas moi c'est ma perception,
08:40 où vous avez des familles qui lorsqu'elles sont invitées à venir s'expliquer avec les enseignants sur la difficulté du comportement d'un enfant en classe ou d'un enfant qui ne va pas bien,
08:48 les familles vous expliquent qu'ils ne peuvent pas supprimer l'application. Ils ne peuvent pas, ils ne savent pas gérer la réaction de l'enfant.
08:56 C'est-à-dire que c'est ingérable de supprimer, alors on va dire les réseaux sociaux, seulement nous n'y pouvons rien si celui qui est en pleine expansion
09:05 et qui est sur quasiment tous les téléphones des lycéens et/ou des collégiens, quand nous avons ici des visites au Sénat,
09:13 au Sénat ça nous arrive souvent d'accueillir des scolaires de nos circonscriptions, moi depuis trois mois je pose la question systématiquement, qui n'a pas TikTok ?
09:20 Le gamin, celui qui n'a pas n'ose même pas lever le doigt. Mais bon, en gros tout le monde a TikTok, mais à la rigueur tant mieux, jusque là tout va bien.
09:29 Donc ma question c'est, le 1h je comprends, mais à partir de combien de temps vous pouvez admettre que c'est pas tenable ?
09:37 Et donc est-ce que 4h par jour c'est tenable ? Est-ce que 3h par jour c'est tenable ? Qu'est-ce qui ne vous donnerait pas le beau rôle de dire "nous on coupe" au bout de tant de temps ?
09:51 Ces 60 minutes sont issues d'études, c'est-à-dire qu'en fait on n'a pas décidé, on ne s'est pas réveillé un matin en se disant "60 minutes ça paraît être un chiffre rond, faisons ça".
10:01 En fait il y a eu beaucoup d'études avec des experts, des médecins, des psychiatres, qui ont fait cette recommandation effectivement sur un 60 minutes par jour.
10:10 Ce qui se passe c'est que quand le mineur va passer cette étape des 60 minutes, à 100 minutes il va recevoir une nouvelle notification qui va lui dire "vraiment, faudrait vraiment aller sur tes outils de gestion du temps et commencer à contrôler ton temps".
10:30 Donc en fait on a cette démarche proactive de renvoyer des messages.
10:34 On a aussi un sujet de mise en sourdine des notifications, puisque les notifications sont aussi une forme d'appel à aller consommer.
10:44 Donc en fait on met en sourdine pour les moins de 15 ans, de 21h jusqu'à 8h je crois le matin, les notifications.
10:55 Est-ce que c'est en série, si je peux le dire comme ça, c'est pas en option ?
10:59 C'est par défaut.
11:00 C'est automatique et il ne voit pas en sourdine, pardon, excusez-moi mon ignorance, il ne le voit pas apparaître sur l'écran ?
11:07 Voilà, exactement.
11:08 D'accord.
11:09 Et pour les 16-17 ans c'est de 22h à 8h.
11:12 Donc en fait on a aussi agi sur cette notion de notification pour que la notification ne soit pas un appel à venir se reconnecter sur le téléphone.
11:24 Donc en fait on a des gestes pour essayer de renvoyer et de rappeler l'existence de ces outils.
11:31 Je suis assez d'accord avec vous sur le fait qu'on sera plus fort si la démarche elle vient du mineur que si elle est imposée par les parents.
11:38 Néanmoins, les outils de gestion du temps et le mode connexion famille, il est quand même très intuitif sur la plateforme.
11:44 Donc on a la conviction que ça ne s'adresse pas simplement à un CSP+.
11:49 C'est qu'aujourd'hui jumeler un appareil c'est comme quand on jumelle un téléphone avec sa voiture ou que jumeler deux appareils c'est quand même pas complètement sorcier.
11:59 Par contre il faut que les gens le sachent et il faut que les gens sachent que ce mode connexion famille existe.
12:05 Et donc c'est aussi pour ça que nous on investit et qu'on fait des campagnes marketing pour ça.
12:09 Au sein de l'application on a aussi des campagnes avec des créateurs qui vont faire la promotion de ces outils techniques de gestion du temps.
12:19 Donc ça c'est des choses dans le cadre de nos campagnes marketing où nous on va investir, on va acheter une prestation de service à un créateur pour qu'il explique effectivement que ces outils existent.
12:30 Après interdire, c'est compliqué d'avoir cette posture là.
12:34 C'est à dire qu'en fait on est quand même dans un pays de liberté.
12:39 Si la loi l'impose bien sûr qu'on se conformera à la loi.
12:43 Mais c'est compliqué en termes de posture de dire "TikTok va être accusé de censure chinoise".
12:51 Je ne sais pas quelle est notre posture, je ne sais pas comment vous répondre en fait à cette question.
12:55 Je ne sais pas si on peut interdire réellement ou imposer.
12:58 Mais en fait on est pour moi dans un rôle d'éducation et d'accompagnement qui est notre rôle.
13:03 Le fait d'interdire ou de limiter.
13:06 Si de vous même vous décidez de ne plus émettre comme l'ORTF à l'époque à partir de 23h, personne ne pourra vous le reprocher.
13:14 Quelle serait la posture de TikTok vis-à-vis des autres plateformes ?
13:17 Je poserai bien la question aux autres plateformes mais c'est vous que j'ai là aujourd'hui.
13:22 Pour terminer là-dessus simplement, je regarde des éléments que vous pourriez nous apporter par écrit.
13:28 Je vous cite le travail d'une journaliste qui a publié un ouvrage, comme vous le savez, en mars 2023 sur TikTok.
13:37 Nous avons à ce stade, page 161, nous avons à ce stade très peu d'informations sur la matière dont le bouleversement que représente TikTok
13:43 affecte les utilisateurs, leur image d'eux-mêmes ou leur capacité de concentration.
13:48 Pour citer plusieurs points d'interrogation en récurrence qui concernent les réseaux sociaux.
13:52 A la fin de l'année 2021, les Facebook Files révélés par France Hogan avaient permis de lever un coin du voile sur l'impact d'Instagram sur les jeunes.
13:59 L'étude interne réalisée par Facebook révélait ainsi qu'Instagram avait un impact nocif sur l'image corporelle et bien-être des adolescentes.
14:06 Si des études similaires ont peut-être été menées par TikTok, elles n'ont pas à ce stade été révélées.
14:12 Vous venez vous-même de dire que le 60 minutes ne venait pas de nulle part.
14:15 Pourriez-vous nous indiquer les études sur lesquelles vous avez fondé votre décision ? La bibliographie, quoi.
14:21 Oui, sans doute. Je pense qu'on peut vous donner les éléments, absolument.
14:42 Les défis dangereux.
14:45 Ça défraie la chronique régulièrement.
14:50 A chaque fois, on dit "ah ben oui, on n'avait pas vu, on va supprimer ça".
14:55 Et puis, six mois plus tard, ça recommence, ou trois mois plus tard, avec un autre défi.
15:00 Vous avez vu ce qui s'est passé en Italie, je suppose, avec la fillette qui est décédée, jeu du foulard.
15:07 Il y a eu pas mal d'autres affaires de ce type, et notamment en France.
15:13 Et à chaque fois, TikTok dit "ah oui, excusez-nous, on va faire très attention".
15:19 Et aujourd'hui, ça continue.
15:22 Mise à jour le 8 juin 2023, sur 20 minutes, le journal.
15:29 Le défi TikTok a dégénéré. Le 29 mars dernier a sergi.
15:33 Plusieurs adolescents ont décidé de sonner aux portes d'inconnus avant de partir en courant, le tout en filmant la scène, pour les besoins d'une sonnerie partie.
15:39 Un jeu lancé sur les réseaux sociaux. Je ne sais pas si c'est le vote, mais je crois que c'est le vote.
15:45 Mais comme le raconte la Gazette du Val d'Oise, ce mercredi, des habitants n'ont visiblement pas apprécié leur petit manège, et le ton est monté.
15:51 Des jeunes ont alors agressé trois riverains. Deux d'entre eux auraient été victimes de coups de poing. Un troisième s'est fracturé la cheville.
15:58 Des jeunes suspects ont pris la fuite avant l'arrivée des policiers, etc.
16:02 D'après nos confrères, des vidéos retrouvées dans les téléphones montrent notamment l'agression d'un riverain.
16:08 Les jeunes qui auraient reconnu en partie les faits ont été présentés à un juge des affronts.
16:12 Vous en êtes où sur les défis dangereux ?
16:17 Alors sur les défis dangereux, je pense que...
16:22 Évidemment, nos équipes de modération sont mobilisées dès qu'un défi émerge.
16:30 On a la chance d'avoir des associations avec lesquelles on travaille qui sont extrêmement utiles dans la gestion et la visibilité,
16:40 la prise de conscience de l'existence de ces défis. On a parlé de e-enfance.
16:46 E-enfance fait partie de ces signaleurs de confiance avec lesquels on travaille. On en a beaucoup d'autres.
16:53 Et je dirais que ce qui fait notre force, c'est aussi notre capacité à réagir très rapidement sur ces sujets-là,
17:02 et puis d'apprendre et de fournir des ressources pour accompagner les jeunes sur la dangerosité de ces défis.
17:11 Alors le jeu des sonneries est peut-être un peu moins grave que le jeu du foulard, mais en tout cas,
17:16 le jeu du foulard, c'est quelque chose sur lequel on a appris. Et quand vous tapez aujourd'hui sur l'application "jeu du foulard",
17:23 vous allez avoir des ressources qui vous sont proposées, des informations qui vont vous expliquer pourquoi c'est un défi dangereux,
17:31 pourquoi il ne faut pas le faire. Et donc, vous n'avez pas accès évidemment à des contenus ou à des jeunes en train de faire le jeu du foulard,
17:37 mais vous avez en tout cas toute une explication de "oui, c'est une bêtise". Donc nous, notre enjeu, il est évidemment de fournir ce type de ressources
17:48 sur chaque jeu dangereux identifié et d'être le plus rapide à supprimer ces contenus de la plateforme.
17:54 Et ça, c'est une obsession de nos équipes de modération pour protéger évidemment les mineurs.
18:01 Merci. Le filtre "bold glamour", je ne vous fais pas de dessin, vous connaissez ça aussi bien que moi, mieux que moi.
18:11 La présidente de l'association Yonfance, avec laquelle d'ailleurs je crois que vous travaillez notamment,
18:16 s'interroge dans un article du Figaro sur le fait d'interdire ces filtres aux mineurs. On en connaît toutes les conséquences.
18:24 Quelle est votre position là-dessus ? Alors, le sujet des filtres est un sujet extrêmement intéressant parce qu'au-delà des filtres beauté
18:38 sur lesquels on peut avoir un point de vue personnel, je dirais que ce n'est pas l'usage de la plateforme.
18:50 C'est-à-dire qu'en fait, la plateforme TikTok, le principe, c'est l'authenticité, c'est-à-dire de faire des contenus où on va raconter une histoire authentique
19:00 et on va se montrer sous un jour authentique. Si on est dans une posture ou dans un jeu, ce n'est pas un contenu qui devient viral,
19:08 parce que ce n'est pas ce que les gens attendent. Donc c'est vrai que le sujet des filtres sur les vidéos, il est probablement moins impactant que sur de la photo.
19:19 Mais je dirais que ces filtres beauté ne sont probablement pas des sujets de popularité ou de viralité réellement sur la plateforme.
19:30 Ce n'est pas ce qui va générer le plus de vues sur la plateforme. Et le sujet de l'effet, il est important pour nous pour améliorer une expérience.
19:40 Et cette amélioration d'expérience, elle nous permet de plutôt nous transposer dans un univers, de nous transposer dans une thématique,
19:50 plus que sur des sujets finalement de beauté.
20:00 Probablement, il faudrait que je vérifie s'il est toujours sur la plateforme. Je dirais que pour qu'on le supprime, il faudrait qu'on ait une raison majeure.
20:10 Après, à titre personnel, je ne suis pas complètement fan de ce filtre, mais ça n'engage que moi.
20:16 Donc tant qu'il ne crée pas de dégâts ou de dommages ou qu'il n'y a pas de plaintes, je ne sais pas trop comment répondre à votre question à vrai dire.
20:26 Mais en tout cas, ce que je peux vous dire, c'est que la finalité sur Tik Tok, ce n'est pas de ce qu'on appelle le beauty shot.
20:32 C'est à dire que c'est on ne vient pas sur Tik Tok et on n'est pas populaire sur Tik Tok parce qu'on fait des vidéos où on est joli ou des photos parce qu'on est joli.
20:40 J'ai l'impression que pour vous, tout le monde, il est beau, tout le monde, il est gentil.
20:48 Les psychologues, les chirurgiens, esthétiques, etc. nous disent un problème majeur.
20:54 Il y a maintenant plus d'adolescents de 18 à 20 ans qui consultent, qui font des consultations de chirurgie esthétique que de personnes âgées.
21:03 Les psychologues nous disent que l'époque de construction identitaire, l'adolescence qui est une époque de construction identitaire,
21:13 entraîne à partir de ces schémas, de ces filtres, des problèmes majeurs de dysmorphophobie, sans compter les problèmes de dépression, etc.
21:22 C'est un vrai fléau. J'ai l'impression que vous regardez ça depuis votre salle, depuis votre bureau à Tik Tok, en regardant d'une façon complètement théorique.
21:34 Je peux vous dire que nous, pas seulement d'ailleurs avec les associations, etc., mais dans notre boulot de sénateur auprès de la population en général,
21:43 on est en permanence... Le problème des réseaux sociaux et de Tik Tok en particulier est très très très fréquemment au point que,
21:53 comment dire, mis en exergue et vous ne vous rendez pas compte du nombre de personnes... Supposons que ça représente 1%, 2%, 3%.
22:02 Quand vous avez 20 millions d'utilisateurs en France, c'est des centaines de milliers de personnes. Je crois que vous ne vous rendez pas compte de ça.
22:09 Sur les filtres, sur les identifications à des... comment dire... à des canons de beauté, etc.
22:23 C'est un vrai... Moi, je vous dis, mon sentiment, c'est que c'est un vrai fléau et que vous n'avez pas l'air de le mesurer.
22:30 En fait, je...
22:31 Et que je suis étonné que "Bowl de l'amour" soit toujours, et ce genre de filtre, soit toujours sur l'appli.
22:37 Alors permettez-moi juste de vérifier parce que j'en suis pas complètement certaine. Donc on va vérifier s'il est toujours sur l'application.
22:45 Après, ce que je veux juste vous dire, c'est qu'en fait, sur Tik Tok, on vient pour se divertir, on vient pour s'amuser.
22:52 Et on n'est pas sur une vidéo où on va se "s'embellir" si elle n'a pas d'histoire, elle n'a pas d'intérêt, elle ne sera pas virale.
23:02 Donc en fait, le filtre en tant que tel, il est intéressant s'il apporte une expérience.
23:07 Donc on a des filtres qui sont des filtres de quiz, on a des filtres qui nous permettent d'enfiler le casque des Daft Punk et de se mettre en scène.
23:16 Quand il y a une notion de gamification, ces filtres ont une efficacité virale.
23:21 Un filtre qui embellit n'a pas vraiment d'histoire à raconter.
23:27 Donc en termes de viralité, je questionne la viralité de ces filtres. Mais bien sûr qu'on ne minimise pas l'impact de ça.
23:35 Vous savez, par parallélisme des formes, le milieu de la mode, il y a une quinzaine d'années, a fini par se sentir dans l'obligation de mettre en œuvre des codes de bonne conduite
23:45 sur le fait de ne pas mettre en avant des mannequins dont la maigreur extrême viendrait imprimer des canons de beauté qui font du dégât après psychologiquement.
23:55 Donc la prise de conscience et la possibilité de considérer qu'on a un rôle volontariste sur la diffusion de tel ou tel type de valeurs
24:04 pourrait parfaitement, et personne ne vous le reprocherait au contraire, venir spontanément.
24:09 Et si ça n'est pas à une plateforme de prendre la décision seule, de crainte que les annonceurs ou les abonnés aillent voir ailleurs,
24:18 il y a une responsabilité sociale qui est énorme et qui est le corollaire de votre succès, qui est le pendant de votre succès.
24:28 Monsieur le rapporteur, il vérifie Gamebold.
24:34 Alors les problèmes de désinformation, Newsguard, que vous connaissez probablement, note une forte présence de contenu faux sur TikTok.
24:46 20% des vidéos apparaissant dans les résultats de recherche du réseau TikTok sur les principaux sujets d'actualité contiennent de la mésinformation, d'après Newsguard.
24:54 Selon Shin Labé, l'explication tiendrait à la modération majoritairement faite par l'intelligence artificielle et un algorithme qui valoriserait les contenus faisant réagir.
25:03 Évidemment, vous n'êtes pas les seuls à ça, mais enfin, vous l'êtes. Et donc davantage les contenus faux.
25:11 Qu'est-ce que vous en pensez ? Deuxième question, en s'agissant de la modération des contenus, pourquoi a-t-il fallu attendre les signalements de Newsguard pour que soient retirés les contenus glorifiant les actes d'exaction du groupe Wagner,
25:23 qui contrevenait pourtant clairement aux règles d'utilisation de TikTok ? Cette défaillance, elle aussi, s'explique-t-elle par le recours à une modération par l'intelligence artificielle et non à une modération humaine ?
25:35 Voilà, deux questions. Oui, Michael Vallée montre cette information dans une autre audition. Newsguard, 40 minutes pour tomber sur une fausse info.
25:55 Alors, je ne connais pas cette étude de Newsguard. Je n'en connais pas la fiabilité concrètement. Ce que je peux vous dire, c'est qu'en matière de désinformation, c'est...
26:07 Je vous parlais au départ de nos règles communautaires. La désinformation fait partie de ces règles communautaires hyper claires qu'on n'autorise pas la désinformation.
26:16 Et donc, à ce titre, les équipes de modération suppriment les contenus qui sont de la désinformation. On travaille avec des vérificateurs de faits qui font partie de l'International Fact-Checking Network,
26:30 dont l'AFP, qui nous permettent de vérifier un certain nombre de faits. Donc aujourd'hui, on travaille main dans la main avec l'AFP, notamment, pour nous assurer que les contenus sont des contenus justes et vrais.
26:48 Et effectivement, on supprime tous les contenus qui sont de l'ordre de la désinformation. On a pris un certain nombre d'actions au moment de la guerre en Ukraine aussi,
26:58 qui sont des actions intéressantes, qui permettent de labelliser les comptes de médias qui sont contrôlés par l'État. Donc aujourd'hui, on n'en a plus de 120 de comptes médias
27:11 qui sont labellisés médias contrôlés par l'État, qui permettent aux utilisateurs d'avoir aussi une lecture plus juste des informations qui sont diffusées par ces comptes.
27:24 China Daily fait partie de ces comptes. Sur la guerre en Ukraine et sur le sujet de la Russie en particulier, TikTok a été la première plateforme à bannir, suite à la demande de l'UE, Sputnik et Russia Today.
27:44 Donc on a eu une action directe de bannissement de ces comptes, et la plus rapide parmi toutes les plateformes. Donc je crois qu'on montre quand même par un certain nombre de gestes
27:58 notre mobilisation sur le sujet. J'ai probablement des chiffres à vous partager sur le nombre de contenus de fake news qui ont été supprimés.
28:12 En termes de désinformation, on a supprimé 41 191 vidéos qui étaient des fake news, dont 78% qui ont été identifiées de manière proactive.
28:27 Et nos vérificateurs de faits, on a plus d'une trentaine de vérificateurs de faits qui vérifient l'ensemble de ces faits.
28:36 Ce qui se passe aussi, c'est que sur certaines vidéos sur lesquelles on a des doutes et on n'arrive pas à un accord avec les vérificateurs de faits,
28:44 on fait apparaître une mention qui dit « partageons des faits non confirmés ». Donc on a aussi la capacité de faire apparaître ces mentions-là.
28:59 Donc on est particulièrement actifs. Et puis on est très sensibles aussi dans des périodes sensibles comme les périodes d'élections, par exemple,
29:11 les élections présidentielles. On a travaillé avec le SIG pour nous assurer qu'on fournissait toutes les informations utiles aux utilisateurs
29:19 avec un guide électoral, avec des informations sur où voter, comment voter, comment faire une procuration, etc., qui semble-t-il a été utile,
29:29 puisqu'on a eu plus d'un million trois de personnes qui ont utilisé ces ressources. Donc voilà, on est vraiment mobilisés sur le sujet.
29:38 Et c'est vraiment un sujet qui est pris au sérieux. Donc je ne sais pas quels sont ces stats et d'où sort cette étude,
29:48 mais en tout cas, je peux vous dire qu'en termes de procédures et de partenaires, on est plutôt assez bien équipés.
29:56 Merci. En 2021, le groupement des associations européennes de défense des consommateurs a déposé une plainte auprès de la Commission européenne
30:06 contre TikTok. Elle lui reprochait notamment d'exposer les utilisateurs mineurs à des vidéos sexuellement suggestives dès leur inscription.
30:14 Est-ce que vous savez où en est cette plainte ? Je ne sais pas où en est cette plainte. En tout cas, je peux vous dire que ce type de vidéo
30:21 est contraire à nos règles communautaires et donc modérée, et que ça fait partie des premiers contenus qui vont être supprimés par l'algorithme,
30:29 puisque l'algorithme va identifier très rapidement que ces contenus sont non conformes. Donc je ne peux pas vous dire où on en est sur cette plainte.
30:39 Mais ce que je peux vous dire, c'est qu'en tout cas, ces contenus ne sont absolument pas acceptables.
30:44 Ça dépend de ce qu'on appelle sexuellement suggestif, parce que quand je suis... Je n'étais pas un utilisateur de TikTok,
30:51 mais j'y suis allé pour les besoins de l'enquête. Je peux vous dire que quand vous swipez les contenus sexuellement suggestifs,
30:58 tout dépend de la définition. Mais selon ma définition, ils arrivent extrêmement vite. Et ils sont là.
31:07 Écoutez, j'en ai pas eu dans mon flux, mais je veux bien vous croire. À ce moment-là, je vous encourage à aller signaler,
31:15 à vous appuyer sur la vidéo pendant une à deux secondes et vous pouvez signaler. Et vous avez une petite case qui s'appelle nudité. Et voilà.
31:27 C'est parfois plus suggestif sexuellement quand c'est pas de la nudité totale que quand c'en est.
31:34 Et je reconnais que c'est pas de la nudité totale, mais ça veut pas dire que c'est moins suggestif.
31:38 Et c'est pas acceptable. Donc effectivement, ça doit être modéré.
31:43 Est-ce que vous vendez vos données et à qui?
31:48 Non, nous ne vendons pas nos données. Les données sont utilisées uniquement pour nos propres besoins, servir nos campagnes publicitaires
31:56 ou travailler l'expérience utilisateur.
31:59 Est-ce que la pratique du shadow banning est toujours en usage sur TikTok? Est-ce que vous pouvez nous dire son intérêt si elle est toujours en usage?
32:09 Qu'est-ce que vous entendez par shadow banning?
32:11 Le fait de ne pas supprimer des vidéos, mais de les mettre, le contraire du hitting si vous voulez, c'est-à-dire le fait de les...
32:24 De les rendre invisibles.
32:26 De les dégrader de façon qu'elles soient beaucoup moins vues, voire très très peu vues.
32:31 En fait, ça, c'est l'algorithme qui va le mettre en place pour des vidéos que l'on considère comme nocives si répétées.
32:44 C'est-à-dire des vidéos de régime, des vidéos de fitness intense ou des vidéos qui, si elles sont proposées dans la page pour toi de façon répétée,
32:58 peuvent être, pour le bien-être mental de l'utilisateur, mauvaises.
33:03 Donc, en fait, je ne sais pas si on peut appeler ça du shadow banning, en tout cas, l'algorithme va traiter ces vidéos-là de façon différente
33:13 et les proposer en moins grand nombre, en tout cas les intercaler avec d'autres vidéos.
33:19 Et puis, le principe de baisser la visibilité aussi, c'est sur des contenus plus matures.
33:25 Donc, on en parlait juste avant, des contenus plus matures, ils ne seront pas visibles dans les flux des mineurs, par exemple.
33:32 Donc, vous avez des vidéos qui sont catégorisées et selon le niveau de maturité, elles seront moins visibles ou pas visibles du tout pour des moins de 18 ans.
33:45 Oui, mais on est bien d'accord que vous avez encore des centaines de milliers, voire des millions d'adolescents qui annoncent qu'ils ont 30 ans ou 40 ans et qui ont accès à l'ensemble de votre contenu.
33:58 Malgré vos précautions, malgré l'algorithme, malgré les interventions humaines, il y a encore, d'ailleurs, vous le signez dans vos statistiques, je crois que la dernière statistique que j'ai vue,
34:09 c'est par âge, moins de 13 ans, 0,5 millions. Donc, vous avez encore 500.000, c'était une statistique qui date de quelques mois, pas d'aujourd'hui, mais pas vieille.
34:19 Vous avez énormément d'utilisateurs mineurs qui ont déclaré un âge supérieur que vous ne pouvez pas repérer.
34:26 C'est normal, tant qu'il n'y a pas un contrôle d'âge par double anonymisation ou autre.
34:33 Donc, aujourd'hui, vous avez énormément de failles. Vous avez énormément de mineurs qui sont basés comme majeurs et que vous ne repérez pas.
34:43 Ça, je ne peux pas vous dire. Je n'ai pas de stat pour appuyer ce point-là. Ce que je peux vous dire, c'est qu'on va communiquer sur des données très précises, dans le cas du DSA, sur nos audiences.
34:52 On sait qu'on a la moitié de notre audience qui a plus de 25 ans. On a concrètement deux tiers de l'audience qui a entre 18 et 35 ans.
35:05 Et de toute façon, ce n'est pas trop dans notre intérêt de ne pas être précis sur ça, puisque notre modèle, on en parlait tout à l'heure,
35:15 notre modèle publicitaire nécessite d'être effectivement plus juste sur nos audiences.
35:22 Donc, ça fait partie du travail de nos modérateurs de nous assurer aussi qu'on a en tout cas un respect à minima de l'âge légal des 13 ans.
35:34 Et ensuite, c'est compliqué effectivement de dire à un utilisateur, tu n'as pas 19 ans, tu en as 17.
35:44 Mais peut-être qu'on arrivera effectivement avec une réflexion collective à avoir un niveau de contrôle supérieur à celui qu'on a aujourd'hui.
35:56 À titre personnel, est-ce que vous trouvez normal que les GAFAM soient interdits en Chine et TikTok autorisés partout, sauf en Chine d'ailleurs ?
36:03 Franchement, je ne suis pas une experte de la Chine, donc j'ai beaucoup de mal à répondre à votre question.
36:11 Je ne suis pas sûr qu'il faille y avoir d'experts de la Chine pour avoir une opinion sur le fait que les GAFAM, que toutes les plateformes concurrentes de TikTok,
36:18 soit interdites en Chine, ça vous paraît... Vous ne pensez pas qu'il y a... Pourquoi je vous pose la question ?
36:27 Parce que les GAFAM protestent contre ça, mais TikTok ne proteste pas.
36:32 TikTok est interdit dans certains pays. Je trouve ça très injuste aussi.
36:36 Donc oui, dans l'absolu, philosophiquement, je suis pour la liberté d'usage de parole.
36:43 Et effectivement, on offre à tous les utilisateurs du monde entier les mêmes choix.
36:49 Après, il y a probablement des raisons qui me dépassent.
36:52 Et je ne suis probablement pas la personne la plus compétente pour répondre précisément à ça.
36:59 Donc si vous êtes pour la liberté de parole, vous condamnez la censure lourde, lourde, lourde du Parti communiste chinois sur Douyin,
37:08 une société appartenant au même groupe que le vôtre, et sur l'ensemble de l'Internet chinois.
37:14 Mais puisque vous êtes pour la liberté de parole, je suppose que vous condamnez.
37:17 – Je ne suis absolument pas experte du sujet de la Chine, monsieur le rapporteur.
37:21 – Non, non, mais je me demande juste si vous condamnez ou si vous ne condamnez pas.
37:25 – Je ne connais pas cette censure, en fait. J'adore me prononcer sur les sujets que je maîtrise et que je connais.
37:32 Celui-là, je ne le connais pas, donc permettez-moi de ne pas me permettre d'émettre un avis.
37:39 Bien sûr que philosophiquement, la censure est une mauvaise chose.
37:43 Après, je ne me permettrai pas d'intervenir sur un sujet que je ne connais pas.
37:50 – Vous ne connaissez pas le fait que Douyin... Vous connaissez Douyin, quand même.
37:55 Ne me dites pas que vous ne connaissez pas la censure massive de Douyin,
38:00 parce que vous allez trouver une vidéo sur les Ouïghours, sur le Tibet, etc.
38:04 Tout le monde le sait, et vous, mieux que quiconque.
38:07 Donc je vous demande simplement... Je ne pense pas que vous puissiez vous réfugier derrière l'explication
38:13 "je ne connais pas la situation en Chine". Cette situation, on la connaît.
38:17 Vous la connaissez aussi bien que tout le monde. Douyin est massivement censuré.
38:20 Je vous demande simplement si vous condamnez ça ou pas.
38:23 Visiblement, vous n'avez pas l'air de le condamner.
38:26 – Je ne sais pas s'il y a de la censure sur Douyin en Chine.
38:31 Je n'ai jamais ouvert l'application Douyin, en fait.
38:34 – Vous lisez les journaux, quoi. Si vous ne le savez pas, vous êtes la seule à le savoir.
38:38 Et vous êtes spécialiste des plateformes.
38:41 – Vous savez, je suis une bonne française. Je suis comme Saint Thomas.
38:44 Je crois que ce que je vois. Et en l'occurrence, l'application Douyin, je ne l'ai jamais ouverte.
38:48 Donc je ne sais pas s'il y a de la censure. Je n'en sais rien.
38:54 – Mais vous savez quand même, je suppose, que TikTok est interdit en Chine.
38:58 – Je sais surtout que TikTok opère dans tous les pays du monde, sauf en Chine.
39:02 – Oui, parce qu'il n'opère pas parce que vous avez décidé de ne pas opérer.
39:06 Mais parce qu'il est interdit en Chine.
39:08 Et est-ce que vous trouvez ça normal ?
39:10 Est-ce que vous condamnez le fait que TikTok soit interdit en Chine ?
39:13 C'est quand même ennuyeux pour une société.
39:15 Ça vous prive de pas mal d'utilisateurs potentiels.
39:18 – Franchement, je n'ai pas le contexte sur cette interdiction ou pas.
39:23 – Ça ne vous gêne pas ?
39:25 – Je ne sais pas que ça ne me gêne pas.
39:27 C'est-à-dire qu'encore une fois, je ne connais pas assez le dossier pour pouvoir me prononcer.
39:33 – Le dossier des Ouïghours, vous avez entendu parler.
39:36 Est-ce que vous condamnez ce que pas mal d'experts appellent le génocide des Ouïghours en Chine ?
39:41 Ou en tout cas la politique de répression vis-à-vis des Ouïghours ?
39:45 – En tant que citoyenne et en tant que personne, oui, bien sûr.
39:49 – Bien, j'ai terminé.
39:53 – Pour rester dans le sujet, j'ai posé la question ce matin à M. Garando.
39:58 Et comme vous êtes tous les deux salariés de TikTok,
40:03 je voudrais essayer de vérifier auprès de vous une information.
40:07 L'information sur laquelle TikTok France n'a pas donné de réponse
40:12 à la sollicitation de la journaliste qui l'a publiée.
40:16 Je vous relis l'extrait, enfin je l'ai lu ce matin.
40:20 Tous les salariés les confirment.
40:23 Ils parlent des relations, une question avec la Chine, avec la maison mère.
40:28 Donc les salariés, au dire d'anciens salariés.
40:32 Les salariés au quotidien sont en permanence en contact avec les employés chinois de ByteDance
40:36 qui jouent un rôle clé dans la validation des projets et des procédures.
40:40 Je saute certains passages.
40:42 Parallèlement, certains salariés ont été briefés sur la manière dont ils doivent parler de l'entreprise en public.
40:48 Selon des informations du média spécialisé Gizmodo,
40:51 l'un des principaux commandements promus par le document est de contester les liens
40:55 qu'entretient TikTok en Europe avec sa maison mère en Chine.
40:58 Ouvrez les guillemets.
40:59 Minimiser ByteDance, minimiser l'association avec la Chine, minimiser l'intelligence artificielle,
41:03 ferme les guillemets, font ainsi textuellement partie des éléments à retenir de ce document.
41:08 Celui-ci propose par ailleurs certains éléments de langage clés en main
41:11 comme il y a beaucoup de désinformation autour de TikTok en ce moment.
41:14 La réalité, c'est que TikTok n'est même pas disponible en Chine.
41:17 Ma question est simple et sans suspicion aucune.
41:19 Vous êtes là depuis peu de temps, enfin un an.
41:22 Avez-vous été confronté à ces éléments de langage ?
41:26 Avez-vous eu en main ou avez-vous été destinataire d'un document interne
41:31 ou de toute autre façon qui soit similaire de près ou de loin avec ce que relate cette journaliste ?
41:37 Non.
41:38 Je vous pose la question personnellement, vous ne pouvez pas répondre pour les autres.
41:41 Non.
41:42 Très bien.
41:45 J'aurais une remarque.
41:48 Sur le temps passé, vous nous dites tout à l'heure,
41:51 il y a 75 % des jeunes concernés qui conservent l'alerte.
41:57 Mais comme je vous l'ai fait remarquer, ça ne nous dit pas combien de personnes,
42:00 grosso modo, s'y conforment dans les minutes qui suivent.
42:04 De la même façon, sur les infos, ce que je voudrais vous dire,
42:07 c'est que vous ayez supprimé tant de dizaines de milliers de vidéos,
42:12 que vous puissiez démontrer que sur tel ou tel sujet,
42:16 vous avez pris soin d'invisibiliser un mot-dièse ou de supprimer certains mots-dièses,
42:22 ou que l'algorithme ne propose pas, dans des bulles de filtre,
42:26 d'enfermer les gens sur des sujets précis qui font l'objet de beaucoup de mésinformations,
42:32 c'est une chose.
42:33 Mais ce que nous n'avons pas,
42:35 et de la même façon, il faudrait que vous ayez une personne tierce extérieure
42:38 qui puisse vous auditer pour pouvoir objectiver tout ça,
42:41 ce que nous n'avons pas, c'est le fait de savoir combien il en reste à la fin.
42:44 Parce que vous êtes une entreprise jeune.
42:45 Mettons qu'il y a trois ans, on ait pu évaluer que vous avez
42:48 tant de pourcentages d'infos ou de mésinformations en ligne.
42:52 NewsGuard, qui est quand même assez reconnu sur la place du point de vue européen,
42:57 quand il nous dit qu'on met 40 minutes en moyenne pour tomber sur une info fausse,
43:02 sur une info ou une mésinformation, ils essaient de l'objectiver.
43:06 Vous pourriez faire une contre-expertise et demander à un autre de répondre à ça.
43:10 Ce qui nous manque dans ce que vous nous dites,
43:13 ce n'est pas tant le fait de savoir que vous avez des modérateurs,
43:15 heureusement que vous avez des modérateurs,
43:17 mais c'est la question du résultat à la fin.
43:19 Dans des politiques publiques, ce qui compte,
43:21 ce n'est pas de dire que l'État informe les gens sur la question de la cigarette,
43:24 c'est de regarder combien il y en a de cancers,
43:26 combien il y a de personnes qui se mettent à fumer,
43:27 combien il y en a qui arrêtent.
43:28 Et ça, ce sont des questions statistiques, quasiment de politique publique.
43:32 Et c'est ça qui nous intéresse, c'est ça que je voulais vous dire.
43:35 Et qui sont probablement disponibles dans nos rapports de transparence.
43:38 Donc on va regarder, parce que dans la mesure où la désinformation
43:41 fait partie de nos règles communautaires et que l'on combat la désinformation,
43:47 et que donc ces contenus sont modérés,
43:49 et par notre algorithme, nos outils, et par nos modérateurs humains,
43:53 on communique à travers ces rapports de transparence trimestrielles,
43:57 le nombre des contenus qu'on supprime, et à quelle rapidité on les supprime,
44:02 et dans les 24 heures, et par signalement, etc.
44:07 Donc on a un certain nombre de données dans ces rapports de transparence qui sont...
44:12 Et combien il en reste, parce que de la même façon qu'il n'y a rien d'infamant,
44:16 avoir fait l'objet d'une cyberattaque, avoir perdu tel ou tel type de données,
44:20 à s'être fait avoir par telle ou telle porte dérobée,
44:22 ce sont des choses sur lesquelles il faut communiquer pour que ça bénéficie aux autres.
44:26 De la même façon, il est impossible à un milliard et quelques d'utilisateurs
44:30 que vous n'en ayez pas.
44:32 Et je pense que personne ne vous demanderait le zéro faute.
44:35 Mais de savoir que tous les moyens sont mis en œuvre,
44:38 et qu'on progresse au fur et à mesure, est un élément essentiel.
44:43 Il y a une question à laquelle je n'ai pas eu de réponse ce matin,
44:47 et M. Garando a aimablement envoyé vers vous.
44:50 Est-ce que vous payez des journalistes pour qu'ils prennent soin de faire du contenu sur TikTok ?
44:55 Non.
44:56 Non, d'accord.
44:57 Ce n'est pas notre modèle.
44:58 J'ai ma réponse.
44:59 Ce n'est pas notre modèle, en fait.
45:00 Notre modèle, nous, c'est d'accompagner des...
45:02 Quand on...
45:03 Enfin, journaliste, ça peut s'apparenter à une personnalité publique.
45:05 Oui.
45:06 Une personnalité publique, elle va venir sur la plateforme
45:08 parce qu'elle a un enjeu de visibilité à vendre un livre, à faire connaître un spectacle.
45:13 Donc, pour répondre à la question à laquelle il n'est pas répondu dans un article de la semaine dernière,
45:18 "Je crois le monde" ou "Media Park", l'un ou l'autre,
45:20 "Je crois plutôt le monde", par exemple,
45:22 quand un journaliste qui est sur le service public, sur Inter et sur France 5,
45:25 qui fait par ailleurs de très, très bonnes émissions,
45:28 lorsqu'Augustin Trappenard publie autant de vidéos qu'il en publie sur TikTok
45:32 en expliquant "Je suis allé regarder",
45:34 "TikTok, ça permet ceci, TikTok, ça permet cela",
45:37 enfin, s'il n'est pas payé, il a tort, entre nous.
45:40 Le modèle économique, c'est qu'une personne publique, par exemple,
45:45 lui, ce qu'il en retire,
45:47 comme on dit en sociologie, don contre don, il n'y a jamais rien de gratuit dans la vie.
45:50 Ça ne peut pas être monétisé.
45:52 Le contre-don, c'est la visibilité pour la personne publique.
45:55 Et en fait, c'est un échange de procédés.
45:57 Je ne sais pas si ce sont de bons ou de mauvais procédés,
45:59 mais c'est un échange de procédés.
46:00 C'est là qu'est le modèle économique entre la recherche de visibilité
46:03 pour une personne publique ou un journaliste,
46:06 et vous, la qualité du contenu.
46:08 C'est ça, le marché.
46:10 En fait, ce qui est intéressant avec Augustin Trappenard,
46:12 c'est qu'il a compris qu'il ne fallait pas opposer les modèles
46:16 et qu'en fait, grâce à TikTok, on pouvait faire lire des gens et le faire lire des jeunes.
46:20 Et donc, il est arrivé très naturellement sur la plateforme.
46:23 Et effectivement, parce que c'est un super ambassadeur,
46:26 parce qu'il est crédible et parce qu'en fait, il est juste dans ce qu'il fait,
46:31 on a décidé effectivement de le faire parler dans notre campagne de communication sur BookTok.
46:38 Donc, on a eu une campagne de marque où là, dans le cadre de cette campagne publicitaire,
46:43 là, pour le coup, il a été rémunéré.
46:45 Mais pourquoi on a choisi Augustin ?
46:47 On a choisi Augustin parce qu'il était présent sur la plateforme
46:50 et qu'il était crédible sur le sujet du livre.
46:52 Donc ensuite, il est arrivé dans une campagne marketing.
46:55 Mais ce n'est pas l'inverse qui s'est produit.
46:57 – Non mais d'accord.
46:58 Vous avez, dans le cadre d'une campagne,
47:00 qu'est-ce que vous appelez une campagne publicitaire ?
47:02 – Une campagne… – Mais l'accent sur un sujet, par exemple ?
47:04 – En fait, on a acheté du Média pour un certain montant.
47:08 On a fait un spot télé dans lequel on explique en fait BookTok.
47:13 C'est vous qui allez payer du temps de publicité sur d'autres médias.
47:18 – Donc on indemnise… Voilà, exactement.
47:20 – Ce qui est expliqué d'ailleurs dans certains ouvrages ou certains articles sur TikTok,
47:24 le fait que visiblement, il y a quelques plateformes ou quelques…
47:27 comment dire… personnes qui diffusent du contenu
47:29 qui ont regretté après coup de ne pas avoir…
47:31 qui ont… comment dire… qui ont trouvé que finalement,
47:33 TikTok les arrangeait eux aussi, même si vous étiez concurrents,
47:36 parce que vous payez du temps d'écran chez eux.
47:38 Enfin, c'est comme quand… je dis n'importe quoi,
47:40 si un groupe, quelque chose qui appartient au groupe TF1,
47:43 se met à faire de la pub sur Canal+, on va chez le concurrent pour chercher…
47:46 – On achète sur Instagram, on achète sur YouTube, on achète sur toutes les plateformes.
47:51 – Et donc, dans ce cadre-là, vous avez fait une campagne de communication pour BookTok,
47:54 sur d'autres supports, et vous avez… et ce journaliste, ce qui n'est pas interdit,
47:59 mais c'est bien de le savoir, a été payé pour cela.
48:02 – Pour cette campagne, absolument.
48:04 – Je comprends qu'il n'ait pas voulu répondre à l'article la semaine dernière.
48:07 Parce que même si ce que vous décrivez dans un cadre précis,
48:10 vous venez de nous le décrire de manière assez précise et claire,
48:15 je comprends l'enthousiasme.
48:17 – En l'occurrence, il faut quand même refaire l'histoire.
48:21 C'est-à-dire qu'en fait, Augustin Traptin est arrivé sur la plateforme,
48:24 comme plein d'autres sont arrivés sur la plateforme,
48:26 comme Joël Dicker s'est arrivé sur la plateforme,
48:28 comme Antoine Dupont, comme plein d'athlètes,
48:32 comme Eric et Ramzi sont arrivés sur la plateforme,
48:36 et en fait, ils y viennent parce qu'aujourd'hui, on est un média
48:40 et qu'on est un outil au service de plein de choses.
48:45 La grande librairie a son compte sur la plateforme.
48:49 Libération arrive sur la plateforme.
48:51 Le monde fait un travail formidable sur la plateforme.
48:53 – Si vous étiez à Keene, vous pourriez même parler
48:55 de certaines institutions parlementaires.
48:57 – Je n'osais pas vous faire l'affront, mais on a adoré leur contenu, en tout cas.
49:01 – Mais nous, on n'est pas payés pour.
49:03 – On a adoré le contenu.
49:04 En tout cas, la traîne Wes Anderson était très bien trouvée
49:07 puisque c'est la tendance du moment.
49:09 – Mais il est important pour les gens de savoir,
49:11 quand il y a la petite mention "publier reportage dans la moindre gazette locale",
49:15 qui est payé pour dire du bien, qui n'est pas payé pour dire du bien.
49:18 J'entends ce que vous me dites, M. Trappenaer n'est pas payé aujourd'hui
49:21 quand il s'enflamme dans ses vidéos TikTok pour BookTok,
49:25 mais comme on dit chez nous, comme on dit chez moi, ça a eu payé.
49:30 – Ça a eu payé, c'est une indemnisation qui est somme toute modeste
49:34 et vous aurez sans doute probablement accès à un montant.
49:37 – Ah non, je ne la demande même pas.
49:39 – Mais ce que je peux vous dire, c'est que je voudrais juste quand même
49:41 rétablir les faits.
49:43 Il a été choisi sur cette campagne parce qu'il est crédible sur le sujet BookTok,
49:46 parce que ça fait longtemps qu'il publie et qu'il publie des choses de qualité
49:50 et qu'il a une relation hyper intéressante avec des créateurs BookTok
49:54 qui ont d'ailleurs fait sensation au Festival du Livre de Paris
49:59 parce qu'il arrive aujourd'hui, comme toutes les maisons d'édition,
50:03 on a 60 maisons d'édition sur la plateforme qui aujourd'hui sont crédibles sur le sujet.
50:08 Donc Augustin, il a été choisi dans notre campagne de communication
50:12 parce qu'il est crédible sur le sujet, mais il ne fait pas des contenus TikTok forcés.
50:21 – D'accord.
50:23 Alors une dernière pour la route, M. Le Cateaulat.
50:27 – Merci beaucoup, M. le Président.
50:29 Non, c'est un sujet, moi, qui me préoccupe et j'ai posé aussi la question ce matin.
50:35 C'est la question de la cybersécurité extérieure, externe de l'application et de TikTok.
50:44 Vous êtes peut-être au courant de ce qui s'est passé il y a quelques semaines
50:49 pour une application de commerce en ligne chinoise, Pinduoduo,
50:55 qui s'est retrouvée avec un malware qui permettait à certaines personnes
51:00 d'extraire les données de l'extérieur, à la fois sur l'application en Chine,
51:04 mais aussi sur le développement international que connaît cette société.
51:09 Donc moi, ce qui m'intéresse, c'est la question de savoir
51:12 si aujourd'hui TikTok se risquerait à transférer illicitement ces données vers la Chine
51:23 ou vers, je dirais, à la demande des autorités chinoises.
51:28 Je pense qu'il y a un risque qui serait quand même commercial, extrêmement lourd.
51:33 La question, c'est celui de la vulnérabilité de tous les supports et toutes les bases de données,
51:40 notamment la vôtre, qui compte des milliards d'informations personnelles,
51:45 de la part d'attaques extérieures, de groupes, de hackers, de gens.
51:49 On dit que les données personnelles sont l'or noir ou l'or blanc de la société et de l'économie actuelle.
51:59 Quels sont les moyens, j'imagine, importants que vous mettez en termes de sécurisation de vos données ?
52:07 Et question que je pose, alors on me dit "Ah, mais c'est compliqué de le dire".
52:11 Est-ce que vous êtes victime d'attaques ? Est-ce que vous êtes capable de les contenir ?
52:18 Est-ce que vous les recensez ? Et est-ce qu'elles font l'objet aussi d'un signalement ?
52:22 Parce qu'en France, généralement, quand une base de données aussi importante que la vôtre est attaquée,
52:29 on signale à l'ANSI qui donne son aide. Ce n'est pas une honte.
52:34 Au contraire, pendant longtemps, beaucoup d'entreprises renonçaient à le signaler parce qu'on craignait le préjudice d'image.
52:44 Aujourd'hui, c'est quand même mieux de savoir que tous les jours, d'ailleurs, en France, des centaines de milliers de données
52:52 s'envolent, on ne sait où, par le biais d'attaques et pas seulement de rançons gicielles, mais de vols purs et simples de données,
53:01 sans destruction de ce qui se passe. Donc quel est l'état, aujourd'hui, de la cybersécurité ?
53:08 Le fait, moi, je veux croire de bonne foi les dirigeants quand ils disent on ne les transfère pas, on respecte les règles internationales
53:18 sur les transferts de données, mais la capacité à résister à une attaque extérieure.
53:24 Ce n'est pas la même chose que de donner ces données, que de laisser la porte ouverte avec le risque d'être cambriolé.
53:30 Quelles sont les serrures ? Quelles sont les barres de fer qui sont mises devant les fenêtres, vu l'importance des données que vous détenez ?
53:38 C'est une question, évidemment, stratégique, hyper intéressante, mais très technique.
53:44 Et je ne suis pas moi-même une experte de la cybersécurité. Ce que je peux vous dire, c'est que j'ai le sentiment quand même
53:51 qu'avec la mise en place du projet Clover, qu'Éric Garandot a dû vous expliquer ce matin, avec la souveraineté numérique,
53:59 avec un tiers de confiance qui sera annoncé prochainement, qui va sécuriser aussi tout le stockage de données personnelles en Europe.
54:07 On va cranter quelque chose aussi en matière de cybersécurité.
54:13 Après, évidemment, je pense que le sujet de la cybersécurité concerne toutes les entreprises aujourd'hui, puisque toutes les entreprises manipulent de la donnée.
54:21 Donc ce serait bien improbable que ce ne soit pas un sujet important chez nous également.
54:26 Mais je n'étant pas experte du sujet, je ne m'aventurerai pas dans une réponse hasardeuse et incomplète.
54:33 C'est pour ça que je vous posais le cas de la DePin Duo Duo, qui est une grande société chinoise et internationale et qui est très soucieuse de cybersécurité.
54:42 Elle-même s'est retrouvée, plus le coffre-fort est grand, plus il attire des convoitises.
54:48 Elle-même s'est visiblement trouvée chargée d'un malware avec des défuites massives de données qu'il a fallu reconnaître.
54:58 Pour le dire autrement, depuis que vous êtes là, vous n'avez pas eu connaissance d'une attaque massive ou très préjudiciable qui aurait touché TikTok ou TikTok France dans les années précédentes ou depuis que vous êtes là ?
55:08 Depuis mon arrivée chez TikTok, je n'en ai jamais entendu parler.
55:14 Et après, je pense qu'il y a aussi, c'est probablement, et là je vais peut-être m'aventurer sur un sujet que je maîtrise mal,
55:20 mais dans la mesure où justement on n'a pas vraiment d'API ouverte et que les API ne sont ouvertes que pour des chercheurs aujourd'hui, vous minimisez aussi les risques.
55:29 C'est-à-dire que vos risques de cyber sont aussi plus importants quand vous avez plus d'API ouverte.
55:35 Mais vraiment, je n'en ai absolument pas entendu parler. Donc je suis désolée.
55:42 Juste pour question, quelle est l'entité chez vous, à quel niveau s'occupe de la cybersécurité globale ?
55:50 C'est-à-dire, est-ce que ça se passe au Royaume-Uni ? Est-ce que ça se passe aux îles Caïmans ? Est-ce que ça se passe à Los Angeles ?
55:58 Qui assure globalement ? Parce que ce n'est pas un travail décentralisé, c'est un travail quand même qui mérite beaucoup de moyens.
56:06 Donc qui est en charge de ça, géographiquement en tout cas ?
56:11 Je vais vérifier cette information. J'ai envie de vous dire Cormac Kinnan, qui est notre patron de la sécurité au niveau global.
56:18 Donc j'imaginerais que c'est lui, mais je préfère qu'on vérifie et qu'on revienne vers vous avec la bonne information.
56:26 Y a-t-il quelque chose que vous auriez souhaité ajouter avant que l'on termine cette audition ?
56:32 Peut-être juste vous dire qu'on a assez peu parlé de contenu. Je voulais quand même repréciser le fait que les équipes de TikTok en France
56:45 sont vraiment mobilisées sur l'accompagnement des marques, sur des secteurs prioritaires que sont la musique, le sport, le divertissement, l'art de vivre,
56:58 les contenus éducatifs, et que notre engagement est sincère. Et que quand on choisit des événements auxquels s'associer,
57:10 que ce soit le Festival du Livre de Paris, le Festival de Cannes, qu'on soutienne Roland-Garros, qu'on soutienne le Tour de France,
57:16 qu'on soutienne l'événement de e-sport récent, le Major de Counter-Strike, ce sont des engagements qui sont sincères
57:26 et qui sont vraiment portés par une compréhension de notre communauté et de ce qu'elle attend.
57:32 Donc, vous n'avez le droit de ne pas me croire, mais en tout cas je voulais quand même vous le dire,
57:37 parce que c'est ce qui anime le travail des équipes. Elles sont mobilisées à s'engager sincèrement sur faire grotte cet écosystème
57:47 et faire croître cette communauté d'utilisateurs avec des contenus toujours plus qualitatifs, toujours plus engageants, toujours plus pertinents.
57:55 Et voilà, c'est vraiment ce qui nous anime au quotidien. Donc voilà, je voulais juste rajouter ce point-là.
58:00 [Musique]

Recommandée