Alors que la Commission et le Parlement européen interdisaient à leur personnel d’utiliser le réseau social TikTok sur leurs appareils professionnels pour des soucis de protection de données personnelles, la suspicion pèse de plus en plus sur le géant numérique. C’est pour faire la lumière sur la stratégie d’influence et la collecte des données du réseau social chinois que le Sénat a lancé en mars 2023 une commission d’enquête sur TikTok.
Le 13 avril, les sénateurs auditionnaient Raphaël Glucksmann, député européen et président de la commission spéciale sur l'ingérence étrangère dans l’ensemble des processus démocratiques de l’Union européenne et Nathalie Loiseau, députée européenne et présidente de la sous-commission “sécurité et défense”, afin de répondre aux différentes questions des élus. Faut-il complètement interdire TikTok en France et en Europe ? L’application est-elle un danger pour notre démocratie ?
Pour suivre toute l'actualité politique et parlementaire, abonnez-vous à notre chaîne YouTube : https://www.youtube.com/user/publicsenat?sub_confirmation=1
Notre site internet : http://www.publicsenat.fr
Abonnez-vous à notre newsletter : https://urlz.fr/iinC
Suivez-nous sur les réseaux sociaux
Facebook : https://www.facebook.com/publicsenat
Twitter : https://twitter.com/publicsenat
Instagram : https://instagram.com/publicsenat
LinkedIn : https://www.linkedin.com/company/2996809/
Le 13 avril, les sénateurs auditionnaient Raphaël Glucksmann, député européen et président de la commission spéciale sur l'ingérence étrangère dans l’ensemble des processus démocratiques de l’Union européenne et Nathalie Loiseau, députée européenne et présidente de la sous-commission “sécurité et défense”, afin de répondre aux différentes questions des élus. Faut-il complètement interdire TikTok en France et en Europe ? L’application est-elle un danger pour notre démocratie ?
Pour suivre toute l'actualité politique et parlementaire, abonnez-vous à notre chaîne YouTube : https://www.youtube.com/user/publicsenat?sub_confirmation=1
Notre site internet : http://www.publicsenat.fr
Abonnez-vous à notre newsletter : https://urlz.fr/iinC
Suivez-nous sur les réseaux sociaux
Facebook : https://www.facebook.com/publicsenat
Twitter : https://twitter.com/publicsenat
Instagram : https://instagram.com/publicsenat
LinkedIn : https://www.linkedin.com/company/2996809/
Category
🗞
NewsTranscription
00:00:00 Comme vous l'avez dit, j'interviens avec plusieurs casquettes devant vous,
00:00:03 président de la sous-commission Sécurité et Défense,
00:00:07 qui étudie l'ensemble des menaces au sein de l'Union européenne
00:00:11 et la manière d'y répondre,
00:00:13 des sujets qui sont souvent directement militaires.
00:00:16 C'est naturellement le cas avec la guerre d'invasion russe en Ukraine
00:00:20 ou les missions militaires de l'Union européenne à l'étranger,
00:00:25 mais aussi les menaces hybrides.
00:00:27 Et puisque j'ai parlé de l'Ukraine, l'Ukraine est un bon exemple
00:00:30 d'un pays qui a d'abord été ciblé par des menaces hybrides
00:00:34 et qui fait face aujourd'hui à une guerre conventionnelle
00:00:36 de haute intensité.
00:00:38 Je suis aussi coordinatrice de mon groupe politique "Green Europe"
00:00:42 au sein de la commission spéciale sur les ingérences
00:00:44 qui est présidée par Raphaël Glucksmann.
00:00:47 A ce titre, je suis actuellement co-rapporteur
00:00:50 du rapport final de la commission spéciale
00:00:53 qui se penche plus particulièrement sur les menaces d'ingérence
00:00:57 contre le Parlement européen lui-même.
00:00:59 Vous avez tous entendu parler du "catargate",
00:01:02 mais d'autres ingérences,
00:01:05 en particulier en provenance de Russie et de Chine,
00:01:10 sont sur notre radar depuis longtemps.
00:01:13 Nous les avons à la fois exposées
00:01:15 et nous formulons des recommandations
00:01:17 pour nous en protéger.
00:01:20 Ces 2 casquettes que je viens de décrire vont bien ensemble.
00:01:23 Et d'ailleurs, les 2 commissions,
00:01:26 celle que Raphaël Glucksmann préside et la mienne,
00:01:29 travaillent main dans la main au quotidien.
00:01:32 J'ai d'ailleurs écrit un livre sur ces menaces hybrides
00:01:36 pour essayer de les décrire et de faire des propositions.
00:01:40 Et comme vous l'avez dit, je suis également membre
00:01:42 de la délégation aux relations avec la Chine
00:01:45 dans le Parlement européen.
00:01:48 Je dirais pour commencer qu'il est important de mesurer
00:01:52 le rôle des plateformes en général
00:01:55 comme outils d'ingérence de puissance étrangère.
00:01:58 Toutes les plateformes et différentes puissances étrangères.
00:02:01 On l'a vu en 2016 avec l'élection présidentielle américaine.
00:02:06 A ce moment, la plateforme qui a été la plus utilisée
00:02:10 pour ces ingérences a été Facebook.
00:02:14 On l'a vu massivement avec la pandémie de Covid
00:02:19 et depuis le début de la guerre d'Ukraine.
00:02:20 Ce sont toutes les plateformes qui sont le relais
00:02:24 d'opération, de manipulation de l'information.
00:02:28 On risque le voir encore davantage l'année prochaine.
00:02:31 2024 est une année d'élections dans beaucoup de pays.
00:02:35 Elle commence en janvier par Taïwan,
00:02:39 qui a le privilège, si j'ose dire, d'ouvrir le bal.
00:02:43 Mais nous aurons également des élections au Royaume-Uni,
00:02:46 en Ukraine, en Russie, des élections européennes
00:02:49 et pour terminer, l'élection présidentielle américaine.
00:02:53 Et nous avons vu, j'ai parlé de l'élection présidentielle
00:02:56 américaine de 2016, on peut parler du référendum
00:02:59 sur le Brexit, que ces consultations électorales
00:03:03 sont fragiles, vulnérables à des ingérences étrangères.
00:03:09 S'agissant des ingérences chinoises,
00:03:12 je dirais qu'elle s'est lancée dans les ingérences
00:03:15 avec enthousiasme et avec le poids que lui confère
00:03:20 et sa puissance économique, en apprenant des méthodes russes
00:03:25 et en apprenant vite.
00:03:27 Tout d'abord, peut-être un rappel, l'ingérence et la manipulation
00:03:30 de l'information font partie de la doctrine militaire chinoise
00:03:33 elle-même, qui distingue l'existence de trois types de guerres
00:03:37 qui peuvent être menées par des moyens non militaires,
00:03:40 la guerre de l'opinion publique, la guerre psychologique
00:03:42 et ce qu'on appelle le lawfare.
00:03:45 Je me référerai aussi à un article de China Daily
00:03:49 qui date de décembre 2020, donc qui est récent.
00:03:52 Et on sait que China Daily n'écrit que ce qui est autorisé.
00:03:55 Et il écrit "Les médias numériques chinois et russes
00:03:58 devraient combattre ensemble les attaques et les provocations
00:04:01 des pays occidentaux et mettre en place un environnement
00:04:04 international sain", je cite, "s'agissant de l'opinion publique".
00:04:09 Nous vous voilà donc prévenus.
00:04:11 Les ingérences de la Chine sont maintenant bien établies.
00:04:15 Elles passent par diverses méthodes,
00:04:17 qu'il s'agisse de la capture d'élite, de l'intrusion
00:04:20 via des coopérations universitaires et scientifiques,
00:04:23 du contrôle des diasporas chinoises à l'étranger,
00:04:25 des cyberattaques, du financement des activités
00:04:28 de certains think tanks.
00:04:30 J'y reviendrai naturellement si vous avez des questions.
00:04:33 Mais le monde de l'Internet est un terrain de jeu
00:04:35 des ingérences chinoises là aussi.
00:04:37 Le paradoxe, c'est que Pékin exerce un contrôle social total
00:04:41 sur l'Internet en Chine, où les plateformes occidentales
00:04:44 sont bannies et où les plateformes chinoises sont ultra-surveillées.
00:04:49 Mais à l'étranger, si j'ose dire, il s'agit d'une activité débridée.
00:04:54 Pendant le Covid, la désinformation sur l'origine du virus
00:04:58 ou sur les cités qu'a citées des vaccins a souvent été
00:05:02 "made in China", avec des moyens considérables,
00:05:05 ce qu'on appelle par exemple l'armée des 50 centimes,
00:05:09 c'est-à-dire au moins 2 millions de personnes qui, en Chine,
00:05:12 sont rémunérées pour intervenir sur les réseaux sociaux.
00:05:19 Ces 2 millions de personnes ont pu y ajouter 20 millions
00:05:22 de ce que j'appellerais des "trolls à temps partiel".
00:05:25 Là aussi, si vous le souhaitez, j'y reviendrai plus en détail.
00:05:28 Même les comptes officiels du ministère des Affaires étrangères
00:05:31 chinoises, le Huai Chiaobu, se sont faits les relais
00:05:34 de sites complotistes douteux, par exemple, le Grey Zone.
00:05:38 Vous vous souvenez de l'intoxication qui voulait
00:05:40 que le virus du Covid ait été créé en laboratoire
00:05:45 aux Etats-Unis à Fort Detrick ?
00:05:48 C'est un certain manque d'imagination, puisque la même
00:05:51 désinformation avait été utilisée par la Russie des années
00:05:55 auparavant pour accuser les Etats-Unis d'être à l'origine
00:05:59 du virus du sida.
00:06:01 Décidément, Fort Detrick intéresse beaucoup de monde.
00:06:06 Et si vous tapez Fort Detrick sur un moteur de recherche,
00:06:09 vous trouverez en priorité de la désinformation chinoise.
00:06:12 C'est ce qu'on appelle l'usage des "data voids", sans parler
00:06:16 d'un sujet qui a été peu traité et le saturer avec
00:06:19 de la désinformation.
00:06:20 Je citerai aussi, toujours sur le Covid, l'invention
00:06:23 d'un biologiste suisse imaginaire nommé Wilson Edwards,
00:06:27 qui aurait là aussi eu des révélations à faire sur le Covid.
00:06:32 La Suisse a eu beau protester que ce biologiste n'existait pas,
00:06:37 ces propos ont été repris par des comptes officiels chinois.
00:06:41 Depuis le début de la guerre d'Ukraine, la désinformation
00:06:45 d'origine chinoise ne s'est pas démentie.
00:06:48 Elle reprend systématiquement le narratif de la Russie.
00:06:52 Ce n'est pas une surprise compte tenu du partenariat sans limite
00:06:56 que Xi Jinping et Vladimir Poutine ont conclu ensemble.
00:07:01 Alors, sur TikTok, qu'est-ce qu'on peut en dire ?
00:07:04 Que c'est un instrument qui permet toutes sortes de manipulations,
00:07:07 c'est le cas d'autres plateformes, mais il y a quelques spécificités
00:07:11 chinoises qui doivent nous alerter.
00:07:13 Tout d'abord, le format même des vidéos courtes de TikTok,
00:07:16 qui permet d'engranger très vite énormément de données
00:07:20 sur les utilisateurs de la plateforme,
00:07:23 des données personnelles qui sont rapatriées en Chine.
00:07:26 Et on sait que des employés de TikTok y ont accès,
00:07:30 puisque même TikTok a dû le reconnaître, notamment les données
00:07:34 de journalistes qui enquêtaient précisément sur TikTok
00:07:36 ont été aspirées.
00:07:38 C'est donc possible et c'est même obligatoire,
00:07:41 puisqu'on connaît la loi de 2017 sur la cybersécurité en Chine.
00:07:45 Au-delà, c'est un outil d'influence qui émane d'un état autoritaire
00:07:50 qui ne nous laisse donc voir que ce qui est validé
00:07:53 et pas ce qui ne l'est pas.
00:07:55 C'est un outil de propagande d'une part et de censure d'autre part,
00:07:59 propagande massive avec des influenceurs qui répètent
00:08:03 les mêmes éléments de langage sur la plateforme
00:08:06 et en revanche des contenus interdits lorsqu'ils risqueraient
00:08:09 de déplaire aux autorités de Pékin, en particulier sur ce qui relève
00:08:13 des droits de l'homme en Chine.
00:08:15 On sait aussi la présence de cellules du Parti communiste
00:08:18 dans toutes les entreprises chinoises, y compris dans Baidans,
00:08:21 la maison mère de TikTok.
00:08:23 Et on se souvient des mésaventures de Jack Ma à la tête d'Ali Baba,
00:08:27 qui prouvent que le patron d'une entreprise dite privée,
00:08:31 mais de la tech en Chine, est soumis à de fortes pressions
00:08:34 politiques.
00:08:35 C'est la raison pour laquelle, dans l'Union européenne,
00:08:38 nous sommes dotés de réglementations qui, elles,
00:08:41 couvrent toutes les plateformes et pas seulement
00:08:44 des plateformes chinoises.
00:08:46 Ce sont des visions transversales.
00:08:48 J'y reviendrai là aussi, si vous le souhaitez.
00:08:50 Essentiellement, le RGPD et le DSA.
00:08:53 Pour répondre aux questions que vous m'avez posées,
00:08:55 Madame la Présidente, est-ce que nous avons fait l'objet
00:08:58 de pression au sein de la délégation pour les relations
00:09:01 avec la Chine, depuis les décisions prises
00:09:05 dans l'Union européenne et notamment au Parlement,
00:09:06 d'interdire TikTok sur les outils professionnels
00:09:11 des personnels du Parlement européen ?
00:09:13 Je dirais que la Chine se fait peu d'illusions sur notre
00:09:18 délégation, au point que son président,
00:09:21 Reinhard Butticoffer, fait partie des personnes sanctionnées
00:09:25 par la Chine, de même que Raphaël Glucksmann,
00:09:27 que la sous-commission des droits de l'homme.
00:09:29 Je crains d'être l'une des rares personnes qui m'exprime
00:09:32 pour dénoncer le régime chinois à ne pas être sanctionnée,
00:09:36 non pas que je le réclame, mais c'est presque vexant.
00:09:39 C'est presque vexant.
00:09:40 Peut-être parce que j'étais membre du gouvernement
00:09:46 d'Emmanuel Macron et que le coup presse s'est arrêté
00:09:49 juste avant moi.
00:09:50 Je ne sais pas et je ne fais pas d'interprétation
00:09:52 des pensées profondes du régime de Pékin.
00:09:55 Donc, nous avons peu de dialogues avec l'ambassade de Chine.
00:10:00 En revanche, ce que je relève, et là aussi,
00:10:04 j'y reviendrai plus en détail si vous le souhaitez,
00:10:06 c'est la montée en puissance du lobbying de TikTok
00:10:09 aux États-Unis, bien sûr.
00:10:10 On l'a vu au moment de l'audition du patron de Biden
00:10:15 au Congrès américain.
00:10:16 À Bruxelles, en parallèle, mon groupe politique a d'ailleurs
00:10:20 demandé au patron de TikTok de venir être auditionné
00:10:24 au Parlement européen.
00:10:25 Nous n'avons pas de réponse pour le moment.
00:10:27 Sur les dangers de sécurité de TikTok, je crois les avoir
00:10:31 rapidement évoqués.
00:10:33 Le fait que rien ne permet de s'assurer aujourd'hui que
00:10:37 les données personnelles des utilisateurs et notamment
00:10:40 d'utilisateurs qui seraient, je dirais, aux potentiels politiques
00:10:45 ou des décideurs sont protégés par la plateforme.
00:10:49 La plateforme nous assure que jamais elle n'a rien transmis
00:10:52 aux autorités chinoises.
00:10:53 Les autorités chinoises nous promettent que jamais elles n'ont
00:10:56 rien demandé, mais les promesses n'engagent que ceux qui les
00:10:59 écoutent.
00:11:00 Et l'autorité de contrôle irlandaise a déclenché deux
00:11:06 enquêtes sur des violations possibles du RGPD par TikTok.
00:11:12 Première préoccupation, deuxième préoccupation, je l'ai dit,
00:11:16 c'est que le RGPD est un outil d'influence de désinformation.
00:11:19 Je relèverai simplement que le groupe Wagner est présent sur
00:11:22 TikTok et n'est pas sanctionné, que par ailleurs, tout ce qui
00:11:29 risque de déplaire à la Chine en est absent.
00:11:33 Cela suffit à le voir comme une arme d'influence de la Chine à
00:11:38 son profit dans nos démocraties.
00:11:46 Merci, Madame la Présidente, et merci à l'ensemble de la
00:11:49 Commission pour l'invitation.
00:11:51 Quelques mots d'abord sur la commission spéciale sur les
00:11:58 ingérences étrangères.
00:11:59 Dès le début de notre mandature, j'ai demandé la création d'une
00:12:04 telle commission parce qu'il me semblait que nous faisions preuve
00:12:07 d'une naïveté confondante à l'égard de régimes, en particulier
00:12:11 de régimes autoritaires, qui s'ingéraient dans nos élections,
00:12:14 dans notre débat public, dans notre vie publique et qui n'étaient
00:12:18 jamais ni sanctionnés ni même confrontés.
00:12:21 Et qu'il fallait, si nous voulions être sérieux dans la
00:12:25 défense de notre souveraineté et de notre sécurité et de nos
00:12:28 démocraties, d'abord établir un diagnostic général, savoir qui
00:12:31 nous attaque, comment, quelles sont les failles de nos systèmes
00:12:34 de défense, et sur la base de ce diagnostic général, émettre
00:12:41 des recommandations pour mieux protéger nos démocraties.
00:12:45 Et mieux faire face à ces attaques.
00:12:47 Cette commission a été finalement créée en septembre 2020 et depuis,
00:12:52 nous travaillons d'ailleurs main dans la main avec Nathalie Loiseau
00:12:55 et avec la plupart des groupes politiques du Parlement.
00:12:59 Nous avons un fonctionnement très transpartisan dans cette commission
00:13:02 parce qu'il en va de la défense de notre bien commun,
00:13:05 qui est la démocratie et qui est le cadre, si vous voulez,
00:13:08 de l'expression de nos dissensus sur le reste.
00:13:10 Mais ce cadre-là, il est menacé.
00:13:13 Et on a pu finalement comprendre que ces ingérences, elles utilisent
00:13:21 différentes méthodes et je vais entrer dans le détail ensuite,
00:13:23 mais les différentes méthodes, c'est la capture des élites,
00:13:26 et notamment des élites politiques, mais pas seulement.
00:13:28 Notamment le fait que la Chine et la Russie soient devenues au fil
00:13:32 des années les pourvoyeurs de retraite dorées de nos élus,
00:13:35 de nos gouvernants ou de nos responsables d'institutions.
00:13:39 Vous connaissez tous le cas de Gerhard Schröder, évidemment,
00:13:43 pour Gazprom, mais il faut comprendre que ça a une influence énorme
00:13:49 parce que Gerhard Schröder ensuite a piloté finalement le revirement
00:13:53 de la politique énergétique allemande, donc européenne,
00:13:56 tout cela au service de Gazprom, et qui n'était pas le seul,
00:14:00 et qu'il y a même un terme qui a été inventé en Russie,
00:14:02 qui s'appelle la Schröderisation de la classe politique,
00:14:05 c'est-à-dire la transformation de la classe politique européenne
00:14:07 en supermarché.
00:14:10 Et les Chinois, évidemment, se sont largement inspirés
00:14:14 des pratiques russes sur cette question.
00:14:16 La capture des élites, donc, la manipulation de l'information
00:14:21 pour influencer notre débat public sur les réseaux sociaux,
00:14:24 notamment, mais pas uniquement, les investissements dans nos
00:14:30 secteurs stratégiques, le financement de mouvements politiques,
00:14:33 d'ONG, de think tank, qui repose sur l'absence de transparence
00:14:38 dans beaucoup d'États membres.
00:14:40 Bref, toute une panoplie d'outils qui sont utilisés pour deux finalités,
00:14:46 et là, on distingue les différents types d'ingérences.
00:14:48 Il y a ce que j'appellerais les ingérences dites classiques,
00:14:52 c'est-à-dire qu'un État étranger décide d'utiliser des outils
00:14:57 d'influence pour faire en sorte que soit on prenne des décisions
00:15:00 qui lui sont favorables, soit on s'abstienne d'émettre
00:15:04 des critiques et soit on signe des accords qu'il juge extrêmement
00:15:10 bénéfiques.
00:15:11 Ça, c'est finalement une ingérence classique qui a toujours existé,
00:15:16 et c'est notamment le cas du Maroc et du Qatar sur la question
00:15:21 du Qatar Gate ou du Maroc Gate, c'est-à-dire on va utiliser
00:15:24 la corruption pour obtenir une décision favorable ou une absence
00:15:28 de critique à l'égard du Qatar ou du Maroc.
00:15:32 Il y a une autre forme d'ingérence.
00:15:35 Cette autre forme d'ingérence, elle ne vise pas tant à pousser
00:15:38 l'intérêt de l'État qui s'ingère, mais à déstabiliser nos démocraties.
00:15:43 Et cette autre forme d'ingérence, elle a été d'abord portée
00:15:47 par la Russie.
00:15:48 Elle a quasiment été façonnée, inventée par la Russie.
00:15:52 Cette ingérence, elle vise au chaos.
00:15:54 Par exemple, ce n'est pas faire la pub de la Russie sur les réseaux
00:15:58 sociaux, c'est soutenir les pôles les plus extrêmes
00:16:02 des débats publics dans nos pays, dans le but de rendre notre débat
00:16:06 public chaotique.
00:16:07 C'est par exemple le fait que les campagnes russes, on en a disséqué
00:16:10 ensemble des dizaines, puissent soutenir, les campagnes des trolls
00:16:15 russes, l'Internet Research Agency de Saint-Pétersbourg, par exemple,
00:16:18 puissent soutenir à la fois les indépendantistes catalans
00:16:22 et les ultranationalistes castillans.
00:16:24 Les deux pôles les plus opposés du débat public en Espagne.
00:16:27 À la fois Black Lives Matter et All Lives Matter.
00:16:33 À la fois les gens qui dénoncent les violences policières en France
00:16:37 et les gens qui demandent qu'on tire dans la foule.
00:16:40 Les deux en même temps.
00:16:41 Il n'y a pas de principe de contradiction.
00:16:44 Là, le but est la déstabilisation et la radicalisation permanente
00:16:47 du débat public dans les démocraties occidentales.
00:16:49 Pendant longtemps, la Chine, puisque c'est l'objet de la commission
00:16:53 et de l'audition, la Chine était plutôt dans une forme d'ingérence
00:16:58 classique, même si massive.
00:16:59 Il y a eu des moments de bascule.
00:17:03 Et depuis la pandémie, il semble désormais évident que la Chine
00:17:07 a adopté le modèle russe.
00:17:08 Et d'ailleurs, quand on doute, c'est une aparté, mais quand on doute
00:17:12 de la solidité de l'alliance entre Pékin et Moscou, il suffit
00:17:17 de voir sur le terrain, sur le terrain de la guerre hybride,
00:17:19 quelles sont les attitudes des uns et des autres pour comprendre
00:17:22 que cette alliance, pour le moment, est absolument solide.
00:17:26 C'est-à-dire que les narratifs, comme Nathalie vient de le dire,
00:17:31 les narratifs russes sont totalement repris, poussés par les agents
00:17:34 chinois.
00:17:35 Et finalement, il y a une conjonction parce qu'il y a un objectif
00:17:39 commun, qui est la déstabilisation de nos démocraties et l'affaiblissement
00:17:42 des institutions européennes.
00:17:44 C'est une évidence quand on part du terrain, des actions, pas quand
00:17:48 on part nécessairement des discours qui sont tenus, même si les discours
00:17:51 vont dans le même sens.
00:17:52 La question des ingérences chinoises, il y a une spécificité par rapport
00:17:59 à la Russie même.
00:18:00 Je pense que les Russes ont clairement développé des techniques
00:18:03 plus avancées et ont un objectif K.O.
00:18:07 encore plus assumé.
00:18:08 Mais il y a des spécificités.
00:18:11 Par exemple, vous avez posé la question du lobbying ou des pressions.
00:18:15 Moi, ce qui me frappe au Parlement européen ou dans les institutions
00:18:18 européennes ou dans le débat public en général, quand vous êtes
00:18:22 un décideur, dans les institutions nationales aussi, c'est que le
00:18:25 gouvernement chinois n'a pas tant besoin que ça d'engager des lobbyistes.
00:18:28 Pourquoi ?
00:18:30 Parce que la Chine, contrairement aux autres pays, peut compter sur
00:18:33 le travail des entreprises européennes.
00:18:35 Et là, c'est un vrai problème.
00:18:37 C'est-à-dire qu'en fait, on est devenu tellement dépendant du marché
00:18:40 chinois et de l'appareil productif chinois que nos grands groupes,
00:18:43 parce qu'ils dépendent de la Chine, deviennent, si vous voulez,
00:18:48 des lobbyistes, des ambassades bis du gouvernement chinois.
00:18:52 Donc, quand on doit prendre une décision sur le marché intérieur,
00:18:56 sur le bannissement des produits de l'esclavage, sur même l'accord
00:19:01 d'investissement entre l'Union européenne et la Chine, eh bien,
00:19:05 les gens qui défilent dans nos bureaux sont beaucoup plus les
00:19:08 représentants de Volkswagen que du gouvernement chinois lui-même,
00:19:11 parce que finalement, les intérêts sont conjoints et qu'il y a
00:19:15 une forme de pacte faustien entre ces grands groupes et le Parti
00:19:19 communiste chinois.
00:19:20 Ça peut sembler bizarre sur le papier, mais c'est comme ça que ça
00:19:22 se fait dans les couloirs du Parlement européen.
00:19:27 Et donc, pour comprendre les ingérences chinoises, il faut
00:19:32 comprendre la dépendance aussi européenne vis-à-vis de la Chine
00:19:35 et les deux sont intimement liés.
00:19:37 Pourquoi c'est un problème que, par exemple, des ministres,
00:19:41 d'anciens ministres français, aillent travailler pour Huawei,
00:19:45 alors que ce serait sans doute moins un problème s'ils allaient
00:19:47 travailler pour une entreprise norvégienne ou brésilienne ?
00:19:51 Bien parce qu'en Russie comme en Chine, la notion de grande
00:19:58 entreprise privée n'est pas du tout, du tout, du tout la même
00:20:03 que chez nous.
00:20:04 Et ByteDance n'est pas une entreprise privée, comme on
00:20:08 l'entend ici.
00:20:09 Bien sûr que c'est une entreprise privée sur le papier, mais en
00:20:13 Russie comme en Chine, il est impossible pour une entreprise
00:20:16 qui dépasse une taille critique d'échapper au contrôle du régime
00:20:21 politique.
00:20:21 Et donc, quand vous avez une taille plus que critique,
00:20:26 comme ByteDance, vous êtes soumis non seulement à la loi, la loi
00:20:31 de 2017, qui soumet les acteurs, tous les acteurs institutionnels,
00:20:38 privés y compris, aux exigences de sécurité nationale émises
00:20:42 par le Parti communiste chinois, mais vous êtes aussi soumis
00:20:48 aux dictates politiques, plus que légales, créés par un écosystème
00:20:53 qui soumet l'ensemble des acteurs privés aux objectifs affichés
00:20:58 par le pouvoir politique.
00:20:59 Et vous êtes aussi soumis dans la structure de propriété.
00:21:02 Vous connaissez tous la pratique des "golden share" du Parti
00:21:05 communiste chinois, donc la présence dans les instances de
00:21:07 décision des entreprises privées des représentants du Parti
00:21:10 communiste chinois.
00:21:11 Et ça pose un problème terrible parce qu'en fait, quand on parle
00:21:14 de naïveté européenne, c'est que pendant très longtemps,
00:21:17 on a dit mais enfin, où est le problème ?
00:21:19 Il s'agit d'entreprises privées.
00:21:21 Pourquoi ne pas confier la 5G à Huawei ?
00:21:22 C'était ça le débat.
00:21:23 Si l'offre est la meilleure, laissons les logiques du marché
00:21:28 décider.
00:21:29 C'est le problème, c'est qu'en fait, quand vous avez un acteur
00:21:32 qui, à l'intérieur, n'applique pas les logiques du marché,
00:21:35 appliquer les pures logiques du marché chez vous, c'est mettre
00:21:38 en danger votre sécurité nationale et laisser la pénétration
00:21:41 étrangère, eh bien, saper les bases de votre souveraineté.
00:21:45 Et donc, si on en vient spécifiquement à la question
00:21:50 de TikTok, Nathalie Loiseau a déjà évoqué les risques, mais
00:21:55 il y a un événement quand même, les TikTok leaks qui ont montré
00:22:02 à quel point l'accès à l'information était non seulement
00:22:06 possible, mais réalisé pour les services chinois.
00:22:09 Parce qu'en fait, la question des serveurs, bien sûr que la
00:22:12 question de la location, le lieu des serveurs est extrêmement
00:22:16 important.
00:22:17 Mais en réalité, mettre les serveurs en Europe ne changera
00:22:23 rien parce qu'il y aura toujours un accès.
00:22:25 C'est la question de l'accès le problème et la question de l'accès
00:22:28 par les autorités chinoises aux serveurs, même s'ils sont placés
00:22:31 en Europe, eh bien, elle n'est pas résolue cette question-là.
00:22:36 Et nous savons que grâce à CELIX, mais ensuite, ça a été reconnu
00:22:41 même qu'il y a des enquêtes qui ont été menées, des intrusions
00:22:44 qui ont été faites.
00:22:45 Et donc, il y a la question des données.
00:22:49 Il y a aussi la question, une question simple, pourquoi est-ce
00:22:53 qu'une entreprise, une application qui est aussi perfectionnée
00:22:56 techniquement, technologiquement, n'a pas d'identification
00:23:01 multifacteur ?
00:23:02 Ça, c'est une vraie question que posent tous les services de
00:23:04 sécurité, même ceux du Parlement.
00:23:07 C'est-à-dire qu'en fait, on a laissé des facilités de pénétration
00:23:12 qui n'existent pas nécessairement dans les autres applications.
00:23:16 Et donc, il y a un risque là de TikTok.
00:23:19 Ensuite, il y a le risque que tu as évoqué de la désinformation
00:23:22 sur TikTok.
00:23:23 Et là-dessus, il y a des études qui ont été faites.
00:23:25 Et TikTok était moins prompt, par exemple, si on prend les
00:23:29 mid-termes aux États-Unis, à lutter contre les phénomènes
00:23:33 des désinformations qui devenaient viraux, que d'autres comme
00:23:38 Meta ou YouTube.
00:23:39 Même si, encore une fois, franchement, il n'y a aucune plateforme
00:23:41 qui est vraiment très exemplaire là-dessus.
00:23:43 Mais dans le cas de TikTok, c'était jugé encore plus faible.
00:23:46 Donc, en fait, il y a une conjugaison de risques.
00:23:51 Et donc, la question qui se pose à nous, c'est que finalement,
00:23:56 on doit tirer les leçons de l'absence de prise en compte des risques.
00:24:02 Pendant très longtemps, on a cru que laisser des stocks
00:24:04 stratégiques gaziers allemands sur le territoire allemand à Gazprom,
00:24:09 c'était finalement un jeu du marché.
00:24:11 Ce n'était pas très dangereux.
00:24:12 La réalité, c'est que le lendemain de l'invasion totale de l'Ukraine,
00:24:17 quand M.
00:24:18 Abek, ministre allemand, découvre que les stocks gérés par Gazprom
00:24:24 en Allemagne ont été vidés pendant les six mois qui précédaient
00:24:27 la guerre, ce qui veut dire que nous, Européens, sommes contraints
00:24:31 d'augmenter nos importations en pleine guerre de l'énergie de Russie.
00:24:35 Eh bien, on se rend compte qu'on a été naïfs.
00:24:38 Donc là, l'enjeu, c'est de ne plus prendre ce type de risque.
00:24:44 L'enjeu, c'est de placer des considérations de sécurité et de
00:24:48 souveraineté au-dessus des pures logiques de marché.
00:24:52 Et gardez en tête dans vos travaux, encore une fois, la spécificité
00:24:57 des régimes.
00:25:00 C'est fondamental.
00:25:01 Vous avez, en Chine et en Russie, des régimes tout puissants qui font
00:25:07 que les structures privées leur obéissent et que donc, quelque
00:25:12 chose qui est pareil sur le papier qu'en Europe ne donne pas du tout
00:25:17 les mêmes résultats et ne se traduit pas du tout de la même
00:25:22 manière.
00:25:23 Et voilà.
00:25:24 Sinon, je suis tout à fait disposé à répondre à vos questions et
00:25:27 j'espère que je n'ai pas été trop long.
00:25:29 Merci.
00:25:30 Je vais d'abord donner la parole au rapporteur Claude Malluret pour
00:25:38 compléter par une série de questions, j'imagine.
00:25:41 Merci beaucoup, Madame la Présidente et merci à tous les deux,
00:25:48 d'abord d'avoir accepté notre invitation et puis de ces deux
00:25:52 exposés préliminaires tout à fait pertinents et intéressants.
00:25:58 Je voudrais vous dire qu'on se réjouit de vous recevoir aujourd'hui
00:26:02 pour différentes raisons, mais je voudrais particulièrement,
00:26:05 je pense que c'est inutile pour les membres de cette commission,
00:26:08 mais attirer l'attention, je suppose que tout le monde est au
00:26:12 même niveau d'information que moi, sur les deux ouvrages que vous
00:26:15 avez récemment publiés, Nathalie, il y a quelques mois et
00:26:18 Raphaël Glucksmann plus récemment, et qui nous paraissent tous
00:26:23 importants et qui sont en relation et corrélée avec ce dont nous
00:26:28 nous occupons aujourd'hui dans cette commission.
00:26:30 Raphaël, Laurence Rossignol, cité tout à l'heure, Raphaël Glucksmann,
00:26:37 d'ailleurs, il s'est exprimé lui-même là-dessus, sur le thème
00:26:39 de la naïveté confondante, de l'indolence et de la légèreté
00:26:43 des démocraties occidentales par rapport à tous les problèmes
00:26:48 posés par les régimes totalitaires aujourd'hui et les régimes
00:26:51 dictatoriaux.
00:26:52 C'est évidemment une des raisons pour lesquelles j'ai souhaité
00:26:56 que cette... de demander au Sénat de se prononcer sur l'établissement
00:27:01 de cette commission.
00:27:02 Je suis heureux qu'il l'ait fait, mais bien entendu, je vous rejoins.
00:27:06 Je voudrais juste citer une anecdote que Catherine Morin du
00:27:11 CI se rappellera très probablement, en ce qui concerne la naïveté.
00:27:16 J'ai proposé en 2008, dans la commission de la culture,
00:27:20 où était reçu le ministre Cédric O, d'interdire en France 2018...
00:27:26 Je crois que j'ai dit 2018, pardon, merci, d'interdire RT et Spoutnik.
00:27:34 Cédric O a levé les bras au ciel en disant que nous,
00:27:37 nous n'étions pas des dictatures et que c'était un problème
00:27:40 de liberté d'expression.
00:27:41 J'ai eu beau lui dire que la liberté d'expression s'appliquait
00:27:43 aux médias, mais pas obligatoirement aux officines de désinformation
00:27:47 et aux médias.
00:27:48 J'ai eu le plaisir de pouvoir parler à Catherine Morin,
00:27:50 qui est la directrice générale du FN, et qui a été reçue
00:27:53 du directeur AD du FSB.
00:27:55 Mais je n'ai pas eu gain de cause et je suis passé pour celui
00:27:58 qui luttait contre la liberté d'expression.
00:28:00 Le 24 février, la naïveté s'est un petit peu...
00:28:03 24 février 2022, la naïveté s'est un petit peu abaissée et enfin,
00:28:08 on a supprimé ces organes de propagande.
00:28:11 Je voudrais vous poser quelques questions, pas trop,
00:28:12 parce que je pense que mes collègues en ont beaucoup d'autres.
00:28:16 La première question, c'est la Commission européenne,
00:28:22 puis le Parlement européen, puis un certain nombre de gouvernements
00:28:26 après les États-Unis et le Canada, mais de gouvernements européens
00:28:30 ont décidé d'interdire à leurs fonctionnaires le téléchargement
00:28:33 de la politique.
00:28:34 Je dirais c'est à la fois trop et pas assez, parce que ou bien
00:28:41 on considère qu'il y a un danger de TikTok et dans ces conditions,
00:28:47 on interdit tout simplement ComRT et ComSmoothic pour des raisons
00:28:52 d'espionnage, de transfert de données, etc.
00:28:55 Et on recommande au gouvernement européen de l'interdire purement
00:28:59 et simplement.
00:29:00 Ou bien il n'y a pas de raison évidente de l'interdire
00:29:07 aux fonctionnaires si on ne dit pas pourquoi.
00:29:09 Et c'est là que s'ouvre la boîte de Pandore.
00:29:12 La Commission européenne n'a pas du tout expliqué, si ce n'est
00:29:18 de façon allusive sur les transferts de données, sans doute
00:29:23 pour ne pas vexer le gouvernement chinois en parlant d'espionnage.
00:29:26 Mais pour le moment, la Commission et les gouvernements
00:29:30 européens ont interdit à leurs fonctionnaires le téléchargement
00:29:33 de l'application et encore à leurs fonctionnaires régaliens
00:29:36 pour la plupart et pas à tous les fonctionnaires.
00:29:39 Sans donner de raison.
00:29:42 Alors ma première question, c'est la suivante.
00:29:46 Est-ce que vous avez ou quelqu'un au Parlement ou à la Commission
00:29:50 a posé la question ?
00:29:51 Et nous, nous comptons bien la poser si on n'a pas de réponse
00:29:54 d'ici là aux responsables de la Commission européenne,
00:29:56 aux commissaires européens.
00:29:57 Pourquoi a-t-on interdit le téléchargement de l'application
00:30:03 aux fonctionnaires et pourquoi ne dit-on pas pourquoi ?
00:30:08 Donc ma question, c'est est-ce qu'au sein de la Commission européenne
00:30:11 et du Parlement, cette question a été posée ?
00:30:13 Est-ce que vous avez eu des réponses ?
00:30:14 Est-ce qu'il y a eu des réponses de la part des responsables
00:30:16 de la Commission européenne ou du Parlement ?
00:30:19 La deuxième question, oui, et d'ailleurs, je voudrais
00:30:23 ajouter une chose pour la petite histoire.
00:30:25 C'est qu'alors que la Commission, le Parlement et tous les
00:30:28 gouvernements européens ont interdit le téléchargement de
00:30:30 l'application TikTok à leurs fonctionnaires, le gouvernement
00:30:33 français, qui évidemment n'est pas n'importe quel gouvernement
00:30:36 a toujours ses spécificités, n'est-ce pas, y compris par
00:30:39 rapport aux relations avec nos alliés, ne s'est pas contenté
00:30:43 d'interdire l'application TikTok sur les smartphones de leurs
00:30:47 fonctionnaires, mais a interdit le chargement de plusieurs
00:30:51 applications récuratives, dont Netflix, dont je ne me
00:30:55 rappelle plus lesquelles, etc.
00:30:57 Donc je voudrais voir votre sentiment là-dessus parce que
00:30:59 est-ce que vous pensez que cette décision a été justifiée,
00:31:04 l'interdiction de télécharger Netflix sur les smartphones ?
00:31:06 Ou est-ce que vous pensez qu'à quelques jours de la visite,
00:31:09 puisque cette décision a été prise il y a une quinzaine de
00:31:11 jours, qu'à quelques jours de la visite du président Macron en
00:31:14 Chine, c'était destiné à ne pas cibler plus particulièrement
00:31:19 une application et une plateforme chinoise ?
00:31:21 Ma question suivante, vous l'avez un peu abordée, c'est que TikTok,
00:31:30 évidemment, nous assure qu'il n'y a aucun lien avec la Chine,
00:31:36 avec le gouvernement chinois, etc.
00:31:37 Et que d'ailleurs, le capital aujourd'hui est réparti et
00:31:42 largement, majoritairement, non chinois.
00:31:44 Il explique d'ailleurs que la preuve, c'est que le siège est
00:31:49 aux îles Caïmans.
00:31:50 Moi, si j'étais à leur place, je ne prendrais pas comme exemple
00:31:52 de transparence le fait d'avoir établi mon siège aux îles
00:31:56 Caïmans parce que ça va être un petit peu compliqué de savoir
00:32:00 s'ils disent la vérité dans cette répartition du capital.
00:32:02 Mais quoi qu'il en soit, ils disent qu'il n'y a pas de lien
00:32:05 avec le gouvernement chinois.
00:32:07 Et la maison mère, ce que nous appelons la maison mère,
00:32:10 mais qu'ils n'appellent pas la maison mère, Biden, ce n'est pas
00:32:12 majoritaire dans le capital.
00:32:13 Alors, cette déclaration, qui a été répétée d'ailleurs au Congrès
00:32:22 lorsque Xu Jinqiu a été auditionné par les membres du Congrès
00:32:25 américain, est directement contredit par le gouvernement chinois,
00:32:30 probablement d'ailleurs à son insu ou sans l'avoir voulu.
00:32:35 Puisque lorsque les Américains suggèrent de vendre,
00:32:38 que l'application TikTok soit vendue à des sociétés américaines
00:32:42 pour ne plus avoir les risques inhérents à la situation actuelle,
00:32:46 le gouvernement chinois dit il n'en est pas question.
00:32:49 Nous ne vendrons jamais TikTok.
00:32:50 Nous ne laisserons jamais TikTok vendre.
00:32:52 Ce qui est la preuve même que c'est bien le gouvernement chinois
00:32:55 qui mène le jeu, si je peux dire.
00:33:02 Je voulais vous demander si vous avez, au-delà des deux facteurs
00:33:07 qui sont évidemment ceux de toutes les grandes sociétés chinoises,
00:33:10 d'abord ceux d'avoir à reprendre à la moindre demande du service
00:33:14 de renseignement chinois, deuxièmement d'avoir une cellule
00:33:16 du PC chinois dans le...
00:33:17 Mais ce n'est pas le cas de TikTok directement.
00:33:19 Est-ce que vous avez...
00:33:21 Quel est votre sentiment de façon plus précise sur les rapports
00:33:25 entre la société, non pas entre la société Biden,
00:33:28 mais entre la société TikTok elle-même et le gouvernement chinois ?
00:33:31 Est-ce que par un moyen ou par un autre,
00:33:34 ou par des successions de moyens,
00:33:36 il est important pour nous d'établir le degré...
00:33:41 Moi, je suis assez persuadé que le degré est assez fort,
00:33:44 mais d'établir de façon la plus précise possible le degré
00:33:48 d'affiliation de ces sociétés au gouvernement
00:33:51 et au parti communiste chinois,
00:33:53 ce qui n'est pas tout à fait la même chose.
00:33:55 Je voudrais vous poser une question sur...
00:33:58 Vous en avez parlé aussi.
00:34:00 Donc sur l'établissement de serveurs en Europe,
00:34:04 le projet Texas aux États-Unis et le projet Clover en Europe.
00:34:09 Je ne vais pas vous poser une question technique,
00:34:13 parce que la question technique,
00:34:15 nous l'avons d'ailleurs déjà posée à des informaticiens,
00:34:18 à des sociétés spécialisées.
00:34:20 Il nous paraît d'ailleurs à la suite de ces auditions
00:34:23 assez évident que le projet Clover...
00:34:26 D'abord, il est question d'installer les serveurs
00:34:29 dans 2 pays européens qui sont très particuliers.
00:34:31 Le 1er, c'est l'Irlande,
00:34:32 qui, pour des raisons fiscales, etc.,
00:34:35 ne joue pas systématiquement le jeu
00:34:36 de l'ensemble des autres pays européens.
00:34:38 Et le 2e, c'est la Norvège,
00:34:39 qui n'est pas un pays européen,
00:34:41 au sens qu'il n'appartient pas à l'Union européenne,
00:34:44 ce qui, déjà, pose des problèmes
00:34:46 sur le choix de ces 2 pays.
00:34:48 Il paraît évident à la suite des auditions que nous avons eues
00:34:52 qu'il n'est pas possible d'éviter les portes dérobées
00:34:55 et que, comme vous le disiez tout à l'heure,
00:34:56 de toute façon, à partir du moment
00:34:59 où un certain nombre de données
00:35:01 doivent être traitées en Chine par des ingénieurs chinois,
00:35:05 on ne voit pas comment il pourrait en être autrement.
00:35:07 Mais la question que je voulais vous poser
00:35:13 n'est pas une question technique, c'est une question politique,
00:35:15 puisque vous le savez à titre politique.
00:35:19 Quelle est, aujourd'hui, au sein du Parlement
00:35:22 et de la Commission européenne,
00:35:24 la sensibilité sur le fait d'accepter ou non,
00:35:31 de recommander ou non le projet Clover ?
00:35:35 Est-ce que vous pensez que la Commission européenne
00:35:39 est susceptible d'accepter ce projet, de le recommander ?
00:35:43 Il est d'ailleurs particulièrement opaque,
00:35:46 même à ce stade.
00:35:49 Quel est votre sentiment sur la position, demain,
00:35:54 du Parlement européen et de la Commission européenne
00:35:56 sur le projet Clover ?
00:36:00 La question suivante est celle de l'interdiction
00:36:04 ou de la régulation.
00:36:06 Depuis qu'on a créé cette Commission,
00:36:08 il y a des tas de journalistes qui viennent nous voir.
00:36:11 La première question qu'ils posent, c'est
00:36:12 "Alors, est-ce que vous allez interdire TikTok ?"
00:36:15 Nous, on ne se pose pas la question comme ça.
00:36:17 On se pose d'abord la question de savoir
00:36:18 qu'est-ce que c'est TikTok,
00:36:19 qu'est-ce qu'il y a dans ce mécanisme,
00:36:22 d'essayer de l'ouvrir un peu
00:36:23 et ensuite d'en tirer des conclusions
00:36:25 qui peuvent être de toute nature.
00:36:26 On n'est pas là, on n'a pas créé cette Commission
00:36:28 pour dire "On va interdire TikTok".
00:36:31 Mais il n'en reste pas moins que ce sujet se pose
00:36:35 d'ores et déjà, avant même toute conclusion de problème.
00:36:40 Le premier problème, c'est celui de la réciprocité.
00:36:44 Est-ce que vous pensez qu'il est possible durablement
00:36:50 que les plateformes occidentales soient interdites
00:36:53 purement et simplement en Chine
00:36:55 et qu'en contrepartie, la Chine fait ce qu'elle veut,
00:36:58 vous l'avez dit tout à l'heure, sur les plateformes occidentales
00:37:01 et qu'en plus, les Occidentaux laissent la Chine
00:37:04 développer n'importe quelle plateforme,
00:37:05 parce que TikTok n'est pas la seule.
00:37:06 Peut-être, à mon avis, en tout cas,
00:37:09 WeChat qui ne s'adresse pas à nous,
00:37:13 mais qui s'adresse à toutes les communautés chinoises
00:37:15 dans le monde entier, c'est-à-dire quelque chose
00:37:17 d'extrêmement énorme et qui est peut-être,
00:37:20 de ce point de vue-là, plus problématique que TikTok.
00:37:22 Nous laissons tout cela.
00:37:24 Voilà. Alors première question, est-ce qu'à titre de ...
00:37:26 non pas de menaces, d'espionnage ou autre,
00:37:33 de transfert de données, mais à titre d'équilibre politique
00:37:39 et commercial, est-ce qu'il vous paraît normal
00:37:41 d'être dans cette situation
00:37:44 et qu'est-ce que vous recommanderiez de ce point de vue-là ?
00:37:46 Deuxième point par rapport à interdiction ou régulation,
00:37:50 si on dit on n'interdit pas TikTok à la fin de la conclusion
00:37:53 et qu'il faut probablement envisager à ce moment-là
00:37:59 le problème de la régulation,
00:38:00 est-ce que vous pensez aujourd'hui que le DMA et le DSA,
00:38:03 je crois que Nathalie en a dit deux mots tout à l'heure,
00:38:06 est-ce que vous pensez que le DMA et le DSA
00:38:09 sont des outils suffisants pour réguler, d'ailleurs,
00:38:12 pas seulement TikTok, mais d'autres plateformes,
00:38:14 mais nous on s'occupe du TikTok,
00:38:16 ou est-ce que vous pensez,
00:38:17 et est-ce que le Parlement européen et la Commission
00:38:19 sont aujourd'hui en train de se pencher, d'ores et déjà,
00:38:22 parce que les choses évoluent évidemment
00:38:24 beaucoup plus rapidement que le législateur à chaque fois,
00:38:27 sont déjà en train de se pencher sur les nécessités,
00:38:31 les futures nécessités de la régulation
00:38:34 par rapport à ces plateformes,
00:38:35 mais notamment par rapport à TikTok ?
00:38:40 Et enfin, je voudrais vous poser une dernière question.
00:38:44 Aucune plateforme n'est exemplaire sur le plan
00:38:48 des données de l'algorithme,
00:38:51 disait Raphaël Glucksmann tout à l'heure.
00:38:55 J'avais...
00:39:02 Le Sénat français a voté il y a deux ans,
00:39:06 et là aussi mes collègues s'en souviennent sans doute,
00:39:08 contre l'avis du gouvernement,
00:39:10 un amendement à la loi sur le séparatisme,
00:39:14 qui disait la chose suivante,
00:39:17 c'est un amendement que j'avais proposé,
00:39:20 dont je n'avais jamais pensé qu'il serait voté,
00:39:22 et qu'il a été à l'unanimité,
00:39:25 contre l'avis du gouvernement,
00:39:26 disant toute plateforme qui,
00:39:30 je ne me rappelle plus les termes exacts,
00:39:33 mais qui catégorise ce diffusion d'informations
00:39:36 à partir d'algorithmes,
00:39:39 ou d'autres traitements informatiques analogues,
00:39:44 entraîne un choix,
00:39:48 et qui se prétend hébergeur,
00:39:52 et qui dit "je ne suis pas un éditeur,
00:39:56 puisque je ne me contente de diffuser",
00:39:59 c'est d'ailleurs tout le lobbying des GAFAM à Bruxelles,
00:40:02 qui dépense des milliards pour essayer d'éviter
00:40:04 qu'on les désigne comme producteurs
00:40:07 et non pas comme hébergeurs,
00:40:09 donc toute plateforme qui fait de la "curation"
00:40:10 au sens anglais du terme,
00:40:12 c'est-à-dire qui trie les informations que ce soit
00:40:14 à partir d'algorithmes ou à partir d'autres outils informatiques,
00:40:17 détermine par là-même une ligne éditoriale,
00:40:19 et devient de facto un éditeur et non pas un hébergeur,
00:40:21 et de ce point de vue-là,
00:40:22 et comme le dit Thierry Breton,
00:40:24 ce qui est interdit offline doit être interdit online,
00:40:28 et la modération doit se faire préalablement
00:40:32 et non pas ex post.
00:40:34 L'avis du gouvernement était,
00:40:38 par le même ministre et pour les mêmes raisons,
00:40:40 celui de la liberté d'expression, le contraire,
00:40:43 mais le Sénat l'a voté à l'unanimité.
00:40:45 Évidemment, il n'est jamais passé à l'Assemblée nationale.
00:40:47 Je voudrais vous demander ce que vous pensez
00:40:49 sur cette distinction entre éditeur et diffuseur,
00:40:54 et si vous pensez qu'on peut longtemps continuer
00:40:56 avec des plateformes, pas seulement TikTok,
00:40:58 mais des plateformes qui continuent sur ce thème
00:41:01 de pouvoir diffuser à peu près ce qu'elles veulent,
00:41:06 et ce serait avec une insuffisance criante
00:41:08 et encore plus insuffisante chez TikTok que chez les autres,
00:41:10 ou s'il va falloir quand même,
00:41:12 et notamment au niveau européen, régler cela.
00:41:15 Je vous remercie.
00:41:16 Je m'excuse à mon tour d'avoir été sans doute plus long
00:41:18 que je ne le souhaitais.
00:41:20 Je vais vous donner la parole dans un instant,
00:41:25 après on prendra les questions,
00:41:26 parce que comme le président Malluret
00:41:28 a déjà bien été fourni dans ses questions à votre égard,
00:41:31 moi je voudrais en rajouter peut-être une à cet instant.
00:41:35 Vous avez la même question sur la réciprocité.
00:41:36 Elle a été abordée par le président Malluret.
00:41:39 J'en avais une, effectivement,
00:41:42 vous allez peut-être y répondre,
00:41:43 c'est comment on identifie la nationalité de TikTok.
00:41:48 Mais je crois qu'on a eu la posée.
00:41:50 Et enfin, il y en a une autre,
00:41:52 c'est quel est l'accès des Chinois à TikTok.
00:41:54 Est-ce que les Chinois ont un accès...
00:41:57 Comment les Chinois...
00:41:59 Qu'est-ce que les Chinois voient sur TikTok ?
00:42:01 Et enfin, sur hébergeur-diffuseur,
00:42:04 je confirme et j'appuie la question
00:42:06 dans la mesure où pour travailler
00:42:08 sur la diffusion des contenus pornographiques,
00:42:10 nous avons exactement le même problème
00:42:13 sur les contenus pornographiques.
00:42:14 Et si vous avez un mot à nous dire
00:42:16 sur TikTok et les contenus pornographiques,
00:42:18 nous sommes au moins deux à être preneuses
00:42:20 et probablement tous nos collègues aussi.
00:42:22 Trois, enfin bon, tous les collègues présents dans la salle.
00:42:26 Qui commence ?
00:42:33 Je vais essayer d'être très, très rapide
00:42:37 et de toute façon, ce qui est bien,
00:42:40 c'est que je peux compter sur Nathalie
00:42:42 pour être exhaustif derrière.
00:42:44 Aujourd'hui,
00:42:48 les mesures qui sont prises,
00:42:53 c'est la vraie question.
00:42:54 Pourquoi ?
00:42:55 Et pourquoi il n'y a pas de pourquoi ?
00:42:57 Pourquoi elles ne sont pas expliquées ?
00:43:00 Et ensuite, je m'exprimerai sur Nathalie
00:43:03 sur Netflix.
00:43:04 Alors nous, on a reçu une note confidentielle,
00:43:10 je ne sais pas si elle est partagée,
00:43:11 mais je n'ai pas le droit de le faire publiquement,
00:43:13 qui explique les risques.
00:43:15 Elle n'a pas été communiquée publiquement.
00:43:18 Et alors, ça, c'est une vraie question.
00:43:21 C'est-à-dire,
00:43:22 il n'y a pas de volonté d'expliquer publiquement
00:43:26 pourquoi on cible spécifiquement TikTok.
00:43:32 C'est de toute façon une mesure de précaution.
00:43:34 C'est-à-dire que c'est fondé sur l'idée de risque.
00:43:37 Ce n'est pas fondé
00:43:38 sur des preuves
00:43:42 d'espionnage avérées,
00:43:45 même s'il y en a.
00:43:46 Ces risques sont conséquents.
00:43:51 Et le fait de ne pas les partager,
00:43:54 à mon avis,
00:43:55 est problématique politiquement,
00:43:58 démocratiquement,
00:44:00 et relève d'une politique européenne depuis longtemps,
00:44:03 qui est de ne pas
00:44:05 antagoniser la Chine.
00:44:08 Et je pense que cette politique est
00:44:11 portée à sa quintessence
00:44:16 avec la décision
00:44:18 du gouvernement français sur Netflix.
00:44:22 Parce que tout ce que nous, on essaye d'expliquer dans la commission spéciale,
00:44:26 c'est quand même
00:44:27 que oui, il faut des critères objectifs
00:44:30 et généraux.
00:44:31 Il ne s'agit pas de faire comme les Américains
00:44:33 et de cibler à chaque fois spécifiquement
00:44:36 la Chine, le gouvernement chinois,
00:44:38 une région en Chine.
00:44:39 Mais
00:44:40 il ne s'agit quand même pas non plus de faire semblant
00:44:44 que Netflix et TikTok posent les mêmes problèmes.
00:44:48 Et je pense que c'est d'ailleurs
00:44:52 une faille dans le raisonnement européen
00:44:56 que l'on retrouve à chaque étape de notre commission spéciale.
00:45:01 Je vais m'expliquer.
00:45:02 L'absence de volonté ou la volonté de ne pas faire
00:45:07 de listes, par exemple, d'entités problématiques
00:45:10 pour notre souveraineté et notre sécurité
00:45:12 conduit à des réflexions parfois lunaires
00:45:16 parce qu'elles s'imposent un caractère universel
00:45:20 et indistinct dans les cibles.
00:45:23 Comment faire pour réglementer ?
00:45:26 Je vais prendre un exemple qui n'est pas la question des plateformes
00:45:29 et vous allez comprendre ce que ça produit en fait
00:45:31 comme type de réflexion.
00:45:33 Comment faire pour réglementer les travaux
00:45:35 que des sénateurs ou des députés ou des ministres
00:45:39 vont faire après leur mandat ou leur rôle ?
00:45:42 On est là dans une réflexion en particulier après le Catargate
00:45:47 qui est extrêmement intense
00:45:50 et on parle de cette cooling off période,
00:45:53 de cette période de refroidissement
00:45:54 où chacun devra s'abstenir
00:45:57 d'aller travailler pour tel ou tel intérêt privé.
00:46:01 Le problème, c'est que travailler pour Gazprom
00:46:05 et travailler pour une entreprise norvégienne
00:46:08 de bois, ce n'est pas la même chose.
00:46:12 Ce n'est pas la même chose et c'est traité de la même manière.
00:46:16 Donc là, on a un peu un problème.
00:46:18 C'est-à-dire que les services de sécurité
00:46:21 vont nous alerter sur Gazprom
00:46:23 plus que sur la question de l'entreprise de bois en Norvège.
00:46:28 Mais si on traite tout de manière universelle,
00:46:31 si on ne fait pas spécifiquement quelque chose sur Gazprom,
00:46:35 eh bien on va se retrouver très rapidement
00:46:37 dans des discussions qui peuvent conduire à des apauries
00:46:39 parce qu'en gros, si on interdit à tout officiel
00:46:44 ou à tout serviteur de l'État
00:46:46 d'aller travailler dans une entreprise privée toute sa vie,
00:46:48 on va avoir un problème de recrutement dans l'État
00:46:52 et il n'y aura plus que des fonctionnaires.
00:46:55 Et je comprends qu'il y aurait quand même
00:46:57 une forme d'insurrection morale face au fait
00:47:00 qu'on paye toute leur vie des gens
00:47:02 parce qu'ils ont été ministre pendant un an.
00:47:04 Ça poserait problème.
00:47:06 Et donc, en même temps,
00:47:08 on ne peut pas les faire mourir de faim non plus.
00:47:09 Donc qu'est-ce qui se passe ?
00:47:11 Eh bien, c'est-à-dire qu'il va falloir quand même
00:47:15 qu'on se décide à faire en sorte
00:47:17 qu'un ministre de la Défense ne puisse pas aller travailler
00:47:20 pour un fonds pour la Chine ou pour la Russie
00:47:24 alors qu'il pourrait tout à fait aller travailler
00:47:27 pour la Norvège, enfin pour une entreprise norvégienne.
00:47:29 Ça ne poserait pas le moindre problème.
00:47:31 Donc il y a une mesure de précaution
00:47:36 et qui, quand elle est étendue à Netflix,
00:47:39 perd un peu de son sens à mon humble avis,
00:47:43 si vous voulez que je vous réponde franchement.
00:47:46 Quand le gouvernement chinois,
00:47:50 mais vous avez mis dans la question la réponse,
00:47:54 quand le gouvernement chinois dit
00:47:57 "Nous ne laisserons pas faire",
00:47:59 ça veut dire qu'en fait la structure officielle
00:48:01 de propriété de TikTok ne reflète en rien
00:48:04 le processus de décision.
00:48:06 Et c'est tout le problème de ces régimes opaques.
00:48:11 C'est que vous pouvez très bien avoir
00:48:14 sur le papier une structure de propriété
00:48:18 qui est majoritairement à l'extérieur de la Chine,
00:48:21 il n'empêche que dans le fonctionnement,
00:48:24 c'est le gouvernement chinois, le parti communiste chinois
00:48:27 qui va décider des orientations qui seront prises
00:48:29 ou qui ne seront pas prises.
00:48:31 Et la même chose ressort des 80 réunions
00:48:34 qui ont été enregistrées
00:48:37 et qui ont donné lieu au TikTok Leaks.
00:48:40 Dans BuzzFeed, c'est qu'en fait,
00:48:43 la pratique est la vérité.
00:48:47 Ça doit être ça la base de notre approche.
00:48:51 La pratique de Gazprom est la vérité de Gazprom,
00:48:54 pas la structure officielle.
00:48:57 La pratique de TikTok est la vérité de TikTok.
00:49:00 Donc sur le papier, ça peut très bien devenir
00:49:02 une entreprise européenne basée en Irlande,
00:49:05 la question c'est qui commande concrètement, réellement ?
00:49:09 Et là-dessus, vous pouvez avoir toutes les garanties sur le papier,
00:49:12 il y aura toujours la même suspicion
00:49:16 parce qu'on ne refuse rien aux autorités politiques chinoises
00:49:20 et que les exemples qui sont faits,
00:49:23 on a parlé d'Alibaba tout à l'heure,
00:49:25 font que personne ne leur refusera rien,
00:49:27 qui a des liens avec la Chine et qui donc est forcément dépendant
00:49:30 de la bonne volonté du pouvoir politique.
00:49:33 Sur les serveurs, encore une fois,
00:49:36 vraiment j'insiste, le lieu des serveurs
00:49:40 est moins important que la question de l'accès aux serveurs
00:49:44 et de l'accès aux datas.
00:49:46 Et là-dessus, c'est pareil, c'est la pratique qui décide.
00:49:49 Je ne veux pas répondre à tout parce que je vais être trop long.
00:49:53 L'interdiction ou la régulation, c'est la grande question.
00:49:57 Moi, je peux juste vous livrer mon point de vue personnel.
00:50:00 Je ne pense pas qu'on en soit aujourd'hui
00:50:03 au moment où on va bannir TikTok
00:50:06 de l'ensemble du continent européen.
00:50:09 Ce ne sera pas ça qui sera décidé.
00:50:12 Par contre, il y a des questions de régulation
00:50:16 et il y a des questions de réciprocité,
00:50:18 vous les avez mentionnées.
00:50:20 Et le fait est qu'on risque d'arriver à ce bannissement
00:50:23 parce qu'il y a un déséquilibre total
00:50:28 dans nos relations avec la Chine.
00:50:30 C'est vrai du commerce et c'est vrai de l'information.
00:50:34 C'est-à-dire qu'on se met dans une position,
00:50:37 c'est la même chose avec la Russie,
00:50:39 où en gros, il y a un contrôle absolu
00:50:42 de toute influence qui pourrait émaner
00:50:45 de nos démocraties en Chine
00:50:48 et que nous, on n'a pas du tout la même attitude.
00:50:52 C'est tout à notre honneur,
00:50:54 mais ça ne doit pas devenir finalement une naïveté.
00:50:57 Sur les algorithmes,
00:50:59 là, je voudrais juste être un tout petit peu plus long là-dessus.
00:51:02 Sur les algorithmes, sur votre amendement,
00:51:05 je pense que c'est fondamental.
00:51:11 Et là-dessus, je veux juste expliquer pourquoi,
00:51:14 et ça ne concerne pas que TikTok là, par contre.
00:51:17 Les algorithmes des plateformes,
00:51:23 qui sont les secrets les mieux gardés de ces plateformes,
00:51:27 finalement, cherchent quoi ?
00:51:32 A maximiser votre présence sur la plateforme,
00:51:35 à vous attirer, à vous exciter,
00:51:38 à vous rendre dépendant.
00:51:40 Et donc, on l'a vu par exemple,
00:51:42 ce qui a été révélé des émoticônes sur Facebook,
00:51:44 quand la colère est cinq fois plus mise en avant
00:51:49 que l'approbation, parce que la colère est plus addictive.
00:51:53 Eh bien, c'est ces algorithmes qui dictent,
00:51:57 qui sont les lois en fait de notre nouvel agora.
00:52:00 Et ça, c'est tout le paradoxe.
00:52:02 C'est qu'en fait, notre débat public
00:52:04 a désormais lieu dans un espace privé.
00:52:06 Il faut essayer de comprendre ce que ça suppose.
00:52:10 C'est l'opposé de la place publique.
00:52:12 Donc en fait, notre place publique est devenue un espace privé.
00:52:15 Notre agora est un lieu privé,
00:52:19 régi par des lois que le décideur public,
00:52:23 que le législateur ne connaît pas.
00:52:26 Et ces lois, c'est ça l'enjeu des algorithmes,
00:52:31 et ces lois, eh bien, favorisent
00:52:35 l'ébranlement de notre démocratie.
00:52:37 Parce que ces lois favorisent
00:52:40 les opinions les plus polarisantes
00:52:43 et les rends addicts,
00:52:46 et rends drogués,
00:52:48 au point de vue de la colère.
00:52:51 Et donc là, on a une recette pour une catastrophe.
00:52:55 Et le régime russe,
00:52:59 parce qu'on a plus accès à leurs réflexions théoriques là-dessus,
00:53:03 le régime russe l'a parfaitement compris.
00:53:05 C'est-à-dire que le chef d'orchestre de la propagande poutinienne,
00:53:09 depuis le début du règne de Poutine, qui s'appelle Sorkov,
00:53:12 vous avez peut-être lu le "Match du Kremlin",
00:53:15 il théorise le chaos.
00:53:18 Il théorise l'expansion du chaos.
00:53:21 Et cette fois-ci, pas dans une fiction,
00:53:23 mais dans un véritable article de 2021,
00:53:26 Sorkov, à ce moment-là,
00:53:29 il est responsable de la politique ukrainienne de Poutine,
00:53:32 Sorkov, il explique
00:53:36 que la seule manière pour le régime russe de continuer à exister,
00:53:40 c'est l'expansion du chaos,
00:53:42 pour remédier au phénomène récurrent des tensions intérieures.
00:53:45 Et donc, le but, c'est l'expansion du chaos.
00:53:48 Le but de cette propagande n'est pas d'être crue,
00:53:50 mais elle est d'ébranler notre rapport à la vérité.
00:53:54 Le fait qu'on ne croit plus en rien
00:53:56 et qu'on soit en énervement permanent.
00:53:58 Eh bien, cette approche-là
00:54:01 correspond magnifiquement aux algorithmes des plateformes.
00:54:05 Et donc, en fait, on joue, nous, tout le temps,
00:54:07 sur un terrain extérieur, maintenant.
00:54:09 C'est comme si on était une équipe de foot
00:54:11 qui passait son temps à jouer à l'extérieur,
00:54:13 alors même qu'eux ont bloqué tout l'accès à ces plateformes.
00:54:16 Et donc, ils jouent à la maison chez nous.
00:54:19 C'est aussi basique que ça, grâce à ces algorithmes.
00:54:22 Puisque leur approche correspond au terrain de jeu
00:54:26 et aux règles et aux lois du terrain de jeu.
00:54:29 Et donc, là, je veux bien qu'ils aiment beaucoup l'argent
00:54:33 et que leur but soit de s'étendre indéfiniment.
00:54:38 Mais il y a une contrepartie à cela.
00:54:41 Je parle des plateformes.
00:54:42 Il y a une contrepartie à cela, c'est la responsabilité.
00:54:45 Parce qu'il y a un moment où le pouvoir public
00:54:49 ne peut pas autoriser des acteurs privés
00:54:53 à saper les fondements sur lesquels ils reposent.
00:54:56 Et c'est pour ça qu'il faut impérativement
00:54:58 que la responsabilité soit imposée.
00:54:59 Et là-dessus, d'ailleurs, je dois dire,
00:55:01 l'Union européenne, par rapport aux États-Unis, est précurseur.
00:55:04 C'est-à-dire qu'on a les États-Unis qui ciblent TikTok, très bien.
00:55:08 Mais par contre, quand il s'agit de réguler de manière générale
00:55:13 les plateformes, c'est l'Union européenne qui en avance là-dessus.
00:55:18 Je suis souvent critique sur les positions de l'Union européenne
00:55:21 et sur les retards pris à l'allumage des institutions européennes.
00:55:24 Mais il se trouve que là-dessus, on est en avance.
00:55:26 Nous, par exemple, quand on a échangé avec les autorités australiennes,
00:55:29 elles enquêtent, elles analysent ce que nous faisons en ce moment.
00:55:33 Et l'idée, c'est quand même de bâtir une coalition
00:55:37 sans les États-Unis sur cette question-là,
00:55:40 pour obliger les Américains à réfléchir réellement à l'influence,
00:55:46 en même que quand même, ils ont eu les images que vous avez
00:55:49 toutes et tous vues du Capital, et que c'est une conséquence
00:55:53 notamment des algorithmes, des plateformes.
00:55:57 Donc il y a là un enjeu fondamental,
00:56:01 et c'est pour ça que votre amendement était fondamental.
00:56:06 - Merci. Je ne vais pas reprendre ce qu'a dit Raphaël Bluchmann
00:56:13 que je partage.
00:56:15 Un premier mot sur...
00:56:16 A-t-on dit pourquoi on suspendait ou on interdisait
00:56:21 l'installation de TikTok sur les outils
00:56:25 des fonctionnaires européens ?
00:56:28 Il faut voir que l'Union européenne, c'est à la fois
00:56:30 un grand marché et aussi une construction juridique.
00:56:33 Donc elle est toujours extrêmement pointilleuse
00:56:35 dans ce qu'elle dit publiquement.
00:56:38 Elle n'est pas toujours très politique,
00:56:40 c'est le moins qu'on puisse dire.
00:56:43 Elle le devient, mais elle le devient face aux crises
00:56:46 et un peu dans la douleur.
00:56:48 Celui qui est allé le plus loin dans l'explication,
00:56:52 c'est l'organisme de régulation belge,
00:56:55 qui a pris la même décision que d'autres
00:56:58 et qui a dit des choses assez claires en disant
00:57:01 "TikTok collecte une grande quantité de données
00:57:03 auprès des utilisateurs et peut manipuler
00:57:06 les flux d'informations et de contenus.
00:57:08 La loi chinoise oblige TikTok à coopérer
00:57:11 avec les services de renseignement chinois,
00:57:13 raison pour laquelle on demande aux fonctionnaires belges
00:57:16 de ne plus charger TikTok.
00:57:18 Je vous ai offert gratuitement la traduction
00:57:21 d'un communiqué qui est en néerlandais.
00:57:23 Et eux, ils sont allés assez frontalement,
00:57:26 là où les autres ont été plus vagues, plus généraux.
00:57:30 Alors est-ce que c'est un défaut
00:57:33 de mélanger TikTok avec d'autres ?
00:57:36 Paradoxalement, je ne suis pas sûre.
00:57:40 Je ne suis pas sûre parce que ce qu'on reproche
00:57:42 à la Chine de faire au travers de son outil à elle,
00:57:46 et Raphaël Glucksmann a raison de dire
00:57:49 que c'est la pratique qui compte,
00:57:51 TikTok est un outil de propagande
00:57:55 et d'influence de la Chine.
00:57:58 Mais elle le fait aussi à travers les autres plateformes.
00:58:01 Elle le fait à travers Twitter, Facebook.
00:58:05 J'ai quelque part les chiffres,
00:58:09 pendant la pandémie de Covid,
00:58:11 de la manière dont Twitter a essayé
00:58:14 de courir après la désinformation,
00:58:17 puisque c'était le premier sujet
00:58:19 sur lequel les plateformes admettaient
00:58:21 que quand il y avait une question de vie ou de mort,
00:58:23 elles avaient une responsabilité.
00:58:25 Et on y reviendra sur le fait que, à partir de là,
00:58:27 elles ont admis qu'elles n'étaient pas simplement des tuyaux,
00:58:30 mais qu'elles avaient une responsabilité.
00:58:32 2019, Twitter bloque
00:58:37 environ 500 faux comptes chinois.
00:58:40 2020, je crois que c'est 130 000 et quelques.
00:58:42 J'ai le chiffre précis quelque part.
00:58:45 Donc l'influence, la manipulation de l'information,
00:58:48 elle passe à travers toutes les plateformes.
00:58:52 TikTok en étude, mais c'est loin d'être la seule.
00:58:56 Et je considère que l'approche européenne
00:58:59 qui souhaite réguler toutes les plateformes,
00:59:05 ce n'est pas une approche lâche qui ne veut pas voir
00:59:07 où est la difficulté.
00:59:09 C'est une approche de précaution vis-à-vis de tous.
00:59:14 Et pour répondre à votre question sur Clover,
00:59:18 d'abord, la présentation qui en a été faite
00:59:21 est pour le moment extrêmement floue.
00:59:25 On sait peu de choses.
00:59:26 On sait que TikTok s'engage à avoir des centres de données
00:59:31 en Irlande et en Norvège.
00:59:34 Alors en Irlande, on sait que c'est pour des raisons fiscales.
00:59:36 Il n'y a à peu près pas de doute là-dessus.
00:59:38 Dire que l'Irlande ferme davantage les yeux que d'autres,
00:59:42 c'est de moins en moins vrai.
00:59:43 L'autorité de régulation irlandaise peut être piquée au vif
00:59:47 et aussi parce qu'elle est armée aujourd'hui
00:59:49 du RGPD et du DSA, fait son travail.
00:59:51 C'est elle qui a déclenché deux procédures d'enquête
00:59:54 sur l'utilisation des données par TikTok.
00:59:58 On va voir ce qu'elle devient,
00:59:59 mais en tout cas, elle a l'obligation de le faire aujourd'hui.
01:00:03 En revanche, quand TikTok nous dit
01:00:05 qu'ils vont avoir un audit indépendant
01:00:07 d'une entreprise de cybersécurité,
01:00:10 quel audit, sur quels critères, quelle entreprise,
01:00:14 on n'en sait rien et c'est probablement pas suffisant
01:00:18 pour être rassuré.
01:00:19 Sur l'approche qui est celle de la régulation,
01:00:24 donc celle qui a été prise d'abord par le RGPD,
01:00:26 ensuite par le DSA,
01:00:28 ça n'est pas l'alpha et l'oméga,
01:00:30 ce n'est pas les tables de la loi gravées dans le marbre,
01:00:33 mais c'est un premier pas important, intéressant,
01:00:37 justement parce que, s'agissant du DSA,
01:00:40 on n'est plus dans la naïveté de dire
01:00:42 que les plateformes sont des tuyaux,
01:00:44 elles n'ont pas de responsabilité.
01:00:46 On les met devant leur responsabilité.
01:00:48 La Commission, les autorités de régulation des États membres
01:00:51 doivent avoir accès au GRAL,
01:00:54 c'est-à-dire aux algorithmes de recommandation.
01:00:58 Les plateformes elles-mêmes ont des responsabilités
01:01:02 et là, on n'est pas allé assez loin.
01:01:04 C'est à elles, en quelque sorte,
01:01:06 de faire en sorte d'atténuer les risques
01:01:10 de contenus préjudiciables,
01:01:13 quels qu'ils soient, évidemment,
01:01:15 dutés contre les contenus illégaux.
01:01:17 On a d'ailleurs ajouté d'autres réglementations,
01:01:21 par exemple sur les contenus terroristes,
01:01:23 pour leur donner des obligations spécifiques.
01:01:26 On travaille sur les contenus pédopornographiques.
01:01:29 Il y a eu une première réglementation
01:01:31 qui était, j'allais dire, intérimaire
01:01:33 pour éviter qu'on se retrouve sans aucune réglementation.
01:01:36 Et maintenant, on travaille sur une réglementation plus durable.
01:01:40 C'est à nous de donner des orientations
01:01:43 sur ce qui est illégal hors ligne
01:01:45 et qui doit devenir complètement en ligne.
01:01:48 Est-ce qu'on va assez loin ?
01:01:50 La vraie question, le vrai test maintenant,
01:01:52 pour les très grandes plateformes
01:01:54 pour lesquelles le DSA est déjà en vigueur
01:01:57 depuis quelques semaines,
01:01:59 c'est notre capacité à faire respecter cette réglementation.
01:02:03 C'est-à-dire à enquêter,
01:02:05 à considérer qu'il y a eu une brèche dans la réglementation
01:02:09 et à imposer les sanctions,
01:02:11 sanctions qui peuvent être très significatives,
01:02:14 puisqu'elles sont de plusieurs pourcentages
01:02:16 du chiffre d'affaires mondial de ces plateformes.
01:02:19 Donc elles sont véritablement dissuasives
01:02:22 à mal se comporter.
01:02:24 Et là, on entre dans le moment de test.
01:02:27 Est-ce que la Commission, dont c'est pas l'ADN immédiat,
01:02:31 va être capable de taper du poing sur la table et de dire
01:02:34 "Là, nous vous avons vus, vous avez été en violation du DSA" ?
01:02:39 Je dirais que le premier des tests,
01:02:41 il est sur Twitter de Elon Musk aujourd'hui.
01:02:44 Quand on voit ce que c'est que l'effondrement
01:02:46 de la modération de Twitter,
01:02:48 quand on voit ce que sont aujourd'hui
01:02:50 les algorithmes de recommandation de Twitter
01:02:52 qui font que vous avez sur votre fil
01:02:54 des choses que vous n'avez jamais sollicitées,
01:02:57 il y a évidemment une question à se poser.
01:02:59 Au-delà de la question à se poser,
01:03:01 il y a un dialogue très ferme à avoir avec Twitter
01:03:04 et il y a à faire respecter par Twitter,
01:03:07 comme Elon Musk l'avait un peu rapidement promis,
01:03:11 le Digital Service Act.
01:03:13 C'est un vrai sujet, c'est un vrai instrument
01:03:16 qui est sans doute pas le dernier parce que la technologie va vite,
01:03:19 mais je pense vraiment que,
01:03:21 au-delà de la spécificité de TikTok,
01:03:23 les ingérences étrangères, notamment chinoises,
01:03:26 passent par toutes les plateformes
01:03:28 et que si on bannit TikTok,
01:03:32 d'une certaine manière, ça renaîtra autrement
01:03:35 et de toute façon, ça prendra d'autres canaux.
01:03:39 Sur le "Shut Today" et Sputnik,
01:03:41 je partage tout à fait ce que disait le président Maluret.
01:03:44 Pour autant, si on regarde les chiffres
01:03:46 de la désinformation d'origine russe
01:03:50 qui circulent par des moyens numériques en Europe
01:03:54 depuis l'interdiction de le "Shut Today" et de Sputnik,
01:03:58 on a donné un coup de pied dans la fourmilière
01:04:01 et ça s'est répandu partout ailleurs.
01:04:03 C'est extraordinairement compliqué de se dire
01:04:06 que la mesure qu'on prend, aussi spectaculaire soit-elle,
01:04:10 est suffisante par rapport au but qu'on poursuit.
01:04:15 En revanche, la notion de réciprocité
01:04:18 que l'on brandit toujours quand on parle de la Chine
01:04:21 et qu'on applique peu, parce que les Chinois bannissent
01:04:24 le simple mot de réciprocité dans nos échanges,
01:04:26 devrait être au cœur de nos échanges avec la Chine.
01:04:29 C'est-à-dire qu'accepter une plateforme comme TikTok
01:04:33 et accepter que les plateformes occidentales,
01:04:36 elles, ne sont pas représentées en Chine,
01:04:39 est un vrai sujet.
01:04:41 C'est d'abord un sujet pour les États-Unis
01:04:43 puisqu'il n'y a pas de plateforme européenne.
01:04:46 Et on voit bien la réponse américaine qui est de dire
01:04:49 qu'on va peut-être bannir TikTok, tout simplement
01:04:51 parce qu'il n'y a pas de régulation américaine
01:04:54 et qu'il y a une concurrence économique, commerciale
01:04:58 entre les plateformes américaines et de la sorte chinoise
01:05:01 qu'on regarde passer au-dessus de nos têtes.
01:05:04 On n'est pas exactement dans la même position que les États-Unis
01:05:07 et les États-Unis se sont mis dans une position
01:05:10 où la légitimité de leurs préoccupations
01:05:13 est un peu ternie par leurs soucis de gains
01:05:18 ou d'absence de pertes commerciales.
01:05:21 On l'a dit, aucune plateforme n'est exemplaire.
01:05:25 C'est bien pour ça que TikTok, comme les autres,
01:05:27 doit passer par le DSA.
01:05:29 Quel est l'accès des Chinois à TikTok ?
01:05:31 Non, il y a un TikTok spécial Chine
01:05:34 qui est encore plus contrôlé, encore plus verrouillé
01:05:38 que le véritable TikTok.
01:05:40 Mais TikTok sert évidemment à des publics occidentaux,
01:05:43 surtout jeunes.
01:05:45 C'est d'ailleurs une des raisons qui a fait
01:05:47 que dans le Digital Service Act,
01:05:49 il y a des mesures particulières de protection des mineurs
01:05:52 qui sont demandées aux plateformes
01:05:54 et notamment aux très grandes plateformes,
01:05:56 à la fois protection des données, protection sur les contenus.
01:05:59 Quand vous êtes une très grande plateforme,
01:06:01 qui que vous soyez vis-à-vis des mineurs,
01:06:04 vous avez plus de responsabilités
01:06:09 sur les contenus pornographiques.
01:06:11 Je l'ai dit, l'Europe travaille d'abord et avant tout
01:06:14 sur les contenus pédopornographiques
01:06:17 pour leur faire la chasse.
01:06:19 Toutes les plateformes, quelle que soit leur nationalité,
01:06:21 vont vous dire que c'est très compliqué,
01:06:23 que c'est techniquement infaisable.
01:06:25 C'est tout à fait faisable techniquement,
01:06:27 simplement, ça coûte de l'argent.
01:06:29 Et nous, nous leur disons à l'inverse que ne pas le faire,
01:06:31 ça leur coûte en réputation.
01:06:33 Et de ce point de vue-là, ça fonctionne assez bien.
01:06:36 Et je dirais que sur les contenus pédopornographiques,
01:06:39 un certain nombre de plateformes ont mis au point des outils
01:06:42 qu'il faut évidemment contrôler pour être sûrs
01:06:45 qu'ils ne sont pas intrusifs sur notre vie privée.
01:06:49 Mais on a un vrai débat au Parlement européen
01:06:51 et parfois certains s'y trompent,
01:06:53 étant tellement préoccupés par la protection de la vie privée
01:06:57 qu'ils seraient prêts à protéger des pédopornographes.
01:07:00 -C'est pour ça qu'ils le font. -Et d'ailleurs, ils le font.
01:07:02 Et les plateformes, de ce point de vue-là,
01:07:04 sont plutôt du côté de ceux qui veulent lutter
01:07:07 contre la pédopornographie.
01:07:09 Parce qu'ils ont bien compris le risque réputationnel
01:07:11 auquel ils sont exposés.
01:07:13 C'est là où on voit toute l'ambiguïté du dialogue qu'on peut avoir avec eux.
01:07:16 -Quelle est la richesse réelle de TikTok,
01:07:18 au-delà de sa marque, mais la valorisation de sa marque,
01:07:20 ça ne veut pas dire grand-chose.
01:07:22 Si ce n'est pas les recettes publicitaires,
01:07:24 ce sont ces données, les données massives
01:07:27 qu'elle obtient sur les personnes.
01:07:29 Des données, ça se valorise soit d'un point de vue publicitaire,
01:07:32 compris en termes de publicité ciblée,
01:07:35 ce que ne fait pas TikTok, en tous les cas,
01:07:38 dans la partie occidentale.
01:07:39 Ça se valorise pour développer un algorithme.
01:07:41 Alors ça, oui, ils l'utilisent.
01:07:43 Puis des données, logiquement, ça peut se revendre.
01:07:46 Ce qu'ils ne font pas.
01:07:48 Donc, quand je regarde la stratégie du gouvernement chinois,
01:07:51 et ça nous a été confirmé par les services,
01:07:53 nous sommes tous les jours, dans les pays européens, américains,
01:07:56 pillés sur des bases de données personnelles
01:07:59 de nos services publics,
01:08:01 avec des moyens d'infraction.
01:08:03 Comment le gouvernement chinois se priverait
01:08:07 des données concernant plus d'un milliard d'utilisateurs,
01:08:10 très précises, dans le reste du monde ?
01:08:12 C'est-à-dire que la question du transfert des données,
01:08:15 légale ou pas légale, doit bien exister,
01:08:18 puisque c'est une source d'information.
01:08:20 Deuxième chose, qu'est-ce qu'on fait de ces données
01:08:22 une fois qu'elles sont prises ?
01:08:24 Le temps de conservation des données.
01:08:26 On se rend compte qu'aujourd'hui,
01:08:28 quand l'Italie a décidé, en tout cas, le régulateur italien
01:08:31 a décidé de suspendre provisoirement ChatGPT,
01:08:36 c'était précisément sur la question
01:08:38 du respect ou pas du règlement personnel
01:08:41 et aussi des âges de consentement.
01:08:43 ChatGPT a dit que nous allons relancer la production
01:08:47 avec beaucoup moins de données personnelles
01:08:50 et avec moins d'historiques sur les personnes.
01:08:52 L'usage de l'intelligence artificielle,
01:08:55 notamment sur la base des données,
01:08:57 pose cette question de combien de tons
01:09:00 garde-t-on des données.
01:09:02 Ce n'est pas simplement où les stockons,
01:09:05 où les investissons.
01:09:06 Et là-dessus, on n'a pas d'élément.
01:09:08 Alors, est-ce que l'approche économique
01:09:10 vous paraît une approche fiable ?
01:09:12 Parce que si on veut comprendre ce qu'est TikTok
01:09:15 et à quoi ça sert ou éventuellement
01:09:17 à qui ça peut servir, c'est très compliqué.
01:09:20 Pour les rares données dont nous disposons,
01:09:23 notamment les fameuses données Forbes
01:09:26 sur la présence d'employés de l'État chinois
01:09:30 dans Bytance et TikTok,
01:09:33 elles sont obtenues sur la base des travaux
01:09:35 des employés qui sont inscrits sur LinkedIn.
01:09:38 C'est la seule base dont on dispose.
01:09:40 Donc, il y a un problème de transparence.
01:09:43 Et jusqu'à quel moment on peut accepter
01:09:46 qu'une entreprise ne publie pas des comptes,
01:09:49 ne publie pas des résultats réels,
01:09:52 les bases de ses dépenses et de ses coûts ?
01:09:55 Ça, c'est un vrai problème,
01:09:57 surtout quand on dit que le capital est largement extérieur.
01:10:01 C'est une problématique.
01:10:02 On nous dit souvent que pour lutter contre la mafia,
01:10:05 il faut la prendre au porte-monnaie.
01:10:07 Je n'accuse pas TikTok ou Bytance d'être la mafia,
01:10:10 mais il y a quand même une absence de transparence
01:10:13 qui dépasse très largement la faible transparence
01:10:16 qu'il y a sur les grandes plateformes
01:10:18 ou les grands groupes numériques internationaux.
01:10:21 - Merci. Dernier collègue a demandé de poser une question.
01:10:25 Rémi Cardon. Après, je vous laisserai répondre
01:10:29 à la question de la séance.
01:10:30 - Merci, madame la présidente.
01:10:32 Effectivement, une question
01:10:34 avec une mise en contexte, ça a été dit.
01:10:37 On doit aussi tous se poser la question
01:10:40 de ne pas que se focaliser sur TikTok,
01:10:43 parce qu'en fait, si on en regarde l'ancienneté,
01:10:46 les plateformes américaines se sont installées
01:10:49 et le business model que tu viens de définir,
01:10:52 cher collègue, en réalité, c'est la recherche de volumétrie
01:10:55 en termes d'utilisateurs pour faire des produits
01:10:58 pour s'installer dans une société
01:11:00 et après jouer sur des campagnes d'influence.
01:11:03 C'est ça le business model.
01:11:05 Et puis, par la suite, on a vu les évolutions
01:11:08 de Facebook, Instagram et autres,
01:11:10 tout de suite, d'être en mesure de vendre de la publicité
01:11:13 parce qu'il y a une volumétrie.
01:11:15 Puis par la suite, on a vu les évolutions
01:11:18 de Facebook, Instagram et autres,
01:11:20 tout de suite, d'être en mesure de vendre de la publicité
01:11:23 parce qu'il y a une volumétrie.
01:11:25 Puis par la suite, on a vu les évolutions
01:11:28 de Facebook, Instagram et autres,
01:11:30 tout de suite, d'être en mesure de vendre de la publicité
01:11:33 parce qu'il y a une volumétrie.
01:11:35 Puis par la suite, on a vu les évolutions
01:11:38 de Facebook, Instagram et autres,
01:11:40 tout de suite, d'être en mesure de vendre de la publicité
01:11:43 parce qu'il y a une volumétrie.
01:11:45 Puis par la suite, on a vu les évolutions
01:11:48 de Facebook, Instagram et autres,
01:11:50 tout de suite, d'être en mesure de...
01:11:52 ...d'empêcher d'autres d'arriver sur le marché des plateformes.
01:11:55 Ce qu'on constate, en tout cas,
01:11:57 c'est que, jusqu'à présent, l'Europe est toujours absente
01:12:00 de ce débat, c'est-à-dire qu'il n'y a aucune entreprise européenne
01:12:03 qui fasse le poids.
01:12:05 Et puis, toujours sur le stockage des données,
01:12:08 juste un mot, quand même.
01:12:10 D'une part,
01:12:12 malgré tout, TikTok a commencé à bouger
01:12:15 après avoir vu les décisions
01:12:18 des institutions européennes.
01:12:20 Non, pardon, avant avoir vu les décisions
01:12:23 des institutions européennes, quand il y a eu les TikTok Leaks,
01:12:26 il y a eu une opération Damage Control,
01:12:29 le patron de TikTok a fait le tour de la commission à Bruxelles.
01:12:32 Ça n'a pas extrêmement bien marché,
01:12:34 puisqu'il a suffi qu'il devienne
01:12:36 pour que la commission et le Parlement décident
01:12:39 qu'on le sortait des outils
01:12:42 des fonctionnaires. Il n'a pas dû être ultra-convaincant.
01:12:45 Donc, maintenant, on entend parler du projet Clover
01:12:48 et on voit qu'il pourrait y avoir
01:12:51 des stockages de données en Europe.
01:12:54 Mais c'est juste l'application du RGPD, en fait.
01:12:57 C'est-à-dire que le patron de TikTok s'est fait expliquer
01:13:00 par la commission européenne tout ce vis-à-vis de quoi
01:13:03 il était en violation.
01:13:05 C'est un petit début, mais c'est quand même quelque chose.
01:13:08 Ça ne suffira peut-être pas,
01:13:10 mais ça veut tout de même dire, je le pense,
01:13:13 que si on a le courage d'aller au-delà de l'adoption de règles,
01:13:17 mais qu'on se concentre sur leur mise en oeuvre,
01:13:20 on a un levier, parce qu'on est 450 millions de consommateurs,
01:13:24 parce que TikTok, aujourd'hui, c'est, on ne sait pas très bien,
01:13:27 125, 150 millions d'utilisateurs en Europe,
01:13:30 autant qu'aux États-Unis. Et donc, par définition,
01:13:33 TikTok doit prendre en compte ce qui va lui être dit
01:13:36 par l'Union européenne.
01:13:38 -Bon courage aux Britanniques qui ont quitté l'Union européenne.
01:13:41 -Raphaël Hucksmann.
01:13:43 -Merci, Mme la présidente. Merci pour vos questions.
01:13:46 Je vais essayer de ne pas répéter ce qui vient d'être dit.
01:13:50 Juste sur le pantouflage, évidemment,
01:13:53 le problème que ça pose,
01:13:56 c'est que les réseaux, c'est la connaissance,
01:14:00 et ensuite, c'est la suspicion qui est nécessairement née
01:14:04 dans l'opinion, c'est-à-dire quand ces personnes étaient en poste,
01:14:07 est-ce qu'elles travaillaient déjà pour leurs futurs employeurs ?
01:14:10 C'est une question légitime, ce n'est pas du complotisme.
01:14:13 Là, par contre, c'est une question légitime
01:14:16 qui est éveillée par ce type de bascule
01:14:19 qui devient extrêmement fréquent
01:14:22 et qui doit être combattue,
01:14:25 parce que là, j'ai l'impression que la leçon a été tirée pour la Russie.
01:14:28 Donc on a poussé les anciens dignitaires
01:14:32 qui se livraient à ce genre de pratiques
01:14:34 avec les grandes entreprises russes à démissionner,
01:14:37 des bords, mais personne ne semble avoir fait le lien
01:14:41 avec la Chine et avec d'autres régimes.
01:14:45 La responsabilité des plateformes,
01:14:48 alors je partage tout à fait ce qui vient d'être dit,
01:14:51 c'est un premier pas et tout dépend de la manière dont on l'applique.
01:14:54 Alors on a une expérience en Europe d'avoir des textes
01:14:57 qui souvent sont progressistes et qui ouvrent des nouvelles voies,
01:15:01 mais dont l'application laisse à désirer
01:15:05 et il va falloir qu'on fasse, nous tous,
01:15:09 à l'échelle nationale et à l'échelle européenne,
01:15:12 attention à la manière dont sont appliqués les textes qui ont été votés.
01:15:16 - Qui va enquêter ? Les États ?
01:15:20 Les autorités indépendantes des États et la Commission ?
01:15:22 - Et la Commission. Et donc le problème qui se pose...
01:15:24 - Vous allez y venir ?
01:15:25 - Là je vais y venir parce qu'en ce moment même,
01:15:28 au Parlement européen, je suis en train de négocier
01:15:30 sur le bannissement des produits de l'esclavage.
01:15:32 On peut dire que ça n'a rien à voir,
01:15:34 mais l'enjeu et le système, c'est le même.
01:15:37 C'est-à-dire que le texte va être bon,
01:15:39 j'en suis sûr, on va trouver un compromis
01:15:41 et ça va être un texte très important qui va ouvrir un nouveau champ.
01:15:44 La grande question, c'est comment est-ce qu'on fait
01:15:48 pour que ce soit appliqué de manière à peu près harmonieuse
01:15:50 à l'échelle de 27 États membres.
01:15:52 Donc il faut que la Commission ait une responsabilité.
01:15:54 Donc nous, au Parlement, on explique à la Commission
01:15:58 qu'elle arrête d'être timide et qu'elle accepte d'avoir
01:16:01 une responsabilité plus forte que ce qu'il y a aujourd'hui écrit dans le texte.
01:16:04 Le problème, c'est que vous regardez les gens avec des cernes
01:16:07 qui vous parlent et qui vous expliquent qu'ils sont 5
01:16:10 pour contrôler l'ensemble des ports du continent européen
01:16:15 et par ailleurs, voir si les deux personnes qui parlent chinois
01:16:21 ont peut-être 5 minutes de libre pour savoir
01:16:25 s'il n'y a pas du dumping quelque part.
01:16:27 Donc en fait, il y a un vrai problème là,
01:16:29 qui est qu'on passe des textes qui sont extrêmement importants
01:16:32 pour protéger l'espace européen en général
01:16:35 et que l'Union Européenne, contrairement à la propagande
01:16:38 des nationalistes, est sous-dotée
01:16:41 et qu'on a un vrai problème de faiblesse du budget européen
01:16:45 et de faiblesse des instances de contrôle à l'échelle européenne.
01:16:48 On parle là de compétences qui sont en train de s'agrandir
01:16:53 et tout le monde demande de plus en plus de choses à l'Union Européenne
01:16:56 et il est évident que si on veut protéger l'espace numérique,
01:16:59 on ne va pas le faire à l'échelle de la France seule.
01:17:01 Si on veut protéger le marché des produits de l'esclavage
01:17:04 ou de la déforestation, on ne va pas le faire à l'échelle de la France seule.
01:17:07 On va confier de plus en plus de tâches à une administration
01:17:10 qui est celle d'un village et ça va être compliqué.
01:17:14 Je vais vous le dire, ça va être compliqué de faire face
01:17:17 aux armées de lobbyistes ou d'avocats des grandes plateformes
01:17:22 comme ça va être compliqué sur la question des produits
01:17:25 qui rentrent sur notre marché.
01:17:28 La question de l'objectif et de la nature de l'entreprise.
01:17:34 Comme toutes ces plateformes, évidemment, ça a été dit,
01:17:38 le but c'est d'abord de s'installer, de se répandre
01:17:42 et ensuite peut-être de valoriser sa place dominante.
01:17:47 La question qui se pose, c'est que là on est dans le moment de l'expansion
01:17:52 et pas encore tout à fait de la valorisation.
01:17:56 Et comme on est, je reviens à mon point de départ,
01:18:01 dans un système, un écosystème où, pour reprendre les termes
01:18:08 d'un éditorial de RIA Novosti, l'agence officielle russe,
01:18:13 l'argent n'est pas tout, à propos de Gazprom,
01:18:17 il y a une vraie question quand même qui se pose.
01:18:20 C'est-à-dire que s'étendre, ça veut dire collecter
01:18:24 le plus possible de données, ça veut dire occuper un espace dominant.
01:18:28 Si on est dans le même temps au service d'un régime politique
01:18:33 dont les intérêts et les principes sont fondamentalement hostiles
01:18:36 au domaine dans lequel on s'étend, ça pose une question.
01:18:41 C'est-à-dire que qu'est-ce qui va être à la fin considéré
01:18:44 comme la véritable valorisation des efforts qui sont produits actuellement ?
01:18:47 Est-ce que c'est vendre des pubs et donc faire du fric,
01:18:52 pour être très basique, ou est-ce que c'est une autre forme
01:18:56 de valorisation des données qu'on collecte,
01:18:59 c'est-à-dire une valorisation des sens plus politiques,
01:19:02 et dans ce cas-là, ça pose un danger plus grand
01:19:04 pour la sécurité de nos nations ?
01:19:08 Sous-titrage Société Radio-Canada