SMART TECH - IA générative, le progrès à quel prix ?

  • il y a 4 mois
Gemini, project Astra, Veo… La traditionnelle Google I/O, conférence de Google, était cette année rythmée par la présentation de ses nouveaux outils d’IA. Des annonces qui sonnent comme une réponse face à celle d’OpenAI qui vient à peine de dévoiler GPT-4o. Mais alors que le monde a les yeux rivés sur ces modèles toujours plus puissants, la prudence reste de mise. Jusqu’où peut-aller le progrès en matière d’IA ?

Category

🗞
News
Transcript
00:00 *Générique*
00:04 Les commentateurs du débrief, aujourd'hui je vous les présente tout de suite,
00:07 Julien Pillot, bonjour Julien.
00:09 Consultant, enseignant-chercheur en économie Alin Seck,
00:12 à côté de vous, Maître Adrien Badevant, avocat spécialiste en droit des nouvelles technologies au sein du cabinet Entropi.
00:18 Bonjour.
00:18 Bonjour et bienvenue également Adrien.
00:20 Et puis Alain Staron, notre disrupteur préféré, bonjour Alain.
00:23 Bonjour Madeline.
00:24 Président de la start-up de sécurité connectée Artifil.
00:27 Alors on va commencer avec ces annonces dans les IA génératives.
00:31 Ça s'est bousculé, c'est le moins qu'on puisse dire,
00:33 parce qu'on sent qu'il y a vraiment une grosse compétition en ce moment qui se joue entre OpenAI et Google.
00:38 Le même jour, OpenAI vole la vedette, finalement, à la grande conférence annuelle tenue par Google le soir même,
00:46 en annonçant une nouvelle version de son assistant intelligent,
00:50 qui devient évidemment de plus en plus intelligent,
00:52 à ce point qu'il est capable de devenir cet assistant merveilleux qui va nous aider à accoucher de nouvelles idées,
00:58 qui va nous aider à résoudre des problèmes, des problèmes mathématiques.
01:01 Est-ce que vous y croyez, ça, au miracle de l'assistant IA générative ?
01:07 Alors ce n'est pas un miracle, c'est une évolution normale du progrès.
01:11 Après, il ne faut pas non plus se tromper, j'ai encore demandé tout à l'heure, juste avant de venir,
01:15 en quelle année Albert Camus avait-il refusé le prix Nobel ?
01:18 Oui, mais attends, juste précision.
01:20 Ça ne marche pas.
01:21 Avec quelle version, Alain ?
01:23 Celle que j'ai sur Plexity, qui est une des dernières.
01:26 Non mais c'est le même problème qu'avant.
01:28 Donc on me dit 1957, après je dis en quelle année il l'a eu,
01:30 on me dit il ne l'a jamais eu, et en fait il l'a eu en 1957, il ne l'a jamais refusé.
01:34 Donc on voit bien, et ça c'est sur Wikipédia,
01:37 et c'est Wikipédia de 2010, je ne sais pas où va chercher ces données de la JPT,
01:44 mais il est encore assez loin d'une vraie précision.
01:47 Donc ça c'est sur le côté, je m'en sers comme outil de référence.
01:50 Ce n'est pas un moteur de recherche.
01:52 Oui mais, pardon, il remplace Bing, c'est le moteur de recherche de Microsoft.
01:58 Il est dans Bing.
01:59 Il est dans Bing, oui.
02:01 Donc là on a un sujet, on reviendra dessus sur les ingérences,
02:06 on a un sujet de fond.
02:07 Après sur la forme, ajouter la voix et l'image, c'est juste un nombradeur,
02:12 c'est standard, c'était évident que ça allait arriver, c'est très bien,
02:14 et effectivement ça rend tout confus.
02:17 Parce que j'ai en face de moi une machine qui parle et qui écoute.
02:21 Et je pense qu'on franchit une barrière, c'est extrêmement simple,
02:24 c'est du texte to speech, du speech to texte, c'est extrêmement simple,
02:26 mais psychologiquement on a franchi une étape.
02:30 C'est Her.
02:32 Voilà, qui parle, qui nous écoute et qui peut même lire nos émotions,
02:36 nous dit-on chez OpenAI.
02:38 Non, non, pas que chez OpenAI, lire des émotions c'est très facile,
02:42 ça se fait beaucoup, et puis après sur le dialogue,
02:44 il faut aussi se méfier, depuis les années 50, et l'école de Palo Alto,
02:48 on sait que, on sait simuler des répliques des réparties humaines
02:53 avec un pauvre ordinateur, et on sait faire partir une discussion en vrille
02:57 ou l'apaiser.
02:58 Donc ça ne vous inquiète pas, ce trouble qui peut...
03:00 Non, ce qui m'inquiète, c'est ce que je viens de dire,
03:02 c'est que son plus image, qui ne sont pas des révolutions techniques du tout,
03:07 rendent floue totalement la distance qu'on devrait avoir avec ces outils,
03:11 qui sont toujours, comme je le disais en preambule, largement pas fiables.
03:14 Alors justement, en matière de distance, justement, OpenAI nous dit
03:17 "Mais là, moi, je suis en train d'inventer, en fait, les nouvelles interactions homme-machine".
03:21 Oui, justement, et on en revient au propos d'Alain, avec lequel je suis complètement en phase,
03:26 c'est que l'interface homme-machine ne fonctionne qu'à partir du moment,
03:30 en tout cas de façon symbiotique, à partir du moment où vous mettez justement
03:34 cette barrière protectrice entre vous et la machine,
03:38 en reconnaissant le fait qu'en face de vous, vous avez quelque chose qui a juste été automatisé,
03:42 pensé par des intelligences bien humaines.
03:44 Le flou artistique dans lequel on est en train de se plonger,
03:48 en fait, laisse augurer des transformations anthropiques qui sont assez fortes, à mon sens,
03:54 suffisamment pour être questionnés en amont de phase, en fait.
03:57 De se dire "Attendez, là, il y a peut-être des dangers potentiels
04:00 qui méritent qu'on s'y intéresse, parce qu'on ne sait pas trop
04:04 vers quoi est-ce que l'on est en train de plonger.
04:07 On est dans une espèce d'inconnu".
04:09 Et puis sur la partie économique, il y a quand même quelque chose d'assez important à souligner.
04:14 Alain a dit à juste titre qu'aujourd'hui, ces intelligences artificielles,
04:18 elles se trompent encore régulièrement, elles ont tendance à halluciner,
04:22 pour employer le terme technique, et si elles deviennent des outils de référence,
04:25 et en fait, en gros, ce n'est pas les concepteurs qui vont décider
04:28 qu'elles vont devenir un outil de référence, c'est les usages qui vont peut-être
04:31 en faire des outils de référence, les ériger en tant que tels,
04:34 et bien en fait, transformer des médias sourcés avec des sources journalistiques,
04:42 universitaires, et évidemment frapper du saut de la vérification historique
04:48 par des choses qui ont été générées de façon extrêmement massive,
04:52 de façon tellement puissante par des intelligences artificielles,
04:55 sans ce souci de vérification et de vérité,
04:59 si ça devenait des outils de référence, ça pourrait nous plonger
05:03 dans l'ère de la post-vérité, et là, pour le coup, malheur à nous.
05:07 - Et typiquement, la forme entraîne le fond, parce que c'est la voix et l'image
05:12 qui vont nous entraîner là-dedans, alors tu as tout à fait raison,
05:15 ce n'est pas encore fiable.
05:18 - Adrien ?
05:19 - Je pense que ça fait un an et demi qu'on s'est beaucoup concentré sur les modèles,
05:22 et on va encore avoir pendant les 18 prochains mois, à chaque fois, des annonces.
05:25 Les annonces sont toujours spectaculaires, certains modèles sont plus rapides,
05:29 ou consomment moins de ressources.
05:31 - D'ailleurs, chez Google, c'est ça qui a été présenté,
05:34 on a trois versions, avec une version nano pour les smartphones,
05:37 une version flash très rapide et beaucoup plus légère,
05:40 et puis une version pro.
05:41 - Donc là, on est encore au niveau des modèles, mais on comprend au fur et à mesure
05:45 qu'on passe des concepteurs aux utilisateurs, qu'on va parler de plus en plus des systèmes.
05:49 La différence entre un modèle et un système est quand même importante à voir.
05:52 Certains acteurs, comme OpenAI ou Google, peuvent verticaliser toute la chaîne de valeur,
05:55 mais il y a quand même des acteurs qui sont différents sur cette chaîne de valeur.
05:58 Il y a des personnes qui développent des modèles, puis il y a des personnes qui,
06:01 sur ces modèles, développent des interfaces d'utilisation pour en faire des systèmes.
06:04 Ces systèmes sont mis à disposition de nous tous, utilisateurs professionnels
06:07 ou dans notre vie à titre personnel.
06:09 Et donc, c'est aussi tout un autre marché qui n'est pas le même marché,
06:12 qui est un marché applicatif, pas seulement celui de faire tourner des modèles.
06:16 Donc, sur le modèle, le marché est très concentré,
06:19 il va très certainement devenir oligopolistique,
06:22 et après, comment on va faire, justement, pour mettre, au passage du modèle au système,
06:26 toutes ces safeguards, ces "guards rails", comme on dit en anglais,
06:29 pour protéger, justement, l'interface dans l'interaction qu'on aura, nous, en tant qu'humains.
06:33 On a peut-être quand même déjà une différence, justement, de modèles
06:36 entre OpenAI et Google sur ce sujet, puisque OpenAI semble vraiment déterminée
06:41 à rester sur un modèle où, tout de suite, les innovations sont disponibles,
06:44 librement, gratuitement, alors pas totalement,
06:47 il y a quand même un moment où il faut passer à la caisse, mais...
06:50 En tout cas, c'est l'idée de "j'ai un progrès, tout de suite,
06:53 je le partage avec un maximum de personnes", là où Google préfère spécifier,
06:57 justement, ces modèles pour des usages particuliers,
07:00 lance même une application un peu pour montrer la voie sur comment on peut s'en servir.
07:04 La grande différence, c'est qu'on a un acteur, dans votre comparaison,
07:07 comme Google, qui a déjà plein de verticales intégrées.
07:10 C'est vrai, oui.
07:11 OpenAI peut faire une verticalisation entre modèle jusqu'à système,
07:14 mais ne bénéficie pas déjà de Google Meet, de Gmail,
07:18 donc ne peut pas intégrer à une gamme de produits préexistants.
07:21 Et en fait, aujourd'hui, on est tous en train de chercher
07:24 quelle est la meilleure efficacité du modèle, mais dans 4 ans, 5 ans, 6 ans,
07:27 ça sera intégré, on ne le verra plus, ça sera dans les outils du quotidien.
07:30 C'est déjà ce que fait Microsoft, dans sa suite, bureautique.
07:34 On retrouve de l'IA dans Excel, dans Word, et là, ça prend tout son sens.
07:40 Alors, est-ce que cette guerre, quand même, que se mènent les géants,
07:44 les grandes plateformes du numérique, ça ne risque pas, justement,
07:47 de créer un emballement dans cette course et qu'on aille un peu trop vite ?
07:51 Justement, qu'on crée des usages qu'on n'arrive pas forcément, aujourd'hui, à prévoir
07:55 et dont on ne connaît pas les conséquences ?
07:57 Business as usual.
07:58 Oui, course ou pas.
07:59 C'est ce qui se passe sur les marchés d'innovation depuis toujours.
08:02 Les innovations précèdent les usages.
08:05 Parfois, les usages qui émergent sont très éloignés
08:08 de ce à quoi les concepteurs pensaient lorsqu'ils ont conçu leurs innovations.
08:13 Et puis, certains usages posent des problématiques économiques
08:17 ou des problématiques sociétales, parfois environnementales.
08:20 Il s'agit, derrière, de réguler de façon efficiente
08:23 et, on espère, la plus intelligente possible.
08:25 Pour rentrer dans cette course, ça devient de plus en plus compliqué
08:29 parce que ça demande des moyens faramineux.
08:32 Finalement, on s'aperçoit que pour rentrer dans la course,
08:34 on est obligé aussi de travailler.
08:36 Ça dépend où on rentre dans la course.
08:38 C'est pour ça que c'est intéressant de décortiquer la chaîne de valeur.
08:40 Si vous voulez rentrer au niveau du modèle qui est tout en amont,
08:43 là, c'est très difficile parce que le sous-jacent, c'est le GPU,
08:46 c'est la puissance de calcul.
08:49 Donc, celle-là, elle est rare, elle est chère.
08:51 Si vous arrivez plus en aval, c'est-à-dire que vous utilisez des briques
08:54 propriétaires ou libres et que vous réintégrez dans des interfaces
08:56 que vous développez pour sur-spécialiser ces assistants personnalisés
09:00 dans certains secteurs ou pour certaines tâches,
09:02 là, peut-être qu'il y a un plus grand marché en fonction des différentes verticalités.
09:05 Donc, là, quand vous voyez ces annonces, vous ne vous dites pas
09:07 « Là, ça va être très compliqué pour l'Europe de rattraper le train ».
09:12 Oui et non.
09:13 Il vient d'être lancé le train, mais on sent qu'il est déjà à grande vitesse.
09:16 Bonne nouvelle, nous avons le DMA.
09:18 Autrement dit, on peut avoir peu de modèles et beaucoup d'applications
09:20 en coupant entre les deux pour préserver la concurrence.
09:23 Je parle sous le contrôle de l'avocat.
09:25 Mais normalement, c'est censé être fait pour ça.
09:27 Bon, ça, c'est plutôt du manuel.
09:29 Après, sur les modèles fondamentaux,
09:31 il n'y a pas forcément besoin de beaucoup de manpower,
09:36 mais simplement, il faut l'avoir depuis un certain temps.
09:38 Et tout va toujours plus vite.
09:40 Et quand on change de génération, on ne peut pas rentrer à la génération 5.
09:43 Le marché est trop haut.
09:45 On a perdu des cristaux liquides comme ça.
09:47 Alors, est-ce que notre réglementation, elle nous protège ?
09:50 Ça, c'est un éternel débat aussi.
09:52 Non, pas l'avocat.
09:54 Non, mais c'est-à-dire qu'il faut voir comment elle sera appliquée.
09:58 Elle a le mérite d'exister.
10:00 Alors, on commence à mettre la pression sur Microsoft avec Teams.
10:03 L'Europe, en tout cas, et pas que l'Europe, même les États-Unis aujourd'hui.
10:08 Également sur les plateformes avec le Digital Service Act.
10:13 Oui, on a des textes aujourd'hui au niveau européen,
10:16 que ce soit le DSA, le DMA ou l'AI Act en devenir,
10:19 qui ont vocation, en tout cas, à promouvoir une innovation responsable.
10:24 Mais l'AI Act, si vous le regardez aujourd'hui,
10:26 il manque encore beaucoup de lignes directrices.
10:28 Donc, c'est très difficile d'évaluer comment il sera mis en œuvre
10:33 et ce qu'il permettra aussi à l'innovation européenne de se diffuser.
10:37 Et c'est encore un peu trop tôt, à mon sens, pour pouvoir en juger.
10:41 Oui, Julien ?
10:42 Non, je suis complètement d'accord avec ce qui vient d'être dit.
10:45 Je le répète très souvent, mais l'efficacité d'une règle
10:48 se juge à notre capacité à pouvoir la faire appliquer.
10:50 Donc, toujours a posteriori et avec un retour d'expérience, finalement,
10:54 qui nous permet de savoir si on a été capable de détecter
10:57 des comportements de marché qui auraient pu être problématiques,
11:00 voire même parfois complètement frauduleux,
11:02 et notre capacité à avoir des mécanismes correctifs
11:05 à travers des sanctions financières, mais également des remèdes comportementaux
11:08 pour pouvoir dire, bon, ben ça, non seulement vous ne le ferez plus,
11:11 mais la sanction est tellement dissuasive que plus personne ne le fera.
11:14 Et on arrivera à vivre un peu mieux.
11:16 Bon, ben ça, on se donne rendez-vous dans 5-6 ans.
11:18 Ok, ça marche.
11:19 Alors, en attendant, on va parler des milliards d'euros
11:22 qui sont investis dans des data centers en France
11:25 par des entreprises américaines, bien sûr.
11:28 On a 4 milliards annoncés par Microsoft,
11:31 voilà, pour des data centers, pour renforcer la présence
11:34 des data centers sur le sol français avec la création de nouveaux centres.
11:37 Du côté d'Amazon, c'est 1,3 milliard d'euros.
11:39 1 milliard du côté de Téléhaus, l'acteur japonais.
11:42 Accenture, il y a eu beaucoup d'annonces à l'occasion de l'événement Choose France.
11:46 Alors, est-ce qu'on se dit, c'est génial,
11:49 la France profite de la manne des GAFAM,
11:52 ou est-ce que ça nous pose un petit problème ?
11:55 Ben, c'est dit en même temps.
11:57 Ben voilà, c'est dit.
11:59 C'est dit en même temps, non, mais il faut se réjouir
12:01 de l'attractivité de l'hexagone et de l'Europe de manière plus large
12:04 pour les investissements étrangers, surtout lorsqu'il s'agit d'investissements
12:08 qui peuvent porter ce qu'on appelle de nombreuses "peel-overs",
12:11 donc de nombreuses externalités positives,
12:13 parce qu'on est sur des marchés innovants,
12:15 et on est sur de l'infrastructure en plus.
12:17 Ça crée de l'emploi, ça crée de l'activité
12:19 pour l'entreprise en question, mais également pour toutes celles
12:21 qui vont bénéficier de l'infrastructure pour développer
12:23 leurs propres applications derrière.
12:25 Donc, ça, il faut s'en réjouir, mais en même temps,
12:28 on reste néanmoins sur la délégation
12:32 à des très grosses entreprises étrangères
12:35 de, finalement, la capacité de pouvoir opérer des infrastructures
12:38 qui, pour moi, sont essentielles,
12:40 sont, pour moi, vitales, d'intérêt stratégique pour la nation,
12:43 sur le territoire français.
12:45 Et là, ça pose des questions, ça pose des questions
12:47 de transparence, de la qualité des données
12:51 qui sont récupérées, la finalité de ces données,
12:54 et puis la transférabilité de ces données,
12:56 déjà en dehors du territoire français,
12:59 donc on va parler du territoire européen,
13:01 mais aussi en dehors du territoire européen,
13:03 ce qui pose des problématiques de souveraineté, tout simplement.
13:06 D'ailleurs, on se réjouit pour la France,
13:07 mais il faut quand même dire que ces investissements importants
13:10 valent aussi un peu partout en Europe.
13:13 Non mais, il n'y a pas à se réjouir.
13:16 L'Europe reste un grand marché, ils viennent chercher le marché.
13:19 Ils viennent faire du business chez nous, il n'y a pas à se réjouir.
13:22 Deuxième chose, les 4 milliards.
13:23 Non mais ça fait des...
13:24 Il y a des retombées économiques quand même directes pour le pays.
13:26 Non, attends, 4 milliards.
13:28 Combien pour les puces Nvidia ?
13:30 Tu vois les 4 milliards ?
13:32 Combien pour les mètres carrés en Alsace ?
13:34 Pour les murs ? Après c'est 200 personnes.
13:36 Donc 4 milliards d'investissement pour 200 emplois,
13:38 moi je sais faire mieux.
13:40 Enfin, 4 milliards, je...
13:42 Non, non, non, non.
13:44 C'est beaucoup d'argent qu'ils vont payer Nvidia,
13:48 entreprise américaine, pour aller saler plein de trucs.
13:51 Après, il y aura 200 pauvres employés qui ne seront pas payés très cher,
13:54 qui sont là pour faire marcher les machines,
13:56 et tout ça pour héberger des données sur le sondage national.
13:59 Certes, on a toujours notre acte américain
14:01 qui fait que ça peut partir quand on veut.
14:03 Donc, je n'arrive pas à me réjouir.
14:06 C'est ce que j'allais dire.
14:07 Est-ce que finalement aussi cet investissement très matériel sur notre sol,
14:10 ce n'est pas la conséquence de cette doctrine française
14:14 et puis de plus en plus européenne
14:16 autour de la souveraineté, le cœur de confiance ?
14:19 Non, non, c'est la résilience réseau.
14:20 Non, non, c'est beaucoup de basiques que ça.
14:22 Ce qui me semble manquer aujourd'hui,
14:25 c'est un écosystème de Vici européen fort.
14:28 La possibilité, en fait, on a des magnifiques fondateurs en France et en Europe.
14:32 On en a plein dans le domaine de l'IA.
14:34 On en a un en bateau, à l'instant.
14:36 On en a plusieurs dans le domaine de l'IA,
14:37 plusieurs dans le domaine particulier de l'IA générative.
14:39 On a vraiment des pépites.
14:41 Et quand vous voyez la structure de financement,
14:43 elles sont toutes à la recherche de financement de Vici européen.
14:47 Mais on n'a pas encore cette structure, cet écosystème.
14:49 On doit forcément aussi aller chercher les financements à l'extérieur.
14:53 C'est très bien de pouvoir en bénéficier.
14:54 Mais ce qui serait davantage constructif,
14:57 plutôt que ces annonces, encore une fois,
14:59 avec un effet assez « waouh »
15:01 mais qui, dans la construction d'un écosystème qui porte vraiment l'innovation,
15:06 il faudrait que les investisseurs institutionnels,
15:09 les banques, les assurances, etc., soient peut-être moins frileuses
15:12 et réinvestissent plus dans nos « scale-up »,
15:16 dans notre bassin d'innovation.
15:19 Encore une fois, on est ravi que les entrepreneurs français puissent bénéficier
15:23 d'investissements venant par exemple des États-Unis ou d'autres régions du monde.
15:28 Mais il faudrait surtout avoir cet écosystème Vici européen fort.
15:31 Je pense que c'est ce qui manque aujourd'hui pour structurer…
15:34 Je confirme, des 4 nains !
15:37 On est d'accord là-dessus, mais ça permet de faire un lien avec le sujet précédent,
15:40 finalement, lorsqu'on a parlé de la régulation.
15:42 La régulation ne permet pas de faire émerger les champions européens.
15:46 Parce que pour faire émerger les champions européens,
15:48 il faut des fondamentaux qui soient forts.
15:50 Les fondamentaux sur les marchés qui nous intéressent aujourd'hui
15:53 se situent sur les infrastructures, le cloud,
15:56 la capacité de faire de l'hyperscale,
15:59 et puis sur les capacités de calcul.
16:02 Et là aujourd'hui, que ce soit au niveau des microprocesseurs ou des GPU, des cartes graphiques,
16:06 on est à la ramasse. En Europe, il faut bien être clair.
16:09 On a des supercalculateurs quand même, Julien.
16:11 On a des supercalculateurs, mais en quantité insuffisante
16:13 par rapport à ce qui peut se pratiquer en Asie ou aux États-Unis, déjà pour commencer.
16:17 Et puis surtout, encore une fois, on est basé sur des intrants
16:19 qui sont majoritairement des intrants étrangers,
16:21 qu'ils soient américains ou qu'ils soient asiatiques,
16:24 pour ce qui concerne beaucoup de microprocesseurs
16:26 ou les métaux qui sont nécessaires finalement à la fabrication de ces infrastructures.
16:29 Donc attention effectivement de ne pas se cantonner uniquement
16:33 sur la dernière partie de cette fameuse chaîne de valeur dont Adrien parlait,
16:37 parce qu'une grosse partie de la valeur finalement est en amont de cette chaîne de valeur.
16:42 Et là aujourd'hui, on est un peu absent des débats.
16:44 C'est ça qui est très embêtant.
16:45 C'est-à-dire qu'on pense que tout cet investissement va nous bénéficier,
16:49 mais non.
16:50 Cet investissement est fait pour que les clients européens
16:53 continuent à dépenser vers des boîtes américaines.
16:57 Donc c'est juste un courant d'accélération, de transfert de valeur,
17:00 de l'Europe qui n'est qu'un marché de clients,
17:02 vers d'autres continents où on tolère des géants.
17:05 Parce que l'Europe, on refuse des géants.
17:06 Donc pas de quoi se méjouir, mais même plutôt de quoi s'inquiéter finalement,
17:09 si je devais résumer votre pensée.
17:11 On n'a pas le choix.
17:13 Je proteste juste contre l'effet d'annonce 4 milliards en France, bravo.
17:17 Il faut arrêter ce poké du monde.
17:19 Allez, on enchaîne avec notre autre sujet.
17:21 On va parler de la lutte contre les ingérences étrangères
17:24 avec un dispositif qui a été annoncé par Jean-Noël Barraud,
17:28 désormais ministre délégué en charge de l'Europe.
17:31 Alors il appelle les plateformes à montrer comment elles s'organisent,
17:35 comment elles se préparent pour mieux modérer les contenus
17:39 qui passent sur leurs plateformes.
17:41 Et le ministre nous dit qu'on va maintenir la pression maximale jusqu'au scrutin.
17:47 Mais souris pas, c'est bien.
17:49 Oui.
17:50 Pas le choix.
17:51 Il faut bien que un ministre qui était au numérique
17:54 et qui va aux affaires étrangères en Europe
17:56 se saisisse de ce sujet,
17:58 pour lequel il faut rappeler qu'en France on avait créé Viginum,
18:01 qui est en fait une entité qui vise justement
18:04 à suivre la vigilance sur les ingérences numériques étrangères,
18:08 qui a un bilan de deux années maintenant
18:10 avec une augmentation aussi des cas constatés.
18:13 Donc vous parliez d'infrastructures essentielles,
18:15 c'est justement sur ces attaques-là, sur les infrastructures essentielles
18:18 qu'on a l'atteinte fondamentale à certains services de la nation.
18:21 Et ça me paraît très important dans une année d'élection mondiale,
18:24 mais en particulier européenne en 2024,
18:26 que ce sujet soit mis en avant.
18:28 C'est le minimum d'en parler.
18:30 On est en plein justement dans une campagne aux européennes.
18:34 On sait que ces ingérences numériques existent,
18:37 mais pas d'aujourd'hui ou d'hier.
18:39 Ça fait des années.
18:41 Vous avez cité Viginum, très bien.
18:43 Qu'est-ce que ça veut dire mettre la pression maximale sur les plateformes ?
18:46 Je peux être provocateur ?
18:48 Exceptionnellement.
18:50 On devrait interdire toutes les plateformes la semaine qui passe à l'élection,
18:53 de même qu'on n'a plus le droit de parler à la télévision.
18:56 Parce que c'est impossible de faire autrement.
18:58 C'est annoncé que ça allait être ça.
19:00 C'est vrai que c'est un retranc de la prévenue.
19:02 Non mais c'est extrêmement compliqué.
19:04 C'est un danger fondamental.
19:06 C'est un danger fondamental pour la démocratie.
19:08 Il ne faut pas se tromper.
19:09 Il y a tous les gens qui nous attaquent qui disent
19:11 que la démocratie est une anomalie de l'histoire.
19:13 Ils ne peuvent pas supporter la démocratie
19:15 eux personnellement.
19:16 On voit bien qu'on est plus ou moins dans le même monde.
19:18 Vous savez de qui je parle.
19:19 Ils ne sont pas très nombreux.
19:20 Ils sont 5, 6 maximum.
19:21 Ils n'ont qu'un besoin.
19:23 C'est pour survivre, tuer la démocratie.
19:25 Donc c'est grave.
19:26 C'est très grave.
19:27 Julien, vous surveillez les réseaux sociaux.
19:29 Vous connaissez bien comment fonctionnent ces plateformes.
19:32 Est-ce que vous avez le sentiment là qu'il se passe déjà des choses
19:36 sur ces réseaux sociaux
19:38 qui devraient être davantage modérés ?
19:40 Bien évidemment.
19:41 Moi ce qui me choque depuis 5, 6 ans
19:44 c'est le niveau de professionnalisation
19:46 qu'il y a derrière les campagnes de désinformation et de déstabilisation.
19:49 En fait, il y a un modus operandi qui est assez simple
19:52 qui consiste à attaquer soit à dominem
19:56 les personnalités politiques, les décrédibiliser
19:58 éventuellement alimenter avec des histoires un peu sulfureuses
20:04 limite complotistes autour des personnes.
20:07 Quand les personnes, ça ne suffit pas, on attaque les médias
20:10 qui sont forcément à la seule des puissants et des pouvoirs.
20:13 Et puis derrière, on va aussi attaquer le modèle, la démocratie
20:17 la démocratie qui est la source de tous les maux
20:19 et toutes les inefficiencies que tout un chacun peut connaître
20:23 dans sa vie de tous les jours.
20:24 Et puis derrière, évidemment, on va prendre des sujets les plus clivants possibles
20:27 des sujets autour de l'immigration, autour de la sécurité
20:29 autour des faits de société, la gestion pour autrui, ce genre de choses
20:33 de façon à les monter en épingle
20:35 parce qu'on sait que ce sont des sujets qui vont avoir un taux d'engagement
20:38 qui sera maximal.
20:39 Quand vous mixez un petit peu tout ça
20:41 c'est un outil d'une puissance phénoménale
20:45 pour pousser les indécis vers le côté, on va dire, le plus réactif de la force.
20:50 Et c'est vrai que là, ces dernières années, je trouve qu'il y a une accélération
20:54 sur les réseaux sociaux.
20:55 C'est évidemment impossible à maîtriser
20:57 donc c'est plus de l'ordre du ressenti
20:59 mais j'ai vraiment l'impression qu'effectivement
21:01 sur X, mais encore plus sur TikTok, ça accélère fortement.
21:06 Vous avez le sentiment, Adrien, vous avez travaillé
21:08 vous avez aussi travaillé sur un rapport pour les métavers
21:11 vous avez fréquenté ces politiques et leur façon de penser le numérique
21:14 vous avez le sentiment qu'on a fait preuve de naïveté en France ?
21:17 C'est ce qui ressort de certains rapports sur les ingérences d'étrangères.
21:20 Ce qui est frappant quand on va aux Etats-Unis
21:22 c'est qu'on se rend compte que la régulation aux Etats-Unis
21:24 contrairement à celle qui peut exister en France ou en Europe
21:26 elle est beaucoup plus concentrée justement contre ces ingérences.
21:30 Leur objectif premier c'est la protection des citoyens.
21:32 Là où en Europe, on a tout un marché, le marché unique
21:35 qu'on essaie de promouvoir
21:36 et donc c'est aussi la protection du consommateur.
21:38 Donc quand, là récemment, pour avoir parlé avec différentes personnes
21:41 qui étaient au département de Justice of State aux Etats-Unis
21:44 dès qu'ils vous parlent en Réunion, ils vous parlent des quatre puissances étrangères
21:47 qui sont des puissances d'intérêt pour eux
21:49 par rapport aux attaques qu'ils peuvent faire sur leur territoire
21:51 que ce soit sur les réseaux, que ce soit sur les contenus, sur l'astroturfing
21:54 le fait de gonfler de manière inauthentique certaines campagnes.
21:57 Et donc aux Etats-Unis, c'est une priorité nationale numéro un.
22:00 C'est surtout ça en fait.
22:02 Je ne dirais pas que c'est une approche différente
22:04 mais je dirais que c'est une forme de priorisation différente.
22:08 Et là où en Europe, on a une envie de s'attaquer à beaucoup de sujets
22:12 et de manière très légitime.
22:14 Enfin, je veux dire, il y a beaucoup de choses.
22:16 On parlait de droit de la concurrence, on parlait de la modération des contenus,
22:18 on parlait de l'intelligence artificielle.
22:20 Aux Etats-Unis, si vous regardez bien les textes qui sont votés,
22:24 les textes dans toutes ces matières-là, c'est uniquement s'il y a une puissance étrangère
22:28 qui va prendre possession d'une entreprise
22:30 qui pourrait avoir un impact sur le territoire américain.
22:33 Donc il y a véritablement, je dirais, une divergence
22:37 ou quasi une dichotomie d'approche entre les deux continents
22:41 et ça c'est assez intéressant.
22:43 Alors je voulais aussi vous entendre sur cette décision prise par le gouvernement français
22:47 de bloquer TikTok en Nouvelle-Calédonie dans un contexte d'émeute.
22:51 On avait déjà entendu ça en France, en métropole, au moment des émeutes l'été dernier.
22:59 Cette menace de couper l'accès aux réseaux sociaux, quel est votre regard sur cette décision ?
23:05 C'est très ambivalent.
23:07 C'est très ambivalent.
23:09 Pour arrêter le printemps arabe, il fallait tout couper.
23:11 Mais ce n'était pas la gloire des gens qui voulaient arrêter le printemps arabe.
23:15 Et en même temps, TikTok, c'est exactement ce que disait Julien, c'est juste dévastateur.
23:19 Donc on ne peut pas laisser TikTok.
23:21 Si ce n'est pas sur TikTok, ce sera sur X, ce sera sur Snapchat.
23:25 Tout à fait, mais il y a TikTok d'abord, il y a X après.
23:28 Il y a encore un saut avant le suivant, mais évidemment, ils vont finir par arriver.
23:32 On a un vrai sujet de maintien d'une démocratie harmonieuse dans un monde
23:39 où on a des outils pour tout le monde parce qu'on a l'air communiqué,
23:41 qui sont gérés par des gens de plus en plus clivants.
23:44 Adrien ?
23:45 Ça m'évoque beaucoup de choses, je pense qu'il faudrait une émission juste sur ce sujet.
23:48 Il y a quand même aussi une question de séparation des pouvoirs,
23:51 je pense qui est importante, entre le judiciaire, l'exécutif et autres.
23:54 De manière générale, depuis une dizaine d'années, dans la régulation du numérique,
23:57 il y a un glissement sur le fait que certaines décisions peuvent être prises
24:00 par des autorités administratives.
24:02 Là, vous parlez, par exemple, récent de TikTok,
24:06 mais il y a d'autres décisions qui pourraient être prises sans passer devant une juridiction.
24:11 Oui, par exemple, dans le cadre de la protection des mineurs
24:14 contre les contenus pornographiques, on pourrait se passer, a priori, d'une décision judiciaire.
24:20 Allez vite !
24:21 C'est là où il faut faire preuve de cas par cas et un peu de nuance.
24:25 Je pense que pour certaines décisions systémiques très importantes
24:28 pouvant avoir un impact, il faut aussi voir quand est-ce qu'il y a du judiciaire.
24:32 C'est pour ça qu'il y a une séparation des pouvoirs entre le législatif, l'exécutif et le judiciaire.
24:37 Rapidement, Julien, sur TikTok en Nouvelle-Calédonie.
24:40 Rapidement, ce serait compliqué.
24:42 Désolé, mais j'aurais bien aimé qu'on parle de...
24:44 Abbam !
24:45 ...vert alert. Vite fait.
24:46 D'un mot, je trouve que l'interdiction est toujours la plus mauvaise des réponses possibles.
24:51 Surtout qu'on sait que les réseaux sociaux, dans certains cas très précis, sont capables d'être extrêmement réactifs.
24:56 On l'a vu par exemple vis-à-vis de la pandémie, où lorsqu'il y a une catastrophe naturelle,
25:00 pour pouvoir dire à ses proches que l'on est dans une "safe place", par exemple.
25:05 Donc ils savent être très réactifs.
25:06 Moi, je leur demanderais juste d'être responsables, tout en étant aussi réactifs lorsqu'il y a des problématiques de ce type-là.
25:13 Ça veut dire qu'on peut porter la responsabilité aux plateformes ?
25:16 Mais ils ne peuvent pas. Leur code, c'est le business.
25:18 C'est à eux de décider ce qu'ils laissent passer ou pas ?
25:20 Ils n'ont pas le leur code.
25:22 Surtout s'ils sont instrumentalisés.
25:24 Mais si c'est pour faire plus d'audience, ils s'en tapent.
25:27 Mais faire de la modération a priori au niveau des plateformes ?
25:31 Bon, allez, il faut qu'on ait une émission entière sur le sujet.
25:36 Alors je propose qu'on termine avec cette alerte stridente qui est arrivée sur nos smartphones.
25:41 FR Alert pour nous dire qu'il y avait une plateforme qui nous permettait d'obtenir un QR code pour circuler pendant la période des Jeux Olympiques 2024.
25:49 Très bien. C'est arrivé un soir vers 20h.
25:53 Moi, j'ai constaté déjà que tout le monde ne l'avait pas reçu en étant dans des périmètres proches.
25:59 Qu'est-ce que vous avez pensé de l'utilisation déjà de cette alerte pour le signalement de l'arrivée de cette plateforme ?
26:06 J'étais sur mon vélo, j'ai failli me casser la figure.
26:08 Je vois "alerte extrêmement grave".
26:10 Je dis "ça y est, mon chauffeur est en train de brûler un feu rouge".
26:12 Qu'est-ce que ça veut dire ? On est en Chine.
26:14 On est en Chine.
26:16 Je m'arrête et je dis "merci de télécharger un pass".
26:19 On se trompe.
26:21 En termes de communication, je vais laisser parler les experts, mais on se trompe.
26:25 C'était un test pour voir si ça fonctionne bien.
26:27 Personnellement, je ne l'ai pas reçu.
26:29 Ça montre que ça ne fonctionne pas bien.
26:31 C'est peut-être parce qu'en étant à vos cœurs de la technologie, je suis peut-être parano et je ne suis pas dans les fichiers.
26:35 Quel opérateur ?
26:37 C'est une donnée personnelle.
26:38 Quel opérateur ? Un des trois. Un des quatre.
26:40 Un des quatre.
26:42 Très avancé.
26:44 Je suis en train de faire des stats.
26:46 Sans faire de blague, en l'occurrence, j'ai deux opérateurs et deux téléphones et je n'ai reçu sur aucun des deux.
26:51 Le fil conducteur de l'émission, après tout, c'est peut-être l'ingérence, sans dire qu'elle soit nationale ou étrangère.
26:57 Très bien. Julien ?
26:59 Je suis complètement d'accord. Je ne l'ai pas reçu non plus.
27:01 Non.
27:03 Or, en thème, vous me direz les noms des opérateurs.
27:05 Ok.
27:07 Vous voulez le nom ?
27:08 Non.
27:09 Merci, Julien Piot.
27:11 Merci Delphine.
27:12 On sait que Maître Bas-Devant, nous entropie et Alain Staron d'Artifile était avec moi pour ce grand débrief de La Tech.
27:18 A très vite.
27:20 [Musique]

Recommandée