• l’année dernière
Jeudi 13 juillet 2023, SMART TECH reçoit Guy Mamou-Mani (coprésident, Groupe Open) , Philippe Delmas (consultant en stratégie industrielle) , Henri d'Agrain (Délégué général, Cigref) et Laurence Devillers (professeure en intelligence artificielle, LISN-CNRS)

Category

🗞
News
Transcription
00:00 (Générique)
00:06 Pour le débrief de l'actu aujourd'hui, Philippe Delmas, consultant en stratégie industrielle,
00:10 Guy Mamoumani, entrepreneur Business Angel, ex-co-président d'Open et Henri Dagrin, délégué général du CIGREF.
00:16 Laurence de Villers, nous a fait le plaisir de rester, professeure en intelligence artificielle, chercheur au CNRS,
00:20 membre du CNPEN, donc Comité National Pilote d'Ethique du Numérique,
00:25 qui est à l'origine d'une note, d'un avis sur les enjeux éthiques liés aux IA Génératives.
00:30 Ça va faire une partie des sujets que nous allons aborder ensemble dans ce débrief de l'actu.
00:34 Mais je voulais qu'on démarre d'abord sur ces voitures autonomes.
00:38 Alors, est-ce qu'il faut freiner à un moment où on est plutôt en train d'accélérer ?
00:43 C'est-à-dire qu'on va autoriser en France des voitures de niveau 3 à circuler ?
00:48 On n'en aura pas beaucoup parce que pour l'instant, il n'y a aucun constructeur français qui propose de véhicules autonomes de niveau 3.
00:54 Très peu d'ailleurs en Europe. Je crois qu'aujourd'hui, on a un seul constructeur qui s'y attelle, Mercedes.
01:03 Quand même, cette question, faut-il freiner ou pas, elle se pose déjà aux États-Unis ou à San Francisco.
01:10 On a des premiers soubresauts, peut-être pas des levées de boucliers, mais enfin des premiers soubresauts qui nous disent
01:16 "Attention, il ne faut peut-être pas aller trop vite dans la mise en circulation".
01:20 En l'occurrence à San Francisco, la question se pose sur des robotaxis qui auraient l'autorisation de rouler 24h/24, 7j/7.
01:28 Je voulais savoir ce que vous en pensiez.
01:30 Personnellement, je suis contre tout freinage, contre toute interdiction.
01:34 Dès qu'on me dit ça sur le numérique, le fameux ERIS, je pense que c'est inéluctable de déployer le numérique, l'intelligence artificielle.
01:45 En revanche, il faut le mettre juste après. Il faut être tout à fait attentif, prudent, régulier, de façon à ce que ça se fasse dans de bonnes conditions.
01:55 Je voudrais juste reprendre une phrase de Luc Julia, qui dit que "Je ne crois pas être du bien placé".
02:01 Vous savez, Luc Julia, qui est chercheur actuellement, patron de la R&D de Renault, qui a fait ses preuves en Syrie et autres,
02:08 qui rejoint un peu d'ailleurs Laurence de Villers sur cette peur de la prise de conscience de l'intelligence artificielle, auquel on ne croit pas.
02:18 Eh bien, il dit "Moi, je ne crois pas à la voiture niveau 5, autonome niveau 5".
02:23 Il suffit de mettre une voiture sur la place de l'étoile pour le comprendre.
02:27 Et je pense qu'il faut absolument faire attention à la façon dont c'est géré.
02:33 Je suis d'accord que dès aujourd'hui, il n'est pas question de mettre des voitures autonomes dans les rues de Paris ou de San Francisco.
02:40 En revanche, continuons à évoluer, continuons à chercher.
02:45 - Henri ?
02:47 - Je serais complètement sur la même position que Guy Mamoumani.
02:53 - Donc on ne freine pas, mais on y va prudemment.
02:55 Vous savez, on y va quand même très prudemment, parce que le niveau 3 en France, ce sera 60 km/h sur des routes quand même spécifiques.
03:01 - Oui, le sujet du véhicule autonome, c'est celui de la transition.
03:07 Passer d'une situation où il n'existe pas à celui d'une situation où très probablement,
03:13 l'ensemble des moyens mobiles de type individuel auront très largement muté pour beaucoup plus de partage,
03:20 beaucoup moins d'édensifier la circulation.
03:24 Et puis, ce que l'on sait, c'est que les modélisations montrent de manière très claire que dans des conditions où il n'y a que des véhicules autonomes qui interagissent entre eux,
03:35 l'accidentologie est réduite dans des proportions très considérables.
03:40 Donc, ce que l'on voit bien, c'est qu'il y a un point à viser très probablement pour réduire le nombre de véhicules,
03:45 pour améliorer notamment cette accidentologie, puis changer les modèles qui vont accompagner les modifications profondes dans la société.
03:53 Notamment pour des questions écologiques, on est dans une transition.
03:57 La transition, évidemment, avec des véhicules autonomes de niveau 5, ça ne se passe pas bien, notamment sur la Place de l'Etoile à 19h.
04:05 - C'est-à-dire que la friction, c'est aussi avec les humains, quand on a des automobilistes humains et des voitures autonomes.
04:12 - C'est la transition, c'est du véhicule non autonome et du véhicule complètement autonome.
04:15 Donc, il faut y aller au rythme où il est possible que la société accepte ce genre de transition.
04:22 Et aujourd'hui, les personnes ne savent très bien quelles sont les échéances, parce qu'il y a derrière des modèles économiques à trouver,
04:29 il y a une acceptabilité par la société, et puis il y a du travail de technologie à mener qui n'est certainement pas abouti.
04:37 - Alors justement, parce que ces industriels, ils ont besoin d'expérimenter.
04:41 Parce que l'apprentissage de la machine, elle se fait aussi dans le réel ?
04:46 - Complètement, d'ailleurs. Vous regardez, c'est très marrant, le nombre d'accidents au million de kilomètres est strictement proportionnel au cumul.
04:53 Donc, vous regardez deux générations, les premières générations développées par Google, celles développées par Uber,
04:59 l'ordre de grandeur du nombre d'accidents au million de kilomètres est strictement proportionnel au nombre de kilomètres.
05:05 Maintenant, moi je partage effectivement, et ceci montre que de toute façon ça va prendre effectivement beaucoup de temps,
05:10 que les machines, comme vous le dites, de toute façon, ne sont pas habituées aux comportements irrationnels,
05:14 et les humains volants, notamment en Europe, peuvent être sacrément irrationnels, nous le savons.
05:18 - Pas qu'en Europe !
05:19 - Particulièrement en Europe, je trouve. Mais il y a un autre élément de régulation,
05:24 enfin, il y a deux autres éléments de régulation qui sont extrêmement profonds.
05:27 Le premier est psychologique. On ne pardonnera jamais à une machine un accident qu'on excuserait au premier moment.
05:32 Il y a un truc là-dessus, savons. Et ce qui a une conséquence économique très directe, c'est la question de l'assurance.
05:37 Et les assureurs sont vent debout contre l'accroissement de l'autonomie, parce que plus ça va, plus c'est difficile d'attribuer la responsabilité.
05:44 - Et vous comprenez pourquoi on a si peu de constructeurs européens qui s'intéressent à ce sujet, enfin, qui accélèrent eux sur ce sujet ?
05:50 - Simplement parce qu'ils n'y croient pas, et qu'ils pensent, et je pense que ça correspond à ce qu'on dit,
05:54 que ça viendra de façon incrémentale en augmentant les fonctions d'autonomie sur les voitures.
05:58 Et vous regardez sur des voitures qui ont déjà un début de fonction d'autonomie, un certain niveau d'autonomie,
06:04 la conduite par exemple en ligne droite sur une autoroute, les gens restent très prudents sur ce sujet.
06:11 L'utilisateur lui-même n'est pas confortable. Psychologiquement, il ne fait pas complètement confiance à la machine.
06:17 Vous avez la même chose dans le transport aérien. En réalité, un avion de ligne long range en face de croisière est pratiquement de l'eau.
06:27 N'empêche que vous avez toujours au moins une personne et en général deux dans le cockpit.
06:31 Et que le débat aujourd'hui posé par certaines compagnies aériennes, on pourrait n'avoir qu'un pilote, c'est techniquement tout à fait faisable,
06:37 sauf les avions de combat, donc un pilote. En réalité, psychologiquement et en responsabilité, ils ne le font pas, je pense.
06:44 - Laurence de Villers, est-ce qu'il faut aussi avoir réglé ce débat de la responsabilité de la machine, du logiciel, dans le cadre de la voiture ?
06:53 C'est quand même assez important ce sujet de la responsabilité.
06:56 - La responsabilité est co-occurrente entre celui qui a construit le modèle et peut-être celui qui l'utilise, mais en aucune manière la voiture elle-même.
07:06 Donc je crois qu'il faut répéter cela à l'envie, parce que ça serait un drame de dire que les voitures vont devenir responsables.
07:15 Il n'y a personne derrière. Ce sont vraiment des algorithmes qu'on met dans les voitures.
07:18 Moi j'ai l'impression qu'on oublie un grand sujet quand même, même si je suis d'accord avec tout ce que vous avez dit, c'est les infrastructures.
07:24 Parce qu'il faut absolument construire ces machines dans des infrastructures particulières que nous n'avons pas.
07:32 Donc le schéma de Luc Julia, il est science-fiction aussi, on ne va pas mettre une voiture autonome au milieu d'une place bondée de voitures sans aucun stratagème autour pour contrôler.
07:41 C'est tout à fait impossible. Donc ça ne permet pas de comprendre, je trouve.
07:47 Il faudrait se dire quelles sont les mesures à prendre, les indices autour des routes, la façon dont on va finalement mettre des rails ou des endroits où elles passent qui permettent ça.
08:00 D'autre part, il y a quelque chose d'intéressant qui est l'interaction voiture-voiture.
08:03 On parle toujours d'humain-humain, mais là on pourrait imaginer qu'une voiture est d'une autre voiture.
08:09 On a du mal à imaginer maintenant.
08:12 Donc c'est un futur qu'il faut construire en comprenant bien l'interaction entre la voiture et son écosystème, la voiture et l'humain à l'intérieur, mais aussi les voitures entre elles.
08:23 Mais donc tout ça, il faut l'expérimenter.
08:26 Je pense que surtout, il faut comprendre qu'on a besoin d'apprendre cela.
08:29 On ne met pas quelqu'un au volant d'un avion sans lui avoir dit que, il y avait des erreurs comme ça qui ont été faites, dramatiques,
08:35 qu'il y a telle ou telle nouvelle fonction qui existe et qui va faire qu'on ne contrôle pas bien l'avion, qu'on ne comprend pas comment il se comporte.
08:43 Moi, la première fois que j'ai une voiture qui a quelques qualités d'autonomie...
08:47 - Sachant qu'on parle souvent des Tesla, les Tesla ne sont que de niveau 2.
08:50 - Il n'y a pas que les Tesla.
08:51 - Non, mais je précise que c'est que du niveau 2.
08:53 - C'est que du niveau 2, mais bon, les Volvo, il y a d'autres voitures qui ont ce genre d'outillage.
08:59 Et le début n'est pas évident, parce que la voiture prend la main alors que vous êtes en train de conduire.
09:03 Donc ça, ça demande un apprentissage. On ne va plus passer les mêmes permis de conduire.
09:07 Et donc, ce besoin de faire passer au niveau à la fois l'apprentissage, l'écosystème, demande une réflexion mature.
09:15 Et il ne faut pas dire qu'on est pour ou qu'on est contre. Bien sûr qu'on est pour, mais il faut le faire en engageant un écosystème.
09:21 Avec une responsabilité humaine.
09:23 - On enchaîne justement avec ces enjeux d'éthique autour des IA génératifs, puisque le Comité national pilote pour l'éthique du numérique a publié un nouvel avis sur ce sujet.
09:32 En réponse à une saisine du ministre Jean-Noël Barrault en charge du numérique et des télécommunications.
09:37 Tout ça un petit peu de manière précipitée, avec l'irruption de chat GPT qui est arrivé entre les mains de tout le monde.
09:44 Donc il y avait urgence à se positionner, Laurence, sur les questions d'éthique ?
09:48 - Il y a urgence d'un point de vue économique, parce qu'il ne faudrait pas louper ce train-là.
09:52 C'est important de comprendre que ces IA génératives, qu'on maîtrise d'une certaine manière,
09:57 et qui ont aussi des capacités qu'on ne maîtrise pas encore complètement, sont des opportunités pour l'économie.
10:03 Ce sont des opportunités pour mieux comprendre ce qu'on peut faire sur l'écologie, ce qu'on peut faire sur la santé.
10:07 On va trouver de nouveaux médicaments.
10:09 C'est vraiment très positif.
10:11 Quand je parle de l'éthique, ce serait aussi pas éthique de ne pas comprendre ça.
10:15 De ne pas l'utiliser à bon escient.
10:17 Maintenant, l'écrit qu'on a fait, c'est dire "attention, pour l'instant, les forces qui montent sur des modèles de fondation,
10:24 que sont les large-language models, sont anglo-saxons.
10:27 On a sur étagère des modèles qui sont à 80% avec des données en américain.
10:31 Donc ça veut dire que le langage que nous parlons, qui porte le sens, la politique,
10:37 qui est notre connaissance et notre culture, va être peut-être mis à mal par cela.
10:45 Donc il faut vraiment comprendre que c'est important, et pour moi ce serait important à la fois d'avoir un Chad Bloom,
10:52 si on a aussi fait des modèles en Europe,
10:55 c'est-à-dire que tout un chacun, les enfants, pour leur devoir, puissent utiliser des machines qui soient plus contrôlées
11:01 et avec beaucoup plus de leur langue maternelle.
11:05 Et puis qu'on sache en recherche, comprendre l'influence d'une langue dominante dans un système comme celui-là sur le résultat.
11:13 Les problèmes culturels, les problèmes religieux qui vont être derrière tout cela, on ne les maîtrise pas,
11:18 ni les utilisateurs, parce qu'ils ne sont pas aux manettes, ni les entrepreneurs,
11:22 ni les grandes structures comme les géants numériques Microsoft, Google, etc.
11:27 Alors je ne sais pas si vous pensez que l'HIGH Act répond à ces questions, mais Henri Dagrin, lui, était vent debout contre ce texte.
11:33 Non, pas vent debout. Non, non, sur l'HIGH Act, ce que l'on se dit, c'est qu'aujourd'hui, tel qu'il a été pensé,
11:40 et notamment dans sa version qui est sortie du Parlement et qui est aujourd'hui en négociation dans le Trilogue
11:46 avec le Conseil européen et la Commission, c'est un texte qui a des dispositions qui figent la législation
11:54 et qui va avoir des effets, à notre sens, assez négatifs dans la durée vis-à-vis de la dynamique technologique.
12:03 Et aujourd'hui, il faudrait des systèmes, des modalités de régulation de ce domaine qui soient beaucoup plus souples,
12:11 beaucoup plus agiles, beaucoup plus réactives et qui permettent à des autorités administratives indépendantes,
12:16 en plus on sait le faire sur d'autres domaines, à des autorités administratives, à des autorités dotées de la compétence,
12:22 d'adapter en permanence la règle de droit applicable à un domaine technologique qui est en évolution de manière quasi explosive.
12:32 Oui, je pense que tu as raison et les normes vont dans ce sens-là.
12:36 Dans vos recommandations, il y a des choses qui viennent assouplir cet AI Act ou le modifier par rapport au texte actuel ?
12:44 Alors, on avait, d'abord on est 22, on était trois, il y avait Raja Chattila, moi-même et Alexei Greenbaum,
12:53 mais c'est un avis collectif et donc dans ce collectif, il y avait beaucoup de mesures.
13:00 Donc on n'est pas tous avec le même avis. Certains freinent énormément, d'autres disent, comme vous venez de le dire,
13:06 c'est important de tirer parti, donc il ne faut pas que les normes nous empêchent, nous en Europe, de propulser des choses intéressantes.
13:14 Quand je disais un chatboum, ça permet de récolter des données. On n'a pas de données. On ne sait pas en faire.
13:19 Donc on se dit, dans l'industrie, on va créer des plus petits modèles pour des tâches précises, qu'on maîtrisera mieux,
13:23 et ça, pour le B2B, il y a énormément de choses qui vont être faites et il faut vraiment se dire que l'Europe est capable de le faire.
13:29 Maintenant, au niveau du grand public, avec des outils comme un chat GPT qui sont venus bousculer beaucoup,
13:36 avec de la fascination et de la peur, comme vous l'avez très bien dit, là, je pense qu'on aurait aussi besoin d'avoir des outils de même tabac
13:43 qui permettent aux enfants de jouer avec des choses raisonnables en filtrant plus que ça ne l'est,
13:47 parce que pour l'instant, il n'y a pas de garantie, il n'y a pas d'évaluation de la véracité des résultats, ça sera difficile à faire,
13:52 mais il y a surtout des données sales à l'intérieur. Moi, je préférerais qu'on ait un outil plus pédagogique.
13:58 Donc c'est important de comprendre que, de toute façon, il n'y a pas les sources. Quand ce système vous crée des sources, elles sont souvent fausses.
14:04 Donc il faut monter en capacité de comprendre les mécanismes à l'école et partout dans la société,
14:09 et puis aussi que l'industrie s'empare de ça vraiment maintenant. Ce ne serait pas éthique de ne pas le faire.
14:14 Allez, on enchaîne avec les autres sujets, parce que sinon, je ne vais pas avoir le temps de faire réagir sur les autres thématiques qu'on a choisi.
14:20 Transfert des données vers les États-Unis, donc c'est la Commission européenne qui a acté cette adéquation de la législation nord-américaine
14:27 avec le niveau de protection exigé par l'Europe en matière de protection des données.
14:33 Bon, alors, voilà, un accord, on va dire, a été trouvé jusqu'à ce qu'il soit à nouveau invalidé,
14:39 ce qui semble à peu près probable, en tout cas, pas sûr, mais assez probable, puisque Max Schrems a déjà dit qu'il avait déjà sorti,
14:47 donc l'avocat autrichien avait déjà sorti tous les arguments nécessaires pour le faire invalider, comme il l'a fait précédemment avec le privacy shield.
14:55 — Et le cypherboard en 2015. — Voilà. — Alors on revient sur le sujet récurrent depuis des années.
15:03 On en avait parlé lors de la publication d'un rapport d'Avila Numeris. Il y a une véritable... — Sur le RGPD, si.
15:10 — Sur le RGPD. Il y a une véritable contradiction – c'est comme ça que je le vois – entre d'une part la loi, le RGPD,
15:20 la nécessité de protéger, de développer notre souveraineté, et puis le quotidien, le business, les échanges.
15:28 Et on va être confrontés à ce problème en permanence, en permanence. On a eu déjà de longues discussions...
15:36 — Et là, on parle du business des entreprises américaines, là. — Oui. — Pas d'une autre, avec cet accord.
15:41 — Non, pas uniquement. C'est pas vrai. — Non, pas uniquement. Mais ça revient au même, parce que c'est dans les deux sens.
15:45 Je l'ai souvent dit. Comment voulez-vous dire à une banque, par exemple, qui est implantée aux États-Unis, de protéger ces données,
15:52 de ne pas les échanger, de ne pas les pratiquer ? Donc il y a ce problème-là qui va revenir en permanence.
15:59 Alors là, on fait un peu preuve d'un peu de pragmatisme, j'allais dire. Mais c'est illégal. Donc on le sait dansé déjà.
16:06 Et Schrems va se plonger là-dessus. Et ça sera arrêté. — Le point de départ, de toute façon, qu'on tend à oublier,
16:16 que la Commission européenne fait semblant d'oublier, c'est que les bases de données des grands acteurs américains sont open bar
16:22 pour les services américains. On va pas l'oublier. Ce qu'a dit Snowden n'a pas changé 10 ans plus tard. Donc de toute façon, open bar, c'est open bar.
16:28 — Bon, OK. Donc on peut... Alors ensuite, moi, je suis mort de rire. Si vous lisez le détail de la création de la cour américaine
16:36 sous l'autorité du département de justice américain, qui est censée instruire des plaintes des utilisateurs européens,
16:41 c'est un point de rire. Ça me rappelle la cour qui avait été créée en 2006 pour surveiller le fait que la NSA ne surveillait pas
16:50 les citoyens américains sous la vie de justice, et dont le président finit par démissionner en disant en fait
16:55 « Cette cour n'a jamais servi à rien ». Alors ce qui est assez quand même étonnant, c'est que la seule vraie mesure de sécurité,
17:02 c'est pas les instruments juridiques, c'est de faire un cryptage extrêmement sérieux des données sur le cloud.
17:06 Moi, je suis sidéré de voir combien, y compris dans l'industrie sensible, le cryptage des données sur le cloud est pas à très grand niveau.
17:15 Franchement, je suis... Et c'est la réponse que vous avez. — On a reçu... Enfin j'ai reçu hier d'ailleurs Astran,
17:20 qui travaille à apporter une réponse technologique à ce problème juridique. Il y a aussi cette voie-là à explorer.
17:27 — Les Américains font leur boulot. Ils ont des instruments de souveraineté. Les justices... — Henri n'est pas d'accord.
17:30 — Non, je suis pas d'accord. C'est vrai pour les données qui sont stockées. C'est vrai pour les données qui sont en transit.
17:35 C'est faux pour les données qui sont traitées. Elles doivent être en clair. Et donc, dans une CPU...
17:40 — Ah bah vous avez... Bien sûr. — Donc le chiffrement, dès qu'on est dans des produits en mode SAS, ne sert à rien.
17:47 Vous avez accès à des données en clair dès lors qu'elles sont dans une RAM et dans une CPU. C'est comme ça.
17:53 Et l'activité des agences de renseignement américaines, elle n'est pas illégale. Elle est parfaitement légale, très encadrée.
18:03 Et ce qui vous... D'ailleurs... — Elle est en contradiction avec notre loi.
18:06 — Elle est parfaitement légale aux États-Unis. — Ah bah aux États-Unis, oui.
18:09 — Dès lors que l'on... Mais bien sûr... — Il y a beaucoup de tacites dans cette légalité américaine.
18:14 — Ah non, non, non, non, non. Vous vous trompez. C'est une activité qui est très encadrée par les administrations...
18:20 — Là, le problème, c'est l'adéquation avec nos lois. — Ah bah bien sûr. Mais voilà. Mais on a une contradiction.
18:24 On a un conflit juridictionnel entre l'Europe et les États-Unis. Mais j'aurais juste terminé...
18:29 — Alors le député... Je voulais juste montrer le député Philippe Latombe pour voir si vous en êtes à ce niveau-là.
18:33 Lui a carrément exprimé sa colère dans un post sur les réseaux sociaux. Il dit que ça lui fait perdre
18:38 ses dernières illusions sur la capacité de la Commission à s'affirmer face aux États-Unis.
18:42 — Non mais il est... — Il n'y a pas de choix, s'en est au point. — Non mais Philippe Latombe est hors sol.
18:46 — Non, il est militant. C'est différent. — Non mais non ! Mais il faut quand même...
18:51 — Militant, il faut avoir la réalité en face. — ...avoir une réalité dans les activités économiques.
18:57 Hein, bon... — Vous n'êtes pas d'accord avec l'idée que c'est un accord gaz-armement-contredonnées ?
19:03 — Non. Absolument pas. Absolument pas. Toutes les entreprises, tous les secteurs d'activité disent
19:07 qu'il faut quand même qu'on sorte de cette contradiction et il faut qu'on trouve des instruments qui fassent
19:12 sortir les entreprises de cette insécurité juridique grave dans laquelle on les laisse.
19:16 — Exactement. — Parce que c'est pas vrai qu'on va pas couper les activités entre l'Europe et les États-Unis.
19:21 Ça n'arrivera pas. Et ce n'est pas souhaitable. Et personne ne le veut. Et à l'évidence, les États-Unis,
19:26 c'est pas un ennemi. C'est bien entendu un concurrent économique. Mais c'est un allié.
19:29 Et ce n'est certainement pas un ennemi. On ne le dira pas d'autres zones géopolitiques.
19:34 — Ça n'empêche pas notre industrie européenne à prendre sa place ?
19:37 — Il y a quand même des zones de souveraineté sur lesquelles c'est pas des copains non plus.
19:39 — Oui. Bien sûr. Ça n'a jamais été des copains. Les États n'ont pas d'amis. Ils n'ont que des intérêts.
19:44 Et on est bien dans ce cadre-là.
19:46 — Donc le sujet pour adresser ce problème... Bon, d'abord, je suis assez d'accord avec vous sur les questions de crypto, etc.,
19:52 qui sont importantes. — On est très en train. On est culturellement très en train.
19:55 — Oui. Mais enfin, je vais revenir par exemple sur les data hub, où justement tout ça a été fait de façon
20:01 extrêmement rigoureuse et extrêmement protégée. Et la directrice vous répétera que ça respecte par conséquent le RGPD.
20:10 Il n'empêche que la tombe et bien d'autres le critiquent. C'est-à-dire que ça ne suffit pas.
20:14 — Ah non, ça ne suffit pas. — Ça ne suffit pas. Mais bon, moi, je vous rejoins quand même. On a quand même ces outils.
20:19 Mais il y a cette question de souveraineté, que vraiment je soutiens, qu'on souhaite qu'on développe.
20:27 Mais il faut séparer le problème politique du problème économique. Le problème politique, certes, c'est au gouvernement et à d'autres
20:34 de favoriser l'émergence d'outils français, européens qui nous développent la souveraineté.
20:40 Et puis une fois que j'ai dit ça, moi, je suis obligé de bosser. — Ah non, bien sûr.
20:44 — Voilà. C'est ça, le problème. Et c'est ça que la tombe et les autres ne comprennent pas.
20:47 — Oui, mais la question économique, c'est aussi laisser sa chance à une industrie numérique européenne d'émerger.
20:53 — Mais le paradoxe, c'est que s'il y a bien un domaine dans lequel on est bon en Europe et notamment en France, c'est la crypto.
20:59 Et moi, je suis très zené. Et je suis pas d'accord avec vous. Techniquement, vous pouvez faire aujourd'hui du traitement de données
21:04 qui est chiffré en permanence. — Ah non ? — Ah si. — Si vous voulez parler du chiffrement...
21:08 — Vous avez une équipe de Normalie. — Si vous voulez parler du chiffrement homomorphe, c'est encore un outil de laboratoire.
21:14 Ça n'a pas aujourd'hui de conséquences opérationnelles. — Non, non. Vous avez des start-up françaises qui ont déjà tout servi.
21:20 — Non, mais vous ferez jamais du Teams, vous ferez jamais du Microsoft 365 en chiffrement homomorphe.
21:27 — C'est pas la question. Mais vous pouvez faire... — Donc vos données dans Microsoft 365...
21:31 — Non, non, non. Je parle des choses que je connais. Vous pouvez faire par exemple de la protection... Alors vous pouvez faire
21:36 du chiffrement homomorphe complet sur des données techniques, par exemple, et faire... Alors ça, vous pouvez faire fonctionner...
21:41 — Vous savez quoi ? On fera un débat sur ce que j'ai trouvé. — Non, non, non. Ça, c'est vraiment possible.
21:47 C'est entièrement nouveau. Ça consomme beaucoup. Ça a plein de contraintes. C'est vrai. Mais il y a des domaines dans lesquels...
21:52 — En tout cas, d'avoir une approche technologique à ce sujet... — Non, non, non. Il y a un début de réponse.
21:58 — Effectivement, c'est un début de réponse. Laurent Demier. — J'entends à travers vos propos et que je connais dans la crypto,
22:04 c'est que ça coûte très cher en énergie. — Ça coûte très cher. — Bon. Alors il y a une équation à faire.
22:08 — Ça, j'ai pété aussi. — Bah j'ai pas dit qu'il fallait l'utiliser à tout moment.
22:11 — La question du transfert de données, d'ailleurs, ça intéresse directement ces modèles d'apprentissage.
22:15 — Oui, oui, bien sûr. Non, non, mais c'est évident. Mais à chaque fois, je pense qu'il faut qu'on mette sur la table l'équation
22:21 de la mesure écologique, c'est-à-dire combien ça coûte de faire ça, de la cybersécurité, qu'est-ce qu'on arrive à sécuriser,
22:29 de la liberté d'utiliser ou pas. Et puis il y a un vrai sujet qui est effectivement... On laisse pas la place aux Européens pour développer
22:35 un marché vraiment économique propre à eux, puisque les États-Unis sont toujours là en train de pousser dans leur sens.
22:42 Donc comment on fait ça ? Comment la commande publique peut devenir un peu plus maligne pour demander aussi...
22:47 Est-ce qu'il y a la moitié des choses qu'on développe au niveau de l'État, qui soient des mains des ingénieurs locaux...
22:54 Enfin, locaux, on dit. Il faut travailler localement. Bah allons-y ! Je ne sais pas pourquoi il n'y a pas plus de défamination dans le gouvernement.
23:00 — C'est ça. C'est peut-être cette question de la décision politique, quand même. — Parce que les gouvernements sont lents.
23:04 Et une fois... Il y a des effets généraux. Je suis sûr que vous rattrapez la panique.
23:08 — Non, non. C'est pas une question. En termes de commande publique, ils sont lents. — Je suis désolée. Ils sont en manette. Donc c'est à eux de faire des choses rapidement.
23:14 — Alors on va enchaîner avec lent, pas lent, vous me direz. L'adoption par le Sénat en première lecture du projet de loi visant à sécuriser, réguler
23:21 l'espace numérique, ça a été plutôt rapide sur ce sujet. — La commande publique est lente. Si vous voulez changer de sujet, simplement.
23:29 — Il y a un problème du marché public dans l'Europe. — Oui, on est d'accord. — Donc accélérons la façon de pouvoir...
23:34 — On est d'accord. — Sur ces sujets de commande publique, ce qui sont majeurs, parce que c'est très bien de faire par exemple la loi sécuriser et réguler
23:41 l'espace numérique. — On n'aura pas le temps de parler de la suite. Je vous préviens. — Mais la souveraineté, une politique de souveraineté, c'est une politique
23:46 qui articule de manière harmonieuse du réglementaire, les instruments d'une politique, le réglementaire, la commande publique et l'investissement public.
23:56 Et là, on manque encore de cohérence globale sur ces sujets et de les faire avancer. — Oui, mais donc on l'a toujours pas. On l'a toujours pas, cette cohérence.
24:04 Alors on enchaîne avec le sujet. — C'est le principal problème. — C'est pareil. On a une phase qu'on a eu dans le matière d'éthique en matière de business.
24:08 C'est quand même fou, quoi. — Non, on va pas plus vite en matière d'éthique, je vous rassure. — Bon. Alors est-ce que vous voulez parler ou non de ce projet de loi...
24:13 — Oui. — ...adopté en première lecture par le Sénat pour sécuriser notre espace numérique ? Ça se passe en France. On revient chez nous.
24:22 Et je disais, on a plutôt été rapides sur ce sujet, finalement. — Rapides. En tous les cas, c'est un texte qui a trois grandes parties, dirons-nous,
24:32 des instruments juridiques qui vont permettre de sécuriser la vie numérique de nos concitoyens. C'est une excellente chose.
24:41 Il y a une deuxième partie de précision sur ce que font les grands acteurs de la régulation en France, notamment l'ACNE, l'ARCEP et l'ARCOM, la répartition des compétences.
24:55 Et puis il y a une troisième partie qui est une adaptation de la législation française à deux grands textes importants, qui sont le DSA et le DMA, le Digital Service Act et le Digital Market Act.
25:05 — Et sur le DMA, parce qu'on n'a plus beaucoup de temps, il y a une mesure qui a dû vous intéresser. C'est ce qu'a ajouté le Sénat en matière de credit cloud.
25:14 — Alors sur les credit cloud... — Pour rééquilibrer la concurrence... — Pour les credit cloud, oui, c'est important. Et il y a des mesures qui sont notamment des mesures
25:22 qui anticipent l'adoption du Data Act et qui vont interdire certaines dispositions pour renforcer la capacité de l'industrie du cloud et du numérique européenne, française et européenne, à se développer.
25:38 — Bon. Eh ben on n'a pas le temps de parler de la suite. Je voulais juste qu'on termine avec une image. C'est cette sphère de Las Vegas absolument impressionnante.
25:45 Donc un monument qui a surpris tout le monde sur les routes, qui a généré des embouteillages paramineux. 1,2 million de LED qui recouvrent ce bâtiment.
25:56 — C'est quel coût ? 2 milliards. — Alors le coût... Ouais, je l'ai. 2 milliards de dollars, madame. Et nous aurons une version en Europe, puisqu'à priori, on en a la même chose à Londres.
26:02 — C'est très écolo, ça. C'est vraiment l'avenir, ça. — C'est dommage. C'est dommage. Voilà. C'est dommage, parce que si ce qui se passe à Las Vegas pouvait rester à Las Vegas, ça serait quand même bien.
26:11 — On aime bien toujours importer un peu ce qu'ils font. Merci beaucoup, Laurence de Villers, professeure en IA, chercheure au CNRS, Philippe Delmas, consultant en stratégie industrielle,
26:20 Guy Mamoumani, entrepreneur Business Angel, ex-Open et Henri Dagrin, délégué général du CIGREF. À suivre, petite pause, et on va parler de Tchad GPT pour changer. (Rires)

Recommandations