• l’année dernière
Au bon vieux temps, sauvegarder nos données était si rassurant… Un clic, un disque dur, et tout était en sécurité. Mais aujourd'hui, avec le cloud computing et les serveurs distants, où sont nos vraiment les précieuses data de nos entreprises, nos dossiers médicaux, nos souvenirs numérisés ? Qui aurait imaginé qu'un simple échange avec chatGPT puisse involontairement divulguer des informations confidentielles de notre service, ou que nos données personnelles soient hébergées sur un Cloud qui ne respecte pas nos propres lois ?
Mais l’Europe et la France ont-elles les armes pour faire aussi robustes, aussi agiles, aussi innovantes que les GAFAM ? Ou leurs projets de souveraineté numérique et leurs « nuages de confiance » finiront-ils en traînée de poudre ?

Avec :
Guillaume Poupard, directeur général adjoint de Docaposte, ancien directeur général de l’ANSSI
Michel Paulin, directeur général d’OVHcloud

Suivez nous sur :
- Youtube :
https://www.youtube.com/c/lepoint/

- Facebook :
https://www.facebook.com/lepoint.fr/

- Twitter :
https://twitter.com/LePoint

- Instagram :
https://www.instagram.com/lepointfr

- Tik Tok :
https://www.tiktok.com/@lepointfr

- LinkedIn :
https://www.linkedin.com/company/le-point/posts/

-
www.lepoint.fr
Transcription
00:00 [Musique]
00:26 Bienvenue ou rebonjour !
00:28 Il y a pas mal de gens qui étaient déjà là, on est toujours dans le cadre de la 12e édition de Futuropolis Planète,
00:34 dans les crains du Quai des Savoirs de Toulouse.
00:37 Je vous rappelle que vous pouvez poser vos questions, vous l'avez vu, le QR code qui passe, menti.com, 5602-3504, c'est facile à retenir,
00:44 volontairement.
00:46 Alors qu'est-ce que la souveraineté technologique française ?
00:49 Au bon vieux temps, sauvegarder nos données était si rassurant, un clic, un disque dur et tout était en sécurité.
00:54 Mais aujourd'hui, avec le cloud computing, les serveurs distants, où sont vraiment les précieuses datas de nos entreprises,
01:01 nos dossiers médicaux, nos souvenirs numérisés ?
01:04 Qui aurait imaginé qu'un simple échange avec ChildGPT puisse involontairement divulguer des informations confidentielles de notre service,
01:10 ou que nos données personnelles soient hébergées sur un cloud qui ne respecte pas nos propres lois ?
01:16 Mais l'Europe et la France sont-elles les armes pour faire aussi robuste, aussi agile, aussi innovante que les GAFAM,
01:22 ou leurs projets de souveraineté numérique et leurs nuages de confiance finiront-ils entraînés de poudre ?
01:27 On le découvre tout de suite.
01:28 Tout de suite, voici Guillaume Poupard, Michel Polin et Étienne Gernel.
01:32 Guillaume Poupard est directeur général adjoint d'Ocaposte, ancien directeur général de l'Annecy.
01:35 Michel Polin est directeur général d'OVHcloud.
01:37 Sous applaudissements, mesdames et messieurs, venez.
01:39 Salut les amis !
01:48 Décidément, j'adore ce petit jingle. J'aimerais l'avoir pour chez moi quand je me lève le matin.
01:53 Bienvenue à tous les deux. Et on va parler d'un sujet bienvenu à vous tous,
01:58 d'un sujet qui est politiquement éruptif en France, en Europe,
02:03 qui n'est peut-être pas complètement arrivé dans le débat public, grand public, mais qui devient énorme.
02:09 Ça s'appelle la souveraineté numérique.
02:11 Est-ce que ça veut dire quelque chose ?
02:13 D'abord, qu'est-ce que ça veut dire quelque chose ?
02:15 Il ne peut pas. Ça veut dire quoi, la souveraineté numérique ?
02:20 Ça veut sûrement dire quelque chose. Moi, je me fie beaucoup de termes de souveraineté,
02:23 qui est avant tout un terme politique. Et quand je viens du secteur public de l'administration,
02:27 j'ai toujours un grand respect et une très grande prudence.
02:30 Par contre, derrière, il y a des tas de choses qui sont extrêmement concrètes,
02:33 comme ça a été dit en introduction. Où sont nos données ? Qui c'est qui les gère ?
02:37 Comment est ce qu'on construit finalement tout ce socle numérique qui sert à développer nos sociétés,
02:42 à développer notre économie ? Ça, ça a un vrai sens.
02:45 Et c'est vrai que ce n'est pas encore totalement arrivé dans le débat public.
02:48 Quand ça arrive, c'est parfois de manière un petit peu désordonnée.
02:50 Par contre, les questions qui sont derrière sont absolument essentielles.
02:53 Et à mon avis, elles sont clairement liées à notre destin.
02:56 Qu'est ce qu'on fait de notre avenir ? Je pense que c'est ça dont on va parler.
02:59 C'est un sujet qui est passionnant et qui mérite qu'on s'y attache.
03:03 Alors, c'est vrai que moi aussi, je ne suis pas un grand adepte du mot souveraineté,
03:08 parce que je pense que c'est un terme politique.
03:10 Et nous, notre définition chez Vosklad, de la souveraineté, c'est la liberté de choix,
03:13 en toute transparence et en tout état de cause.
03:15 Vous n'êtes pas souverain quand vous n'êtes pas libre.
03:17 Et donc, parfois, d'ailleurs, on n'associe pas la souveraineté à la liberté,
03:20 alors que nous, contrairement, la souveraineté, c'est la liberté.
03:23 Et je rejoindrai ce que vient de dire Guillaume.
03:26 Ce qui me semble plus important au-delà de la souveraineté numérique,
03:29 c'est bien la notion de liberté dans le numérique.
03:31 Et quelle est la notion de liberté dans le numérique ?
03:33 Sachant que ça a été mis un peu en avant dans l'Internet,
03:35 c'était tout le monde a le droit de s'exprimer, etc.
03:38 Et on voit bien quand même que ça pose un certain nombre d'enjeux.
03:41 Alors, il y a les enjeux économiques.
03:43 Quand même, ça fait la fortune des gaffes, le numérique.
03:45 Un peu.
03:47 Mais on voit que maintenant, le numérique, c'est aussi important
03:50 dans nos vies personnelles, à la maison, au bureau,
03:53 que tous les autres domaines.
03:56 J'en parlais ce matin, l'alimentation, l'écologie, l'énergie.
04:00 La donnée, aujourd'hui, c'est au cœur de nos vies personnelles.
04:03 C'est au cœur de nos vies professionnelles.
04:05 C'est au cœur aussi des débats politiques.
04:07 Des enjeux géopolitiques, des enjeux stratégiques
04:10 qui, aujourd'hui, sont dans le domaine de la donnée.
04:13 Et donc, à ce titre, poser la question de la souveraineté de la donnée,
04:16 en réalité, poser la question de ce que c'est que la liberté dans le numérique,
04:19 me semble une question fondamentale, à la fois politique et économique.
04:23 Alors, j'ai envie de poser la question directement à vous deux.
04:26 Peut-on faire confiance à Amazon et à Google quand ils gardent nos données ?
04:32 Peut-être que si on se balade là, sur la Légulguede,
04:35 on va trouver des gens, on va les arrêter,
04:37 on va leur dire « bon oui, peut-être qu'ils s'en foutront un peu,
04:39 ils diront « allez hop, c'est pas très grave, etc. »
04:42 et je ne sais pas ce qu'ils vont faire de mes données.
04:44 Mais peut-être pour les entreprises, pour les États, pour nous.
04:47 Moi, je suis toujours un peu inquiet.
04:49 Vous savez, on a un… D'ailleurs, répondez à cette question, tous les deux.
04:52 Nous, nos mails, au point, ils sont gérés par Google.
04:54 Est-ce qu'on y fout de faire ça ou pas ?
04:56 Est-ce qu'on peut leur faire confiance ?
04:58 Est-ce qu'on peut faire confiance à Amazon ?
05:00 Et pourquoi, si on ne peut pas ?
05:02 Donc, je l'attaque.
05:04 La question n'est pas de stigmatiser telle ou telle entreprise,
05:07 telle ou telle personne, ce n'est pas du tout ça.
05:09 Il faut réussir à objectiver un débat qui, autrement, est passionnel.
05:12 Et l'avantage dans ce domaine-là,
05:14 c'est que le droit permet d'objectiver les choses.
05:17 Si on regarde le droit qui s'applique à ces géants numériques,
05:20 là, on parle de géants américains,
05:22 mais on pourrait parler de géants chinois,
05:24 de beaucoup d'entreprises qui ne sont pas européennes aujourd'hui.
05:26 Le droit qui s'applique à eux, c'est un droit qui n'est pas européen.
05:30 Même si les serveurs sont en Europe,
05:32 même si ceci, même si cela,
05:34 fondamentalement, et c'est propre au numérique,
05:37 probablement encore plus que dans les autres domaines,
05:39 le droit national peut très vite avoir une application
05:42 qu'on appelle extra-territoriale, ça, c'est pour faire des grands mots.
05:45 Mais le droit américain qui s'applique à un acteur américain,
05:48 eh bien, il va être contaminant, quelque part,
05:51 pour nos données, où que ce soit stocké.
05:53 Et le droit américain est hyper clair là-dessus.
05:55 Si on rajoute à ça une volonté du législateur américain
05:58 de systématiquement mettre de son côté toutes les armes possibles
06:01 à des fins de sécurité, de défense,
06:03 post-11 septembre essentiellement,
06:05 mais également à des fins économiques,
06:07 le risque, il est réel.
06:09 On peut le dire et on peut l'objectiver.
06:11 Et une fois encore, sans forcément dire du mal
06:13 ou chercher à stigmatiser un tel ou un tel,
06:15 c'est malheureusement une réalité.
06:17 Donc, ça ne veut pas dire qu'il ne faut absolument pas travailler
06:20 ou n'utiliser absolument aucune technologie ou entreprise américaine.
06:23 Ça n'aurait pas de sens de dire ça.
06:25 Mais il faut systématiquement se poser la question,
06:27 quelle est la sécurité de mes données,
06:29 des processus que je peux confier à un tel ou un tel,
06:31 qui peut y avoir accès?
06:33 Et là, le droit américain, une fois encore,
06:35 est extrêmement clair.
06:36 Quand on confie des données ou des processus
06:38 à des acteurs américains,
06:40 les autorités américaines y ont accès.
06:42 Alors, je ne devrais même pas être là,
06:45 parce que je suis tellement en phase avec Guillaume
06:47 que je n'ai plus rien à dire.
06:48 Mais non.
06:49 Il a tout à fait raison.
06:50 C'est-à-dire qu'aujourd'hui,
06:51 vous faites confiance à qui vous voulez.
06:53 C'est votre choix personnel.
06:54 Donc, si vous avez fait confiance à Google,
06:56 c'est vous qui avez fait ce choix là.
06:58 Je pense que la vraie question que vous posez,
07:00 ce n'est pas tellement celle là,
07:01 c'est de savoir pour faire confiance
07:02 et pour que la confiance soit durable,
07:04 il faut la transparence.
07:05 Donc, il faut comprendre en tout état de cause
07:07 et en toute transparence,
07:08 quels sont les critères de choix
07:10 et pourquoi j'ai fait ces choix là.
07:11 Or, malheureusement, souvent,
07:12 ces acteurs là sont des monopoles de fait
07:14 dans lesquels finalement, vous n'avez pas le choix.
07:16 Vous avez peu de choix.
07:18 Et donc, comme vous avez peu de choix,
07:20 à la fin, vous n'avez plus la transparence
07:21 pour laquelle vous avez fait ces choix là.
07:23 Et l'exemple qu'a pris,
07:25 et l'angle qu'a pris Guillaume, me semble très bien.
07:27 Aujourd'hui, on voit bien que sur le droit des données,
07:29 il y a trois mondes qui s'affrontent, en réalité.
07:32 Enfin, quand ils s'affrontent,
07:33 en tout cas, une conception radicalement différente.
07:35 Vous avez le monde chinois,
07:36 où le tiers de confiance, c'est l'État.
07:38 Et seulement l'État, qui procède toutes les données
07:40 et qui est le responsable des données
07:42 pour les milliards de Chinois, le milliard de Chinois.
07:44 Vous avez une conception américaine
07:46 qui est une conception business.
07:48 Les données, c'est un business.
07:50 Et d'ailleurs, quand vous avez un litige sur les données,
07:52 c'est du droit, qui est du droit de business.
07:55 Et puis, vous avez une conception européenne
07:57 dans laquelle on protège les individus.
07:59 C'est le RGPD, c'est de la protection.
08:02 Et le business, le seul endroit, j'en reviens sur les Etats-Unis,
08:04 où ce n'est pas du droit de business,
08:06 c'est uniquement, comme tu l'as dit, la sécurité nationale.
08:09 Ce n'est pas protéger les citoyens, c'est protéger la nation.
08:12 Alors que le droit européen, dans la donnée,
08:15 lui, c'est un droit qui est de dire, je protège les individus,
08:17 je protège les citoyens.
08:19 Alors, moi, j'ai choisi mon camp.
08:21 Nous avons choisi notre camp.
08:23 Je pense que c'est quand même, dans les termes de valeur,
08:25 nettement mieux que le fer.
08:27 Et je pense qu'il est indispensable que les gens sachent, justement,
08:30 qu'on respecte les règles du droit européen,
08:33 en toute transparence.
08:35 Et aujourd'hui, ce qu'il faut le dire, ce que tu as dit,
08:38 c'est que quand vous êtes chez un Américain,
08:40 vous n'êtes pas sous le droit européen.
08:43 Celui qui prévaut à tout, et qui est au-dessus,
08:45 c'est le droit américain,
08:47 quand vous êtes dans un nouveau température de climat.
08:49 Et je pense qu'il faut le dire.
08:51 Après, vous prenez vos décisions comme vous voulez.
08:53 Quelles en sont les conséquences ? C'est vous qui décidez.
08:55 - Alors, dans mon métier, je rencontre plein de patrons,
08:58 tout le temps, y compris beaucoup de patrons du CAC 40.
09:00 Et je leur pose souvent la question
09:02 de l'endroit où ils hébergent leurs données,
09:04 comment ils font, etc.
09:06 Récemment, j'ai déjeuné avec l'un d'entre eux,
09:08 je ne vais pas donner son nom,
09:10 qui a un plan pour lancer une énorme plateforme nouvelle, etc.
09:12 Et je lui dis, alors, où est-ce que tu les mets,
09:14 tes données, c'est hébergé par qui ?
09:16 Il me dit Amazon.
09:18 Il me dit, t'es un salaud,
09:20 c'est pas bien, etc.
09:22 Et là, il m'engueule, alors il me dit,
09:24 mais attends, il faut bien vivre,
09:26 c'est la plus grosse boîte,
09:28 on n'a pas trop le choix,
09:30 c'est comme ça,
09:32 c'est pas ma responsabilité.
09:34 Est-ce que c'est un sujet ?
09:36 Qu'est-ce que vous leur dites à ces gens-là ?
09:38 Comment est-ce que vous, vous percevez ce sujet-là ?
09:40 Et ce sont des boîtes qui ont des intérêts immédiats,
09:42 avec peut-être des clients qui font des rabais importants,
09:44 qui ont une surface importante,
09:46 des fournisseurs comme EWS,
09:48 ou Google, ou Microsoft, etc.
09:50 Et qu'est-ce qu'on peut leur dire ?
09:52 Est-ce que c'est possible,
09:54 d'ailleurs, comme sur le réchauffement climatique ?
09:56 Attendez, il y a des valeurs qui vont au-dessus
09:58 du bénéfice éventuel
10:00 que vous pouvez en tirer à court terme.
10:02 - Avant de dire ça,
10:04 moi, je pense que ce qui est intéressant,
10:06 c'est qu'on n'a pas le choix.
10:08 C'est vous qui avez dit que vous n'avez pas le choix.
10:10 On retombe sur le sujet de la souveraineté.
10:12 La souveraineté, c'est qu'en fin de compte,
10:14 quand même que sur un marché aussi important,
10:16 c'est comme si on vous disait qu'aujourd'hui,
10:18 dans le domaine des voitures, on n'a plus le choix de voiture.
10:20 C'est comme le bloc soviétique, vous n'avez qu'une marque.
10:22 Vous vous rendez compte ?
10:24 Donc, je trouve que le vrai sujet
10:26 est d'abord là. C'est un sujet
10:28 marché, c'est un sujet...
10:30 C'est bon pour les consommateurs d'avoir
10:32 une bonne concurrence. C'est mauvais
10:34 pour les concurrents d'avoir des facteurs,
10:36 des opérateurs qui ont des opérateurs de...
10:38 Et ce débat-là,
10:40 on l'a un peu en France. "Ah, j'ai pas le choix."
10:42 C'est bizarre, nous, notre deuxième pays après la France,
10:44 c'est les Etats-Unis.
10:46 - C'est vrai. - Ouais, ouais.
10:48 C'est peu connu, mais aujourd'hui,
10:50 on a deux data centers aux Etats-Unis,
10:52 on a plusieurs centaines de... Régis par le droit américain
10:54 en droit local, attention, complètement isolés,
10:56 etc. Et je n'ai jamais
10:58 ces questions-là aux Etats-Unis.
11:00 Ces questions-là, ils se posent jamais la question.
11:02 Ils regardent le produit, ils sont beaucoup plus pragmatiques,
11:04 et ils disent "Ah, vous avez un bon produit."
11:06 La preuve, c'est qu'on arrive à les convaincre.
11:08 Donc, ça veut dire qu'on a des produits
11:10 aujourd'hui qui satisfont
11:12 des milliers de clients américains dans la tech.
11:14 On n'est que dans la tech aux Etats-Unis,
11:16 on n'est pas chez les particuliers.
11:18 On est dans la tech.
11:20 Donc, des gens qui utilisent la tech, c'est des makers.
11:22 Eh bien, on n'a pas ces débats-là.
11:24 Et eux, d'ailleurs,
11:26 cherchent des alternatives.
11:28 Donc, voilà, je vais vous répondre qu'on a toujours
11:30 le choix qu'on s'en donne les moyens,
11:32 et que, de plus,
11:34 nous sommes un exemple vivant
11:36 comme quoi, oui, il y a des alternatives,
11:38 elles sont viables. On fait de la croissance à deux chiffres
11:40 depuis maintenant plus de six ans, depuis que je suis arrivé.
11:42 Avant, je crois que c'était déjà le cas, mais je n'ai pas les chiffres.
11:44 On va en dire des détails. Et on est la preuve vivante
11:46 qu'il peut toujours y avoir des alternatives.
11:48 Après, il faut se faire aider.
11:50 Et on parlera peut-être de la régulation,
11:52 des choses comme ça. Les Américains sont massivement aidés
11:54 aujourd'hui sur leur territoire et à l'export.
11:56 Et je pense que l'Europe doit aider
11:58 ses champions.
12:00 - Il y a peut-être deux éléments de réponse
12:02 très complémentaires.
12:04 La première, c'est qu'il y a des moments
12:06 où il ne faut pas laisser ce choix.
12:08 Les patrons sont
12:10 les patrons de leur boîte.
12:12 Mais quand les choix qu'ils font
12:14 dépassent leurs propres intérêts
12:16 et peuvent toucher l'intérêt notamment national,
12:18 la réglementation est là pour mettre
12:20 des limites et pour imposer des choses.
12:22 En France, on aime bien faire ça. En plus, ça marche bien.
12:24 Mais au-delà de ça, ça peut être très efficace
12:26 si c'est bien utilisé. Donc, il ne faut pas forcément
12:28 être fataliste devant des choix
12:30 qui sont parfois un petit peu surprenants.
12:32 Le deuxième élément, il est un petit peu inverse.
12:34 Ça se respecte quelque part
12:36 des choix qui sont faits quand ils sont faits de manière éclairée.
12:38 Très souvent,
12:40 j'ai le sentiment qu'il n'est pas éclairé,
12:42 ce choix.
12:44 On prend machin parce qu'il a
12:46 fait la meilleure pub, il le fait très bien,
12:48 parce que les partenaires
12:50 l'ont pris aussi. Il y a un effet d'engouement
12:52 et puis parce qu'un effet
12:54 de marketing probablement très bien fait.
12:56 Est-ce que systématiquement, on se repose
12:58 la question, est-ce que j'ai vraiment
13:00 mis dans mon équation tous les éléments,
13:02 y compris les éléments de sécurité, de sécurité économique
13:04 et ainsi de suite, et est-ce que je suis vraiment
13:06 allé voir si mon besoin,
13:08 il ne pouvait pas être résolu par des gens en qui
13:10 je pouvais avoir beaucoup plus confiance.
13:12 Ce travail-là, il est rarement fait encore aujourd'hui.
13:14 Ça progresse largement et ça se fera d'autant plus
13:16 qu'on aura, je rejoins complètement ce que tu viens de dire,
13:18 on aura une liberté de choix,
13:20 y compris en Europe, avec
13:22 des concurrents européens capables de proposer
13:24 des solutions. Et la vraie question
13:26 à se poser, ce n'est pas lequel est le meilleur
13:28 sous-entendu, lequel a le meilleur budget
13:30 de marketing et lequel a le plus gros
13:32 catalogue de fonctionnalités,
13:34 c'est plutôt lequel répond le mieux à mon
13:36 besoin en mettant tous les ingrédients dans l'équation.
13:38 Alors,
13:40 on a beaucoup parlé de ce film,
13:42 donc Look Up, et on a fait le parallèle avec
13:44 le réchauffement climatique.
13:46 Est-ce qu'en matière de sûreté
13:48 des données,
13:50 l'ensemble
13:52 des écosystèmes ne
13:54 sous-estiment pas les menaces
13:56 et les dangers sur la sûreté
13:58 des données ? On parle par exemple du hacking
14:00 de données de services d'hôpitaux,
14:02 par exemple, avec
14:04 des opérations de rançonnage, donc parfois
14:06 ça peut être l'argent, mais on voit bien que la guerre
14:08 en Ukraine, par exemple, a été le théâtre
14:10 d'un affrontement numérique
14:12 considérable. On voit aussi, d'ailleurs,
14:14 que si on s'intéresse au Proche-Orient,
14:16 contre Israël et l'Iran, il y a une guerre
14:18 des hackers, également, qui est d'une
14:20 très très grande violence. Évidemment, il y a beaucoup de gens
14:22 qui sont impliqués dans ce genre d'affaires.
14:24 Est-ce que nous-mêmes,
14:26 nous, au point, vous, les gens qui sont là,
14:28 on n'est pas un peu naïfs
14:30 ou pas, d'ailleurs,
14:32 sur ces questions-là ?
14:34 Est-ce qu'on a assez peur de la menace
14:36 sur la sûreté des données ?
14:38 Je vais laisser après Guillaume, parce qu'il connaît quand même
14:40 très très bien, en tant que d'ancien directeur de l'ANSI.
14:42 Moi, je réponds souvent à cette question
14:44 en disant que, souvent, on pose la question,
14:46 qui s'empêche de dormir la nuit ?
14:48 Et je dis, j'ai deux choses.
14:50 La première, c'est tout ce qui est autour des hommes et des femmes
14:52 dans l'entreprise, le recrutement,
14:54 la culture, ça, c'est quelque chose sur lequel
14:56 il faut être totalement paranoïaque et totalement vigilant.
14:58 La deuxième, c'est la cybersécurité.
15:00 Aujourd'hui,
15:02 c'est aussi important
15:04 que la porte de votre maison.
15:06 Donc, une entreprise qui,
15:08 aujourd'hui, n'investit pas, comment dire,
15:10 un minimum d'investissement, je parle bien d'investissement,
15:12 ce n'est pas de l'assurance, c'est de l'investissement
15:14 pour protéger ses données,
15:16 elle ne se rend pas compte du risque qu'elle fait prendre
15:18 à son entreprise. Elle fait prendre un risque majeur,
15:20 tout s'arrête,
15:22 elle en meurt. Une PME qui est
15:24 hackée, qui est crypto-lockée,
15:26 soit elle paye, et donc ça va lui coûter cher.
15:28 - Crypto-lockée, ça veut dire ?
15:30 - C'est-à-dire que, je te laisserai raconter ça,
15:32 c'est quelqu'un qui envoie,
15:34 qui bloque votre disque dur,
15:36 vous ne pouvez plus accéder à vos données, vous ne pouvez plus rien faire,
15:38 vous ne pouvez plus éditer une facture, vous ne pouvez plus payer
15:40 quelqu'un, parce que tous vos données
15:42 sont cryptées avec
15:44 un code qu'il faut recevoir d'un hacker,
15:46 quelque part dans le dark web.
15:48 Et vous allez payer une crypto-monnaie
15:50 pour pouvoir le faire.
15:52 Donc aujourd'hui, et ça touche maintenant les individus,
15:54 ce n'est pas que les entreprises.
15:56 Donc ça, je peux vous dire, si je m'adresse
15:58 là à tout le monde, c'est
16:00 qu'il faut que tous les patrons de boîtes
16:02 passent un temps de leur énergie
16:04 et une partie de leur temps à réfléchir
16:06 à la protection de leurs données. C'est vital.
16:08 C'est aussi important que
16:10 le cadenas de sa porte d'entrée.
16:12 - C'est exactement ça.
16:14 Et c'est à tous les niveaux.
16:16 C'est complètement multidimensionnel.
16:18 Au niveau des individus, je vous encourage vraiment
16:20 à être très paranoïaque, sainement paranoïaque,
16:22 mais paranoïaque quand même sur ces questions,
16:24 parce que quand ça vous arrive, c'est extrêmement désagréable.
16:26 Toutes ces issues de passion d'identité,
16:28 c'est extrêmement désagréable.
16:30 Pour dire ça encore avec un euphémisme.
16:32 Quand c'est au niveau d'une entreprise, ça peut être mortel.
16:34 On voit des sociétés qui mettent la clé sous la porte
16:36 à cause des attaques informatiques. Quand ça arrive dans un hôpital,
16:38 je ne veux pas aller
16:40 dans les choses sordides, mais c'est abominable.
16:42 L'hôpital s'arrête. Quand l'informatique
16:44 ne fonctionne plus, il s'arrête véritablement.
16:46 Malheureusement, on l'a vécu un nombre de fois
16:48 trop important en France.
16:50 Et à l'échelle d'un Etat, aujourd'hui,
16:52 tous les conflits d'aujourd'hui ont un pendant numérique.
16:54 Ça se voit beaucoup moins, c'est moins impressionnant,
16:56 ça ne fait pas d'image.
16:58 Mais la guerre,
17:00 pas uniquement, mais c'est également transposé
17:02 dans le monde numérique. En Ukraine,
17:04 ça a été extrêmement violent.
17:06 Encore une fois, ça se voit beaucoup moins que des images
17:08 de bombardements, des choses comme ça, mais c'est au moins tout aussi violent.
17:10 Si je reste sur le cas de l'Ukraine,
17:12 il est particulièrement intéressant et ça nous ramène au sujet de la souveraineté.
17:14 L'Ukraine a sauvé
17:16 sa souveraineté en la confiant
17:18 aux GAFAM.
17:20 Il y a un vrai sujet philosophique derrière ça.
17:22 Si les GAFAM n'avaient pas été là,
17:24 si les Américains n'avaient pas été là,
17:26 qu'est-ce qu'ils lanceraient des données
17:28 de ce qu'il fait aujourd'hui une nation ?
17:30 Qu'est-ce qu'ils lanceraient des dossiers,
17:32 des données ukrainiennes ? Je n'ai pas la réponse à ça.
17:34 Ils ont dû faire un choix.
17:36 Ce choix, il est juste terrible parce que
17:38 on se positionne dans ce cas-là en position
17:40 de vassal parce qu'on a besoin d'un protecteur,
17:42 on ne peut pas faire sans et quelque part,
17:44 on renonce à une partie de sa souveraineté dans ça.
17:46 Mais est-ce que,
17:48 je vais poser une question un peu, non pas politique,
17:50 mais philosophique, en matière de défense,
17:52 on dit souvent que la France a une ambition,
17:54 comme le Royaume-Uni d'ailleurs, mais qui est sorti de l'Union européenne,
17:56 en matière de défense qui reste importante,
17:58 on a encore des capacités
18:00 de projection, il y a beaucoup de...
18:02 et on a une industrie de défense,
18:04 nous sommes ici à Toulouse
18:06 où se trouve le siège d'Airbus qui participe
18:08 d'ailleurs de cette industrie de défense
18:10 qui est importante, où on sait faire des avions de chasse,
18:12 des ravitailleurs, on sait faire des chars, on sait faire des tas de choses,
18:14 on sait faire des satellites,
18:16 et on sait faire de la donnée, et c'est important pour nous.
18:18 On voit qu'il y a beaucoup de pays en Europe qui n'ont pas du tout
18:20 la même vision stratégique.
18:22 On prend les Pays-Bas, la Pologne par exemple,
18:24 qui achète des avions américains, et qui ne se posent pas
18:26 cette question de l'autonomie stratégique,
18:28 pour représenter l'expression à la mode,
18:30 et en tout cas qui est tout le temps utilisée par Macron.
18:32 Est-ce que c'est une obsession française ?
18:34 Est-ce qu'on est seul
18:36 là-dedans ?
18:38 Et on voit bien dans le domaine de la donnée,
18:40 de la data et de la protection des données,
18:42 est-ce que c'est français, ou est-ce que
18:44 les Allemands, les Autrichiens,
18:46 les Belges, les Espagnols,
18:48 ont la même vision que nous ?
18:50 Je te laisserai parler sur la défense aussi après.
18:54 Moi je vais répondre d'abord, sortons un peu de l'Europe
18:56 et regardons ce qui se passe. Si vous regardez ce qui se passe,
18:58 en Inde, ils se posent ces questions-là.
19:00 Au Singapour, ils se posent ces questions-là. En Corée, ils se posent ces questions-là.
19:02 Au Canada, ils se posent ces questions-là.
19:04 Les deux qui ont commencé à se poser beaucoup ces questions-là,
19:06 c'est quand même les Chinois et les Américains.
19:08 Les empires ?
19:10 Oui, mais je veux dire,
19:12 aujourd'hui, ces notions de souveraineté
19:14 et ces notions d'autonomie stratégique,
19:16 l'Inde, elle se pose la question. Vous n'avez plus le droit
19:18 d'exporter des données personnelles en dehors du territoire
19:20 indien aujourd'hui,
19:22 avec les nouvelles lois qui sont les lois indiennes.
19:24 On est présent en Inde, donc on connaît ces
19:26 réglementations, qui sont des réglementations qui essayent
19:28 de protéger la nation indienne.
19:30 Donc je veux dire que c'est déjà
19:32 un débat qui est un débat
19:34 international en Europe.
19:36 C'est clair que paradoxalement, je
19:38 pense que l'Europe n'est pas unie sur ces sujets.
19:40 Elle ne l'est pas. On le voit sur les normes, les
19:42 US, peut être que tu l'évoquera et aujourd'hui,
19:44 malheureusement, elle n'est pas unie. Je pense que
19:46 ça, c'est vraiment cette fragmentation fragilise
19:48 la position de l'Europe et clairement,
19:50 la France est certainement en avance.
19:52 C'est celle qui est en avance.
19:54 En tout cas, c'est celle qui est le plus avancée sur
19:56 ces sujets là. Mais il y a aussi l'Italie, l'Espagne qui se
19:58 posent vraiment beaucoup de questions et à
20:00 d'autres pays. Vous avez évoqué principalement
20:02 certains pays de l'Europe de l'Est qui sont
20:04 effectivement totalement en disant non.
20:06 Un peu, ils ont sous-traité
20:08 pour aussi des considérations qui sont
20:10 en dehors de la souveraineté numérique.
20:12 Parce que tout ça, c'est un jeu complexe de géopolitique
20:14 dans lequel quand le
20:16 président Biden est venu en Europe il y a
20:18 quelques temps pendant la guerre, comment dire,
20:20 la guerre d'Ukraine, certains avaient commenté et
20:22 à raison. Je vous donne du pétrole,
20:24 mais vous me donnez vos données.
20:26 Le lien
20:28 avec la défense est super intéressant parce que,
20:30 à mon avis, il est direct. Quand on regarde
20:32 dans le monde les pays
20:34 qui veulent être autonomes
20:36 dans le domaine de la sécurité numérique, dans le domaine
20:38 du numérique de manière générale, regardez,
20:40 la carte correspond exactement à la carte
20:42 des puissances nucléaires.
20:44 Donc il y a ceux qui veulent être dans le premier
20:46 cercle autonome. Quand on a
20:48 une puissance nucléaire, on cherche à être
20:50 autonome jusqu'au bout quelque part.
20:52 Et quand on a renoncé à ça, quand on n'est pas capable
20:54 de faire ça, finalement, on est condamné
20:56 à rentrer dans une logique de vassalité.
20:58 Je reviens à ça. Et donc,
21:00 si on est dans le domaine de la défense, dans certains
21:02 domaines économiques, pourquoi pas être dans le domaine numérique,
21:04 qui est un domaine complexe, qui demande
21:06 des investissements, qui demande une vraie assise.
21:08 Donc quelque part, c'est ce qui explique probablement
21:10 à mon sens le fait qu'en
21:12 Europe, la France a une position un peu singulière,
21:14 mais c'est la position de l'unique
21:16 puissance nucléaire en Europe.
21:18 C'est l'aspect défense, mais dans la
21:20 question de l'autonomie des
21:22 données, il y a cette question
21:24 qui est très souvent posée, qui est des données de santé.
21:26 Alors, on n'est pas dans le domaine de l'armement
21:28 ou de la défense, mais c'est absolument
21:30 central et je crois que vous êtes l'un et l'autre
21:32 à des titres variés, peut-être un
21:34 peu communs dans ces sujets-là.
21:36 Vous, parce que vous êtes impliqué dans
21:38 un projet notamment sur les hôpitaux,
21:40 et puis il y a la question du
21:42 Health Data Hub, il y a cette
21:44 question des données de santé. En gros, c'est quoi
21:46 l'enjeu sur les données de santé ?
21:48 Michel l'a dit.
21:50 En Europe, c'est central. C'est la protection
21:52 du citoyen et les données de santé. Il n'y a
21:54 pas plus adhérent à la personne que les données
21:56 de santé. C'est ce qu'il y a de plus personnel, probablement,
21:58 dans les données. Aux Etats-Unis,
22:00 les données, c'est de la matière brute,
22:02 commercialisable, échangeable.
22:04 On fait du business avec
22:06 la donnée. Il y a vraiment deux
22:08 approches qui
22:10 se conforment de manière très forte. Notre
22:12 enjeu, évidemment, c'est d'être capable de traiter
22:14 ces données, mais au-delà des données de santé,
22:16 les données de l'éducation, les données administratives,
22:18 tout ce qui nous est très personnel, finalement. On a
22:20 envie que ce soit bien protégé et pour ça,
22:22 il faut proposer des solutions qui soient à la hauteur pour le faire.
22:24 Je pense qu'en effet, tous les deux, on s'y emploie
22:26 dans nos sociétés respectives.
22:28 Et c'est bien. Je ne vais pas dire le contraire.
22:30 Évidemment, on doit avant tout,
22:32 plutôt que de se plaindre du fait du manque de solutions
22:34 où ça ne va pas, où ils vont aux
22:36 US et ainsi de suite. La solution,
22:38 elle passera par des vraies solutions pragmatiques.
22:40 Et ma conviction, c'est qu'on sait faire.
22:42 Ce n'est pas juste un slogan comme ça.
22:44 On sait évidemment faire et on le prouve au quotidien.
22:46 À mon avis, c'est vraiment sur ça que je
22:48 parlerais. Je pense que je pense que c'est
22:50 naturel encore sur la transparence de savoir où sont
22:52 vos unités de santé qui ont le droit d'utiliser et qu'est ce qu'on en fait.
22:54 Il y a quand même un business autour des assurances
22:56 par exemple faits aux Etats-Unis
22:58 autour de la santé dans lesquelles votre assurance
23:00 commence à changer le prix en fonction
23:02 des antécédents de vos parents,
23:04 de vos grands-parents, etc. et de vos propres
23:06 bilans de santé qui ont été pompés partout dans toutes
23:08 les zones qu'on vous met partout dans le monde.
23:10 Ça pose quand même des vrais sujets, je trouve,
23:12 éthiques et des sujets même moraux
23:14 sur ces sujets là. Mais je pense
23:16 que le plus important, c'est ce que tu as dit à la fin.
23:18 C'est-à-dire que nous on travaille avec la FPHP
23:20 sur un entrepôt de données totalement
23:22 sécurisé, totalement compatible avec les RGPD.
23:24 Aujourd'hui, les solutions existent.
23:26 Utilisons-les et continuons à investir.
23:28 Nous, nous investissons des centaines
23:30 de millions d'euros en R&D tous les ans
23:32 pour pouvoir développer des solutions.
23:34 Et bien sûr, il faut les
23:36 bonnes réglementations pour protéger les citoyens
23:38 et aussi il faut faire confiance à ceux qui sont
23:40 les acteurs aujourd'hui, qui sont les acteurs
23:42 de référence sur ces marchés là.
23:44 Et je pense que de temps en temps, il faut un petit
23:46 peu de courage. J'avais dit un
23:48 peu de courage politique plutôt
23:50 que de faire le syndrome d'IBM des années
23:52 80. C'est facile.
23:54 Je vais chez IBM parce que c'est le plus gros.
23:56 Et là, j'ai plutôt. Je n'ai pas le choix.
23:58 Je vais chez les gros. Mais non, il y a des moyens
24:00 comme nous qui sont aujourd'hui très
24:02 bons et qui respectent des valeurs
24:04 qui sont, je crois, tout à fait honorables.
24:06 Bravo, bravo, bravo.
24:08 Et on va passer aux questions alors. Oui, on peut
24:10 déjà applaudir nos invités. Bravo.
24:12 [Applaudissements]
24:14 On a une question
24:16 d'un jeune qui débute.
24:18 C'est Philippe qu'on connaît à peine.
24:20 Philippe, c'est votre troisième question,
24:22 c'est ça? Il ne faut pas hésiter
24:24 en s'en emparer. Il a raison. Il faut faire comme Philippe.
24:26 On vous écoute. C'est en pratiquant
24:28 qu'on s'améliore.
24:30 Moi, j'aimerais que vous reveniez sur
24:32 la partie clou d'acte et les
24:34 critères de souveraineté parce qu'aujourd'hui,
24:36 sur le marché, on a des
24:38 acteurs qui se présentent en disant
24:40 je fournis un service cloud.
24:42 Mes données sont
24:44 traitées uniquement en Europe.
24:46 Par contre,
24:48 mes administrateurs ne sont pas localisés
24:50 en Europe. Ils ont des nationalités qui peuvent
24:52 être américaines ou israéliennes.
24:54 Le siège social de mon entreprise
24:56 est aux Etats-Unis.
24:58 Les gens qui possèdent le capital de mon entreprise,
25:00 c'est probablement
25:02 des capitaux américains.
25:04 Et ils disent, mais moi,
25:06 je suis compliant,
25:08 je respecte les règles
25:10 de la RGPD et donc je suis
25:12 souverain. Ma question, c'était
25:14 les critères pour être complètement
25:16 indépendants par rapport au clou d'acte.
25:18 Est-ce que c'est uniquement
25:20 l'hébergement où sont localisées
25:22 les données qui maîtrisent
25:24 les infrastructures techniques ?
25:26 Est-ce que c'est qui y accède,
25:28 d'où on y accède,
25:30 et quelle est la nationalité des administrateurs
25:32 qui y accèdent ?
25:34 Ou est-ce que c'est aussi
25:36 un aspect juridique, où est localisé
25:38 le siège social, ou qui possède
25:40 le capital de l'entreprise ?
25:42 Ça, c'est une question.
25:44 On peut en parler pendant des heures.
25:46 La réponse simple, c'est
25:48 dès qu'il y a une attache un peu
25:50 forte avec les Etats-Unis,
25:52 le capital, le siège social, les dirigeants,
25:54 le clou d'acte s'applique.
25:56 Clou d'acte, qui a un nom bien choisi,
25:58 mais également tout le cortège,
26:00 la loi FISA, par exemple,
26:02 post-11 septembre, est beaucoup plus dangereuse,
26:04 beaucoup plus intrusive encore que le clou d'acte.
26:06 Donc ce qui est très simple, c'est que dès qu'il y a une adhérence
26:08 avec les Etats-Unis, le droit américain s'applique.
26:10 Et quand le droit s'applique,
26:12 la première des règles, c'est qu'on n'a pas le droit d'en parler.
26:14 Donc une société qui est saisie
26:16 par des autorités américaines pour accéder
26:18 à des données, la première chose qu'elle n'a
26:20 pas le droit de faire, c'est de le dire.
26:22 Un petit détail sur le RGPD...
26:24 Elle n'est pas informée, d'ailleurs.
26:26 Tout ça reste très secret. Elle n'est pas informée, comme quoi
26:28 les données sont transférées. Le RGPD,
26:30 un petit détail, parce que le RGPD, c'est pour les données personnelles.
26:32 C'est essentiel, les données personnelles,
26:34 mais dans les données sensibles, il n'y a pas que les données personnelles.
26:36 Et dans l'industrie, il y a plein de données qui ne sont pas
26:38 des données personnelles et qui, pour autant, sont des données très sensibles.
26:40 Le droit américain, tout ce que je viens de dire,
26:42 s'applique également dans ce cas-là.
26:44 Le cas du RGPD est un peu bizarre,
26:46 puisqu'il y a toute une polémique.
26:48 Est-ce que des données
26:50 mises aux Etats-Unis, des données personnelles mises aux Etats-Unis,
26:52 respectent ou pas le RGPD ?
26:54 Enfin, aux Etats-Unis ou chez un opérateur américain.
26:56 Ça a été
26:58 cassé à de multiples reprises.
27:00 Il y a toute une polémique juridique autour de ça.
27:02 En ce moment, on est plutôt dans une phase où ça va
27:04 de nouveau être autorisé,
27:06 parce qu'on n'a pas eu une décision d'adéquation.
27:08 Là encore, je ne suis pas juriste, je ne vais pas rentrer dans les détails.
27:10 Mais ce qu'il faut regarder,
27:12 c'est les conditions dans lesquelles cet accord
27:14 a été trouvé de nouveau.
27:16 Ça a été un moment où il y avait un très grand stress
27:18 lié au conflit ukrainien,
27:20 sur la nécessité pour l'Europe de pouvoir accéder
27:22 au gaz américain.
27:24 Et le cynisme de ces échanges a fait que
27:26 l'annonce de l'accès
27:28 de l'Europe au gaz liquéfié américain
27:30 a été faite en même temps, pendant la même conférence
27:32 de presse
27:34 européano-américaine
27:36 que la décision de relancer une décision
27:38 d'adéquation, et donc le fait
27:40 d'étendre le RGPD, quelque part,
27:42 à un hébergement américain.
27:44 Tout ça est totalement géopolitique.
27:46 Une question anonyme.
27:48 On se focalise sur le cloud, l'hébergement,
27:50 mais les entreprises perdent le contrôle.
27:52 Regardez ChatGPT, les fuites de données,
27:54 elles ne viennent pas de l'infrastructure, mais des gens.
27:56 Pas une question, c'est un constat amer.
27:58 Oui, attention,
28:00 dans le numérique,
28:02 il y a l'humain.
28:04 Donc aujourd'hui,
28:06 le principal,
28:08 si vous prenez la cybersécurité,
28:10 c'est toi qui pourra donner
28:12 les plus d'exemples, aujourd'hui,
28:14 le principal défaut, ce n'est pas les systèmes.
28:16 Souvent, c'est les mots de passe
28:18 qui sont 1, 2, 3, 4, 5,
28:20 qui sont assez faciles à craquer.
28:22 Donc c'est ça, bien sûr.
28:24 Le problème est entre l'écran
28:26 et la chaise.
28:28 Le post-it avec l'écran.
28:30 Bien sûr que le facteur humain
28:32 est aujourd'hui extrêmement important,
28:34 mais ça, c'est de la pédagogie.
28:36 C'est apprendre à toute une génération
28:38 ce qu'ils font de leur smartphone
28:40 et qu'est ce qu'il y a sur les smartphones.
28:42 Donc oui, bien sûr, il n'y a pas que l'infrastructure.
28:44 Par rapport à ce que vous venez de dire,
28:46 il y a une autre question qui est corollaire.
28:48 Est ce que le problème ne vient pas très tôt dans les habitudes
28:50 prises jeunes dans les écoles pendant des études?
28:52 Est ce qu'il arrive trop tard?
28:54 On n'est jamais trop tard. 100% des gagnants ont tenté leur chance.
28:56 Donc si vous essayez,
28:58 si vous n'essayez pas, vous ne pouvez pas réussir.
29:00 Non, non, jamais trop tard.
29:02 Mais c'est vrai, la formation,
29:04 la sensibilisation est essentielle.
29:06 La manière de poser les questions,
29:08 c'est à base de la philosophie, vous me direz,
29:10 mais la manière de poser les questions est essentielle.
29:12 Sur ChargeGPT, je rebondis là dessus,
29:14 on a un cas très concret, un cas d'usage
29:16 qui nous a été apporté en mode
29:18 est ce que vous pouvez nous aider à utiliser
29:20 ChargeGPT pour traiter tel type de données?
29:22 Je cite pas qui nous a posé la question.
29:24 Et la réponse qu'on a apporté, c'est non,
29:26 on ne va pas vous aider à traiter ça avec ChargeGPT.
29:28 Par contre, on va vous aider à les traiter avec
29:30 des moyens d'intelligence artificielle
29:32 qui vont répondre à votre besoin et qui eux sont maîtrisés.
29:34 Ils sont maîtrisés en utilisant
29:36 des modèles qui sont
29:38 connus et de confiance,
29:40 des outils de confiance,
29:42 un cloud de confiance pour poser tout ça,
29:44 des ingénieurs de confiance pour mettre tout ça en œuvre.
29:46 Et ça, on sait faire aujourd'hui.
29:48 Finalement, la question, c'est est ce qu'on est?
29:50 C'est pas est ce qu'on est meilleur que les Américains?
29:52 La question, c'est est ce qu'on sait répondre aux questions
29:54 qu'on se pose aujourd'hui sans être condamné
29:56 à rester dans une forme d'obscurantisme
29:58 par peur en termes de sécurité?
30:00 Mais ça veut dire quoi? Ça veut dire qu'en fait, on peut développer
30:02 des IA
30:04 génératives, des IA pour
30:06 résoudre des problèmes. La question,
30:08 c'est de savoir comment on pose la question
30:10 avec qui, dans quel cadre
30:12 pour éviter que ChargeGPT,
30:14 qu'OpenAI deviennent le plus grand aspirateur
30:16 de données de la planète.
30:18 C'est le Dyson géant.
30:20 Ils ne sont pas seuls. Ils ne sont pas seuls.
30:22 Il y a Mistral, société française,
30:24 qui a fait un. Là, on a fait une démo.
30:26 Nous, mardi, on avait notre grand show
30:28 le Summit. On a fait une démo en
30:30 cyclique. Vous pouvez sur
30:32 Mistral 7B, qui est un ingénieur
30:34 français, loger en France,
30:36 héberger. Alors là, c'était chez nous.
30:38 Mais ça pourrait être
30:40 chez Decapod. Alors, je ne sais pas si vous faites de la
30:42 GPU, c'est plutôt outscale.
30:44 Voilà. Donc voilà.
30:46 Et c'est faisable.
30:48 Mistral 7B, c'est plus éthique
30:50 que ChargeGPT à tous les niveaux.
30:52 Je ne dis pas que c'est plus éthique.
30:54 C'est toujours pareil. C'est qu'aujourd'hui, ce que je sais,
30:56 c'est que les données, en revanche, alors si
30:58 vous lisez leur charte, oui, c'est clairement
31:00 elles sont en revanche là. Ils étaient
31:02 dans un dataset qui peut être privé,
31:04 dans lequel vous savez où sont les données.
31:06 Ce n'est pas pompé partout dans le monde et surtout
31:08 l'algorithme, il est ouvert.
31:10 Avant, ça s'appelait OpenChargeGPT.
31:12 Maintenant, ça s'appelle ChargeGPT.
31:14 C'est ouvert et donc tous les codes de paramétrage,
31:16 par exemple, vous pouvez les avoir. Donc, il y a la notion
31:18 de transparence qui fait qu'au moins
31:20 et donc de dire qu'il n'y a pas d'alternative à
31:22 ChargeGPT, qui est un très beau produit, attention,
31:24 je ne suis pas en train de critiquer. Pour moi, vous prouvez
31:26 indépendamment des sujets d'éthique
31:28 que Mistral 7B, ingénieur français
31:30 qui a travaillé dans des entreprises américaines,
31:32 ce sont des remarquables ingénieurs.
31:34 On n'a pas les ingénieurs plus bêtes que les autres.
31:36 La preuve.
31:40 Nous, on a travaillé,
31:42 j'en citais d'autres, pour montrer à quel point,
31:44 ce n'est pas pour faire de la pub, c'est pour montrer qu'il y a une vraie dynamique.
31:46 On a travaillé avec Lighton, qui apporte un modèle.
31:48 On a travaillé avec Aléa, qui apporte les outils
31:50 pour travailler là-dessus. On a travaillé avec nos propres
31:52 ingénieurs de chez OpenValue. On pose
31:54 tout ça dans le cloud qui s'appelle NumSpot.
31:56 Et tout ça, c'est maîtrisé de bout en bout.
31:58 Et la bonne surprise, quelque part, sur des vrais cas d'usage,
32:00 c'est que ça fonctionne.
32:02 À la question initiale, est-ce que je peux traiter
32:04 tel type de données, mais par contre, je ne veux pas
32:06 partager tout ça, je veux les garder sous maîtrise,
32:08 mais pourtant faire de l'IA générative,
32:10 efficace, gagner. C'est formidable.
32:12 On ne peut pas y échapper. C'est juste extraordinaire
32:14 ce qui est en train de se passer. La réponse est oui.
32:16 Définitivement, oui.
32:18 Ce sera le mot de la fin. Merci.
32:20 Merci beaucoup. Le mot de la fin.
32:22 Comme disait Lénine, la confiance n'exclut pas le contrôle.
32:24 Merci beaucoup.
32:26 Merci à Guillaume Poupard.
32:28 Merci à Michel Polin. Merci à nos deux intervenants.
32:30 On se retrouve dans quelques instants pour découvrir
32:32 les petits secrets du train.
32:34 À tout de suite.
32:36 [Musique]

Recommandations