SMART TECH - Emission du jeudi 13 juillet

  • l’année dernière
Jeudi 13 juillet 2023, SMART TECH reçoit Guy Mamou-Mani (coprésident, Groupe Open) , Henri d'Agrain (Délégué général, Cigref) , Philippe Delmas (consultant en stratégie industrielle) , Daniel Ichbiah (Journaliste spécialiste des nouvelles technologies et auteur de "ChatGPT - qui es-tu ?", éditions ENI) et Laurence Devillers (professeure en intelligence artificielle, LISN-CNRS)

Category

🗞
News
Transcript
00:00 (Générique)
00:08 Bonjour à tous au programme de Smartech, une pièce de théâtre qui sera jouée ce week-end au Festival OFF d'Avignon.
00:13 Elle est écrite par trois chercheurs dont Laurence De Villers qui nous fait la joie d'être en plateau avec nous.
00:18 Laurence De Villers, la professeure en intelligence artificielle.
00:20 Le programme, comme tous les jeudis, c'est également le débrief.
00:23 On va parler de voiture autonome, on va parler de lois pour sécuriser, réguler l'espace numérique.
00:29 L'euro numérique aussi qui se précise.
00:31 Cet accord entre l'Union Européenne et les États-Unis sur le transfert de données va aussi nous occuper.
00:37 Et puis évidemment, on parlera d'IA générative.
00:40 En seconde partie de l'émission, je promets aussi un rendez-vous lecture.
00:44 Et puis, on s'intéressera à une nouveauté en matière d'assistance chirurgicale.
00:49 Mais d'abord, donc, à la une de Smartech, c'est le OFF d'Avignon.
00:52 (Générique)
00:58 Alors, pour débriefer cette actualité, aujourd'hui, j'ai conviée en plateau Philippe Delmas, consultant en stratégie industrielle.
01:05 Bonjour Philippe.
01:06 Guy Mamoumani, entrepreneur Business Angel, ex-co-président d'Open.
01:10 Bonjour Guy.
01:11 Bonjour.
01:12 Et Henri Dagrin, délégué général du CIGREF.
01:14 Bonjour Henri.
01:15 Bonjour.
01:16 Et puis, notre star du jour, c'est Laurence De Villers, professeure en intelligence artificielle à la Sorbonne, chercheur au CRNRS.
01:23 On le sait tout ça.
01:24 Mais alors, ce qu'on ne savait pas, c'est que vous étiez également autrice de pièces de théâtre.
01:28 Alors, ça, c'est la surprise pour moi du jour.
01:31 Qui a hacké Garutia ? Il faut prononcer Garutia, d'ailleurs.
01:36 C'est une pièce de théâtre dans laquelle un chatbot joue le rôle principal.
01:40 Alors, il est incarné par une véritable actrice sur scène qui s'appelle Léa Thuil.
01:47 C'est une pièce de théâtre qui est mise en scène par Lisa Bretzner.
01:50 Et elle sera jouée les 15, 16, 17 juillet, donc ce week-end au Festival Hof d'Avignon.
01:56 Comédie policière écrite par trois chercheurs scientifiques.
02:00 Je m'en étouffe, c'est original ça Laurence.
02:02 Comment vous vous y êtes pris ?
02:04 Alors, on a écrit avec Serge Habitboul et Gilles Doeck, juste avant la crise du Covid.
02:11 On a eu du temps, sous Zoom, pour écrire ensemble.
02:15 C'est parti de l'idée qu'en discutant avec Serge, qu'on écrivait beaucoup de livres sérieux.
02:21 Que ce n'est pas la meilleure manière peut-être d'atteindre tout le monde.
02:25 Et qu'il y a un vrai sujet derrière ces chatbots qui nous parlent.
02:29 Parce que c'est vraiment comme un chat GPT ce qu'on a fait.
02:32 Sauf que ce n'est pas du tout ça, c'est de la science-fiction, soyons clairs.
02:35 Mais il y avait un facteur comique, il y avait un facteur de médiation.
02:39 Le théâtre de l'absurde a toujours été intéressant.
02:42 Il faut en fait trouver dans cette matière riche le moyen de lier avec l'aspect comique.
02:49 C'est très culant.
02:52 Une intrigue policière qui va permettre à ce chatbot de se replonger dans son passé.
02:57 Alors c'est sur la mémoire, sur la mémoire des humains.
03:01 Et le chatbot il n'existe que juste parce qu'il enregistre des données d'humains.
03:05 Et donc nous avons envie aussi quelque part de laisser une trace.
03:10 Donc ça va jouer aussi sur ce désir d'être, pas immortel mais en tout cas,
03:16 immortalisé via la capture de nos données.
03:19 Et en même temps cette machine qui finalement commence à interpréter des choses et qu'on a libérée.
03:26 Normalement une machine n'a pas le droit de garder les souvenirs des humains.
03:29 Et celle-là elle a été hackée.
03:30 Donc qui a hacké Garutia ? C'est donc une intrigue policière.
03:33 On va voir qu'en plus ce fameux chatbot...
03:36 Parce que son passé est fait de différents propriétaires.
03:38 C'est exactement ça en fait. Ce fameux chatbot a eu plusieurs propriétaires qui sont décédés.
03:42 Donc il y a une enquête policière sur le pourquoi et le comment
03:45 en remontant le cours du laité, comme on dit le laité est dans l'oubli,
03:49 pour aller chercher des informations qui permettraient de comprendre l'énigme.
03:53 Alors c'est amusant parce que c'est donc une machine qui apprend de nous.
03:57 Et donc on va la voir se transformer. Cette jeune fille est extraordinaire.
04:01 Avec Gilles et Serge on s'est beaucoup amusé avec les mots, avec le langage.
04:06 Donc on a à la fois du San Antonio jusqu'au Precieuse Ridicule.
04:09 On a fait un feuilletage différents styles.
04:12 C'est accessible vraiment à tout le monde et c'est plutôt comique.
04:14 Tragique comique.
04:16 J'ai vu même la mette en scène parler de burlesque parfois.
04:20 C'est vraiment lâché.
04:22 Quand même j'avais une question parce que vous avez fait le choix,
04:25 qui aurait pu être tout à fait différent, d'incarner ce chatbot sur scène
04:29 par une personne en chair en os, par un humain, une humaine en l'occurrence.
04:34 Est-ce que ce n'est pas joué justement avec nos fantasmes sur cette idée
04:39 que peut-être ces IA pourraient demain être comme des humains ?
04:43 C'est une très bonne question.
04:45 Alors on la personnifie par un humain qui le joue, ce chatbot,
04:49 qui d'abord est un garçon puis une fille.
04:52 Vous allez voir qu'il change complètement, qu'il s'adapte.
04:56 Et on ne pouvait pas le faire facilement avec une machine.
04:59 Cette finesse de jeu n'était pas possible.
05:02 On ne confond jamais. Il est toujours dans une position où il est machine.
05:06 Il est d'ailleurs dans une boîte.
05:08 Pas d'anthropomorphisme alors ? Pas de biais d'anthropomorphisme ?
05:11 Je crois qu'on fait bien la distinction.
05:13 Pour l'instant on a eu un premier essai qui montrait qu'on distinguait bien
05:17 que c'était le chatbot et que ce n'était pas du tout la vision de l'humain
05:21 qu'on essayait de montrer.
05:22 Il est en fait enfermé dans une boîte et il est libre dans sa boîte.
05:26 Sa boîte c'est sa mémoire numérique.
05:28 C'est en fait son imaginaire à lui.
05:30 C'est de la métaphore en utilisant ces termes.
05:34 Il apprend de nous et il crée des souvenirs qui sont comme chat.jpg le fait.
05:41 La suite de langage avec un algorithme qui est capable de construire cela.
05:46 Alors nous sommes évidemment à la limite.
05:48 On ne pense pas que c'est de l'anticipation du tout.
05:52 On n'ira pas vers des machines proches de l'humain.
05:54 On est là dans cette comédie burlesque pour montrer des dialogues intéressants
06:01 avec cette machine qui se pose des questions.
06:03 Nous ça nous fait nous poser des questions.
06:04 C'est un miroir de nos questions.
06:06 Elle n'a pas d'émotion mais en même temps tout y quanti c'est sa façon de dire qu'elle en a.
06:11 Donc il y a des formes de langage qui nous ont beaucoup amusé.
06:15 Et je pense qu'on aborde vraiment en étant justement détaché d'une réalité
06:19 avec cette idée qu'on sera en interaction demain tous avec des machines comme celle-là.
06:25 On aborde vraiment une espèce de co-construction intéressante pour le public.
06:30 Alors c'est une pièce en quatre actes.
06:32 J'ai lu ça dans le dossier de présentation.
06:34 Est-ce que c'est le temps de la réflexion ?
06:37 Est-ce qu'il y a un processus comme ça qui nous emmène à pousser plus loin cette réflexion
06:41 au fur et à mesure que l'intrigue se déroule ?
06:45 C'est le temps des humains.
06:46 C'est un propriétaire, un deuxième propriétaire, un troisième propriétaire.
06:49 Finalement une intrigue et vous saurez si vous venez la voir.
06:53 Elle sera jouée aussi à Paris.
06:55 Elle sera jouée dans plusieurs lieux.
06:57 C'est ça.
06:58 Alors Kia qui est Garuzia.
06:59 Donc 15, 16, 17 juillet au Festival of Avignon au Grenier à Selle.
07:04 Et la pièce sera également jouée en hommage à Michel Serres à Agen le 11 novembre.
07:09 La Reine Blanche.
07:10 Et puis à Paris fin 2024 ?
07:12 Elle sera jouée à Paris.
07:14 Non, non, elle sera jouée à Paris le 6 octobre.
07:16 J'avais pas cette date.
07:17 À l'UNS à Clé.
07:18 Super.
07:19 Et elle sera jouée aussi en 2024 à la Reine Blanche.
07:22 Parfait.
07:23 Eh bien j'avais tout mélangé.
07:24 Merci Laurence de remettre tout dans l'ordre.
07:26 Merci Laurence de bien professeur.
07:27 On y a.
07:28 Vous restez avec nous parce qu'il y a d'autres sujets qui vont vous intéresser dans notre débrief.
07:33 C'est tout de suite.
07:40 Pour le débrief de l'actu aujourd'hui, Philippe Delmas, consultant en stratégie industrielle.
07:44 Guy Mamou-Mani, entrepreneur Business Angel, ex co-président d'Open.
07:47 Et Henri Dagrin, délégué général du CIGREF.
07:50 Laurence de Villers, nous a fait le plaisir de rester professeur en intelligence artificielle,
07:53 chercheur au CNRS, membre du CNPEN, donc Comité National Pilote d'Ethique du Numérique,
07:59 qui est à l'origine d'une note, d'un avis sur les enjeux éthiques liés aux IA Génératives.
08:03 Ça va faire une partie des sujets que nous allons aborder ensemble dans ce débrief de l'actu.
08:08 Mais je voulais qu'on démarre d'abord sur ces voitures autonomes.
08:12 Alors, est-ce qu'il faut freiner à un moment où on est plutôt en train d'accélérer ?
08:18 C'est-à-dire qu'on va autoriser en France des voitures de niveau 3 à circuler ?
08:22 On n'en aura pas beaucoup parce que pour l'instant, il n'y a aucun constructeur français qui propose de véhicules autonomes de niveau 3.
08:29 Très peu d'ailleurs en Europe.
08:31 Je crois qu'aujourd'hui, on a un seul constructeur qui s'y attelle.
08:36 Mercedes.
08:38 Quand même, cette question « faut-il freiner ou pas ? » se pose déjà aux États-Unis ou à San Francisco.
08:45 On a des premiers soubresauts, qui nous disent « attention, il ne faut peut-être pas aller trop vite dans la mise en circulation ».
08:55 En l'occurrence, à San Francisco, la question se pose sur des robotaxis qui auraient l'autorisation de rouler 24h/24, 7 jours sur 7.
09:02 Je voulais savoir ce que vous en pensiez.
09:04 Personnellement, je suis contre tout freinage, contre toute interdiction.
09:08 Dès qu'on me dit ça sur le numérique, le fameux Eris, je pense que c'est inéluctable de déployer le numérique, l'intelligence artificielle.
09:19 En revanche, il faut le mettre juste après.
09:22 Il faut être tout à fait attentif, prudent, régulier, de façon à ce que ça se fasse dans de bonnes conditions.
09:29 Je voudrais juste reprendre une phrase de Luc Julia, qui dit que « je ne crois pas ».
09:34 Il est bien placé.
09:35 Vous savez, Luc Julia, qui est un chercheur actuellement, patron de la R&D de Renault, qui a fait ses preuves en Syrie et autres,
09:42 qui rejoint un peu d'ailleurs Laurence de Villers sur cette peur de la prise de conscience de l'intelligence artificielle,
09:51 auquel on ne croit pas.
09:52 Eh bien, il dit « moi, je ne crois pas à la voiture niveau 5, autonome niveau 5.
09:57 Il suffit de mettre une voiture sur la place de l'étoile pour le comprendre.
10:01 Et je pense qu'il faut absolument faire attention à la façon dont c'est géré.
10:08 Je suis d'accord que dès aujourd'hui, il n'est pas question de mettre des voitures autonomes dans les rues de Paris ou de San Francisco.
10:15 En revanche, continuons à évoluer, continuons à chercher.
10:20 Henri ?
10:22 Je serais complètement sur la même position que Guy Mamoumani.
10:28 Donc on ne freine pas, mais on y va prudemment.
10:30 Vous savez, on y va quand même très prudemment, parce que le niveau 3, en France, ce sera 60 km/h sur des routes quand même spécifiques.
10:36 Il ne faut pas beaucoup de risque.
10:38 Le sujet du véhicule autonome, c'est celui de la transition.
10:42 Il va passer d'une situation où il n'existe pas à celui d'une situation où très probablement l'ensemble des moyens mobiles de type individuel auront très largement muté.
10:53 Pour beaucoup plus de partage, beaucoup moins d'édensifier la circulation.
10:59 Et puis, ce que l'on sait, c'est que les modélisations montrent de manière très claire que dans des conditions où il n'y a que des véhicules autonomes qui interagissent entre eux,
11:10 l'accidentologie est réduite dans des proportions très considérables.
11:15 Donc, ce que l'on voit bien, c'est qu'il y a un point à viser très probablement pour réduire le nombre de véhicules,
11:20 pour améliorer notamment cette accidentologie, puis changer les modèles qui vont accompagner les modifications profondes dans la société,
11:28 notamment pour des questions écologiques.
11:30 On est dans une transition.
11:32 La transition, évidemment, avec des véhicules autonomes de niveau 5, ça ne se passe pas bien, notamment sur la Place de l'Etoile à 19h.
11:40 C'est-à-dire que la friction, c'est aussi avec les humains, quand on a des automobilistes humains et des voitures autonomes.
11:46 C'est ce que je dis, c'est la transition.
11:48 Du véhicule non autonome et du véhicule complètement autonome.
11:50 Donc, il faut y aller au rythme où il est possible que la société accepte ce genre de transition.
11:56 Aujourd'hui, personne ne sait très bien quelles sont les échéances, parce qu'il y a des modèles économiques à trouver,
12:04 il y a une acceptabilité par la société.
12:06 Et puis, il y a du travail de technologie à mener qui n'est certainement pas abouti.
12:12 Justement, parce que ces industriels ont besoin d'expérimenter.
12:15 Parce que l'apprentissage de la machine, elle se fait aussi dans le réel.
12:20 Complètement. Vous regardez, c'est très marrant, le nombre d'accidents au million de kilomètres est strictement proportionnel au cumul.
12:27 Donc, vous regardez deux générations, les premières générations développées par Google, celles développées par Uber,
12:33 l'ordre de grandeur du nombre d'accidents au million de kilomètres est strictement proportionnel au nombre de kilomètres.
12:39 Maintenant, moi, je partage effectivement.
12:41 Et ceci montre que de toute façon, ça va prendre effectivement beaucoup de temps,
12:44 que les machines, de toute façon, ne sont pas habituées au comportement irrationnel.
12:48 Et les humains volants, notamment en Europe, peuvent être sacrément irrationnels, nous le savons.
12:52 Pas qu'en Europe.
12:54 Particulièrement en Europe, je trouve.
12:56 Mais il y a un autre élément de régulation.
12:58 Enfin, il y a deux autres éléments de régulation qui sont extrêmement profonds.
13:01 Le premier est psychologique.
13:02 On ne pardonnera jamais à une machine un accident qu'on excuserait auprès d'un humain.
13:06 Il y a un truc là-dessus, c'est savant.
13:08 Et ce qui a une conséquence économique très directe, c'est la question de l'assurance.
13:11 Et les assureurs sont vent debout contre l'accroissement d'autonomie.
13:15 Parce que plus ça va, plus c'est difficile d'attribuer la responsabilité.
13:18 Et vous comprenez pourquoi on a si peu de constructeurs européens qui s'intéressent à ce sujet ?
13:23 Simplement parce qu'ils n'y croient pas.
13:26 Et qui pensent, et je pense que ça correspond à ce qu'on dit,
13:28 que ça viendra de façon incrémentale en augmentant les fonctions d'autonomie sur les voitures.
13:33 Et vous regardez sur les voitures qui ont déjà un début de fonction d'autonomie,
13:36 un certain niveau d'autonomie, la conduite par exemple en ligne droite sur une autoroute,
13:41 les gens restent très prudents sur ce sujet.
13:45 L'utilisateur lui-même n'est pas confortable.
13:48 Psychologiquement, il ne fait pas complètement confiance à la machine.
13:51 Vous avez la même chose dans le transport aérien.
13:53 En réalité, un avion de ligne long range en face de croisière est pratiquement de l'eau.
14:02 N'empêche que vous avez toujours au moins une personne, et en général deux dans le cockpit.
14:06 Et que le débat aujourd'hui posé par certaines compagnies aériennes,
14:09 on pourrait n'avoir qu'un pilote, c'est techniquement tout à fait faisable,
14:12 sauf les avions de combat, donc un pilote.
14:14 En réalité, psychologiquement et en responsabilité, ils ne le feront pas, je pense.
14:19 Laurence de Villers, est-ce qu'il faut aussi avoir réglé ce débat de la responsabilité de la machine,
14:24 du logiciel, dans le cadre de la voiture ?
14:27 C'est quand même assez important ce sujet de la responsabilité.
14:31 La responsabilité est co-occurrente entre celui qui a construit le modèle et peut-être celui qui l'utilise,
14:38 mais en aucune manière la voiture elle-même.
14:41 Donc je crois qu'il faut répéter cela à l'envie, parce que...
14:45 Il y a des fausses idées sur le sujet.
14:47 ...de dire que les voitures vont devenir responsables, parce qu'il n'y a personne derrière.
14:51 Ce sont vraiment des algorithmes qu'on met dans les voitures.
14:53 Moi j'ai l'impression qu'on oublie un grand sujet quand même, même si je suis d'accord avec tout ce que vous avez dit,
14:57 c'est les infrastructures en fait.
14:59 Parce qu'il faut absolument construire ces machines dans des infrastructures particulières que nous n'avons pas.
15:06 Donc le schéma de Luc Julia, il est science-fiction aussi,
15:10 on ne va pas mettre une voiture autonome au milieu d'une place bondée de voitures sans aucun stratagème autour pour contrôler.
15:16 C'est tout à fait impossible.
15:18 Donc ça n'a pas lieu de... Enfin ça ne permet pas de comprendre je trouve.
15:21 C'est-à-dire qu'il faudrait se dire quelles sont les mesures à prendre,
15:26 les indices autour des routes, la façon dont on va finalement mettre des rails,
15:30 ou des endroits où elles passent, qui permettent ça.
15:34 D'autre part, il y a quelque chose d'intéressant qui est l'interaction voiture-voiture.
15:37 On parle toujours d'humain-d'humain, mais là, on pourrait imaginer qu'une voiture est d'une autre voiture.
15:43 On a du mal à imaginer maintenant.
15:46 Donc c'est un futur qu'il faut construire, en comprenant bien l'interaction entre la voiture et son écosystème,
15:53 la voiture et l'humain à l'intérieur, mais aussi les voitures entre elles.
15:58 Et puis je pense...
15:59 Mais donc tout ça, il faut l'expérimenter.
16:00 Je pense que surtout, il faut comprendre qu'on a besoin d'apprendre cela.
16:04 On ne met pas quelqu'un au volant d'un avion sans lui avoir dit que...
16:07 D'ailleurs il y avait des erreurs comme ça qui ont été faites dramatiques,
16:10 qu'il y a telle ou telle nouvelle fonction qui existe et qui va faire qu'on ne contrôle pas bien l'avion.
16:15 Qu'on ne comprend pas comment il se comporte.
16:18 Moi, la première fois que j'ai une voiture qui a quelques qualités d'autonomie...
16:22 Sachant qu'on parle souvent des Tesla, des Tesla ne sont que de niveau 2.
16:25 Il n'y a pas que les Tesla.
16:26 Non, mais je précise que c'est que du niveau 2.
16:28 Mais bon, les Volvos, enfin il y a d'autres voitures qui ont ce genre d'outillage.
16:33 Et le début n'est pas évident, parce que la voiture prend la main alors que vous êtes en train de conduire.
16:37 Donc ça, ça demande un apprentissage.
16:39 On ne va plus passer les mêmes permis de conduire.
16:41 Et donc ce besoin de faire passer au niveau à la fois l'apprentissage, l'écosystème,
16:47 demande une réflexion mature.
16:49 Et il ne faut pas dire qu'on est pour ou qu'on est contre.
16:51 Bien sûr qu'on est pour, mais il faut le faire en engageant un écosystème.
16:55 Avec une responsabilité humaine.
16:57 On enchaîne justement avec ces enjeux d'éthique autour des IA génératifs,
17:02 puisque le Comité national pilote pour l'éthique du numérique a publié un nouvel avis sur ce sujet,
17:07 en réponse à une saisine du ministre Jean-Noël Barraud en charge du numérique et des télécommunications.
17:11 Tout ça un petit peu de manière précipitée, avec l'irruption de Tchad GPT qui est arrivé entre les mains de tout le monde.
17:18 Donc il y avait urgence à se positionner, Laurence, sur les questions des IA ?
17:23 Il y a urgence d'un point de vue économique, parce qu'il ne faudrait pas louper ce train-là.
17:26 C'est important de comprendre que ces IA génératives, qu'on maîtrise d'une certaine manière,
17:32 et qui ont aussi des capacités qu'on ne maîtrise pas encore complètement,
17:35 sont des opportunités pour l'économie, sont des opportunités pour mieux comprendre ce qu'on peut faire sur l'écologie,
17:41 ce qu'on peut faire sur la santé, on va trouver de nouveaux médicaments.
17:44 C'est vraiment très positif.
17:46 Quand je parle de l'éthique, ce serait aussi pas éthique de ne pas comprendre ça, de ne pas l'utiliser à bon escient.
17:52 Maintenant, l'écrit qu'on a fait, c'est dire "attention, pour l'instant, les forces qui montent sur des modèles de fondation,
17:59 que sont les large-language models, sont anglo-saxons.
18:02 On a sur étagère des modèles qui sont à 80% avec des données en américain,
18:06 donc ça veut dire que le langage que nous parlons, qui porte le sens, la politique,
18:12 qui est notre connaissance et notre culture, va être peut-être mise à mal par cela.
18:20 Donc il faut vraiment comprendre que c'est important, et pour moi ce serait important à la fois d'avoir un "chat bloom",
18:26 puisqu'on a aussi fait des modèles en Europe, c'est-à-dire que tout un chacun, les enfants, pour leur devoir,
18:32 puissent utiliser des machines qui soient plus contrôlées et avec beaucoup plus de leur langue maternelle,
18:39 et puis qu'on sache en recherche, comprendre l'influence d'une langue dominante dans un système comme celui-là, sur le résultat.
18:47 Les problèmes culturels, les problèmes religieux qui vont être derrière tout ça, on ne les maîtrise pas,
18:52 ni les utilisateurs, parce qu'ils ne sont pas aux manettes, ni les entrepreneurs,
18:56 ni les grandes structures comme les géants numériques, Microsoft, Google, etc.
19:01 Alors je ne sais pas si vous pensez que l'HIGH ACT répond à ces questions, mais Henri Dagrin, lui, était vent debout contre ce texte.
19:07 Non, pas vent debout. Non, non, sur l'HIGH ACT, ce que l'on se dit, c'est qu'aujourd'hui, tel qu'il a été pensé,
19:15 notamment dans sa version qui est sortie du Parlement et qui est aujourd'hui en négociation dans le Trilogue,
19:21 avec le Conseil européen et la Commission, c'est un texte qui a des dispositions qui figent la législation
19:29 et qui va avoir des effets, à notre sens, assez négatifs dans la durée vis-à-vis de la dynamique technologique.
19:38 Et aujourd'hui, il faudrait des systèmes, des modalités de régulation de ce domaine qui soient beaucoup plus souples,
19:46 beaucoup plus agiles, beaucoup plus réactives et qui permettent à des autorités administratives indépendantes,
19:51 en plus on sait le faire sur d'autres domaines, à des autorités administratives, à des autorités dotées de la compétence,
19:57 d'adapter en permanence la règle de droit applicable à un domaine technologique qui est en évolution de manière quasi explosive.
20:06 Oui, je pense que tu as raison et les normes vont dans ce sens-là.
20:10 Dans vos recommandations, il y a des choses qui viennent assouplir cet AI Act ou le modifier par rapport au texte actuel ?
20:18 Alors on avait, d'abord on est 22, on était 3, il y avait Rajat Chattila, moi-même et Alexei Greenbaum,
20:27 mais c'était un avis collectif et donc dans ce collectif il y avait beaucoup de mesures.
20:34 Donc on n'est pas tous avec le même avis.
20:37 Certains freinent énormément, d'autres disent, comme vous venez de le dire, c'est important de tirer parti,
20:42 donc il ne faut pas que les normes nous empêchent, nous en Europe, de propulser des choses intéressantes.
20:48 Quand je disais un chat-boum, ça permet de récolter des données. On n'a pas de données.
20:52 On ne sait pas en faire. Donc on se dit dans l'industrie, on va créer des plus petits modèles pour des tâches précises,
20:56 qu'on maîtrisera mieux et ça, pour le B2B, il y a énormément de choses qui vont être faites
21:01 et il faut vraiment se dire que l'Europe est capable de le faire.
21:03 Maintenant, au niveau du grand public, avec des outils comme un chat GPT qui sont venus bousculer beaucoup
21:10 avec de la fascination et de la peur, comme vous l'avez très bien dit,
21:13 là je pense qu'on aurait aussi besoin d'avoir des outils de même tabac
21:17 qui permettent aux enfants de jouer avec des choses raisonnables en filtrant plus que ça ne l'est.
21:22 Parce que pour l'instant, il n'y a pas de garantie, il n'y a pas d'évaluation de la véracité des résultats,
21:26 ça sera difficile à faire, mais il y a surtout des données sales à l'intérieur.
21:29 Moi, je préférerais qu'on ait un outil plus pédagogique.
21:32 Donc c'est important de comprendre que, de toute façon, il n'y a pas les sources,
21:36 quand ce système vous crée des sources, elles sont souvent fausses,
21:38 donc il faut monter en capacité de comprendre les mécanismes à l'école et partout dans la société
21:43 et puis aussi que l'industrie s'empare de ça vraiment maintenant.
21:46 Ça ne serait pas éthique de ne pas le faire.
21:48 Allez, on enchaîne avec les autres sujets, parce que sinon je ne vais pas avoir le temps de faire réagir
21:52 sur les autres thématiques qu'on a choisis.
21:55 Le transfert des données vers les États-Unis, c'est la Commission européenne qui a acté cette adéquation
22:00 de la législation nord-américaine avec le niveau de protection exigé par l'Europe en matière de protection des données.
22:08 Bon, alors, voilà, un accord a été trouvé jusqu'à ce qu'il soit à nouveau invalidé,
22:14 ce qui semble à peu près probable, en tout cas, pas sûr, mais assez probable,
22:19 puisque Max Schrems a déjà dit qu'il avait déjà sorti, l'avocat autrichien,
22:23 sorti tous les arguments nécessaires pour le faire invalider, comme il l'a fait précédemment avec le privacy shield.
22:29 Et le cipherboard en 2015.
22:32 Alors on revient sur le sujet récurrent depuis des années.
22:37 On en avait parlé lors de la publication d'un rapport d'Avila Numeris.
22:42 Sur le RGPD.
22:44 Sur le RGPD.
22:45 Il y a une véritable contradiction, c'est comme ça que je le vois,
22:49 entre d'une part la loi, le RGPD, la nécessité de protéger, de développer notre souveraineté,
22:58 et puis le quotidien, le business, les échanges.
23:02 Et on va être confrontés à ce problème en permanence.
23:07 On a eu déjà de longues discussions.
23:10 Et là on parle du business des entreprises américaines, là.
23:13 Oui.
23:14 Pas d'une autre, avec cet accord.
23:15 Non, pas uniquement, c'est pas vrai.
23:17 Ça revient au même, parce que c'est dans les deux sens.
23:19 Je l'ai souvent dit.
23:20 Comment voulez-vous dire à une banque, par exemple, qui est implantée aux Etats-Unis,
23:25 de protéger ses données, de ne pas les échanger, de ne pas les pratiquer.
23:29 Donc il y a ce problème-là qui va revenir en permanence.
23:33 Alors là, on fait un peu preuve d'un peu de pragmatisme, j'allais dire,
23:38 mais c'est illégal.
23:39 On le sait tant et déjà.
23:41 Et Schrems va se plonger là-dessus.
23:43 Et ça sera arrêté.
23:46 Pour moi, le point de départ, de toute façon,
23:49 qu'on a tant oublié, que la Commission européenne fait semblant d'oublier,
23:52 c'est que les bases de données des grands acteurs américains
23:56 sont open bar pour les services américains.
23:58 On ne va pas l'oublier.
23:59 Ce qu'a dit Snowden n'a pas changé dix ans plus tard.
24:01 Donc de toute façon, open bar, c'est open bar.
24:03 Bon, ok.
24:04 Donc on peut, alors ensuite, moi je suis mort de rire,
24:07 si vous lisez le détail de la création de la cour américaine
24:10 sous l'autorité du département de justice américain,
24:13 qui est censé instruire des plaintes des utilisateurs européens,
24:16 c'est à peu près deux heures, et ça me rappelle la cour qui avait été créée en 2006
24:20 pour surveiller le fait que la NSA ne surveillait pas les citoyens américains
24:25 sous faveur de justice.
24:26 Et donc le président finit par démissionner en disant,
24:28 en fait, cette cour n'a jamais servi à rien.
24:31 Ce qui est assez quand même étonnant,
24:33 c'est que la seule vraie mesure de sécurité,
24:36 c'est par les instruments juridiques,
24:38 c'est de faire un cryptage extrêmement sérieux des données sur le cloud.
24:41 Moi je suis sidéré de voir combien,
24:43 dans l'industrie, y compris dans l'industrie sensible,
24:46 le cryptage des données sur le cloud est pas à un très grand niveau.
24:49 Franchement, je suis...
24:51 - On a reçu, j'ai reçu hier d'ailleurs Astran,
24:54 qui travaille à apporter une réponse technologique à ce problème juridique.
24:58 Il y a aussi cette voie-là à explorer.
25:01 - Les américains font leur boulot, ils ont des instruments de souveraineté,
25:03 les justices ne peuvent pas les reprocher.
25:04 - Henri n'est pas d'accord.
25:05 - Non, je ne suis pas d'accord.
25:06 C'est vrai pour les données qui sont stockées,
25:08 c'est vrai pour les données qui sont en transit,
25:10 c'est faux pour les données qui sont traitées.
25:12 Elles doivent être en clair.
25:13 Et donc dans une CPU...
25:14 - Ah bah vous avez un, bien sûr.
25:15 - Donc le chiffrement,
25:17 le chiffrement dès qu'on est dans des produits en mots de sas,
25:20 ne sert à rien.
25:22 Vous avez accès à des données en clair
25:24 dès lors qu'elles sont dans une RAM et dans une CPU.
25:27 C'est comme ça.
25:28 Et l'activité des agences de renseignement américaines,
25:33 elle n'est pas illégale, elle est parfaitement légale,
25:36 très encadrée, et ce qui vous...
25:38 - Elle est en contradiction avec notre loi.
25:40 - Elle est parfaitement légale aux Etats-Unis.
25:42 - Ah bah aux Etats-Unis, oui.
25:44 - Mais bien sûr.
25:46 - Il y a beaucoup de tacites dans cette légalité américaine.
25:49 - Ah non, non, non, non, vous vous trompez.
25:51 C'est une activité qui est très encadrée par les administrations.
25:54 - Non mais là le problème c'est l'adéquation avec nos lois.
25:56 - Ah bah bien sûr.
25:57 - Voilà, on est d'accord.
25:58 - Mais voilà, on a une contradiction,
25:59 on a un conflit juridictionnel entre l'Europe et les Etats-Unis.
26:02 - Alors, le député, je voulais juste montrer le député Philippe Latombe
26:06 pour voir si vous en êtes à ce niveau-là.
26:08 Lui a carrément exprimé sa colère dans un post sur les réseaux sociaux.
26:11 Il dit que ça lui fait perdre ses dernières illusions
26:14 sur la capacité de la Commission à s'affirmer face aux Etats-Unis.
26:17 - Non mais il est...
26:18 - Il n'y a pas de choix, ça.
26:19 - Non mais Philippe Latombe est hors sol.
26:21 - Non, il est militant.
26:23 - Non mais non, mais il faut quand même...
26:25 - Militant, il faut enlever la réalité en face.
26:27 - Il faut quand même avoir une réalité dans les activités économiques.
26:32 - Vous n'êtes pas d'accord avec l'idée que c'est un accord gaz, armement, contre données ?
26:38 - Absolument pas.
26:39 Absolument pas.
26:40 Toutes les entreprises, tous les secteurs d'activité disent
26:42 qu'il faut quand même qu'on sorte de cette contradiction
26:44 et il faut qu'on trouve des instruments qui fassent sortir les entreprises
26:48 de cette insécurité juridique grave dans laquelle on les laisse.
26:50 - Exactement.
26:51 - Parce que ce n'est pas vrai qu'on ne va pas couper les activités
26:54 entre l'Europe et les Etats-Unis.
26:56 Ça n'arrivera pas et ce n'est pas souhaitable et personne ne le veut.
26:59 - Mais si l'indépendance, les Etats-Unis, ce n'est pas un ennemi,
27:02 c'est bien entendu un concurrent économique, mais c'est un allié,
27:04 ce n'est certainement pas un ennemi, on ne le dira pas d'autres zones géopolitiques.
27:08 - Ça n'empêche pas notre industrie européenne à prendre sa place ?
27:11 - Il y a comme des zones de souveraineté sur lesquelles ce n'est pas des copains non plus.
27:13 - Mais bien sûr.
27:14 Ça n'a jamais été des copains.
27:16 Les Etats n'ont pas d'amis, ils n'ont que des intérêts
27:18 et on est bien dans ce cadre-là.
27:20 - Donc le sujet, le sujet pour adresser ce problème,
27:23 d'abord je suis assez d'accord avec vous sur les questions de crypto, etc.
27:27 - On est très en train.
27:29 - Oui mais enfin, je vais revenir par exemple sur le multi-data hub
27:33 où justement tout ça a été fait de façon extrêmement rigoureuse
27:38 et extrêmement protégée et la directrice vous répétera
27:42 que ça respecte par conséquent le RGPD,
27:45 il n'empêche que la tombe et bien d'autres le critiquent.
27:48 Ça ne suffit pas.
27:50 Mais bon, moi je vous rejoins quand même, on a quand même ces outils.
27:54 Mais il y a cette question de souveraineté
27:58 et que vraiment je soutiens, qu'on souhaite qu'on développe,
28:02 il faut séparer le problème politique du problème économique.
28:06 Le problème politique, certes, c'est au gouvernement et à d'autres
28:09 de favoriser l'émergence d'outils français, européens
28:13 qui nous développent la souveraineté.
28:15 Et puis une fois que j'ai dit ça, moi je suis obligé de bosser.
28:18 - Bien sûr.
28:19 - Voilà, c'est ça le problème.
28:20 - Oui, mais la question économique, c'est aussi laisser sa chance
28:24 à une industrie numérique européenne d'émerger.
28:27 - Mais le paradoxe, c'est que s'il y a bien un domaine
28:31 dans lequel on est bon en Europe et notamment en France,
28:33 c'est la crypto.
28:34 Et moi je suis très zené et je ne suis pas d'accord avec vous.
28:37 Techniquement, vous pouvez faire aujourd'hui du traitement du nez
28:39 qui est chiffré en permanence.
28:40 - Ah non ?
28:41 - Ah si.
28:42 - Si vous voulez parler du chiffrement homomorphe,
28:47 c'est encore un outil de laboratoire.
28:49 Ça n'a pas aujourd'hui de conséquences opérationnelles.
28:52 - Non, non, vous avez des start-up françaises
28:54 qui ont déjà plus servi les équipes.
28:55 - Non, mais vous ne ferez jamais du Teams,
28:58 vous ne ferez jamais du Microsoft 365 en chiffrement homomorphe.
29:02 - Ce n'est pas la question.
29:04 - Donc vous donnez dans Microsoft 365.
29:06 - Non, non, non, non.
29:07 - Je parle des choses que je connais.
29:08 Vous pouvez faire par exemple de la protection.
29:10 Alors vous pouvez faire du chiffrement homomorphe complet
29:12 sur des données techniques, par exemple,
29:14 et faire ça, vous pouvez faire fonctionner.
29:16 - Vous savez quoi ? On fera un débat sur le sujet.
29:18 - Ah oui, ça c'est vraiment possible.
29:22 C'est entièrement nouveau, ça consomme beaucoup,
29:24 ça a plein de contraintes, c'est vrai,
29:26 mais il y a des domaines dans lesquels une vraie sécurité est indispensable.
29:28 - En tout cas, d'avoir une approche technologique à ce sujet…
29:31 - Il y a un début de réponse.
29:33 - Effectivement, c'est un début de réponse.
29:35 - J'entends à travers vos propos et que je connais dans la crypto,
29:39 c'est que ça coûte très cher en énergie.
29:40 - Ça coûte très cher.
29:41 - Bon, alors, il y a une équation à faire.
29:43 - Ça, tu es pété aussi.
29:44 - Je n'ai pas dit qu'il fallait l'utiliser à tout moment.
29:46 - La question du transfert de données, d'ailleurs,
29:48 ça intéresse directement ces modèles d'apprentissage.
29:50 - Oui, bien sûr.
29:51 Non, mais c'est évident, mais à chaque fois, je pense qu'il faut qu'on mette sur la table
29:55 l'équation de la mesure écologique, c'est-à-dire combien ça coûte de faire ça,
29:59 de la cybersécurité, qu'est-ce qu'on arrive à sécuriser,
30:03 de la liberté d'utiliser ou pas.
30:05 Et puis, il y a un vrai sujet qui est, effectivement,
30:07 on ne laisse pas la place aux Européens pour développer un marché vraiment économique
30:12 propre à eux, puisque les États-Unis sont toujours là en train de pousser dans leur sens.
30:17 Donc, comment on fait ça ?
30:18 Comment la commande publique peut devenir un peu plus maligne
30:21 pour demander aussi à ce qu'il y ait la moitié des choses qu'on développe
30:24 au niveau de l'État, qu'ils soient des mains des ingénieurs locaux.
30:29 On dit qu'il faut travailler localement.
30:31 Ben, allons-y !
30:32 Je ne sais pas pourquoi il n'y a pas plus de défamination dans le gouvernement.
30:35 - C'est peut-être cette question de la décision politique, quand même.
30:38 - Parce que les gouvernements sont longs.
30:39 - Il y a des effets, je suis sûr, pour rattraper la panne.
30:42 - Non, ils ne sont pas longs, là.
30:43 - Ce n'est pas une question.
30:44 En termes de commande publique, ils sont longs.
30:46 - Je suis désolée, ils sont en manette, donc c'est à eux de faire des choses rapides.
30:49 - Alors, on va enchaîner avec lent, pas lent, vous me direz.
30:52 L'adoption par le Sénat en première lecture du projet de loi visant à sécuriser, réguler l'espace numérique,
30:57 ça a été plutôt rapide sur ce sujet.
30:59 - Oui, mais la commande publique est lente.
31:01 - Oui, vous voulez changer de sujet, simplement.
31:04 - Il y a un problème du marché public dans l'Europe.
31:06 - Accélérons la façon de pouvoir...
31:09 - On est d'accord.
31:10 - Sur ces sujets de commande publique, ce qui sont majeurs, parce que c'est très bien de faire, par exemple,
31:15 la loi sécuriser et réguler l'espace numérique.
31:17 - On n'aura pas le temps de parler de la suite, je vous préviens.
31:18 - Mais la souveraineté, une politique de souveraineté, c'est une politique qui articule de manière harmonieuse
31:22 du réglementaire, les instruments d'une politique, le réglementaire, la commande publique et l'investissement public.
31:31 Et là, on manque encore de cohérence globale sur ces sujets et de les faire avancer.
31:37 - On n'a toujours pas cette cohérence.
31:39 - Et oui.
31:40 - Alors, on enchaîne avec le sujet.
31:41 - C'est le principal problème.
31:42 - On n'a pas pu vite en matière d'éthique en matière de business, c'est quand même fou.
31:44 - Non, on n'a pas pu vite en matière d'éthique, je vous rassure.
31:46 - Bon, alors, est-ce que vous voulez parler ou non de ce projet de loi adopté en première lecture par le Sénat
31:52 pour sécuriser notre espace numérique ?
31:54 Ça se passe en France, on revient chez nous.
31:57 Et je disais, on a plutôt été rapide sur ce sujet, finalement.
32:01 - Rapide. En tous les cas, c'est un texte qui a trois grandes parties, dirons-nous,
32:07 des instruments juridiques qui vont permettre de sécuriser la vie numérique de nos concitoyens.
32:14 C'est une excellente chose.
32:16 Il y a une deuxième partie de précision sur ce que font les grands acteurs de la régulation en France,
32:24 notamment l'ACNI, l'ARCEP et l'ARCOM, la répartition des compétences.
32:29 Et puis il y a une troisième partie, qui est une adaptation de la législation française à deux grands textes importants,
32:34 qui sont le DSA et le DMA, le Digital Service Act et le Digital Market Act.
32:40 - Et sur le DMA, parce qu'on n'a plus beaucoup de temps, il y a une mesure qui a dû vous intéresser,
32:44 c'est ce qu'a ajouté le Sénat en matière de Credit Cloud.
32:48 - Alors, sur les Credit Cloud...
32:50 - Pour rééquilibrer la concurrence...
32:51 - C'est logique. Pour les Credit Cloud, c'est important.
32:54 Il y a des mesures qui sont notamment des mesures qui anticipent l'adoption du Data Act
33:01 et qui vont interdire certaines dispositions pour renforcer la capacité de l'industrie du cloud
33:08 et du numérique européenne, française et européenne, à se développer.
33:13 - Bon, on n'a pas le temps de parler de la suite. Je voulais juste qu'on termine avec une image.
33:16 C'est cette sphère de Las Vegas absolument impressionnante.
33:20 C'est donc un monument qui a surpris tout le monde sur les routes,
33:24 qui a généré des embouteillages paramineux.
33:27 1,2 million de LED qui recouvrent ce bâtiment.
33:30 - C'est quel coût ?
33:31 - 2 milliards.
33:32 - Alors le coût, je l'ai, 2 milliards de dollars, Madame.
33:34 Et nous aurons une version en Europe, puisqu'à priori, on en a la même chose à Londres.
33:37 - C'est très écolo, c'est vrai.
33:39 - C'est dommage.
33:40 - C'est vraiment l'avenir, ça.
33:41 - Ça, c'est de l'argent bien dépensé.
33:42 - Voilà, c'est dommage parce que si ce qui se passe à Las Vegas pouvait rester à Las Vegas,
33:45 ça serait quand même bien.
33:46 - On aime bien toujours importer un peu ce qu'ils font.
33:49 Merci beaucoup, Laurence de Villers, professeure en IA, chercheure au CNRS,
33:52 Philippe Delmas, consultant en stratégie industrielle,
33:55 Guy Mamoumani, entrepreneur Business Angel, ex-Open et Henri Dagrin, délégué général du CIGREF.
34:01 À suivre, petite pause et on va parler de Tchad GPT pour changer.
34:04 Vous êtes de retour sur le plateau de Smartech, la deuxième partie qui commence.
34:15 On a démarré avec une pièce de théâtre, cette édition.
34:18 Je vous propose de la terminer avec une lecture, avec notre interview.
34:22 Daniel Hichby est connecté avec nous à distance.
34:24 Notre interview avec ce journaliste, spécialiste des nouvelles technologies et auteur de cet ouvrage,
34:29 Tchad GPT, qui es-tu ? paru chez Enie.
34:33 Alors, Daniel, déjà, première question.
34:36 Est-ce qu'on a la réponse ?
34:37 Tchad GPT, qui es-tu ?
34:39 - Oui, en partie, bien sûr, effectivement, totalement.
34:42 C'est une intelligence artificielle, donc un programme qui tente d'émuler la pensée humaine.
34:47 - D'accord. Et lui-même répond comment à cette question ?
34:50 - Il répond bien à énormément de questions.
34:54 Mais ce que je sais de montrer dans le livre, c'est que la plupart des gens ne l'exploitent qu'à 10 %,
34:58 et qu'en fait, on peut utiliser Tchad GPT pour se challenger.
35:02 Tchad GPT, la meilleure utilisation, c'est en fait quand on l'amène à ce que lui nous pose des questions.
35:08 - Ah, intéressant. Mais en fait, qu'est-ce qui peut, selon vous, nous apporter cet outil dans le domaine professionnel, mais aussi personnel ?
35:19 - Énormément de choses, parce qu'en fait, là où Tchad GPT est très fort, c'est pour résoudre des problèmes,
35:25 des situations extrêmement complexes.
35:28 Il faut vraiment considérer comme si on avait une dizaine de milliers d'experts à sa disposition.
35:33 Si en général, on connaît un expert en mécanique et automobile, on connaît peut-être un expert en marketing,
35:38 là, on a tous ces experts à notre disposition.
35:41 Mais quand on appelle un expert, on ne va pas lui dire « tiens, j'ai un problème avec mon automobile ».
35:46 On va lui dire « tiens, quand j'appuie, la seconde a du mal à passer ».
35:49 On va lui préciser le plus possible.
35:51 Plus on va être précis avec Tchad GPT, plus il va pouvoir nous donner des réponses adéquates et judicieuses.
35:58 - Et alors, j'ai vu dans le livre, il est évoqué que Tchad GPT sait faire des choses même insoupçonnées.
36:06 Quand est-ce qu'il vous a surpris ?
36:09 - Je donne l'exemple de quelqu'un, par exemple, qui est à New York.
36:13 Il lui reste 40 dollars. Il doit passer la journée, il doit déjeuner, il doit passer une après-midi agréable.
36:19 Il doit prendre le bus pour aller jusqu'à l'aéroport, enfin un moyen de transport pour aller à l'aéroport avec l'argent qu'il a.
36:25 Tchad GPT a trouvé une solution à 36 dollars. Ça paraît dingue.
36:29 - Est-ce que c'est déconcertant ?
36:33 Parce qu'il y a aussi cette question de comment on envisage notre relation avec ces nouveaux outils d'intelligence artificielle générative.
36:42 Il ne faut pas se tromper, ça reste du logiciel qui a appris déjà plein de choses et qui ne fait que nous les reformuler.
36:51 Comment est-ce que vous traitez ce sujet de notre relation à Tchad GPT ?
36:56 - Réellement, on est dans un changement de civilisation et je ne vais pas dire que tout est rose.
37:01 Il y a des points complètement inquiétants dans l'arrivée de l'intelligence artificielle dans nos vies, pas seulement avec Tchad GPT.
37:08 On n'a que cinq minutes, mais par exemple, pas allongter aux États-Unis, par exemple,
37:12 essayent de faire comme dans Minority Report de la prédiction du crime avant que les crimes se produisent.
37:17 Donc on est en train de changer d'air, tout comme Internet nous a fait changer d'air, il va falloir s'y préparer.
37:22 Il va falloir que l'arsenal législatif suive parce qu'en général, ce sont les lois qui pédalent derrière et qui n'arrivent pas à suivre.
37:29 Mais il faut protéger les individus, ça c'est sûr.
37:31 - La photo de couverture, je dois dire, n'est pas super rassurante, un peu inquiétante.
37:35 Mais moi, ce qui m'a beaucoup intéressée dans votre ouvrage, c'est son côté pratique qui nous apprend un peu finalement à rédiger des promptes,
37:42 à savoir comment on doit s'adresser à l'IA, à l'IA générative.
37:47 Qu'est-ce que vous pouvez nous donner comme exemple, comme bon conseil justement pour bien formuler ces promptes ?
37:53 - Il faut considérer qu'on a un pote qui est un expert, mais plus on va lui spécifier le problème de façon précise,
38:02 plus il va pouvoir nous aider de façon précise.
38:04 Mais ce qui est intéressant, c'est d'inverser la relation.
38:07 Je donne l'exemple, demain, imaginons que j'ai un rendez-vous d'embauche.
38:13 Je peux demander à Chad GPT de jouer le rôle de recruteur, de me poser des questions progressivement les plus tendues possible,
38:20 de me dire si je passe le test ou pas.
38:22 On peut prendre quelqu'un qui prend le tram de temps en temps, il peut passer une demi-heure comme ça,
38:27 à se faire tester par Chad GPT, ce sont des usages très intéressants.
38:30 - Et pas décevant, est-ce qu'il y a des questions auxquelles il ne sait pas répondre ?
38:34 - Bien sûr, Chad GPT, son réservoir c'est le passé, donc il n'est pas bon pour prévoir le futur.
38:43 Si vous lui demandez qui va être élu en 2027, la plupart d'entre nous pourraient faire des pronostics, Chad GPT n'y arrive pas.
38:52 - Vous parlez de cette ère de l'intelligence artificielle en libre-service dans laquelle nous entrons.
38:58 Comment peut-on apprendre à reconnaître un contenu qui va être généré par une IA générative ?
39:04 Vous nous donnez quelques trucs ?
39:06 - Oui, il y a pas mal d'applications, dont une de OpenAI, qui est la société qui a créé Chad GPT.
39:13 Il y a plusieurs logiciels qui permettent de repérer des contenus qui ont été créés par Chad GPT.
39:21 C'est quand même très malsain de savoir que des gens ont utilisé Chad PTP pour faire leur devoir,
39:29 ou même vous remettre une copie qui vous ferait même payer si vous demandez à des rédacteurs d'éclair de savoir qu'ils l'ont fait avec Chad GPT.
39:37 Donc l'humain et l'intelligence artificielle doivent prendre soin de chacun et garder leur prêt carré.
39:42 - Daniel Ishbia, auteur de Chad GPT, qui est eu paru en juin, tout récemment aux éditions Enie.
39:49 À suivre, c'est notre séquence OUVA le web.
39:51 Aujourd'hui, on va parler d'un nouvel assistant chirurgical en réalité mixte.
40:01 - La chirurgie 4.0, c'est maintenant.
40:05 Je vous présente aujourd'hui le premier outil de prise de décision chirurgicale issu du MétaVer.
40:11 Cette suite logicielle, c'est l'aboutissement du travail de la start-up française Abyss Médical.
40:16 Pourquoi je vous en parle ? Parce qu'elle vient de recevoir la certification américaine de la FDA pour déployer sa solution aux États-Unis.
40:24 Son nom surgiverse, il est accessible grâce à un navigateur web.
40:29 C'est donc un outil d'assistance chirurgicale et il assiste le chirurgien depuis sa préparation jusqu'à la procédure en bloc opératoire.
40:38 La solution lui permet d'abord de planifier l'opération.
40:42 Le chirurgien crée son dossier de chirurgie électronique dans lequel est modélisé en 3D un jumeau numérique de l'organe à opérer.
40:50 A partir de l'imagerie médicale, il va pouvoir alors cartographier son intervention.
40:56 Ensuite, Abyss permet évidemment de visualiser cette planification au bloc opératoire sous forme d'hologramme.
41:03 Ça c'est grâce à la technologie de réalité mix du casque Microsoft HoloLens 2. Elle donne accès au dossier préparé en temps réel à tout moment de l'opération.
41:14 La promesse, le chirurgien gagne en fluidité et gagne du temps surtout alors qu'aux États-Unis en 2023, on dénombre un manque d'environ 20 000 à 30 000 chirurgiens, toutes spécialités confondues.
41:28 Et voilà c'était Smartech et c'était aussi la dernière édition avant le grand départ en vacances.
41:33 Mais rassurez-vous, Smartech va continuer sur Bsmart pendant tout l'été. Un rendez-vous pour revenir sur ces découvertes, ces débats, ces réflexions qu'on a eues ensemble autour des nouvelles technologies et du numérique.
41:43 Je vous souhaite un excellent été à tous. On se retrouve fin août.
41:47 [Musique entraînante diminuant jusqu'au silence]