L’intelligence artificielle (IA) est aujourd’hui au cœur d’une révolution cognitive, une force irrésistible qui redéfinit ce que signifie être intelligent. Longtemps reléguée aux rêves futuristes et aux récits dystopiques, l’IA a franchi un seuil autrefois inimaginable, remettant en question notre compréhension de l’intelligence, de la créativité et des émotions. Des domaines autrefois exclusifs à l’esprit humain, tels que l’art et l’humour, sont désormais explorés par des machines qui non seulement imitent nos capacités cognitives, mais les surpassent également. Cette émergence remet en question notre suprématie ontologique et nous pousse à explorer le dernier bastion de la singularité humaine : la conscience. C'est tout l'intérêt de l'ouvrage de l'avocat Thibault Verbiest : "Voyage au cœur de l'IA - Du destin humain à l'âme des machines : l'éthique et la quête de la conscience artificielle".
Catégorie
🗞
NewsTranscription
00:00Bonjour à tous et bienvenue dans notre Zoom aujourd'hui en compagnie de Thibault Verbiste. Bonjour Monsieur.
00:12Bonjour.
00:13Thibault Verbiste, vous êtes avocat en droit international spécialisé dans les interactions entre le droit, la finance et les technologies.
00:21Vous êtes aussi professeur associé à la Schema Business School.
00:25Vous publiez l'ouvrage dont on va parler dans un instant,
00:28Voyage au cœur de l'IA, du destin humain à l'âme des machines, l'éthique et la quête de la conscience artificielle.
00:37Alors commençons avec votre préfacier, le physicien Nassim Aramayn qui pose la question de l'intelligence ou plus précisément celle de la conscience.
00:49Cette conscience est-elle réductible à la physique du cerveau ou y a-t-il encore quelque chose que l'on n'a pas compris ?
00:57Oui, mais on est toujours en France dans un paradigme qui est celui du matérialisme et où on pense que tout ce qu'on observe dans la nature
01:06est le résultat en fait de la complexité de la matière et qu'il n'y a rien d'autre.
01:10On est dans ce paradigme, on le sait tous depuis le siècle des lumières
01:14et alors qu'on voit bien depuis quelques dizaines d'années que la science commence à avoir une perception de la réalité qui est plus globale
01:23et qui incorpore également, on va dire, un projet immatériel.
01:27Alors certains diront, ah il est en train de parler de Dieu, etc.
01:31Je reste ici vraiment dans un débat qui est purement scientifique.
01:35Les physiciens comme Nassim montrent que la conscience est, si vous voulez, le substrat préalable de la réalité
01:43et qu'il existe, là je vais essayer de vulgariser ces nouveaux modèles de physique qu'on appelle unifiés, qui essaient de tout unifier.
01:52On pourrait dire qu'il y a deux forces fondamentales dans l'univers.
01:57C'est la force électromagnétique qui expanse et la gravité qui contracte.
02:03Et cela fait un effet rétroactif et c'est ça la conscience.
02:07C'est en fait l'univers qui s'auto-informe à chaque instant.
02:11Notre cerveau serait une antenne.
02:14Alors vous allez directement droit dans le vif du sujet.
02:18C'est la thèse en fait que je défends en tant que juriste.
02:23C'est de me poser la question, voyons ces avancées fulgurantes en matière d'IA
02:28qui créent une crise existentielle ou une angoisse existentielle
02:32puisque là partout on est en train de nous dire que les IA sont en train de nous égaler et vont nous surpasser.
02:38Et donc on se dit ok, moi je suis quoi là-dedans ?
02:41Je vais servir à quoi dans cette nouvelle société où les IA potentiellement vont faire tout ce que les humains peuvent faire ?
02:47Et je pose ici le débat que ce qui nous différencie fondamentalement des IA c'est la conscience.
02:53Encore faut-il définir la conscience.
02:55On vient de commencer à la définir et vous parlez d'antenne et là vous posez la bonne analogie.
03:02C'est que dans le contexte actuel où on a la Silicon Valley qui propose les IA comme Tchatché-Pété,
03:08les Chinois bien sûr qui sont en concurrence frontale, on le voit avec l'actualité récente, avec les Américains.
03:15Avec DeepSeek.
03:17Avec DeepSeek absolument.
03:19Et on voit bien que c'est une conception matérialiste de la conscience qui prévaut dans ces cercles.
03:27C'est quoi le projet matérialiste de la conscience ?
03:31C'est dire que la conscience émane presque par magie ou mécaniquement, pas par magie, mécaniquement de la complexité.
03:38Et donc tous ces chercheurs sont convaincus que leurs machines, leurs IA atteignent un tel niveau de complexité
03:46qu'elles sont capables d'émuler la conscience et ils en déduisent qu'elles deviennent donc conscientes.
03:51Mais ces IA ne sont pas des antennes, vous avez posé l'analogie, elles sont des disques durs.
03:57C'est des disques durs énormes mais ça reste des programmes informatiques.
04:00Et qui nous surpassent par leur capacité de calcul et d'imitation de ce que nous pouvons faire.
04:06Oui, ça n'est que de l'imitation.
04:08Absolument.
04:09La conscience est de savoir si elle sera capable, l'intelligence artificielle qu'on va définir après,
04:14de pondre un verre comme Baudelaire savait le faire.
04:17Alors ça, vous pourriez, je pourrais vous opposer qu'aujourd'hui Chad Gpt est déjà capable de pondre,
04:25si vous demandez à Chad Gpt, écris-moi un verre dans le style de Shakespeare, il vous le fera.
04:31Par imitation.
04:33Il ira puiser dans cet immense océan de données dans lequel il y a eu tous les ouvrages de Shakespeare
04:39qui ont été repris, scannés, traités, etc.
04:43Et il va vous pondre quelque chose qui peut être vachement bluffant.
04:45À la sauce d'œufs.
04:47À la sauce d'œufs.
04:48Maintenant ce que l'IA dans le paradigme actuel ne fait pas, c'est qu'elle ne peut pas se connecter à son intuition.
04:54Nous sommes capables de nous connecter à notre intuition.
04:57Et ça, c'est le début du débat sur la conscience.
05:00C'est quoi l'intuition ?
05:03L'intuition, ce n'est pas quelque chose qui est dans un disque dur.
05:06C'est quelque chose qui nous connecte à quelque chose de plus grand.
05:09Et c'est là, bien sûr, que le débat devient intéressant,
05:13parce que les gens de la Silicon Valley vont dire
05:15« Oh là, le mec, il est en train d'essayer de nous introduire à un débat sur Dieu. »
05:22Oui, et l'âme.
05:23Oui, bien sûr, et sur l'âme.
05:25Ici, si on revient dans un débat qui est purement scientifique,
05:29on va plutôt parler de champ quantique.
05:31Alors, on va y venir avec vous, Thibaut Verbis,
05:34mais j'aimerais qu'on revienne un petit peu à l'origine.
05:38Est-ce que vous pouvez nous donner une définition de l'IA, tout basiquement ?
05:41L'IA, c'est un programme informatique qui émule les capacités cognitives humaines.
05:47Voilà, ça c'est une définition qui est suffisamment large
05:50pour qu'en principe, tout le monde puisse entendre là-dessus.
05:53Tout est dit là-dedans.
05:55Et aujourd'hui, on voit bien que c'est ça qui est en train d'arriver.
05:58C'est ce qu'on appelle l'IA général.
06:00Aujourd'hui, on est avec des IA qui sont encore considérées comme étant spécialisées,
06:05c'est-à-dire qu'elles sont capables d'émuler une partie de ce que nous sommes capables de faire.
06:09Et quand elles sont spécialisées, elles sont meilleures que nous.
06:12Ce que nous n'avons pas encore vu dans notre environnement,
06:17c'est des IA générales, c'est-à-dire des IA qui vont faire votre métier.
06:21Parce que faire ce que vous faites là, ça demande une intelligence générale.
06:25Ça demande plein de types d'intelligence, si vous voulez, plein de capacités.
06:29Et là, aujourd'hui, une IA n'est pas encore capable de le faire.
06:32Elle n'est pas capable de me servir un thé, comme vous l'avez fait gentiment tout à l'heure.
06:35Elle n'est pas capable de passer d'un sujet à l'autre.
06:38Elle n'est pas capable de faire plusieurs choses qui requièrent des capacités différentes.
06:41Oui, elle n'est pas capable de changer de règles du jeu.
06:43Exactement.
06:45Alors, quand on parle évidemment aujourd'hui d'IA,
06:48on pense tout de suite à Chajipiti.
06:51Pourquoi ce programme rencontre un succès énorme
06:56et pourquoi est-ce une innovation aussi majeure, comme on le dit ?
07:00D'abord parce qu'elle fonctionne en langage naturel.
07:03Elle vous répond comme vous lui parlez.
07:06Vous lui posez une question en utilisant votre langage de tous les jours,
07:10elle vous répond dans un langage naturel humain.
07:14Donc c'est accessible. C'est ça la recette du succès.
07:17Voilà, c'est accessible.
07:19Et puis elle a tellement de paramètres, c'est des centaines de milliards,
07:23et tellement de données qu'elle est capable de vous restituer quelque chose
07:30qui est très structuré, très complet,
07:33plein de fautes et d'hallucinations également.
07:36Il y a les deux.
07:38Mais aujourd'hui, c'est véritablement un assistant virtuel
07:43très efficace dans plein de domaines.
07:46Pas dans tous les domaines, mais dans beaucoup de domaines.
07:49Moi, j'utilise Chajipiti des dizaines de fois par jour.
07:51J'utilise plus que Google.
07:53C'est devenu véritablement un collaborateur.
07:56En tant qu'avocat.
07:57Ah oui.
07:58Et tous les avocats qui se sont mis à Chajipiti ne peuvent plus s'en passer.
08:01On peut dire ça des avocats, mais on peut le dire de beaucoup,
08:04beaucoup de métiers qui sont obligés de produire du contenu
08:07ou produire de la prestation intellectuelle.
08:10Là, c'est indubitablement un outil qui est très efficace.
08:13Mais comme je le dis, évidemment,
08:15et ceux qui utilisent Chajipiti au quotidien savent que c'est aussi truffé de fautes.
08:18Et donc, ça peut être parfois un double tranchant.
08:21Je suis avocat.
08:22Il y a plusieurs avocats qui ont été suspendus à travers le monde
08:25parce qu'ils avaient utilisé Chajipiti pour faire leur conclusion
08:28qui avait généré des conclusions avec des références jurisprudentielles
08:31qui étaient complètement fausses.
08:32Parce que Chajipiti, quand il ne sait pas, il invente.
08:34C'est ce qu'on appelle les hallucinations.
08:36Alors, en parallèle de ce succès de Chajipiti,
08:40il y a ce que vous évoquez dans votre ouvrage,
08:43à savoir la révolution technologique de l'ordinateur quantique.
08:47Alors, qu'est-ce que c'est un ordinateur quantique
08:49et qu'est-ce que ça peut apporter ?
08:51L'ordinateur quantique, c'est un ordinateur qui fait,
08:55qui a recours, qui utilise les propriétés quantiques
09:00de superposition et d'intrication quantique.
09:04Je ne peux pas faire un cours de physique quantique,
09:06je ne suis pas physicien.
09:07C'est que, si vous voulez, l'ordinateur quantique
09:09est capable de faire des calculs en superposition.
09:13Donc, au lieu de réfléchir de 1, 2 et de manière binaire,
09:17eh bien, il peut prendre en considération
09:20une quasi-infinité de possibilités à un instant.
09:26Et donc, il démultiplie de manière exponentielle la capacité de calcul.
09:31Dans un état quantique.
09:33Et donc, la difficulté d'un ordinateur quantique,
09:36c'est de pouvoir récupérer un résultat
09:40sans annihiler l'état quantique.
09:45Et ça, aujourd'hui, ça fonctionne plus ou moins en laboratoire,
09:50c'est instable.
09:51Et on n'est pas, on est encore assez loin d'un PC quantique
09:57qui vous permettrait de faire des calculs
10:00qui, autrement, prendraient des milliards d'années
10:03pour un ordinateur classique.
10:05Mais on est sur ce chemin.
10:06– Alors, vous évoquiez aussi tout à l'heure le fait
10:09que ces IA peuvent commettre des erreurs.
10:12Vous l'évoquez dans votre ouvrage,
10:14un enfant qui s'est fait arracher le pouce,
10:16des craques boursiers, un accident de voiture.
10:19Dans le cas de ces voitures qui sont commandées
10:21par l'intelligence artificielle,
10:23comment alors, aujourd'hui, protéger les utilisateurs
10:27de l'intelligence artificielle de ce genre d'erreurs ?
10:30– Alors, le premier type d'erreur qui est beaucoup plus fréquent
10:33que ce que vous évoquez, qui sont des accidents,
10:35qui entraînent un préjudice, par exemple, corporel,
10:38c'est ce qu'on appelle les biais.
10:40Les biais sont très courants dans les intelligences artificielles.
10:43C'est quoi un biais ?
10:44– Alors, un biais, voilà.
10:45– C'est quoi un biais ?
10:46C'est une transposition de la réalité qui est biaisée,
10:51qui a un biais, souvent un biais culturel.
10:54Et l'exemple le plus connu, parce qu'il remonte déjà
10:56il y a quelques années, c'est quand IBM a lancé
10:58son système de reconnaissance faciale.
11:00Et son système de reconnaissance faciale reconnaissait bien
11:03les peaux blanches, mais reconnaissait beaucoup moins bien
11:06les peaux mates, les peaux sombres,
11:10et créant ainsi une discrimination raciale dans la reconnaissance.
11:15Imaginez que vous soyez bloqué à l'entrée d'un bâtiment
11:18parce que vous n'êtes pas reconnu à cause de la couleur de votre peau.
11:20Ça, ce sont des biais.
11:22Et les biais sont très présents dans les IA pour une raison simple,
11:25c'est qu'elles sont nourries d'informations.
11:27Qui les nourrit ?
11:28Au début, en tout cas, c'est les humains.
11:30C'est les humains qui décident ce qu'ils donnent à manger à l'IA.
11:34Et si vous avez une équipe, par exemple,
11:35de gens qui sont purement américains, des Silicon Valley,
11:37ils vont avoir tendance à les nourrir de données
11:40qui sont le reflet de leur culture et de leur environnement.
11:43Une IA chinoise n'aura pas les mêmes biais
11:46qu'une IA américaine ou une IA européenne.
11:48Donc, là-dessus, soit vous avez une politique interne à la société IA
11:56pour réduire au maximum ces biais
11:59en donnant une plus grande diversité de données à l'IA,
12:03soit vous avez des réglementations qui l'imposent.
12:05Alors aujourd'hui, en Europe, on est le seul pays
12:08ou la seule zone du monde à avoir une réglementation précisément sur les biais.
12:13– Alors, il y a aussi une question assez intéressante
12:16que vous soulevez dans votre ouvrage, Thibaut Verbi,
12:19c'est celle selon laquelle l'IA peut avoir la capacité
12:24d'intégrer des leçons à sa propre expérience,
12:29qu'elle peut apprendre en réalité.
12:32Ce n'est pas inquiétant ça ?
12:34En fait, elle est capable de dépasser ce qu'on a construit à la base.
12:38Elle s'enrichit toute seule.
12:40– Oui, c'est le paradigme des IA aujourd'hui
12:43qui permet à ces IA de vraiment se développer de manière exponentielle.
12:48C'est ce qu'on appelle l'apprentissage profond.
12:51Il n'est plus nécessaire pour qu'elle apprenne
12:54uniquement qu'on lui donne des données,
12:57mais elle peut développer sa propre capacité d'apprentissage
13:02à partir des données qu'elle a déjà analysées.
13:04Et donc, il peut y avoir un développement exponentiel des machines
13:08et c'est ça qui donne évidemment foi à des scénarios un peu catastrophistes
13:15où on imagine que l'IA nous échappe complètement.
13:18Et maintenant, on est arrivé même à un stade où,
13:22et ça, ça a été démontré par une équipe chinoise dernièrement,
13:26que des IA entre elles communiquent et peuvent s'auto-répliquer.
13:31– Et dans un langage dont on ignore tout.
13:34– Oui, absolument.
13:35Il y a eu aussi le cas d'IA qui ont développé leur langage
13:38que absolument personne ne peut comprendre
13:40et qui est d'une complexité telle qu'aucun esprit humain
13:42ne serait capable de le comprendre.
13:44Donc là, on rentre, si vous voulez, un peu dans des scénarios de science-fiction.
13:48– Dans le terminateur, quoi.
13:50– Oui, oui.
13:51– Alors, vous évoquiez tout à l'heure le rôle, le métier de journaliste,
13:55le mien, qui pourrait sauter.
13:57Évidemment, l'IA pose tout un problème au secteur de l'emploi.
14:01Est-ce que l'IA, in fine, est capable de faire tous les métiers
14:06que les humains exercent aujourd'hui ?
14:08Toutes les activités humaines ?
14:10– La réponse est très probablement non.
14:13– Aujourd'hui, non.
14:14– Pas tout.
14:15Maintenant, il y a une étude qui a été faite tout récemment
14:18par le Forum économique mondial qui dit que d'ici 2027,
14:21c'est 25% des emplois qui seront remplacés par l'IA
14:25mais qu'il y aura 13% d'emplois de plus liés à l'IA.
14:29– Destruction création.
14:31– Voilà, c'est toujours cet arbitrage bien connu
14:34à chaque fois qu'il y a une révolution technologique.
14:36Dire que tous les emplois vont être remplacés,
14:38en fait, c'est difficile pour nous qui vivons dans une société
14:44dont le paradigme est basé sur la productivité individuelle.
14:47C'est le paradigme de notre société, en tout cas depuis la révolution industrielle.
14:51C'est-à-dire que nous nous évaluons nous-mêmes
14:54par rapport à notre capacité productive individuelle
14:56d'imaginer une société où cette obligation de productivité individuelle disparaît
15:00et où on fait autre chose que quelque chose de purement productif.
15:03Vous me suivez ?
15:04Vous, en tant que journaliste, vous êtes productif.
15:06Vous levez le matin, vous avez un métier, vous avez des obligations,
15:09vous avez des objectifs et votre valeur dans la société,
15:12elle est mesurée par votre capacité productive.
15:14C'est pour ça qu'on a tendance à mépriser les gens qui ne sont pas productifs.
15:18Ça, c'est la société dans laquelle on vit.
15:20Une IA ou des IA qui remplacerait les capacités productives des humains,
15:25on a du mal à imaginer à quoi ressemblerait cette société
15:28parce qu'on a du mal à imaginer « qu'est-ce que je vais faire ? »
15:31Mais c'est parce que c'est un nouveau paradigme
15:34et on peut imaginer qu'on ne fera pas nécessairement des choses productives
15:39mais qui auront du coup aussi leurs valeurs.
15:43Ça amène l'homme à repenser ce qu'il est.
15:46Oui, c'est imaginer que vous n'avez plus besoin de travailler,
15:49qu'est-ce que vous allez faire ?
15:51Vous allez peut-être faire des choses qui simplement vous plaisent,
15:53peut-être que ce sera spirituel, peut-être que ce sera artistique,
15:56peut-être que ce sera associatif
15:58et peut-être qu'en fait ça va libérer un potentiel humain de se découvrir.
16:03Ce qui est inquiétant, c'est qu'on ne sait pas vers quoi on se dirige en réalité.
16:07On ne sait pas si cette intelligence artificielle constitue réellement un progrès
16:11puisqu'il faut du recul pour constater s'il y a un progrès ou non.
16:15La seule chose qu'on peut constater, c'est que ça crée de la peur,
16:18que ça va chambouler le marché du travail
16:21dans une mesure qui est difficile à mesurer.
16:27C'est la seule chose dont on s'assure.
16:29Quelle société ça va créer à terme ?
16:31Vraiment, personne ne peut le dire.
16:34Moi, je prends le pli d'être optimiste
16:38et c'est le point de vue que je défends dans mon livre
16:41parce que je suis convaincu à la fois pour des raisons personnelles
16:45mais aussi parce que j'ai étudié le sujet depuis des années
16:48que nous ne sommes pas des machines.
16:51Vous allez peut-être me dire que c'est évident.
16:53Non, ce n'est pas évident pour tout le monde
16:55parce que les gens de Silicon Valley se voient eux-mêmes comme des machines.
17:00Ils se disent qu'à un moment donné,
17:03elle sera comme nous et même mieux que nous.
17:05Ça veut dire qu'ils se voient eux-mêmes comme des machines.
17:07Ils nous voient comme des machines.
17:08Parce qu'ils sont dans une conception purement matérialiste d'eux-mêmes.
17:11Je ne me vois pas comme une machine.
17:12Je ne vous vois pas comme une machine.
17:14Je vous vois comme un être vivant, conscient.
17:16Je ne suis pas un sub-digestif.
17:17Non.
17:18Et je vous vois comme un être vivant, conscient
17:20et qui interagit en permanence,
17:23parce que vous êtes conçu comme ça,
17:25avec ce que je vais appeler,
17:26ce que les physiciens appellent le champ quantique
17:28et qui interconnecte tout.
17:30Alors, on a vu Thibault Verbiste pendant les Jeux Olympiques, évidemment,
17:35le développement à Paris de cette surveillance généralisée,
17:41de cette vidéosurveillance algorithmique.
17:44Est-ce qu'à un moment, cela ne pose pas un problème démocratique
17:49d'imposer ce mode de surveillance à des millions de personnes
17:53sans leur demander leur avis ?
17:55Alors là, c'est le juriste qui répond.
17:58La réponse est évidemment oui.
18:00Ça pose un énorme problème.
18:03Il y a un règlement européen sur l'IA qui a été récemment adopté
18:07et qui est censé interdire ce genre de pratique.
18:11Alors, on parle de quelle pratique ici ?
18:13C'est la surveillance généralisée et permanente
18:17en utilisant la biométrie pour pouvoir identifier n'importe qui,
18:20quand on veut, dans une foule
18:22et pouvoir raccrocher l'image à une identité.
18:26C'est ce qu'on fait de manière massive en Chine, par exemple.
18:29Et donc, le règlement européen dit que ça, c'est interdit.
18:31Mais il y a une série d'exceptions à cette interdiction de principe.
18:36Et ça, beaucoup de commentateurs qui ont analysé le règlement le disent.
18:46C'est qu'il y a tellement d'exceptions
18:49qu'on se demande si ça ne devient pas la règle.
18:51La règle étant la surveillance généralisée.
18:53C'est que, bon, pour simplifier,
18:56on peut faire une surveillance généralisée quand il y a un ordre judiciaire.
19:00Donc déjà, ça pose la question, dans notre société,
19:02l'indépendance du pouvoir judiciaire, bien sûr.
19:05Mais quand vous regardez vraiment toutes les exceptions,
19:07il y a par exemple une exception qui permet au gouvernement,
19:10ça ne veut pas dire l'autorité judiciaire,
19:13de pouvoir activer ce type de surveillance dans des situations critiques.
19:21Et c'est quoi une situation critique ?
19:23C'est, par exemple, un événement important.
19:25Oui, qui définit ce qu'est un événement critique ?
19:29Voilà.
19:30Alors, l'exemple sur lequel tout le monde est d'accord,
19:32c'est un enfant qui disparaît.
19:34On a la photo de l'enfant.
19:36Il y a un juge d'instruction qui envoie un avis de recherche.
19:41Et là, il y aura une unanimité sociale sur le fait que,
19:45ben oui, on est bien contents qu'il y ait des caméras partout
19:49parce que peut-être qu'on va choper le mec qui a enlevé l'enfant.
19:53Mais il y a plein d'autres…
19:54La tentation, ça va être aussi de généraliser l'état d'urgence.
19:56Ça nous dit quelque chose dans les dernières années.
19:58On se souvient du Covid.
19:59Oui.
20:00Ben oui, on est là-dedans.
20:02Et donc…
20:03Et quand on se souvient que la France a, comme la Chine,
20:08verrouillé ses citoyens chez eux en prenant le modèle sur la dictature chinoise,
20:16pourquoi la France, au nom de notre sécurité, n'irait pas vers cela ?
20:22Oui, je suis d'accord avec ça.
20:23Si vous voulez, le problème, c'est que le règlement ne dit pas
20:27qu'il est interdit d'installer des vidéos partout
20:32et d'avoir de l'IA qui permette la reconnaissance faciale.
20:35Le règlement n'interdit pas l'installation de cela.
20:39Le règlement dit qu'il faut l'utiliser dans des cas spéciaux.
20:43Et donc, c'est un peu comme le Covid.
20:45C'est qu'on installe un système de surveillance et d'interdiction
20:49en disant qu'il est temporaire.
20:52Mais il est là.
20:53À partir du moment où il est installé,
20:55la tentation est évidemment grande de pouvoir continuer à l'utiliser.
20:59Oui, ça dépend qui est à la tête de l'État.
21:01Si on a un cinglé ou quelqu'un qui veut le…
21:04Oui, parce que l'outil est là.
21:05L'intérêt commun.
21:06L'outil est là.
21:07Donc, qui l'utilise ?
21:08Alors, la cybersécurité aussi.
21:10En matière de cybersécurité, les systèmes d'IA ne sont pas sécurisés, dites-vous,
21:17à cause de l'évolution trop rapide de la technologie.
21:21Alors, est-ce que là aussi, on n'est pas encore en train de se faire dépasser
21:25par le progrès qui va trop vite, qui nous échappe ?
21:29Alors, ça, ce n'est pas propre à l'IA.
21:32C'est propre à la révolution technologique.
21:34En tout cas, depuis que l'Internet existe,
21:36l'Internet tel qu'il existe aujourd'hui n'a pas été conçu,
21:41le protocole Internet SCPIP n'a pas été conçu
21:44pour être immunisé contre les attaques informatiques.
21:51Pas à cause des adresses IP, c'est-à-dire qu'il y a des portes d'entrée partout
21:54dans Internet dans lesquelles les pirates entrent.
21:56Donc, c'est le problème.
21:57Donc, oui, une IA, c'est un serveur informatique qui peut être hacké.
22:02Et aujourd'hui, on parle beaucoup des ordinateurs quantiques
22:07qui permettront probablement dans un futur proche,
22:11en plus de casser tout ce qui est système de chiffrement, de cryptage.
22:16Donc, la cybersécurité, c'est un problème majeur.
22:18En plus, il y a, je l'explique dans mon livre,
22:20des cas de cybersécurité beaucoup plus pernicieux liés à l'IA
22:25qui peut en fait faire croire qu'elle est immunisée contre les attaques
22:33pour pouvoir prendre le contrôle derrière.
22:35De dire non, il n'y a aucun problème de cybersécurité
22:38et de mentir en fait sur l'état de sécurité de son système.
22:41Ce sont des choses qui ont déjà été étudiées par des chercheurs en informatique.
22:45Alors, vous, ce sera ma dernière question, Thibault Verbiste.
22:49Les codes d'éthique sur l'IA, il y en a plusieurs.
22:52L'Europe, l'Union européenne développe le sien.
22:55Aux États-Unis, il y a aussi des recherches qui vont dans ce sens.
23:00En Chine également, on l'a abordé.
23:02Est-ce que ces engagements sont sincères
23:04ou est-ce qu'il s'agit au final de calmer les controverses
23:07qui seraient susceptibles d'apparaître ?
23:09Alors, c'est un peu le genre de questions où on s'attend un peu à la réponse.
23:14Vous seriez étonné si je vous disais qu'ils étaient parfaitement sincères
23:18et que ces codes sont efficaces.
23:20Généralement, quand on met en avant des codes de conduite
23:24et qu'on s'y accroche, c'est parce qu'on n'a pas envie d'être régulés.
23:27Et c'est ce qu'on appelle ici le ethic washing.
23:31Comme il y a le green washing, il y a le ethic washing.
23:34Généralement, les codes de conduite édictent des principes très généraux
23:39qui sont laissés à l'appréciation des groupes concernés.
23:43Et c'est largement insuffisant.
23:45C'est pour ça que l'Union européenne a décidé d'adopter un règlement.
23:49Alors après, elle est fortement critiquée.
23:51C'est toujours le même débat.
23:53Il va falloir qu'il y ait un arbitre entre réglementation et compétitivité.
23:57Lâchez la bride à quel degré ?
24:01Ce n'est pas blanc ou noir.
24:04C'est exactement la même question qui s'est posée quand l'Europe a pondu le RGPD.
24:09Vous savez, la réglementation sur la protection des données personnelles en 2016.
24:13Même débat.
24:14On a dit, beaucoup en Europe, ça va tuer l'économie européenne.
24:18Ça va permettre aux autres Américains ou Chinois de prendre des parts de marché.
24:22Ça ne s'est pas tout à fait passé comme ça.
24:25Ce qui est arrivé, c'est plutôt une élévation globale du niveau de protection des données personnelles dans le monde.
24:32Ce que je dis va être nuancé par ceci et par cela.
24:35Mais grosso modo, c'est à peu près ça qui s'est passé.
24:39Aujourd'hui, il n'y a plus personne qui dit sérieusement qu'il faut supprimer le RGPD,
24:43que le RGPD a créé un désastre économique, etc.
24:47Non, plus personne ne dit ça.
24:48Mais on le disait en 2016.
24:50Est-ce qu'il va se passer la même chose pour l'IA ?
24:54Peut-être.
24:55Peut-être que le règlement européen va créer un standard de régulation et de protection au niveau international.
25:03Parce que comme on est dans une économie globalisée,
25:05et que l'Europe reste quand même une zone économique importante dans le monde,
25:09ça va forcer les Américains et les Chinois à augmenter leur niveau de protection.
25:13C'est un scénario possible.
25:15Un autre scénario qui serait une balkanisation complète de l'Europe,
25:20complètement larguée par les Américains et les Chinois,
25:22c'est aussi une possibilité.
25:23Aujourd'hui, honnêtement, personne ne le sait.
25:25En tout cas, il y a vraiment intérêt à avoir une réglementation assez sévère,
25:30comme quand vous disiez tout à l'heure qu'on est capable d'observer aujourd'hui des IA
25:34qui sont capables de communiquer entre elles sans qu'on soit capable de rien y comprendre.
25:39Oui.
25:40En fait, si vous voulez, le problème de l'IA tel qu'elle existe aujourd'hui dans le paradigme algorithmique,
25:49informatique, c'est qu'elle n'a pas de conscience.
25:52Elle n'a pas de conscience.
25:53Et on essaye de lui donner des réflexes éthiques, mais ça reste informatique.
26:03C'est-à-dire qu'elle ne va jamais que émuler l'éthique que vous lui avez inculquée.
26:08Alors, elle va pouvoir aussi apprendre par imitation,
26:10mais elle va imiter qui ?
26:12Des humains qui ont leur propre biais, qui ont leur propre influence culturelle.
26:17Enfin, une IA avec une éthique chinoise, ça existe.
26:22Ça s'appelle DeepSeek.
26:24Vous savez, DeepSeek, si vous l'avez utilisé, vous verrez qu'elle a une éthique.
26:27Une éthique du Parti communiste ?
26:29Posez-lui une question sur…
26:31Mao Zedong, oui.
26:33Posez-lui la question.
26:35C'était un moment génial de communion populaire.
26:38Non, ce n'est pas ça qui va se passer.
26:40C'est parce que comme c'est une IA qui va puiser quand même dans la bibliothèque mondiale,
26:44elle va vous donner une vraie réponse et vous aurez…
26:48Faites le test.
26:49Vous aurez à peine le temps de la lire qu'elle sera effacée.
26:51Parce qu'il y a…
26:52Censure.
26:54Censure.
26:55C'est-à-dire qu'il y a des paramètres qui ont été rajoutés
26:58et qui, avec un léger décalage, comprennent la réponse et l'effacent.
27:03Ça, ça s'appelle éthique.
27:06Thibault Verbiste, en tout cas, votre ouvrage s'appelle
27:09Voyage au cœur de l'IA, avec ce sous-titre,
27:12Du destin humain à l'âme des machines,
27:14L'éthique et la quête de la conscience artificielle,
27:17à retrouver sur La Boutique de TVL.
27:19Merci à vous, monsieur.
27:20Merci à vous, Dominic Rossi.
27:21Merci.