• l’année dernière
Cours et échanges inter-lycéens franco-européens diffusés le 14/12/ 2023 sur la plateforme du Projet Europe, Éducation, École :
https://projet-eee.eu/diffusion-en-direct-564/

Dossier pédagogique :
https://projet-eee.eu/wp-content/uploads/2023/12/eee.23-24_Systemes_d_intelligence_artificielle_generative_education_et_risques_ethiques_Laurence_Devillers.pdf

Agora européenne des lycées : programme 2023-2024 :
- https://projet-eee.eu/programme-de-lannee-2023-2024-11419/
- https://projet-eee.eu/wp-content/uploads/2023/10/EEE_Agora_europeenne_des_lycees_2023-2024_Presentation.pdf

Cours en vidéo classés par thèmes :
https://projet-eee.eu/cours-classes-par-themes/
E.E.E. sur Dailymotion : http://www.dailymotion.com/projeteee
Podcast du Projet EEE :
https://soundcloud.com/podcastprojeteee
https://www.deezer.com/fr/show/634442
Transcription
00:00 [Musique]
00:13 Bonjour à tous, soyez les bienvenus sur la plateforme du Projet Europe Éducation et Écoles,
00:19 implantée au lycée Jean-Pierre Vernon à Sèvres,
00:22 qui a l'immense privilège et un très grand plaisir d'accueillir ce matin
00:28 Mme Laurence De Villers pour une réflexion sur l'intelligence artificielle,
00:34 sur les différents systèmes d'intelligence artificielle générative,
00:38 sur les questions d'éducation aussi dans ce domaine et sur les risques éthiques que cela comporte.
00:46 Nous sommes très nombreux à attendre cette matinée de réflexion.
00:52 Je sais que les élèves du lycée Notre-Dame de Nantes, les élèves du lycée Jean-Luc Uri à Varna,
00:58 les élèves également du lycée Charlie Chaplin à Dessines, près de Lyon,
01:04 ont préparé leurs questions, ils voudront vous interroger.
01:08 Je passe rapidement la parole à Antoine Châtelet, qui vous accueille avec moi
01:14 parce que nous ne savons plus trouver les mots qui conviennent,
01:17 pour vous remercier d'avoir accepté cette invitation.
01:19 La question est tellement importante, les enjeux sont importants.
01:23 Antoine, tu les exprimes à ta façon.
01:26 Je me permettrais de faire écho, si vous permettez,
01:31 à un article du Monde qui m'a profondément interloqué.
01:38 Il est des guerres en ce moment qui se passent dans le monde
01:42 où l'intelligence artificielle est très présente.
01:46 On interrogeait les militaires sur la manière dont cette intelligence
01:52 artificielle était prise à partie.
01:55 Ils disaient d'une manière assez triviale, pour ne pas dire un peu cynique,
02:01 que ça les démettait, ça leur enlevait toute conscience morale.
02:08 J'aimerais partir de manière un peu abrupte sur cette idée.
02:15 Est-ce que c'est ça le progrès, finalement, de mettre l'intelligence
02:20 artificielle au service de la guerre ?
02:24 Merci d'être avec nous.
02:29 On s'abandonne à plaisir de vous écouter, chère madame De Bière.
02:32 Merci beaucoup pour cette invitation.
02:35 J'ai présenté un panorama de quelques systèmes d'intelligence artificielle.
02:40 Essayez surtout de démystifier ce que c'est, repartir un peu sur l'histoire,
02:43 mais pas trop, pour aller très vite sur la conscience de développer
02:48 des objets qui sont utiles, pas seulement pour la guerre,
02:52 et bien comprendre ces deux parties, c'est-à-dire les mauvais usages
02:57 et les usages qui pourraient augmenter notre capacité à mieux comprendre
03:01 d'abord ceux qui nous sommes, et comment nous pouvons mieux vivre
03:05 avec la nature, et comment nous pouvons mieux vivre ensemble,
03:09 et comment on peut plus facilement apprendre, finalement,
03:12 avoir une partie de notre activité qui n'est pas liée à des tâches répétitives
03:16 ou fastidieuses qu'on a tous, quand on écrit des choses à répétition,
03:20 quand on refait les mêmes calculs, mais qui serait dédiée à quelque chose
03:23 de plus créatif. J'ai, moi, une opinion sur l'intelligence artificielle
03:30 qui est, vous allez voir, au centre du village.
03:33 Vous allez entendre beaucoup de gens qui fantasment sur les apports incroyables
03:37 de cette nouvelle discipline, qui n'est pas nouvelle,
03:40 je vais vous l'expliquer aussi, mais il y en a aussi beaucoup
03:43 qui en parlent de façon dramatique, en disant que demain, l'humanité
03:49 va périr, ou des choses comme ça. Donc, moi, je me situe plutôt
03:52 au centre, de façon plus rationnelle, en étant un acteur qui a travaillé
03:56 toute sa carrière sur l'intelligence artificielle, pour démystifier
04:00 tout cela, à la fois dire qu'il y a des enjeux, c'est vrai,
04:04 il y a des enjeux éthiques, comme je l'ai exprimé là,
04:08 mais aussi écologiques, mais aussi sociétaux, politiques,
04:12 mais il n'y a pas que ça, il y a aussi une fulgurance d'enjeux,
04:16 d'augmentation de notre compréhension du monde et de nous-mêmes.
04:19 C'est ça la science. Je suis professeure en IA à Sorbonne Université,
04:23 ma recherche, je l'ai fait au CNRS à Saclay, dans un laboratoire
04:27 plus technologie pure, on va dire, et donc j'ai une chair en IA
04:32 qui s'appelle Human Machine Affective Interaction and Ethics,
04:36 c'est-à-dire les systèmes d'interaction humain-machine et les réflexions éthiques.
04:40 Au sein de cette chair, j'ai plusieurs thèses, on a des projets,
04:44 c'est très dynamique, vous allez voir qu'on peut en parler
04:48 plusieurs fois. Je suis aussi impliquée dans le comité national
04:52 pilote d'éthique du numérique, qui a été monté suite au livre
04:56 et au rapport, surtout, de Cédric Villani sur le panorama
05:00 de l'intelligence artificielle en France, qui a été déterminé
05:04 dans mon souvenir en 2019,
05:08 en novembre ou quelque chose comme ça, 2019, et qui déclarait
05:12 un certain nombre de, enfin, préconisait un certain nombre de bonnes actions,
05:16 dont celle d'avoir un comité d'éthique capable de réfléchir aux enjeux éthiques
05:20 des différents objets qui arrivaient dans la société, de la voiture
05:24 autonome à l'aide à la décision
05:28 médicale, en passant par
05:32 les différents outils que vous voyez,
05:36 du chatbot au robot social,
05:40 avec la télé médecine, enfin, c'est fulgurant
05:44 à quel point, en fait, ces objets arrivent autour de nous, ces outils arrivent autour de nous
05:48 dans différents secteurs. Donc,
05:52 je suis aussi impliquée à l'AFNOR. L'AFNOR, qu'est-ce que c'est ?
05:56 C'est, disons, une entité qui
06:00 travaille sur la normalisation des objets, pas que des objets,
06:04 différents sujets, mais c'est de la technologie, quand même.
06:08 Et à l'AFNOR, il a été monté un groupe qui s'appelle JTC21,
06:12 qui est en fait un groupe sur l'intelligence artificielle, au niveau européen,
06:16 donc le SENSE-ELEC, c'est le pendant de l'AFNOR, mais au niveau
06:20 européen, donc dans l'idée de construire des normes pour mieux
06:24 gérer ces outils d'intelligence artificielle. Donc, c'est
06:28 l'Europe qui a demandé, en fait, à cet institut de régulation,
06:32 de production de normes, de travailler sur des normes alignées
06:36 avec la loi sur l'IA, dont on reparlera, qui vient d'arriver.
06:40 On a une première version qui a été votée. Ce n'est pas terminé. Il y aura, derrière,
06:44 les trilogues techniques et un nouveau vote, mais en tout cas, c'est pour
06:48 s'aligner sur cette loi. Comprenez bien qu'il y a trois sujets
06:52 pour encadrer, enfin, disons réguler,
06:56 ça ne veut pas dire qu'on fait beaucoup de normes, ça veut dire juste qu'on prend conscience
07:00 des enjeux éthiques et on prend conscience des risques pour la société et des
07:04 vulnérabilités que nous avons face à ces machines. Donc, il y a trois grands sujets,
07:08 et je vous prie de bien entendre cela. Les lois,
07:12 la loi, en tout cas, sur l'intelligence artificielle, les normes, qui sont, en fait,
07:16 des façons de pouvoir aider l'industrie
07:20 à créer de l'innovation et des objets
07:24 avec respect de la loi. Donc, ça donne des
07:28 certains protocoles, mesures pour être alignés avec la loi.
07:32 Donc, c'est très utile. Ce n'est pas contre l'innovation, c'est pour l'innovation,
07:36 ce que beaucoup ne comprennent pas. Le troisième, pendant, le troisième
07:40 vraiment pilier fort dont il faut comprendre, c'est l'éthique, puisque
07:44 ces objets sont en mouvance, en dynamique perpétuelle,
07:48 c'est-à-dire que ça sera de plus en plus intelligent, on aura de plus en plus d'innovation, vous allez voir
07:52 des choses absolument incroyables. Donc, comment on fait pour finalement
07:56 les utiliser à bon escient ? Eh bien, il faut se doter d'un certain
08:00 cadre juridique, qui fait que si on est
08:04 hors la loi, eh bien, on aura des peines de prison
08:08 ou d'argent à donner, et des normes pour aider, justement,
08:12 à être pas hors la loi. Et puis, l'éthique qui permet d'envisager les prochains
08:16 sujets, puisque, comme je disais, ça va être dynamique, donc on va en avoir
08:20 beaucoup d'autres. Donc, pour l'instant, ce qu'a fait la loi sur l'IA, c'est de
08:24 dresser un certain nombre de lignes rouges, en disant, ceci
08:28 est à risque intolérable, et j'en reparlerai après, ceci est à
08:32 risque haut, et donc il faut surveiller, ceci est à risque moyen,
08:36 bon, on fait pas grand-chose, et ceci, bon, on estime qu'il n'y a pas de risque du tout. Donc,
08:40 avec cette codification à risque, ils ont associé
08:44 un certain nombre de nécessités, de transparence,
08:48 d'explicabilité, de mesures et d'évaluation autour des objets.
08:52 On peut se poser la question, intrinsèquement,
08:56 de savoir, est-ce qu'on sait, à l'heure actuelle, définir ce qu'il y a au risque,
09:00 à risque intolérable, ou à risque mitigé. Voilà. Ça, c'est une vraie question
09:04 pour laquelle, bon, on aura encore beaucoup de travaux à faire, et je pense que les
09:08 trilogues techniques vont apporter beaucoup sur ces sujets-là.
09:12 Encore une casquette que je peux avoir, c'est d'être présidente de la Fondation Blaise Pascal,
09:16 de médiation en mathématiques et en informatique. Le niveau en mathématiques a baissé. C'est pas de votre
09:20 faute, c'est de la faute de l'organisation de la science mathématique
09:24 qui est diffusée à l'école. C'est ceux qui font les programmes, donc j'en veux
09:28 plutôt au ministre qu'à personne d'autre, d'ailleurs,
09:32 et donc au gouvernant actuel de ne pas avoir compris que les mathématiques sont fondamentales.
09:36 Il y a des mathématiques de plein de niveaux différents. Dans la vie, on a besoin de
09:40 comprendre l'environnement, la nature, des lois physiques de base,
09:44 des règles à calcul qui sont de base, quand vous allez payer
09:48 chez quelqu'un, lorsque vous faites vos impôts. Il y a plein de choses dans la vie
09:52 qui nécessitent d'avoir un bagage en mathématiques suffisant
09:56 pour ne pas être victime de personnes
10:00 qui voudraient abuser de vous. Donc c'est très important pour ne pas
10:04 être vulnérable par rapport à ça,
10:08 d'avoir ce bagage. C'est un bagage positif pour tous.
10:12 Et donc il y a après les grandes mathématiques qui vont dans une abstraction de plus en plus
10:16 forte, mais qui sont elles aussi intéressantes parce que c'est une façon
10:20 de pouvoir réfléchir. Les mathématiques c'est un langage très figé,
10:24 très construit, avec des hypothèses, des axiomes, des théorèmes qu'on démontre, etc.
10:28 Cette puissance-là nous permet aussi de réfléchir à des grands sujets de société philosophique,
10:32 d'ailleurs si on revient aux grands Aristote, Socrate,
10:36 ce sont des chercheurs qui étaient à la fois mathématiciens, physiciens
10:40 et philosophes. Donc c'est pas idiot de penser les mathématiques
10:44 non pas comme un objet pénible dont on voit pas bien l'intérêt,
10:48 mais comme un des seuls objets que vous manipulez ou un des objets
10:52 principaux que vous manipulez à l'école, qui vous permettent d'aller sur l'abstraction un peu plus forte.
10:56 Donc c'est important de les voir comme ça, et c'est un prisme qui
11:00 manque je pense à l'école, de comprendre à la fois leur utilité
11:04 fondamentale pour vivre en société, sur tous les objets qui arrivent
11:08 en plus, qui sont très technos, on a besoin d'un petit bagage, qui est pas si
11:12 compliqué que ça, ce sont les mathématiques statistiques, les probabilités, majoritairement.
11:16 Et de savoir en même temps
11:20 que c'est un moyen d'acquérir plus d'autonomie
11:24 dans la réflexion, plus d'abstraction dans la réflexion, et finalement un pouvoir
11:28 plus fort de comprendre la société et de pouvoir en être un acteur
11:32 et non pas un consommateur.
11:36 Donc on pousse la mathématique, on pousse aussi pour que les filles comprennent que
11:40 y'a pas du tout de genre là-dedans, c'est ni fait pour les garçons
11:44 ni fait pour les filles, mais par contre derrière ça draine énormément de métiers à fort potentiel
11:48 de pouvoir et d'argent, et je pense qu'il y a là
11:52 une mainmise aussi d'un lobby masculin qui se partage le gâteau
11:56 et que les femmes ne comprennent pas, que c'est pas
12:00 seulement de la compétition, c'est aussi une façon de pouvoir après être acteur dans la vie
12:04 et de pouvoir avoir un certain poids dans les décisions.
12:08 Donc prenez vraiment, alors je pense que pour vous
12:12 vous êtes déjà en terminale ou déjà très avancé dans vos études, donc vous allez pas
12:16 changer de filière, on est d'accord ? Mais en tout cas les mathématiques sont fondamentales
12:20 dans l'accès à un certain pouvoir dans la vie.
12:24 L'informatique, bon l'informatique est arrivée récemment dans les mains de tout le monde
12:28 alors le CHAT-GPT affecte tout le monde dans la préconscience, j'ai toujours voulu vous parler de tout ça.
12:32 L'informatique c'est une technologie basée sur les mathématiques,
12:36 sur d'autres sciences, la logique,
12:40 énormément, et puis sur l'électronique qui nous permet
12:44 de faire des circuits intégrés, de faire physiquement une machine qui est capable de calculer.
12:48 Donc c'est une mise en œuvre assez maligne,
12:52 différente, c'est une façon de penser aussi, et qui est
12:56 à mon avis un atout aussi, de comprendre comment on pense en informatique.
13:00 Je n'ai pas dit de coder, j'ai dit de penser les concepts de l'informatique.
13:04 Et donc moi je me bats dans cette fondation de l'ESPASCAL pour que
13:08 on fasse de la médiation culturelle sur les mathématiques et l'informatique, je vous en reparlerai à la fin
13:12 notamment, on a fait des interventions à l'école aussi, alors moi je n'attaque pas
13:16 dans les classes terminales parce que je pense que voilà vous avez fait tout votre cursus, vous avez votre choix,
13:20 vos envies, etc. et vous avez vos capacités, et vous allez dans un sens
13:24 qui est le vôtre, très bien. Si on peut influencer pour pousser plus cet objet
13:28 mathématique informatique et montrer l'intérêt que ça a, c'est plutôt en primaire.
13:32 Moi j'estime que quand on arrive au collège, on est déjà sur
13:36 qu'est-ce que je vais prendre, je suis plutôt littéraire, je vais faire comme mon frère,
13:40 comme dans ma famille, il y a déjà une influence
13:44 forte, et que les vrais, alors ce n'est pas vrai ce que je dis en même temps,
13:48 on peut changer à tout moment, même dans sa vie à 50 ans, à 40 ans, on peut échanger,
13:52 vous orienter sur autre chose, et c'est très dynamique. Voilà, donc mon introduction
13:56 était un peu longue, mais c'est pour montrer que ce que je vais vous raconter
14:00 c'est avant tout des systèmes, en regardant précisément ce qu'ils ont dedans,
14:04 je ne vous ai pas pris pour, je ne m'adresse pas à des médias, je m'adresse à des
14:08 étudiants qui ont un bon niveau déjà de compréhension
14:12 de ces enjeux, en tout cas je l'espère, et en tout cas si vous ne l'avez pas, c'est pour
14:16 vous amener à être curieux sur ces sujets. Donc moi
14:20 j'ai fait donc un petit parcours, je vais être assez
14:24 vraie, mais quand même, donc j'ai travaillé sur mathématiques
14:28 et physiques, puis je suis partie faire une licence en informatique,
14:32 c'était la première en France, moi je voulais faire du design d'objets, vous voyez, donc avec des
14:36 modélisations 3D, tout ça, et donc je n'ai pas fait ça, je me suis intéressée plutôt au langage,
14:40 et au traitement automatique du langage, et je suis partie faire une thèse avec des réseaux
14:44 de neurones, deep learning, on verra après ce que c'est, et avec des modes de
14:48 convolution très très modernes, en 92 je faisais une thèse là-dessus,
14:52 qui transformait le signal audio, donc la voix enregistrée, en
14:56 phonèmes, voilà, donc c'était une fonction dans un réseau de neurones,
15:00 fonction complexe, qui permettait d'identifier, si c'était A, P, T,
15:04 quels étaient les sons présents dans le signal que je mettais
15:08 en entrée. Ensuite je me suis intéressée au langage dans
15:12 l'interaction, et j'ai beaucoup travaillé avec des robots, donc vous voyez tous ces petits robots là, Pepper
15:16 à gauche, le grand en blanc, les autres c'est Nao, je vais chercher tout à l'heure Buddy,
15:20 c'est un compagnon, c'est un autre petit robot, que je vais vous montrer dans la salle suivante,
15:24 j'ai écrit beaucoup autour des robots et des hommes, les robots émotionnels, qu'est-ce qu'on va en faire
15:28 pour la surveillance, qu'est-ce qu'on en fait pour la sexualité, les robots sexuels aussi,
15:32 pour la santé, quels sont les mythes et les fantasmes qu'on entretient
15:36 autour de ça, et qu'est-ce que la réalité, l'état de l'art de ce qu'on sait faire.
15:40 Cette chère IA qui s'appelle Youmen, dont j'ai déjà parlé,
15:44 elle est au CNRS, si vous êtes intéressé par des stages ou n'importe quoi, vous me joignez
15:48 par ce mail, devils@limsy.fr ou sur Twitter.
15:52 Donc je m'intéresse principalement
15:56 à l'apprentissage machine, c'est-à-dire le fait qu'on dote la machine
16:00 de capacités de reconnaître des formes, d'en générer,
16:04 et c'est fulgurant ça, tout ce qu'on dit autour de l'intelligence qu'on code
16:08 dans ces machines, c'est lié à l'apprentissage, c'est lié au fait que la machine est capable
16:12 de, non pas de raisonner, puisqu'elle n'est pas humaine, mais
16:16 d'interpréter des signaux et de produire des décisions, des prédictions,
16:20 des probabilités que ce soit telle ou telle chose. Ensuite je me suis intéressée
16:24 à l'affectif computing, c'est quoi ça ? C'est l'informatique émotionnelle,
16:28 c'est-à-dire ce que j'ai mis à gauche là, détecter des émotions,
16:32 comprendre, interpréter les émotions dans l'interaction,
16:36 dans le dialogue par exemple, et générer des réponses émotionnelles.
16:40 Donc j'ai beaucoup travaillé, comme vous voyez à droite, avec Pepper, Nao, et le petit dernier
16:44 que j'ai cherché là, c'est celui de Blue Frog, c'est Buddy. Buddy est très rigolo,
16:48 parce qu'il est très émotionnel dans son faciès, vous voyez les gros yeux, tout ça, c'est très manga,
16:52 et puis il est très réactif, très expressif. Alors si on met son doigt
16:56 sur son œil, ce que je ne pourrais pas faire, ce que je ne pouvais pas vous montrer de vidéo, il fait "oui,
17:00 oui, j'ai mal", donc il réagit très fort. En général les gens l'aiment bien parce que
17:04 on a une appropriation directe avec ce robot. Maintenant il n'a pas de bras, vous voyez,
17:08 pas de bras, pas de chocolat, enfin il ne fait pas grand-chose, il est juste là en interaction avec vous,
17:12 il vous suit. Mais par contre le projet que j'ai, c'est un projet où cet objet là,
17:16 qui est capable de se déplacer, de sourire, de parler,
17:20 d'écouter ce que vous dites, et de réagir, eh bien cet objet,
17:24 on veut le mettre auprès de personnes âgées qui voudraient rester chez elles,
17:28 et l'idée c'est qu'ils soient là en accompagnant, non pas pour remplacer
17:32 ni un animal domestique, ni
17:36 une personne, ce n'est pas du tout un être vivant, mais pour être
17:40 à la fois, peut-être gardien du temps, si vous perdez un peu la mémoire,
17:44 en vous disant "là c'est l'heure de manger", en même temps un peu amusant,
17:48 moi je voudrais qu'il soit amusant et en même temps pas dans une,
17:52 comment dire, dans l'idée de vous isoler du monde.
17:56 Il faut qu'il soit aussi une ouverture au monde, et ça c'est possible de le faire,
18:00 et accepter aussi par la famille qui vient voir la personne, et qu'il
18:04 rende des services, c'est le principal objet, puisque ça coûte de l'argent de faire des
18:08 objets comme ceux-là. Donc il faut qu'il rende service, il faut qu'on soit capable de comprendre
18:12 ce que ça apporte, et c'est pas un être soignant, on est bien d'accord,
18:16 c'est un robot d'assistance, qui peut répondre à certaines questions, qui peut
18:20 mettre en relation, et avant tout,
18:24 peut-être que la personne se sentira moins seule, et il y aura un aspect aussi intéressant. Ce qu'on a vu
18:28 comme résultat, pour avoir beaucoup travaillé en gérontologie, donc auprès des
18:32 personnes âgées avec des robots, le robot Paro, qui est un petit phoque en peluche, qui est très mignon,
18:36 j'ai vu des personnes âgées très repliées sur elles-mêmes,
18:40 qui prenaient ce robot dans les bras, et le robot se tortille, il est très chou,
18:44 il a une certaine chaleur, il est doux, et il fait des petits bruits, et on dirait un animal
18:48 domestique, enfin, on n'a jamais vu un bébé
18:52 phoque, je pense, mais là, d'avoir cet objet en peluche qui est capable
18:56 de s'animer, c'est assez rigolo, ça fait sourire, et les gens viennent voir, et sont
19:00 curieux de l'objet. Donc ça permet de développer une espèce d'interaction sociale
19:04 avec les autres, de refaire venir le sourire sur un visage qui ne souriait
19:08 plus du tout, qui était complètement fermé, et puis ça permet aussi, c'est ce qu'on a vu,
19:12 de calmer les anxiétés, et donc c'est pas une prise directe sur finalement
19:16 une amélioration de la santé, mais c'est plutôt que la personne étant moins anxieuse,
19:20 elle prend moins d'anxiolithie, moins de médicaments, ça coûte moins à la société, c'est un gain
19:24 pour tous, vous voyez ? C'est une grande chaîne, en fait, qu'il faut comprendre, et c'est cet exosystème
19:28 qui est intéressant. Donc la robotique sociale en fait partie. Donc, je voudrais
19:32 revenir à quelque chose de plus haut, donc on m'a invitée à parler dans une conférence
19:36 qui s'appelait « Sur les épaules des géants », au Havre, avec Edouard Philippe, qui fait
19:40 une réunion de grands scientifiques, et c'était extrêmement intéressant. Moi, je voudrais repartir
19:44 sur un scientifique qui m'est cher, puisque c'est
19:48 la fondation dont je suis présidente, qui porte ce nom,
19:52 Blaise Pascal. Blaise Pascal a inventé la Pascaline, la machine à calculer.
19:56 Et il a aussi écrit un livre qui s'appelle « Les pensées », que vous avez peut-être étudié en philosophie,
20:00 en tout cas je vous encourage à l'étudier, il est tellement moderne.
20:04 C'est un appel à agir avec raison dans l'incertain. Et il dit « Surtout éviter
20:08 deux excès, exclure la raison, n'admettre que la raison ». Donc on est bien
20:12 sur ça. On est sur l'idée d'être souvent des objets assez intelligents
20:16 qui font déjà des choses qui n'ont rien à voir avec l'intelligence humaine. Donc comment
20:20 décider face à l'incertain ? Comment interpréter les probabilités de sortie
20:24 des systèmes qu'ils détectent ? Comment regarder la production d'un tchat GPT que vous avez sûrement
20:28 utilisé pour faire des devoirs, et il faut l'utiliser, moi je suis pour l'utiliser
20:32 de façon éclairée. Qu'est-ce qu'on fait avec les sorties de tchat GPT ?
20:36 Comment on comprend les différences avec l'humain ? Est-ce que l'intelligence artificielle
20:40 c'est intelligent vraiment ? Ou est-ce que ça ne fait que imiter ? C'est ça que je vais aller
20:44 expliquer. Et de là, si on est capable de comprendre ces niveaux-là,
20:48 on fera confiance ou pas au système en étant éduqué,
20:52 en pouvant démystifier ces IA. Et c'est cette partie-là qui m'intéresse,
20:56 cette partie d'éducation autour des sujets éthiques de la machine qui
21:00 pourrait être décidée à votre place et qu'il ne faut pas laisser décider à votre place en donnant
21:04 un blanc-sang, sans être responsable de ce que vous faites.
21:08 L'histoire de l'IA, 80 ans, vous voyez, c'est une grand-mère,
21:12 bon, elle a commencé avec Alan Turing, c'est super, le chiffrement
21:16 de la machine enigma, peut-être vous avez vu ce film, il faut aller le voir, c'est pas exactement la réalité,
21:20 mais c'est un film qui marque. La machine peut-elle penser ? Il écrivait des articles
21:24 comme ça. En 56, cette conférence de Dark Moon sur l'IA,
21:28 la naissance de l'IA, ce sont des jeunes de 26 ans,
21:32 mathématiciens, qui font ça. Et ça c'est extraordinaire,
21:36 quelque part ils ont une vision, ils se disent "Waouh, on va travailler sur autre chose".
21:40 Et c'est vrai que c'était fulgurant aussi, cette ambiance qui montait sur
21:44 qu'est-ce qu'on pourrait faire avec des machines, comment on fait pour que la machine puisse apprendre.
21:48 C'est vraiment le nœud, c'est l'apprentissage. Moi j'arrive en 87, la petite boîte jaune,
21:52 j'arrive dans ces études-là en 87, après avoir fait une licence en informatique,
21:56 puis un DEA en électronique, ça n'existait pas dans les grandes écoles, donc moi j'ai
22:00 été faire ce qui m'intéressait directement, sans passer par des grandes écoles,
22:04 j'ai fait le sujet qui m'intéressait. Et il n'existait pas, il n'existait nulle part.
22:08 On en parlait dans les journaux, on disait "ça sera demain très important". Ah bah oui,
22:12 bon, moi j'ai été faire ça. Alors, à partir de là,
22:16 moi j'ai commencé à travailler sur les premiers systèmes d'apprentissage, c'est ça que je vais
22:20 vous montrer après. Donc ce que j'ai mis après comme boîte, c'est un peu des étapes fulgurantes.
22:24 Deep Blue IBM qui bat Garry Kasparov aux échecs.
22:28 Wow, grand choc pour l'humanité. Les échecs c'est quand même très très haut niveau.
22:32 Mais en fait c'est du calcul les échecs, il faut de la mémoire, il faut développer
22:36 des possibles, et la machine sait mieux faire que nous. 2015, AlphaGo,
22:40 c'est encore plus chouette, plus impressionnant, bat le champion du monde de Go.
22:44 Et là aussi je vais essayer de décrypter. C'est un monde fini, même s'il y a
22:48 un nombre de possibles incroyable, c'est un monde fini, on sait très bien,
22:52 c'est déterministe, on sait ce qu'on fait. Et donc la marge de manœuvre n'est pas
22:56 infinie, elle n'a rien à voir avec un espace en 3D qui est le nôtre,
23:00 qui là est beaucoup plus complexe. 2022, énorme choc,
23:04 chat GPT dans les mains de tout le monde, 100 millions d'utilisateurs en quelques semaines, et là tout le monde
23:08 prend conscience, parce que jusqu'à présent je parlais beaucoup d'IA, je fais des livres et ça, mais bon,
23:12 ça n'est pas un auditoire fort. Et l'auditoire fort, je commence à
23:16 aller à la télé en parler avec AlphaGo, grâce à El Khabach, vous connaissez
23:20 sûrement deux noms, qui m'invite avec trois chercheurs du CNRS
23:24 de Saclay à venir sur un plateau dire "est-ce que la machine va gagner
23:28 ou l'humain va gagner au Go ?" Alors on dit tous les trois chercheurs, et bien oui c'est la machine, évidemment.
23:32 On peut vous expliquer pourquoi. Effectivement la machine va gagner, c'est-à-dire que l'humain va
23:36 gagner une partie sur cinq, c'est déjà beaucoup, c'est déjà très bien.
23:40 Bon, c'était certain, voilà. Et en 2022,
23:44 à nouveau, énorme médiatisation
23:48 du chat GPT. Alors d'un côté c'est très bien, parce que
23:52 tout le monde l'a dans les mains, et se rend compte de la puissance que peut avoir cette machine.
23:56 C'est plus les agents conversationnels ridicules qui disaient
24:00 "veuillez poser votre question". "Oui, vous avez bien dit ça, oui,
24:04 bon, veuillez confirmer". Voilà, c'est ça au début en interaction avec des machines.
24:08 On confirmait, ils ne comprenaient pas tout, ils disaient souvent "je ne sais pas",
24:12 et je vais vous expliquer un peu tout ça. Le premier chatbot d'ailleurs qui va
24:16 venir dans les mains de certains chercheurs, c'est Elisa. Elisa,
24:20 il date de 1968, donc c'est très très vieux. Et donc
24:24 ce premier chatbot, il était fait avec des règles derrière, et il devait simuler
24:28 un psychothérapeute rogérien, c'est-à-dire un psychothérapeute qui, quand vous parlez,
24:32 reprend les mots de votre question et vous renvoie une phrase.
24:36 "Votre mère va bien, ma mère va très bien, alors qu'a dit votre mère ?" Et hop, on embarque comme ça,
24:40 on a l'impression que c'est intelligent, parce que ça répète les mots de la question.
24:44 Et quand le système ne sait pas répondre, il dit "je vous ai compris". Donc avec ça,
24:48 on s'est bluffés, on s'est avancés. Et même à l'époque,
24:52 le concepteur, chercheur d'Elisa, qui a conçu Elisa,
24:56 qui s'appelle Pierre Zweig-Henbo, non, je crois,
25:00 en tout cas, trouve que c'est incroyable. Il a créé une machine de guerre qui permet
25:04 de tricher, de truquer, et les gens vont se faire avoir. Vous vous rappelez,
25:08 je n'en ai pas parlé encore, mais il y avait le test de Turing. Le test de Turing, c'était
25:12 de savoir au bout de combien de temps on se rendait compte que c'était une machine ou un humain qui parlait.
25:16 Et la proportion, c'était, il fallait que,
25:20 voilà, on passait le test de Turing si, on était incapable de débusquer,
25:24 c'était une machine en cinq minutes de discussion, et pour 80% de la population, enfin voilà,
25:28 il y avait des seuils comme ça. Bon, on a dépassé le test de Turing avec Chad GPT,
25:32 et on a dans les mains autre chose, et c'est ça que je vais essayer de vous expliquer.
25:36 L'IA étroite, ça veut dire une IA capable de faire quelque chose de très précis.
25:40 Une IA générale, c'est plutôt dans l'idée
25:44 qu'elle sait répondre à toutes les questions. Donc, on va vers l'IA générale
25:48 avec des Chad GPT, Barre, des compagnies. La super intelligence de l'IA,
25:52 c'est l'IA intelligente qui est consciente d'elle-même.
25:56 Donc, nous ne sommes pas sur la super intelligence de l'IA, nous sommes sur l'IA générale
26:00 qui arrive évidemment à grands pas vers l'idée d'une super intelligence,
26:04 et c'est dans cette frontière-là qu'il faut discuter.
26:08 Démystifier l'IA, c'est important. Donc, j'ai repris la bulle.
26:12 Donc, il y a le numérique, c'est la grosse bulle, je mets tout en numérique,
26:16 donc tout est transcrit sur machine. L'intelligence artificielle, c'est un sous-domaine
26:20 du numérique, donc qui est la capacité avant tout d'enchaîner
26:24 des modules,
26:28 des programmes qui permettent de simuler les capacités humaines cognitives
26:32 de, par exemple, détecter, percevoir,
26:36 de raisonner,
26:40 alors une certaine façon de raisonner, et de générer,
26:44 de produire, de faire des actions. Donc, c'est ces trois grands champs.
26:48 Et puis, au sein de cet ensemble de théories, d'algorithmes
26:52 qui est l'intelligence artificielle, il y a deux branches. Il y a l'intelligence artificielle
26:56 symbolique, qui était plutôt ancienne, et l'intelligence artificielle
27:00 connexionniste, et c'est celle-là que j'ai utilisée dès le départ. Donc, le deep
27:04 learning fait partie de cette intelligence artificielle connexionniste
27:08 par réseau de neurones, vous avez sans doute entendu parler de ce mot, le deep
27:12 learning, ce sont des réseaux de neurones avec beaucoup de couches cachées,
27:16 donc qui ont une puissance de modélisation liée à
27:20 l'ensemble, au fait qu'il y a beaucoup de paramètres, et qu'il y a des mécanismes
27:24 qui abstraient de plus en plus en fonction des différentes couches.
27:28 Donc, nous sommes devant cet objectif, Marvin Binsky,
27:32 Carty et d'autres étaient donc les grands-pères de tout ça, c'était des très jeunes
27:36 à l'époque, ils ont essayé de monter une nouvelle discipline, c'était assez fantastique, il y avait
27:40 beaucoup d'énergie. Il y a eu des hivers et des étés, parce que les systèmes experts ont culminé,
27:44 les systèmes experts, il fallait faire des règles soi-même, donc c'était vraiment laborieux,
27:48 puis à chaque fois qu'on changeait de domaine, il fallait refaire des règles, et l'expert, la machine
27:52 les enchaînait, donc il y avait une capacité d'automatisation, mais c'est tout.
27:56 Donc si vous voulez, les premiers robots, quand on parle de robots, on pense tout de suite aux robots
28:00 dans les chaînes de montage de voitures, qui font le geste, par exemple, de peindre une voiture,
28:04 je prends le pinceau, je prends la peinture, tac, tac, je peins, je reviens, tout ça, c'est répétitif,
28:08 il n'y a pas du tout d'intelligence là-dedans, ça c'est des automates.
28:12 Et donc, les premiers systèmes experts, c'est une espèce d'automate qui automatise
28:16 l'ensemble des règles qui viennent de décisions humaines, qui ont décidé de faire telle et telle action.
28:20 Donc la deuxième vague, c'est l'apprentissage machine, c'est la machine
28:24 qui va apprendre elle-même la grande fulgurance et par réseau de neurones,
28:28 et à partir de 1986, c'est la vraie date, on commence à s'intéresser à justement une machine
28:34 qui peut apprendre avec la rétroprogression du gradient, qui est un algorithme,
28:38 donc je vais essayer de vous expliquer les concepts rapidement dans la scène suivante.
28:42 Là, c'est déjà, il y a le lequin dans le cou, sur la rétroprogression du gradient,
28:46 et moi je fais ma thèse à ce moment-là, donc je vais utiliser cet algorithme.
28:51 Il y a trois sortes d'apprentissages, il y a l'apprentissage dit supervisé,
28:55 donc avec rétroprogression du gradient justement, non-supervisé, c'est Tchad GPT
28:59 qui est vraiment en auto-supervision, donc non-supervisé, qui montre des capacités fulgurantes,
29:05 et par renforcement, c'est un peu comme les petits robots qu'on fait,
29:09 les robots aspirateurs, ils ont des mesures de, comment je pourrais expliquer ça,
29:18 le renforcement learning, c'est en fait, ils ont un certain nombre d'actions à disposition,
29:22 et des mesures d'optimisation, si vous voulez, de ce qu'ils doivent faire,
29:26 et ils apprennent au fur et à mesure par essais, en gros.
29:29 Donc si un petit robot, il se tape contre un mur, il a appris que la prochaine fois,
29:32 il y a un mur là, donc il ne va plus aller là.
29:35 Donc c'est des mesures de récompense, c'est comme ça qu'on l'appelle,
29:38 donc il y a un espèce de degré de liberté là-dedans, mais c'est quand même cadré
29:40 par les mesures de récompense.
29:42 Donc voilà, dans les réseaux neurones, il y en a beaucoup de différents,
29:46 il y en a qui sont non-supervisés, alors moi j'en ai utilisé des non-supervisés
29:49 qui n'étaient pas très utiles au début, et qui maintenant sont incroyables,
29:54 donc on a augmenté en capacité grâce à des nouveaux algorithmes,
29:58 des algorithmes récurrents, c'est aussi une certaine récurrence dans tout ça,
30:02 des convolutions, il y a énormément de choses, si ça vous intéresse,
30:06 derrière, il y a une foultitude d'algorithmes extrêmement intéressants
30:09 à étudier, à utiliser.
30:11 Les grands sujets arrivent avec le deep learning,
30:14 c'est-à-dire cette idée qu'on a des couches cachées.
30:17 Alors moi j'avais fait ça en 92, vous me direz, pourquoi vous êtes,
30:20 pourquoi on ne parle pas de vous et pourquoi on attend 2010 ?
30:23 Eh bien en fait, à l'époque, on n'avait pas la capacité de calcul
30:26 pour faire marcher ces algorithmes en temps acceptable.
30:30 Ma machine que j'ai utilisée et que j'ai montrée pour ma thèse,
30:34 ça m'était un mois sur un VAX, VAX Grosse Machine IBM,
30:38 énorme machine, mais ce n'était pas du tout possible,
30:44 ça prenait trop de temps.
30:46 En fait, ces calculs matriciels n'étaient pas du tout parallélisés
30:49 et il n'y avait qu'un processeur.
30:51 Donc ce n'est pas optimal.
30:53 AlphaGo, en 2017, bénéficie de toute cette puissance de calcul,
30:59 et là on est sur autre chose, et le deep learning bénéficie déjà
31:02 à partir de 2010 de cette puissance de calcul parallélisée,
31:05 et je pense que l'augmentation des données qu'on peut intégrer
31:09 pour l'apprentissage, plus la capacité de calcul,
31:12 fait qu'on arrive à des choses fulgurantes maintenant.
31:15 La vague qui suit celle des transformers, c'est l'auto-apprentissage.
31:19 L'auto-apprentissage, on ne savait pas faire,
31:21 et là on a une machine de guerre, les IA génératives
31:24 sont incroyablement puissantes pour faire les choses.
31:27 Mais ce n'est pas fini, on ira encore plus loin.
31:29 Bon, à l'heure actuelle, on est tous sur l'utilisation
31:32 depuis 2017 dans les labos des transformers,
31:35 et ils arrivent dans les mains de tout le monde à travers
31:38 chat-GPT qui encapsulent des IA génératives,
31:41 une IA générative à l'intérieur, avec d'autres apprentissages
31:44 au-dessus pour optimiser la réponse du système,
31:47 et je reparlerai de ça.
31:49 Et la dernière vague qui est importante, c'est l'IA éthique.
31:51 Donc moi, ça fait depuis 2016 que je travaille sur ces sujets
31:54 d'éthique de l'IA, c'est-à-dire qu'est-ce qu'on doit rajouter.
31:57 J'ai travaillé sur les émotions assez vite, à partir de 2000,
32:01 du coup, c'était quand même un terreau complexe.
32:04 C'est de la perception, les émotions, c'est une émotion, c'est interne.
32:07 La machine ne peut voir que l'expression de vos émotions.
32:11 Vous pouvez être très en colère et sourire,
32:13 elle vous les cachait, elle pouvait être mélangée,
32:16 c'est-à-dire que vous pouvez être à la fois mécontent
32:19 et en même temps rigoler à l'intérieur, ou autre ou contraire.
32:22 Les Japonais ont d'ailleurs une façon, un espèce de sourire
32:26 qui est très, très amusant sur les émotions,
32:28 qui est de dire qu'ils ne sont pas d'accord avec leur hiérarchie,
32:33 tout en disant qu'ils vont le faire.
32:36 Donc il y a les deux en même temps,
32:37 il y a le mécontentement et le fait qu'ils vont le faire,
32:39 et là c'est produit par un son guttural qui est particulier,
32:43 qui est un rire que nous n'avons pas dans notre culture.
32:46 Donc il y a des différences énormes culturelles sur les émotions,
32:49 elles vont être interdites dans la plupart des systèmes,
32:52 c'est ce que prévoit la loi sur l'IA, et je pense que c'est bien,
32:55 parce que pour en avoir travaillé énormément sur ces sujets,
32:58 c'est de la perception, les gens qui les utilisent dans les start-up
33:02 le font de façon très simplifiée,
33:05 c'est un sujet extrêmement complexe pour lequel on n'a pas encore résolu
33:08 toutes les théories, on voit que c'est une capacité intéressante,
33:12 soit on dit que c'est vraiment quelque chose de très simpliste
33:16 et on l'utilise en toute transparence,
33:20 c'est-à-dire que tout le monde dit « bon d'accord,
33:22 je suis d'accord pour l'utiliser avec cet objet-là, ça ne me gêne pas,
33:26 et alors d'accord, mais on ne va pas l'utiliser sans tenir au courant les gens,
33:29 en sachant que c'est peu robuste, c'est ça le principe. »
33:33 Donc l'IA éthique c'est quoi ? C'est de la transparence, de l'explicabilité,
33:36 de la loyauté, donc il y a les lois sur l'IA, les normes dont j'ai parlé.
33:39 Donc j'ai toujours en tête de montrer ces deux intelligences,
33:42 l'intelligence dont j'ai parlé tout à l'heure autour du jeu,
33:45 qu'on a montré comme étant très très forte autour du jeu,
33:49 l'intelligence de calcul.
33:52 J'avais rencontré fin nuit un jeune chinois
33:55 qui a optimisé ses systèmes pour Google DeepMind,
33:58 et en fait il disait « mais c'est complètement injuste,
34:02 c'est comme si on comparait un champion du monde de course à pied
34:05 avec une Porsche ou une Jaguar qui sort de l'usine. »
34:09 Elle a été faite par beaucoup d'ingénieurs,
34:12 et puis finalement c'est incomparable,
34:15 c'est beaucoup d'une communauté de gens, de collectifs d'intelligence,
34:18 de puissance de calcul énorme, contre un humain et son cerveau.
34:21 Et donc la machine n'a aucune conception de ce que c'est que les émotions,
34:24 c'est pour ça que j'ai mis la pomme à côté,
34:27 elles n'ont pas de corps, elles ne peuvent pas appréhender la même chose,
34:30 et je vais m'arrêter là pour la première partie.
34:33 Il faut bien comprendre que ces IA génératives qui encodent des masses de données,
34:36 qui montrent des émergences de comportements intelligents,
34:39 n'ont pas notre intelligence, c'est autre chose.
34:42 Puisque nous avons une intelligence de fait,
34:45 physique également, on apprend aussi avec l'essence.
34:48 L'enfant quand il voit du feu, il sait tout de suite que c'est chaud,
34:51 il met la main deux fois, c'est terminé. La machine faut apprendre,
34:54 elle réitère des millions de fois avant d'avoir stabilisé
34:57 une espèce de fonction de poids pour arriver à prédire quelque chose.
35:00 Donc ça n'a rien à voir, et je pense que c'est important
35:03 d'avoir passé le temps sur le début pour essayer de démystifier ces objectifs.
35:06 Avez-vous une question avant qu'on passe à la pause ?
35:09 Merci beaucoup.
35:12 Je me tourne vers les élèves du lycée Notre-Dame à Nantes, s'il vous plaît.
35:18 Voulez-vous prendre l'antenne très rapidement ?
35:23 Cher Cyril, on vous écoute.
35:26 Allez-y, on vous écoute.
35:39 Maïwenn va vous poser la question.
35:42 Merci.
35:45 Bonjour Maïwenn.
35:50 Montrez un petit peu votre visage, s'il vous plaît, relevez.
35:53 Merci.
35:56 C'est bon, Ancestral, vous la voyez ?
36:07 Est-ce que vous pensez qu'un jour, l'intelligence artificielle
36:11 pourra remplacer des métiers comme les professeurs, les chauffeurs,
36:14 les journalistes, les avocats, etc. ?
36:17 L'intelligence artificielle va remplacer des métiers ?
36:20 Pas tous ceux que vous avez cités.
36:23 Vous aviez une suite à votre question ?
36:26 Non ? Bon, alors je peux répondre, oui.
36:29 Donc ça va remplacer certains métiers,
36:32 mais pour beaucoup c'est un assistant pour aller gagner du temps
36:36 et être au fait des solutions.
36:39 Pour les journalistes, par exemple, ça ne peut pas remplacer un journaliste,
36:42 puisque c'est ce que j'ai expliqué dans la deuxième partie,
36:45 il n'y a aucune vérification de quoi que ce soit, de ce que la machine produit.
36:48 Il faut se référer à cette phrase de Chomsky,
36:51 qui est un grand linguiste américain,
36:54 qui dit que pour la machine, il n'y a pas d'impossible.
36:57 Donc, soit on met une morale dans la machine,
37:00 une façon de dire "ça c'est possible, ça c'est bien, ça c'est pas bien,
37:03 ça c'est beau, ça c'est pas beau",
37:06 pour l'instant, il n'y a rien de tout ça.
37:09 La machine, c'est du calcul, et donc elle intègre tout un tas de choses,
37:12 donc elle peut apporter énormément, mais elle ne peut pas décider
37:15 de ce qui est bien ou pas bien.
37:18 Du coup, je pense que pour un journaliste, c'est important de savoir ce qui est vrai
37:21 ou ce qui n'est pas vrai, et donc ça ne sera pas bien.
37:24 Et pour un professeur, c'est important de savoir si vous avez compris ou pas,
37:27 il y a des choses dans ces métiers qui ne sont pas juste sûrement
37:30 le fond de la connaissance, et même la machine n'a pas de connaissance.
37:33 En fait, on projette sur ces machines beaucoup trop de choses,
37:36 et je vais en parler dans la partie suivante,
37:39 on projette des connaissances, des affects, des valeurs morales
37:42 qu'elles n'ont pas du tout.
37:45 Merci beaucoup, je me tourne rapidement vers les élèves de Mme Ratka-Zdravkova.
37:48 Avez-vous une question à poser ?
37:51 Activez votre micro si c'est le cas.
37:54 Allez-y, on vous écoute.
37:57 Merci beaucoup pour cette possibilité de pouvoir participer aux discussions.
38:06 En effet, nous avons chacun une question à poser.
38:11 Premièrement, selon Negev, l'œuvre d'art et l'œuvre littéraire
38:17 fait partie inégalement de la personnalité de son auteur.
38:24 Par conséquent, la reconnaissance de cette œuvre
38:29 est une reconnaissance de la personnalité de son auteur.
38:36 À qui devrait aller alors le droit d'auteur ?
38:41 À la machine ou à son créateur ?
38:44 Merci pour cette question de droit,
38:47 pour laquelle je suis sans doute moins outillée qu'un expert en droit.
38:51 Mais je peux répondre d'une certaine manière,
38:54 qui pour moi est d'abord que la machine n'a pas de personnalité juridique.
38:59 Donc elle n'a pas besoin d'avoir des droits sur quoi que ce soit.
39:02 Maintenant, si la machine a été faite par des ingénieurs,
39:06 une société qui réclame des droits parce qu'on utilise son outil,
39:10 c'est autre chose.
39:12 Donc je pense que c'est un partage des droits sur l'objet qu'il crée,
39:19 au pire si vous voulez, surtout pas à la machine,
39:23 qui n'a rien à faire là-dedans.
39:25 Et c'est que des humains qu'il faut considérer.
39:28 Et l'autre chose, c'est peut-être que si vous achetez un logiciel
39:32 pour créer des choses, que ce soit, vous utilisez en open source
39:36 un logiciel comme ChatGPT pour faire des romans, je ne sais pas,
39:40 il faut regarder la clause que vous avez d'achat.
39:43 A qui appartient ce qui est produit ?
39:46 Il ne faut pas être d'accord, mais en aucune manière,
39:49 la créativité de cette machine est liée à une intention de la machine.
39:53 Donc ce n'est pas la personnalité de la machine, on est d'accord.
39:56 Ensuite, sur la personnalité de l'auteur, moi j'ai un petit bémol qui est,
40:01 vous avez raison, c'est lié à la personnalité de son auteur,
40:04 mais on oublie souvent que nous sommes, nous, finalement,
40:07 faits de nos ancêtres, de l'imagination qu'on a
40:10 et des coopérations qu'on a autour.
40:13 Donc quand je dis imagination, c'est-à-dire qu'on va pêcher des choses
40:16 à droite à gauche et qu'on agrège pour arriver à faire quelque chose.
40:19 Moi j'aime bien l'idée qu'on ait une personnalité,
40:22 qu'il y a la personnalité de l'auteur avec un collectif.
40:25 J'aime bien l'idée que se sentir seul au monde responsable
40:29 de quelque chose, c'est peut-être une erreur.
40:31 Mais bon, nous n'en sommes pas là et je ne vais pas chambouler
40:34 les règles de droit d'auteur. Donc je suis d'accord avec vous.
40:37 En tout cas, il y a pour moi un collectif dans le fait d'être auteur.
40:41 Ça ne me gêne pas qu'il y ait une part qui revienne à des ingénieurs
40:44 qui ont fait un système, mais en aucune manière à la machine.
40:47 Merci beaucoup, chère Antoine. Peut-être un mot ?
40:50 Pas de questions pour le moment, j'attends la suite avec impatience.
40:53 Merci.
40:55 Donc, merci impénément, madame de Villers,
40:59 pour cette première partie de notre matinée de réflexion
41:03 avec vous sur le système d'intelligence artificielle générative.
41:08 Je le dis rapidement à l'attention de ceux qui nous suivent en différé.
41:12 Tous ces moments de réflexion et de questions seront disponibles
41:17 en différé d'ici quelques jours et en podcast, sans doute,
41:21 dans le courant de la semaine prochaine.
41:23 Merci de votre attention et on peut sûr vous retrouver d'ici
41:26 deux ou trois minutes après une brève pause technique.
41:29 [SILENCE]
41:34 [SILENCE]
41:39 [SILENCE]
41:44 [SILENCE]
41:49 [SILENCE]
41:54 [SILENCE]

Recommandations