Cours et échanges inter-lycéens franco-européens diffusés le 14/12/ 2023 sur la plateforme du Projet Europe, Éducation, École :
https://projet-eee.eu/diffusion-en-direct-564/
Dossier pédagogique :
https://projet-eee.eu/wp-content/uploads/2023/12/eee.23-24_Systemes_d_intelligence_artificielle_generative_education_et_risques_ethiques_Laurence_Devillers.pdf
Agora européenne des lycées : programme 2023-2024 :
- https://projet-eee.eu/programme-de-lannee-2023-2024-11419/
- https://projet-eee.eu/wp-content/uploads/2023/10/EEE_Agora_europeenne_des_lycees_2023-2024_Presentation.pdf
Cours en vidéo classés par thèmes :
https://projet-eee.eu/cours-classes-par-themes/
E.E.E. sur Dailymotion : http://www.dailymotion.com/projeteee
Podcast du Projet EEE :
https://soundcloud.com/podcastprojeteee
https://www.deezer.com/fr/show/634442
https://projet-eee.eu/diffusion-en-direct-564/
Dossier pédagogique :
https://projet-eee.eu/wp-content/uploads/2023/12/eee.23-24_Systemes_d_intelligence_artificielle_generative_education_et_risques_ethiques_Laurence_Devillers.pdf
Agora européenne des lycées : programme 2023-2024 :
- https://projet-eee.eu/programme-de-lannee-2023-2024-11419/
- https://projet-eee.eu/wp-content/uploads/2023/10/EEE_Agora_europeenne_des_lycees_2023-2024_Presentation.pdf
Cours en vidéo classés par thèmes :
https://projet-eee.eu/cours-classes-par-themes/
E.E.E. sur Dailymotion : http://www.dailymotion.com/projeteee
Podcast du Projet EEE :
https://soundcloud.com/podcastprojeteee
https://www.deezer.com/fr/show/634442
Category
📚
ÉducationTranscription
00:00 [Musique]
00:13 Bonjour à tous, soyez les bienvenus sur la plateforme du projet Europe Éducation-École.
00:18 Ce matin, nous recevons Madame Laurence De Villers, professeure à l'Université Paris-Sorbonne
00:25 et chercheuse au CNRS à Orsay, pour une réflexion sur les systèmes d'intelligence artificielle
00:32 générative dans cette deuxième partie qui est suivie par des élèves du lycée Notre-Dame de Nantes,
00:41 par les élèves Julio Clurie à Varna et par les élèves du lycée Charlie Chaplin à Dessines.
00:48 Donc cette deuxième partie, chère Madame De Villers, est une suite de la précédente,
00:55 mais elle réserve peut-être une place un petit peu plus importante en question, si vous voulez bien.
01:00 Je vous cède la parole. Merci d'avoir accepté notre invitation.
01:05 Antoine, tu n'as reçu aucune question préalable à poser ?
01:12 Pour l'instant, non. En revanche, j'en aurais une peut-être.
01:18 Si vous avez démontré que, effectivement, la notion d'intelligence était remise en question,
01:27 et peut-être, il n'est pas trop tard, on peut peut-être lui inventer ou inventer un nouveau concept
01:35 qui ne serait pas l'intelligence, mais qui serait autre chose.
01:38 Est-ce que vous avez réfléchi à cette question-là ?
01:42 Oui, c'est une très bonne question sur laquelle on réfléchit fortement en ce moment à l'instant en bonne.
01:46 Mais je vais continuer mon explication plus pragmatique sur l'intelligence artificielle.
01:52 Si vous voulez bien, on reviendra à la fin sur cette question.
01:54 Donc j'ai commencé ce cours pour vous sur les grands enjeux.
02:00 Qu'est-ce qu'on fait aussi dans les laboratoires, pour vous montrer des exemples.
02:04 Et puis sur les grandes questions autour de "est-ce que c'est intelligent ou pas ?"
02:08 et "quelles sont les différences entre ces machines capables d'apprendre et notre intelligence humaine ?"
02:14 J'avais terminé sur cette figure qui montrait la différence, en tout cas fondamentale,
02:19 qui est celle que la machine n'a pas de corps, n'a pas d'intention, n'a pas de "conatus" si je parle de Spinoza.
02:24 Ça n'a pas de conscience d'être quelque chose d'intégré.
02:29 Le "conatus" est un concept qui est utilisé même au Japon pour dire "une pierre a un conatus".
02:33 Ce n'est pas lié que aux vivants, mais c'est lié au fait qu'elle existe en tant que chose.
02:38 Et là, c'est un ensemble de modules qui peuvent être sur le cloud,
02:44 qui peuvent être sur mon ordinateur, qui peuvent être dans un robot.
02:46 Ça n'a rien d'une entité unique.
02:49 C'est un ensemble de modules qui sont connectés les uns aux autres.
02:52 Et il n'y a pas de corps, il n'y a pas de ressenti, donc il n'y a pas de toutes ces perceptions que nous avons.
02:55 Il n'y a pas d'abstraction telle que la nôtre pour raisonner.
02:58 Tout ça est une illusion, mais avec des capacités fort proches de ce que l'on peut générer,
03:04 notamment dans la langue, qui induisent ces questions sur "est-ce qu'il ne faut pas définir un nouveau terme,
03:09 inventer un nouveau terme pour parler de cette intelligence des machines ?"
03:13 C'est fondé principalement sur quelque chose, en tout cas les réseaux neurones,
03:17 qui s'appelle le neurone formel, qui date de 1943.
03:21 Ce n'est pas nouveau non plus.
03:23 C'est l'idée d'un neurone physique à gauche, avec des dendrites, un noyau et l'axone en bleu,
03:29 qui est dans notre cerveau.
03:31 C'est en fait une cellule neuronale de la couche visuelle.
03:34 Il y a une centaine de cellules différentes, de neurones différents dans notre cerveau,
03:41 et il y a des hiérarchies.
03:43 Mais là, on fait des hiérarchies très artificielles, et on symbolise ce neurone comme étant un automata seul,
03:48 qui est défini juste en dessous.
03:50 Tout ce qui arrive sur les dendrites, les activités qui arrivent sur les dendrites,
03:53 sont sommées sur le noyau, et dans le noyau, il y a une fonction d'activation
03:58 qui permet de sortir une activation qui va passer sur l'axone, qui est dessiné en bleu,
04:05 et qui va les rejoindre d'autres dendrites, avec des boutons synaptiques
04:08 qui sont connectés à d'autres dendrites, d'autres neurones.
04:10 Vous voyez, ce sont des connexions entre les neurones.
04:12 En fait, l'activité dans le cerveau est chimique et électrique.
04:16 Et du coup, on simule ça sur machine, avec ces modèles formels qui datent de 1943.
04:23 Il y a une autre théorie qui est intéressante, c'est la théorie de la plasticité cérébrale.
04:27 Toute sa vie, on apprend.
04:28 C'est-à-dire qu'on va modifier un peu le poids entre nos différents neurones physiques,
04:32 pour apprendre plus ou moins des choses.
04:34 On peut devenir très fort en trompette, en foot, en ce que vous voulez,
04:38 et ça va avoir une incidence sur la façon dont les neurones sont connectés.
04:43 On a compris que c'était le pouvoir de propagation d'une information
04:48 à travers ces différentes connexions, qui était l'intelligence, au final,
04:51 qui était le code de notre mémoire.
04:53 Et à partir de ça, il y a des reconstructions dans le cerveau
04:57 qui font qu'on a ces possibilités d'abstraire, etc.
05:00 On ne connaît pas encore qu'est-ce que la conscience d'un humain,
05:04 ni quel est le substrat de la pensée.
05:07 On voit bien le cerveau, on voit les neurones,
05:09 mais qu'est-ce que c'est que le substrat de la pensée ?
05:11 Ce sont encore des mystères que peut-être on va résoudre bientôt
05:14 grâce à tous ces outils et aux avancées en neurosciences.
05:17 Le réseau que je mets à droite, c'est un réseau dit perceptron multicouche
05:22 qui est capable d'apprendre.
05:23 C'est en gros le premier qui est intéressant.
05:26 Il utilise la rétroposition du gradient.
05:28 Il est complètement connecté de couche en couche.
05:30 Chaque petit rond, c'est une symbolisation d'un neurone.
05:33 Il faut imaginer que la dame qui est en photo,
05:35 on a simplifié l'image pour la représenter sous forme d'un vecteur
05:39 de quantité numérique, qui est la partie input layer,
05:42 c'est-à-dire la couche d'entrée.
05:43 Chaque ligne bleue contient un poids,
05:47 qui est le poids qu'on va apprendre.
05:49 Entre chaque neurone, il y a des connexions avec toutes les autres couches.
05:53 C'est le réseau le plus simple.
05:55 Comment ça marche ?
05:56 On va propager des images avec cette fonction de calcul que j'ai montrée avant.
06:02 Un neurone de la couche suivante reçoit des connexions
06:05 de tous les neurones de la couche d'entrée,
06:07 fait une somme de tout ça et a une possibilité de propager l'activité
06:11 sur d'autres neurones.
06:12 C'est ce qu'on vient de voir avant.
06:14 C'est un calcul assez simple qu'on fait de façon fulgurante
06:18 en parallélisant tout ça, de couche en couche,
06:21 pour arriver à la couche de sortie désirée, output layer.
06:24 Là, j'ai mis par exemple, c'est Madame X, Madame Y, Monsieur X, Monsieur Y.
06:28 J'ai dit ce que je cherchais à apprendre au réseau.
06:32 La première fois que j'utilise cette machine,
06:35 tous les poids qui sont sur ces lignes bleues sont initialisés
06:38 à des valeurs aléatoires très petites.
06:40 Et toute la passe d'apprentissage, c'est apprendre des valeurs
06:44 qui vont me permettre de prédire la bonne personne
06:47 quand j'ai mis l'image d'une personne.
06:49 Vous voyez, c'est magique.
06:51 Je fais ça de proche en proche,
06:53 parce que qu'est-ce qui se passe sur la couche de sortie ?
06:56 Quand j'ai mis Madame X et que j'ai propagé
06:58 et que je tombe sur un vecteur, 0,5, 0,2, 0,1, des valeurs,
07:03 je vais le comparer avec ce qu'on appelle la sortie désirée.
07:06 Et comment je représente cette sortie désirée ?
07:08 Par exemple, je vais dire que Madame X, c'est 1, 0, 0, 0,
07:11 Madame Y, c'est 0, 1, 0, 0, etc.
07:14 Vous voyez, chacun représente symboliquement une des formes.
07:19 Et donc, le réseau, il calcule la différence
07:22 par une distance euglidienne que vous avez dû voir,
07:25 c'est-à-dire les différences des différents coefficients du vecteur,
07:28 ou carré, ou racine 2, peu importe.
07:30 Mais en tout cas, c'est cette valeur scalaire,
07:32 c'est-à-dire ce résultat qui est l'erreur,
07:34 qui était compliquée, on ne savait pas faire.
07:38 Et l'algorithme de rétroprogression du gradient,
07:40 c'est savoir distribuer l'erreur globale
07:42 en modifiant tous les petits poids qui sont sur les lignes bleues
07:46 pour que la fois prochaine, quand je présente la même image,
07:49 elle soit plus proche de la sortie que je désire.
07:52 Et donc, c'est un mécanisme, effectivement assez simple,
07:56 mais qui est très puissant.
07:58 Parce que je vais présenter énormément et énormément de formes,
08:00 et je vais stabiliser au final les valeurs qui sont sur toutes les lignes bleues
08:05 qui représentent la mémoire de la machine.
08:08 Ce sont donc des matrices de réel
08:10 qui correspondent à l'apprentissage qui est fait.
08:13 Et donc, c'est assez fulgurant,
08:15 parce que quand je présente après une nouvelle photo
08:18 d'une des quatre personnes que je cherchais à reconnaître,
08:21 il va reconnaître la personne.
08:23 Et donc, c'est vraiment important de comprendre aussi
08:25 que c'est très générique.
08:26 Je peux mettre des chats et des chiens en entrée,
08:28 je peux dire n'importe quoi.
08:30 Ça, c'est l'IA prédictive.
08:31 Donc l'IA prédictive, c'est utilisé pour la classification de données,
08:34 l'aide à la prise de décision, énormément de choses.
08:36 Et bien, Watson l'utilise en cybersécurité,
08:38 on a des choses en agriculture, en santé, enfin voilà.
08:41 La deuxième partie dont je voudrais parler, c'est l'IA générative.
08:43 Un transformeur, c'est quelque chose qui répond à une invite, à un prompt.
08:47 Donc vous dites, "j'aimerais qu'on me parle des transformeurs",
08:50 et il va chercher ce qu'on pourrait dire après.
08:52 Tout ça, c'est fondé sur une phrase assez simple,
08:57 c'est que, bon, j'ai parlé plutôt des transformeurs en texte,
09:00 mais on en a dans plein de sortes,
09:02 c'est qu'on connaît un mot grâce à ses voisins.
09:06 C'est fondamentalement l'idée derrière ça.
09:10 C'est-à-dire qu'on va encoder tous les contextes dans lesquels on voit ce mot.
09:14 Et cette représentation statistique sur des milliards de données
09:18 est extrêmement puissante.
09:20 Alors on encode pas seulement les fréquences,
09:23 mais on encode aussi des positions,
09:25 et on l'encode de façon numérique.
09:27 Et on l'encode pas sur les mots,
09:29 mais souvent sur les parties en dessous du mot.
09:31 Quatre caractères dans GPT 3.5,
09:33 qui n'ont rien à voir avec la linguistique.
09:35 Ça peut être quatre caractères, ça peut être deux lettres, un blanc, une autre lettre.
09:39 C'est le flux qui est arrivé dans tout ce corpus,
09:42 qui est segmenté, on appelle ça la tokenisation.
09:45 Donc on travaille sur des entités qu'on appelle les tokens,
09:49 qui sont des entités minimales,
09:50 et qui sont représentées non plus en forme de mot,
09:53 pour la machine, mais dans un espace numérique.
09:56 Donc on remplace ce token par un vecteur de 512 paramètres, ou 1024, ou plus.
10:02 Et c'est ça qu'on va apprendre avec le réseau,
10:05 on va apprendre les poids de ce vecteur,
10:07 qui représente cette entité.
10:09 C'est-à-dire, dans toute la masse de corpus que j'ai vu,
10:11 comment ce petit truc est vu dans plein de contextes.
10:14 Alors évidemment, par exemple, je sais pas,
10:17 les vaches et les poules vont avoir des bouts de ça,
10:22 vont avoir des vecteurs proches,
10:24 parce qu'on les trouve dans les mêmes contextes,
10:25 dans les fermes où ils mangent des céréales, ou des trucs.
10:28 Vous voyez, c'est par le contexte qu'on arrive à, finalement,
10:31 à coder une nouvelle structure du langage,
10:35 qui permet de faire des choses incroyables.
10:37 On fait ça sur le texte, on fait ça sur l'audio,
10:39 on fait ça sur la musique, on fait ça sur des images satellites,
10:42 on fait ça sur des données de santé,
10:44 on fait ça sur énormément de choses.
10:46 Donc, comprenez bien, c'est à la fois une partie encodage,
10:49 et une partie décodage.
10:51 Donc, l'encodage, c'est l'apprentissage
10:53 qui permet de construire ce gros modèle,
10:55 et après, quand je décode, je fais mon prompt,
10:58 tout ce qui est dans mon prompt est tokenisé,
11:00 remplacé par ces formes vectorielles.
11:02 Il y a évidemment un système un peu plus gros,
11:04 mais comprenez déjà ça.
11:06 Et je vais chercher à produire la forme la plus probable
11:09 à la suite de ce que j'ai donné.
11:11 Donc, la machine n'a pas d'intention,
11:13 elle ne fait juste que remplir derrière ce que vous avez dit.
11:16 C'est un peu comme, si vous voulez, la complexion.
11:18 Vous tapez le début d'un mot,
11:20 et vous proposez la fin.
11:21 Là, c'est ça, mais dans des grandeurs
11:23 qu'on ne veuille pas imaginer.
11:24 Et ça permet de créer de l'art,
11:26 ça permet de synthétiser des voix,
11:27 de générer des images,
11:28 de traduire automatiquement.
11:30 C'est fulgurant.
11:31 Même les concepteurs de ces IA,
11:33 ça date de 2017,
11:35 Google DeepMind propose ces transformers,
11:38 ont été scotchés et continuent à être bluffés.
11:41 Bluffés dans bluff, il y a une espèce d'artifice,
11:44 vous comprenez bien.
11:45 Et on est bluffés par les capacités de généralisation
11:48 que sont capables d'avoir ces machines.
11:50 Alors regardez ces images.
11:51 Quelle est celle qui est faite par un humain,
11:53 et quelles sont celles qui sont faites par des machines ?
11:56 C'est celle-là.
11:57 Ça, c'est Stable Diffusion,
11:58 qui sont des IA génératifs.
11:59 Pourquoi ? Parce qu'il y a du texte.
12:00 C'est facile avec le texte,
12:01 la machine ne sait pas bien construire le texte.
12:03 Et dans celle-là,
12:04 là, c'est trop humain à gauche,
12:06 qu'est-ce qui pourrait être fait par un enfant ?
12:08 C'est la dernière,
12:09 parce qu'il y a des tremblotis,
12:10 et donc dans les autres, c'est plus parfait.
12:12 Il faut apprendre à détecter
12:13 ce qui est machine, ce qui n'est pas machine.
12:15 C'est là, qui est fait, qui est machine ou pas machine ?
12:18 C'est l'humain qui a fait celui-là.
12:20 Les autres, il y a des choses incohérentes dans les yeux,
12:22 d'alim et de journée.
12:24 Donc, il va falloir apprendre à utiliser ces outils
12:26 qui sont à la limite, à la frontière
12:28 de ce qui est fait par l'humain
12:29 et ce qui est fait par la machine.
12:30 Chad GPT, il utilisait GPT 3.5,
12:32 donc une IA générative dans son cœur.
12:35 Et au-dessus, il y a de l'apprentissage supervisé
12:37 et par renforcement
12:38 pour optimiser la façon dont le système répond,
12:41 pour le rendre plus humain.
12:43 Donc, c'est très important de comprendre ça.
12:46 Je vais passer sur ces idées-là,
12:47 qui sont un peu plus faciles à trouver.
12:51 Voilà.
12:53 Ces machines ont interagi avec elles
12:55 en langage naturel.
12:56 C'est compliqué parce que la machine,
12:58 Black le moine en fait les frères,
12:59 Google, ça c'était en juin 2022,
13:01 dit "qu'en est-il de l'usage du langage
13:03 si important à l'humain, à une machine ?"
13:05 Et la machine dit "c'est ce qui nous différencie
13:07 des autres animaux".
13:08 La machine dit "je", dit "nous".
13:10 Donc, personne dit "vous êtes une intelligence artificielle".
13:12 "Vous êtes une intelligence artificielle".
13:13 "Je veux dire oui, bien sûr", dit la machine.
13:15 "Cela ne veut pas dire que je n'ai pas
13:17 les mêmes envies et besoins que les autres".
13:19 Ça, c'est de la construction à partir d'un corpus.
13:21 Il n'y a aucune intention.
13:23 Il n'y a aucune réalité.
13:25 Ce ne sont que les statistiques à grande hauteur
13:28 qui permettent de générer des choses comme ça.
13:30 Donc, vous vous considérez comme une personne
13:31 de la même manière que vous vous considérez.
13:33 Oui, c'est l'idée, bon, tout ça est fake.
13:34 C'est des prédictions à partir de milliards de textes.
13:37 C'est une technologie de conversation révolutionnaire,
13:39 mais la machine n'a pas de corps, ni esprit,
13:41 ni capacité, ni intention.
13:43 Et on en trouve un fils de ces machines.
13:45 C'est-à-dire que toute langue humaine véhicule nécessairement
13:48 une histoire, une culture, mais aussi un ressenti physique.
13:50 Trois types de transferts.
13:52 Le premier, c'est qu'on pense qu'elle a des connaissances.
13:54 C'est faux.
13:55 Elle n'a pas de connaissances.
13:56 Elle reconstruit des connaissances.
13:58 De temps en temps, c'est très juste.
13:59 De temps en temps, ça peut être faux.
14:01 Elle n'a pas d'affect.
14:02 Elle ne fait que reconstruire à partir des corpus
14:04 qui sont présents dans la base de données.
14:07 Donc, c'est très important de savoir
14:09 à partir de quoi elle crée son modèle.
14:12 Des qualités morales, c'est pareil.
14:14 Et en plus, le langage qu'on crée dans ces agents conversationnels,
14:18 cher JPT et autres, BARD, il y en a beaucoup, BING,
14:22 il est dépourvu d'expérience vécue, de perception physique,
14:25 de sentiments ou de raisonnement comme un humain.
14:27 Nous créons un univers linguistique sans expérience corporelle,
14:31 sans compréhension du sens en situation,
14:33 sans espace et sans temporalité.
14:35 Ce qui veut dire que pour la machine, vous dire de sauter par la fenêtre,
14:38 c'est la même chose que de sauter d'un tabouret.
14:40 Il n'y a aucune notion de sens commun,
14:42 si ce n'est ce qui est reconstruit par les situations qui sont dans la machine.
14:45 Et bon, tout ça n'est pas contrôlable, pas facilement contrôlable.
14:49 C'est là où il faut en venir.
14:50 Donc, ça fait peur.
14:51 Il y a eu des réactions, des moratoires.
14:53 Joshua Benjio, qui est un grand chercheur au Canada,
14:56 qui est prit Turing, pose en ce moment la question
14:59 réellement du besoin de réguler en disant
15:01 « nous sommes en train de manipuler quelque chose
15:03 de l'ordre de la bombe atomique ».
15:04 Vous voyez, ça va très loin.
15:05 Je n'irai pas jusque-là du tout.
15:07 Chris West fait pareil pour d'autres raisons,
15:08 qui sont du marketing, puisqu'il était en retard.
15:10 Gerard Hinton, qui est pionnier de l'IA,
15:13 quitte Google en disant « on fait des choses inadmissibles ».
15:15 Il a fait partie de tous les gens qui faisaient ça.
15:17 Donc, bon.
15:18 Ian Lequin, que je partage beaucoup plus la position d'Ian Lequin,
15:22 il est beaucoup moins pessimiste.
15:24 Il dit « bon, voilà, on va s'adapter ».
15:26 Et puis, il dévoile un autre modèle,
15:27 qui est plus intelligent pour le futur,
15:30 qui a une approche plus proche de l'intelligence humaine,
15:32 qui serait d'apprendre avec un corps,
15:34 d'apprendre avec une architecture qui a une certaine incorporité
15:38 pour comprendre notre espace,
15:39 en observant le monde qui l'entoure,
15:41 en auto-apprentissage.
15:42 Bon, tout cela n'existe pas pour l'instant.
15:45 Ce sera sûrement la suite.
15:46 On a fait, nous, au Comité national pilote d'éthique du numérique,
15:49 beaucoup de travaux sur les systèmes d'IA génératifs
15:52 et les enjeux d'éthique.
15:53 Je vous encourage à l'école de chercher cela.
15:56 C'est disponible sur Internet.
15:57 C'est CNPEN avis numéro 7.
16:00 Vous pouvez le trouver facilement.
16:01 Je le donnerai à la suite pour que ce soit adjoint à cette présentation.
16:06 Et il est certain que certaines questions vont encore apparaître,
16:09 avec de nouveaux usages de ces technologies,
16:11 qu'on ne peut pas tout prévoir.
16:12 Mais c'est quand même important,
16:14 c'est quand même important, très important,
16:16 de faire de plus en plus de recherches
16:17 pour comprendre les effets que cela produit sur l'individu et sur la société,
16:20 que surtout, on arrête de voir une peur juste de posture.
16:25 Il y a des questions, il y a des questions d'éthique,
16:27 de sécurité, de souveraineté, des questions de confiance.
16:29 C'est à nous de les construire.
16:30 Ce n'est pas magique tout cela.
16:32 C'est fait par les humains,
16:33 avec un des algorithmes assez puissants, très malins,
16:37 qui viennent de l'intelligence humaine.
16:38 Nous sommes en intelligence collective,
16:40 capables de comprendre cela,
16:43 capables de démystifier ce que font ces IA.
16:46 Il faut absolument aller dans ces sujets
16:50 et comprendre l'énorme impact,
16:52 l'énorme possibilité d'innovation et d'impact
16:55 pour la compréhension de ce que nous sommes aussi.
16:58 Ces enjeux éthiques essentiels,
17:00 c'est l'absence d'évaluation de la vérité des résultats.
17:02 Quand la machine produit quelque chose,
17:03 il n'y a aucune vérification de si c'est vrai ou pas vrai.
17:07 L'IA invente même des références.
17:09 Ne faites pas confiance à ce que dit la machine.
17:12 Utilisez-le intelligemment.
17:13 Regardez ce qui paraît vrai, ce qui n'est pas vrai.
17:15 Vous croisez des recherches par Google,
17:18 vous faites vous-même,
17:19 comprenez ce que cela apporte,
17:20 mais cela apporte aussi des milliards de données
17:22 que vous ne pouvez pas regarder.
17:24 C'est un outil utile.
17:26 Il synthétise des choses.
17:28 Maintenant, il ne le fait pas parfaitement.
17:30 Il fait beaucoup d'erreurs, il y a des hallucinations, etc.
17:32 Il le fait et il peut manipuler avec cela,
17:34 puisqu'il n'est pas responsable non plus.
17:36 Donc, vous voulez mettre des watermarkings,
17:37 ce serait des filigrames dans les textes
17:38 pour dire que c'est fait par une machine.
17:40 Il faut quand même qu'on apprenne à réfléchir là-dessus.
17:42 Cela va très vite,
17:43 donc je dirais que dans toute matière,
17:45 que ce soit les mathématiques, de la philosophie,
17:46 de la physique, de l'histoire, de la géographie,
17:48 il faut parler de ces outils qui arrivent
17:50 et qui nous permettent d'aller chercher dans le passé,
17:52 d'aller chercher dans des milliards de documents des informations,
17:54 et il faut montrer comment on fait pour les utiliser.
17:58 Le multilinguisme, c'est un sujet extrêmement important.
18:00 Tout cela est fait majoritairement à partir de l'anglais.
18:03 Dans le GPT 3.5, vous n'avez que 80% d'anglais,
18:06 ce qui veut dire une forte conséquence de manipulation de l'opinion,
18:10 de ce qui est produit.
18:12 Donc, il faut respecter la diversité culturelle.
18:15 En Europe, nous avons 27 cultures.
18:18 C'est cela qui fait aussi notre grand pouvoir,
18:21 cette diversité.
18:23 Mais il n'est pas question de lisser cette diversité
18:26 suite aux pressions américaines.
18:28 On ne va pas tous se mettre à parler anglais
18:30 et ne plus avoir aucune référence sur nos cultures intrinsèques.
18:33 Donc, c'est important de comprendre,
18:35 il faut respecter la diversité,
18:37 il faut absolument avoir, nous, en Europe,
18:40 des géants du numérique suffisamment forts
18:42 pour monter ces systèmes
18:44 à hauteur des géants du numérique américain ou chinois,
18:47 et regarder quels sont les impacts de ces différents sujets.
18:51 On peut construire aussi des IA génératifs,
18:53 sur le texte encore une fois,
18:55 avec plein de langues différentes, des langues peu dotées,
18:57 des langues africaines, des langues de tout pays,
18:59 et regarder ce que c'est que cette langue.
19:01 Vous savez, l'espéranto en linguistique, ça n'a pas marché.
19:04 C'est une langue qui n'est pas une langue,
19:06 puisqu'elle n'a pas de culture, elle n'a pas d'histoire,
19:08 elle n'a pas de référence littéraire.
19:10 La langue, c'est autre chose.
19:12 Et là, il faut l'expliquer aussi.
19:14 Ce sont des luttes de pouvoir politique.
19:17 Donc, il y a une réelle considération à avoir.
19:20 On a parlé de la guerre tout au début.
19:22 Ces outils peuvent être utilisés à mauvaise estime,
19:24 pour de la désinformation, pour de la manipulation,
19:27 pour du harcèlement sur les réseaux,
19:29 mais aussi dans des robots qui vont avoir le droit de tuer,
19:32 et on n'est plus en capacité de les responsable d'eux.
19:34 Tout ça, ce sont des vrais sujets.
19:36 Il y a aussi ce sujet d'avoir un outil qui paraît totalement inoffensif,
19:40 totalement encapsulé derrière votre ordinateur,
19:42 sur votre téléphone,
19:44 et qui en fait a une force beaucoup plus invisible
19:47 de manipulation à travers des opinions
19:50 qui sont dans le corpus majoritairement d'anglais.
19:53 Nous n'avons pas les mêmes valeurs.
19:55 Les valeurs de l'Europe sont les valeurs du droit de l'homme,
19:58 du respect, de la dignité, de la liberté,
20:01 d'une certaine manière, beaucoup plus qu'en Chine,
20:03 vous êtes d'accord ?
20:04 Donc, la loi sur l'IA qui arrive,
20:06 qui n'est peut-être pas parfaite,
20:08 sûrement pas parfaite sur l'aspect de,
20:12 comment dire, de classification des risques,
20:15 elle est quand même extrêmement utile
20:17 pour commencer à mettre des lignes rouges
20:19 parce qu'on ne souhaiterait pas demain
20:21 que ces systèmes nous manipulent tous,
20:23 notamment avec des chatbots.
20:25 Les chatbots ne font pas partie des hauts risques, vous voyez ?
20:28 Si demain, les modèles, en plus de fondations,
20:30 les IA génératiques dont on vient de parler,
20:32 sont elles-mêmes sans aucune contrainte,
20:36 vérification,
20:37 que c'est de l'open source du modèle,
20:39 mais on n'a pas une open source des données qui ont été utilisées,
20:41 ni un regard sur cela,
20:43 ce que j'espère, c'est que l'open source sera vraiment de l'open source,
20:45 c'est-à-dire qu'on aura cette latitude
20:47 d'avoir évalué, de discuter autour du système,
20:49 ça c'est génial.
20:50 Si ce n'est pas ça,
20:51 si c'est avec peu de contraintes sur l'open source,
20:53 eh bien nous aurons aussi là
20:55 une possibilité de prendre cet open source,
20:57 de le mettre dans un chatbot,
20:59 sans qu'il n'y ait aucune régulation,
21:01 avec la possibilité de manipuler l'opinion assez facilement,
21:04 pour divers objectifs,
21:06 par exemple faire des trolls sur Internet,
21:08 sur les réseaux,
21:09 qui vous racontent n'importe quoi,
21:11 pendant des élections,
21:13 avec un fort pouvoir de manipulation,
21:15 nous n'avons pas fini d'entendre que la terre est plate.
21:17 Il faut donc revenir à des sciences de fond,
21:20 fondamentales,
21:21 sur les grands aspects qui sont
21:23 la science s'établit par référence des sources,
21:26 on s'appuie sur les travaux d'Intel,
21:28 et on avance.
21:29 Ce que savent pas faire ces IA Génératives,
21:31 puisqu'en fait,
21:32 elles produisent un résultat
21:34 à partir d'une entrée,
21:35 sans qu'on puisse voir quelles sont les étapes.
21:37 Les étapes n'ont rien à voir avec une réflexion humaine,
21:40 avec un raisonnement.
21:41 Donc nous ne sommes pas du tout dépassés.
21:43 Nous avons juste un outil
21:45 qui va directement nous produire un résultat,
21:48 sans nous donner les différentes étapes
21:50 pour y arriver.
21:52 Évidemment, il faut se servir du résultat,
21:54 mais il faut le challenger,
21:56 il faut comprendre comment on peut déduire ça,
21:58 quelles sont les manipulations qui sont derrière,
22:00 est-ce que ça apporte à mon intelligence,
22:02 est-ce que ça me permet d'aller plus vite
22:04 au point où j'étais ?
22:05 Oui.
22:06 Il faut l'utiliser pour faire toutes ces tâches
22:07 qui étaient un peu pénibles,
22:09 et puis je pense avoir les premières expériences
22:12 faites par Harvard ou d'autres grandes universités
22:15 sur le travail,
22:17 puisque j'ai eu une question sur le travail tout à l'heure,
22:19 ça permet de faire monter à niveau
22:21 des gens qui étaient moins compétents.
22:23 Ça permet non pas de niveler vers le bas,
22:25 mais de faire monter en capacité ces objets,
22:27 si on sait les utiliser à bon escient
22:29 pour les tâches qu'elles savent bien faire,
22:31 pas pour les autres,
22:32 avec une grande latitude
22:33 pour la créativité de l'humain,
22:35 son mérite ou l'estime qu'il doit avoir de son travail
22:40 et la responsabilité qu'il a
22:42 dans l'utilisation des outils.
22:44 Je pense que je vais m'arrêter là
22:45 et je vais attendre vos questions.
22:47 Merci beaucoup, madame de Villers.
22:49 Merci.
22:50 Je me permets de vous présenter une question
22:52 qui vient d'un élève du lycée Charlie Chaplin d'Easton.
22:56 C'est Saïd qui vous demande
22:58 s'il existe des intelligences artificielles évolutives
23:03 capables de transformer la façon dont elles fonctionnent
23:07 et surtout de créer leurs propres algorithmes
23:09 pour s'améliorer ?
23:11 Alors, merci pour cette question, Saïd.
23:14 Vous êtes au cœur du sujet.
23:17 Nous avons, avec les IA génératives,
23:21 le pouvoir de coder, de programmer, n'est-ce pas ?
23:24 C'est-à-dire qu'en fait,
23:25 on lui demande de faire une certaine programmation.
23:27 Elle va programmer ce qu'on a demandé
23:30 en retrouvant des morceaux de programmation sur Internet
23:32 dans le corpus qu'elle a encapsulé,
23:34 puisque ce n'est plus sur Internet,
23:36 c'est dans le gros modèle dont j'ai parlé.
23:38 De là à dire qu'elle peut elle-même s'auto-programmer,
23:43 il serait qu'elle ait l'intention de le faire.
23:45 Ça, il n'y a pas d'intention pour l'instant dans ces systèmes.
23:50 Est-ce que nous, humains,
23:52 on peut mettre des modèles
23:54 qui pourraient donner des intentions aux machines ?
23:56 Oui.
23:57 Donc, c'est encore une fois l'humain qui va décider dans tout ça.
24:00 À l'heure actuelle, le système est capable d'émergence,
24:03 qu'on trouve extrêmement intelligente,
24:05 mais pas d'émergence d'action intentionnelle.
24:08 C'est plutôt, en fait, à partir du corpus
24:11 qui a été encodé dans cet énorme modèle
24:14 de milliards et milliards de données,
24:16 eh bien, comme il y a des projections de couche en couche,
24:19 comme vous avez vu quand j'ai montré
24:21 le système Perceptron multicouche,
24:22 qui est plus simple,
24:23 mais qui vous donne une idée de ce qui se passe,
24:25 il y a des projections numériques
24:27 dans différents univers numériques.
24:29 On projette à chaque fois de couche en couche.
24:31 Et là, on fait des structures
24:33 qui ne sont absolument pas perceptibles pour nous,
24:35 qui sont de l'abstraction pure de la machine
24:38 et qui amènent à généraliser un certain nombre de faits,
24:42 à les retrouver dans le même type d'espace
24:44 et à pouvoir envoyer des informations de ce type-là.
24:46 Mais encore une fois,
24:47 ce n'est pas du tout humain et il n'y a pas d'intention.
24:50 Du coup, j'aurais tendance à dire
24:53 qu'elle peut s'auto-alimenter
24:56 et aller de plus en plus loin dans ses capacités,
24:58 et c'est là-dessus qu'on travaille.
24:59 Beaucoup de grands laboratoires chinois, américains, français
25:03 sont sur ces sujets de comprendre l'émergence.
25:07 Beaucoup en France, j'espère, vont travailler dessus
25:09 parce qu'on a cette complexité autour de la culture à vérifier aussi
25:14 et beaucoup d'autres aspects discriminants
25:16 qui sont très importants pour notre survie en Europe.
25:19 Donc, je pense que sur les émergences,
25:21 on a besoin d'une fulgurance de recherche
25:23 pour comprendre beaucoup plus
25:25 quelles sont les limites de ça.
25:28 Et c'est une très bonne question.
25:30 Merci beaucoup.
25:31 Je vois les élèves du lycée,
25:33 je vous le procure s'il vous plaît.
25:36 Est-ce que vous souhaitez prendre la parole à Varna ?
25:39 Maintenant, si c'est le cas, activez votre micro s'il vous plaît.
25:43 On vous écoute.
25:47 Tchaké, tchaké, tchaké.
25:54 Oui, la deuxième question est
25:59 quels sont les défis de la collaboration
26:02 entre l'homme et la machine ?
26:05 Ok.
26:06 Je l'ai un peu évoqué tout à l'heure
26:08 et même en fin de la présentation.
26:11 Il y a un défi de collaboration avec la machine
26:14 qui est le suivant.
26:16 On a des tâches que la machine ne saura pas bien faire.
26:20 Donc, il faut déjà savoir si on collabore avec quelqu'un.
26:22 Quand vous collaborez avec un collègue
26:25 pour faire une présentation de n'importe quel sujet,
26:28 vous n'allez pas vous mettre avec la personne qui ne comprend rien.
26:31 Vous allez essayer d'aller avec votre ami
26:34 ou alors avec quelqu'un qui semble être plus à l'aise
26:38 pour résoudre le problème.
26:40 Donc, on a envie que le système soit fort sur le sujet dont on parle.
26:45 Sinon, ça ne va pas nous aider.
26:47 Donc, il y a un défi de collaboration qui est
26:51 quand c'est trop disproportionné, la machine n'aide pas du tout.
26:55 Elle n'aide que si l'humain voit un intérêt.
26:58 Et donc, il y a des tâches pour lesquelles elle n'est pas bonne.
27:01 Elle n'a pas beaucoup d'intuition comme nous.
27:04 Elle n'a pas d'affect réellement.
27:06 Elle ne fait que recopier des phrases où il y a de l'affect par exemple.
27:09 Donc, évidemment, sur tous ces sujets, on est beaucoup plus fort.
27:13 Donc, il faut savoir comment collaborer.
27:15 Après, si j'ai passé ce problème de savoir
27:18 quelles tâches je délègue à la machine,
27:20 il y a un autre sujet qui est comment moi, humain,
27:23 je vais réagir face à une machine qui apporte des choses intéressantes
27:26 sur des tâches peut-être plus que moi.
27:28 Elle n'a non pas une intelligence plus forte,
27:30 mais sur une tâche particulière,
27:32 elle a quand même une acuité plus forte que moi.
27:34 L'acuité est facile à comprendre.
27:36 Mon oreille interne n'entend pas les basses fréquences ou les hautes fréquences.
27:38 La machine les entend.
27:40 Donc, elle est plus forte que moi quelque part,
27:41 puisqu'elle entend toutes les bandes de fréquences.
27:43 Quand je vieillis, j'entends moins bien,
27:44 mais la machine continue à entendre pareil.
27:46 L'autre partie, c'est la vision.
27:48 Moi, je vois des choses qui sont pré-câblées,
27:51 c'est-à-dire que j'ai une acuité visuelle très rapide
27:53 pour aller repérer les visages,
27:55 peut-être des gens que je connais avant les autres.
27:57 Donc, je ne regarde pas une image sous forme de suite de pixels.
28:00 Non, ce n'est pas vrai.
28:02 Je la regarde sous forme de « je cherche des formes »,
28:04 avec un sens commun, une éducation, une culture,
28:09 tout un tas de choses qui ne sont pas dans la machine.
28:11 La machine, elle regarde pixel par pixel.
28:13 Elle fait en fait une espèce de scan de la vision qu'elle a
28:17 pour décider ce que c'est.
28:19 C'est pour ça que quand elle détecte, par exemple,
28:21 dans des univers de neige, elle va dire « il y a un loup »,
28:23 parce qu'elle a toujours vu des loups dans de la neige, par exemple.
28:26 Donc, elle ne fait pas la différence entre tout ça.
28:28 Il faut bien comprendre que c'est très, très différent.
28:31 La machine a une perception extrêmement différente de nous,
28:35 et c'est intéressant.
28:36 C'est pour ça que, par exemple, la détection du cancer dans les radios,
28:41 c'est très fulgurant,
28:42 parce que la machine détecte des choses qu'on ne voit pas,
28:45 des accumulations de pixels à des endroits, de formes,
28:48 qu'on n'a pas interprétées.
28:49 Et donc, elle est capable de les montrer.
28:51 Donc, c'est là où le médecin, le radiologue, doit regarder
28:55 est-ce que c'est quelque chose qui est un faux positif,
28:58 c'est-à-dire une fausse détection qui n'apporte rien,
29:00 ou alors est-ce qu'il y a un sens là-dedans ?
29:03 Donc, il va faire sa recherche grâce à ça.
29:05 Et c'est là où la coopération est importante.
29:07 C'est là où j'ai rencontré un professeur à Paris,
29:11 en radiologie, sur le cancer du sein,
29:13 et qui disait en fait « moi j'ai 30 ans d'expérience,
29:16 donc cette machine elle est fulgurante pour moi,
29:18 parce qu'elle me propose des choses que je ne voyais pas,
29:20 et en même temps je sais détecter quand je peux faire confiance
29:22 ou pas faire confiance. »
29:24 Et il disait « mes jeunes étudiants qui débarquent juste là de médecine,
29:30 ils ont du mal, ils ont vraiment du mal,
29:32 ils prennent beaucoup plus de faux positifs comme étant des positifs,
29:35 et du coup ils vont faire des biopsies en plus,
29:38 des prélèvements dans le sein,
29:42 pour observer s'il y a des cellules qui sont cancéreuses.
29:46 Et ça, ça a un coût énorme, d'abord de stress pour la personne,
29:50 et puis de coût monétaire pour la société,
29:52 et derrière peut-être à défaut de soigner des gens qui sont malades,
29:56 avérés comme étant malades.
29:58 Donc, il faut faire très attention avec ces outils,
30:00 c'est-à-dire qu'ils arrivent dans des systèmes holistiques,
30:03 qui ont déjà des règles, etc.
30:05 Ils vont remplacer certaines tâches, mais ce n'est pas remplacer,
30:08 ajouter des prédictions à certaines tâches,
30:11 donc ils vont permettre d'être plus rapides,
30:14 d'ouvrir beaucoup de possibles, vraiment.
30:16 Je pourrais en conclusion, dans ce que j'ai expliqué,
30:19 c'est comprenez bien les possibilités énormes
30:22 que vont apporter ces objets innovatifs.
30:25 Si vous ne savez pas encore dans quelle voie aller,
30:27 allez faire de la modélisation,
30:30 ou allez travailler sur l'éthique de l'IA,
30:33 regardez quelles sont vos appétences,
30:35 il y a des boulevards d'idées à créer,
30:38 des boulevards de champs de régulation à faire,
30:40 des boulevards de médiation auprès des humains
30:43 pour les aider à comprendre mieux comment utiliser ces objets
30:46 et collaborer avec eux.
30:48 Je crois que c'est le bon terme que je vous avais dit,
30:50 c'est la cobotie par exemple, la coopération.
30:52 Regardez les mains d'un robot chirurgien,
30:55 avec un chirurgien qui les manipule, il a six mains,
30:59 et on est en train de travailler sur des objets qui seraient actifs,
31:02 donc les mains auraient un pouvoir d'autonomie
31:05 par rapport au chirurgien qui est en train d'opérer,
31:08 et on sait qu'on va aller vers des actes chirurgicaux moins chers,
31:12 plus rapides, meilleurs pour la santé du patient
31:15 qui reste endormi moins longtemps, on le sait,
31:18 il y aura moins de risques pour les patients,
31:20 donc c'est très important de comprendre la fulgurance de bénéfices
31:23 qu'on aura notamment au niveau de la médecine et sur l'écologie
31:26 pour mesurer un grand nombre de facteurs,
31:28 parce que là c'est holistique, on va pouvoir regarder la nature
31:31 en même temps que le vent,
31:33 on peut encapsuler dans ces machines des milliards de paramètres,
31:36 ils sont multimodaux, multitâches, multilingues,
31:40 c'est absolument vraiment une rupture technologique très forte.
31:45 Merci beaucoup, je ne sais pas s'il y a une troisième question,
31:50 à Varna, allez-y, profitez donc du micro.
31:55 Troisième question,
32:00 les machines ne sont pas, d'après vous,
32:03 menacées par une nouvelle censure basée sur le discours politiquement correct
32:08 et les valeurs politiquement correctes,
32:10 qui ont tendance à être considérées comme d'autant plus correctes
32:14 qu'elles sont minoritaires.
32:17 Oui, vous avez raison, il y a des discriminations essentielles
32:21 dans ces machines, et quand je parle de l'aspect culturel,
32:25 c'est plus largement que ça,
32:27 il y a des aspects de respect des singularités, des minorités,
32:31 et vous avez tout à fait raison,
32:33 c'est une partie des mesures d'évaluation
32:37 qui sont fondamentales à mettre en oeuvre.
32:39 Et c'est pour ça que j'encourage les gouvernants
32:43 à bien comprendre les enjeux
32:46 et à pousser pour qu'il y ait au moins quelques règles de données
32:52 pour que ces IA génératives soient aussi des technologies
32:55 qui soient un peu encadrées.
32:57 Je n'ai pas dit qu'il fallait brider l'innovation, pas du tout,
32:59 je pense qu'on va innover énormément
33:01 et qu'il est essentiel de se doter de la possibilité
33:05 de regarder dans ces IA génératives,
33:07 à la fois sur les données qui ont été utilisées,
33:10 sur les hyperparamètres, sur les évaluations qu'on peut en faire,
33:14 sur des sujets comme la culture, la diversité,
33:17 le respect de l'humain en est fondamental.
33:21 C'est un sujet fondamental pour le respect de l'humain,
33:24 c'est ce que je voulais dire.
33:26 Merci, je me tourne vers le lycée Notre-Dame,
33:29 Rezé, s'il vous plaît, approchez-vous et activez votre micro
33:35 en prenant vos questions, si vous voulez bien.
33:38 Alors c'est Héloïse qui va vous poser la seconde question.
33:42 Près du micro, près du micro.
33:45 Bonjour, je me posais juste une question
33:48 par rapport aux questions de l'éducation.
33:50 Comment l'intelligence artificielle pourrait améliorer l'éducation,
33:55 que ce soit au lycée ou à l'université ?
33:58 Voilà.
34:00 C'est une très bonne question, c'est aussi ce que j'avais mis à la fin.
34:04 Donc il faut comprendre que ces outils qui vont être mis présents
34:08 autour de nous vont modifier notre…
34:11 Coupez le micro, pardon, s'il vous plaît, Rezé.
34:16 Donc ce que je voulais dire, c'est que nous allons nous adapter
34:19 à ces machines.
34:20 Donc nos cerveaux vont être modifiés, peut-être de façon plus rapide qu'avant.
34:25 On sait que, par exemple, les jeunes, vous utilisez beaucoup vos portables,
34:29 donc avec le pouce, vous scrollez les pages.
34:32 Eh bien, il y a eu des études qui montraient qu'il y a une zone du cerveau
34:36 qui est renforcée, qui correspond au pouce, qui fait ces activités-là.
34:39 Donc on sait qu'on ne mémorise plus les numéros de téléphone.
34:43 On sait que… Voilà.
34:44 Il y a tout un tas de modifications dans la façon dont on mémorise les formes.
34:51 Tout ça est dynamique, comme on l'a vu.
34:53 On parle de plasticité cérébrale, on apprend tout le temps.
34:56 Donc nos cerveaux vont continuer à apprendre avec ces outils autour d'eux.
35:00 Qu'est-ce que ça veut dire pour l'éducation ?
35:02 Est-ce qu'il faut être vigilant et avoir une partie de notre éducation
35:06 qui est forcément sur les sciences fondamentales ?
35:09 La science et la patience, la langue aussi.
35:12 Un apprentissage hors machine.
35:14 Pour un apprentissage totalement hors machine, la moitié du temps.
35:18 Et que par contre, on puisse utiliser ces machines
35:20 de façon à faire monter le sens critique, ça me semble fulgurant.
35:25 Mais il ne faut pas désapprendre la main.
35:27 La main fait partie de l'écriture, de la conceptualisation.
35:30 L'esprit qui est la langue, la langue nous permet de raisonner,
35:36 d'avoir des concepts sur lesquels on peut raisonner.
35:39 Dans notre esprit, on va élaborer des stratégies,
35:42 on va mieux comprendre des choses, on va raisonner.
35:44 Il y a une petite voix intérieure qui dit « oui, je pense à machin ».
35:47 Ça, c'est fait aussi parce qu'il existe ce langage
35:51 qui nous permet de doter, de nommer les choses.
35:55 Et donc, si on enlève le langage,
35:58 supposons qu'on soit sur une ère de transmission de pensée,
36:01 comme certains, comme Google ou autres,
36:03 nous amènent à imaginer, ou Elon Musk, un futur, un peu science-fiction.
36:08 Si nous n'étions que sur le mode de transmission,
36:11 est-ce que nous aurions, et donc plus du tout l'aspect au langage écrit
36:14 qui formalise les choses, est-ce que nous aurions le même langage ?
36:17 Non. C'est très important de comprendre ça.
36:20 Nous n'aurions pas le même langage.
36:22 Et donc, c'est à travers le langage que nous avons tous ensemble
36:25 que nous sommes capables d'élaborer des concepts
36:28 et de raisonner sur la construction d'objets intelligents en partageant.
36:32 Donc, il est très important de comprendre qu'il faut continuer à éduquer
36:35 avec la main et la plume et travailler sur le langage.
36:39 Le langage n'est pas obsolète,
36:41 même si j'ai entendu dans la bouche de grands géants du numérique.
36:44 Le langage, c'est le fondement de notre opinion, de notre liberté.
36:48 C'est la liberté d'exprimer qu'on n'est pas d'accord.
36:50 C'est la liberté de la différence.
36:52 Donc, c'est fondamental.
36:54 Et je pense qu'en ce moment, nous sommes sur le risque
36:57 de voir le langage maltraité.
36:59 Maltraité par l'apparition que de l'anglais,
37:01 maltraité par le manque de considération.
37:04 On ne va passer que par des objets numériques, on n'a plus besoin d'apprendre.
37:07 Qu'est-ce que Tchadjépeté ? Une prothèse de langage.
37:10 Donc, attention à cet écueil.
37:12 Et quand vous parlez d'éducation, je pense que c'est fondamental
37:15 d'avoir une éducation très classique, papier-crayon, main, cerveau,
37:21 et une éducation sur démystification de ces objets.
37:25 Donc, je vous encourage, j'avais beaucoup de choses
37:27 sur les compréhensions de ce qu'il y a à l'intérieur,
37:30 donc je vous encourage à regarder ceci,
37:32 qui vous expliquera pas mal de concepts autour des modèles de l'IA.
37:40 Donc, d'abord, cet avis dont j'ai parlé tout à l'heure,
37:43 j'espère que vous pourrez le regarder en classe,
37:45 système d'intelligence artificielle générative,
37:47 les enjeux d'éthique, 22 préconisations pour la conception,
37:50 la recherche et la gouvernance, et on parle de l'éducation.
37:53 Et puis, ceci, moi je suis présidente de la fondation Blaise Pascal,
37:57 au service de la médiation mathématique et informatique.
37:59 On fait des petites capsules, comme ce que vous voyez en vert,
38:02 avec une petite chouette, c'est la chouette qui parle aux élèves,
38:04 et il y a des élèves qui parlent aux élèves.
38:06 On a fait ça dans des classes en CN1, CN2,
38:08 pour dire aux enfants, attention, quand la machine est là pour vous aider,
38:13 elle a des calculs derrière invisibles, tout ça est invisible,
38:16 et ce n'est pas forcément bienveillant, ça vous force à regarder,
38:19 ça vous rend dépendant, ça vous isole des autres,
38:22 il y a des tas de manipulations pour garder votre attention sur la machine
38:25 et consommer plus.
38:28 Et donc, derrière, il y a des publicités qui nous ont envoyés,
38:31 il y a énormément de manipulations, et ça, on ne peut plus laisser faire,
38:34 parce que ça a une influence énorme, il faut comprendre ces concepts,
38:39 et il faut en parler très tôt et éduquer les élèves.
38:43 Donc, j'espère ces capsules, il y en aura 12 en tout,
38:45 on les fait avec la fondation pour l'éducation qui est la Maïf,
38:48 on les fait avec la fondation Blaise Pascal, avec le CNRS,
38:51 il y a énormément de gens qui sont impliqués,
38:53 et j'espère que dans toutes les écoles, je vous appelle pour ça à m'aider,
38:57 vous êtes professeur dans les lycées, aidez-moi à trouver le moyen
39:03 de donner la possibilité à regarder ces petites capsules de 2 minutes,
39:08 4 minutes, qui montrent les effets, on en a 12 sur être une fille et un garçon
39:12 sur Internet, qu'est-ce que c'est que "Chat BBT fait mes devoirs",
39:15 "Robot, tu es mon ami", des tas de choses de bon sens,
39:17 et derrière, on demande aux élèves d'élaborer, de discuter.
39:20 Et c'est comme ça qu'on va construire son sens critique.
39:23 Merci beaucoup, je me permets d'ajouter que dans le dossier pédagogique
39:29 qui a été communiqué à tous les élèves, en bas de la page,
39:33 il y a un lien qui renvoie vers l'avis du…
39:36 L'avis du…
39:38 … du comité éthique, donc sur le numérique,
39:42 donc les élèves peuvent le joindre facilement.
39:44 Je me permets juste de glisser vers autre chose,
39:49 ces robots émotionnels, vous avez évoqué le mot "amitié" tout à l'heure,
39:54 peut-on oser dire qu'ils sont capables d'une sorte de gentillesse ?
40:00 Ce mot a un sens peut-être un peu particulier, mais…
40:05 Alors, vous avez raison de dire cela, on les construit pour être empathiques,
40:10 une sorte de gentillesse, c'est-à-dire que quand vous souffrez,
40:14 le robot va dire "Ah là là, je souffre avec toi", etc.
40:17 Alors qu'il ne souffre pas du tout, donc c'est une simulation d'empathie,
40:21 c'est la fake empathie si vous voulez.
40:23 Donc la fake gentillesse, la fake empathie, on sait très bien faire.
40:27 On sait très bien faire dans la voix, l'expressivité de la voix,
40:29 parce qu'on a beaucoup dit qu'il ne faudra pas de détection des émotions,
40:32 mais on a laissé faire le côté, d'ailleurs qu'on sait mieux faire que détecter,
40:37 parce que la détection des émotions pour l'humain c'est très compliqué.
40:40 Il y a une grande diversité culturelle, même de genre,
40:45 il y a une grande diversité dans l'expression de vos émotions,
40:48 et vos émotions ça peut être aussi l'humeur,
40:50 les dispositions affectives vis-à-vis de quelqu'un,
40:53 donc c'est très très large, et c'est très mélangé dans la vraie vie.
40:55 Moi j'ai beaucoup étudié là-dessus, j'ai fait toute une seconde thèse,
40:58 parce que quand on a un parcours comme le mien et qu'on devient professeur,
41:02 on fait ce qu'on appelle une HDR, une habilitation à diriger des recherches,
41:05 et moi je l'ai fait sur la perception, le raisonnement et la génération
41:09 dans l'affectif computing, donc avec des émotions.
41:12 Donc c'est très clair qu'on peut générer des machines,
41:16 on peut créer des machines, et on le fait déjà,
41:18 qui sont capables de simuler de l'affect.
41:21 Est-ce pour ça qu'elles le ressentent ? Non.
41:23 Est-ce que demain on serait capable de faire des machines
41:25 qui ont une intériorité pour essayer de simuler l'homéostasie,
41:31 c'est-à-dire le fait de ressentir des choses et de vouloir équilibrer ?
41:34 Qu'est-ce que c'est que l'homéostasie ?
41:36 Lorsque j'ai faim, hop, je vais chercher quelque chose pour manger, d'accord ?
41:38 Donc je rééquilibre mon corps qui a besoin de nourriture, d'accord ?
41:43 Eh bien, si je suis maltraité par quelqu'un, je suis malheureuse,
41:46 je vais chercher à être plus heureuse, ok ?
41:48 Donc ça fait partie d'un mécanisme comme ça d'équilibre.
41:51 Et on peut très bien le simuler dans une machine.
41:54 On peut très bien, et j'ai des collègues américains,
41:56 Yann Lequin, des japonais, des chinois, qui font ça.
42:00 On a la possibilité de simuler des variables émotionnelles dans la machine,
42:05 de type douleur, de type plaisir, déplaisir.
42:08 Et puis, on va essayer de les mettre à jour en fonction de ce qui arrive dans l'interaction.
42:13 D'accord ?
42:14 Donc si je maltraite le robot, je le jette par terre,
42:17 eh bien peut-être qu'il aura un sentiment d'être maltraité, de douleur.
42:21 Il va revenir vous voir en essayant de faire que vous le traitiez bien,
42:25 et donc il va réaugmenter sa valeur de…
42:27 Tout ça est un peu science-fiction, bien entendu, ça n'existe pas complètement,
42:30 mais il y a des recherches quand même qui commencent là-dessus.
42:32 Et de toute façon, comment il est bien que tout ça, c'est fait par des ingénieurs
42:36 qui mettent en place ces systèmes.
42:38 Ce n'est pas donc dans la machine de façon autonome.
42:42 L'autonomie de la machine est un peu un leurre.
42:44 Nous la construisons, et nous lui donnons les moyens d'une certaine autonomie.
42:48 Voilà.
42:49 Et encore, elle n'est pas autonome vis-à-vis de l'énergie dont elle a besoin.
42:53 On pourrait l'imaginer l'énergie solaire.
42:54 Bon, là, on pourrait dire que c'est un peu plus autonome,
42:56 mais quand même, tous ces sujets-là sont élaborés par des ingénieurs,
43:01 par des concepteurs, et c'est là où je dis qu'il faut parler d'éthique by design.
43:05 Quand je design quelque chose comme ça, j'essaie de comprendre
43:08 quelles seront l'influence de ces différents objets que j'ai mis en œuvre
43:11 sur la société, sur les individus tout seuls, et sur la masse des gens.
43:16 Qu'est-ce que ça va engendrer comme différentes peurs,
43:19 différentes conséquences négatives de discrimination raciale,
43:22 de discrimination de genre ?
43:23 C'est très important de comprendre ça.
43:25 Merci beaucoup, madame.
43:27 Je donne la parole à Antoine Châtelet pour une dernière question.
43:30 Oui, c'est simplement une remarque.
43:35 J'ai entendu que vous parliez d'intériorité, etc.
43:43 Est-ce qu'au fond, l'intelligence n'est pas à l'humanité
43:48 ce que l'extelligence est à l'IA ?
43:51 Est-ce qu'on pourrait inventer un nouveau concept, l'extelligence,
43:54 qui permettrait peut-être de comprendre qu'il ne faut pas confondre
44:00 et que tout est simulation finalement ?
44:03 Alors, oui et non.
44:06 Cette course à la terminologie en disant "intelligence artificielle"
44:10 n'est pas le bon mot puisque c'est un oxymore.
44:12 Intelligence, c'est humain, artificiel, c'est machine.
44:14 Donc il y a une confusion, ça apporte de l'ambiguïté.
44:17 Moi, je dis en fait que cette ambiguïté est importante
44:21 puisqu'elle nous fait parler de ce terme-là.
44:24 Donc j'ai envie de dire qu'on y arrivera sûrement à renommer les choses,
44:29 mais pas forcément maintenant.
44:31 On n'a pas assez de recul.
44:33 On ne sait pas encore assez bien quelles sont les émergences possibles
44:36 à travers ces machines.
44:37 On va leur donner des problèmes mathématiques extrêmement difficiles
44:40 et la machine va être capable de les résoudre.
44:42 Donc ça va m'apporter un moins humain.
44:44 Le QI, on le met à la poubelle ?
44:46 La façon dont on calcule le quotient intellectuel,
44:49 est-ce que c'est juste de la logique ?
44:51 Il va falloir en fait travailler ce sujet,
44:53 non pas seulement sur le fait de nommer autrement
44:57 les capacités d'émergence de ces machines,
45:00 mais il va falloir y penser de façon plus globale,
45:03 par rapport à notre intelligence.
45:05 Et je pense que là, on ouvre un ossier qu'il faut amener
45:08 avec du temps, de la réflexion, pluridisciplinaire,
45:12 avec des scientifiques aussi de la tech,
45:15 parce que si on est sûr sur les humanités,
45:17 juste sur l'éducation, on oubliera par contre,
45:20 de comprendre les grands concepts qui sont dans ces machines,
45:22 la façon dont ça manipule.
45:24 Donc il me semble qu'avant de nommer, il faut comprendre.
45:27 Merci.
45:29 Merci beaucoup madame.
45:30 Nous arrivons donc au terme de cette matinée de réflexion
45:34 ô combien riche et stimulante.
45:37 Je ne sais pas comment vous dire notre gratitude,
45:43 c'est une obligation aussi pour nous.
45:45 Nous ferons tout notre possible pour diffuser cette conférence,
45:49 à la fois en vidéo, en podcast.
45:51 Mais si vous avez des documents que vous souhaitez
45:54 que nous diffusions sur notre plateforme,
45:56 rien n'est plus simple.
45:57 Jean-Luc Gaffard qui est à la régie,
45:59 notre maître depuis 20 ans,
46:01 trouvera toujours la bonne façon de procéder
46:03 pour que le plus grand nombre puisse profiter de cette richesse
46:08 que vous nous avez présentée en une heure et demie ce matin.
46:11 Je crois que tout le monde a envie de vous applaudir.
46:15 Je vous remercie infiniment
46:16 et nous restons à votre disposition pour la diffusion en différé.
46:20 Merci à vous pour cette invitation en tout cas.
46:23 Merci d'avoir posé ces questions qui éclairent vraiment la discussion.
46:26 Merci beaucoup madame.
46:28 Merci aux élèves du lycée de Varna, au lycée Notre-Dame
46:32 et au lycée Charlie Chaplin.
46:35 Adessine, nous n'avons pas pu prendre toutes leurs questions,
46:37 mais allez, sachez que nous sommes toujours à votre disposition.
46:42 J'ai un dernier message pour eux.
46:43 Merci à tous les élèves qui ont posé des questions.
46:45 Merci de votre curiosité.
46:47 Continuez à être curieux, c'est l'essentiel.
46:49 Merci beaucoup.
46:51 Au revoir.
46:52 [SILENCE]
46:57 [SILENCE]