• il y a 2 ans
ABONNEZ-VOUS pour plus de vidéos : http://www.dailymotion.com/Europe1fr
Laurence Devillers, spécialiste des interactions homme-machine et professeure d'informatique à l'université Paris-Sorbonne, répond aux questions de Lionel Gougelot à l'occasion du vendredi thématique consacré aux impacts de l’intelligence artificielle sur notre quotidien.
Retrouvez "L'invité actu" sur : http://www.europe1.fr/emissions/l-interview-de-7h40
LE DIRECT : http://www.europe1.fr/direct-video


Retrouvez-nous sur :
| Notre site : http://www.europe1.fr
| Facebook : https://www.facebook.com/Europe1
| Twitter : https://twitter.com/europe1
| Google + : https://plus.google.com/+Europe1/posts
| Pinterest : http://www.pinterest.com/europe1/

Category

🗞
News
Transcription
00:00 L'intelligence artificielle au coeur de notre vendredi thématique de la rédaction d'Europe 1. Elle est partout cette intelligence artificielle,
00:07 dans nos voitures, dans nos téléphones, dans nos ordinateurs. Elle va peut-être nous envahir tout au long de ce 21e siècle.
00:15 Bonjour Laurence de Villers. Bonjour Lionel. Vous êtes professeure d'informatique à la Sorbonne, spécialiste des interactions en machine.
00:21 Merci d'être avec nous ce matin sur Europe 1 pour éclairer un peu nos auditeurs quand même,
00:25 parce que je pense qu'il y a un vrai besoin aussi d'informations et de pédagogie sur les défis que pose la révolution de cette intelligence artificielle.
00:32 Je le disais, c'est un enjeu du 21e siècle, elle est déjà très présente dans nos environnements, cette intelligence artificielle.
00:38 D'abord, comment on peut la définir simplement ? Parce que j'ai le sentiment, sans être un grand connaisseur, qu'il y a de multiples formes d'intelligence artificielle, Laurence de Villers.
00:46 Vous avez raison, c'est une discipline, c'est beaucoup de choses différentes.
00:49 Maintenant, ce qui marche très bien, ce qu'on voit à travers GPT3, c'est qu'en fait, c'est l'amalgame d'énormément de corpus, de données,
00:58 c'est-à-dire d'ensemble de données qui viennent de notre race, qui sont des dialogues, qui sont des choses qu'on va chercher sur Wikipédia, etc.
01:03 qui permettent à un algorithme d'apprendre un certain niveau de connaissances.
01:09 Alors, il faut tout de suite dire qu'est-ce qu'il y a derrière, qu'est-ce qu'il y a dans le ventre cet algorithme.
01:14 Il s'est nourri de ces données de Wikipédia dans 2021, pas après, et il en fait des statistiques sur la succession des caractères.
01:21 On n'est même pas au niveau du mot et du sens, on est au niveau de la possibilité de prédire les mots suivants, la séquence des mots suivants,
01:29 mais non pas avec les mots, mais presque avec des sous-mots qui n'ont rien à voir ni avec les racines, ni avec le préfixe, suffixe, voilà.
01:35 - Ça c'est pour chaque GPT, mais il n'y a pas que ça. Il y a des robots, il y a...
01:40 - Bien sûr que non. Alors le robot c'est un objet, c'est une plateforme qui peut effectivement se mouvoir,
01:46 et qui peut faire des gestes et tout, et qui a plein de modules d'intelligence artificielle.
01:51 Alors ce qu'on sait faire c'est l'intelligence artificielle faible, c'est-à-dire dédiée à une tâche particulière,
01:55 et en cela elle peut être bien meilleure que nous. On le voit pour l'aide aux médecins, pour lire des radios,
02:00 on le voit dans d'autres secteurs, il faut absolument apprendre à l'utiliser.
02:04 - Est-ce que l'intelligence artificielle c'est forcément une reconstitution du fonctionnement du cerveau humain ?
02:09 - Absolument pas. Moi j'ai travaillé sur ces sujets de réseau de neurones pour ma thèse en 92.
02:14 Bon, alors le neurone qu'on modélise c'est juste un automate à seuil.
02:19 Tous les mathématiciens ou ceux qui ont fait un tout petit peu de ces sujets scientifiques
02:23 vont comprendre que c'est quand même assez simple. On somme une activité qui arrive sur un neurone,
02:27 le centre de la cellule, et suivant qu'elle dépasse ou pas un certain seuil, on va la propager à une autre cellule.
02:33 Dans notre cerveau on a une centaine différente, avec une architecture particulière,
02:37 dans ces machines c'est toujours le même, c'est un peu une cellule de l'air visuel,
02:41 et l'architecture est totalement artificielle et faite par des ingénieurs.
02:45 - Mais cette intelligence artificielle, Laurence de Villers, elle n'existe pas sans le génie humain ?
02:51 - Évidemment ! - Elle est créée par le cerveau humain ?
02:53 - Elle est créée par le cerveau humain. Elle est créée sur l'idée de mimétisme,
02:57 mais avec une simplification énorme. Ce qu'on a compris, c'est que dans notre cerveau,
03:01 on n'a pas des variables comme ça qui nous disent ces machins, ces trucs,
03:04 on reconstruit, et la mémoire a des traces, et on la reconstruit avec ce qu'on perçoit.
03:09 Et les machines, on leur apprend à faire ce genre de choses.
03:12 Donc elles ont par exemple des chiffres, des matrices de nombres, c'est ça qu'on apprend,
03:16 on modifie des petits points à l'intérieur de ces machines, c'est absolument pas explicable,
03:20 on parle de boîte noire, il faut pouvoir comprendre les concepts derrière,
03:23 et pouvoir rassurer, et pouvoir utiliser au mieux.
03:26 - On va en reparler sur cette éthique de l'intelligence artificielle,
03:32 mais comment dirais-je, cette intelligence artificielle, elle doit être maîtrisée.
03:39 Est-ce qu'un jour, la machine peut dépasser l'homme, tout simplement ?
03:42 - Ben non, c'est l'homme qui la crée.
03:44 - Ah oui, mais c'est... - En fait, il la crée, et le bluff...
03:46 - Vous dites ça parce que vous êtes optimiste, mais vous connaissez le fantasme qu'il y a autour de ça.
03:50 - Non, mais attendez, il se mélange à tout cela, des histoires de fantasme, de religion,
03:55 de marketing, de pouvoir économique, donc laissons retomber un peu tout cela,
04:00 et si on avait une vision un tout petit peu pragmatique des choses, de bon sens,
04:04 finalement, qu'est-ce qu'elle sait faire, qu'est-ce qu'elle sait pas faire,
04:07 et en quoi je peux être quand même un peu en décision,
04:11 il ne faut surtout pas être paresseux dans cette histoire et déléguer tout aux machines,
04:14 mais comme vous l'avez dit ce matin, on peut faire aussi des choses très intéressantes avec.
04:18 Donc, il faut absolument avoir cette façon d'avoir un libre arbitre sur ce que la machine vous propose.
04:23 C'est de l'aide à la décision.
04:24 - Et vous parlez aussi beaucoup de... enfin beaucoup, c'est un élément central de votre réflexion,
04:28 d'éthique par rapport à l'intelligence artificielle, ça veut dire quoi ?
04:31 - L'éthique, ça veut dire que j'utilise quelque chose que je comprends,
04:35 donc je comprends les concepts, c'est-à-dire c'est transparent, ça peut être expliqué un peu mieux que maintenant,
04:39 par exemple, il y a peut-être des données qui viennent du monde anglo-saxon qui sont dans ce chat GPT,
04:44 donc on a mouliné du langage sans notre culture au final.
04:48 - C'est-à-dire qu'il ne faut pas créer un monstre ou quoi, tout simplement ?
04:50 - Mais non, il s'agit de créer des outils utiles pour notre bien-être,
04:54 qui ne dépensent pas trop d'énergie, qui soient à peu près compréhensibles
04:58 et qu'on arrive à limiter, si vous voulez, les risques de manipulation,
05:03 de fausses informations qu'on pourrait reproduire à gogo,
05:07 et puis aussi de stéréotypes, on sait très bien que pour les femmes, par exemple,
05:10 on va monter à l'échelle si on continue à faire que 80% du monde actuel soit masculin quand il programme,
05:16 et 80% des objets chat-bot, etc., soient personnifiés avec plutôt un monde féminin,
05:22 comme la féminine Sophia, Siri, tout ça, c'est des mondes bizarres pour ça.
05:26 - Mais comment on va réglementer tout ça ? Comment on va légiférer tout ça ?
05:30 - Alors, étant chercheur, moi je suis au fait de l'état de l'art, si vous voulez,
05:35 de ces différents systèmes, comment on peut demain en plus actionner encore plus de choses.
05:39 Et donc il est important, et c'est un appel ce matin, que tous les chercheurs soient conscients
05:43 que la normalisation qui est en train de se jouer, c'est-à-dire en fait, on crée des lois,
05:47 AI-Hack, c'est en fait une loi européenne sur l'IA, comme on a fait pour le RGPD et les données privées,
05:52 on aura une loi qui va arriver vers 2025, il faut se préparer à ça, il faut aider l'industrie,
05:57 il faut travailler recherche, public-privé, main dans la main, pour arriver en Europe,
06:02 à donner ce qu'on voudrait dans ces machines, c'est-à-dire en fait à essayer de limiter les risques
06:07 de manipulation, de discrimination, d'influence, sans avoir aucunement compris de quoi il s'agit.
06:13 - C'est un chantier énorme.
06:14 - C'est un chantier énorme, qu'on n'arrivera pas à mesurer dans sa totalité, on n'arrivera pas à tout faire,
06:19 mais il faut absolument le commencer maintenant.
06:21 - Je voudrais revenir en une minute sur Chadjipiti.
06:25 J'ai vu passer hier sur les réseaux sociaux un tweet d'un enseignant,
06:29 qui donne un peu son témoignage, il dit avoir lu la copie d'un élève,
06:36 il dit "visiblement ça a été écrit avec Chadjipiti, c'est pas du copier-coller,
06:40 c'est un texte rédigé de manière assez impeccable, assez subtil, y'a pas de faute.
06:44 D'habitude il avait 4/20 à ses devoirs, là je vais lui mettre une super belle note, qu'est-ce que je fais ?"
06:50 - C'est un sujet central, je pense que vous le pointez du doigt,
06:54 c'est-à-dire qu'on n'est pas préparé à comprendre, à débusquer ce que font ces machines,
06:59 on n'est pas préparé à les utiliser, donc il faut changer la façon dont on fait des examens,
07:02 il faut changer sûrement la façon dont on s'occupe de l'éducation de nos enfants.
07:07 Or regardez les programmes, est-ce que vous avez vu qu'on a prévu de parler d'éthique de l'IA, de concepts autour de ça ?
07:12 - Pas vraiment non. - Non.
07:13 Eh bien moi j'appelle aussi là à ce que le gouvernement prenne réellement ses responsabilités,
07:17 si on veut demain construire un monde de gens capables de comprendre, capables d'innover,
07:22 capables d'avoir cette puissance intéressante que l'on voit apparaître...
07:24 - Et de maîtriser l'outil. - Et de maîtriser l'outil,
07:27 on a intérêt à travailler sur ces aspects, parce que ce sont des objets sociotechniques,
07:31 il faut savoir les construire, mais il faut aussi comprendre les conséquences,
07:34 donc absolument urgent que les enfants apprennent,
07:37 non pas seulement à programmer comme on le dit en 5e, mais aussi à comprendre les concepts derrière.
07:41 Donc moi je suis présidente de la Fondation Blaise Pascal,
07:43 de médiation culturelle en mathématiques et en informatique.
07:46 La personne qui a monté ça c'est Cédric Villani, que je pense tout le monde connaît maintenant,
07:51 et qui a impulsé cette vision, et je pense qu'il faut perdurer,
07:55 qu'est-ce qu'on fait au niveau national ?
07:56 On pousse des projets pour la médiation auprès des jeunes et auprès des filles,
08:01 pour qu'il y ait justement cet engouement pour la science de demain,
08:04 qui explique notre monde et qu'on devrait maîtriser.
08:07 - D'accord. Merci infiniment Laurence de Villers.
08:09 Je rappelle que vous êtes professeure d'informatique à la Sorbonne,
08:12 chercheuse et membre du Comité national d'éthique du numérique,
08:15 et vous avez publié, je renvoie nos auditeurs,
08:17 à l'ouvrage que vous avez publié, "Les robots émotionnels",
08:21 publié aux éditions de l'Observatoire, c'était en 2018.
08:24 - 2020 ! - Ah c'était en 2020, pardonnez-moi, deux ans d'erreur.
08:28 8h40, notez le médecin Jean-Emmanuel Bibaud qui sera à votre place,
08:32 on évoquera avec lui les formidables perspectives
08:35 qu'offre l'intelligence artificielle en matière médicale.
08:39 Merci, bonne journée. - Merci Lionel.

Recommandations