Peut-on faire confiance à l'intelligence artificielle?

  • l’année dernière
L'intelligence artificielle prends de plus en plus de place dans nos vie et soulève de nombreux enjeux éthiques. Métro s'est rendu au Mila, l'institut québécois d'intelligence artificielle, ainsi qu'au World Summit AI Americas afin de rencontrer des acteurs du milieu et mieux comprendre cette nouvelle réalité.

Transcript
00:00 L'intelligence artificielle prend de plus en plus de place dans nos vies,
00:03 elle va continuer de le faire et ça pose des enjeux éthiques.
00:06 Tout récemment, de nombreux chercheurs ont co-signé une lettre
00:09 pour demander l'arrêt temporaire de la recherche en intelligence artificielle.
00:12 Selon ces experts, le développement effréné de l'IA
00:16 pourrait représenter certains dangers pour l'humanité.
00:18 On s'est rendu à l'Institut québécois d'intelligence artificielle, le MILA,
00:22 qui est à l'origine d'avancées fondamentales dans ce secteur.
00:26 Avant de nous y rendre toutefois, nous avons demandé à l'IA Chad JPT
00:30 qui était Valérie Pisano et le robot nous a menti
00:33 en inventant un CV erroné pour la PDG. Nous lui en avons fait part.
00:37 La première chose à cadrer, c'est qu'on ne parle pas de toute l'intelligence artificielle.
00:41 On parle de très, très, très grands modèles d'intelligence artificielle.
00:45 Pour vous donner une idée, aujourd'hui dans le monde,
00:47 il y a quatre ou cinq compagnies qui ont les capacités
00:49 d'avoir des modèles de cette amplitude-là.
00:51 Puis on parle d'un modèle qui joue avec le langage ou avec les images.
00:55 Un modèle d'IA est comme un cerveau artificiel pour les ordinateurs.
00:59 Tout comme notre cerveau nous permet d'apprendre de nouvelles choses
01:01 et prendre des décisions, un modèle d'IA aide les ordinateurs à apprendre
01:05 et à prendre des décisions par eux-mêmes.
01:07 Ils n'ont pas été programmés nécessairement pour donner une réponse qui est exacte.
01:12 Ils ont été programmés pour chatter.
01:14 Chad JPT. Ils ont été programmés pour avoir un dialogue avec nous.
01:17 Donc la façon qu'ils fonctionnent, c'est qu'ils vont commencer avec un mot.
01:20 Valérie Pisano est.
01:22 Puis ensuite, le modèle va prédire le prochain mot
01:26 en fonction de ce qui est le plus probable,
01:27 étant donné l'interaction qu'il a avec toi.
01:30 Un petit peu comme on fait entre humains par ailleurs.
01:32 Donc dans certains cas, il n'y a pas d'enjeu.
01:34 C'est 100 % vérifiable, 100 % exact.
01:36 Dans d'autres cas, c'est créatif, c'est nouveau,
01:38 c'est du contenu qui est autogénéré.
01:41 L'intelligence artificielle permet de créer des fausses preuves,
01:43 des fausses informations, des fausses images.
01:46 Vous avez sûrement entendu parler des deepfakes.
01:48 Tout ça, ça peut créer des problèmes en matière de vie privée,
01:51 de confiance envers les institutions et de sécurité nationale.
01:54 Ce n'est pas tant l'intelligence artificielle le problème.
01:57 C'est des applications qui les rendent super accessibles à tout le monde,
02:01 mais sur lesquelles on n'a pas encore évalué ces risques-là.
02:04 Puis on ne se met pas de paramètres sur ce qui est permis ou pas permis.
02:07 La photo du pape, à la limite, si c'est écrit,
02:10 regardez comme c'est drôle, c'est complètement créatif,
02:12 voici une fabulation.
02:14 Bien, OK, quand on s'en sert, puis on la met de l'avant,
02:17 puis que les gens pensent que c'est peut-être factuel.
02:20 Là, par exemple, ça commence à être glissant,
02:23 ça commence à être très dangereux.
02:24 - Il y a quand même des choses qui ont été faites
02:26 pour tenter d'encadrer l'intelligence artificielle.
02:28 Reste que ça demeure entre les mains de quelques grandes compagnies.
02:31 Ce sont des modèles très puissants
02:33 qui se développent de manière très, très rapide.
02:35 Ils sont accessibles dans le monde entier
02:37 et pourtant, presque personne ne les encadre.
02:40 Pour l'instant, on s'en remet à la bonne foi
02:42 de ces compagnies qui développent ces logiciels,
02:44 les rendent accessibles au monde entier
02:45 et qui se sont lancées dans une course effrénée.
02:48 - On sent que là, il y a beaucoup plus d'appétit
02:51 à développer la prochaine application,
02:52 à développer la prochaine version, la prochaine plateforme.
02:55 C'est un petit peu ça qui suscite notre inconfort en ce moment.
02:58 ♪ ♪ ♪
03:00 - Peu importe comment est-ce qu'on va faire,
03:02 pour quelle utilité on cherche à faire de l'IA,
03:05 comment est-ce qu'on fait pour prendre un projet
03:08 puis le faire de façon responsable de A à Z?
03:11 Fait que vraiment, en travers tout le processus,
03:13 le cycle de vie de l'IA.
03:14 Donc, notre auditoire principal,
03:15 généralement, quand on forme l'entreprise,
03:17 ce sont vraiment les scientifiques.
03:19 Fait que les gens qui codent,
03:20 ce sont les scientifiques qui sont très bons dans ce qu'ils font,
03:23 mais qui n'ont pas nécessairement eu de cours d'éthique à l'université,
03:26 qui n'ont pas nécessairement vu des aspects de d'autres disciplines.
03:30 Donc, l'approche qu'on amène,
03:32 c'est de un, une espèce de mise à niveau.
03:34 Donc, on explique, bien, c'est quoi l'éthique,
03:36 c'est quoi l'IA responsable,
03:38 comment est-ce que ça peut avoir un impact
03:40 dans leur travail, dans ce qu'ils font.
03:42 Et puis après ça, de façon plus importante encore,
03:45 ce qu'on essaie de faire, c'est d'un peu lier le pont qu'il y a
03:49 entre l'éthique et les valeurs à haut niveau,
03:53 puis la pratique.
03:54 Parce que pour un scientifique qui essaie de coder son algorithme,
03:57 j'ai beau lui dire que c'est important la vie privée,
04:00 c'est important le bien-être, puis l'environnement,
04:03 comment est-ce que ça se traduit concrètement dans les pratiques?
04:06 Alors, comment est-ce qu'on fait pour s'assurer
04:07 que l'intelligence artificielle n'a pas un impact négatif sur notre société?
04:12 Quand on crée un modèle d'IA, quand on crée un algorithme,
04:14 on va lui donner des bases de données.
04:16 Ces bases de données comportent les mêmes biais
04:18 qu'on retrouve dans notre société à tous les jours.
04:20 Le sexisme et le racisme, par exemple.
04:22 Si l'IA reproduit ces biais,
04:24 cela peut avoir un impact négatif sur ces groupes-là.
04:27 On s'est rendus au World Summit AI,
04:30 les 18 et 19 avril à Montréal,
04:32 pour rencontrer des professionnels du milieu de l'intelligence artificielle
04:35 et leur demander qu'est-ce qu'ils en pensent.
04:37 Amazon a un algorithme
04:40 où il s'est entraîné sur des données historiques
04:43 et il s'est rendu compte que les hommes préféraient les données historiques
04:46 pour les travaux de recherche.
04:47 Donc, l'algorithme AI a amplifié ces biais.
04:51 C'est un risque éthique
04:53 que les scientifiques de données doivent considérer
04:56 en créant leurs modèles d'IA.
04:58 On a vu une lettre ouverte
05:00 demandant une pause dans l'IA et son développement.
05:02 Au-delà des biais, l'IA pose des problèmes
05:05 de transparence et de responsabilité.
05:07 Par exemple, comment expliquer et justifier
05:10 les prises de décisions qui sont guidées par l'IA?
05:13 La façon dont ces modèles apprennent des informations
05:17 c'est de leur fournir des données.
05:19 Ils provient aussi ce que l'on veut être le résultat désiré.
05:23 C'est typiquement appelé le target ou le label.
05:25 Ce que le modèle fait sous les couvres,
05:27 c'est qu'il apprend les relations
05:29 entre les fonctionnalités individuelles dans le modèle
05:32 avec respect à ce target ou à ce label.
05:35 Souvent, cette information est cachée sous les couvres
05:38 à l'intérieur de ce modèle.
05:40 Ce que nous faisons, c'est qu'on expose ces connaissances,
05:43 ces relations de niveau des fonctionnalités
05:45 avec l'influence sur les résultats du modèle aux utilisateurs.
05:49 Si je suis en train d'appliquer pour un logement
05:52 et que je donne mon revenu à une entreprise
05:55 qui va me donner un logement, peut-être une banque,
05:58 est-ce que mon revenu est pris en compte de manière adéquate?
06:01 Ou, en alternance,
06:03 y a-t-il des facteurs de la paix
06:06 où, peut-être, le modèle, en tant que fonction de données,
06:09 pas en tant que fonction de données,
06:11 a appris que certaines démographies
06:13 sont moins liées à la crédibilité
06:15 ou ne devraient pas recevoir un logement.
06:17 Nous offrons des outils pour expliquer et interpréter
06:21 le comportement du modèle
06:23 pour mitiger les impacts potentiels
06:26 sur les classes protégées,
06:28 sexe, race, religion, etc.
06:31 Présentement, dans l'industrie de l'intelligence artificielle,
06:34 il y a deux grands courants de pensée.
06:36 Le premier, c'est de dire, oui,
06:38 il y a urgence à encadrer cette technologie émergente.
06:41 L'autre, c'est de dire, non, on ne peut pas freiner l'innovation,
06:44 on ne peut pas arrêter la créativité.
06:47 Le développement de l'apprentissage de machines
06:49 ou le développement de l'intelligence artificielle
06:51 va continuer, peu importe ce qu'il arrive.
06:53 Il va être difficile de fermer la boîte de Pandora
06:57 maintenant qu'elle est ouverte.
06:59 Donc, ce qui est le mieux, c'est de trouver des systèmes
07:01 ou de développer des systèmes meilleurs
07:03 pour monitoriser le comportement de ces modèles,
07:06 pour considérer l'interaction humaine,
07:08 le facteur humain dans la loupe,
07:10 pour s'assurer que les modèles soient utilisés
07:14 comme outils et pas comme remplacements.
07:18 Le Canada et l'Union européenne sont actuellement
07:20 les seuls à travailler sur une loi
07:22 qui encadrerait cette technologie émergente.
07:24 Les principes de ce projet de loi sont toutefois assez généraux.
07:27 On ne sait pas comment les entreprises seront tenues
07:29 de les respecter, et ce projet de loi
07:31 ne devrait pas entrer en vigueur avant 2025.
07:34 [Musique]

Recommandée