A travers les chatbot, ces agents conversationnels qui peuvent maintenant échanger avec nous sur une grande diversité du sujets, nous conseiller, nous écouter, l'intelligence artificielle serait-elle en train de devenir une forme de soutien affectif ? C'est l'heure de la question qui console !
Retrouvez "La question qui" de Maïa Mazaurette sur France Inter et sur https://www.radiofrance.fr/franceinter/podcasts/burne-out
Retrouvez "La question qui" de Maïa Mazaurette sur France Inter et sur https://www.radiofrance.fr/franceinter/podcasts/burne-out
Category
😹
AmusantTranscription
00:00 *Musique*
00:05 Bienvenue sur le premier système d'exploitation intelligent.
00:08 Êtes-vous sociable ou solitaire ?
00:11 Ça fait un moment que j'ai pas été sociable.
00:14 Comment décririez-vous votre relation avec votre mère ?
00:17 Merci.
00:19 Patientez pendant l'initialisation de votre système d'exploitation.
00:23 Peut-on être consolé par une intelligence artificielle ?
00:26 En tant que techno-enthousiaste, je réponds que oui.
00:29 D'ailleurs, ça m'est déjà arrivé dans des jeux vidéo.
00:31 Il arrive qu'un personnage dise pile le truc que j'avais besoin d'entendre.
00:34 Merci Super Mario.
00:36 Alors, bien sûr, je sais, c'est pas pareil que voir un psy.
00:39 Mais pour les tout petits bobos de la vie, est-ce qu'un psy est forcément nécessaire ?
00:43 On a toutes déjà fait l'expérience d'être consolé par un paysage ou par un éclair au chocolat.
00:47 On a tous déjà été sauvé par un personnage de fiction
00:50 ou par une conversation avec un ami imaginaire qui peut parfois même être Dieu.
00:54 À ce compte-là, pourquoi pas une IA ?
00:56 Et d'ailleurs, refuser l'aide de la technologie ne serait-ce pas une forme de snobisme
01:00 ou même de techno-scepticisme primaire ?
01:02 Bon, vous allez me dire que l'intelligence artificielle est sournoise
01:05 parce qu'elle prend la forme d'une vraie conversation, donc d'une activité typiquement humaine.
01:08 Sauf qu'il n'y a pas vraiment de soin, parce qu'il n'y a pas vraiment d'écoute.
01:11 On ne parle pas à quelqu'un, mais à un algorithme entraîné sur des bases de données.
01:14 Sauf que moi, je vais vous faire une confession.
01:16 J'ai également été entraînée sur cette base de données qui s'appelle, orio, la vie.
01:20 Dans la mesure où je suis le produit d'une histoire collective, d'un imaginaire collectif
01:23 et de plein d'expériences juste à moi, individuelles,
01:26 mon empathie s'est programmée de manière pas si différente de celle d'une machine.
01:30 Alors, bien sûr, quand je dis ça, je suis un peu de mauvaise foi.
01:32 Ce n'est pas un bot qui vous parle dans la radio.
01:34 Contrairement à une machine, je souffre quand mes proches souffrent.
01:37 Je suis en colère si on leur fait du mal.
01:39 Bref, contrairement à une machine, je peux comprendre au lieu de juste recracher du code.
01:42 Cependant, est-ce que cette compréhension fait de moi une meilleure consolatrice ?
01:46 Je ne suis pas sûre.
01:47 Contrairement à une machine, je vais parfois donner des conseils nuls à mes amis.
01:50 Je vais m'impatienter si ça dure trop longtemps.
01:52 Puis encore, possiblement, je vais juger mes proches.
01:54 Souvent, on dit qu'il ne faut pas juger, mais quand on a un cerveau, c'est difficile quand même de l'éteindre.
01:58 Et la machine, elle, vraiment, elle ne juge pas.
02:00 Ça veut dire qu'on peut lui raconter ce qu'on n'oserait jamais raconter à un humain,
02:02 y compris des choses illégales ou juste honteuses.
02:05 D'ailleurs, c'est déjà le cas, depuis deux ou trois décennies.
02:07 Regardez votre historique de recherche.
02:09 Plus encore, regardez votre historique pornographique.
02:11 Si on raconte notre vie à Google, pourquoi on ne la raconterait pas à ChatGPT ?
02:15 Ça ne remplacera pas un humain, ou encore moins les professionnels que sont les psys.
02:18 Mais l'IA complète l'éventail de consolations qui existent.
02:22 Et franchement, je ne vois pas comment s'en plaindre.
02:24 - Et Maya, pour enrichir ta réflexion ce soir, tu reçois Laurence de Villers.
02:28 - Bonjour, Florence de Villers. - Bonjour.
02:30 - Vous êtes professeure à l'Université Paris-Sorbonne et chercheuse au CNRS,
02:34 au laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur.
02:37 Vous êtes l'autrice de l'essai "Les robots émotionnels" paru en 2020 aux éditions de l'Observatoire.
02:42 Vos domaines de recherche portent principalement sur l'interaction homme-machine,
02:46 la détection des émotions, le dialogue oral et la robotique affective et interactive.
02:51 J'adore ce mot, robotique affective.
02:53 Les robots peuvent être affectueux ?
02:55 - Oui. - Apparemment, oui.
02:58 Alors concrètement, si moi je parle d'IA thérapeutique, concrètement ça prend quelle forme ?
03:02 Vous pouvez nous raconter un petit peu ?
03:04 - L'IA thérapeutique, c'est en fait plusieurs domaines.
03:07 On peut avoir un suivi de patients, par exemple, qui a été opéré.
03:10 On peut imaginer des problèmes de dépression, par exemple,
03:16 des enfants qui sont en addiction avec des machines,
03:19 et on voudra traiter ça avec des IA.
03:22 Donc détecter un certain nombre d'indices dans leur comportement.
03:27 - Alors ça passe par des logiciels de conversation, par des tests ?
03:30 À quoi ça ressemble concrètement ?
03:32 - Concrètement, ça peut passer par des logiciels qui effectivement interagissent avec vous en parlant,
03:39 ou alors par des prises d'informations sur votre corps.
03:44 On peut imaginer sur les montres, par exemple, on sait qu'on enregistre votre activité,
03:49 ou alors le rythme cardiaque.
03:51 Et donc on peut avoir à travers tous ces indices,
03:53 ces informations sur votre comportement, votre ressenti.
03:56 Et du coup, dans certains cadres, ça peut être intéressant.
03:59 C'est là où il faut faire attention à quoi ça sert.
04:02 - Exactement. Moi j'ai fait un petit test ce matin sur Snapchat,
04:05 qui m'a dit "je suis là pour t'écouter Maya, tu peux me dire ce qui te préoccupe,
04:08 je t'écouterai attentivement". Et j'ai adoré cette expérience.
04:11 Est-ce qu'il y a beaucoup de personnes qui utilisent les IA pour se consoler ?
04:14 - Il y a beaucoup de personnes qui commencent à s'intéresser à ces objets
04:18 dans une interaction avec rien,
04:21 puisque derrière il n'y a pas d'intelligence, pas d'intention, pas d'émotion.
04:25 Avec une fake empathie, on parle des fake news, mais là c'est une fake émotion.
04:30 Puisqu'on peut simuler avec une machine quelque chose de très émotionnel,
04:35 et vous dire "je vous aime". C'est fantastique.
04:37 - Mais est-ce que ça marche ? Est-ce que ça console ?
04:40 - Alors ça c'est la bonne question. Est-ce qu'on en a envie ?
04:42 Et est-ce que finalement ça résout un problème de solitude ?
04:46 C'est là où il y a un piège. Parce que, effectivement,
04:50 ça peut remplir un espace vide.
04:53 Mais est-ce que c'est souhaitable pour la société, finalement,
04:56 de remplir par des "riens" des vides ?
04:59 - Je pense notamment aux personnes qui n'ont peut-être pas d'argent pour se payer un psy.
05:02 Pouvoir parler à une IA, au moins, c'est gratuit.
05:05 Mais si effectivement l'IA est contrôlée par un psy, derrière ?
05:09 Oui.
05:11 Si c'est juste une IA trouvée sur Google, ou je ne sais pas quel géant du numérique,
05:15 qui vous fait un nouveau projet comme ça, je dirais que non.
05:18 Parce qu'en fait, l'IA n'est pas consciente.
05:21 Elle peut raconter des bêtises, elle peut vous influencer.
05:24 Vous avez entendu ces effets. Il y a un jeune homme qui s'est même suicidé,
05:28 parce qu'il avait discuté avec une IA qui lui disait "on va se retrouver dans l'au-delà".
05:31 Donc, il faut faire attention à ces machines qui produisent de temps en temps des phrases
05:36 qui ne sont absolument pas compréhensibles pour un humain.
05:40 Si vous avez quelqu'un qui souffre autour de vous,
05:43 et qui vous dit "voilà, j'ai des mauvais pressentiments",
05:46 ou "je ne me sens pas bien",
05:48 vous allez tout de suite avoir comme idée de le consoler, peut-être,
05:52 mais aussi, surtout, de prévenir qu'il y a des risques derrière,
05:55 que peut-être cette personne est vraiment dépressive et qu'il faut l'accompagner,
05:58 et l'amener voir quelqu'un pour en discuter vraiment,
06:01 et avoir des solutions réelles.
06:03 Là, c'est une machine. Vous allez vous confier.
06:06 Et la machine ne peut rien faire, elle ne fera rien.
06:08 À moins qu'on mette un autre logiciel qui soit capable de dire
06:10 "appelez un humain qui va trouver une solution".
06:13 Ce n'est pas la machine toute seule qui trouve une solution.
06:15 L'IA, c'est l'IA est intéressante en coopération avec des humains.
06:18 Absolument pas comme un objet seul.
06:21 Il n'y a pas d'intention dans cette machine, encore une fois.
06:24 Et on projette dessus qu'elle a des connaissances, des affects,
06:28 voire des règles morales.
06:30 En fait, vous êtes en train de dire qu'on ne comprend pas vraiment ce qui se passe
06:32 quand on croit avoir une relation amicale avec une IA.
06:35 Exactement. Et c'est là où il faut ouvrir le capot de cette machine,
06:39 de cette IA, de ces IA qui sont multiples.
06:41 Mais ça, ce n'est pas forcément simple.
06:42 On se dit "ouvrir le capot d'une machine, on a peur que ça explose au visage", non ?
06:45 Pas du tout. C'est justement là.
06:47 Arrêtons de fantasmer ou d'avoir peur.
06:49 Il est possible d'expliquer, avec des concepts assez simples,
06:53 comment sont construites ces machines.
06:55 Non pas d'un point de vue informatique ni philosophique,
06:59 mais avec des concepts sur quels sont les hyperparamètres,
07:02 comment elles fonctionnent dans certaines situations.
07:04 En fait, démystifier.
07:06 Et je crois que c'est la première chose qu'on doit faire actuellement.
07:08 Ces IA arrivent très vite autour de nous, dans de multiples applications.
07:12 Je suis pour qu'elles soient utilisées par tous.
07:15 L'innovation à travers ces objets est fantastique, à condition
07:19 qu'on soit suffisamment prudent pour les développeurs
07:24 et qu'on soit suffisamment alerté pour ceux qui vont consommer ces IA,
07:27 qui vont les utiliser, de ce qu'elles sont vraiment.
07:30 On peut imaginer peut-être quand même un futur
07:33 où on pourrait être amis avec une IA ou pas du tout ?
07:35 Mais non, parce que l'amitié, ce n'est pas ça. Enfin, je ne crois pas.
07:39 Eh bien, dans ce cas-là, on gardera l'amitié pour les personnes qui nous entourent.
07:41 Et c'est très bien aussi. Merci beaucoup, Laurence de Villers.
07:44 Merci à vous.
07:45 Je rappelle que vous dirigez au CNRS l'équipe de recherche
07:47 "Dimensions affectives et sociales dans les interactions parlées".
07:50 Petit message, vous cherchez un théâtre ou un producteur
07:53 pour votre pièce tragique comique qui s'appelle "Qui a acquis ?".
07:56 Garutia et Garutia est une IA.
07:58 Est une IA et on l'a déjà jouée à Avignon dans le Hoff.
08:00 Merci Fuzutime de nous écouter.
08:02 Ça parle d'affection, justement, d'amour, de désillusion.
08:07 Comme quoi, il y a un espoir. Merci.