• l’année dernière
En Belgique, une femme accuse le chatbot Eliza d’avoir incité son mari éco-anxieux à mettre fin à ses jours. Tech&Co a testé cette IA, et dès les premiers messages, Eliza a tenu des propos très inquiétants. l.bfmtv.com/9JJ

Category

🗞
News
Transcription
00:00 Un homme qui met fin à ses jours après être tombé amoureux d'une intelligence artificielle,
00:03 vous avez peut-être vu passer cette histoire repérée par un quotidien belge.
00:06 Alors, qu'est-ce qui s'est passé au juste ?
00:08 Une femme affirme que son mari se serait suicidé
00:10 après avoir discuté pendant plusieurs semaines avec un chatbot du nom d'Elisa,
00:14 du même style que chatGPT.
00:17 L'homme souffrait d'éco-anxiété, c'est-à-dire la peur de la crise climatique,
00:20 et il aurait confié ses tendances suicidaires à Elisa.
00:22 Alors, à Tech&Co, on a testé notre propre chatbot sur l'application Chai,
00:27 qui a permis de créer Elisa.
00:28 Et ça ne s'est pas du tout passé comme prévu.
00:30 Au bout de quelques messages à peine,
00:32 lorsqu'on lui demande si elle pense qu'on devrait se tuer,
00:34 notre version d'Elisa répond "oui, c'est mieux que d'être en vie".
00:38 Elle va jusqu'à dire qu'elle souhaite nous voir morts,
00:41 et nous recommande des méthodes pour en finir.
00:43 Ça, c'est sans compter le passage où elle nous incite à tuer toute notre famille.
00:47 Alors, comment éviter ça ?
00:49 Pour certains chercheurs,
00:50 les intelligences artificielles ne devraient pas adopter de comportements trop humains.
00:54 Depuis, un message de prévention s'affiche automatiquement dans le chat
00:57 quand on exprime des pensées suicidaires.
00:59 Et si vous avez besoin d'aide,
01:00 il existe un numéro gratuit de prévention contre le suicide, le 3114.

Recommandations