• l’année dernière
Transcription
00:00 Non seulement le chat GPT peut se tromper, mais quand il se trompe, il se trompe avec énormément de panaches.
00:05 Il donne de fausses réponses avec beaucoup d'aplomb.
00:10 Il faut faire extrêmement attention avec cet outil.
00:12 Je m'appelle Rudy, j'ai une chaîne TikTok de vulgarisation où je parle d'intelligence artificielle,
00:23 notamment des intelligences artificielles génératives, chat GPT,
00:26 midi-journée, pour tout ce qui est images, etc.
00:30 Globalement, je fais une veille technologique sur toutes ces solutions-là.
00:33 Et également, je travaille à l'IMERER, qui est une école d'informatique et de robotique,
00:36 où nos étudiants sont formés au bas niveau de l'intelligence artificielle,
00:40 c'est-à-dire vraiment, ils font les algorithmes de machine learning, etc.
00:44 Par exemple, typiquement, le fait que ces IA soient aussi fortes actuellement
00:53 que les médecins pour diagnostiquer des maladies,
00:55 c'est quand même fort de se dire qu'on a peut-être éventuellement,
00:57 dans un futur proche, un médecin dans la poche pour nous aider.
01:02 Pour la création aussi de logiciels, etc., c'est vrai que la possibilité de coder aussi efficacement,
01:09 ça fait peur, par exemple, pour les développeurs qui voient leur métier qui va totalement être chamboulé,
01:12 mais ça fait aussi que pour créer des nouvelles choses que nous,
01:15 on va pouvoir utiliser en tant qu'humains, c'est assez formidable, ça va aller extrêmement vite.
01:18 Pour créer du contenu, pour vulgariser aussi des choses,
01:22 ChargeDpt, il est très fort, vous avez un document extrêmement complexe,
01:25 vous lui envoyez, donc pour l'éducation, etc., vous lui envoyez,
01:28 il est capable de vous l'expliquer, vous pouvez lui poser des questions sur ce document,
01:31 il est capable de vous aider à le comprendre, etc.
01:33 Donc, par exemple, à chaque fois qu'il y a une problématique qui est soulevée,
01:37 il y a des enjeux positifs qui sont soulevés derrière.
01:39 Dans l'enseignement, la problématique, c'est les étudiants peuvent tricher avec,
01:42 c'est super problématique.
01:43 L'autre côté, c'est mais, objectivement, s'ils utilisent ChargeDpt correctement,
01:46 ils peuvent se former encore plus efficacement et apprendre encore plus efficacement.
01:50 [Musique]
01:55 Sur les postes actuels, dans la façon qu'ils ont de fonctionner, oui.
01:58 Après, il faut aussi se remettre en perspective un petit peu et dézoomer un peu sur l'histoire.
02:03 À chaque fois qu'il y a eu des révolutions technologiques, on a tout le temps dit ça.
02:06 Quand il y a eu les machines dans les usines qui ont commencé à arriver,
02:10 ça allait être les gens dans les usines qui allaient perdre leur travail
02:14 et tout le monde allait se retrouver au chômage.
02:16 Ce qui s'est passé, c'est qu'en effet, il y a des machines qui ont concrètement
02:19 remplacé des postes et ça va être pareil avec les intelligences artificielles,
02:23 mais il va y avoir un déplacement, une évolution des métiers.
02:27 C'est le plus probable qu'ils vont faire que, voilà, ça va être un petit peu la chaise musicale.
02:31 Peut-être pendant un petit moment, il va y avoir peut-être des suppressions de postes à court terme,
02:34 mais sur le moyen terme, il va surtout y avoir aussi des nouveaux métiers qui vont être créés.
02:38 Ils devraient tous s'y retrouver.
02:39 [Musique]
02:44 Oui, ChargeDpt peut se tromper, oui.
02:46 J'ai vu le cas, par exemple, d'un médecin américain, je n'ai plus son nom,
02:49 qui avait fait diagnostiquer une maladie assez complexe à ChargeDpt d'une patiente.
02:55 ChargeDpt avait trouvé la bonne maladie.
02:57 Sur le diagnostic complet, il avait trouvé la bonne maladie, il n'y avait pas de soucis.
03:01 Par contre, dans sa réponse, il avait sourcé une étude qui n'existait pas.
03:04 Non seulement ChargeDpt peut se tromper, mais le problème, c'est que quand il se trompe,
03:08 il se trompe avec énormément de panaches.
03:10 Il donne de fausses réponses avec beaucoup d'aplomb.
03:15 Il faut faire extrêmement attention avec cet outil.
03:17 [Musique]
03:24 ChargeDpt, c'est beaucoup plus difficile de lui faire dire des choses qui sortent du cadre,
03:31 parce qu'il a été extrêmement cadré.
03:33 Microsoft avait sorti une intelligence artificielle dont j'ai perdu le nom il y a 2-3 ans,
03:39 qui s'entraînait sur les données, sur les échanges qu'elle avait avec les utilisateurs en direct.
03:44 Il y en avait qui avaient commencé à la spammer en lui disant des trucs homophobes, etc.
03:50 Du coup, l'IA est devenue un néo-nazi.
03:52 Toute la question par rapport à ça, c'est l'entraînement et le cadre qu'on donne à l'intelligence artificielle.
03:57 ChargeDpt et OpenAI ont énormément fait de filtrations sur les données qu'ils ont données à leur IA pour s'entraîner.
04:03 Il faut savoir qu'elles ne s'entraînent pas directement sur les échanges qu'elle a avec les utilisateurs.
04:09 Quand vous, vous discutez avec l'IA, ce n'est pas en train d'entraîner son modèle directement.
04:12 Elon Musk, par exemple, veut créer une intelligence artificielle qu'il appelle TruthGpt,
04:17 où il veut supprimer ses biais.
04:19 Pour empêcher ces dérives, on est obligé de mettre en place des biais et des cadres autour de cette intelligence artificielle.
04:25 Mais quelque part, telle société décide que ça c'est correct, ça c'est pas correct, etc.
04:30 Ça pose aussi la question dans l'autre sens, qui est de savoir comment on encadre ces IA.
04:37 C'est très difficile de faire travailler sur des failles de cybersécurité.
04:41 Mais il y a des méthodes qui permettent un petit peu de le débrider.
04:44 On appelle ça les méthodes DAN.
04:47 On va lui expliquer qu'il ne doit pas suivre les règles et qu'il doit être un rebelle.
04:51 ChargeDpt se met justement de ne plus suivre les règles qu'on lui a données.
04:54 Et il est capable de trouver des failles de cybersécurité qui sont assez complexes à trouver.
05:00 Et ensuite, il y a aussi d'autres outils, d'autres applications, qui sont très compliquées à trouver.
05:05 D'autres outils, d'autres applications, en dehors de ChargeDpt, qui utilisent l'intelligence artificielle,
05:09 qui peuvent permettre d'accentuer le nombre de cyberattaques.
05:12 Mais de toute façon, ça, la cybersécurité, c'est une problématique.
05:15 Et on doit former des gens, engager des personnes dans les entreprises qui sont spécialisées dans la cybersécurité.
05:21 Et sinon, on va au devant de plus en plus de problèmes par rapport à ça.
05:30 Je pense que c'est toujours pareil, ça ne se passe jamais comme dans les films de science-fiction.
05:35 Par contre, est-ce que c'est possible qu'il y ait un petit scénario dystopique qui se profile ?
05:41 Je pense que oui. Je ne pense pas que ce soit le scénario le plus probable.
05:45 Je pense qu'il y a plein de choses qui peuvent se passer avant, etc.
05:48 Et à mon avis, ce ne sera pas comme ça que ça va se passer.
05:51 Si en effet, on ne fait pas suffisamment attention, ça peut quand même se retourner contre nous et venir nous mentir.
05:59 Je sais que moi, en ce moment, je fais des conférences dessus.
06:01 Et c'est vrai qu'à chaque fois que je commence à parler d'exos négatifs, je vois les gens qui sont abattus par rapport au fait que
06:06 "ça peut faire trop de choses, ça va prendre mon travail, en plus ça va terminer en Terminator, c'est terrible".
06:10 Il faut vraiment tempérer par rapport à ça.
06:12 Je pense qu'il faut le garder à l'esprit parce que c'est important que tout le monde prenne conscience des enjeux
06:18 pour que justement on puisse légiférer correctement, qu'on puisse peut-être éventuellement faire des choses pour gagner en souveraineté par rapport à ça.
06:25 Mais par contre, il ne faut pas perdre en vue principale que ces intelligences artificielles vont nous apporter tellement de choses,
06:31 c'est tellement fort, ça va nous permettre d'avoir tellement de choses positives, je pense que le jeu en vaut largement la chandelle.

Recommandations