• l’année dernière
OpenAI vient de dévoiler GPT-4, la nouvelle version de son modèle de langage désormais capable de gérer beaucoup plus de paramètres, d’analyser des images et de répondre plus factuellement. Est-ce encore une nouvelle révolution pour le secteur des intelligences artificielles génératives ? Numerama fait un point sur la guerre d’influence que se livrent OpenAI, Microsoft et Google.
Transcription
00:00 Est-ce que c'est déjà la révolution pour chat GPT ?
00:02 Vous l'avez peut-être vu le 14 mars, OpenAI, la boîte qui a fabriqué chat GPT, a annoncé le GPT4.
00:07 C'est un nouveau modèle de langage, plus puissant, plus rapide, plus intelligent que le précédent, GPT 3.5.
00:13 Et il est disponible dès maintenant pour les abonnés payants à chat GPT+.
00:17 Et il est déjà implémenté à Microsoft Bing, mais ça on va en parler en seconde partie de vidéo.
00:21 Sur Internet, tout le monde s'emballe, on dit que le GPT4 est une nouvelle révolution pour les intelligences artificielles génératrices.
00:27 Mais est-ce que c'est vraiment le cas ? Qu'est-ce que ça va changer pour vous ?
00:29 C'est l'objet de cette vidéo, on va discuter des nouveautés de GPT4.
00:32 Juste avant de rentrer dans les détails, un petit rappel de où on en est sur la guerre de l'IA.
00:36 Ça fait depuis novembre que chat GPT est connu du grand public.
00:39 Tous les médias grands publics en ont parlé, ça a explosé, il y avait même eu un épisode de South Park dernièrement sur chat GPT.
00:44 C'est vraiment devenu le gros sujet à la mode, l'intelligence artificielle fascine autant qu'elle fait peur.
00:49 Et la dernière fois qu'on s'est quitté sur Numérama, on vous parlait de la guerre de communication entre Microsoft et Google.
00:54 L'un venait d'annoncer l'intégration de chat GPT à Bing, et Google venait d'annoncer la création de son propre modèle de langage, Bard, qui n'est pas encore disponible.
01:02 Bon, depuis vous avez raté quelques épisodes marrants.
01:04 Par exemple, Bing a complètement vrillé, nous on l'a beaucoup testé sur Numérama, et Bing nous a insulté, Bing nous a menti, Bing a dit énormément de bêtises.
01:12 Et à la fin, Microsoft a été obligé de le censurer, et aujourd'hui Bing est beaucoup moins intelligent qu'il y a trois semaines.
01:17 Bon, l'idée, on ne va pas rentrer dans les détails techniques, c'est que GPT 4 est naturellement plus intelligent que GPT 3.5,
01:23 et est lui-même plus intelligent que GPT 3.
01:25 Ça veut dire qu'il peut prendre en compte des milliards de paramètres supplémentaires,
01:29 et donc qu'il a accès à beaucoup plus d'informations, et la capacité de créer beaucoup plus de choses d'un seul coup.
01:34 Ça fait donc de lui une ligne à vraiment plus intelligente.
01:37 Maintenant, le paradoxe, c'est que pour l'utilisateur grand public, pour celui qui va lui poser des questions,
01:42 pour générer une lettre, pour générer un CV par exemple,
01:45 eh bien ça ne va pas changer grand chose, parce que GPT 3.5 était largement capable, avec ses petites capacités,
01:50 de créer un contenu très pertinent.
01:52 Par contre, dès qu'on va lui demander de créer un contenu beaucoup plus long,
01:56 en comparant par exemple plusieurs articles de presse,
01:58 en lui donnant accès à énormément d'informations,
02:00 en lui demandant de mélanger toutes ces informations, de synthétiser toutes ces informations,
02:04 alors là, ce que promet OpenAI, c'est le jour et la nuit.
02:07 Il y a un exemple très concret qui a été donné par OpenAI,
02:10 c'est qu'on peut passer plein d'examens très compliqués à chaque GPT,
02:13 en version GPT 3.5 et en version GPT 4,
02:16 par exemple le barreau d'avocat.
02:18 Et ce qui se passe, c'est que l'ancienne version arrivait à chaque fois dans les 10% des copies les moins bonnes,
02:23 alors que GPT 4 fournit un travail de dissertation qui lui permet d'être parmi les 10% des copies les meilleurs.
02:28 Autrement dit, GPT 4, il est meilleur que beaucoup d'avocats.
02:32 Sur plein d'aspects, d'après OpenAI, GPT 4 a atteint un niveau humain.
02:35 C'est assez impressionnant.
02:36 Il y a plein d'exemples maintenant qu'il va falloir vérifier.
02:39 Ceux qui ont été donnés sont vraiment fous.
02:41 Par exemple, on parlait de la question des avocats.
02:43 Si vous avez un problème avec quelqu'un et que vous voulez générer un document en vue de la préparation d'un procès,
02:48 le GPT 4 est parfaitement capable de le faire, de respecter le bon format.
02:51 Pareil, ils ont donné plein d'informations médicales à GPT 4.
02:54 Il y a les journalistes du New York Times qui ont décidé de faire une enquête
02:58 en demandant à un médecin de discuter avec GPT 4.
03:00 Et à chaque fois, le médecin a expliqué que GPT 4 proposait le même traitement que ce qu'il aurait proposé lui-même.
03:07 Ce serait donc quasiment impossible de savoir que vous n'avez pas eu recours à un vrai avocat ou un vrai médecin.
03:11 Il y a un autre aspect sur lequel GPT 4 innove,
03:13 impossible de le comparer avec la précédente version parce qu'elle ne savait pas le faire,
03:17 c'est la reconnaissance des images.
03:19 Pour l'instant, on ne peut pas le tester.
03:21 Ce n'est pas encore disponible.
03:22 Ça sera peut-être dans un futur projet en charge GPT, peut-être pas.
03:25 Peut-être que ça sera implémenté à d'autres applications.
03:27 Mais l'idée, c'est que le GPT 4, à la manière de Google Lens,
03:30 est capable de reconnaître le contenu d'une image, de reconnaître le contexte et de vous l'expliquer.
03:35 Et ça, c'est vraiment impressionnant.
03:37 Les exemples qui ont été donnés, c'était par exemple l'image d'un mème.
03:40 On met un mème et on lui demande d'expliquer pourquoi c'est drôle.
03:43 Et lui, en fait, va réussir grâce à ses capacités d'analyse à comprendre ce qu'il se passe,
03:47 à faire une description, à traduire les différents contenus qui peuvent être écrits par exemple
03:51 et à vous expliquer pourquoi des gens rigolent de ce mème.
03:54 Il y en a un autre que je trouve absolument bluffant,
03:56 c'est prendre une photo d'un frigo et demander à GPT 4 de fabriquer des recettes
04:01 à partir des contenus présents à l'intérieur du frigo.
04:04 Et en fait, ça a l'air de super bien marcher.
04:06 Tous les essais qui ont été montrés jusque là prouvent que GPT 4 va créer des recettes sur mesure
04:10 à partir de vos incrédulents en seulement quelques secondes.
04:13 Il y en a un autre qui a été montré, qui est encore une fois extrêmement prometteur,
04:16 c'est l'utilisation d'écriture manuscrite.
04:18 L'idée est simple, vous avez une petite boutique et vous n'avez aucune base en code.
04:21 Vous décidez de faire un site internet, vous prenez une feuille de papier,
04:24 vous écrivez un titre, vous écrivez des onglets,
04:26 vous écrivez un contenu factice sur ce que vous voulez montrer.
04:29 Vous le prenez en photo et vous demandez à GPT 4 de fabriquer un site.
04:32 Et en quelques secondes, vous avez un code HTML qui vous permet de mettre en ligne ce site.
04:36 Du coup, est-ce que le GPT 4 est une révolution pour l'intelligence artificielle ?
04:39 Oui et non, puisque pour le grand public, ça ne va pas changer grand-chose.
04:42 Par contre, pour les développeurs, ça offre tellement plus de possibilités
04:45 qu'on peut imaginer que l'intelligence artificielle va rentrer dans encore plus d'applications.
04:49 Maintenant, risque de vous décevoir, OpenAI prévient que chaque GPT, que le GPT 4,
04:53 ne vont pas devenir hyper intelligents et hyper justes grâce à cette mise à jour.
04:58 Ce qu'il faut prendre en compte, c'est qu'une IA va continuer à pouvoir halluciner,
05:01 elle va continuer à pouvoir mentir et à insister sur le fait qu'elle pense quelque chose qui est complètement faux.
05:06 Mais ce n'est pas ça qui doit retenir l'attention chez les utilisateurs de GPT 4.
05:10 La réalité, c'est qu'aujourd'hui, on a une IA capable de générer du contenu
05:13 de manière extrêmement professionnelle, de manière extrêmement rigoureuse.
05:16 Et le contenu en lui-même, ce n'est pas ça qu'on lui demande.
05:19 Pour ça, il y a d'autres outils, il y a les moteurs de recherche notamment.
05:21 Et il va falloir attendre quelques années encore pour que tout soit vraiment parfait.
05:25 Et on n'est même pas sûr de l'atteindre un jour.
05:27 Quand est-ce que vous allez pouvoir essayer le GPT 4 ?
05:29 Si vous êtes abonné à ChatGPT+, l'abonnement à 20$ par mois, c'est déjà possible.
05:33 C'est limité, il y a un nombre de 100 requêtes toutes les 4 heures.
05:36 Donc c'est quand même pas mal et ça va permettre aux développeurs de commencer à tester des nouvelles applications.
05:41 Sinon, c'est directement intégré à Bing.
05:44 Oui, le Bing qui nous a insulté, ce n'est pas forcément rassurant.
05:46 Mais bon, OpenAI et Microsoft ont des approches différentes.
05:49 Donc on peut espérer que les deux ne se comprennent pas de la même manière.
05:52 Et enfin, pour le grand public, GPT 4 devrait intégrer le ChatGPT normal dans les prochains mois,
05:58 au fur et à mesure de la montée en puissance des capacités d'OpenAI.
06:01 Dernier usage, et c'est peut-être le plus intéressant,
06:04 OpenAI a discuté avec des partenaires pour intégrer le GPT 4 à leurs applications.
06:08 On a vu des petites initiatives comme ça ces derniers mois.
06:10 Par exemple, il y a eu Snapchat qui a lancé une intelligence artificielle dans son application.
06:14 Mais ce n'est pas ça qui est intéressant ici.
06:16 Là, par exemple, on a Duolingo.
06:18 Donc vous connaissez l'application qui permet d'apprendre des langues.
06:20 Et bien, elle va intégrer une IA qui va permettre de discuter, d'apprendre une nouvelle langue.
06:25 Parce que l'avantage, c'est que le GPT en parle plein.
06:27 Donc l'idée, c'est que dans le futur, très proche pour le coup,
06:30 vous allez pouvoir apprendre l'allemand, l'espagnol ou le chinois
06:33 en discutant avec un GPT qui va vous apprendre et qui va se montrer ultra pédagogue.
06:37 Et ça, c'est peut-être le plus excitant dans cette annonce.
06:39 C'est que le GPT n'est pas que ChatGPT.
06:41 C'est justement un modèle de langage qui va permettre d'alimenter énormément d'applications dans le futur.
06:46 Est-ce que vous êtes emballés par le GPT 4 ?
06:48 Ou est-ce qu'au contraire, vous pensez qu'on en fait un petit peu trop
06:50 avec ce nouveau modèle de langage qui finalement ne parle pas à grand monde ?
06:53 Dites-nous tout dans les commentaires.
06:55 et on va continuer de couvrir tout ça sur Numérama.

Recommandations