Demain,plus humain on faisait un travail de machine et on ne le savait pas !
Avec :
Yann Ferguson, docteur en sociologie, directeur scientifique du LaborIA
Sandrine Jullien-Rouquié, présidente French Tech Toulouse et CEO de Ludilabel
Stéphanie Lavigne, directrice générale de TBS Education
Suivez nous sur :
- Youtube :
https://www.youtube.com/c/lepoint/
- Facebook :
https://www.facebook.com/lepoint.fr/
- Twitter :
https://twitter.com/LePoint
- Instagram :
https://www.instagram.com/lepointfr
- Tik Tok :
https://www.tiktok.com/@lepointfr
- LinkedIn :
https://www.linkedin.com/company/le-point/posts/
-
www.lepoint.fr
Avec :
Yann Ferguson, docteur en sociologie, directeur scientifique du LaborIA
Sandrine Jullien-Rouquié, présidente French Tech Toulouse et CEO de Ludilabel
Stéphanie Lavigne, directrice générale de TBS Education
Suivez nous sur :
- Youtube :
https://www.youtube.com/c/lepoint/
- Facebook :
https://www.facebook.com/lepoint.fr/
- Twitter :
https://twitter.com/LePoint
- Instagram :
https://www.instagram.com/lepointfr
- Tik Tok :
https://www.tiktok.com/@lepointfr
- LinkedIn :
https://www.linkedin.com/company/le-point/posts/
-
www.lepoint.fr
Category
🤖
TechnologieTranscription
00:00 (Musique)
00:25 Merci d'être toujours avec nous, retour sur le direct de la Factory,
00:32 sur le point.fr exactement et sur les réseaux sociaux.
00:36 Alors on va évoquer un sujet qui d'ailleurs fait la une d'un journal
00:40 que vous connaissez peut-être, Le Point.
00:43 Intelligence artificielle, la bataille pour contrôler nos cerveaux.
00:46 Alors ce n'est pas exactement la langue qu'on a choisie pour la séquence de ce soir.
00:53 On va évoquer évidemment les effets de l'intelligence artificielle
00:57 et en particulier de Chadjipiti sur les organisations,
01:01 sur les entreprises, sur le travail de manière globale,
01:07 puisque Chadjipiti en arrivant il y a un an,
01:10 a donné une matérialité à l'utilité de l'IA dans nos tâches quotidiennes de production,
01:16 que ce soit des productions de texte, des productions de développement de codes,
01:20 d'images, de voix également.
01:25 Cet effet immédiat de réalité a évidemment expliqué la vitesse d'appropriation de Chadjipiti
01:36 et a donc révélé d'une certaine manière, d'où notre titre,
01:40 que l'on faisait un travail de machine et qu'on ne le savait pas.
01:43 Alors aujourd'hui, au moment où les initiatives se déploient tous azimuts,
01:47 puisqu'on a compris que c'est vraiment maintenant que ça se passe,
01:49 qu'il y a un vrai besoin de déterminer si son usage est efficace,
01:55 légitime, autorisé, interdit, bref, c'est un sujet que nous abordons
01:59 avec nos trois invités que je vous demande d'applaudir,
02:02 Stéphanie Lavigne, Yann Ferguson et Sambrine Julien-Rouquier.
02:08 [Applaudissements]
02:12 Merci à tous les trois d'être avec nous.
02:16 [Musique]
02:18 On a pris un petit peu de retard, mais on va consacrer tout le temps prévu
02:24 et nécessaire pour aborder ces sujets.
02:27 Je vais d'abord prendre quand même quelques minutes pour vous présenter tous les trois.
02:31 Yann Ferguson, vous êtes docteur en sociologie,
02:35 spécialiste du futur du travail et de l'intelligence artificielle,
02:38 responsable scientifique du Laboria,
02:40 dont vous êtes d'ailleurs désormais le directeur scientifique.
02:44 Ça a été créé en 2021, mais le laboratoire prend de l'ampleur.
02:48 En fait, il s'agit d'un programme de recherche et d'intervention
02:51 sur la transformation du travail par l'IA,
02:53 qui a été initié par le ministère du Travail et par l'INRIA.
02:58 Et puis, l'objectif, évidemment, c'est d'appréhender les effets
03:01 de l'intelligence artificielle sur l'avenir du travail.
03:04 Sambrine Julien-Rouquier, vous êtes CEO de Ludilabel,
03:07 qui est une entreprise que vous avez fondée il y a un peu plus de dix ans,
03:10 qui fabrique et commercialise des étiquettes nominatives.
03:14 C'est un marché qui existait, mais que vous avez sérieusement dépoussiéré.
03:18 150.000 commandes par an dans 120 pays.
03:22 Et donc, votre startup a été lauréate du pass French Tech en 2016,
03:27 ce qui a fait que vous avez découvert la puissance de la communauté du coq rouge.
03:32 Vous portez sur la veste blanche et vous êtes présidente désormais
03:36 de la French Tech Toulouse depuis 2019.
03:39 French Tech, c'est rattaché à Bercy et c'est une association
03:43 qui fédère plus de mille entreprises innovantes ici à Toulouse.
03:48 Stéphanie Lavi, bonsoir, directrice générale de TBS Éducation,
03:52 docteur en sciences économiques, professeure de stratégie d'entreprise.
03:57 Vous êtes responsable du laboratoire de recherche stratégie d'entreprise.
04:00 Aujourd'hui, vous dirigez une business school à un moment où tout change,
04:04 à la fois dans l'économie, dans les business models et aussi dans l'éducation.
04:09 Et vous nous direz justement que votre institution est plutôt,
04:13 essaie d'être en tout cas dans une vision à la fois ni pragmatique,
04:17 en tout cas, ni trop contrôlante, ni trop cool.
04:19 Si j'ai bien compris, vous allez nous préciser tout ça.
04:23 Et vous êtes plutôt favorable aux partis pris, régulés et innovés.
04:28 Alors, on va commencer par parler des effets à court terme de chat GPT,
04:34 des IA génératifs de manière générale sur vos entreprises et vos métiers.
04:40 Stéphanie Lavin sur le secteur spécifique de l'éducation,
04:43 comment très concrètement ont réagi les professeurs,
04:46 ont réagi les étudiants et puis a réagi aussi la direction.
04:50 Bonsoir à toutes et à tous. Merci beaucoup.
04:52 Moi, je vais vous donner un retour d'expérience sur une école,
04:56 mais aussi sur l'ensemble des acteurs que j'ai la chance de rencontrer sur ces sujets.
05:01 Alors, chez nous, à l'école, chat GPT, quand c'est arrivé,
05:03 les profs, ça a été le cauchemar.
05:05 Ils se sont dit le truc, il faut absolument l'interdire.
05:08 Donc, ils ont demandé à la direction de prendre des mesures fortes.
05:12 Au moment où ils nous ont demandé ça, il y avait pas mal d'institutions en France,
05:16 dont certaines très, très importantes, qui avaient dit
05:18 il n'y aura pas de chat GPT chez nous et on interdit l'usage d'une innovation.
05:22 Alors, on s'est posé la question de est ce que c'est bien de refuser l'innovation
05:26 et plutôt que de dire on l'interdit, on s'est dit on va essayer de comprendre ce que c'est.
05:32 On avait déjà commencé à travailler beaucoup sur la data, le big data,
05:36 tous les systèmes d'information.
05:37 Donc, on a des gens très forts chez nous sur ces sujets et on a regardé
05:40 qu'est ce que ça allait changer dans le métier des profs?
05:43 Qu'est ce que ça allait changer pour nous?
05:44 Alors, exemple très concret.
05:46 Quand vous voulez recruter des étudiants sur quelque chose qui s'appelle Parcoursup,
05:50 la plateforme, pour ceux qui sont parents et pour les étudiants,
05:54 ce mot là, il n'est pas forcément très glorieux.
05:57 Parcoursup, nous, par exemple, on sélectionne des étudiants
06:01 en leur demandant de déposer sur Parcoursup des documents, un CV,
06:04 une lettre de motivation, des choses qu'on leur demande d'écrire et de produire.
06:09 Alors maintenant, il y a un petit outil qui s'appelle ChatGPT
06:11 et qui le fait mieux que nous tous.
06:13 Et du coup, on s'est dit première chose qu'on va faire,
06:15 c'est on va changer les modalités pour recruter les jeunes au lieu de dire
06:19 vous allez remplir tel document, tel document, tel document,
06:22 parce que ce n'est peut être pas vous qui allez le faire, mais la machine.
06:25 Avant, c'était les parents.
06:27 Alors, c'était les parents qui aidaient beaucoup les enfants,
06:29 mais il y avait quand même de la co-construction.
06:31 Et là, c'est de la co-construction avec ChatGPT.
06:34 Donc, on s'est dit qu'on allait changer les modalités.
06:36 Et moi, il y a quelque chose dont je suis ultra fan, c'est l'humain et l'oral.
06:40 Donc, il n'y a plus de lettre de motivation.
06:41 On va le supprimer.
06:42 Alors, on aura toujours un petit quelque chose comme ça,
06:45 mais on ne s'en servira plus comme un outil pour sélectionner,
06:47 parce qu'on sait très bien que ce n'est pas forcément un outil
06:51 qui va nous permettre de faire de grandes découvertes.
06:55 Donc, moi, je suis en train de me dire que ça peut être bien
06:57 pour remettre au centre du village l'humain et la relation.
07:00 On discute avec les gens, on teste des connaissances
07:03 et le ChatGPT, il n'est pas là quand on est face à un prof.
07:07 Côté prof, très, très sympa ce qui se passe à l'école.
07:10 Il y a une dynamique incroyable.
07:12 Il y en a qui ont peur.
07:13 Ils ont peur que leur métier disparaisse
07:15 parce que cet outil est très bizarre.
07:17 Quand on ne le connaît pas, on se dit il produit de la connaissance.
07:20 En fait, il n'en crée pas de la connaissance.
07:22 Il utilise de la connaissance qu'il va chercher,
07:24 mais il va quand même falloir toujours continuer à en produire.
07:28 Par contre, c'est vrai que dans nos métiers de chercheurs,
07:30 quand on écrit un article, quand on écrit un bouquin,
07:32 on fait des synthèses d'articles, on fait des synthèses de livres.
07:35 Et ça, ChatGPT peut le faire très bien.
07:37 Et ça faisait partie d'une des composantes qui permettait de voir
07:40 si des professeurs, des chercheurs avaient un esprit critique de synthèse
07:44 dans des sciences qui ne sont pas les sciences physiques, les mathématiques.
07:47 Moi, je suis issue des sciences sociales.
07:49 Donc, il y a à la fois un peu de peur et en même temps,
07:52 il y en a qui se sont dit mais je vais me gagner vachement de temps.
07:55 Je vais le faire faire, mais j'ai besoin de mon esprit critique.
07:58 Et puis, il y a la question de la véracité de la donnée.
08:01 Elle vient où la donnée que ChatGPT est allée chercher ?
08:04 Donc, pour le moment, c'est mixte.
08:07 Mais je voulais vous donner un petit exemple de truc très, très, très bête.
08:11 On est le 2 ou 3 janvier et je souhaite bonne année à tous les étudiants de l'école.
08:15 Donc, ils sont 6000. J'aurais écrit un petit mot chaque année.
08:18 Et donc, j'aurais écrit un texte.
08:19 J'essaye d'être inspirante, inspirée, de faire un truc un peu bien.
08:24 Et j'écris le texte et puis je le donne à relire à mon collaborateur préféré,
08:28 qui voyait quelques minutes plus tard, très, très vite,
08:31 avec un texte vachement mieux que le mien, mais vraiment super mieux que le mien.
08:35 Et donc, je lui dis là vraiment, on va prendre ton texte parce qu'il est mieux.
08:40 Et le texte, c'était ChatGPT qui l'avait écrit avec un prompt qui était assez simple.
08:45 On est ATBS éducation, c'est la directrice qui veut souhaiter une bonne année.
08:49 Quelques éléments. - Qui veut être inspirante.
08:50 - Elle veut être inspirante, elle veut faire un truc. - Inspirée.
08:53 - Je ne sais plus quels étaient les consignes, mais le truc était super.
08:57 Et je me suis dit, je ne peux pas commencer l'année dans du faux,
08:59 en leur envoyant un faux texte.
09:02 Je vais garder mon texte à moi qui est moins bien, mais au moins, c'est moi qui l'ai écrit.
09:06 Voilà, c'est un truc bête.
09:07 Mais en vérité, je me suis dit que j'aurais peut-être dû penser à lui donner une directive.
09:14 Hop, il m'écrit un texte, je gagne du temps.
09:16 Alors, on est dans une société où on veut toujours gagner encore plus de temps, toujours.
09:21 Est-ce que c'est bien ou pas ? C'est un sujet.
09:23 Mais en tout cas, c'est vrai qu'il y a des utilisations au niveau pédagogique
09:26 qui valent la peine d'être investiguées.
09:30 Et je pense qu'il y a de l'appropriation pour les étudiants.
09:34 On peut arriver à personnaliser des parcours.
09:35 Donc, on va mettre plein de connaissances dans l'outil et l'étudiant va pouvoir aller chercher
09:40 un truc personnalisé par rapport à ce que lui, il veut rechercher à un moment donné.
09:44 Donc, des catalogues qu'il va aller extraire.
09:46 Donc, il y a des aspects qui sont à prendre avec des pincettes.
09:50 Mais de manière générale, je suis assez curieuse.
09:54 Et on a tous développé des groupes avec les profs, avec les étudiants,
09:59 avec la direction de l'école pour voir qu'est ce qu'on intègre, qu'est ce qu'on n'intègre pas.
10:03 Est-ce qu'aujourd'hui, il y a une sorte de vademécom ?
10:05 Est-ce qu'on sait ce qu'on a le droit de faire ou pas faire ?
10:08 On est en train de le rédiger et je pense que ce sera bien pour nos étudiants
10:10 qu'ils sachent une utilisation raisonnée.
10:13 Qu'est ce que ça veut dire ? Une utilisation éthique.
10:15 Qu'est ce que ça veut dire ? Donc, en gros, ils peuvent l'utiliser.
10:18 Alors, on parle de chat GPT, mais il y a la version gratuite, la version payante.
10:21 Mais ça y est, il y a déjà plein d'autres plateformes. Donc, c'est déjà périmé pour les étudiants
10:26 qui sont très connectés chez nous et très digitalisés parce que c'est cette génération
10:31 qui est très aguerrie à tout ça. Il y a d'autres choses que chat GPT déjà.
10:35 Voilà donc, chacun a même ses préférences.
10:38 Donc, nous, on va essayer d'écrire quelque chose, pas de chat GPT orienté,
10:43 mais plutôt intelligence artificielle pour avoir quelque chose de plus global.
10:47 Sandra et Julien Rouquet, là aussi, très concrètement, quels sont les effets de ces IA génératives ?
10:54 Bon, sur l'udilabel, puisque c'est votre entreprise, mais aussi peut être sur celles que vous représentez via la French Tech.
10:59 Sur l'impact. Alors, est ce qu'il y a des impacts sur certains métiers, par exemple ?
11:06 Ce qui est sûr, c'est qu'on s'en apparaît très rapidement pour le coup,
11:10 parce que les entreprises innovantes, tout ce qui est de l'innovation, c'est quelque chose qu'on aime tester.
11:15 Donc, pour le coup, oui, on s'est emparé rapidement de ça.
11:19 Sur la partie impact, positif, négatif, le positif, c'est ce qu'on a déjà entendu,
11:25 c'est à dire que tout ce qui a été de l'ordre des tâches répétitives, rébarbatives, ennuyeuses,
11:32 là, l'IA a pris le pas dessus. Sur la partie productivité, il ne faut pas se mentir,
11:38 ces mêmes tâches rébarbatives, elles ont été faites par de l'IA et de façon beaucoup plus rapide.
11:45 Et ensuite, ça nous a permis, sur toutes ces entreprises innovantes, de pouvoir proposer des nouveaux services.
11:52 Et on en parlera peut être sur la partie génération de contenu, sur la partie rédactionnelle.
11:59 Donc, ça a ouvert des portes et sur les points de vigilance,
12:05 et tu l'as évoqué, c'est sur la partie régulation, sur quelles tâches on va pouvoir accepter
12:11 de passer par la moulinette de l'IA, que ce soit de chat, de GPT, de Google,
12:16 quelles sont celles qui vont être interdites et surtout, quels data on va accepter de mettre,
12:22 puisque là, pour le coup, elles deviendront des données publiques.
12:26 Et pour ce qui concerne le recrutement, par exemple, si je devais recruter un développeur web,
12:35 comment une entreprise peut se fier aux productions qu'on va lui présenter ?
12:43 Alors, pour le coup, sur la partie IA, c'est intéressant pour le recrutement.
12:48 Je dirais que côté candidat, sur la préparation, il peut utiliser l'IA,
12:54 que ce soit pour aller chercher des data sur l'entreprise sur laquelle il va postuler,
12:58 sur la partie même présentation, sur le langage corporel, sa communication non-verbale, etc.
13:06 Le jour J, il y a deux écoles où il va faire le choix selon le métier,
13:11 donc là, sur le développeur web, de montrer.
13:13 Et pour le coup, ça peut être un atout qu'il sait maîtriser, l'IA,
13:16 et que ça va l'aider à gagner du temps sur les tâches.
13:19 Nous, chez Ludilabel, je sais qu'ils s'en servent,
13:20 ils s'en sont emparés très rapidement avec la conscience que c'est...
13:24 Je dirais que ça ne va pas remplacer l'humain,
13:27 mais ça va être, on l'évoquait, une espèce de direction assistée
13:30 qui va vous permettre d'avancer plus vite.
13:33 Et là, ça va être typiquement chez le développeur web
13:35 pour balancer du code et trouver les petites erreurs.
13:39 Sur la partie recrutement, oui, sur certains métiers, sur d'autres, attention, ça va se voir.
13:45 C'est-à-dire qu'il y a toute la partie plagiat qui peut être retoquée.
13:50 Et voilà ce que tu évoques également sur le fait qu'à un moment donné,
13:55 sur des mêmes textes, des mêmes missions, on sent la répétition, le déjà vu.
14:00 Et là où on cherche, nous, pour le coup, chez nos collaborateurs,
14:04 quel que soit le pôle dans lequel on va l'embaucher,
14:08 qui est ce fameux esprit critique.
14:11 Là, on ne va pas être en mesure, si c'est rédigé uniquement avec de l'IA,
14:15 de savoir s'il est capable de penser tout seul
14:18 et d'aller résoudre des problématiques beaucoup plus complexes que ne sait pas faire l'IA.
14:23 Je pense que cette expression, la pensée seule, va intéresser beaucoup, Yann Ferguson,
14:28 puisque vous, précisément, vous avez étudié un certain nombre de cas d'usage de l'IA
14:35 et que penser seul, c'est le propre de l'humain plus que le propre de la machine,
14:42 qui en réalité n'a pas vraiment de projet dans son action.
14:48 Est-ce qu'aujourd'hui, on est en capacité,
14:50 est-ce que vous, vous êtes en capacité de mesurer les effets de chat GPT,
14:54 de ces outils d'IA génératif sur les entreprises ?
14:57 On est en difficulté pour le mesurer précisément
15:00 parce que les usages de chat GPT sont des données propriétaires.
15:06 Et je dirais, d'une part, OpenAI n'a aucun intérêt à les communiquer,
15:11 notamment si ce n'est pas aussi massif que ce qu'on entend,
15:16 parce que ce qui était porteur pour OpenAI, c'est de dire
15:20 c'est l'application qui a atteint le plus rapidement possible les 100 millions d'utilisateurs.
15:24 Mais ce que ça ne dit pas, c'est si ces utilisateurs l'utilisent pour des choses sérieuses
15:28 et si, après leurs premiers usages, ils ont continué à l'utiliser,
15:32 à en faire finalement un nouveau mode de travail.
15:34 Donc ça, on a un peu de difficulté.
15:35 Puis deuxième chose, il n'a pas le droit,
15:38 parce que si jamais OpenAI commençait à dire voilà comment on nous a utilisé,
15:43 voilà comment les gens du marketing l'utilisent,
15:46 voilà comment les recruteurs l'utilisent,
15:48 quelque part, il y aura un problème,
15:50 c'est le fait qu'ils communiquent sur nos usages
15:53 et il y a un problème de confidentialité.
15:55 Par contre, on commence d'abord à voir effectivement
16:00 le côté technologie d'application générale de l'intelligence artificielle,
16:06 là où depuis plusieurs années, les études sur le futur du travail
16:11 associé à l'intelligence artificielle avaient plutôt tendance à atterrir
16:15 sur des choses qui étaient assez communes,
16:17 finalement, par rapport à l'automatisation,
16:18 c'est à dire on retrouvait vraiment des cols bleus à nouveau
16:22 qui allaient devoir être accompagnés vers des reconversions
16:27 ou vers un déplacement de la valeur, etc.
16:30 Il y a des métiers qui disparaissent ?
16:32 Sur l'IA générative, encore une fois,
16:35 ce qui est difficile à mesurer, c'est que pour l'instant,
16:38 on est dans l'étape où on a une application généraliste
16:44 qui a été lancée comme une grande preuve de concept
16:48 par une entreprise qui s'appelle OpenAI
16:50 et les usages sont, pardonnez-moi l'expression, sous le chapeau.
16:55 C'est à dire que les gens qui utilisent aujourd'hui Chats GPT
16:58 le font en cachette.
17:01 Ça a été montré par une étude française et une étude américaine
17:03 qui est arrivée exactement sur le même résultat.
17:05 68% des utilisateurs de Chats GPT au travail
17:08 ne le disent pas à leur manager.
17:10 Et s'ils ne le disent pas à leur manager,
17:11 c'est que bien souvent, de la même façon que dans les enseignements supérieurs,
17:15 on a dit attention, attention,
17:17 les grandes entreprises ont dit attention, attention,
17:20 pour des bonnes raisons par ailleurs,
17:21 parce que les gens commençaient à mettre les noms des clients,
17:23 les données des clients, les noms des collaborateurs
17:26 et à faire des résumés de compte rendu, de projet.
17:30 Voilà, donc ça, c'était très compliqué.
17:32 Donc pour des bonnes raisons, ils ont dit faites attention,
17:34 voire ils l'ont interdit.
17:37 Et on se retrouve avec un peu une tension entre des projets maison,
17:41 des grands groupes industriels qui, faut le dire,
17:44 ont du mal à aller vers le travailleur,
17:47 porté par la direction d'entreprise, porté par la direction,
17:49 avec des travailleurs un peu réticents qui disent
17:52 bah, ça réduit un peu notre liberté, notre autonomie.
17:57 Et puis on a un peu peur de l'IA et des dirigeants qui disent
18:00 n'ayez pas peur, l'IA, c'est bien, l'IA, ça vous libère des tâches
18:03 à faible valeur ajoutée, etc.
18:05 Et puis là arrive Thierry Gepeté, les collaborateurs s'en emparent,
18:09 font des choses en mode bricolage.
18:12 C'est ce qu'on appelle "bring your own AI",
18:14 amener votre propre intelligence artificielle.
18:16 Et puis là, on a des managers qui disent faites attention.
18:19 Et là, le collaborateur, il se dit, alors vis à vis de l'IA,
18:21 je dois faire quoi ? Je dois faire attention ou je dois ne pas avoir peur ?
18:25 Et donc, il y a une espèce de dissonance cognitive.
18:27 On est un peu là dedans avec le risque que c'est que
18:31 pendant que les entreprises l'interdisent,
18:35 on a des collaborateurs qui vivent des expériences personnelles
18:38 avec ces systèmes qui sont assez stimulantes,
18:40 qui attendent que ça puisse aller vers le monde professionnel.
18:44 Et là, on va peut être inverser un peu la situation,
18:46 c'est dire qu'on va avoir des collaborateurs qui développent
18:50 ou alors qui utilisent des systèmes d'IA,
18:52 qui développent leurs propres pratiques.
18:54 Et puis, de l'autre côté, des projets d'entreprise qui sont plus lents,
18:57 qui sont plus difficiles.
18:58 Alors pourquoi ils sont plus lents ?
18:59 Tout simplement parce qu'on essaie de les rendre aussi sûrs.
19:02 Il faut qu'ils soient safe et c'est plus compliqué.
19:05 C'est à dire qu'elle est performante, mais elle n'est pas forcément fiable.
19:08 Alors oui, ça, c'est un vrai sujet.
19:09 C'est qu'aujourd'hui, on a on a évalué l'effet,
19:14 la pertinence de la GPT à peu près 60%.
19:17 Ça va s'améliorer. En fait, dans la plupart des décisions
19:21 que l'on prend dans le monde du travail,
19:22 on ne saurait pas mesurer si on a 60% de pertinence.
19:26 Il n'y a pas très longtemps, j'intervenais auprès d'un commerce qui me disait
19:28 oui, c'est n'importe quoi, il y a 60% de pertinence.
19:30 On ne peut pas utiliser ça.
19:31 Je dis mais comment vous évaluez la pertinence de vos propres décisions ?
19:34 Est ce que vous le savez ?
19:35 Si je vous mets un cas d'école et que vous êtes trois autour,
19:37 est ce que vous décidez la même chose ?
19:40 Donc, dans la plupart du temps, on ne sait pas.
19:42 D'ailleurs, un des grands fondateurs de l'intelligence artificielle,
19:44 Herbert Simon, il avait défini l'intelligence
19:47 et il avait défini comme un objectif de l'intelligence artificielle
19:50 le fait de trouver des solutions satisfaisantes
19:53 à des problèmes qui n'ont pas de réponse optimale.
19:55 Et la plupart du temps, c'est ce que l'on fait.
19:57 On trouve des solutions satisfaisantes à des problèmes
19:59 qui n'ont pas de réponse optimale.
20:01 Alors, il y a des choses qui ont des réponses optimales.
20:03 Le calcul est optimal.
20:05 La non qualité, ça, ça se mesure, notamment lorsqu'on mesure des pièces d'avion.
20:10 On évalue la qualité des pièces d'avion.
20:12 Ça, c'est très précis, mais dans beaucoup de métiers,
20:14 on n'a pas cette précision de la qualité.
20:15 On est dans ce que j'appelle de la qualité floue.
20:18 Ça ne veut pas dire qu'on ne sait pas dire si c'est bien ou si ce n'est pas bien.
20:21 Moi, je ne sais pas comment dire que ton discours,
20:23 il était moins bien que celui de la GPT.
20:25 C'est ce que tu as ressenti.
20:26 Mais peut être que quelqu'un ressentirait autre chose.
20:28 On est dans la qualité floue et il y a beaucoup de métiers à qualité floue.
20:31 Ça ne veut pas dire qu'il n'y a pas de qualité,
20:33 mais il n'y a pas de normalisation de la qualité.
20:35 Mais est-ce que ça veut dire aussi,
20:36 et là, je vais en insulter à Sandrine Gianluchi et à Stéphanie Lavi,
20:40 que justement, l'usage massif de ce genre d'outils peut
20:47 abaisser le niveau d'exigence qu'on a à l'égard de son propre travail
20:51 ou du travail de ses propres collaborateurs
20:54 et qu'on peut s'habituer finalement à une réponse moyennement satisfaisante,
20:57 puisque finalement, c'est vrai que si on écrit une lettre,
21:01 par exemple, une lettre personnelle,
21:02 on va tout de suite voir que c'est un peu tchatché, pété, touch.
21:06 Mais bon, ça passe et on y va comme ça.
21:07 Même chose pour la traduction, même chose pour plein d'usages.
21:12 Oui, c'est une excellente...