SMART TECH - Emission du mardi 19 décembre

  • l’année dernière
Mardi 19 décembre 2023, SMART TECH reçoit Régis Lhoste (président, CYBER-DETECT) , David Sebaoun (Partner Data & AI, IBM Consulting France) , Jean-Marie John-Mathews (cofondateur, Giskard) , Ghislain de Pierrefeu (expert IA, cabinet Wavestone) et Quentin Amsellem (spécialiste en bio-inspiration, Bioxegy)

Category

🗞
News
Transcription
00:00 Bonjour à tous, l'intelligence artificielle au grand menu au programme de Smartech.
00:12 Aujourd'hui on va parler des principales actualités de l'AI Act avec cet accord politique qui a été trouvé au niveau européen.
00:20 On s'intéressera à l'impressionnante levée de fonds de Mistral AI.
00:24 On parlera également de MIA, cette IA qui doit aider les élèves de seconde dès la rentrée 2024.
00:29 Et puis de l'alliance géante aussi pour une IA open source.
00:34 Nous aurons ensuite rendez-vous avec le biomimétisme.
00:38 On parlera du rapport entre la minéralisation osseuse et le béton.
00:43 Vous verrez, la technologie s'inspire grandement de la biologie.
00:46 Mais d'abord, on va s'intéresser à la cybersécurité comme souvent aussi dans Smartech,
00:51 avec cette fois une innovation, l'analyse morphologique des malwares.
00:55 Ces trois questions à tout de suite dans Smartech.
00:58 [Musique]
01:02 Alors j'aime beaucoup dans Smartech quand je reçois des pionniers.
01:05 Aujourd'hui c'est le cas. Bonjour Régis Lhost.
01:07 Bonjour.
01:08 Votre technologie est absolument innovante. Elle analyse la morphologie des logiciels malveillants.
01:14 Je vais quand même vous présenter d'abord de manière plus formelle.
01:17 Vous êtes le président de CyberDetect qui a développé cette arme, je dirais surprenante et innovante,
01:21 contre l'infection de nos machines.
01:24 Ça s'appelle Gorill, cet outil. C'est né après dix ans de recherche au sein du laboratoire de haute sécurité du Loria.
01:31 Le Loria c'est le laboratoire lorrain de recherche en informatique et applicatif.
01:37 Qu'est-ce que ça veut dire analyser la morphologie de verres, de malwares, de logiciels malveillants ?
01:44 L'objectif de cette analyse morphologique c'est de s'intéresser à un malware, à un programme dans sa forme.
01:51 On ne peut pas s'intéresser juste à sa signature, c'est ce que fait un antivirus classique.
01:55 Un fichier = un malware = une signature.
01:58 Ce qui fait que si vous n'avez jamais vu ce malware auparavant, avec cette signature, vous avez peu de chances de le détecter.
02:03 Mais quand vous dites à sa forme, parce qu'après on va avoir un rendez-vous sur le biomimétisme,
02:07 mais là on n'est pas du tout dans de la biologie avec des malwares.
02:10 Non mais ça y ressemble. C'est-à-dire que notre technologie nous permet de transformer un malware,
02:15 de le désassembler pour comprendre la façon dont il fonctionne dans sa forme la plus basique.
02:22 Quelles sont les instructions qui le composent ?
02:24 Et ce sont ces instructions qui nous permettent de différencier un malware d'un logiciel qui est un logiciel legacy, un logiciel normal.
02:31 Donc c'est son comportement qu'on va analyser ?
02:33 On va chercher des petites briques de comportement, des petits morceaux d'instructions de comportement malveillant dans un malware.
02:37 C'est-à-dire que si ce malware est réécrit, si ce malware est réécrit dans un autre langage par exemple,
02:42 on va quand même réussir à retrouver ces petits morceaux de comportement malveillant et c'est ça qui nous intéresse.
02:46 Parce que les malwares sont généralement issus de plusieurs briques de malwares déjà existants ?
02:51 Oui exactement. Par exemple on a vu très récemment Lockbit, qui est un malware assez connu,
02:57 a racheté du code d'un autre malware qui s'appelle Black Matter.
03:00 Donc ils ont composé un nouveau malware de deux malwares différents.
03:04 Donc il a à la fois le comportement de Lockbit et le comportement de Black Matter.
03:08 Et on est capable pour s'en protéger de détecter, ça c'est malveillant, c'est un bout de Lockbit, ça c'est un petit bout de Black Matter.
03:15 Donc ça nous permet de savoir ce qu'il fait et comment mieux s'en protéger.
03:18 Et alors vous promettez quelle efficacité dans la détection de ces logiciels malveillants à travers cette analyse Morpho ?
03:26 Parce qu'il y aura toujours des trous dans la raquette.
03:27 Oui alors très honnêtement si je vous y disais à 100% je serais un menteur.
03:30 Ce n'est pas possible.
03:31 Aujourd'hui on se rend compte qu'une chaîne de protection complète pour une entreprise, pour un particulier,
03:36 elle est composée de différentes technologies, de différents outils.
03:39 Nous on est une partie de la protection basée sur le malware, sur le programme exécutable.
03:44 Et ce qu'on aimerait c'est d'être le plus proche possible du 100%, on n'y est pas.
03:48 Parce que si c'est complètement nouveau, 100% nouveau, on n'arrivera pas à le détecter, personne n'arrivera à le détecter.
03:53 Notre métier c'est de retrouver des tout petits bouts de code.
03:55 Donc de retrouver voilà entre 80-90% du code déjà existant dans un malware nouveau et de se protéger des variants.
04:02 Et la plupart du temps vous nous dites finalement il y a toujours des petits bouts de code réutilisés.
04:05 Il y a très souvent des petits bouts de code réutilisés.
04:08 Et quand vous dites que vous êtes complémentaire, c'est-à-dire que vous êtes où sur la chaîne de cyberprotection ?
04:12 On est dans la partie détection.
04:14 Il y a un nouveau programme, un nouvel exécutable qui arrive par un de vos fournisseurs par exemple.
04:19 Ce fournisseur il a peut-être été attaqué lui et vous ne le savez pas, donc vous devez vous en protéger.
04:25 Donc quand ce nouvel exécutable, cet update, va arriver sur votre infrastructure,
04:29 c'est là où on va venir et on va venir le détecter pour l'empêcher d'entrer dans votre infrastructure.
04:34 Donc spontanément moi j'ai envie d'avoir Gori dans mon ordinateur mais visiblement ce n'est pas possible.
04:39 Non, c'est plutôt une solution qui est dédiée aux grandes entreprises
04:44 parce que ce sont elles qui sont vraiment ciblées par des attaques ciblées justement.
04:50 Les malwares qui sont construits spécifiquement, composés spécifiquement pour attaquer une infrastructure particulière,
04:55 c'est là où on est les meilleurs, c'est là où on va proposer notre Gori.
04:58 On pourrait proposer à des particuliers bien évidemment mais c'est moins intéressant aujourd'hui.
05:03 C'est-à-dire que ce serait vraiment sortir de l'artillerie lourde.
05:06 C'est utiliser un bazooka pour tuer une mouche souvent.
05:09 Parce qu'aujourd'hui, je disais, c'est 10 ans de recherche qui ont permis de faire émerger ce nouvel outil.
05:17 On n'est pas en phase industrielle, c'est quoi ? C'est encore la phase de lancement ?
05:22 Non, aujourd'hui la société a été créée en 2017.
05:26 On a passé 3 ans je pense à construire, à développer un logiciel, un outil à partir de ce code de recherche dont vous parliez.
05:34 Et aujourd'hui depuis 2020-2021, on commercialise différentes versions de notre Gori en fonction des besoins.
05:40 D'accord. J'imagine de toute façon qu'il y a de l'IA dans votre solution, de la reconnaissance morfo.
05:45 Oui, bien sûr. On utilise des technologies qui sont des technologies d'IA pour faire de la reconnaissance de forme.
05:50 L'IA au départ c'est pour faire de la reconnaissance de forme, de la reconnaissance de son.
05:54 Nous on utilise ces technologies d'IA pour faire de la reconnaissance de morceaux de code qui sont des morceaux de code malveillants.
05:59 Bon, vous allez écouter la suite de l'émission. Avec grand plaisir.
06:02 C'est notre grand rendez-vous sur l'IA.
06:04 Trois experts pour commenter l'actualité autour de l'intelligence artificielle dans ce grand rendez-vous de l'IA.
06:13 Le premier, je le présente, David Sebaoun qui fait l'actualité en plus. On va voir ça ensemble.
06:18 Exécutive, partenaire, vous êtes en charge des équipes et projets transformation autour de l'IA et de la data ainsi que de l'ensemble des nouvelles technologies chez IBM Consulting France.
06:28 Bienvenue à vous, David.
06:29 Bonjour.
06:30 À côté de vous, Jean-Marie John-Matthews. Vous êtes chercheur associé à l'Université Paris-Saclay.
06:34 Vous travaillez sur les biais et les méthodes d'explicabilité des IA. Et puis vous êtes le cofondateur de Giscard.
06:40 C'est comme ça que j'ai fait la connaissance de votre start-up à Station F au moment d'un grand événement autour de l'IA.
06:46 Giscard, éditeur de logiciels français spécialisé dans le contrôle qualité des algorithmes d'intelligence artificielle. Bienvenue également.
06:56 Guylain De Pierrefeu qui complète ce plateau partenaire ExperIA au sein du cabinet Wavestone. Bonjour, Guylain.
07:04 Bonjour.
07:05 Consultant, vous, sur les sujets énergie, environnement, évidemment data et IA, toutes ces transformations pilotées par la donnée finalement.
07:13 Oui.
07:14 Eh bien, bienvenue à tous les trois. On va commencer avec l'IA, donc un accord politique qui a été trouvé en Europe.
07:21 Mais je voulais savoir qui s'en réjouissait déjà autour de la table.
07:25 Forcément, du côté Giscard, on s'en réjouit parce que...
07:28 Oui, je ne sais pas forcément. Oui. Parce que vous êtes du côté de l'innovation. On avait peur justement que les réglementations freinent l'innovation.
07:35 En fait, on travaille avec des personnes qui mettent en place de l'IA et on sait qu'il y a énormément de risques et de vulnérabilités autour de l'IA.
07:42 Il y avait de quoi les réguler, en fait, notamment autour des biais, des stéréotypes, des discriminations.
07:48 Vous avez des attaques possibles aussi, des problèmes autour des données personnelles. Ce sont des sujets qu'il fallait réguler. On est content que ça soit fait.
07:56 C'est-à-dire qu'en tant que start-up, on se dit finalement on avance de manière plus sereine quand on a un texte qui fixe un cadre. C'est ça ?
08:03 Oui, parce qu'on sait aujourd'hui déjà au niveau de la recherche, mais aussi au niveau de l'outillage, qu'il existe des solutions pour mesurer les risques et les mitiger.
08:12 Donc, en fait, on est content qu'on aille dans ces directions. Et donc, vous pensez peut-être même devenir un prestataire de services incontournables finalement ?
08:19 Sur certains domaines. Alors nous, ce qu'on fait beaucoup, c'est vraiment du "red teaming". C'est-à-dire vraiment voir... Qu'est-ce que c'est ça ?
08:24 Alors, c'est quelque chose qui est issu de la cybersécurité. Donc, en fait, c'est d'attaquer des IA pour voir ce qui ne va pas et ensuite produire un rapport pour dire
08:34 "Voilà, sur ces domaines-là, sur l'injection de prompt, sur la révélation d'informations sensibles, sur les contenus malveillants, on a des soucis". Écrire un rapport là-dessus.
08:43 C'est proche de l'audit algorithmique ?
08:45 Alors, c'est très proche de l'audit, sauf que c'est plus tourné vers les attaques. Donc, c'est quelque chose qu'on fait beaucoup. Et aujourd'hui, on sait que les entreprises sont très friandes sur ce sujet.
08:53 C'est pour ça que vous parliez plutôt... Moi, j'ai dit que c'est un contrôle qualité. Vous le présentez plutôt comme un antivirus, une sécurité, finalement, des algorithmes.
09:00 Qu'est-ce qui vous intéresse dans ce texte de l'IAct ?
09:03 Nous, on se réjouit aussi, effectivement, de ce texte, à la fois sur la forme et sur le contenu. Sur le contenu, l'approche de gestion par les risques de l'IA.
09:13 Un modèle peut être plus ou moins risqué en fonction de son application. Si un modèle vient vous dire que vous allez préférer une voiture rouge ou une voiture bleue, s'il se trompe, c'est pas forcément très grave.
09:22 Maintenant, si c'est un modèle qui décide si vous allez avoir un crédit ou un modèle qui va faire de l'aide aux diagnostics, c'est plus embêtant.
09:27 Donc, il y a vraiment cette notion d'approche par les risques qui nous paraît très intéressante.
09:31 Et le deuxième sujet, c'est la notion d'équité, de transparence, d'explicabilité qu'il faut mettre en place quand on développe de l'IA.
09:38 En fait, on est dans une logique de sortir de l'opacité, de la logique de boîte noire.
09:43 Après, effectivement, l'Europe est un peu pionnière sur un texte qui est légiférant, mais c'est pas un sujet qui ne concerne que l'Europe.
09:51 On a vu que le président Biden a parlé énormément de la gouvernance de l'IA, la nécessité d'avoir une gouvernance de l'IA.
09:57 On a les dirigeants du G7 qui se sont réunis dans le processus d'Hiroshima pour définir des guidance sur le développement de l'IA.
10:04 Et donc, globalement, c'est un sujet qui est mondial, qui concerne toutes les régions.
10:08 Tout le monde cherche une réponse, en fait, à ce déploiement vertigineux de l'intelligence artificielle.
10:14 Tout à fait. Et on voit quand même qu'il y a un cadre qui se détache de tout ça, qui est autour des piliers que j'ai décrits.
10:19 Alors, chez Weston, on porte quel regard sur ce texte ?
10:22 Positif aussi, parce que finalement, c'est la première vraie régulation des IA.
10:27 On voit qu'il y a plein d'acteurs dans le monde, y compris des producteurs d'IA qui demandent une régulation.
10:32 Et moi, je n'aime pas le monde de l'IA tel qu'on peut le voir en Chine avec le social rating, tel qu'on peut le voir même avec OpenAI et HLGPT,
10:40 qui a quand même volé une partie importante de données pour entraîner son modèle en piquant de la propriété intellectuelle à des auteurs, à des scénaristes, etc.
10:50 Donc, il y a des choses qui me gênent dans cet usage de l'IA.
10:53 Le fait d'essayer de le réguler est une bonne chose.
10:56 Après, je suis assez prudent dans la façon dont on va l'appliquer.
10:59 Donc, il va falloir... Tout reste à faire.
11:01 C'est-à-dire, une fois qu'on s'est mis d'accord, voilà, comment on va l'appliquer réellement ?
11:04 Et est-ce qu'effectivement, on ne va pas aller jusqu'à ce qui est un peu le débat du fameux trilogue,
11:09 empêcher les créateurs de modèles, et notamment les beaux créateurs européens dont on reparlera tout à l'heure,
11:15 de créer et de rattraper un peu leur retard par rapport à nos géants américains ?
11:20 Alors, a priori, on s'en vient d'ailleurs pour une transparence plus importante vis-à-vis de modèles plus grands.
11:26 Mais est-ce que du coup, on se dit, alors les Européens, ils n'ont pas intérêt à grossir trop vite parce qu'ils vont se retrouver dans des contraintes ?
11:33 Je ne sais pas ce qu'il en est de ce débat. En tout cas, c'était quand même assez étonnant d'entendre Emmanuel Macron,
11:38 lors de son allocution à l'occasion des deux ans du plan France Relance, pardon, France 2030,
11:46 qui nous dit qu'il pense que ce n'est pas une bonne idée, ce texte. Enfin, je veux dire, il est assez...
11:53 D'ailleurs, je le dis en toute honnêteté, il est quand même assez direct.
11:56 On peut décider, je le cite, on peut décider de réguler beaucoup plus vite, beaucoup plus fort que nos grands compétiteurs,
12:03 mais on régulera des choses qu'on ne produira plus, qu'on n'inventera pas.
12:08 Effectivement. En fait, l'éléphant dans la pièce, c'est vraiment les IA génératives.
12:13 Vous êtes d'accord avec ce que dit Emmanuel Macron ?
12:15 En fait, il faut bien mesurer là où sont les risques. Et c'était ça, en fait, l'approche de base de l'IA Act.
12:20 C'est de se dire quels sont les usages à risque par rapport à ceux qui ne sont pas à risque, pour mettre des dispositions qui sont différenciées.
12:26 Et là, avec l'IA générative, on est dans une situation où on a justement des IA à usage généraux, en fait,
12:32 qui font que c'est difficile d'associer un risque à un usage qu'on ne connaît pas, en fait.
12:37 Et donc là, du coup, on a eu des négociations, d'ailleurs, qui sont terminées très tard.
12:41 On a vu que les négociateurs ont bu des boissons énergisantes jusqu'à 25 heures de négociation.
12:48 35 heures, oui, parce que c'était vraiment difficile, justement, de trouver une solution là-dessus.
12:52 Et la solution qui a été trouvée, c'était de découper, justement, les IA à usage généraux en deux parties.
12:59 Ceux qui ne sont pas au risque et ceux qui sont à risque.
13:02 Mais la question, c'est qu'est-ce que ça veut vraiment dire, une IA à risque ?
13:04 C'est presque un oxymore, en fait, puisque si c'est à usage général, justement, c'est difficile de dire si c'est à risque ou pas.
13:11 Par contre, c'est dit qu'on ne les produira plus. Il nous dit que c'est un frein à l'innovation en Europe.
13:18 En fait, clairement, quand on voit le contenu de l'IA Act, si on avait été au bout du modèle que voulait le Parlement européen,
13:25 notamment, qui était un modèle de contrôle des modèles de fondation,
13:28 donc vraiment aller dans le code, aller regarder comment c'est fait, comment c'est fabriqué, comment c'est construit
13:33 et être hyper exigeant avec les acteurs qui font ça.
13:36 Ça nécessite des épaules très larges et une capacité à se financer de la recherche très lourde pour arriver à fiabiliser des modèles
13:45 qui, par essence, ne sont pas fiables. C'est des réseaux de neurones, c'est hyper complexe, ça apprend tout seul, ça définit les paramètres tout seul, etc.
13:51 Donc, très difficile à contrôler, très difficile à comprendre.
13:54 Et évidemment, un Mistral.ai, un ALF Alpha en Allemagne, etc.
13:57 auraient eu beaucoup de mal à, à la fois, rattraper, entre guillemets, leur retard sur ChatGPT et autres,
14:05 ce qu'ils sont en train de faire, et à la fois, à traiter ce volet régulatoire.
14:09 Donc, c'est ça qui faisait peur, en fait, un peu aux jeunes pousses, on va dire, de l'IA générative.
14:13 C'était le fait de se mettre plein de nouvelles contraintes alors que les autres sont déjà arrivés, sans respecter ces contraintes.
14:20 Bon, maintenant, on nous dit qu'on a trouvé un accord politique. Finalement, on a le président de la France qui dit "Bah non, moi je trouve que c'est pas une bonne idée ce texte".
14:27 Bon, après, le texte, on est bien d'accord, c'est pas terminé, parce qu'il y a toute la phase de travail juridique, de mise en application,
14:37 qui va forcément donner une orientation, plus ou moins dans un sens ou dans un autre, sur l'IA,
14:42 on ne sait pas, finalement, ce qui va sortir de là. On nous parle d'une application 2025, elle sera plutôt fin 2025, voire 2026, à mon avis.
14:50 Oui, moi, en fait, je pense qu'il faut se détacher un peu de la réglementation.
14:54 La réglementation, c'est très bien, c'est une chose, il ne faut pas qu'elle soit prohibitive pour l'innovation,
14:59 mais je pense que l'enjeu, il va au-delà pour les grandes entreprises qui veulent déployer de l'IA.
15:03 Il y a un enjeu de contrôle, de maîtrise, en fait, de la façon dont les décisions sont prises dans l'entreprise.
15:08 Parce que l'IA prend des décisions. Donc, est-ce qu'on sait pour quelle raison l'IA a pris telle décision ou telle autre décision ?
15:13 En tout cas, elle recommande certaines décisions. C'est l'humain qui décide de les prendre ou pas.
15:18 Il faut qu'elle puisse expliquer pourquoi elle recommande tel type de décision,
15:23 que ce soit directement vers les clients ou même à l'intérieur de l'entreprise.
15:26 Donc, il y a un enjeu de maîtrise et puis un enjeu d'éthique aussi.
15:29 Les entreprises doivent prendre en compte cet enjeu d'éthique au-delà du sujet de la réglementation.
15:34 Et ça, la question de l'éthique, ça peut faire partie des nouveaux axes de cybersécurité des algorithmes ?
15:41 Complètement, oui. Parce que la question de l'éthique, ça peut se formaliser, en fait.
15:45 Il y a plusieurs attaques qu'on connaît sur les questions d'éthique.
15:48 Par exemple, ce qu'on appelle le "gender neutrality", c'est voir si, quand je donne des entrées différentes dans les IA,
15:54 en fonction des pays, des religions, du genre aussi, est-ce qu'on a des réponses qui sont différentes ?
16:01 Ce sont des choses qui se formalisent. Et aujourd'hui, on a des outils pour le faire.
16:05 Ce qui est intéressant aussi, c'est de voir l'approche américaine sur ce sujet, justement, comment on va encadrer l'IA,
16:11 qui n'est pas forcément la même approche que l'Europe, d'ailleurs, de manière générale.
16:16 Mais, par exemple, ils travaillent sur le hacking des algorithmes pour aller voir où sont les biais,
16:22 qu'est-ce qu'on peut aller trouver comme transparence de manière effective.
16:26 C'est beaucoup plus opérationnel, je dirais, comme réglementation.
16:29 Et puis, beaucoup de soutien, de subvention aussi. Alors ça, on y arrive en France.
16:33 On va passer à notre deuxième sujet, justement, avec Mistral, qui n'a pas attendu le soutien de l'Europe,
16:38 pour faire une deuxième tour de table, une très belle levée de fonds.
16:43 385 millions d'euros pour une start-up française, ça fait plaisir.
16:49 Pour créer des grands modèles de langage, ça fait encore plus plaisir.
16:52 Mais est-ce que ce n'est pas un peu un vent de folie, quand on nous parle d'une valorisation, déjà,
16:56 pour cette start-up qui a quelques mois, finalement, de pratiquement 2 milliards de dollars ?
17:05 On s'emballe ?
17:07 On ne s'emballe pas, parce qu'aujourd'hui, j'allais dire, ils ont eu presque la reconnaissance de leur père,
17:12 après qui est court. Aujourd'hui, quand vous demandez à OpenAI et à Sam Altman qui sont ses concurrents,
17:17 ils citent notamment Mistral.ai, ils citent aussi LF Alpha en Allemagne, etc.
17:22 Donc, quelque part, ils sont reconnus, c'est quand même des chercheurs très brillants,
17:26 qui ont tous participé à l'appui.
17:29 Les trois co-fondateurs, qui sont des normaliens,
17:32 qui ont travaillé dans les big tech sur ces sujets de grands modèles de langage.
17:35 Donc, ils ne parlent pas de zéro, qui avaient contribué au modèle de meta Yama2, etc.
17:41 Donc, globalement, ils ont cette puissance technique, ils ont fait leur preuve,
17:46 c'est-à-dire, très rapidement, personne n'y croyait, ils ont développé quand même une première version
17:50 qui marche, qui marche bien, qui n'est pas encore au niveau d'un GPT-4, mais qui marche bien.
17:56 Donc, ils ont fait leur preuve et ils ont cette solidité.
17:59 Donc, voilà, et 380 millions, on n'est pas encore au niveau des 10 milliards qu'a mis Microsoft dans OpenAI.
18:07 On est encore loin du jeu, mais c'est déjà un signal extrêmement positif
18:12 sur le fait qu'on y va et qu'on est capable.
18:15 C'est ça sur quoi on bloquait depuis des années le financement, un peu après le lancement d'une startup.
18:22 Je me permets un petit bémol, parce que quand même, aussi,
18:25 derrière ce financement magnifique, on a des fonds américains.
18:28 Entre autres, pas uniquement.
18:31 Oui, un commentaire d'Avid.
18:32 Moi, ce que je pense, c'est que je trouve ça très bien, en fait, qu'on essaie de créer des champions européens
18:38 qui vont avoir une portée mondiale, ça, c'est vraiment très bien.
18:41 Notre approche, elle est toujours ouverte.
18:43 Nous, on travaille dans une logique d'écosystème, donc on va travailler avec différents acteurs
18:48 dans différentes régions, différentes géographies.
18:51 Je pense qu'on sort un peu de la logique big tech, small tech, c'est comme l'a très bien dit Yann Lequin.
18:55 On rentre plutôt maintenant dans une frontière entre les techs qui sont open et les techs qui sont fermés.
19:01 Et donc, à partir du moment où on arrive à créer des acteurs qui vont créer de la technologie open,
19:06 je pense que ça va être bénéfique pour tout le monde.
19:08 Et Mistral, c'est ce qu'ils veulent faire.
19:10 Donc, ils rejoignent ce mouvement.
19:12 On enchaîne avec l'autre actualité, parce que le temps file.
19:15 C'est cette IA qui doit aider les élèves de seconde dès la rentrée 2024, en français et en mathématiques.
19:22 Elle s'appelle MIA pour module interactif adaptatif.
19:26 Est-ce que l'IA, c'est l'avenir d'éducation beaucoup plus personnalisée selon vous ?
19:30 Alors, moi de mon côté, je suis un peu plus sceptique parce que, déjà, j'ai testé cette application il n'y a pas très longtemps.
19:36 On voit en fait tous les modes d'emploi.
19:38 C'est vraiment un outil d'aide au devoir, c'est clair, avec de la recommandation pour aller au bon endroit, au bon exo.
19:46 En fonction de son niveau.
19:48 Par contre, après, la vraie question qu'on peut se poser, c'est là où on sait aujourd'hui qu'il y a un vrai souci pour les élèves de seconde.
19:56 Il y a l'enquête PISA qui montre qu'il y a une baisse sans précédent du niveau.
19:59 Et on sait aussi les raisons pour lesquelles il y a cette baisse-là.
20:02 On sait que c'est parce qu'on ne trouve pas de profs.
20:04 Deux tiers des provisaires, on n'arrive pas à trouver de profs.
20:06 Donc, voilà.
20:07 Donc, là, il y a la question de, est-ce qu'on surfe sur cette vague un peu gadget de l'IA pour les élèves de seconde ?
20:13 Ou est-ce qu'on augmente un peu les salaires ?
20:15 C'est-à-dire que ça remplacerait les cours de rattrapage ?
20:17 Ça pourrait leur donner l'idée de ?
20:19 Moi, je pense que c'est sûr que c'est beaucoup moins cher de développer une app pour l'aide au devoir à coup de campagne de com'
20:29 que plutôt augmenter les salaires des profs.
20:31 Donc, voilà. Je pense que…
20:32 Il y a un risque à confier, justement, ce rattrapage, ces mises à niveau à des algorithmes ?
20:38 Non, pas vraiment là-dessus parce que j'ai regardé un peu les algorithmes.
20:41 Ce n'est pas vraiment des IA qui génèrent des choses.
20:44 Oui, c'est des quiz, des exercices.
20:46 C'est des choses qu'on maîtrise quand même.
20:48 Oui, vous vouliez réagir ?
20:50 Moi, je suis embêté parce que je pense que ce serait une bonne idée dans l'absolu.
20:53 Ça n'en est pas une aujourd'hui, à un moment où on a un vrai problème de nombre de profs et de niveau des profs.
20:59 C'est-à-dire que moi, je considère que c'est une très bonne chose d'apprendre aux élèves à utiliser les IA,
21:04 générative ou pas, celle-là n'en est pas une, parce qu'ils vont devoir le faire.
21:08 C'est une évidence aujourd'hui, ça vient dans la vie de tout le monde, etc.
21:11 Donc, il ne faut pas faire comme si ça n'existait pas, il ne faut pas l'interdire, mais il faut l'accompagner.
21:14 Et pour l'accompagner, il faut des profs et des parents aussi, qui soient complètement au niveau
21:19 et qui soient en capacité finalement de vraiment apporter ce que l'humain seul peut apporter
21:25 et en même temps faire utiliser intelligemment ces trucs-là et donner aux enfants la capacité
21:30 à évaluer ce que leur propose l'IA, à le contrôler, à faire des choses à côté, etc.
21:35 Et aujourd'hui, je pense qu'on n'a pas ça.
21:37 Alors, comme on n'a pas ça, du coup, on va utiliser ce gadget en se disant
21:40 "Bon, voilà, à défaut de vrais profs, on va mettre un prof robot".
21:44 Ce qui est intéressant, c'est que les données seront partagées avec les profs, avec les parents.
21:48 On saura un petit peu plus où en est l'élève dans sa progression.
21:51 Après, il faut que ce soit suffisamment ludique aussi pour que l'élève joue le jeu, je dirais, avec son IA.
21:58 Oui, alors il y a eu plein d'études sur le fait d'essayer de mettre trop de ludique dans l'enseignement,
22:03 finalement ennuye à l'enseignement. Donc, je me méfie aussi un peu de ça.
22:07 Donc, qu'on essaye le truc, je pense que c'est une bonne chose, parce qu'ils vont devoir utiliser des outils de ce type-là, etc.
22:12 Qu'on en fasse l'alpha et l'oméga du rattrapage de notre tard PISA, là,
22:16 je pense que c'est une erreur et que le vrai sujet, c'est les profs humains de bon niveau qui sont capables d'accompagner.
22:22 Il nous reste 30 secondes. Allez, pour l'Alliance Géante pour l'IA Open Source.
22:26 C'est une initiative des groupes américains IBM et Meta.
22:33 C'est baptisé AI Alliance et il y a déjà 57 membres.
22:37 C'est ça. Donc, c'est déjà, c'est mondial. C'est une initiative mondiale dans laquelle il y a IBM, Meta, Gingspace
22:43 et puis beaucoup d'acteurs dans le monde de la recherche, des académiques, des acteurs qui produisent de la technologie.
22:51 Et l'idée, c'est de promouvoir une approche open, ouverte, d'évolution de la technologie et une approche responsable.
22:57 On parlait de l'AI Act. Nous, l'approche responsable, elle est vraiment au cœur de tout ce qu'on fait.
23:00 Avec des standards.
23:01 Avec des règles, des standards, des cadres pour vraiment s'assurer qu'on produit une IA de confiance.
23:07 Merci beaucoup. On n'a plus le temps, pas le temps d'en dire plus, mais on suivra évidemment ces initiatives.
23:11 David Sebaoun était avec nous d'IBM Consulting France, Jean-Marie John-Matthews de Giscard,
23:17 la startup prometteuse pour surveiller nos IAs et Guylain de Pierrefeu du cabinet Wavestone.
23:22 Merci beaucoup à tous.
23:24 On enchaîne avec un autre univers. On va aller dans la nature, s'intéresser au biomimétisme.
23:29 On termine cette édition avec notre rendez-vous dans la nature, avec le biomimétisme, plus précisément la bio-inspiration.
23:40 Bonjour Quentin Hemsalem, vous êtes spécialiste R&D bio-inspiré chez Bioxégie.
23:45 Et aujourd'hui, vous allez nous parler du lien entre la biominéralisation osseuse et le béton, avec la présentation d'un projet européen.
23:55 Alors on va d'abord s'intéresser au secteur du bâtiment.
23:58 Exactement, le secteur du bâtiment qui est essentiel pour notre développement, mais qui est aujourd'hui un très gros consommateur de matières premières
24:06 et qui est aussi un très gros émetteur de gaz à effet de serre, de par l'extraction et la transformation des matériaux de construction.
24:13 Et chez Bioxégie, on est un bureau d'études spécialiste en innovation inspirée de la nature.
24:18 On s'est demandé comment réussir à transformer cette industrie.
24:23 Et dans ce cadre là, on a rejoint un consortium d'entreprises et d'universités réunis autour d'un projet commun qui est le projet Seastone.
24:31 Donc Seastone pour carbone, to stone, donc du carbone à la roche.
24:35 Donc c'est un projet européen qui vise à essayer de réduire l'empreinte environnementale du secteur de la construction,
24:41 notamment en développant des matériaux qui capturent le CO2.
24:47 Ok, et donc pour cela vous êtes allé chercher une inspiration dans notre biologie en regardant la minéralisation osseuse.
24:55 Exactement. Alors le vivant peut nous aider vraiment de plein de manières différentes pour réussir à développer un matériau qui capture le CO2.
25:02 Mais ce qui nous a particulièrement intéressé dans la biominéralisation, c'est cette capacité de créer un minéral.
25:11 Et c'est ce que savent très bien faire les êtres vivants, c'est effectivement ce que c'est la biominéralisation.
25:16 C'est vraiment un phénomène naturel de fabrication de minéraux par les êtres vivants.
25:21 Donc c'est l'ensemble des cellules et des molécules qui vont créer une structure minérale.
25:25 Alors les structures minérales, on en trouve plein dans le vivant.
25:29 Il y a les squelettes, des vertébrés, il y a aussi les exosquelettes, des mollusques, des crustacés.
25:35 Mais il y a aussi et notamment surtout l'os humain qui a ce rôle de support du corps, du support des membres.
25:46 Mais qui a aussi cette incroyable capacité de s'auto-cicatriser.
25:52 Et c'est ça qui nous a particulièrement intéressé dans le cadre du projet Seastone.
25:57 C'est essayer de comprendre comment concrètement il arrivait à s'auto-cicatriser.
26:01 Parce que si on arrivait à faire s'auto-cicatriser des matériaux de construction, ce serait vraiment parfait.
26:07 Et alors parlez-nous un peu justement de ce projet de béton auto-cicatrisant.
26:12 Voilà c'est ça. C'est finalement des chercheurs qui se sont dit mais alors concrètement comment on fait de l'os pour s'auto-cicatriser.
26:20 Alors si on rentre un petit peu dans la biologie, il y a deux types de cellules qui permettent l'auto-cicatrisation de l'os.
26:30 Il y a des cellules qui vont synthétiser la matrice osseuse et des cellules qui vont commander cette synthétisation.
26:36 Et c'est exactement ce qu'on va reproduire les chercheurs dans un béton.
26:40 C'est-à-dire qu'ils vont insérer des micro-capsules de phosphate qui sont finalement à l'état dormant dans le béton lorsqu'il est intègre.
26:49 Mais dès qu'il y a une fissure dans le béton, ça va finalement, l'eau et l'humidité et le CO2 de l'air va rentrer en contact avec ces micro-capsules.
27:00 Ce qui va libérer une substance active et ce qui va complètement minéraliser et réparer la fissure du béton pour lui faire récupérer ses propriétés mécaniques et son étanchéité.
27:13 Super projet, merci beaucoup pour ces détails et bravo pour ce projet européen dans le BTP.
27:21 Quentin Hamsalam, je rappelle que vous êtes spécialiste R&D bio-inspiré chez Bioxigy.
27:25 Vous nous offrez régulièrement ce regard sur le biomimétisme.
27:28 Et puis merci à tous ceux qui nous suivent et qui regardent Smartech sur la chaîne Bismart ou encore sur nos réseaux sociaux et nous suivent en podcast.
27:36 A très bientôt, je vous souhaite une excellente journée.
27:38 On se retrouve pour de nouvelles discussions sur la tech très vite.
27:41 [Musique]

Recommandations