• il y a 2 mois
Mardi 24 septembre 2024, SMART TECH reçoit Jérôme Valat (CEO et cofondateur, Cleyrop) , Yann Padova (avocat associé, Wilson Sonsini) , Murielle Popa-Fabre (experte en traitement automatique du langage, Conseil de l'Europe) et Jérôme Bouteiller (Fondateur, EcranMobile)

Category

🗞
News
Transcription
00:00Bonjour à tous, grand rendez-vous sur l'intelligence artificielle aujourd'hui dans Smartech.
00:12Alors on va s'intéresser à l'utilisation des données personnelles des Européens pour entraîner ces grands modèles d'intelligence artificielle,
00:19alors qu'une enquête vise actuellement Google à ce sujet.
00:22Et puis cette question, peut-on encore lancer une startup d'IA ?
00:26Et bien oui, parce que les géants auraient peut-être déjà tué le game.
00:29On terminera avec les avis des pros sur les nouveaux modèles qui ont été dévoilés, les nouveaux modèles d'IA.
00:36Ça c'est donc notre grand rendez-vous.
00:38Je vous propose aussi dans cette édition un focus sur le business du mobile.
00:43Je ne sais pas si vous avez entendu parler de Distraction Control,
00:46cette nouvelle fonctionnalité qui est en fait un bloqueur de pop-up dans les iPhones.
00:51Voilà pour le programme.
00:57Pour ce grand rendez-vous de l'IA dans Smartech, j'ai convié Jérôme Ballac, cofondateur de Clérop.
01:03Clérop, plateforme data et IA clé en main, conçue pour démultiplier simplement les usages autour de la donnée.
01:09Bonjour Jérôme.
01:10Bonjour.
01:11Avec vous Muriel Popafab, vous êtes experte au Conseil de l'Europe,
01:15vous intervenez sur les questions de réglementation de l'intelligence artificielle et de protection des données.
01:20Bienvenue également Muriel.
01:22Et puis à côté de vous, Yann Padova, ancien de la CNIL et avocat aujourd'hui au barreau de Paris et Bruxelles, associé chez Wilson.
01:30Bienvenue également Yann.
01:32Je vous propose qu'on démarre avec ce premier sujet.
01:35C'est une enquête européenne qui a été ouverte sur l'utilisation des données personnelles des utilisateurs européens
01:41pour développer un des modèles d'intelligence artificielle de Google, Palm 2, qui date quand même de l'année dernière.
01:49Alors cette enquête doit déterminer si Google a respecté les obligations qu'elle aurait pu avoir de réaliser notamment une étude d'impact
01:57destinée à garantir la protection des droits et libertés fondamentaux des individus.
02:02Muriel, ma question en fait c'est, quoi cette étude d'impact ?
02:07Alors les études d'impact, c'est un sujet assez compliqué et qui en train vraiment de prendre forme actuellement.
02:14Notamment au Conseil de l'Europe pour comprendre quel est l'impact sur les droits fondamentaux de l'utilisation des outils à base d'intelligence artificielle.
02:24Et d'une certaine façon il faut dire qu'on sait depuis désormais 4 ans qu'on peut extraire des signatures d'adresse mail des modèles de langage.
02:35Donc c'est pas nouveau du modèle de Google. Il y a des études qui sont en science ouverte, qui ont été publiées.
02:43Et cette recherche de fond de comment on extrait des données qui sont mémorisées à l'intérieur des modèles de langage,
02:53et plus particulièrement de l'architecture transformateur, existe depuis 2018-2019.
02:57D'accord, donc ça veut dire que les grands acteurs de l'IA aujourd'hui ont des outils pour réaliser leurs études d'impact.
03:03Il y a des outils pour savoir et pour extraire de l'information des LLM.
03:08Juste un point, c'est une étude d'impact, pour préciser ce qu'a dit Muriel, au sens du RGPD.
03:13Savoir que c'est une étude qui doit mettre en balance les droits et libertés des personnes et l'intérêt commercial et business de l'entreprise,
03:20et arriver justement à montrer qu'il n'y a pas de disproportion et que les droits et libertés sont maintenus.
03:25C'est une obligation du RGPD, et c'est l'autorité irlandaise qui lance l'enquête, parce que l'établissement principal de Google est en Irlande.
03:32C'est aussi que la commission de protection des données personnelles irlandaise travaille pour l'ensemble des CNIL européennes.
03:39Elle a cette compétence au niveau de l'Europe, et donc c'est une enquête qui est assez limitée dans son champ,
03:43parce que c'est une enquête qui est quasi documentaire.
03:45Il y a une obligation de faire une étude d'impact au sens du RGPD.
03:48Est-ce que Google l'a bien faite ?
03:50Et est-ce que les droits et libertés des personnes sont bien balancés et sont respectés ?
03:54Donc là on est sur un règlement, vous avez dit le RGPD, qui est bien avant l'IACT.
04:00On n'est pas sur une obligation tout à fait récente.
04:03Vous dites aussi qu'on a déjà des indicateurs.
04:06Pourquoi cette enquête se porte spécifiquement sur Palm 2 ?
04:09Est-ce que Gémini, est-ce que les nouveaux modèles d'IA vous semblent poser moins de problèmes ?
04:14Ou on n'a pas eu le temps de regarder de près encore ?
04:16Il y a d'autres enquêtes de l'autorité irlandaise sur d'autres grands acteurs américains
04:22qui ont leur établissement principal en Europe, en Irlande.
04:26Meta, également l'objet d'une enquête, Google maintenant.
04:30Il y en a sûrement parce que tout n'est pas public.
04:32Mais je sais qu'il y en a d'autres.
04:34Il faut dire aussi que les études d'impact viennent de plusieurs pays,
04:42viennent de ratifier la convention cadre du Conseil d'Europe le 5 septembre,
04:46dont Israël, les Britanniques et aussi les Etats-Unis.
04:52Et à l'intérieur des obligations qui sont pour protéger de la discrimination,
04:59pour protéger le droit fondamental, l'état de droit et la démocratie,
05:02il y a ce type d'instrument et des outils de droit de recours si on est discriminé.
05:08Donc c'est quelque chose qui est présent aussi dans cette convention,
05:11qui vient d'être ratifiée.
05:13Et qui s'applique donc au-delà de l'Europe ?
05:15Qui s'applique au-delà de l'Europe.
05:17C'est très intéressant.
05:18J'ai un message très fort aussi qu'Israël a signé et que les Etats-Unis ont signé.
05:24La question que je voulais vous poser, Jérôme, c'est qu'aujourd'hui,
05:29puisque votre job en l'occurrence c'est de fournir des outils d'IA aux entreprises
05:33qui veulent s'y mettre pour brasser leurs data, en sortir de la donnée intelligente.
05:40Cette préoccupation justement de comment ont été nourries ces modèles de langage
05:46que vous, vous brassez, elle est présente ?
05:49Est-ce que vous avez une responsabilité, vous, quand vous êtes aussi un distributeur finalement ?
05:52Oui, le risque, il est réel.
05:55Et on en parlera peut-être plus tard.
05:57Mais l'EIAct vient, j'allais dire, un peu permettre d'échelonner,
06:01de différencier les différentes étapes d'usage d'un modèle.
06:05Et donc effectivement avec des responsabilités qui vont être attribuées,
06:07distribuées à chaque étage.
06:09Mais s'il y avait un esprit de taquin, ce que je n'ai pas,
06:12je m'étonne un peu aujourd'hui qu'on semble découvrir un peu la lumière.
06:19On a laissé, pour ne pas dire même offert, le marché numérique européen aux Américains.
06:26Alors qu'on a une décision de Cour Européenne de Justice en 2015
06:29qui nous disait déjà qu'il fallait être un peu prudent.
06:32Et donc aujourd'hui, ils ont les données européennes.
06:36Je crois que c'est 92% des données des entreprises européennes
06:38qui sont détenues par les Américains.
06:40Sur l'hébergement, vous parlez de l'hébergement ?
06:42Oui, sur l'hébergement.
06:43Et donc aujourd'hui, sur tous ces modèles-là,
06:45l'efficience de ces modèles va être directement dépendante
06:48du volume et de la qualité des données pour les entraîner.
06:51C'est quand même très tentant d'utiliser les données
06:53que vous avez à votre disposition pour le faire.
06:55Donc maintenant, on va devoir de nouveau,
06:57c'est un peu une spécialité européenne, courir un peu contre la montre
07:00pour essayer de récupérer des dérives que malheureusement on n'a pas anticipées.
07:04Là, c'est la question de l'hébergement des données
07:07par repenser notre marché du cloud.
07:11Mais certains disent que cette bataille est perdue.
07:14Alors oui, elle est très clairement perdue aujourd'hui.
07:17La question, c'est de savoir si elle est perdue définitivement.
07:19Et la question, c'est de savoir après les conséquences de cette défaite
07:22et de savoir si on continue de les accepter
07:24ou si à un moment donné, on décide qu'effectivement,
07:26on va devoir faire marche arrière.
07:28Mais ces données, elles sont anonymisées
07:31quand elles sont hébergées sur des clouds
07:34pour des utilisations d'entraînement d'IA ?
07:37Pas forcément anonymisées.
07:39Et il y a une autre bataille qui se mène en sous-main
07:42à l'intérieur des entreprises.
07:44Les autorités de protection des données européennes
07:46ont reçu dans la dernière année, beaucoup de lettres de la part d'employés
07:49qui ont vu arriver des assistants IA
07:52achetés sur étagère par leur employeur
07:54et on ne leur a pas demandé de valider les conditions d'utilisation.
07:59Donc il y a quelque chose qui se passe,
08:01je discutais la semaine dernière avec des représentants
08:03des syndicats internationaux,
08:05qui se passe sur la question de ce qu'on appelle en bon français
08:09le Workspace Data Surveillance.
08:13Donc la surveillance data à l'intérieur des entreprises
08:16qui est un vrai sujet à la fois au niveau de l'employeur
08:19et à la fois au niveau des données
08:22et de comment elles sont hébergées
08:23et surtout des conditions d'utilisation
08:25parce que c'est ça qui détermine.
08:27On valide très vite les conditions d'utilisation quand elles existent.
08:31Pour moi il y a deux questions.
08:33Il y a l'hébergement où la puissance des cloud étrangers américains
08:37est telle que le coût d'entrée et les investissements d'entrée
08:39ne sont pas rattrapables.
08:40Après il y a l'usage des données.
08:44Il y a le rapport Draghi qui est sorti il y a deux semaines
08:47qui dit qu'en termes d'innovation,
08:49l'Europe est en train de décrocher aussi, peut-être,
08:51et c'est l'ancien spécialiste du droit des données qui parle,
08:54peut-être parce qu'on a un cadre qui est trop restrictif
08:56sur l'utilisation des données et sur l'innovation.
08:59Il invite aussi à réfléchir sur le fait qu'en Europe,
09:02moi qui suis à Bruxelles, je le vois bien,
09:04on aime réguler, on aime même réglementer,
09:06peut-être un peu trop,
09:07et que l'innovation ne s'articule pas toujours très bien.
09:10Je ne vous ai pas vu dans les signataires de la tribune du jour.
09:14J'en ai fait un certain nombre.
09:16J'ai écrit dans des revues très savantes là-dessus
09:18depuis une dizaine d'années.
09:19L'équilibre entre l'innovation et la protection des données
09:23en Europe, c'est peut-être un peu trop déplacé,
09:25dans un sens, et ce n'est pas que moi qui le dis,
09:27moi je le dis depuis longtemps, Draghi le dit aussi aujourd'hui,
09:29et que l'utilisation, c'est ça où la richesse de la donnée
09:33va être révélée.
09:34C'est pour ça que les gros volumes sont nécessaires,
09:36mais aussi qu'on puisse faire des tests, etc.
09:38Et ça, aujourd'hui, c'est plus compliqué.
09:40Parce que là, ce que nous dit cette lettre ouverte,
09:42parue jeudi dans plusieurs quotidiens nationaux,
09:44avec une réglementation fragmentée,
09:47l'Union européenne prend le risque de passer
09:49à côté de l'ère de l'IA.
09:50Alors là, on est quand même dans cette difficulté
09:54de trouver la juste mesure entre la protection
09:58des données personnelles, s'assurer de la manière
10:01dont ces modèles d'intelligence artificielle sont nourris
10:05et utilisent les données personnelles ou non,
10:08et puis aussi laisser l'innovation,
10:11laisser des entreprises d'IA émerger,
10:13qui, elles, ont peut-être un petit peu de retard
10:15et n'ont pas déjà siphonné toutes les données
10:18comme ont pu le faire les grandes entreprises américaines.
10:21Muriel, comment vous réagissez à cette tribune ?
10:25La question de la compétitivité est au cœur
10:27du nouveau mandat de la Commission.
10:29Donc, il y a une très claire prise de conscience
10:32au niveau européen que la question de la souveraineté
10:34numérique est centrale, non seulement d'un point de vue
10:36réglementaire, mais aussi d'un point de vue de compétitivité.
10:38C'est ce qui ressort du rapport Draghi,
10:40mais c'est ce qui ressort des deux dernières années
10:42aussi de négociations du IACT.
10:44Il y a une prise de conscience généralisée
10:46sur la mutualisation de la puissance de calcul
10:49à travers les différents pays européens.
10:51Mistral a pu entraîner sur le supercalculateur italien.
10:54Donc, il y a quelque chose qui se passe
10:56au niveau de l'accès à la capacité de calcul.
10:58Il y a quelque chose qui est en train de bouger
11:00au niveau de créer des data hubs
11:02par verticale industrielle,
11:05ce qui devrait améliorer aussi l'arrivée des produits,
11:09c'est-à-dire pas simplement du modèle de fondation,
11:11mais de quelque chose qui a un impact sur l'industrie.
11:14Parce que la question de la compétitivité,
11:16c'est ça aussi.
11:18Donc, je pense que de façon générale,
11:21du point de vue des données et du calcul,
11:24cette prise de conscience est là.
11:26Un énorme investissement est en train d'arriver
11:29et des appels à projets ont été lancés
11:31au niveau de la Commission.
11:33Et l'organisme qui est censé implémenter
11:35le IACT au niveau européen,
11:37le AI Office à l'intérieur de la Commission,
11:39a vraiment une double casquette de promouvoir l'innovation
11:41et d'implémenter le IACT.
11:44C'est un cocktail qui trouve l'équilibre
11:49entre ces deux pôles de protection des citoyens européens
11:53et d'innovation fondamentale.
11:55Et c'est quelque chose qui joue sur l'échiquier géopolitique.
11:58Parce que c'est la question de la souveraineté.
12:00Cette question de compétitivité,
12:02elle se joue aussi au niveau de la manière
12:06dont sont fabriqués ces modèles d'IA.
12:08Parce qu'il y a une mission qui a été confiée
12:10à Alexandra Ben Samoun pour éclairer
12:12le gouvernement sur ses obligations
12:14des fabricants d'IA à dire
12:16quelles sont ces données utilisées
12:18pour entraîner leur modèle.
12:20Le rapport, on l'attend plutôt d'ici à la fin de l'année.
12:22C'est là que va se jouer aussi la capacité
12:24d'être compétitif ou non.
12:26Oui, surtout va se jouer la question
12:28de trouver ce juste équilibre.
12:30Parce que le IACT n'écrit pas
12:32quel est le juste équilibre.
12:34C'est pour ça qu'il y a besoin d'un rapport
12:36qui explique et qui interprète la loi.
12:38Il faut dire que le deuxième champion de LLM,
12:41vient de déclarer il y a une dizaine de jours
12:43à l'alpha l'allemand,
12:45deuxième parce que mon coeur est français,
12:47qui dit que ce n'est plus un business model
12:51de faire des LLM souverains.
12:53Et qui s'est retiré de la course.
12:55Donc il y a un vrai sujet sur la question
12:57des données et la qualité des données.
12:59On va arriver à notre deuxième sujet.
13:02Je voulais vous faire réagir en particulier, Jérôme.
13:05Est-ce que lancer une jeune pousse
13:07d'intelligence artificielle aujourd'hui
13:09c'est une mission impossible ?
13:13C'est difficile de répondre à cette question.
13:15Parce que c'est un papier dans La Presse,
13:18qui est un média canadien,
13:20qui apporte une réponse assez catégorique.
13:24Oui, c'est impossible.
13:26Avec des chiffres qui sont cités du patron d'Entropique.
13:29Les modèles apparus en 2024 ont coûté
13:31au bas mot 1 milliard de dollars.
13:33Ceux qu'on verra apparaître en 2025-2026
13:35coûteront 5 à 10 milliards.
13:37Pour une start-up qui se crée,
13:39c'est un peu compliqué d'avoir ces moyens de financement.
13:41Oui, on peut dire ça comme ça, c'est compliqué.
13:43Donc, impossible ?
13:44Oui, mais si on regarde par exemple,
13:46on a une aventure créée il y a deux mois,
13:48aux Etats-Unis, d'un modèle de super-intelligence,
13:51qui en plus arrive avec un positionnement un peu vertueux.
13:53Oui, on va en parler aussi.
13:54Exactement, on va en parler après.
13:55Et qui vient, après deux mois d'existence,
13:57de lever un milliard.
13:58Donc pour l'instant, j'allais dire,
14:00l'écosystème de financement autour de ces sujets
14:02a l'air de suivre l'inflation
14:04des investissements nécessaires.
14:06Pour l'instant, je ne sais pas vraiment
14:08si on a déjà touché la limite.
14:10Et je rajouterais en plus à ça,
14:11qu'il faut prendre conscience
14:13que dans ces énormes levées de fonds autour des modèles,
14:15il y a le problème des infrastructures GPU derrière,
14:17qui coûtent une fortune aujourd'hui
14:19du fait que le marché est très pénurique,
14:21avec peu d'acteurs, etc.
14:22Et que si jamais, d'aventure,
14:24on arrive avec moins de pénurie,
14:26on va avoir aussi des coûts d'infrastructures
14:28qui vont baisser,
14:29donc peut-être des investissements moins lourds.
14:31Et puis peut-être qu'un de ces cas,
14:32on va se rappeler aussi
14:33qu'on a une problématique peut-être écologique derrière,
14:35et qu'on est en train de créer des monstres énergivores,
14:37et que peut-être que si un jour,
14:39on commence à faire un virage
14:40vers des modèles un peu plus raisonnables
14:42en termes de consommation,
14:43là aussi on pourrait avoir une baisse d'investissement.
14:45Donc je trouve que c'est un peu tôt aujourd'hui
14:47pour tirer des conclusions aussi catégoriques.
14:49On ne baisse pas les bras tout de suite.
14:51Pour être compétitif,
14:53le seul choix c'est s'adosser
14:55aux géants existants, vous dites ?
14:57Pas forcément.
14:58Alors si, ça par contre je dis tout à fait forcément,
15:00mais ce n'est pas du tout une question de moyens.
15:01C'est qu'aujourd'hui,
15:02et c'est ce qu'a fait Mistral
15:03en commençant à travailler avec Microsoft,
15:04c'est que quand vous êtes un modèle,
15:05quel que soit le pays dans lequel vous êtes,
15:07de toute façon à un moment donné,
15:08vous avez le problématique d'infrastructure.
15:09Il vous faut des infrastructures mondiales
15:11et capables de passer à l'échelle mondiale
15:13pour accompagner les besoins de vos clients.
15:15Aujourd'hui, à part les trois hyper-scaleurs américains,
15:17qui est capable de faire ça ?
15:18Personne.
15:19Donc en fait, ils sont effectivement une porte d'entrée
15:21vraiment au sens du texte européen.
15:24On sait ce que c'est,
15:25une fois qu'on est marié,
15:26c'est compliqué de se séparer dans le numérique.
15:28Ah oui, ça je confirme.
15:29Et donc effectivement,
15:30il y a ce risque d'avoir ce phénomène de phagocytage
15:32de toute innovation,
15:33parce qu'à un moment donné,
15:34s'il faut passer par eux,
15:35sinon vous ne pourrez pas toucher
15:36et servir l'ensemble de vos clients.
15:38Allez, on va regarder ces nouveaux modèles d'IA,
15:40parce que le temps passe très vite.
15:42Vous l'avez évoqué,
15:43SAFE, Super Intelligence,
15:45qui a levé un milliard de dollars pour son IA.
15:47Sûr.
15:48Alors, on va en parler.
15:49Qu'est-ce que c'est une IA sûre ?
15:51En tout cas, d'abord,
15:52l'information notable,
15:54c'est que cette start-up SSI
15:56a été co-fondée notamment par Iliad,
15:59qui dirigeait l'équipe de super alignement
16:02chez OpenAI
16:04et qui a participé au départ de Sam Altman,
16:09au départ avant qu'il revienne, bien sûr.
16:11Il lui prend le parti, en fait,
16:12de ne pas commercialiser de produits
16:14avant d'avoir la certitude
16:15que ces systèmes d'IA
16:16ne représentent aucun danger pour l'humanité.
16:19On est capable de s'assurer de ça aujourd'hui.
16:22Comment on fait ?
16:23Muriel.
16:24Moi, je pense que si la safety,
16:27comprise à l'américaine,
16:29qui est en fait une façon d'appeler la gouvernance,
16:32de ces modèles passe par
16:34défier le paradigme de la boîte noire,
16:37je pense qu'on arrivera à quelque chose
16:39qui peut être gouvernable.
16:42Je ne reprends pas la vulgate californienne
16:45de l'alignement
16:46parce que je pense que le vrai problème,
16:47c'est d'avoir de l'observabilité.
16:49Par exemple,
16:53Anthropique a dévoilé au mois de mai
16:55une étude qui montre
16:56combien ils arrivent tout doucement
16:58à l'intérieur d'un modèle de langage
17:00qui est en production,
17:01de 70 milliards de paramètres,
17:03à commencer à comprendre
17:05comment l'information est condensée
17:07dans le réseau de neurones.
17:08Et ça, c'est essentiel, en fait,
17:09de gagner cette observabilité
17:11pour pouvoir gouverner les sorties,
17:12gouverner les hallucinations,
17:14gouverner toutes sortes de problématiques
17:16qui, après, se retrouvent
17:18dans la difficulté d'adoption
17:20des outils d'IA génératives.
17:22Donc, je pense qu'aujourd'hui...
17:23On a vu comment ça fonctionne
17:24quand on entraîne
17:25une intelligence artificielle
17:27et qu'on s'aperçoit qu'elle donne
17:29d'excellents résultats dans certains cas
17:31et vraiment des absurdités dans d'autres.
17:34On pratique de la correction,
17:35mais on ne sait pas pourquoi,
17:37d'un seul coup,
17:38cette IA se met à être stupide
17:39ou super intelligente.
17:41C'est ça ?
17:42Oui, on commence à avoir des hypothèses
17:44de trous dans les données,
17:46de problématiques de représentativité
17:48des données,
17:49mais sur le fond,
17:50on reste dans une situation
17:51où, à l'intérieur du réseau de neurones,
17:53la façon dont l'information
17:55passe d'une strata à une autre
17:57est compliquée,
17:58surtout quand on a des modèles
17:59très, très grands.
18:00Donc, ça a été un proof-of-concept
18:02au printemps,
18:03comme vous disiez,
18:04de commencer à comprendre
18:06quels sont les motifs
18:09d'activation des neurones
18:11par l'équipe de l'entropique.
18:14Parce que, juridiquement,
18:17on exige une certaine transparence
18:19aujourd'hui de la part des algorithmes,
18:20et donc là, techniquement,
18:22c'est impossible,
18:23puisque même les fondateurs
18:26sont face à une boîte noire.
18:28Oui, en droit des données,
18:30on fait plus attention
18:31à l'effet sur les personnes.
18:32Est-ce que ça va avoir un effet négatif
18:34sur leur droit ou sur leur vie, etc. ?
18:36Et, dans ces cas-là,
18:37plutôt qu'être capable de l'expliquer,
18:39il faut aussi être capable
18:40de le rectifier.
18:41C'est ça le plus important.
18:42Mais c'est vrai que,
18:43dans un certain niveau de sophistication,
18:45comme ça vient d'être expliqué,
18:46on n'est pas vraiment capable.
18:47C'est la boîte noire.
18:48Donc, on va se concentrer
18:49sur les effets, les prévenir,
18:51essayer d'avoir des mesures
18:52de gouvernance, justement,
18:53pour les limiter a priori
18:55et les remédier a posteriori.
18:57Mais c'est des systèmes
18:59qui sont encore en phase
19:03d'expérimentation, parfois.
19:04Et donc, les décisions automatisées,
19:06on les a depuis longtemps
19:07dans le monde du droit des données,
19:08le profil bancaire, le scoring, etc.
19:11C'est ancien.
19:12Mais là, ça prend des proportions
19:13qui peuvent être plus importantes.
19:15Et donc, c'est d'autant plus difficile.
19:18Et puis, juste,
19:19il y a les fournisseurs de modèles,
19:20bien sûr.
19:21On pense toujours à eux.
19:22Et on en parle beaucoup.
19:23Mais il n'y a pas qu'eux
19:24dans la chaîne de l'intelligence artificielle.
19:25Il y a d'autres rubriques.
19:26On parle des vectors stores,
19:28des rags, etc.
19:29Et c'est tout l'ensemble
19:30de cette combinatoire
19:31qui va créer ou pas une efficience
19:32ou éventuellement une infraction
19:33à certaines réglementations.
19:35Et donc, là aussi,
19:36on va avoir des chaînes
19:37de responsabilité un peu complexes.
19:38Et en tout cas, du coup,
19:39même effectivement
19:40pour les éditeurs de modèles,
19:41d'arriver à trouver l'origine
19:42à un moment donné d'une erreur
19:44ou d'une hallucination,
19:45c'est...
19:46Alors, ça semble plus simple
19:47pour les modèles fine-tunés,
19:48enfin, en tout cas personnalisés
19:49puisqu'ils sont alimentés
19:50uniquement de données
19:51décidées de commun accord
19:52autour d'une problématique
19:53d'une entreprise.
19:54Oui, mais attention
19:55parce que vous-même,
19:56en tant qu'entreprise,
19:57par exemple,
19:58quand vous allez vous la utiliser,
19:59vous allez charger
20:00votre propre contexte de données avec.
20:01Donc, dans quelle mesure
20:02c'est vous-même
20:03qui avez créé, en fait,
20:04l'hallucination,
20:05l'erreur ou l'infraction
20:06alors que...
20:07Enfin, on est sur des chaînes.
20:08Aujourd'hui,
20:09on apprend en marchant.
20:10Oui.
20:11Muriel.
20:12La Silicon Valley
20:13a quand même compris
20:14le problème aussi,
20:15déjà depuis un an,
20:16en investissant
20:17de façon de plus en plus importante
20:18au niveau du venture capital
20:19dans une strata d'observabilité.
20:20C'est-à-dire que vous avez
20:21votre banque de données vectorielle
20:22qui est branchée
20:23à votre modèle de langage
20:24pour sécuriser
20:25que les données
20:26qui sont utilisées
20:27pour les réponses
20:28sont bien les données
20:29de votre entreprise
20:30ou les données
20:31que vous retenez,
20:32les bonnes données
20:33pour répondre à vos clients
20:34ou à vos employés
20:35si vous l'utilisez
20:36pour le management
20:37de connaissances.
20:38C'est-à-dire que vous avez
20:39votre banque de données
20:40que vous l'utilisez
20:41pour le management
20:42de connaissances.
20:43Mais ajouter cette strata
20:44permet de contrôler
20:45ce qui ressort
20:46de l'application
20:47basée sur la générative.
20:48Cette strata d'observabilité
20:49est une très bonne nouvelle
20:50pour la gouvernance
20:51et la sophistication
20:52des métriques
20:53qui sont utilisées
20:54à ce niveau-là
20:55est une très bonne nouvelle
20:56pour les entreprises
20:57et pour la gouvernance
20:58parce qu'ils vont pouvoir
20:59savoir jusqu'à quel point
21:00le modèle répond bien
21:01ou mal
21:02à leurs consommateurs.
21:03Et ça, ça fonctionne.
21:04Et ça, ça fonctionne.
21:05On va passer
21:06à cette nouvelle IA
21:07O1
21:08d'OpenAI.
21:09Donc nouvelle série
21:10de modèles
21:11d'intelligence artificielle
21:12qui sont vraiment conçus
21:13pour résoudre
21:14des problèmes complexes.
21:15On parle de problèmes
21:16scientifiques
21:17en physique,
21:18chimie, biologie
21:19avec des résultats
21:20qui seraient similaires
21:21à ceux des doctorants.
21:22Il semblerait
21:23que OpenAI découvre
21:24que ces modèles
21:25sont aussi super bons
21:26en physique,
21:27chimie, biologie
21:28avec des résultats
21:29qui seraient similaires
21:30à ceux des doctorants.
21:31Il semblerait
21:32qu'OpenAI découvre
21:33que ces modèles
21:34sont aussi super bons
21:35en maths et en programmation.
21:36Moi, ça me fait toujours
21:37quelque chose
21:38quand je comprends
21:39qu'en fait
21:40un créateur de modèles
21:41découvre quelque chose
21:42qu'il n'avait pas prévu.
21:43Bon.
21:44Est-ce qu'on est là
21:45vraiment vers
21:46la super intelligence
21:47que tout le monde promet
21:48pour les années qui viennent ?
21:49Je vais laisser la chercheuse.
21:50Alors, on est vraiment
21:51pas sûr de la super intelligence.
21:52On est vraiment pas sûr
21:53de la super intelligence.
21:54C'est vrai.
21:55C'est vrai.
21:56C'est vrai.
21:57C'est vrai.
21:58C'est vrai.
21:59C'est vrai.
22:00C'est vrai.
22:01C'est vrai.
22:02C'est vrai.
22:03C'est vrai.
22:04C'est vrai.
22:05C'est vrai.
22:06C'est vrai.
22:07C'est vrai.
22:08C'est vrai.
22:09J'ai parlé de la super intelligence.
22:10Ce qui est intéressant par contre,
22:11c'est qu'ils insèrent
22:12tout plein d'étapes
22:13qui permettent à l'utilisateur
22:14de se rendre compte
22:15comment on pourrait
22:16décomposer sa question
22:17de façon assez redondante.
22:18Plus on en fait,
22:19plus on rend compte
22:20que les étapes sont un peu
22:215-6 étapes maximum
22:22et puis ça reboucle.
22:23Donc, je pense que c'est
22:24une façon d'explorer
22:25un peu les possibles.
22:26Mais on est toujours
22:27avec dans cette interface
22:28où il y a écrit
22:29« thought for 11 seconds ».
22:30Ça a pensé pendant 11 secondes.
22:34On est toujours dans cette commercialisation de l'anthropomorphisation qui est très accentuée.
22:39Ce qui est assez fascinant, c'est que ça montre que les entreprises les plus innovantes,
22:44qui sont quelques-unes leaders mondiales, sont engagées dans une course à l'innovation.
22:48Non seulement elles sont leaders, mais c'est la condition de leur survie sur le marché.
22:53Je suis très impressionné par la vitesse de lancement des nouveaux produits.
22:56On n'a pas eu le temps de parler de Mistral AI, notre français bien.
23:01Avec son premier LLM multimodal, Mistral 12B.
23:04Merci beaucoup. Merci Jérôme Vallat de Clérope, Muriel Popafab d'Experts au Conseil de l'Europe
23:10et Yann Padova de Wilson Sans Souci. Merci.
23:20On termine cette édition avec le regard sur le business mobile de Jérôme Bouteiller.
23:24Bonjour Jérôme. Bonjour.
23:26Fondateur d'EcranMobile.fr. Vous allez nous parler de Distraction Control.
23:31Je ne suis pas sûr que tout le monde en ait entendu parler.
23:33Justement, c'est intéressant. C'est une nouvelle fonctionnalité qu'on va pouvoir retrouver dans l'iPhone
23:37et qui peut bloquer les publicités.
23:40Effectivement, cinq ans après l'introduction d'ITP qui compliquait la collecte de cookies sur Safari,
23:46trois ans après ATT qui a imposé une seconde pop-up de consentement,
23:50Apple a décidé de mettre à nouveau le bazar dans le monde de la publicité et des médias
23:55en introduisant une nouvelle technologie baptisée Distraction Control.
23:58C'est lancé cette semaine avec iOS 18 et c'est intégré à Safari, le navigateur web de l'iPhone.
24:05Ça va permettre aux mobinaux de masquer des éléments d'une page web qui pourraient les déconcentrer.
24:11Concrètement, on va pouvoir masquer une publicité, des liens sponsorisés à l'interstitial d'une vidéo
24:17et même les fameuses boîtes de consentement pour recevoir des notifications ou pour la collecte des cookies.
24:22Je crois que ça va faire plaisir aux utilisateurs. Pas sûr, en revanche, que ça n'inquiète pas les médias.
24:27Oui, effectivement, les médias digitaux sont très inquiets car ils redoutent à juste titre que le blocage des CMP,
24:33ces fenêtres de consentement paradoxalement devenues aussi intrusives que des publicités,
24:38que ce blocage leur complique la vie pour valoriser leurs inventaires.
24:43Distraction contrôle pourrait aussi bloquer l'affichage des publicités qui est la principale source de revenus des médias en ligne.
24:51C'est évidemment une mauvaise nouvelle pour beaucoup de titres qui avaient décidé de prendre le virage de la publicité 100% digitale et d'abandonner le papier.
24:58Le président d'Alliance Digitale, Nicolas Riel, estime ainsi que permettre aux internautes d'accéder à du contenu sans partager leurs données ou payer, c'est se rendre complice de vol.
25:07C'est comme si Apple leur donnait un moyen d'enlever le tourniquet des métros pour passer sans payer.
25:13Et quel pourrait être l'impact pour les médias ?
25:16Il faut d'abord rappeler que cette fonctionnalité va se limiter aux appareils Apple qui, malgré le succès de l'iPhone, n'ont qu'environ 30% de parts de marché en France.
25:25Le second point, c'est que c'est une fonctionnalité qui se limite à Safari, le navigateur web des appareils Apple, et donc ça ne touchera pas l'univers des applications.
25:34Et selon une récente étude de la CPM, le web mobile représente tout de même encore 65% de l'audience des médias digitaux.
25:41Et donc si distraction contrôle se généralisait, ce serait donc potentiellement 20 à 25% de l'audience de la presse en ligne qui pourrait être privée de publicité ou de collecte de données.
25:50Avant l'été, des associations professionnelles comme le GES, le SRI ou Alliance Digitale avaient envoyé une lettre ouverte à Tim Cook, le patron d'Apple,
25:58pour lui expliquer que c'était une innovation qui allait à l'encontre de leur modèle économique et que ça pouvait aussi aller à l'encontre des recommandations du RGPD.
26:06Ce qui n'a pas suscité de réaction d'Apple, pourtant très sensible à ces questions de vie privée.
26:10Mais pourquoi cela pourrait aller à l'encontre du RGPD ?
26:13Depuis sa mise en place en 2018, le règlement général pour la protection des données, qui est un texte européen, impose un cadre très strict pour la collecte et l'exploitation des données personnelles.
26:23Et dans le domaine publicitaire, c'est le consentement qui est le modèle qui s'est imposé, qui permet de déposer des cookies et qui va permettre de mieux cibler les internautes,
26:31mais également de mesurer la pression publicitaire ou tout simplement de mesurer les audiences.
26:35Et si distraction contrôle ne permet pas d'afficher les bandes aux cookies, les médias ne sauront plus s'ils peuvent collecter des données personnelles.
26:42Et ça va évidemment les gêner dans la monétisation de leur site web.
26:45Qu'est-ce qui va se passer selon vous ?
26:47À court terme, pas grand chose. Les médias vont subir cette innovation et les internautes pourront consulter gratuitement un site web sans avoir accepté les cookies, sans même voir de publicité.
26:58Mais à moyen terme, on peut redouter des dispositifs techniques qui bloqueraient les bloqueurs de pub.
27:04Et il est donc probable qu'il y ait des messages d'avertissement qui s'affichent avant même les cookie wall et donc qui limitent la navigation.
27:11Et puis il y aura sans doute aussi un volet judiciaire avec une réponse dans les tribunaux, avec le constat d'une distorsion de concurrence entre les médias indépendants et le média Apple.
27:21Oui, parce que le modèle économique d'Apple repose aussi en partie sur la pub.
27:26Oui, on le sait peu, mais Apple est devenu en quelques années un géant de la publicité.
27:30Il y a d'abord une commission sur les liens sponsorisés qui s'affiche justement dans le navigateur web.
27:35Et avec un partage de ruines avec Google, on parle de recettes annuelles estimées à 20 milliards de dollars.
27:40C'est gigantesque.
27:41Et puis après un faux départ il y a une dizaine d'années, Apple a aussi relancé sa régie Search Ads dans l'Apple App Store.
27:48Et là, on est aussi sur des volumes financiers de l'ordre de 10 milliards de dollars supplémentaires.
27:53Donc avec 30 milliards, Apple est un géant de la publicité digitale.
27:56On n'est pas encore au niveau d'un Google qui fait 250 milliards ou d'un Meta qui fait 120 milliards.
28:01Mais c'est un géant de la publicité digitale et toute action qui irait à l'encontre des médias indépendants
28:06pourrait être très mal vue par les autorités antitrust de part et d'autre de l'Atlantique.
28:10Merci beaucoup Jérôme Bouteiller d'EcranMobile.fr de nous avoir éclairé sur cette nouvelle fonctionnalité qui arrive cette semaine.
28:18Merci à vous tous de nous suivre avec régularité sur la chaîne BeSmart for Change,
28:23également en replay et en podcast.
28:25Je vous dis à très bientôt pour de nouvelles discussions sur la tech.
28:31– Sous-titrage Société Radio-Canada