• il y a 2 mois
Mardi 22 octobre 2024, SMART TECH reçoit Jérôme Malzac (directeur de l'innovation et expert en IA générative, Micropole) et Félicien Vallet (chef du service IA, CNIL)

Category

🗞
News
Transcription
00:00On commente l'actu de l'intelligence artificielle aujourd'hui avec deux invités,
00:07Félicien Vallée, bonjour, vous êtes chef du service IA à la commission nationale
00:11informatique et des libertés, la CNIL plus simplement, c'est un jeune service qui a un an
00:17vous me disiez, avant qu'on lance cette émission, et donc vous êtes chargé de veiller à la protection
00:22des données personnelles en particulier avec tous ces nouveaux enjeux autour de l'intelligence
00:27artificielle. À côté de vous, Jérôme Malzac qui est le directeur d'innovation et expert en
00:32IA générative, bonjour, bienvenue chez Micropole, Micropole cabinet de conseil spécialisé dans la
00:38transformation digitale des entreprises et donc l'IA évidemment c'est au coeur aujourd'hui de
00:42toutes les transformations. La data et l'IA c'est au coeur du business des entreprises,
00:46enfin en tout cas on en parle. On en parle et on le fait. Et on le fait, bon on va voir ça. On va
00:51commencer par cette actualité, c'est le pacte sur l'intelligence artificielle, les grands opérateurs
00:55d'IA ont jusqu'à août à peu près 2025 pour se mettre en conformité avec l'IACT européen. En
01:03attendant, la commission européenne a mis en place un cadre d'implémentation volontaire dans
01:08les entreprises, donc ça s'appelle le pacte sur l'IA. L'objectif c'est vraiment de favoriser la
01:13transmission des bonnes pratiques au sein de ces opérateurs, mais aussi eux-mêmes en interne en
01:18fait, de commencer à acculturer leurs équipes pour pouvoir être bien alignés sur le règlement
01:24européen au moment voulu. C'est un projet qui avait été lancé par le commissaire Thierry Breton,
01:30qui donc ne fait plus partie maintenant de la commission européenne. Je vous dis c'est
01:34volontaire, ça n'a rien de contraignant, mais pour autant on pensait que tout le monde allait
01:39peut-être se joindre à ce mouvement. Maintenant il y a quand même des réfractaires, et pas des
01:44moindres, des grands opérateurs d'IA où on dit que non, pour l'instant ça n'intéressait pas de
01:48rentrer dans ce pacte. Quel est votre regard déjà sur ce pacte ? Est-ce que vous pensez que c'est
01:53une bonne chose ? Et est-ce que ça va servir si on n'a pas des grands acteurs comme META par exemple,
01:58qui n'en font pas partie ? Qui veut commencer ? Je laisse le spécialiste de l'ACNI.
02:04Je ne sais pas si je suis spécialiste spécifiquement de cette question, mais en tout cas effectivement, alors de dire que ce pacte,
02:10je considère que c'est effectivement une bonne chose, parce que ça permet d'anticiper les exigences du
02:14règlement, donc qui comme vous l'avez dit vont arriver de façon échelonnée, et en particulier
02:18trouver à s'appliquer spécifiquement dans deux ans, donc août 2026, là vraiment la majorité du
02:22texte sera applicable pour ces acteurs, donc il s'agit de se préparer. Alors après le succès des
02:26signataires, j'ai l'impression que c'est déjà quand même quelques, il y a quand même des beaux noms qui sont
02:30déjà signataires, j'imagine qu'il y a des stratégies d'entreprise qui sont peut-être différentes
02:34dans la préparation par rapport aux exigences. Vous ne voyez pas ça comme un refus de l'IACTE
02:40dans sa globalité finalement ? Je ne sais pas, de toute façon l'IACTE, on ne peut pas le refuser dans
02:46tous les cas, mais il trouvera à s'appliquer pour ces acteurs-là. Je pense que la
02:49signature de ce pacte est intéressante pour les acteurs parce que ça va permettre un dialogue avec
02:53la Commission, et du coup de comprendre aussi, il ne faut pas oublier qu'un des enjeux qu'on a tous,
02:59y compris des régulateurs comme l'ACNIL, c'est de comprendre finalement comment on va
03:05appliquer ce texte, comment spécifiquement, comment ça va prendre, donc ça peut
03:11permettre ça. Parce que pour l'instant on a un texte avec des intentions on va dire, il va
03:16falloir rentrer dans le détail, même y compris avec l'ACNIL, je pense qu'il va y avoir un travail
03:20pour appliquer ce texte en France, l'adapter peut-être, le préciser, voir comment il va s'inter...
03:28enfin comment vous allez gérer la question du respect de la protection des données avec le
03:33RGPD et avec maintenant l'IACTE. Tout à fait, oui, effectivement. Dans les missions de l'ACNIL,
03:38la mission historique c'est bien évidemment de faire appliquer le RGPD, donc les données à
03:41caractère personnel, et quand on parle d'IA, on parle à la fois du développement et puis du
03:46déploiement de l'utilisation de ces technologies, et ça, ça mobilise dans plein de cas, pas toujours,
03:50mais dans des nombreux cas, et en particulier les cas les plus à risque identifiés dans le
03:53règlement IA, des données à caractère personnel, donc il y a un vrai enjeu d'articulation pour nous.
03:58Et puis par ailleurs, le règlement IA, il prévoit des structures qui vont superviser la bonne mise
04:04en oeuvre de ce règlement. Aujourd'hui elles ne sont pas désignées, les États membres ont un an,
04:09donc jusqu'à août 2025, pour faire ces choix-là, et donc potentiellement des autorités comme l'ACNIL
04:15pourraient se voir aussi attribuer des nouveaux pouvoirs spécifiquement par rapport au règlement IA.
04:19Alors quand vous dites, Félicien, que de toute façon on ne peut pas faire sans, il y a quand même Apple
04:23qui a décidé de reporter le lancement de son Apple Intelligence en Europe, on voit quand même
04:28des manifestations assez concrètes vis-à-vis de ce texte. Alors il y a Apple d'un côté, et puis même
04:34sur la partie pacte sur l'IA, on a TikTok, on a Spotify, et même des acteurs européens, voire
04:40français comme Guinfaith ou Mistral, qui ne souhaitent pas le signer tout de suite, en tout cas s'engager
04:45sur ce pacte tout de suite. À mon sens, la question qui se pose, c'est l'utilité de ce pacte, je suis en phase
04:52avec ce que vous venez de dire sur le fait que c'est sans engagement, mais ça a le mérite de pouvoir
04:57commencer à démarrer une certaine dynamique. Le fait de pouvoir en discuter, communiquer, c'est un deuxième
05:03rappel que l'IA Act va arriver dès l'année prochaine auprès des entreprises, et ça leur permet peut-être
05:07d'anticiper, de se préparer. Pour autant, il n'y a pas de cadre contraignant, et très honnêtement, les trois
05:13sujets portés par ce pacte-là, qui sont le partage de connaissances, qui sont le fait de pouvoir mettre en place
05:21une gouvernance, d'identifier les IA au risque aux entreprises, et le troisième, je crois que c'est un peu
05:25informer les collaborateurs, inévitablement toutes les structures qui font de l'IA ou utilisent de l'IA
05:31font déjà ces démarches-là. Donc il n'y a pas de grands enjeux...
05:35Vous allez conseiller à toutes les grandes entreprises de commencer à se poser ces mêmes questions ?
05:38Ça fait déjà quasiment un an, plus de six mois en tout cas, qu'on le fait et qu'on accompagne les entreprises
05:43sur ces sujets-là. Donc le fait qu'on ait ce pacte-là et des signataires sur ce pacte, c'est très bien, c'est une
05:50bonne chose, mais plus d'un point de vue communication que d'un point de vue réellement opérationnel.
05:55Oui, c'est pour ça que c'est intéressant de voir que certains ont décidé de ne pas rentrer dans ce pacte, parce
06:00qu'on imagine quand même qu'ils se posent cette question de la gouvernance, qu'ils s'intéressent aux usages à risque,
06:06c'est des choses évidemment qui sont prises en compte par OpenAI, on a cité Mistral ou Anthropique, pour autant
06:12ils ont marqué finalement un premier désaccord.
06:15Oui, je pense qu'il y a aussi un enjeu de communication, de faire passer un message au régulateur en disant
06:20l'IA acte, c'est bien sympa, ça nous pose des contraintes, on n'est pas d'accord avec tout. Et de toute façon, ça va
06:26inévitablement être rediscuté dans la mise en œuvre progressive, et c'est pour ça aussi que je pense qu'ils l'ont voulu progressive,
06:32il y a des choses qui vont se rediscuter au fur et à mesure avec ces grandes entreprises.
06:36Il va y avoir un rapport de force quand même qui va s'installer, même si on a un texte voté, la messe n'est pas dite.
06:41Non, moi je suis le premier à dire qu'il nous faut évidemment une sorte d'éthique autour de l'IA, on ne peut pas l'appliquer
06:51n'importe comment, il faut respecter certains enjeux humains avec l'IA, pour autant il ne faut pas que ça freine l'innovation.
06:57Et c'est pour ça que...
06:59Position très française.
07:01Oui, très française, mais surtout parce que même si on a vu des contre-exemples avec la RGPD qui a fini par se diffuser un petit peu
07:08à travers le monde, aux Etats-Unis, un petit peu en Chine, l'IA acte ne doit pas freiner la R&D et l'innovation au sein de l'Union Européenne
07:17vis-à-vis notamment des Etats-Unis et de la Chine. La Chine investit énormément d'un point de vue puissance de calcul pour créer leur propre LLM
07:25et le risque, il est là, il est de prendre énormément de retard sur notre continent, malheureusement, par rapport à l'Anticor.
07:32Sur un marché qui est encore naissant.
07:33Qui est naissant et qui a des perspectives mais encore inimaginables aujourd'hui.
07:36Alors je voulais aussi vous faire réagir sur la course en tête d'Open AI, largement en tête, il vient d'annoncer une levée de fonds
07:43la plus importante jamais réalisée par une entreprise privée, 6,6 milliards de dollars, une valorisation qui s'élève à 157 milliards de dollars.
07:53On est là avec une société qui joue dans la même cour que les plus grandes entreprises les mieux valorisées au monde.
08:00Elle a obtenu une ligne de crédit renouvelable de 4 milliards de dollars un jour après la clôture de ce tour de table.
08:07Bon, chez Open AI, on se dit qu'aujourd'hui, ils ont vraiment les coudées franches, ils sont pratiquement même inattrapables selon vous ?
08:15Disons que pour une ex-association, organisation à but non lucratif, ils ont pris de l'avance.
08:21Alors ex, oui, effectivement, il y a une filiale Profit mais ils voudraient basculer totalement vers une entreprise à profit.
08:31C'est inévitable. Je crois que je n'ai pas tous les chiffres en tête mais d'un point de vue utilisateur, c'est 200 millions d'utilisateurs par mois,
08:40c'est 38 millions de requêtes par jour sur les pics de fréquentation.
08:47C'est des puissances de calcul colossales et donc du coup des investissements financiers pour assurer ces puissances de calcul qui sont énormes.
08:54Mais c'est même encore 2 milliards de dollars de pertes.
08:57Voilà, les caisses se vident aussi vite qu'elles se remplissent.
09:00Donc cette levée de fonds, c'est une bulle d'oxygène pour Open AI, inévitablement, mais à mon sens, ce n'est pas la dernière.
09:06Ils vont devoir nécessairement avoir du cash dans les mois et dans les années à venir.
09:13Il faut bien comparer la différence entre Open AI et ses petits camarades, que ce soit Microsoft ou Google, c'est qu'ils n'ont que leur IA pour faire du profit.
09:22Ils n'ont pas de revenus publicitaires comme Google, ils ne vendent pas de licences de software, ils n'ont pas de produits technologiques comme leurs concurrents.
09:30Donc ils n'ont vraiment que cet IA et en plus, parmi les dépenses, là on ne parle que des dépenses de fonctionnement,
09:36mais vous avez aussi les dépenses liées à la R&D, les dépenses pour faire en sorte que Open AI reste en tête.
09:42Donc c'est normal qu'ils cherchent du cash et qu'ils puissent en engranger.
09:46Encore une fois, je pense que ce ne sera pas la dernière levée de fonds pour Open AI.
09:49Alors Félicien, on a vu aussi la plupart des anciens d'Open AI quitter l'entreprise.
09:54Le changement, on vient de l'évoquer, de statut qui est envisagé.
09:58Est-ce que ça vous interpelle sur les questions d'éthique autour de l'IA, même s'il y a un signe positif avec l'ouverture d'une filiale à Paris ?
10:06En tout cas, nous on suit bien évidemment toutes ces actualités que vous avez commentées de près.
10:14Évidemment, on avait vu, ils nous avaient contacté Open AI pour nous dire qu'ils décidaient d'ouvrir un bureau à Paris.
10:21Donc ils ont également un établissement principal en Irlande, je reviendrai dessus.
10:26Et puis également quelque chose à Londres, si je ne me trompe pas.
10:30Alors nous, ça fait partie des acteurs avec lesquels on discute, comme on discute avec les grands acteurs internationaux de l'IA.
10:36On parle des GAFAM, les Google, les Amazon, les Meta, par exemple.
10:40Et puis également les acteurs nationaux, Mistral Photoroom, Lighton, etc.
10:44C'est important pour nous d'avoir ce dialogue aussi, pour voir par rapport à toutes les questions que pose le RGPD,
10:51quand on fait justement de l'IA et en particulier quand on entraîne ces grands modèles fondationnels,
10:55et après qu'on va les déployer, qu'on va les mettre à disposition de différents clients.
11:00Donc voilà, on essaie d'avoir un dialogue avec eux.
11:04Donc le dialogue est ouvert ?
11:06Le dialogue est ouvert. En tout cas nous, par exemple, ce qu'on dit concrètement,
11:09c'est peut-être un petit peu métaphorique dit comme ça, mais concrètement nous ce qu'on fait dans notre pratique,
11:14c'est qu'on va préciser comment le RGPD doit être interprété au prisme de l'IA.
11:18Parce que le RGPD, si vous connaissez un petit peu, vous savez que c'est un texte qui est neutre technologiquement,
11:22donc ça donne des grands principes, une logique de pensée, de comment bien traiter les données personnelles.
11:28Mais après ça ne dit pas spécifiquement dans le cadre du Web3, dans le cadre des véhicules autonomes,
11:32ou dans le cadre de l'IA, comment ça marche.
11:34Donc nous, notre travail, c'est de faire cette transcription,
11:36et pour le faire correctement, on propose des choses, des recommandations,
11:40et ensuite on les soumet à consultation.
11:42Donc voilà, des acteurs comme ça, on interagit avec eux, ils nous font leur retour,
11:46on regarde, on réfléchit, et ça nous permet aussi d'avoir un certain ancrage vraiment pratique
11:51sur comment bien adapter ces principes du RGPD avec la réalité des pratiques,
11:56ce qu'on peut effectivement faire ou plus difficilement faire.
11:58Qu'est-ce qui est applicable et qu'est-ce qui est plus difficilement applicable ?
12:01Par ailleurs, sur OpenAI, je ne peux pas en parler nécessairement beaucoup,
12:04mais on a aussi toute une activité contentieuse parce qu'à la CNIL, on reçoit aussi des plaintes.
12:08Donc on a reçu des plaintes par rapport à ChatGPT notamment.
12:12Il y a déjà plus d'un an, non ?
12:14Il y a déjà plus d'un an.
12:16Et là, ça peut être intéressant pour rappeler le fonctionnement du RGPD.
12:20Donc il y a un texte, c'est uniformément appliqué en Europe,
12:24mais c'est appliqué au sein de chaque Etat,
12:27donc il y a des équivalents de la CNIL dans les 27 Etats membres.
12:30Et vous avez ce qu'on appelle le mécanisme dit de guichet unique,
12:33c'est-à-dire que pour les grands groupes internationaux transfrontaliers,
12:36il faut qu'ils déclarent un établissement principal.
12:38Donc pour OpenAI et pour pas mal de grandes compagnies, c'est en Irlande.
12:44Il y en a d'autres qui sont aux Pays-Bas, d'autres qui sont au Luxembourg.
12:47Et donc ça veut dire que nous, quand on va recevoir des plaintes à la CNIL,
12:51à l'encontre d'OpenAI par exemple, on va investiguer ces plaintes
12:55et on va se mettre en relation aussi, coopérer avec nos collègues,
12:58nos homologues irlandais pour faire avancer tout ça,
13:01qui vont rassembler ces plaintes.
13:03Donc voilà, c'est un assez gros chantier,
13:05donc il y avait une task force qui a été faite,
13:07il y a eu un rapport publié il y a quelques mois sur l'avancée
13:09justement de ces investigations.
13:11– Très bien.
13:12– Après, si je peux vous le permettre, il y a peut-être un sujet aussi,
13:14l'avantage d'avoir un bureau à Paris,
13:16c'est d'être au plus près des régulateurs européens
13:18et peut-être discuter aussi un petit peu,
13:20pour faire le lien avec ce qu'on disait tout à l'heure.
13:22– Oui, ça veut dire qu'ils sont conscients
13:24qu'ils vont devoir faire attention quand même aux règlements européens.
13:27– Et vous parliez de départs, mais aussi de belles arrivées chez OpenAI.
13:30Sébastien Bebec, le VP Microsoft, ex-VP Microsoft,
13:35est un bel recrut pour OpenAI, je pense.
13:38Donc il y a des départs, il y a des arrivées,
13:40puis il y a également dans l'actualité,
13:42Sam Altman qui a quitté son siège du comité de sûreté,
13:45pour éviter justement…
13:47– Des conflits d'intérêts ?
13:49– Tout conflit entre une direction d'OpenAI et leur comité de sécurité.
13:52– Il faut voir qui l'installe au comité de sûreté, bref.
13:54– Ça reste à voir.
13:55– Je voulais quand même qu'on garde un petit peu de temps
13:56pour parler de TikTok et de la modération par IA,
13:58puisqu'on a appris que TikTok licenciait dans ses équipes de modération,
14:02pour favoriser davantage le recours à des traitements automatisés.
14:07Alors on peut se dire, oui c'est normal,
14:10ou non, c'est quand même très inquiétant de procéder comme ça ?
14:14– Les deux.
14:16Oui c'est normal, quand on travaille dans l'IA et dans la data,
14:19on aime bien les chiffres.
14:20Donc si je reprends quelques chiffres de TikTok,
14:22c'est je crois un milliard d'utilisateurs par mois,
14:24et ça doit être pareil, quelques 38 millions ou 40 millions de nouvelles vidéos par jour.
14:29– On ne peut pas tout faire par deux mains, ça c'est sûr.
14:32– Donc l'IA est inévitable.
14:33Et d'ailleurs TikTok, je trouve qu'ils sont même un petit peu,
14:35si j'exagère un petit peu, mais en retard par rapport à leurs petits camarades.
14:39C'était The Year of Efficiency mettant en 2023,
14:42avec quand même licencié 21 000 personnes,
14:44sous prétexte d'avoir une communication plus fluide,
14:48parce que moins de monde et des décisions plus rapides,
14:50et puis sous prétexte de les préserver de contenus choquants.
14:53Mais ils ont fait le même travail chez Meta et chez d'autres,
14:57sur le remplacement de l'humain par l'IA.
15:00Comme on le disait, quand on a une telle volumétrie de contenu à modérer,
15:04on ne peut pas tout faire avec de l'humain.
15:06Ce qui est important je pense…
15:07– Mais d'un autre côté, on a quand même des documents
15:09qui ont été révélés aux États-Unis sur la connaissance de la part de TikTok
15:16de l'impact de l'application sur la santé mentale des adolescents.
15:21On se dit que quand même, on ne peut pas faire l'économie
15:23d'une modération aussi humaine.
15:26Juste, on n'a plus que quelques…
15:28– Oui, il faut dire que je rejoins M. Malzac sur le fait qu'il faut,
15:31ça nous semble, et nous c'est la vie de la CNIL,
15:33qu'il faut développer l'IA, une IA qui soit à la fois innovante
15:36et qui respecte les libertés.
15:38Et que vraisemblablement, pour ce genre de tâches,
15:41avoir des outils automatisés c'est utile.
15:42Mais par contre, de dire que ça va remplacer,
15:44s'affranchir d'opérateurs humains,
15:46ça semble aller quand même à l'encontre de ces choses-là.
15:49Parce qu'en plus, on s'attend finalement à un avalanche
15:52de contenus encore plus…
15:54voilà, de plus en plus de contenus artificiellement générés.
15:56Donc on va avoir une course entre l'attaque et la défense,
15:59un petit peu comme on a en cryptologie,
16:01finalement avec des gens qui vont être en mesure
16:03de mieux en mieux générer de nouveaux contenus,
16:05d'autres qui vont mieux en mieux les détecter.
16:07Mais bon, il faut nécessairement renforcer ces postes-là,
16:11et en particulier les opérateurs humains.
16:13– Il y a des modérations complexes en fait,
16:15qui ne peuvent pas être automatisées.
16:17L'IA ne pourra pas avoir la vision de l'humour noir,
16:21il y a certains champs d'application de contexte
16:23que l'IA ne traitera pas.
16:25Les humains seront toujours présents, peut-être moins nombreux,
16:27parce qu'il faut des renforts technologiques
16:30pour pouvoir analyser cette masse de données.
16:32Mais l'IA sera toujours là, ne serait-ce que pour surveiller
16:35les faux positifs, et d'ailleurs ce serait intéressant,
16:37TikTok ne communiquera probablement pas dessus,
16:39mais ce serait intéressant de voir, parce que déjà 80% des vidéos
16:42sont déjà traitées par l'IA chez TikTok.
16:44Mais de voir quelle est la proportion de faux positifs
16:46qui va arriver dans les mois à venir.
16:48– Vous travaillez sur ces sujets aussi du côté de l'ACMI ?
16:50– Alors on travaille un petit peu, mais en tout cas de dire,
16:52et aussi parce qu'il y a des exigences aussi réglementaires,
16:54parce qu'on n'en a pas parlé, mais le règlement sur les services numériques,
16:56le DSA, ça impose à ces opérateurs de plateforme
16:58quand même des résultats en matière de modération.
17:00Et nous ça nous intéresse plus de façon générale
17:03sur comment est-ce qu'on travaille être humain
17:06avec aussi des systèmes automatisés,
17:08c'est quoi la place de l'humain,
17:09et comment on construit aussi bien cette hybridation finalement
17:11entre avoir un opérateur qui va pouvoir avoir un outil,
17:15et effectivement le couplage va bien fonctionner,
17:17et ce n'est pas complètement évident.
17:19Donc par exemple, on a récemment publié des articles
17:21sur le site de notre laboratoire link.cnil.fr,
17:23si ça vous intéresse.
17:25– La collaboration avec les IA, merci beaucoup,
17:27on parle de plus en plus.
17:28Merci Félicien Vallée, chef du service IA à la CNIL,
17:31et Jérôme Malzac, directeur de l'innovation chez Micropole.
17:33On enchaîne avec notre regard sur le marché du mobile,
17:37ce qui se passe côté coulisses.

Recommandations