• l’année dernière
Lundi 12 juin 2023, SMART TECH reçoit Bertrand Pailhes (directeur de l’innovation et des technologies, CNIL) et Henri d'Agrain (Délégué général, Cigref)

Category

🗞
News
Transcription
00:00 Le projet de réglementation des systèmes d'intelligence artificielle est-il excessif
00:08 comme a pu le dire le ministre délégué au numérique ? Que dit d'ailleurs ce texte ?
00:13 Quels sont les points de vigilance ? Attention à ne pas pénaliser notre écosystème français,
00:18 on peut l'entendre, mais aussi les usagers français de ces intelligences artificielles
00:23 puisqu'on a vu des GAFAM prendre des décisions à ce sujet.
00:26 Pour en parler, Henri Dagrain, délégué général du CIGREF, Association représentative
00:30 des grandes entreprises d'administration publique française utilisatrice des solutions
00:34 et des services numériques.
00:35 C'est un réseau justement qui accompagne ces organisations dans la transformation numérique
00:41 pour un numérique durable, plus éthique, mais quand même au service de la performance
00:45 et de la compétitivité.
00:46 Bien sûr.
00:47 Alors, vous vous êtes exprimé Henri sur cette Hayact à l'occasion d'un débrief
00:54 dans Smartech, vous avez dit des choses très tranchées.
00:57 Donc ça m'intéressait de développer avec vous votre point de vue.
01:00 Bertrand Paillès est également avec nous sur ce débat.
01:03 Vous étiez précédemment coordonnateur national pour la stratégie d'intelligence artificielle
01:08 au sein de la direction interministérielle du numérique et du SI de l'État.
01:13 Aujourd'hui, vous êtes le directeur de l'innovation et des technologies à la Commission nationale
01:17 informatique et liberté, la CNIL, qui a d'ailleurs lancé, ouvert un nouveau service entièrement
01:23 dédié à l'intelligence artificielle et ce service est rattaché à votre direction.
01:28 Alors, je voulais démarrer avec Henri Dagrin puisque c'est lui qui a lancé un petit peu
01:32 finalement le débat en mettant de l'huile sur le feu, peut-être, je ne sais pas.
01:35 En tout cas, vous nous avez dit, plutôt pas de texte comme celui de l'Hayact tel qu'il
01:41 est aujourd'hui.
01:42 Pourquoi une position très tranchée, plutôt pas de texte que ce texte ?
01:46 En fait, la question c'est de savoir si le modèle de régulation qui est en train de
01:52 se mettre en place est le bon pour s'adapter aux évolutions technologiques extrêmement
02:00 dynamiques que l'on peut constater.
02:02 Un texte de cette nature, ça fige ou ça tend à figer la vision que l'on porte sur ce
02:12 domaine technologique qui est très lié par ailleurs à des enjeux très sociétaux.
02:18 Et donc, notre réflexion aujourd'hui, après une tempête plutôt médiatique d'ailleurs
02:24 et marketing de l'arrivée de chat GPT, c'est de se dire est-ce que le modèle de régulation
02:30 par la hard law, par une loi assez rigide, est le bon pour dans 5 ans, dans 10 ans, être
02:37 adapté au phénomène auquel nous serons confrontés.
02:40 Et ça, le problème d'une régulation européenne de cette nature, c'est que même si le texte
02:47 s'intègre des mécanismes d'adaptation, risque de rigidifier considérablement la
02:52 façon dont, en Europe, nous regardons l'intelligence artificielle.
02:56 Et nous pensons qu'il y a des mécanismes de régulation qui sont plus souples, qui
03:01 donnent par exemple à des autorités indépendantes le soin d'adapter la régulation avec bien
03:08 entendu des grandes directives qui sont celles que démocratiquement l'Europe peut avoir
03:14 adaptée mais qui adaptent en permanence cette régulation aux enjeux technologiques, à
03:21 ce que l'on peut constater.
03:22 A simplement sortir un texte anti-chat GPT en fait d'Audit.
03:25 Voilà.
03:26 Bertrand Payet, ce nouveau service au sein de l'ACNIL dédié à l'intelligence artificielle,
03:31 est-ce que ça fait partie de son rôle justement de regarder les textes en préparation, d'éclairer
03:36 les politiques français et peut-être aussi de participer aux débats européens ?
03:40 Alors évidemment on le regarde, c'est important et je pense que la création de ce service
03:44 c'est aussi de se préparer pour des nouvelles dispositions qui pourraient entrer en vigueur,
03:48 plutôt fin 2025.
03:50 On ne participe pas directement aux négociations européennes, c'est vraiment le gouvernement
03:55 dans le cadre d'un dialogue interministériel qui pilote la position française au conseil
04:02 des états membres qui lui-même va négocier avec le parlement et la commission.
04:05 Mais on peut faire valoir notre expertise et notamment sur l'articulation avec le RGPD
04:10 puisque c'était un des points sur lequel…
04:12 Et à ce stade, quel est le regard de l'ACNIL sur ce sujet, sur l'AI-ACT ?
04:17 Alors moi je serais moins sévère qu'Henri.
04:19 Je pense qu'il y a eu un gros travail de réflexion qui a été mené à partir de 2017-2018.
04:24 Il y avait le groupe d'experts de haut niveau de la commission qui a vraiment fait mûrir
04:29 le sujet et une approche que je trouve en tout cas adaptée, qui est cette approche
04:34 à la fois par les risques, c'est-à-dire on va réguler uniquement les usages à haut
04:38 risque, donc l'IA qui sert à… dans un jeu vidéo, ce n'est pas un usage à haut
04:43 risque a priori.
04:44 Et on va… donc cette liste de usage à haut risque, elle va être susceptible d'être
04:50 modifiée, donc c'est peut-être là où il y a une marge d'adaptation.
04:52 En exemple, on peut donner l'IA utilisée dans le domaine de la justice ?
04:56 Voilà, dans l'administration de la justice par exemple, ce n'était pas dans le texte
04:59 initial et puis ça a été ajouté.
05:01 Donc effectivement, dans le domaine judiciaire, on voit bien que c'est très sensible, il
05:06 faut y réfléchir.
05:07 C'est vrai que ça va sans doute un peu compliquer les règles pour les gens qui
05:12 fournissent des IA pour ces usages à haut risque, donc que ce soit la santé, des usages
05:16 sur la police ou la justice, des usages aussi sur le recrutement RH qui est effectivement
05:21 un des domaines où aujourd'hui il n'y a peut-être pas beaucoup de régulations
05:23 mais où il peut y avoir beaucoup de discrimination avec des systèmes automatisés.
05:26 Donc c'est des nouvelles règles, donc pour les gens qui fournissent des solutions dans
05:30 ces domaines-là, ça va être des nouvelles contraintes, on ne peut pas dire le contraire.
05:34 On pense que ce n'est pas inadapté, je pense que le débat cette année prouve qu'il
05:37 y a aussi une demande de régulation y compris d'une partie des industriels.
05:41 Et on pense par ailleurs que c'est relativement bien complémentaire du RGPD puisque là la
05:47 régulation va porter sur les fournisseurs de solutions plutôt que sur les utilisateurs
05:51 alors que le RGPD s'applique vraiment aux utilisateurs, aux entreprises qui mettent
05:54 en place des systèmes, qui les achètent, on leur demande de respecter un ensemble de
05:57 règles.
05:58 Donc la commission a fait le choix de se porter sur les gens qui développent finalement
06:01 les IA qui sont nombreuses, innovantes, je pense que c'est à ces entreprises-là que
06:06 le ministre pense quand il craint l'effet de la régulation.
06:08 Oui parce que l'objectif n'est pas non plus de stopper l'innovation.
06:12 Quels sont justement les risques qui pèsent sur ces entreprises innovantes, qui travaillent
06:17 sur ces systèmes intelligents avec l'arrivée de ce règlement selon vous Henri ?
06:22 Alors nous, sur ce sujet de l'innovation, nous avons une position qui est peut-être
06:30 un peu décalée par rapport à celle de beaucoup de monde dans l'environnement de la tech.
06:37 Ce que l'on constate c'est que la notion d'innovation de manière indiscriminée a
06:42 remplacé la notion de progrès.
06:43 En soi l'innovation c'est peut-être pas le bon prisme pour regarder ces sujets d'intelligence
06:52 artificielle.
06:53 Qu'est-ce qui sert le progrès ? Le progrès économique, le progrès social, le progrès
06:58 environnemental.
06:59 Oui, l'innovation en soi c'est peut-être pas le sujet.
07:02 Mais il y a d'autres sujets sur lesquels nous sommes assez attentifs quand on regarde
07:06 ce texte.
07:08 D'abord il y a plusieurs textes qui sont actuellement en cours d'études de manière
07:15 parallèle.
07:16 Il y a d'abord au niveau du Conseil de l'Europe un texte qui est actuellement en cours de
07:24 réflexion et qui sera un texte contraignant pour 46 États.
07:29 Vous faites référence à quel texte ? C'est un texte sur l'intelligence artificielle,
07:34 sur des régulations de haut niveau de l'intelligence artificielle portées par le Conseil de l'Europe.
07:39 Or les définitions déjà ne sont pas tout à fait les mêmes entre le texte du Conseil
07:43 de l'Europe et le texte de la Commission européenne.
07:47 Or les deux sont contraignants.
07:48 Il va falloir à un moment qu'on fasse converger ces définitions.
07:52 Et par ailleurs aujourd'hui nous pensons que ces définitions ne sont pas suffisamment
07:58 précises.
07:59 Et est-ce qu'on sera capable de porter des définitions précises sur ce qu'est l'intelligence
08:04 artificielle ?
08:05 Définir ce qu'est un système d'intelligence artificielle.
08:06 Voilà.
08:07 Et puis enfin il y a Thierry Breton qui a annoncé il y a quelques jours qu'il allait
08:12 établir un pacte pour l'intelligence artificielle dont le contenu pour l'instant n'est pas
08:18 tellement connu.
08:19 Comment va-t-il s'appliquer ? Est-ce que ça sera d'application volontaire ?
08:24 Voilà.
08:25 Il y a des choses.
08:26 C'était après un entretien avec un patron de Google je crois qu'il a annoncé ce pacte.
08:31 Donc on reste un peu dubitatif.
08:34 Et puis il y a d'autres sujets en termes de difficultés.
08:38 Notamment ça porte sur ce qu'on appelle les IA d'usage général.
08:42 Où là le règlement, les projets de règlement, n'ont pas tranché.
08:49 Et nous craignons que l'essentiel de la responsabilité porte in fine sur l'utilisateur final à
09:00 partir d'outils dont il ne maîtrise pas les algorithmes.
09:04 Il ne maîtrise pas s'il y a eu des datas pour entraîner les…
09:07 C'est-à-dire quelle responsabilité aurait-il utilisateur final ?
09:11 La responsabilité sur les résultats produits éventuellement par ce type d'intelligence
09:17 artificielle, ces IA d'usage général.
09:20 Donc là il y a toute une réflexion qui doit être menée.
09:22 C'est pour ça que nous avons tendance à penser en tous les cas sur ce type d'outils
09:26 une régulation beaucoup plus souple qui serait donnée à une autorité indépendante nous
09:33 paraîtrait tout à fait judicieuse un peu comme on le fait aujourd'hui au niveau de
09:37 l'Union Européenne en matière de droit de la concurrence où on a la DG Comp, la compétitivité
09:44 qui a une partie de la responsabilité et qui la partage avec les autorités administratives
09:49 indépendantes dans les États.
09:50 C'est un sujet compliqué parce qu'à la fois il y a effectivement un appel sur la
09:54 régulation, on a besoin de transparence, on a besoin de sécurité du côté de l'utilisateur
10:00 mais même du côté de l'écosystème, c'est vrai qu'ils le réclament.
10:04 Après on nous dit "ah oui mais alors c'est facile pour OpenAI de réclamer une régulation
10:07 parce qu'eux ont tellement déjà avancé que finalement ça va leur donner un coup
10:11 d'avance".
10:12 Est-ce qu'il y a un risque que ce texte favorise finalement davantage les GAFAM, en
10:17 tout cas les grandes plateformes numériques actuelles et pénalise l'écosystème européen?
10:25 Alors, moi je suis assez convaincu que la régulation ça favorise les gros acteurs.
10:34 C'est quelque chose qui de manière générale les gros acteurs savent payer les troupes,
10:39 la réflexion, même les investissements pour répondre à la régulation.
10:43 Voir les avocats.
10:44 Voilà, et contrairement à il y a 30 ans ou il y a 20 ans même des gens comme Google
10:50 ou Facebook étaient des entreprises qui étaient assez jeunes et qui elles-mêmes souhaitaient
10:54 enfin se concentrer sur la régulation typiquement aux Etats-Unis.
10:56 Je pense que ça a vraiment changé, on l'a vu avec la réaction d'OpenAI finalement
11:00 à la décision de notre homologue italien qui a dit "c'est interdit".
11:04 En 15 jours OpenAI a proposé des mesures de régulation alors qu'il avait fallu 4
11:09 ans à Google pour accepter le droit à l'oubli suite à un arrêt de la cour de justice.
11:15 Donc on voit bien un changement de posture et c'est vraiment le danger.
11:18 Je pense que c'est à ça que pense aussi Jean-Noël Barraud quand il dit "il y a un
11:22 risque".
11:23 Évidemment les petites entreprises françaises qui essayent de se positionner sur le même
11:26 sujet, elles n'ont pas les moyens de payer une campagne de com, des dizaines de personnes
11:30 pour répondre aux exigences de régulation.
11:33 Donc il faut trouver un moyen de construire cette régulation avec ces entreprises-là
11:36 et pour ces entreprises-là et pas uniquement pour réguler l'entrée sur le marché européen
11:44 des acteurs internationaux.
11:45 Et puis jusqu'où on peut aller poser des exigences ? Parce que quand on appelle à
11:51 la transparence algorithmique, on sait que dans la pratique ce n'est pas aussi simple
11:57 que ça.
11:58 Qu'est-ce qu'on peut exiger ? Où est-ce qu'il faut s'arrêter dans cette exigence
12:03 de transparence ?
12:04 Je pense que le texte fixe une obligation de transparence qui n'est pas absolue.
12:11 On a pu étudier à l'ACNIL le texte sur les Jeux Olympiques qui s'occupe des caméras
12:17 augmentées et qui pré-transpose une partie des exigences de l'AI Act et qui nous
12:21 permet de voir effectivement qu'est-ce qu'on demanderait à des entreprises.
12:25 Par exemple, il y a des fortes exigences de documentation, d'expliquer comment j'ai
12:29 construit mon IA, quelles sont les données que j'ai utilisées, quels sont les paramètres
12:33 que j'ai faits, quels sont les mécanismes de sécurité que j'ai mis en place.
12:36 Par contre, on ne demande pas, il y a eu le débat sur la loi Jeux Olympiques, de mettre
12:40 à disposition l'ensemble des données d'entraînement, qui est quelque chose qui serait à la fois
12:44 coûteux, pas forcément très opérationnel et porterait de nouveaux risques parce que
12:48 ça veut dire qu'on va garder pendant des années toutes les données qui, d'un point
12:51 de vue CNIL, peuvent contenir des données personnelles et donc pas des données qu'on
12:54 veut forcément garder très longtemps.
12:56 Donc on est en train de définir ces règles de transparence.
12:58 Je pense que la vraie difficulté avec les briques à usage général, comme le mentionnait
13:04 Henri, c'est que ces briques-là, elles n'ont pas d'usage.
13:06 On ne sait pas s'elles vont servir pour la police, pour la santé, pour l'éducation,
13:10 pour les RH.
13:11 - Ils posent le problème de la finalité.
13:12 - Et en même temps, tous ces usages à risque, à haut risque, qu'on veut réguler, eux-mêmes
13:17 vont partir de ces briques à usage général.
13:20 Et donc vraiment la question, c'est qu'est-ce que ces briques doivent être capables de
13:24 démontrer pour que l'entreprise spécialisée dans le domaine de la santé qui va utiliser
13:30 CHGPT pour rédiger des comptes rendus automatisés, par exemple, puisse dire, certes, j'ai entraîné
13:38 mon IA, mais je sais un peu comment fonctionne l'IA de base que j'ai utilisé.
13:42 Et aujourd'hui, c'est vrai que c'est encore très obscur, notamment pour les systèmes
13:45 qui ne sont pas open source.
13:46 - Alors je vais faire un petit peu de provocation peut-être, mais enfin, certains demandent
13:49 des moratoires sur les déploiements d'intelligence artificielle.
13:52 Est-ce qu'il nous faudrait, nous, un petit moratoire sur la régulation ? Parce que peut-être
13:56 on a besoin d'un peu plus de temps pour apporter une réponse adéquate.
14:00 - Non, bon, un moratoire, je ne sais pas.
14:03 Parce qu'actuellement, le texte de la commission, enfin le texte qui avait été proposé par
14:09 la commission européenne, arrive a priori à partir du 14 juin dans le Trilogue, c'est-à-dire
14:18 la structure institutionnelle de négociation du texte final entre la commission d'une
14:24 part, le Parlement européen et le Conseil européen.
14:26 Et donc, on devrait connaître le même jour, le 14 juin, en tous les cas à partir du 14
14:31 juin, le mandat de négociation du Parlement européen.
14:36 Et puis, à partir de là, les choses sont encore largement ouvertes.
14:39 Et d'ailleurs, la France elle-même se mobilise pour faire le tour des acteurs entre le CIF
14:47 pour comprendre quelles sont les attentes, les remarques, les craintes, et puis les prendre
14:50 en compte pour alimenter la négociation au sein de ce fameux Trilogue qui a l'ambition
14:58 de terminer ses travaux, en tous les cas, avant les élections européennes de l'année
15:02 prochaine, juin 2024.
15:03 Donc, vous nous dites quand même qu'on a encore le temps d'affiner la position européenne.
15:10 Oui, et puis il y a du travail à faire.
15:13 Mais un des problèmes principaux, n'empêche, c'est celui des compétences et des instances
15:21 de régulation aujourd'hui, qui est le niveau de compétence nécessaire pour réguler.
15:26 Vaut mieux, si on fait un texte et qu'on ne sait pas contrôler sa mise en œuvre, ça
15:30 ne sert à rien.
15:31 Ça ne fonctionnera pas.
15:32 Donc, LACNIL s'est équipé d'un service dédié pour monter en compétence sur ce
15:36 sujet d'intelligence artificielle et on salue l'initiative.
15:39 Merci beaucoup à tous les deux sur ce sujet.
15:41 Henri Dagrin, délégué général du SIGREF, Bertrand Paillès, directeur de l'innovation
15:44 et des technologies à LACNIL.
15:45 Petite pause et puis on va parler du RGPD.
15:47 Ça fait cinq ans qu'il existe, qu'il est en vigueur en France.