• avant-hier
Mardi 4 février 2025, SOMMET DU DROIT reçoit Karl Hennessee (SVP Litigation & Investigations, Airbus SAS) , Laëtitia Guibout (Directrice juridique et conformité, SNCF Gares & Connexions) , Luke O'Leary (Head of Legal, Qonto) , Sihem Ayadi (Fondatrice & Présidente, Juridy) et Jonathan Williams (Directeur France, Leya)

Catégorie

🗞
News
Transcription
00:00Et je suis ravie de continuer cette conversation autour de l'IA, mais cette fois-ci du point
00:11de vue des normes volontaires. Que disent les normes volontaires pour réguler l'IA
00:15en entreprise ? Autour de moi, cinq invités pour répondre à ces questions. Jonathan
00:20Williams, vous êtes directeur France de l'IA. Siem Ayadi, vous êtes fondatrice présidente
00:26de Juridi. Luc Ollerich, vous êtes Head of Legal de Conto. Laetitia Guibout, directrice
00:31juridique et conformité SNCF Gares et Connexions. Et Karl Hennessy, vous êtes senior vice-président
00:37Litigation et Investigation chez Airbus. Merci beaucoup à tous les trois. Et je vais tout
00:42d'abord me tourner vers vous, Jonathan. Est-ce que vous pouvez tout d'abord nous expliquer
00:47la solution qu'apporte l'IA et nous donner quelques points de pédagogie sur ces normes
00:52volontaires ? Effectivement, merci. C'est une plateforme de travail juridique pour les
00:57juristes et les avocats. Nous accompagnons les directrices et les directeurs juridiques
01:01des grosses entreprises françaises et internationales. Nous travaillons avec les cabinets d'avocats
01:06également. En termes de pédagogie et d'indices, c'est surtout une question de données, une
01:14question de sécurité de la donnée. Il faut que les entreprises et les cabinets se saisissent
01:19de cette question. C'est le cas, je le sais. Vous l'entendrez des personnes aux côtés
01:22de moi. C'est vraiment la question de la sécurité et de l'avenir de l'entreprise.
01:27Il en va de la survie de l'entreprise. C'est vraiment le sang de l'entreprise. La force
01:38vive de l'entreprise est dans la donnée, dans l'air de l'IA. Il s'agit donc de maîtriser
01:43l'utilisation par les collaborateurs et les collaboratrices. Il s'agit de maîtriser le
01:47stockage et il s'agit de maîtriser les modèles que nous employons pour transformer et mettre
01:52en valeur cette donnée. Mais que disent les normes volontaires à propos de l'IA ? Est-ce
01:55qu'il y a déjà des normes qui ont été imposées ? Malheureusement, pas grand-chose.
02:01Le cadre européen est très fort. C'est un avantage pour les entreprises, c'est un avantage
02:08pour les fournisseurs et nous nous en réjouissons. C'est vraiment quelque chose que nous considérons
02:13comme un avantage. En revanche, les normes volontaires sont à notre sens nécessaires
02:18parce que la vitesse de l'innovation et la vitesse du législateur sont naturellement,
02:22de par leur nature, très différentes. Ce sont deux vitesses différentes et ça laisse
02:27un décalage. C'est aux entreprises avec des codes de conduite, avec des politiques
02:32internes, de crombler ce trou.
02:35Siyem Ayadi, est-ce que tout d'abord vous pouvez présenter votre solution et nous dire
02:41ce que ce serait une IA digne de confiance ?
02:44Je m'appelle Siyem Ayadi, je suis la fondatrice de la société Juridi. J'accompagne mes
02:51clients qui sont majoritairement des directions juridiques et des cabinets d'avocats avec
02:55la méthode du Legal Design. Nous avons développé un outil de Legal Design en ligne, en mode
03:01SaaS, qui s'appelle Loud Designer. D'ailleurs, depuis quelques mois, nous avons intégré
03:05l'IA dans notre outil. Effectivement, le sujet d'avoir à travailler avec une IA de
03:12confiance, notamment avec nos clients qui sont des professionnels du droit et qui manient
03:19des données notamment confidentielles ou sensibles. C'était un sujet majeur pour
03:24nous. Pour avoir une IA de confiance, je rejoins un peu ce que vient de dire Jonathan, c'est
03:30toutes les questions de sécurité de la donnée. Il y a cette partie « je sécurise ma donnée
03:35», et aussi toute la partie autour de l'éthique et en plus de la régulation européenne.
03:44Donc, on a l'IA Act qui, pour le moment, agit sur la partie risque, je régule par
03:50le risque. Les entreprises, et d'ailleurs chez Juridi, on a pris le parti d'intégrer
03:57le groupe LegalDec de France Digital pour signer un code de conduite sur l'IA générative
04:04dans le secteur des LegalTech. Ça nous permet aussi, en parlant de confiance, de montrer
04:11à nos clients que nous prenons des engagements, notamment la transparence avec nos clients
04:17sur ce qu'on utilise comme IA, la protection des données de nos clients sensibilisés
04:22ou formés aussi à l'utilisation de l'IA, et aussi un engagement de ne pas utiliser
04:28les données de nos clients pour entraîner nos propres modèles et que les données restent
04:37en France et dans des datacenters, sur des serveurs. En France, nous travaillons avec
04:42des partenaires qui sont eux-mêmes certifiés ISO, et donc c'est tous ces gages-là qui
04:49font qu'on va et entend vers une IA de confiance.
04:52Carle Nessi, qu'est-ce que vous avez implémenté comme outil IA, et ce que vous en avez implémenté
04:58dans votre département, et comment est-ce que vous avez fait justement sur toutes ces
05:02questions de sécurité, comment est-ce que vous avez fait pour peut-être former tous
05:07ces collaborateurs à ces risques?
05:10Bon, tout d'abord, je crois que c'est essentiel de comprendre que l'IA, c'est la première
05:16technologie avec laquelle on a la possibilité d'influencer la direction de la technologie
05:24en utilisant la technologie. Et c'est-à-dire que c'est essentiel que même les utilisateurs
05:30qui ne sont pas forcément impliqués dans le développement de la technologie, ils
05:34aient une connaissance de comment ça marche. Et de plus, ils ont un respect de la puissance
05:39de cette technologie. Et d'abord, en fait, les opportunités, mais aussi les défis qui
05:45se représentent pour l'entreprise, mais aussi pour l'humanité. Et en fait, pour nous, c'est
05:50essentiel de former les gens sur les valeurs et sur l'éthique de cette technologie avant
05:56de les former, en fait, dans l'utilisation eux-mêmes. C'est chacune des responsabilités
06:01de chacune des entreprises, mais chacune des utilisateurs, de connaître, en fait, le
06:07moment où nous sommes, en fait, pour l'humanité eux-mêmes, pas juste pour les entreprises,
06:13pas juste dans une manière économique, mais en fait, pour le développement de nous tous.
06:24Et justement, Laetitia, est-ce que vous implémentez certains outils? Est-ce qu'il y a un code
06:29de déontologie qui est utilisé au sein de SNCF Gare et Connexion?
06:33Oui, alors au sein de SNCF, ce n'est pas un projet, mais de nombreux projets qui intègrent
06:38l'IA. Et donc, justement, pour avoir un peu un socle commun, on a développé, on a mis
06:44en place un code de conduite de l'éthique de l'IA qui est applicable à tous les collaborateurs,
06:50mais aussi aux prestataires avec lesquels on travaille et qui reprend les grands principes
06:56qui sont importants pour le groupe SNCF. Donc, on retrouve évidemment la transparence,
07:01l'intégrité des données, la sécurité, mais aussi, et c'est vraiment important,
07:07le respect de l'environnement parce que pour avoir un développement de l'éthique
07:12qui soit raisonné et cohérent avec notre feuille de route RSE.
07:16Et puis, un accent aussi qui est mis sur l'humain. Les projets d'IA,
07:22ce sont des projets qui sont au service de l'humain avant tout.
07:26C'est un usage de l'IA avec l'humain in the loop.
07:30Oui, justement, vous parlez de l'humain. Est-ce qu'il y a des collaborateurs qui ont émis,
07:34fait part de leurs inquiétudes face à ces outils?
07:38Oui, alors dans les directions juridiques, notamment, on fait partie,
07:41on voit, on entend beaucoup que l'IA va remplacer les juristes.
07:47Moi, je pense que c'est faux. En revanche, l'IA va devenir un outil
07:53que le juriste doit maîtriser. Et donc, le juriste de demain,
07:58comme il utilise Word et Excel couramment, il sera prompté.
08:02Et donc, nous, on a fait beaucoup de formations de nos collaborateurs
08:08et particulièrement des juristes pour apprendre, justement,
08:12à prompter et à apprivoiser l'humain et lever toutes les réserves
08:16qu'il pourrait y avoir sur cet outil.
08:18Luc Ollerich, j'imagine que l'IA fait partie intégrante des outils
08:23que vous utilisez pour vos solutions. Est-ce que vous avez dû faire preuve
08:26de pédagogie envers vos utilisateurs?
08:28En fait, on n'a pas dû faire trop de pédagogie chez nous.
08:33Étant une entreprise jeune et innovatrice, on a énormément
08:37de nos collaborateurs qui étaient enthousiastes pour mettre en place.
08:42Donc, l'enjeu pour nous, c'est plutôt d'assurer qu'on suit bien
08:48l'évolution de ces technologies pour qu'on ne nous expose pas
08:53aux risques posés par l'IA générative.
08:57Nous regardons l'arrivée de l'IA générative plutôt comme
09:01une opportunité, mais évidemment, ça vient avec les risques
09:05auxquels il faut être conscient, surtout étant un établissement
09:09réglementé comme canto.
09:11Quels sont les enjeux?
09:13C'est vrai qu'on a parlé d'écologie, de confiance, etc.
09:17Comment vous faites pour fédérer tout ça au sein d'entreprise?
09:21On applique un cadre.
09:23On a mis en place un cadre qui respecte la réglementation,
09:28mais aussi qui est suffisamment souple pour permettre
09:32de l'innovation.
09:34Donc, on a ce qu'on appelle un « governance light »,
09:37qui est un comité de risque qui a lieu chaque mois.
09:42Et l'IA est parmi les sujets discutés pendant ce comité.
09:46Et on a aussi un groupe d'ambassadeurs qu'on appelle
09:49les « AI Advocates » pour partager les nouveautés,
09:54pour suivre les déploiements de technologies
09:57dans chaque équipe interne chez canto.
09:59Justement, Carl et Nessi, l'objectif, c'est vraiment
10:03d'apporter de la confiance à ce cadre où l'enjeu,
10:07c'est vraiment d'être à la pointe de la technologie.
10:11L'art de composer un panel comme celui-ci et de trouver
10:15les gens qui ont si d'expériences, mais des points de vue
10:19légèrement différents.
10:21Pour qu'on comprenne les points de vue,
10:24mais pour qu'on apprend aussi des choses.
10:28Et moi, j'étais particulièrement capté par le fait
10:33que dans des conversations en préparation,
10:36et même dans la conversation d'aujourd'hui,
10:38j'ai appris plein de choses que je peux utiliser
10:42dans l'avancement de mes projets concernant l'IA
10:46et des autres choses aussi.
10:47Justement, au sein de vos équipes,
10:51est-ce qu'il y a des enjeux, des besoins
10:55qui vont arriver à l'avenir et vous allez devoir trouver
10:58une réponse qui peut être faite par l'IA?
11:02En interne, on a toujours une discussion
11:06avec les autres concernant les responsabilités
11:10qu'on prend avec le développement de ces technologies.
11:13Mais on fait partie d'une communauté plus grande
11:15en interne dans l'entreprise,
11:18mais avec les autres entreprises,
11:20avec les acteurs dans le secteur privé,
11:23mais public aussi,
11:25et avec les acteurs qui se sont dédiés
11:29à l'éthique de l'utilisation des techniques.
11:33Il fallait une atmosphère ouverte à l'écoute.
11:37Et si on arrête d'écouter les autres,
11:40si on croit qu'on avance
11:43avec un avantage qu'on peut utiliser
11:47dans un sens compétitif,
11:49c'est le moment où cette technologie devient dangereuse
11:53entre les entreprises,
11:55entre les personnes physiques et entre les États.
11:59Jonathan, comment vous faites de la pédagogie
12:03avec les personnes, vos utilisateurs,
12:06les personnes avec lesquelles vous travaillez?
12:08C'est la partie la plus importante
12:10du déploiement d'un outil IA,
12:11c'est l'accompagnement des équipes,
12:13l'accompagnement des avocats,
12:15les juristes d'entreprise,
12:17les directeurs et directrices.
12:19Quelle tâche va-t-on confier à cet outil?
12:21Quel est l'objectif?
12:23Pourquoi veut-on le faire?
12:25Et puis de former.
12:27Et on va physiquement chez eux,
12:29on va dans les cabinets,
12:31je passe beaucoup de temps dans les cabinets en ce moment,
12:33on va physiquement chez les gens
12:35pour les former sur place à l'utilisation
12:37parce que c'est vraiment l'humain
12:39le plus important dans ce type d'outil.
12:41Est-ce que vous vous faites face
12:43plus à de la réticence
12:45ou comme conto,
12:47il y a des gens avec lesquels vous parlez
12:49qui sont déjà très facilement embarqués
12:51par ces outils?
12:53Au fait, ça dépend des sujets
12:55mais la réticence,
12:57on ne peut pas être réticent
12:59à quelque chose qui est là,
13:01qui se développe,
13:03au contraire,
13:05il faut se l'approprier
13:07comme on le dit depuis tout à l'heure
13:09aussi l'aspect formation.
13:11Il y a ACT,
13:13toutes les recommandations de l'ACNIL
13:15aussi sur les protections des données personnelles
13:17avec des fiches,
13:19avec le langage clair,
13:21avec des visuels
13:23pour qu'on puisse diffuser
13:25au sein de nos clients aussi
13:27toutes ces notions
13:29pour enlever l'appréhension du sujet
13:31et in fine,
13:33l'IA Génératif reste un outil
13:35qui vient aider le juriste
13:37ou le professionnel du droit,
13:39il ne le remplacera jamais.
13:41Merci d'avoir suivi notre émission
13:43Au sommet du droit,
13:45les 25 ans du sommet du droit.

Recommandations