• avant-hier
L’IA responsable, c’est possible ? Mais surtout, comment peut-elle prendre vie dans l’entreprise ? Ces questions-là, de nombreux salariés français se les posent. Selon l’Observatoire de l’IA responsable 2025 d’Impact AI, ils sont 63 % à ignorer tout des démarches à mettre en œuvre pour entrer en conformité avec l’IA responsable en entreprise. Un défi que le collectif mobilisé pour une intelligence artificielle éthique tente de relever à travers de nombreuses initiatives. On en parle avec Christophe Liénard, le président d’Impact AI.

Catégorie

🗞
News
Transcription
00:00On démarre avec cet observatoire de l'IA responsable en France.
00:07Bonjour Christophe Liénard.
00:08Bonjour.
00:09Vous êtes président d'Impact AI qui est un collectif de réflexion et d'action, vous
00:13nous dites, sur les enjeux éthiques et sociétaux de l'intelligence artificielle.
00:17Vous êtes également, je le précise, le directeur de l'innovation du groupe Bouygues.
00:20Alors le Think Tank a publié un observatoire de l'IA responsable, c'est le résultat
00:25d'une enquête auprès de 1000 salariés français sur la façon dont ils perçoivent
00:29les déploiements de l'intelligence artificielle responsable dans leur entreprise.
00:33Alors d'abord ma première question, c'est qu'est-ce que vous appelez une IA responsable ?
00:37Est-ce que c'est possible une IA responsable avec tout ce qu'on a en tête sur l'impact
00:41climat par exemple ?
00:42C'est possible et nécessaire parce qu'on s'aperçoit dans cet observatoire notamment
00:48que 75% des gens qui utilisent l'IA demandent que l'IA soit responsable, éthique.
00:55Donc un pacte théorique, on s'intéresse à l'impact de l'intelligence artificielle
00:59sur la santé, l'éducation, le travail et l'éthique et on s'aperçoit véritablement
01:03qu'il y a une forte demande des salariés pour que cette IA, pour qu'ils puissent l'utiliser
01:09sans crainte dans leur métier et avec leurs clients, soit absolument responsable, responsable
01:18dans l'utilisation.
01:19Alors responsable de quoi ? Responsable en quoi ? Comment ?
01:22Alors responsable à la fois effectivement sur l'aspect énergétique, je pense que vous
01:27souteniez cet élément tout à l'heure, donc on a beaucoup travaillé sur Green AI
01:32et AI for Green, donc finalement l'impact en termes de consommation d'énergie par
01:37exemple de ces IA et des progrès qui sont faits avec les petits modèles, avec des composants
01:43moins consommateurs, avec le Edge, l'IA qui est embarquée finalement dans les dispositifs
01:51donc ça c'est un élément qui vient demain réduire considérablement la consommation
01:56d'énergie donc ça c'est déjà un premier point et ensuite l'IA qui permet également
02:02de consommer moins et donc d'apporter finalement cette fois-ci une contribution positive à
02:09cet angle d'IA responsable.
02:11Alors il y a énormément d'enseignements dans cet observatoire, moi j'ai retenu notamment
02:16dans ce chiffre de 63% des personnes que vous avez interrogées qui déclarent ignorer
02:21toutes les démarches mises en oeuvre pour se mettre en conformité en termes d'IA responsable.
02:25Alors je pense que j'en fais partie, comment on fait ?
02:28Alors exactement, ça c'était une grosse surprise de cet observatoire et on a même
02:33un autre chiffre, 9% des salariés ont la connaissance de leur charte éthique dans
02:40leur entreprise concernant l'IA, donc ça c'est un élément sur lequel il va falloir
02:44véritablement agir, l'éducation, la formation, la transparence également des entreprises
02:49de manière à pouvoir communiquer, donc c'était dans cet observatoire un élément effectivement
02:54vous l'avez remarqué extrêmement important.
02:56Mais comment on fait très concrètement de l'IA responsable ?
02:58Il y a un mode d'emploi, il y a des règles sur lesquelles on s'est tous entendus ?
03:04On a notamment comme membre d'Impact AI une start-up composée d'avocats qui vient vérifier
03:12que les IA qui sont utilisées et souvent développées ou co-développées au sein
03:17d'une entreprise répondent à un certain nombre de critères qui sont les critères
03:22de l'IA Act d'ailleurs puisque l'Union Européenne s'est dotée d'un dispositif
03:28de contrôle donc l'IA Act est d'ailleurs plébiscité par les salariés qui répondent
03:34à cette enquête.
03:35D'accord.
03:36Alors lors d'un de vos événements, vous organisez aussi des événements, il y a Gilles
03:40Babinet qui a professé trois raisons de croire à un monde harmonieux à l'ère de
03:45l'IA.
03:46Quelles sont les conditions pour que ce déploiement de l'IA nous fasse vivre dans un monde harmonieux
03:51avec elle ?
03:52Alors effectivement on a organisé en décembre notre première masterclass sur l'IA responsable
03:56et on avait trois invités de marque, on avait Gilles Babinet président du comité numérique
04:01français, on avait également quelqu'un dans la gouvernance parce que l'IA responsable
04:06et gouvernance ça va un peu ensemble donc on avait Francesca Rossi qui est une Américaine
04:10en charge de la gouvernance chez IBM et puis on avait un troisième intervenant qui était
04:16Serge Tisseron.
04:17Serge Tisseron vous l'avez beaucoup entendu lorsqu'on parlait de la relation des écrans
04:22avec les enfants.
04:23Absolument.
04:24Et donc Serge psychiatre et académicien a également développé tout ce que l'on peut
04:29et doit mettre en place sur la relation entre l'IA et les enfants et donc l'éducation.
04:34Donc on avait cet ensemble là qui était extrêmement pertinent d'ailleurs qui se retrouve aujourd'hui
04:39sur le réseau.
04:40Vous pourriez partager peut-être quelques conseils très rapidement ou un conseil.
04:43Développer une IA responsable chez soi, en entreprise.
04:47Développer une IA responsable et surtout un élément qu'a mentionné Serge Tisseron
04:53qui était sur la communauté.
04:54C'est à dire que le fait que lorsque l'on travaille dans une communauté même pour les
05:01jeunes, les communautés de gaming etc. on crée finalement un vrai réseau d'entraide
05:10et on s'ouvre vers l'extérieur.
05:12Donc cette partie là est également importante pour l'IA.
05:15Donc en fait vous remettez la place de l'humain au milieu de l'écosystème IA.
05:20Merci beaucoup Christophe Liena.
05:21Je rappelle que vous êtes le président d'Impact AI.
05:23Merci encore.
05:24C'est l'heure de notre débat, on va parler des ingérences étrangères à travers les
05:28réseaux sociaux.

Recommandations