CEA - Mona C C

  • le mois dernier
Transcription
00:00Alors il y a une nécessité déjà qui est sociétale, c'est vraiment une attente de plus en plus de la
00:11société, de l'humain en fait, et qui se répercute aussi sur les entreprises qui voient soit une
00:17volonté interne, soit une nécessité venant de l'extérieur, de se dire en fait on doit se mettre
00:20en marche en matière d'éthique, c'est une question de compétitivité, d'investissement
00:26intelligent, de cette fameuse aussi innovation responsable, qu'est ce qu'on met dans ce concept
00:30de responsabilité, et aussi d'attractivité, et non seulement des produits, services qui vont
00:33être développés avec des composantes tech ou IA plus ou moins avancées, mais aussi l'attractivité
00:39de l'entreprise en termes d'investissement, de talent, donc nécessité mais pas seulement
00:45nécessité au sens de contrainte, aussi nécessité presque une évidence j'ai envie de dire, et l'éthique
00:50n'est plus du tout une couche qu'on vient ajouter, ça fait de plus en plus partie de l'ADN, de la
00:54réflexion autour de l'innovation en entreprise, mais aussi dans le secteur privé ou non lucratif
01:00par ailleurs.
01:05Alors c'est vraiment intéressant parce que nous on travaille sur du concret, que ce soit un véhicule
01:10autonome, la vidéosurveillance, une appli de personnalisation en entreprise qui a un impact
01:15sur la santé mentale, sur des mises en commun de data de plusieurs parties prenantes pour une
01:21mobilité plus fluide, ou même le fait de pouvoir prédire ce qui va vous arriver en santé, donc on
01:27parle vraiment du concret, et ce qui est très intéressant c'est que les risques en fait souvent
01:32peuvent se résumer en quelques points clés, et ça touche souvent aux droits humains, c'est dit
01:37autrement. Est-ce qu'on atteint la vie, donc est-ce qu'on peut mourir ou vivre en fait, comme sur un
01:41véhicule autonome s'il y a un accident, droit à la santé, qu'elle soit physique ou mentale, par exemple
01:47les jeux vidéo, le métavers, l'impact sur les personnes vulnérables, sur les enfants, impact sur
01:53l'environnement, sur la démocratie, dans la manipulation de l'information sur les réseaux sociaux, et aussi
01:58bon ça c'est un peu plus courant, vie privée, mais il faut pas que la vie privée soit l'arbre qui cache
02:02la forêt, il y a vraiment des fondamentaux humains mais aussi avec un avantage du coup pour une
02:07innovation intelligente, qui sont des risques assez courants. Un autre risque de plus en plus courant
02:12heureusement en termes d'identification des risques, c'est le risque de discrimination ou de non-diversité,
02:18parce que moins on a de diversité, moins on peut avoir de prétention universelle ou universalisante
02:22avec sa technologie. On parle beaucoup des biais discriminants, nous de notre expérience, des biais
02:27il y en a toujours, ça n'existe pas de ne pas avoir de biais, la question c'est en quelle mesure ils ont
02:31été identifiés, dans quelle mesure on va essayer de les mitiger au maximum, et dans quelle mesure on va
02:35essayer d'apporter beaucoup de diversité aussi, pas uniquement dans les types de data, de bases de
02:39données qui vont être utilisées ou captées par l'IA ou par la technologie, mais aussi parfois tout
02:44simplement dans la composition d'une équipe d'innovation ou même dans les investisseurs. Est-ce
02:49qu'on a plus de pression d'un type d'investisseur ou d'un type de dirigeant qui fait que le résultat
02:53sera particulièrement biaisé de par la gouvernance du projet. D'ailleurs on dit souvent, à parté
03:00qu'on manque de femmes en tech, mais on manque pas de femmes en éthique de la tech, donc ça il faut
03:04aussi se dire c'est quoi une équipe tech, c'est pas uniquement du code en un et en zéro.
03:09L'éthique by design c'est vraiment se poser les bonnes questions au bon moment, dans toute la vie
03:22d'une IA ou d'une innovation, et c'est pas que dès la conception, c'est en fait déjà au moment où on
03:27pense le projet, dans le moment où on investit dans le projet, dans le moment où on nourrit le
03:31projet, quels vont être les ingrédients du projet sur le plan humain, sur le plan data, sur le plan
03:35tech, sur le plan financier. Ensuite qu'est ce qu'on va faire de ces ingrédients du projet sur
03:40le plan programmation algorithmique, ou capteur de données, ou même auto apprentissage par le
03:46robot, par la technologie. Et ensuite qu'est ce qui va en ressortir, est-ce qu'on va améliorer la
03:50santé, est-ce qu'on va lui porter atteinte, est-ce qu'on va améliorer des process de fourniture de
03:57produits, donc quelle est la finalité bien sûr, mais quelle va être toute la vie, pas uniquement
04:00la conception, mais aussi de l'utilisation, de l'auto, de l'auto développement aussi. A chaque
04:07étape en fait clé, c'est presque le pouvoir du moment présent dans l'IA et dans l'innovation,
04:12à chaque moment clé, quel va être notre canevas de pensée et d'intelligence multiple qui va
04:17permettre de se poser les bonnes questions, et bien sûr ensuite d'essayer de factoriser les
04:20réponses à y apporter, par exemple prévenir la discrimination, favoriser l'environnement,
04:25tout en atteignant évidemment l'objectif premier de la technologie, le fait que le véhicule
04:30autonome sache rouler, et puis d'aller d'un point A à un point B, donc ça je dirais c'est
04:34l'objectif un peu technique ou business de base, mais il faut encore savoir le faire de manière
04:39responsable justement, ou éthique, donc l'éthique by design c'est vraiment déjà quelle est la
04:44finalité, est-ce qu'on va y arriver sur le plan business et technologique, est-ce que ça a du
04:47sens en fait pour la société, comment on va le faire, qu'est-ce qu'on peut anticiper, qu'est-ce
04:52qu'on ne peut pas anticiper, et comment on va accompagner justement ces éléments clés par un
04:57canevas de questions qui ne sont pas uniquement des questions techniques, mais qui va vraiment
05:00être un canevas nourri d'intelligence juridique, d'intelligence éthique, d'intelligence sociologique,
05:05neuroscientifique aussi, et moi je partage souvent l'exemple d'échanges avec des ingénieurs ou des
05:12chefs de projets d'innovation qui se disent mais on aurait aimé entendre ces questions plus tôt,
05:16des questions comme quels sont justement les biais par exemple à l'oeuvre, est-ce que vos
05:22concurrents ont accès à la plateforme, est-ce que les datas ont potentiellement été vérifiées,
05:28pas uniquement en termes de quantité mais de qualité, est-ce que vous respectez les secrets
05:32d'affaires, est-ce qu'on passe dans des pays sous embargo, est-ce que l'atteinte à la vie est en jeu,
05:37tiens, est-ce qu'on a factorisé l'élément santé, et parfois on découvre que c'est pas
05:41uniquement essayer de voir les problèmes, c'est qu'une fois qu'on s'est posé ces questions-là,
05:44et qu'on va faire même parfois de la recherche et du développement pour y répondre, on assure,
05:49en fait on upgrade si je puis dire, on assure finalement une presque une V2 du projet qui est
05:54d'autant plus robuste, d'autant plus responsable, et qui a beaucoup plus de succès aussi sur le
05:59court et sur le long terme.