SMART TECH - Emission du lundi 8 janvier

  • il y a 9 mois
Lundi 8 janvier 2024, SMART TECH reçoit Anthony Level (responsable de la stratégie réglementaire et juridique de l'IA, Imatag) , Vanessa Bouchara (Avocate spécialisée en droits d'auteur, Bouchara Avocats) , David Bessot (membre du Cercle de la Donnée et directeur associé, TNP Consultants) et Victoria Mandefield (Fondatrice, Solinum)

Category

🗞
News
Transcription
00:00 [Musique]
00:08 Bonjour à tous, bienvenue dans Smartech et puis surtout très heureuse année à vous,
00:13 vous que je retrouve pour 2024.
00:15 On va commencer avec ce sujet des deepfakes, ces fausses images,
00:18 images trafiquées, images générées par les intelligences artificielles
00:21 qui sont parfois un grand plaisir de créativité
00:23 et puis d'autres fois qui viennent semer la pagaille dans les informations,
00:27 dans nos files d'actualité.
00:29 On en parle, on parle surtout des armes pour lutter contre ces fake news
00:32 alors qu'on est dans une année d'élections, avec les élections européennes
00:36 ici en France et en Europe.
00:39 On parle de ce sujet principalement dans ce Tech Talk
00:42 et puis ensuite on s'intéressera à la gestion de la donnée par le service public
00:46 mais d'abord je vous propose de démarrer par trois questions A
00:49 sur ces datas qui nous aident à réduire la précarité, précarité alimentaire notamment.
00:54 [Musique]
00:58 Dans Smartech aujourd'hui on s'intéresse à la manière dont les données
01:01 peuvent nous aider à lutter contre la précarité,
01:03 en tout cas réduire la précarité alimentaire.
01:05 Ça va être l'angle de notre sujet aujourd'hui avec Victoriamandephile.
01:09 Bonjour.
01:10 Bienvenue sur ce plateau, vous êtes la fondatrice de Solinum.
01:12 C'est une association à but non lucratif qui lutte contre l'exclusion des publics,
01:16 notamment des publics fragiles, notamment à travers l'usage du numérique.
01:21 Vous avez lancé une application et un guide, un site, une plateforme de solidarité
01:27 qui référence les services utiles aux personnes en situation de précarité
01:31 avec des indications sur les accès aux soins, l'insertion socio-professionnelle,
01:36 aussi l'accès aux droits et puis l'aide alimentaire.
01:39 Alors cette problématique d'accès à l'information en particulier sur l'aide alimentaire
01:44 elle est importante aujourd'hui ?
01:46 Oui, aujourd'hui on a une très forte hausse de la précarité alimentaire,
01:50 notamment liée aux enjeux d'inflation, on a tous vécu.
01:53 Il y a une étude qui est sortie en 2022 du CREDOC qui a montré que 16% des français
01:58 est en situation de précarité alimentaire.
02:00 C'est juste hallucinant, 16%.
02:02 Et parmi ces personnes, il y a plus de la moitié qui n'ont pas recours à l'aide alimentaire.
02:06 Pour tout un tas de raisons, mais l'une des grosses raisons c'est le manque d'information.
02:10 On est une personne qui n'a pas été en situation de précarité dans sa vie.
02:14 Une distribution alimentaire, une épicerie sociale et solidaire, un colis,
02:18 on ne sait pas vraiment ce que c'est et surtout on ne sait pas où le trouver
02:21 ou si on a le droit ou pas. C'est ça qu'on fait avec Soliguide,
02:24 c'est qu'on référencie tout ce qui existe.
02:26 Il y a des aides, il y a des solutions, elles sont multiples,
02:29 peut-être parfois trop nombreuses d'ailleurs pour qu'on s'y retrouve.
02:32 Et donc vous, vous fournissez quoi ? Une sorte d'annuaire finalement ?
02:35 C'est ça, il n'y aura jamais trop d'aide, on pourra toujours dire qu'il en manque.
02:39 Mais en tout cas, c'est vrai qu'on a la chance en France qu'il y ait pas mal de choses
02:42 qui existent pour aider les personnes en situation fragile et notamment
02:46 sur le lutte contre la précarité alimentaire, il existe énormément de dispositifs
02:49 adaptés à tout un tas de profils. Mais par contre, c'est un peu la jungle
02:52 pour s'y retrouver, savoir que pour accéder à telle structure,
02:55 c'est de 9h à 11h et qu'avant il faut avoir un rendez-vous
02:58 parce que c'est une orientation du travers social de telle association
03:01 et que les conditions d'accès c'est d'être de telle typologie,
03:05 d'avoir tel papier, etc. On peut être très vite découragée.
03:09 Donc ce sont principalement des indications géographiques finalement
03:13 qui sont très utiles mais aussi sur des modalités d'accès.
03:17 - Absolument. - Alors ce guide est disponible dans 30 départements en France.
03:21 Comment est-ce que vous collectez les données et est-ce qu'elles existent déjà quelque part d'ailleurs ?
03:25 - On l'a sûr de notre front. Quand j'ai commencé Soliguide... - A la main ?
03:29 - Ouais, j'étais persuadée qu'il y avait une base de données magique qui existait
03:32 où il y aurait toutes ces informations. Mais en fait, la base de données magique
03:35 elle n'existe pas alors on l'a fait. - Je ne sais pas si on va à la mairie par exemple ?
03:39 On ne peut pas nous donner accès à l'ensemble de l'offre disponible ?
03:43 - Ça serait bien, mais non, on peut. Grâce à Soliguide du coup,
03:46 sur toutes les villes où on est et tous les départements où on veut,
03:49 on est en partie en approche avec les collectivités qui nous permettent
03:52 d'étendre encore plus le Soliguide et du coup, par exemple,
03:55 il y a des villes comme la ville de Strasbourg qui font des guides papiers
03:58 en collaboration avec nous. Donc si vous allez à la mairie, vous trouverez un guide Soliguide.
04:01 - D'accord. Et jusqu'ici, ce sont des données qui sont plutôt réparties
04:06 dans diverses bases, celles d'associations, celles du service public.
04:11 Où est-ce que vous allez les chercher encore et comment est-ce que vous réussissez
04:14 à les collecter, j'imagine aujourd'hui, de manière quand même un peu plus automatique ?
04:17 - Automatique, pas tant que ça. C'est très intéressant pour moi en tant qu'ingénieure.
04:21 - Il n'y a pas un système d'information, aujourd'hui, efficace,
04:24 qui permettrait de les rassembler ?
04:26 - Bah du coup, c'est ce qu'on a créé. Et on s'est dit, on a bien galéré à le faire.
04:30 Aujourd'hui, on a une base de données de plus de 100 000 services à travers la France,
04:33 on a des salariés partout qui s'occupent de créer cette base de données,
04:36 d'animer le réseau, de mettre à jour surtout, parce qu'une donnée,
04:39 elle a de pertinence que si elle est à jour.
04:42 Et ensuite, on va la mettre à disposition de tout le monde.
04:45 Donc, ça va être depuis 2020 maintenant qu'on a une API qui permet de partager
04:48 à tous les acteurs gratuitement cette base de données.
04:50 Il y a des gens qui l'utilisent, notamment au sein de l'État, pour des politiques publiques,
04:53 il y a des associations qui la réutilisent comme entourage
04:56 pour pouvoir guider les personnes avec et sans abri.
04:59 Il y a aussi des chercheurs qui vont utiliser nos données pour des questions d'analyse
05:02 et moi, je trouve ça passionnant.
05:04 - Et vous pensez qu'on peut, enfin j'imagine que vous en êtes convaincue,
05:06 mais c'est de nous convaincre aussi qu'on peut avoir un véritable effet systémique
05:09 grâce à cet accès à l'information ?
05:12 - Tout à fait.
05:13 À la base, moi, mon objectif, parce que j'étais avant tout bénévole maraudeuse,
05:17 c'était de pouvoir répondre aux besoins d'orienter les personnes.
05:20 Surtout à un moment donné, là où on a une inflation qui est telle
05:22 que les personnes qui tombent en situation de précarité,
05:24 qui sont étudiantes, qui sont retraitées, qui sont tout un tas de profils,
05:26 il faut leur donner les clés pour rebondir immédiatement.
05:29 Mais il n'y a pas que ça.
05:31 Avec les données qu'on a sur Soliguide, on permet aussi au pouvoir public
05:34 de pouvoir se rendre compte de l'existence du maillage territorial.
05:37 On peut dire, en fait, sur cette collectivité,
05:40 il n'y a pas assez d'aides alimentaires de tel type, sans orientation, sur tel quartier.
05:44 Là, il y en a beaucoup. Est-ce qu'on ne pourrait pas mieux de rééquilibrer un petit peu ?
05:47 Et c'est cet impact systémique qu'on veut avoir.
05:50 C'est de faire se rencontrer un peu l'offre et la demande sociale.
05:53 - Merci beaucoup. Merci pour votre initiative, surtout.
05:56 Victoria Mendefil, fondatrice de Solinum.
05:59 - Merci à vous.
06:00 - Allez, tout de suite, on s'intéresse au sujet des fake news
06:03 et de nos armes aujourd'hui pour lutter contre elles.
06:06 (Générique)
06:09 - Bismarck.
06:10 - Alors qu'il y a évidemment deux nouveaux outils pour créer de fausses images,
06:14 nous allons regarder quelles sont nos nouvelles armes pour lutter contre les deepfakes.
06:18 On voit ça avec Vanessa Bouchara, avocate spécialisée en droit d'auteur chez Bouchara Avocat.
06:23 Bonjour Vanessa.
06:24 Et Anthony Level, responsable de la stratégie réglementaire et juridique relative à l'IA chez Imatag.
06:30 Petite parenthèse quand même sur Imatag que tout le monde ne connaît pas.
06:33 Spin-off de l'INRIA basé à Rennes, donc une start-up française spécialisée dans les technologies de reconnaissance de contenu.
06:40 Fondée en 2016 par quatre chercheurs qui ont breveté une technologie de tatouage numérique qu'on peut appeler watermarking digital.
06:49 Alors je voulais déjà vous interroger sur des deepfakes que vous auriez croisés et qui vous inquièterait aujourd'hui.
06:55 - Alors je commence.
06:57 Pour faire un panorama du type de deepfake, en fait, il y a un peu de tout.
07:01 Parce qu'en fait le deepfake il est un peu neutre à la base.
07:03 Mais on en distingue deux grandes catégories.
07:05 La première c'est le deepfake à vocation politique, géopolitique.
07:08 Le deuxième c'est plutôt à vocation humoristique.
07:10 On va plus se passer évidemment sur des écrans que les autres.
07:14 - Ou le plaisir de la créativité aussi.
07:17 - Ou le plaisir absolument artistique.
07:18 Il y a ça aussi, ça augmente aussi l'artistique l'IA.
07:20 Pour vous donner un panorama des différentes deepfakes qui ont quand même bien résonné dans le monde,
07:25 il y a eu la première qui a eu un effet potentiellement géopolitique militaire.
07:28 C'est deux semaines après l'invasion de la Russie en Ukraine.
07:32 Il y a eu un deepfake qui représentait Vladimir Zelensky.
07:35 Pas Vladimir Zelensky, mais Zelensky.
07:37 - Vladimir Poutine ?
07:39 - Non, non, Vladimir Zelensky.
07:42 Et qui en fait le représentait avec sa voix et disait "il faut qu'on se rende".
07:46 Donc c'était une tentative de reddition par les réseaux sociaux
07:49 pour démoraliser, c'est la première tentative de démobilisation finalement des troupes ukrainiennes avec un deepfake.
07:54 Un deepfake politique, ça peut être celui qui est récemment passé il y a deux jours
07:58 sur la parodie des voeux de Marine Le Pen détournée en russe.
08:02 Voilà, donc plutôt à vocation humoristique et politique pour le coup.
08:06 D'autres, il y a eu Trump qui avait été, alors là c'était une manipulation vidéo et image,
08:10 c'est-à-dire que Trump avait été représenté avec Fauci.
08:12 Fauci, vous savez, c'était le responsable de la politique anti-Covid aux Etats-Unis.
08:15 Et contre lequel en fait tout, l'aspect complotiste était vraiment contre cette personne-là.
08:22 Et ils les ont associés, on voit Donald Trump qui embrasse Fauci,
08:25 donc pour dire en fait qu'il y a une cohérence entre les deux.
08:27 Et c'était en fait initié par le gouverneur de Californie
08:31 qui avait lui-même des véléités pour concurrencer Trump aux prochaines élections présidentielles.
08:35 Donc ça c'est des deepfakes à vocation géopolitique.
08:39 Et de déstabilisation ou d'ingérence.
08:42 Et voilà, c'est un sujet qui nous préoccupe davantage maintenant que nous avons des outils
08:47 comme les IA génératifs qui facilitent énormément ce travail.
08:51 Et puis les plateformes de diffusion qu'on connaît, évidemment les réseaux sociaux,
08:54 pour massifier ces influences.
08:57 Après il y a quand même un système de méfiance aujourd'hui du public
09:00 parce qu'on a suivi aussi par exemple le pape qui avait cette énorme doudoune
09:05 et d'autres images qui ont été des images très marquantes.
09:08 On a eu le pape en doudoune, on a eu Emmanuel Macron dans une manifestation des GA.
09:14 Et les gens l'ont envoyé tout de suite quand même pour qu'on était dans le jeu.
09:18 Exactement. Et donc là on se rend bien compte que finalement
09:22 il y a une limite entre notre perception antérieure à toutes ces utilisations massives
09:27 de l'intelligence artificielle et de ce qu'on voit aujourd'hui.
09:30 Et on apprend, je pense, en tant que personne lambda, à se méfier des images.
09:35 On voit à quel point sa voix peut être utilisée.
09:40 Qu'on peut parler une autre langue.
09:42 Moi j'entendais Macron il y a quelques jours sur un réseau social
09:45 nous présenter ses voeux en arabe et expliquer plein de choses.
09:48 Et donc aujourd'hui on se rend compte à quel point l'information peut être manipulée
09:54 et à quel point c'est important de mettre des gardes fous.
09:57 Et puis il y a des pièges.
09:58 Par exemple je pense à cette image du bébé en pleurs sous les décombres
10:04 qui a été réalisée par une intelligence artificielle générative.
10:10 On peut s'en apercevoir quand on la regarde de près
10:12 mais cette image a été imprimée et brandie lors d'une manifestation au Caire
10:17 pour dénoncer l'action d'Israël en Palestine.
10:22 Et cette image s'est retrouvée finalement en couverture de Libération
10:26 qui s'est posé la question finalement.
10:28 Est-ce que de montrer un homme bien réel dans une manifestation
10:31 qui brandit une image générée par une IA,
10:33 est-ce que là je participe à la deepfake ?
10:36 Est-ce que je dois mentionner qu'il s'agit d'une fausse image ?
10:39 Sur les pancartes il y a toujours eu des choses humoristiques, trafiquées.
10:43 Qu'en est-il avec les IA ?
10:44 Ce sont des nouvelles questions qui se posent.
10:46 Là ce qu'on va regarder ensemble, ce n'est pas tellement comment analyser ces images,
10:51 c'est plutôt comment est-ce qu'on peut se prémunir de ce flux et de ce flot de fausses images.
10:57 Alors on va peut-être commencer par nos armes technologiques.
11:00 Je parlais du watermarking, expliquez-nous.
11:02 Le watermarking, le watermarking digital,
11:05 c'est du tatouage numérique en français et ça s'appelle aussi du filigrane.
11:09 Ça consiste en quoi ?
11:10 Ça consiste à insérer dans un contenu numérique un signal, une marque,
11:15 et de diffuser ce contenu numérique sur le web avec cette marque.
11:19 Une fois qu'on a cette marque, comme on sait ce qu'on cherche,
11:22 il est très facile de la retrouver sur le web.
11:24 C'est le premier élément très important du watermarking,
11:26 c'est qu'une fois qu'il est watermarké,
11:27 comme à chaque fois qu'on sait ce qu'on cherche en informatique,
11:29 c'est beaucoup plus facile de le trouver que d'analyser l'ensemble des éléments.
11:31 Ça c'est la première chose. Et une fois qu'on a repéré ce signal dans notre recherche,
11:35 on peut lui adresser une fonction.
11:36 On peut très bien lui adresser une fonction utilisée aujourd'hui
11:39 qui est réintégrer les métadonnées d'origine d'un contenu
11:42 au contenu lui-même quand on aura été dépouillé.
11:44 Il faut savoir aujourd'hui que 80%...
11:45 C'est-à-dire en précisant la source de l'image ?
11:47 En précisant la source, le contexte, l'auteur, la date,
11:50 donc l'intégralité finalement du contexte véridique qui est autour de cette image.
11:54 Comme cette image dont je parlais du bébé sous les décombres
11:57 qui en fait date de février 2023, qui a été générée...
12:00 Ça c'est une image générée.
12:01 En février 2023 et réutilisée bien plus tard.
12:04 Absolument. Donc à ce signal, vous pouvez adresser une fonction.
12:07 La fonction est "réintégrer-moi mes métadonnées d'origine".
12:09 Donc finalement les métadonnées sont dissociées, sont déportées du contenu,
12:12 mais lui sont toujours attachées au travers de ce signal.
12:14 Ça c'est extrêmement important puisque une fois que vous avez ça,
12:16 quand vous pouvez faire ça, vous pouvez authentifier en fait tout ce qui est sur le net
12:21 à partir du moment où il y a ce tatouage qui renvoie à ces métadonnées.
12:24 Et donc en fait il y a deux façons de lutter contre les deepfakes.
12:27 La première c'est le fact-checking et le debunking de fake news.
12:30 C'est du temps, c'est de l'énergie, c'est une mobilisation de beaucoup de choses,
12:33 y compris des technologies.
12:34 Et il y a quelque chose qui est beaucoup plus facile à faire,
12:36 c'est d'authentifier les images fiables, les informations réelles.
12:39 Et le watermarking intervient sur les deux niveaux.
12:42 Le premier niveau, vous l'avez compris, je peux identifier partout où elle est l'image,
12:45 je peux lui réintégrer ses métadonnées et dire "c'est une image AFP,
12:48 de tel contexte, du conflit israélo-palestinien, prise à telle date, avec telle image".
12:52 Vérifier s'il y a eu des modifications entre temps.
12:54 Et c'est ça le deuxième point.
12:55 C'est-à-dire que comme je sais que moi, en base de données, j'ai,
12:58 ou l'éditeur, selon si c'est on-premise ou chez nous,
13:01 une fois que j'ai l'image d'origine et les métadonnées d'origine,
13:04 je peux très bien voir s'il y a des modifications sur l'image d'origine et les tracer.
13:07 Et indiquer éventuellement que ça a été modifié comment, et pas pourquoi, mais comment.
13:12 Et ça c'est déjà une arme.
13:13 Évidemment on ne l'a pas apprécié, mais ce marquage, ce filigrane dont vous parlez, il est invisible.
13:17 Il est absolument invisible, tout à fait.
13:18 En fait c'est de la steganographie.
13:20 La steganographie c'est dérivé de la cryptographie,
13:22 c'est l'art effectivement de rendre invisible à l'œil humain des signaux qui sont dans un contenu numérique.
13:27 Alors comment est-ce qu'on va le rechercher et à qui est destiné en particulier ce marquage ?
13:32 Le marquage, avant tout, historiquement, il a été destiné,
13:34 pourrais peut-être nous en préciser, au contrôle de l'IP,
13:37 c'est-à-dire au contrôle de la propriété intellectuelle.
13:39 Du moment où j'ai un filigrané des images artistiques,
13:41 je peux les retrouver partout, je sais quels sont les contrefaçons,
13:43 je sais quels sont les usages licites, ou je vois quels sont les détournements.
13:46 La première utilisation c'était ça.
13:47 La deuxième c'est l'anti-lix, c'est-à-dire l'anti-fuite.
13:49 Par exemple, le dernier modèle de Samsung, il n'a peut-être pas envie,
13:52 que fuite le design de son dernier modèle.
13:54 Donc là, ça a un effet préventif, puisque les gens savent que c'est watermarké,
13:57 donc ils ne vont pas le liquer.
13:58 Et si toutefois ça a été liqué, on sait retrouver exactement
14:00 quelle est la personne qui a liqué en traçant tout simplement ce lique.
14:03 Et maintenant que l'intelligence artificielle générative arrive,
14:05 en fait, avec l'essor de l'intelligence artificielle générative,
14:08 ça vient servir d'authentification de tout ce qui sort.
14:11 Je peux authentifier des images qui ne sont pas génériques, qui sont réelles,
14:14 en réintégrant les métadonnées,
14:15 mais je peux aussi identifier des modèles de fondation et des images synthétiques,
14:19 avec presque la même technologie.
14:21 Ça reste du filigrane invisible, mais ce ne sont pas les mêmes techniques derrière.
14:24 - Donc là, c'est plus pour la protection du droit d'auteur ?
14:27 - Avant, pour la protection du droit d'auteur,
14:29 fuite, et maintenant, authentification, droit à l'information, fiabilité de l'information.
14:33 - Du côté des armes juridiques, M. Bouchra,
14:37 est-ce qu'on est bien doté aujourd'hui ?
14:39 Est-ce qu'il vous semble, par exemple, que dans l'HIE Act,
14:42 sur lequel on a un premier accord politique,
14:45 il y a des choses intéressantes pour lutter contre les deepfakes ?
14:48 - Oui, il y a des choses clairement intéressantes,
14:50 et on met en place un certain nombre de garde-faux autour de l'intelligence artificielle.
14:54 Quels sont les systèmes qui sont totalement inacceptables ?
14:57 Quels sont ceux qui sont à haut risque et qu'il faut structurer, organiser,
15:00 pour que justement, les personnes et leurs droits soient correctement respectés ?
15:05 Et quels sont ceux qui sont à risque minimal et qui sont acceptables ?
15:08 Avec des sanctions associées qui peuvent aller jusqu'à 35 millions d'euros et 7% du chiffre d'affaires
15:12 quand on utilise cette intelligence artificielle,
15:16 quand en tant que fournisseur, on lance des intelligences artificielles
15:19 qui sont totalement interdites.
15:20 Donc oui, il y a un arsenal qui se met en place, après c'est long.
15:23 Il y a eu un accord provisoire, on attend que ce soit définitif,
15:26 puis ensuite, il va y avoir deux ans pour sa mise en place.
15:29 Et c'est un système, on en parlait, qui va très vite.
15:32 Et donc, est-ce qu'il sera tout aussi bien et efficace dans deux ans ?
15:36 On en reparlera à ce moment-là.
15:38 Mais en attendant, on n'est pas totalement dépourvus.
15:41 Même sans parler de l'IACT aujourd'hui ?
15:44 Non, on n'est pas totalement dépourvus.
15:46 On disait tout à l'heure qu'effectivement, les watermarkings servent beaucoup
15:52 pour lutter contre la contrefaçon.
15:54 Et effectivement, la contrefaçon, qu'il y ait ou pas un watermarking,
15:57 on peut lutter contre elle, contre les actes de contrefaçon.
16:00 Comme vous disiez très justement,
16:02 lorsqu'il y a une information, une sorte de fake news
16:06 qui est propagée par l'intelligence artificielle,
16:10 en faisant des recherches, on y arrive et on arrive à le démontrer
16:12 et on peut engager des actions.
16:14 Donc en fait, ce qui est intéressant, c'est qu'on est en train de mettre en place
16:17 quand même un arsenal qui structure un peu le tout,
16:20 qui doit tenir compte de pas mal d'éléments,
16:22 notamment le contexte de l'internationalisation,
16:24 le contexte de la technologie.
16:26 Par exemple, les États-Unis se sont un peu insurgés contre notre IACT
16:29 en disant, finalement, est-ce que c'est pas un système
16:32 qui va privilégier les entreprises qui auront extrêmement,
16:35 qui auront beaucoup de moyens pour lancer tout cela
16:38 au détriment de l'innovation et de plus petites entreprises ?
16:40 C'est plutôt la France qui s'est insurgée d'ailleurs.
16:42 Également, également, également.
16:45 Donc c'est vrai que c'est intéressant et ça ouvre beaucoup de problématiques.
16:49 Mais il me semble que le watermarking est un moyen efficace
16:53 sur lequel vous avez énormément d'acteurs qui travaillent
16:57 et qui cherchent à renforcer aussi le système.
17:00 Là, récemment, il y a des scientifiques qui ont fait un test
17:03 sur des systèmes de watermarking et qui ont vu qu'on pouvait
17:07 encore, avec certaines technologies, les retirer.
17:12 Et vous avez aussi des sites ou des applications,
17:16 notamment watermarkremover.io et ce genre de choses,
17:20 qui vous permettent assez simplement,
17:23 sous réserve des technologies qui évoluent sans cesse,
17:26 de retirer aussi un watermarking.
17:28 Donc il faut avoir un watermarking efficace,
17:33 anticiper constamment, j'imagine que c'est ce que vous faites au quotidien,
17:37 les solutions de contournement.
17:39 On a beaucoup entendu parler au moment de ChadGPT
17:42 de ces étudiants qui utilisaient ChadGPT pour faire leur dissertation.
17:47 Et il y avait les outils qui permettaient de savoir
17:50 si de l'intelligence artificielle avait été utilisée
17:53 et les outils qui permettaient de faire en sorte que les outils
17:56 ne détectent pas que l'intelligence artificielle avait été utilisée.
17:59 Donc on est un peu là sur un système qui a du sens
18:02 et qui, à mon sens, va s'amplifier, va se solidifier, va se structurer
18:06 et avec un vrai travail, à mon sens, qui sera à la charge des entreprises,
18:11 de s'assurer qu'il y ait le moins de contournement possible
18:14 pour que le système soit réellement fiable.
18:17 Vous faites référence à une étude qui a montré à quel point
18:20 le hacking aussi pouvait avoir ses failles, être fragile
18:23 et combien finalement l'éducation du public restait importante.
18:26 C'est d'autant plus important d'éveiller notre oeil, notre oreille
18:30 à tous ces deepfakes parce que finalement aujourd'hui,
18:35 quel est le niveau de diffusion d'armes anti-deepfake ?
18:39 Il n'est pas si élevé.
18:41 Vous étiez chez TF1 aux affaires réglementaires.
18:46 Quel est le niveau de prise de conscience aujourd'hui
18:49 des médias sur le danger des deepfakes ?
18:52 Je pense que les prises de conscience, je ne parle pas pour TF1,
18:55 mais les prises de conscience sont là.
18:57 Chaque chaîne de télévision a presque une cellule de fact-checker.
19:01 Ensuite, en termes technologiques, on peut mentionner que TF1 a adhéré
19:05 récemment au JTI, c'est-à-dire le Journalist Trust Initiative,
19:08 qui permet finalement sur les informations fiables,
19:10 je parlais tout à l'heure d'authentifier les informations fiables,
19:12 elle le serait et elle serait remontée dans le référencement naturel
19:16 des résultats de Bing.
19:18 Donc ça, oui, il y a des prises de conscience.
19:20 L'utilisation dans les faits ?
19:23 Dans les faits, pas tant que ça.
19:25 Je pense que pour le moment, les médias, les éditeurs sont victimes de tout ça.
19:28 Et plus le temps passe, plus ils sont victimes,
19:30 puisque plus ils sont dilués dans l'information fausse
19:32 qui est de plus en plus réaliste.
19:34 Donc oui, il faut un sursaut.
19:36 Et pour nous, évidemment, le sursaut consiste, par exemple,
19:38 pour un éditeur à watermarker tout ce qui sort,
19:40 ou au moins les éléments les plus critiques,
19:42 parce qu'il pourra démontrer plus tard que ce n'est pas lui qui l'a détourné.
19:44 Il pourra démontrer que son image d'origine, c'est celle-ci,
19:46 et que ce qui était sur le web et qui a fait du buzz, c'est celle-là.
19:49 Et ce n'était pas la sienne.
19:51 C'est celle qui a été détournée en deepfake.
19:53 Et ça, c'est en termes de responsabilité.
19:55 C'est un processus fastidieux, onéreux.
19:57 Mais il y a tellement de contenu généré que c'est difficile
19:59 de le mettre en place systématiquement
20:01 pour l'ensemble des contenus générés, de toute façon.
20:03 Ah, pour l'ensemble des contenus générés ?
20:05 Et même pour le grand public.
20:07 Quand moi, j'ai envie de générer une image,
20:09 parce que ça m'amuse de jouer avec ces outils,
20:11 et que je la diffuse sur les réseaux sociaux.
20:13 J'ai quel outil aujourd'hui pour dire que c'est mon image
20:15 et j'ai envie qu'on y touche ?
20:17 Ah, aucun. Absolument aucun outil.
20:19 Après, c'est du DRM.
20:21 Là, on ne parle pas du DRM, mais le DRM, c'est encapsuler
20:23 votre image dans un système logiciel qui fait que je ne vais pas pouvoir...
20:25 Ça nous rappelle une autre époque.
20:27 On revient dans le passé.
20:29 Aucun technologique.
20:31 En revanche, vous avez quand même des outils juridiques.
20:33 C'est-à-dire que quand vous avez des droits,
20:35 vous avez la possibilité de vous opposer à leur utilisation
20:37 par des tiers, dans des conditions qui, si ce n'est pas autorisé par vous...
20:39 Est-ce que j'ai des droits, justement,
20:41 parce que c'était ma deuxième question,
20:43 à propos de l'image que j'ai générée, moi, certes,
20:45 mais avec une IA générative ?
20:47 Alors, c'est une question très intéressante
20:49 et qui alimente beaucoup les tribunaux
20:51 et la doctrine
20:53 et tous ceux qui parlent de ces sujets.
20:55 Moi, je pense que oui,
20:57 à la condition qu'on ait eu un rôle proactif
20:59 dans la génération de l'image.
21:01 Clairement, si on demande
21:03 à une intelligence artificielle générative
21:05 de créer une image
21:07 à partir d'une image de plateau
21:09 de plateau,
21:11 dans le style de tel ou tel artiste,
21:13 finalement, on n'a pas créé grand-chose.
21:15 En revanche, si on donne des instructions
21:17 très précises
21:19 et si on a plusieurs interactions
21:21 avec le logiciel d'intelligence artificielle,
21:23 moi, je pense qu'on a une part créative
21:25 assez importante, assez structurelle
21:27 et que dans ces conditions, on peut être titulaire de droit.
21:29 Ça se défend, pour tout cas.
21:31 Exactement. En fait, le droit d'auteur,
21:33 c'est être capable de montrer
21:35 qu'il y a l'empreinte de la personnalité
21:37 d'une personne en tant qu'auteur.
21:39 Donc, si on peut démontrer qu'il y a
21:41 l'empreinte de notre personnalité
21:43 dans une oeuvre, quelle qu'elle soit,
21:45 même si on est passé par l'intelligence artificielle,
21:47 pour moi, on devrait avoir des droits.
21:49 En revanche, moi, je milite pour une transparence
21:51 et c'est aussi à ça que sert
21:53 le watermarking.
21:55 On ne peut pas utiliser l'intelligence artificielle
21:57 pour créer une oeuvre
21:59 dans laquelle on a été plutôt proactif
22:01 et ne pas le dire. Pour moi, il y a vraiment
22:03 cet enjeu et surtout avec les enjeux
22:05 de watermarking aujourd'hui...
22:07 - L'obligation va apparaître dans le règlement.
22:09 - Oui, mais c'est l'objet,
22:11 vraiment la transparence
22:13 et l'éthique, ce sont des éléments essentiels.
22:15 - Un verrou à lever pour qu'on y arrive
22:17 vraiment à mettre en place ces outils
22:19 contre les deepfakes, très rapidement,
22:21 Anthony ? - Très rapidement, le verrou à lever,
22:23 c'est en fait faire un état des lieux des technologies
22:25 qui permettent de faire du watermarking.
22:27 Quels sont les plus robustes ?
22:29 Une technologie de watermarking qui ne serait pas
22:31 assez robuste participerait à saper la confiance,
22:33 y compris dans l'identification des contenus.
22:35 Donc il est extrêmement important d'avoir
22:37 la meilleure possible. Nous, on sait qu'on est les plus robustes au monde.
22:39 Vous avez cité une étude académique, il y a peu de temps,
22:41 qui était intitulée "We broke the mold".
22:43 - On n'a pas le temps de faire la preuve ici sur ce planète.
22:45 - Non, mais voilà, la robustesse
22:47 est extrêmement importante dans la fiabilité
22:49 et la confiance du public. - Mettons à l'épreuve ces technologies.
22:51 Merci beaucoup Anthony Level, responsable
22:53 de la stratégie réglementaire et juridique
22:55 de l'IA chez IMATAG
22:57 et maître Bouchara Avocat, spécialisé
22:59 chez Bouchara Avocat.
23:01 On a rendez-vous tout de suite
23:03 avec le monde de la donnée. On va regarder comment
23:05 gérer au mieux cette donnée
23:07 dans le secteur public.
23:09 David Bessot est mon invité pour terminer
23:17 cette édition, directeur associé chez
23:19 TNP Consultants, membre du Cercle de la Donnée.
23:21 Bonjour David, merci d'être
23:23 avec nous. On reparle de cette étude
23:25 du Cercle de la Donnée qui
23:27 va paraître dans les prochains mois, sur l'impact
23:29 de cette donnée sur
23:31 le vivant. Vous souhaitez nous présenter les propositions
23:33 qui concernent le secteur public.
23:35 Pourquoi ? - Eh bien, parce que
23:37 le secteur public, comme tous les secteurs
23:39 d'activité, a un impact sur la donnée
23:41 et on va demander au secteur public d'être
23:43 un peu vertueux, c'est-à-dire
23:45 pour lui-même déjà, d'appliquer des bonnes pratiques.
23:47 C'est vrai que vu qu'on travaille sur la question
23:49 de l'impact de la donnée sur le vivant,
23:51 on s'est dit, au sein du Cercle,
23:53 qu'il fallait aussi travailler sur le secteur public.
23:55 - Alors,
23:57 pour vous, il s'agit de
23:59 créer une nouvelle donne dans le secteur public,
24:01 de gérer différemment la donnée par rapport à ce qu'on fait
24:03 aujourd'hui ? - Exactement. En fait, l'équilibre
24:05 n'est pas le même dans le public et dans le privé.
24:07 Et on a souvent fait des choses différemment dans le public.
24:09 Par exemple, l'achat public ne se passe pas
24:11 de la même façon que l'achat privé. Par exemple,
24:13 la mutualisation dans le public ne se fait
24:15 pas de la même façon. La gestion des priorités
24:17 ne sont pas les mêmes. Et donc, ce qu'on pense,
24:19 c'est qu'aujourd'hui, le secteur public peut agir de deux
24:21 façons pour avoir une donnée qui soit
24:23 plus respectueuse du vivant, travailler
24:25 sur l'impact sur la planète, c'est-à-dire d'avoir
24:27 une donnée plus éco-responsable. Alors, la donnée
24:29 et tous les outils qui permettent de gérer
24:31 cette donnée. Et puis aussi, une donnée
24:33 qui soit plus responsable vis-à-vis des populations
24:35 qui confient cette donnée au secteur public.
24:37 Donc, la donnée est confiée, la donnée est produite
24:39 par le public. Et finalement, ça
24:41 constitue un bien public qu'il faut pouvoir
24:43 utiliser et protéger. - Et comment on y arrive ?
24:45 Quel chemin emprunter ?
24:47 - Quel chemin emprunter ? En fait, on va
24:49 travailler sur deux chemins et c'est la proposition
24:51 4 et la proposition 5 de notre
24:53 étude qui va sortir effectivement dans quelques semaines.
24:55 La première proposition, c'est de dire
24:57 comment est-ce que le secteur public peut travailler
24:59 sur lui-même ? Comment mettre en place
25:01 un cycle plus vertueux sur cette
25:03 chaîne de production de la donnée ? Et pour ça,
25:05 on va travailler sur des choses très concrètes, comme
25:07 définir une doctrine autour de la donnée.
25:09 On ne gère pas les données de santé
25:11 comme on gère les données de transport,
25:13 comme on gère les données touristiques. Nous n'avons pas
25:15 la même criticité, pas les mêmes problématiques
25:17 de protection, les mêmes problématiques techniques.
25:19 Donc, il faut décider de
25:21 prioriser et de définir des niveaux
25:23 différents en fonction des typologies
25:25 d'actifs que l'on manipule.
25:27 Autre exemple, on parle
25:29 d'autoroute de l'information. Vous savez que depuis
25:31 que Facebook a lancé l'autoplay,
25:33 on a dû rajouter des câbles dans l'Atlantique
25:35 pour pouvoir faire circuler plus d'informations.
25:37 - Ne parlons pas du scroll
25:39 illimité sur les TikTok et compagnie.
25:41 - Et ça doit nous poser la question des priorités
25:43 des flux de données. Et on pense aujourd'hui
25:45 que le secteur public, l'Etat, les collectivités
25:47 territoriales, les hôpitaux doivent s'interroger
25:49 sur les données prioritaires et celles qui
25:51 le sont moins. Et pour ça, définir une doctrine
25:53 pour le faire. Et puis enfin, pour lui-même, il y a
25:55 la mutualisation. Vous savez qu'il n'est pas rare
25:57 d'avoir des data centers de fonctions
25:59 publiques différentes, une université,
26:01 une collectivité,
26:03 une préfecture, qui partagent
26:05 des données sur un même territoire dans des infrastructures
26:07 différentes. Là aussi, on voit
26:09 un beau moyen de diminuer l'impact de la
26:11 donnée sur le vivant en mutualisant des infrastructures
26:13 et des services. - Vous parliez d'une seconde
26:15 voie. - La seconde voie,
26:17 c'est que l'achat public en France
26:19 impacte les soumissionnaires,
26:21 impacte les entreprises qui travaillent pour le secteur
26:23 public. Et on y voit là une bonne occasion
26:25 de créer, là aussi, un cercle
26:27 vertueux. Si finalement, la commande publique
26:29 exige que les soumissionnaires
26:31 ne montent pas de blanche sur la
26:33 gestion de leur patrimoine de données,
26:35 rendent des comptes sur la donnée qu'ils manipulent,
26:37 la sécurisent, et on voit déjà
26:39 des initiatives dans ce sens-là,
26:41 on participe à orienter le marché.
26:43 Et nous sommes pour, et on l'écrit notamment
26:45 dans notre étude, mettre une clause qui
26:47 impose aux entreprises de mettre
26:49 en place des études d'impact sur
26:51 les données dont ils disposent quand il
26:53 s'agit de données publiques ou données à destination du secteur
26:55 public. - Donc c'est un volet quand même
26:57 important dans votre
26:59 étude. - Oui, en fait,
27:01 l'avantage du secteur public,
27:03 c'est qu'il travaille différemment du secteur privé.
27:05 On va peut-être un peu moins vite, mais parfois on peut aller
27:07 plus loin, et c'est plutôt une bonne nouvelle.
27:09 Et donc on pense que 2024 sera
27:11 une belle année pour l'éthique et
27:13 justement pour réfléchir aux impacts des choses qu'on fait.
27:15 Vous savez, on a beaucoup joué avec TchadGPT
27:17 en 2023, et on commence à peine à se
27:19 rendre compte que les données qu'on a pu confier à cet
27:21 outil, finalement, sont un petit peu partout.
27:23 Ça nous intéresse aujourd'hui que
27:25 les décideurs, que les députés, que les ministres,
27:27 que les maires, que les présidents d'universités,
27:29 que les directeurs d'hôpitaux, que les médecins
27:31 réfléchissent à l'impact de la donnée
27:33 qu'ils manipulent et mettent en place des bonnes
27:35 pratiques pour diminuer l'impact et sur la
27:37 planète et sur la santé de nos concitoyens.
27:39 - Merci beaucoup, David Bessot, donc TNP
27:41 Consultant et membre du Cercle de la Donnée.
27:43 Merci à vous de suivre Smartech
27:45 avec fidélité. Ça continue, les discussions
27:47 sur la tech en 2024 sur la chaîne Bsmart.
27:49 Et également à suivre en podcast.
27:51 [Musique]
27:53 [Musique]
27:55 [Musique]
27:57 [Musique]
27:59 [Musique]

Recommandations