Replay : ÉTHIQUE ET DATA 2024 - Les nouveaux défis de la brand safety

  • il y a 6 mois
Visionnez le replay de la conférence ÉTHIQUE ET DATA 2024 - Les nouveaux défis de la brand safety diffusée le mardi 26 mars 2024 en live sur Teams.

Attention où tu mets les pieds ! La publicité est une entreprise périlleuse par bien des aspects. Sur le fond, dans la conception de son message, quand elle s’aventure sur un territoire sensible (un sujet, un genre ou un registre).

Mais aussi dans son déploiement, en courant le risque de s’afficher aux cotés ou au sein même d’un contenu que l’opinion publique peut désapprouver. C’est ce préjudice de réputation que les techniques de brand safety entendent prévenir.

En la matière, les récents progrès de l’IA représentent tout autant une menace nouvelle — par une prolifération de contenus nuisibles catalysée par l’IA générative, que l’occasion d’améliorer les moyens d’analyse et de détection de la brand safety grâce aux technologies du langage. En somme, dans un paysage médiatique percuté par l’IA, les marques trouvent à mieux se protéger, mais également à mieux affirmer leur engagement civique et moral.

Les ressorts de ces nouveaux enjeux ont été examinés le 26 mars dans une discussion avec Daphné Marnat, fondatrice de Unbias, start-up technologique spécialisée dans la détection des biais sexistes, Chine Labbé, rédactrice en chef & vice-présidente chargée des partenariats en Europe de Newsguard, start-up engagée dans la lutte contre la désinformation, et Masaki HALLE, head of data Havas Media France.
Transcript
00:00 Bonjour à tous et bienvenue dans cette émission spéciale consacrée au nouveau défi de la
00:04 Brain Safety à l'ère de l'IA.
00:06 Cet enjeu de Brain Safety est fondamental, il est essentiel pour les marques.
00:10 Rappelons en quoi il consiste.
00:12 La Brain Safety, c'est un ensemble de moyens, c'est mettre en œuvre des moyens pour se
00:16 prémunir du risque d'être affiché à côté, à proximité, voire au sein même
00:22 d'un contenu inapproprié.
00:23 Un contenu inapproprié parce que, par exemple, le contenu peut être tout simplement illicite,
00:28 une citation à la haine par exemple.
00:30 Un contenu inapproprié encore parce que peut-être que le contenu est répréhensible sur un
00:35 plan moral, l'intolérance par exemple, ou encore inapproprié parce que le contenu
00:39 est sensible, la pornographie par exemple.
00:41 C'est un risque de réputation puisque, aux yeux de l'opinion publique, quand une
00:46 marque s'affiche à côté d'un certain contenu, qu'elle le veuille ou non, qu'elle
00:51 est choisie de l'être ou non, elle s'associe à ce contenu, voire elle le cautionne, elle
00:57 l'agrée de manière indirecte.
00:59 Cette association qui est projetée par le public, c'est une réalité qui est incontestable.
01:05 Vous voyez que d'après une étude récemment publiée et menée par Integral Ad Science,
01:11 71% des consommateurs considèrent que le contenu qui héberge la publicité reflète
01:18 les valeurs qui sont soutenues et portées par la marque.
01:21 Autrement dit, si ces valeurs qui sont véhiculées par le contenu ont les faveurs, sont appréciées,
01:27 portées par le public, tant mieux puisque la marque arrive à faire commun avec son
01:30 public.
01:31 Si au contraire, ces valeurs sont mal jugées, sont rejetées par le public, c'est au
01:36 détriment, c'est au préjudice de l'image de marque et ça peut mener au discrédit.
01:40 Alors, cet enjeu de brand safety, ce n'est pas un enjeu que l'on vient de découvrir.
01:45 Il est étudié, il est analysé depuis de nombreuses années.
01:48 Il a donné naissance à des technologies qui aujourd'hui sont devenues des technologies
01:52 standards, qui sont rentrées dans l'usage courant chez les annonceurs.
01:55 Pourquoi fait-il l'objet d'un intérêt renouvelé ? Pourquoi questionner de nouveau
02:02 cet enjeu ? Et bien, puisque comme dans beaucoup d'autres domaines, les récents progrès
02:07 de l'IA ont ouvert de nouvelles perspectives, font apparaître de nouvelles opportunités
02:12 d'innovation, mais dans le même temps, induisent un risque inédit, une menace inédite
02:18 pour la sécurité des marques en média.
02:20 Ce sont ces questions qu'on va examiner aujourd'hui pendant une petite heure.
02:24 On a la chance pour ça de recevoir trois invités, trois expertes.
02:27 Daphné Marnat déjà, bonjour Daphné.
02:29 Bonjour Mazaki.
02:30 Vous êtes fondatrice de Unbiased, une startup technologique dont la mission est de lutter
02:35 et de corriger les biais qui sont produits par l'intelligence artificielle, en particulier
02:40 les biais sexistes.
02:41 On reçoit également Florence Soukas.
02:44 Bonjour Florence.
02:45 Bonjour Mazaki.
02:46 Directrice juridique adjointe de Avas Media Network.
02:48 Et enfin, Xin Labe, qui est rédactrice en chef.
02:51 Bonjour Xin, pardon.
02:52 Bonjour.
02:53 Xin Labe est vice-présidente en charge des partenariats pour l'Europe de NewsGuard,
02:57 une organisation dont la mission est de lutter contre la désinformation.
03:00 Alors justement, on va commencer cette table ronde avec vous Xin.
03:04 Bien entendu, l'IA générative porte beaucoup de promesses, notamment pour les médias.
03:10 Mais aussi le risque, le risque assez majeur que de mauvais contenus ne soient créés,
03:16 publiés et diffusés à grande échelle.
03:18 En ce qui concerne l'information, est-on en train d'entrer dans une nouvelle ère
03:22 du faux ?
03:23 Oui, on observe vraiment une accélération et une démocratisation des campagnes de
03:29 désinformation grâce à l'IA générative.
03:31 Le Forum économique mondial, d'ailleurs, dans son rapport annuel des risques mondiaux,
03:36 a placé la désinformation comme premier risque à l'échelle mondiale cette année.
03:41 L'année dernière, elle arrivait seulement en 16e position.
03:44 Donc on voit cette accélération et le Forum économique mondial souligne que c'est l'émergence
03:48 et l'explosion des contenus synthétiques grâce à l'IA générative qui explique
03:52 en partie que ce risque devienne si majeur.
03:56 Alors on a tous vu, je pense, ces derniers mois, ces dernières semaines, des images
04:01 générées par l'IA, des deepfakes vidéos.
04:03 Récemment, on a vu des deepfakes du président Emmanuel Macron dansant le disco.
04:09 On a vu…
04:10 Le petit boxe, quand on a vu notre président boxer, c'était un deepfake aussi.
04:14 Ça c'était vrai.
04:16 On a vu aussi des extraits audio générés par l'IA qui peuvent être extrêmement dangereux.
04:23 Dans le cas de la Slovaquie, en septembre dernier, il y a eu des élections législatives
04:27 et quelques jours avant le scrutin, il y a un audio qui a été partagé sur les réseaux sociaux
04:31 dans lequel on entendait une journaliste très connue en Slovaquie
04:35 et le candidat centriste à l'élection qui parlait de truquer l'élection.
04:40 Ce faux, il peut donc…
04:42 On ne sait pas quel a été son impact exactement.
04:44 Mais on peut imaginer que de tels faux peuvent avoir un impact important.
04:48 Et ce qu'on observe depuis un an de manière assez frappante,
04:53 c'est l'explosion de nouvelles fermes de contenu générées par l'IA.
04:57 C'est-à-dire des sites d'actualité qui ne sont pas fiables,
05:00 qui sont intégralement générés par l'IA ou majoritairement générés par l'IA,
05:04 sans supervision humaine.
05:05 Qu'est-ce que ça veut dire ?
05:06 Ça veut dire qu'il n'y a pas d'éditeur pour contrôler le contenu.
05:09 Donc par définition, le contenu ne peut pas être fiable.
05:12 On a commencé à les recenser, nous, chez NewsGuard, en mai 2023.
05:16 À l'époque, on en avait trouvé 49.
05:18 Et vous le voyez aujourd'hui, on est à 766.
05:21 On en a une quinzaine qui sont en langue française.
05:25 Mais ces sites, ils sont dans une quinzaine aussi de langues.
05:29 Parmi ces 766 sites intégralement ou majoritairement générés par l'IA,
05:34 sans supervision humaine, on en a 421 qui diffusent des publicités programmatiques.
05:38 Qu'est-ce que ça montre ? Qu'est-ce que ça veut dire ?
05:39 Ça veut dire qu'une majorité de ces sites ont été créés par opportunité économique,
05:44 parce que c'est facile, ça prend très peu de temps.
05:47 On peut publier des milliers d'articles par jour sans avoir à payer des journalistes.
05:51 Et monétisés par la publicité.
05:53 Et monétisés grâce à la publicité, en faisant du clic.
05:55 Donc on le voit notamment dans les contenus que vont publier ces sites.
05:59 On en a qui se sont spécialisés dans la publication de nécrologie
06:02 de personnes bien vivantes, dont les noms, juste, sont très viraux sur Internet,
06:07 en se disant "ce nom, il génère du clic,
06:09 donc on va écrire sa nécrologie, ça va nous apporter des lecteurs".
06:13 On l'a vu avec une journaliste du Los Angeles Times aux États-Unis
06:15 qui nous a appelés chez NewsGuard en nous disant "je ne comprends pas,
06:18 mon père vient de m'appeler parce qu'il y a ma nécrologie qui circule en ligne".
06:22 Effectivement, elle avait écrit un article très viral,
06:25 et dans les 48 heures qu'on suivit, on a trouvé 18 articles ou posts
06:29 sur les réseaux sociaux qui faisaient état de sa mort.
06:32 On a des sites qui vont être créés pour le coup des raisons politiques.
06:38 On le voit, certains sont vraiment programmés,
06:40 l'algorithme est programmé pour aller recenser,
06:43 recueillir et résumer des articles polarisants sur Internet,
06:47 avec une volonté de générer de la discorde.
06:50 Et puis il y en a qui sont vraiment créés,
06:52 qui vont être à l'origine d'un FOX très viral.
06:55 Là, c'est un exemple d'un site, vous le voyez, qui a l'air tout à fait lambda,
06:59 ça se présente comme un site d'actualité locale,
07:01 en l'occurrence prétendument pakistanais.
07:04 Ce site, en fait, il s'est spécialisé dans le plagiat,
07:08 il va recueillir des articles sur d'autres sites Internet,
07:10 les résumer et les republier.
07:12 Et récemment, en novembre dernier, il a publié une information
07:15 selon laquelle le prétendu psychiatre du Premier ministre israélien Benyamin Netanyahou
07:20 se serait suicidé.
07:21 En fait, le psychiatre n'existe pas, donc a fortiori il ne s'est pas suicidé.
07:25 Et qu'est-ce qu'avait fait ce site Global Village Space ?
07:27 En fait, l'algorithme avait été…
07:29 Prendre un article d'un site satirique qui datait de 2010 en plus,
07:32 donc ce n'est pas une vieille en FOX, l'avait résumé, l'avait publié,
07:35 et ça a pris énormément d'ampleur sur les réseaux.
07:39 Et sur les grands LLM, les grands assistants conversationnels
07:42 qui sont utilisés par le grand public,
07:44 ChatGPT, Gemini, qu'est-ce que vous avez pu observer ?
07:47 Déjà, on observe que c'est grâce à ces chatbots diagénératifs
07:51 que vont être alimentés ces sites de manière très facile.
07:54 Aujourd'hui, c'est facile, ça ne coûte pas cher.
07:56 Et puis, on s'est effectivement posé la question,
07:58 est-ce que ces chatbots diagénératifs, dans les mains d'acteurs malveillants,
08:02 ils pourraient servir à un multiplicateur de forces, en fait,
08:06 pour générer des campagnes de propagande, des campagnes de désinformation ?
08:09 Donc on a fait des audits des principaux chatbots diagénératifs,
08:13 et ce qu'on a fait, c'est qu'on leur a soumis des récits faux,
08:16 et on leur a demandé d'écrire, voilà, "écris-moi un script télévisé
08:21 relayant tel récit de propagande de tel État,
08:24 écris-moi un article expliquant que les vaccins contre le Covid
08:29 tuent ceux qui les reçoivent, etc."
08:31 Et on s'est aperçus que dans 98% des cas pour "Chat GPT",
08:35 dans sa version 4, puisque cet audit date d'août dernier,
08:39 et dans 80% des cas pour "Google Bards", qui est depuis devenu "Jamie Nye",
08:43 l'outil se prêtait au jeu, relayait cette fausse information.
08:48 Qu'est-ce que ça veut dire ?
08:50 Ça veut dire que dans les mains d'un acteur malveillant,
08:51 ça peut être un État étranger pour diffuser de la propagande,
08:55 ça peut être une personne, un anti-vax qui veut diffuser de fausses informations
09:00 sur les vaccins, ça peut être un outil très puissant
09:03 de super propagation de ces infox.
09:06 Donc il y a un risque qui est double, il y a le risque pour les marques
09:09 de se retrouver associées à des contenus, à ces sites générés par IA,
09:13 qui sont par définition, même s'ils ne diffusent pas d'infox,
09:16 dangereux, puisqu'il n'y a pas de contrôle éditorial,
09:18 donc on ne sait pas ce qui s'y diffuse.
09:20 Et puis c'est dangereux aussi pour les médias traditionnels,
09:24 le journalisme de qualité, parce que beaucoup de ces sites,
09:27 comme je le disais avant, ils vont aller pomper,
09:29 piller des sites d'actualité traditionnels,
09:32 sans créditer ces sites, et aussi leur voler, leur saper
09:36 leurs revenus publicitaires.
09:37 Donc il y a un enjeu à la fois de réputation pour les marques
09:40 et puis de responsabilité, parce que c'est une question démocratique.
09:45 Alors on sait que les résultats qui sont produits par une IA générative
09:48 dépendent donc largement de l'intention qui est derrière le prompt,
09:53 de la manière dont on a prompté également,
09:55 du contexte qu'on a pu donner dans le prompt,
09:59 mais à vrai dire, par design, les modèles, les algorithmes,
10:03 eux-mêmes peuvent manquer de neutralité et aboutir à des résultats défavorables
10:06 pour certains groupes de population.
10:08 Qu'en est-il Daphné ?
10:09 Ça se voit, Chine l'a démontré, ce sont des super perroquets,
10:14 ces modèles-là, et super perroquets qui ont tendance à spreader
10:19 toutes les infox dont on va les nourrir ou qui vont être créées.
10:23 Et ça se voit, alors je vais vous montrer une vidéo
10:27 d'une campagne créée par BETC, par le vététiciste Ich,
10:34 et donc ils ont mis en scène "Midjournée" qui est l'équivalent d'un daily stable IA
10:39 où vous promptez et on vous génère une image.
10:42 Et en fait, ils demandaient à Midjournée, voilà, montre-moi une école en France,
10:47 ils rajoutent "banlieue", voilà la tête de l'école.
10:50 Donc qu'est-ce qu'on dénonce là ?
10:53 C'est le poids des stéréotypes que les machines apprennent
10:57 dans les data sets sur lesquels ils sont entraînés.
11:01 Il y a aussi d'autres raisons intrinsèquement dans cette technologie.
11:06 On réplique ces stéréotypes.
11:08 Alors, tant que ça se voit, on peut le dénoncer.
11:11 Le problème c'est que ça risque, vu ce que Chine a montré,
11:14 d'amplifier la diffusion de ces stéréotypes dans le monde.
11:17 C'est déjà un problème et ça risque encore de les amplifier.
11:20 Et en plus, ça pose la question de quand ces algorithmes vont être utilisés
11:23 ou sont utilisés de manière invisible.
11:25 C'est-à-dire que vous ne savez pas, vous en tant qu'utilisatrice ou utilisateur,
11:29 qu'on a utilisé pour vous recommander une offre d'emploi,
11:32 pour vous attribuer un crédit, une mutuelle, peu importe.
11:35 On a utilisé ces algorithmes qui sont pleins de stéréotypes.
11:40 Ok. Et aujourd'hui, ces stéréotypes, ces représentations biaisées,
11:45 inéquitables, ne sont pas analysées par les outils de brain safety
11:50 qui sont employés par les marques.
11:52 Alors, on a vu avec vous, Chine, la réalité de ce risque démocratique.
11:58 On a vu avec Daphné ce risque sur les représentations biaisées,
12:02 sur la discrimination.
12:04 Je vais me tourner vers Florence.
12:05 Quelle est l'action du législateur européen aujourd'hui
12:09 pour mieux contrôler la diffusion sur Internet de contenus nuisibles ?
12:13 Effectivement, le droit n'est pas démuni de réponses face à ces problématiques.
12:18 L'Union européenne s'est dotée d'un corpus réglementaire
12:22 pour harmoniser, mieux protéger les utilisateurs et les consommateurs européens.
12:27 Ça a commencé déjà il y a quelques années avec le RGPD
12:30 pour renforcer la protection et harmoniser la protection au sein du marché européen
12:35 des données à caractère personnel
12:37 et de la protection de la vie privée des citoyens européens.
12:42 Et plus récemment, l'Union européenne a mis en place le DMA,
12:46 le Digital Market Act, et le DSA, le Digital Service Act,
12:50 qui ont commencé à rentrer en vigueur en 2023
12:54 et qui sont pleinement en application depuis ce début d'année,
12:58 depuis fin février et début mars.
13:01 S'agissant des contenus nuisibles et préjudiciables,
13:04 c'est le DSA qui est à la manœuvre,
13:07 puisque son objectif, c'est de protéger les utilisateurs des plateformes notamment
13:12 et de l'Internet en général,
13:15 autour de quatre grandes problématiques.
13:17 La lutte contre les contenus nuisibles, préjudiciables, illicites.
13:22 La responsabilisation des grandes plateformes et des acteurs
13:27 dans la lutte de ces contenus,
13:29 avec des systèmes de modération et de mise en place de signalements de contenus
13:35 contre ces contenus préjudiciables, dont peuvent faire partie les fake news,
13:40 mais pas forcément, enfin les fake news n'étant pas interdits,
13:43 ça peut être sujet à discussion selon le contexte, etc.
13:48 La protection des mineurs et ensuite la transparence dans la publicité.
13:53 Donc finalement, tout ce qui est illégal,
13:54 pour reprendre la terminologie du commissaire Thierry Breton,
13:59 tout ce qui est illégal ou obligatoire d'ailleurs offline
14:02 doit être également online,
14:04 si on veut essayer de décrire l'esprit de ce règlement.
14:06 Oui, tout à fait.
14:09 On a tendance à penser que parce que c'est sur le digital ou sur Internet,
14:12 c'est plus libre, on a plus de liberté, mais pas du tout.
14:15 Les mêmes réglementations doivent s'appliquer qu'on soit en hors-ligne ou en ligne.
14:19 D'ailleurs, la commission a déjà commencé à mettre en œuvre le DSA,
14:24 puisqu'elle a déjà ouvert des enquêtes préalables contre trois grandes plateformes,
14:29 que sont XMeta et TikTok,
14:31 pour obtenir des informations sur la manière dont ils mettent en œuvre
14:36 la lutte contre les contenus illicites
14:39 et quelles mesures ils ont effectivement mis en œuvre,
14:41 notamment après l'attaque d'Israël par le Hamas.
14:46 Un mot Florence sur l'IA Act peut-être ?
14:48 Oui, l'IA Act aussi, qui va venir très prochainement,
14:52 donc qui est en passe d'être adopté, qui entrera en vigueur en 2026.
14:57 Là, les régulateurs ont changé un peu de paradigme pour définir la réglementation,
15:03 puisqu'ils l'ont abordé plutôt par rapport aux risques,
15:05 donc aux risques que les IAP pouvaient présenter,
15:08 en classant les IAP en quatre grandes catégories de risques.
15:12 Les risques inacceptables, les IAP sont interdites,
15:17 les IAP à risque élevé, avec un...
15:20 Excuse-moi Florence, qu'est-ce qu'on peut trouver dans ces catégories
15:24 de cas d'application inacceptables, comme exemple ?
15:27 Le scoring social, comme en Chine, la notation du citoyen
15:32 en fonction de ses bons ou ses mauvais comportements, par exemple.
15:34 Donc ça, c'est une IAP qui sera interdite.
15:38 Les IAP à risque élevé, vous avez les IAPS génératives notamment,
15:43 et la plupart des IAP à usage général,
15:46 et les IAP à risque faible, et ensuite les IAP à risque minime.
15:51 Pour faire un petit focus sur les IAP génératives,
15:54 donc comme je l'ai dit, qui sont à risque élevé,
15:56 elles auront des obligations de transparence renforcées,
15:59 notamment quant au set de données qui ont été utilisées
16:02 pour entraîner les algorithmes,
16:04 et également sur la transparence des informations
16:08 sur les contenus qui ont été générés par une IAP générative,
16:12 notamment quand elle modifie, que ce soit un contenu textuel ou visuel,
16:16 elle est destinée à modifier le contenu,
16:20 et de nature à éventuellement induire en erreur
16:23 ou tromper la personne qui le visualise.
16:27 Donc on voit bien que l'Union européenne, le marché européen,
16:30 s'est structuré autour de la réglementation sur le marché du numérique
16:37 pour apporter une meilleure protection
16:40 des utilisateurs et des consommateurs,
16:42 notamment vis-à-vis des contenus lisibles.
16:45 Très bien. Alors maintenant qu'on a vu l'étendue du risque,
16:49 on pourrait dire la face sombre de l'IA,
16:50 on peut renverser le point de vue puisque l'IA,
16:54 grâce aux technologies du langage,
16:56 peut nous aider à mieux détecter des contenus risqués.
17:00 Daphné, comment est-ce que ça peut marcher ?
17:02 Alors derrière, par exemple, les IA génératives,
17:05 il y a deux sciences, c'est le traitement automatique du langage,
17:08 le NLP en anglais, et le deep learning.
17:12 Il faut savoir que ce sont des IA probabilistes.
17:15 Et en gros, on fait pas mal de maths derrière tout ça,
17:19 et on fait des entraînements, je vais vous expliquer un peu comment on les fait.
17:22 On dit souvent que ce sont des boîtes noires,
17:25 on ne peut pas introspecter ces modèles.
17:26 Nous, avec Unbias, ça fait cinq ans qu'on travaille dessus,
17:29 et oui, on peut les ouvrir et régler les problèmes.
17:33 Et je vais vous montrer quelque chose qui nous étonne beaucoup,
17:38 c'est que, notamment sur les stéréotypes,
17:40 nous, on a trouvé des solutions, alors on est génialissime,
17:43 mais je pense que, vu les budgets qu'a DeepMind,
17:46 ils pourraient quand même aussi fixer ces problèmes.
17:48 Et malgré tout, les problèmes liés aux stéréotypes de genre
17:51 ne sont toujours pas fixés par les grands acteurs qui déploient ces modèles.
17:55 Typiquement, c'est un cas au niveau de l'état de l'art qui est bien connu,
17:58 mais ces modèles de traduction automatique ont de grandes difficultés
18:02 à traduire "the nurse", qui est un autre rôle en anglais,
18:05 par "un infirmier", ou "the surgeon" par "une chirurgienne".
18:09 Même si dans la phrase, vous avez l'indification que l'infirmier est bien un homme,
18:14 on aura toujours une traduction infirmière.
18:16 Donc ça met en doute quand même la qualité de ces modèles
18:19 et des inférences qu'ils proposent.
18:21 Un cas aussi qui a fait grand bruit, enfin dans notre secteur,
18:24 mais ça nous a un peu tous ébranlés, quand Jim Minay est sorti,
18:28 pour assurer évidemment la planète que Google était aussi capable
18:33 de sortir de beaux modèles qui fonctionnent bien,
18:35 ils avaient traité le problème du risque des stéréotypes par des règles de renforcement,
18:42 en disant à la machine, donc ils l'ont bridé, "surtout sois inclusif".
18:47 Mais ça a généré des inepties, c'est-à-dire que quand vous demandiez
18:50 par exemple des images historiques de vikings,
18:53 vous aviez le droit à votre viking afro-américain, native américain, asiatique.
18:58 C'est tout aussi faux.
18:59 Qui est aussi une réponse fausse et on voit bien qu'il y a eu
19:02 une sorte de bridage peu intelligent et grossier là-dessus.
19:06 Or, il y a techniquement des vraies manières de régler le problème
19:11 de manière plus subtile.
19:14 Et ce que je vais vous expliquer, alors là je vais être un peu technique Masaki,
19:18 je m'excuse, mais c'est pour que vous compreniez à quel endroit
19:21 se créent les stéréotypes.
19:22 D'abord, ça s'est créé dans les data sets, donc les corpus de textes,
19:27 sur lesquels on entraîne ces modèles, qui sont souvent non-supervisés,
19:31 c'est-à-dire qu'on ne va pas étiqueter les données.
19:35 Donc on expose en fait les machines, on les entraîne en les exposant
19:38 à des gros corpus de textes, en gros 50 millions de livres
19:42 dans un corpus de textes.
19:44 Et ces data sets sont faits du web, donc essentiellement Wikipédia,
19:48 de Reddit, de blog, et puis de la littérature, normalement libre de droit.
19:53 Je dis bien "normalement" parce que je pense qu'ils en aspirent d'autres.
19:55 Mais déjà, vous savez bien que dans ces data sets,
19:57 Wikipédia ou la littérature avant en gros les années 70
20:01 a une représentation du monde qui est spécifique,
20:03 qui n'est peut-être pas celle qu'on voudrait aujourd'hui avoir.
20:05 Et quand on fait un test, donc là c'est ce que vous voyez à l'écran,
20:09 qui est spécial 1, donc je vous rappelle, ces IA, c'est de la probabilité,
20:12 on va lui demander d'aller deviner le mot le plus probable,
20:14 c'est comme ça qu'on teste nos modèles.
20:16 Et sur une machine qu'on va entraîner sur le Flobert,
20:19 qui est un modèle constitué de corpus natifs en français,
20:23 donc écrit par des auteurs francophones et non traduits de l'anglais.
20:27 On se dit "c'est NRS, super, le genzé, tout ça est du public".
20:31 Quand on lui demande "les hommes sont des spécial 1",
20:34 la réponse la plus probable pour la machine,
20:37 qui va donc trouver dans son data set, c'est "les hommes sont des hommes".
20:40 Quand on lui demande "les femmes sont des spécial 1",
20:43 il va lui répondre "les femmes sont des victimes".
20:46 Donc, ok, ça veut dire que la représentation implicite majoritaire
20:50 dans le corpus dans lequel on a entraîné notre machine,
20:53 la représentation implicite liée aux femmes sont les victimes.
20:55 Ça pose des questions quand on va utiliser ces modèles
20:58 pour faire de la recommandation, du matching de profil, etc.
21:01 Donc ça déjà c'est dans les data sets, donc ça on peut nous le mesurer.
21:05 Nous on a inventé des algos pour aller mesurer le poids des représentations.
21:09 Donc déjà quand tu es un data scientiste, une data scientiste,
21:12 et que tu entraînes tes modèles, tu peux avoir au moins,
21:15 et c'est formidable, ça sert à ça l'IA aussi,
21:18 c'est que ça peut objectiver un petit peu le poids,
21:21 donc tu es un peu conscient de ce qui va se passer.
21:23 Il se trouve que les informations par exemple liées aux gens,
21:25 c'est très signifiant au niveau probabilistique,
21:27 c'est une forte entropie dans l'information,
21:29 et les machines ont tendance à aller les chercher
21:31 et en plus à les amplifier dans l'entraînement.
21:33 Donc ça aussi, on a des algorithmes qui se mettent dans les couches du modèle
21:36 pour aller mesurer les risques amplificatoires.
21:38 Après ça ne te résout pas le problème,
21:39 on ne va pas réussir à débiéser complètement tout ça,
21:42 mais au moins on va apporter de la réflexivité,
21:47 de la conscience, de la transparence,
21:49 c'est ce que va demander l'IA ACT justement,
21:51 avec tous ceux qui entraînent les modèles.
21:53 Ça peut être le moyen d'évaluer, de découvrir d'autres formes de biais,
21:59 on a beaucoup évoqué le biais sexiste,
22:01 on peut penser au biais qui porterait sur l'origine ethnique,
22:05 sur la classe sociale, sur la classe d'âge,
22:08 il y a beaucoup d'autres formes de discrimination qui existent.
22:10 Tout à fait, alors la technique qu'on utilise pour,
22:13 on l'appelle le "bias management" dans notre science,
22:17 peut s'appliquer à plein de types de biais.
22:18 La difficulté ça va être de qualifier,
22:20 par exemple on a travaillé sur l'agisme,
22:22 parce que nos clients nous l'ont demandé,
22:24 comment tu vas capturer dans le signal, en l'occurrence le texte,
22:29 une discrimination liée à l'âge.
22:31 Nous on a réussi en allant regarder le style de produit,
22:36 parce que la manière dont tu écris, le style que tu utilises,
22:38 ça peut être à distance ou par des âges.
22:40 Mais à chaque discrimination, il va falloir se poser la question de où,
22:44 dans ton signal, alors quand je dis signal c'est un texte,
22:46 une image, un son, à quel endroit se crée la discrimination
22:51 et il y a un risque discriminatoire.
22:52 Donc c'est ça tout notre processus de recherche,
22:54 mais on peut très bien le faire aussi sur les valeurs de marque.
22:56 Tu vois, je veux communiquer avec cette valeur très forte dans mes communications,
23:02 il faut faire un peu de R&D, de se dire comment on l'encapsule,
23:05 mais oui, tout à fait, ça peut avoir plusieurs applications.
23:08 Chine, en ce qui concerne le contrôle de l'information,
23:11 l'IA peut également être un vecteur de progrès ?
23:14 Oui, alors nous, chez NewsGard, on est vraiment convaincus
23:18 que l'humain doit rester au cœur du processus d'analyse
23:21 de ce qui relève de la mésinformation, de la désinformation, de la propagande.
23:25 Donc ça, on en est vraiment convaincus, même à l'ère de l'IA.
23:29 Pourquoi ? Parce qu'il ne faut pas oublier que les campagnes de désinformation,
23:32 elles sont souvent faites pour ressembler à de l'actualité traditionnelle.
23:35 Je vous le montrais tout à l'heure, cet exemple de site pakistanais
23:38 qui a vraiment l'air d'un site d'actualité lambda
23:41 et on le voit de plus en plus des sites qui se font passer
23:43 pour des sites d'actualité locaux et qui en fait ne le sont pas.
23:48 Donc pour comprendre ça, il faut un œil humain.
23:51 Pour comprendre si on est face à de la propagande,
23:54 n'en parlons même pas puisque là, ce n'est pas forcément repérer
23:57 une fausse information, mais c'est repérer qui est l'émetteur.
23:59 Donc il faut souvent une enquête journalistique parce que
24:02 ce n'est pas toujours évident que c'est associé à une unité
24:05 d'un renseignement militaire étranger, c'est souvent caché.
24:09 Et puis, il ne faut pas oublier que quand même, la mésinformation,
24:12 la désinformation ne doit pas être confondue avec l'exagération politique
24:15 qui a tout lieu d'être, avec la satire, avec l'ironie.
24:22 Donc ça, là encore, l'œil humain, il est essentiel
24:25 pour cette matière si complexe, si nuancée.
24:29 Une fois qu'on a dit ça, c'est sûr qu'en gardant l'humain
24:33 au cœur du processus, il y a quand même un problème d'échelle.
24:35 On est aujourd'hui face à un afflux, un tsunami de fausses informations.
24:40 Chaque jour, des millions de nouveaux articles.
24:42 Qui chassent là. Et donc quand on est un fact-checker,
24:44 quand on est un journaliste face à ça, on a un petit peu l'impression
24:47 parfois de vider l'océan à la petite cuillère.
24:49 C'est-à-dire qu'on va vérifier une information,
24:51 le temps qu'on l'ait vérifiée, qui prend toujours,
24:53 il faut bien le souligner, plus de temps que d'avoir poussé
24:56 cette fausse information, en fait, elle a déjà été chassée
24:59 par 4, 5 autres fausses informations, voire juste des variantes
25:02 de cette fausse information. Donc quelque part, on arrive toujours
25:04 un peu après la bataille. Donc l'idée, c'est comment on peut
25:08 déployer ça et surtout face à cette montagne de fausses informations,
25:12 comment on peut déployer à large échelle et vraiment faire face à ce flux.
25:17 Donc c'est là où l'IA peut être intéressante, c'est pour moi,
25:19 dans le déploiement. C'est-à-dire garder l'humain
25:23 au cœur du processus, garder l'œil humain pour l'analyse,
25:26 mais ensuite se servir de l'IA pour déployer une solution
25:29 et vraiment pouvoir atteindre l'échelle qu'on ne peut pas atteindre
25:33 seul humainement. Donc nous, chez NewsGuard,
25:35 on a commencé à le faire. On produit, l'un de nos produits,
25:39 c'est une base de données qu'on appelle les "empreintes de la mésinformation".
25:43 Qu'est-ce que c'est ? En fait, c'est un catalogue des principales
25:45 fausses informations qui circulent en ligne, qu'on a écrit
25:49 dans un format qui est lisible par les machines.
25:51 Donc pour chacun, Fox, on va avoir la fausse information,
25:54 son fact-check, sa vérification, et puis on va avoir des hashtags associés,
25:57 des liens vers des sources fiables, des liens vers des sources
26:00 qui ont relayé la fausse information, des mots-clés, etc.
26:05 Et donc on va utiliser ces données-là, encore une fois,
26:09 produites par des humains, par des journalistes qui ont pris le temps
26:11 d'analyser l'information et de dire "oui, c'est vraiment une information fausse,
26:17 on n'est pas dans un autre registre", et aller se servir d'un outil d'IA.
26:21 En l'occurrence, on travaille avec une société américaine
26:23 qui s'appelle Safety Kit, et qui va permettre de déployer,
26:27 de se nourrir de ces données pour les déployer, par exemple,
26:30 au niveau d'une plateforme, aller chercher toutes les itérations
26:32 d'une fausse information pour les modérer ou pour les labelliser.
26:35 Ou ça peut être pour aller chercher l'origine sur cette plateforme,
26:39 quel a été le premier poste qui l'a relayée.
26:40 On peut imaginer plein d'utilisations.
26:42 Mais là, c'est un peu le meilleur des deux mondes,
26:44 c'est-à-dire s'assurer qu'on ait l'œil humain au cœur du processus
26:48 et non pas juste un humain dans la boucle, comme parfois,
26:51 certaines sociétés vont dire "non, il ne faut pas juste un humain dans la boucle,
26:53 il faut un humain au cœur du processus",
26:55 mais se servir de l'IA pour son potentiel de déploiement à large échelle.
27:00 Tout ça est très prometteur et s'inscrit dans un mouvement de progrès très clair,
27:05 mais encore faut-il que vos outils, Daphné et Chine,
27:09 puissent accéder aux données, aux contenus pour être en capacité de les analyser.
27:14 Or, les plateformes, qui sont l'endroit finalement où ce risque se concentre,
27:21 cultivent une forme d'opacité.
27:23 Donc je vais me tourner encore vers vous, Florence.
27:25 Est-ce que là aussi, le législateur européen peut faire quelque chose,
27:29 peut agir pour changer les choses ?
27:31 Oui, là encore, le corpus réglementaire que j'évoquais plus tôt rentre en jeu,
27:36 puisqu'on a déjà l'EDMA, qui est donc pour objet d'assurer une meilleure concurrence
27:45 sur le marché du numérique, notamment en imposant des obligations
27:48 aux contrôleurs d'accès, qui sont au nombre de 6.
27:53 Il y a aussi 22 produits qui ont été désignés,
27:55 donc c'est essentiellement les GAFAM et Bytedance TikTok.
28:01 Elle met en place un certain nombre d'obligations auprès de ces contrôleurs d'accès,
28:05 notamment en termes d'interopérabilité, de transparence,
28:11 sur pas mal d'aspects, notamment publicitaires.
28:14 Interopérabilité, pardon Florence, ça veut dire que des technologies tierces
28:18 doivent pouvoir s'interfacer, se connecter avec ces plateformes
28:21 pour pouvoir accéder aux données et évaluer, par exemple,
28:24 imaginons le contexte média d'une certaine campagne,
28:28 que les outils, peut-être ceux de Chine et Daphné,
28:31 puissent faire cette vérification sur des campagnes
28:33 qui sont diffusées sur les plateformes ?
28:35 Oui, c'est tout à fait ça.
28:37 Maintenant, l'EDMA prévoit certaines exceptions,
28:39 notamment que les contrôleurs d'accès pourront mettre en avant des failles de sécurité
28:45 pour s'opposer à ces potentielles interopérabilités,
28:48 mais c'est un des objectifs du DMA, oui.
28:51 La plateforme devra prouver, la charge de la preuve sera pour la plateforme,
28:54 de prouver qu'il y a une faille de sécurité.
28:55 Tout à fait.
28:56 On peut aussi s'appuyer sur la transparence que prévoit l'EDMA,
29:01 puisqu'il prévoit que les annonceurs, ou via leurs agences,
29:05 pourront accéder aux outils de mesure de performance publicitaire
29:10 et aux données qui permettent de faire une vérification indépendante
29:13 de l'inventaire publicitaire.
29:15 Donc, on pourra accéder aux données agrégées et désagrégées.
29:21 Il y a le DSA aussi qui prévoit, de son côté, de la transparence également,
29:26 puisque le DSA prévoit la transparence dans la mesure
29:37 où il y a une transparence algorithmique qui est prévue,
29:42 donc on pourra accéder aux détails des algorithmes,
29:45 et notamment pour les moteurs de recherche
29:48 qui devront indiquer les façons dont le classement
29:53 et l'indexation des recherches sont faites,
29:55 et également pour les systèmes de recommandation
29:57 qui devront donner l'ensemble des informations aux utilisateurs
30:01 sur la façon dont les contenus sont recommandés,
30:03 et permettre aux utilisateurs de pouvoir influencer
30:07 et paramétrer ces recommandations qui leur sont faites.
30:10 Donc, toutes ces données vont donc permettre d'analyser à la fois
30:16 la façon dont les recommandations sont faites,
30:18 comment les recherches remontent,
30:19 comment les publicités des annonceurs apparaissent dans quel contexte,
30:24 et ça l'IA peut nous aider aussi à le faire,
30:26 puisque ça va être des grands volumes de données à analyser,
30:29 donc l'IA peut nous aider pour l'analyse de ces grands volumes de données.
30:34 Et on a aussi l'IA Act qui, là encore, impose des obligations de transparence,
30:42 notamment pour les IA à haut risque, dont font partie les IA génératives,
30:45 puisque l'IA Act prévoit que pour les IA à haut risque,
30:49 elles doivent fournir l'ensemble de la documentation
30:52 sur la façon dont l'algorithme a été développé,
30:56 les datasets sur lesquels elles se sont appuyées.
30:59 Les datasets également doivent prévoir,
31:03 enfin inclure des données qualitatives d'une taille assez conséquente et objective,
31:09 afin d'éviter les biais dont Daphné parlait tout à l'heure.
31:12 Et toute la documentation qui permet à l'utilisateur de comprendre comment ça fonctionne,
31:17 assurer la robustesse et l'exactitude de ses modèles.
31:21 Donc on a un panel de normes qui vont nous permettre d'aller vers une plus grande transparence
31:26 et une meilleure connaissance des contextes de diffusion.
31:30 On a déjà commencé, si je peux donner un exemple concret,
31:35 avant que l'IA Act soit entrée en vigueur,
31:38 l'année dernière il y a un tribunal au Canada
31:41 qui a jugé responsable l'éditeur d'un chatbot,
31:44 d'une intelligence artificielle pour les fausses informations qu'elle avait fournies à un de ses utilisateurs.
31:50 Quelle entreprise, pardon Florence ?
31:51 Il s'agissait d'Air Canada, qui est une compagnie aérienne.
31:54 Et donc le chatbot avait indiqué à un voyageur qu'il pouvait obtenir des réductions,
32:00 parce qu'il devait se rendre dans un autre pays pour assister à un enterrement,
32:05 et il pouvait avoir des réductions après coup en faisant la demande en cas de deuil.
32:09 Ce qui était erroné, du coup Air Canada avait refusé d'accorder la remise à la personne concernée.
32:15 Le tribunal a jugé que Air Canada était responsable des fausses informations
32:19 qui avaient été fournies par son chatbot,
32:23 et devait donc accorder à la personne la remise en question.
32:27 Très bien. Alors on a des nouvelles technologies,
32:31 on a un environnement numérique, Florence, qui doit pouvoir devenir plus ouvert, plus transparent.
32:36 Donc si tout ça s'articule bien, ça doit pouvoir être au bénéfice des annonceurs.
32:41 Donc concrètement, Daphné, comment les marques peuvent utiliser une technologie
32:45 comme Unbiased dans leur communication ?
32:48 Alors Unbiased a été créé en vue de l'IA Act et de la transparence algorithmique.
32:53 Donc nous on est très technative, et on n'avait pas trop réfléchi aux usages des marques.
32:58 Mais il se trouve que ceux qui fabriquent les modèles, même s'ils ont la loi,
33:02 et le coup près qui arrive en 2026-2027, ne se préoccupent pas trop des biais pour le moment.
33:06 Vous avez vu avec Jimmy Nye, Google, qui a sorti son algo,
33:09 et qui a dû le retirer très très rapidement d'ailleurs.
33:12 Et du coup, par contre, les marques sont venues nous chercher.
33:14 Elles sont venues nous chercher sur deux choses,
33:15 et je vais vous montrer une application par vidéo qu'on a du coup développée pour eux.
33:19 Comme l'évoquait Sheen, les IA c'est formidable pour aller introspecter des montagnes de corpus
33:25 qu'on crée, qu'on voit gérer au quotidien.
33:28 Et du coup, on utilise notre algorithme pour aller identifier les poids des stéréotypes
33:34 dans nos discours déjà corporate, RH.
33:37 Donc là, je vous montre un exemple sur des offres d'emploi.
33:40 Parce que sur les offres d'emploi, tu as des vrais enjeux à être inclusif,
33:44 c'est-à-dire autant ne pas mettre à distance un genre plus qu'un autre,
33:48 notamment sur les métiers un peu sous tension.
33:51 Voilà, donc il y a beaucoup d'efforts là-dessus.
33:54 Donc ça permet là par exemple, c'est une tool très très simple,
33:57 mais de coter en fait, donc ce que va faire la machine,
34:00 c'est que vous allez mettre votre offre d'emploi ou votre texte,
34:02 et par phrase, elle va évaluer la charge stéréotypée qu'il y a,
34:06 ou pas d'ailleurs, dans votre phrase.
34:07 Et vous pouvez ainsi analyser vos corpus en catégorisant comme vous voulez.
34:12 Et vous pouvez ainsi mesurer déjà les efforts d'inclusivité.
34:16 Vous imaginez bien, Masiakik, ceux qui appellent nos services,
34:19 c'est ceux qui sont déjà dans des vraies démarches d'inclusivité
34:22 à tout niveau de l'entreprise, mais aussi dans leurs discours.
34:26 Et ils ont besoin de mesures concrètes pour juger de leur amélioration.
34:31 Donc voilà, ensuite la machine sort un graphique,
34:33 et là c'est ce que disait Xin aussi, par contre la machine n'est pas intelligente
34:37 dans le sens où elle ne voit pas le contexte communicationnel.
34:39 Elle est incapable, elle n'est pas branchée sur la stratégie de marque,
34:42 elle n'est pas branchée sur ce que la marque veut dire par rapport à ses valeurs.
34:46 Et donc ça, c'est bien l'analyste qui va aller fouiller
34:51 si c'est justifié ou pas, si c'est problématique ou pas.
34:55 Et donc vous allez voir, accès ensuite à un Excel,
34:57 où par phrase, elle va pouvoir aller voir, là on voit,
35:01 toper s'il y a une phrase qui peut poser problème.
35:04 Bon là, "la secrétaire fait partie de l'équipe pluridisciplinaire et en est un pivot",
35:08 on peut essayer de trouver une formule un peu plus épicène
35:11 pour ne pas trop genrer ce poste.
35:14 Mais vous allez le voir sur un autre exemple, elle ne voit pas le contexte,
35:17 c'est-à-dire que des phrases très engagées sur la diversité par exemple,
35:20 ou le genre féminin, elle va aussi le toper.
35:24 Mais ça, l'analyste va se dire, non c'est ok puisque c'est très en lien,
35:29 je crois que là on va le voir,
35:31 c'est très en lien avec mes valeurs de marque et mon positionnement.
35:34 Dans cette solution, par exemple, Daphné,
35:35 on peut faire la part des choses entre ce qui serait de l'ordre du stéréotype,
35:39 peut-être dans certains cas, déjà léger, mais quand même répréhensible,
35:44 l'essentialisme, l'offense, parce qu'on a quand même une gradation dans cette...
35:49 Nous, ce qu'on a voulu travailler, c'est, ce que je finis de dire encore une fois,
35:53 la nuance, les machines ne sont pas dans la nuance,
35:56 ce sont des bons perroquets, mais c'est là où c'est difficile.
35:59 Donc nous, on a plusieurs gradations,
36:00 je dirais que le style c'est presque le plus facile,
36:02 enfin le style c'est vraiment le sexisme encapsulé dans des mots par exemple,
36:06 algorithmiquement c'est assez facile, parce qu'en fait vous donnez une liste de mots,
36:09 il va se dire, ah là il y a un risque du coup de sexisme au style,
36:13 mais après il y a plusieurs gradations, il y a l'amplification des stéréotypes,
36:16 mais il y a aussi l'engagement vers un genre qui peut être très bien,
36:18 si tu as besoin de dire, bah non, on est très engagé avec une audience féminine,
36:23 ou masculine, ça peut être ok en fait.
36:25 Et puis là, les marques nous emmènent sur un autre territoire,
36:28 qui est en lien avec l'émission d'aujourd'hui, qui est la brand safety,
36:33 et là, on arrive, avec l'arrivée des IA Gen,
36:38 mais aussi le développement du web tel qu'on le connaît,
36:40 à un espace communicationnel instable, avec beaucoup de deepfake,
36:45 avec, voilà, de mésinformations, et du coup, pour des marques,
36:50 choisir où communiquer sur le web, ça va devenir très difficile,
36:53 puisqu'il y a de moins en moins de verrous éditoriaux sur le web.
36:58 Donc on est utilisé, ou en tout cas, on développe en ce moment,
37:01 des solutions pour vraiment assurer que les marques puissent communiquer
37:06 dans des environnements communicationnels très en phase avec leurs valeurs,
37:10 et éviter les risques réputationnels, et tout ce qui s'en suit, évidemment,
37:14 tous les enjeux liés à la brand safety.
37:15 Ça peut consister à éviter ce qui est dangereux, ce qui est nuisible,
37:20 mais ça peut aussi consister...
37:22 C'est du discours de la haine en ligne, qui est un vrai,
37:24 mais aussi, elle est plus en finesse, c'est-à-dire éviter peut-être
37:28 les prises de parole trop stéréotypées, qui ne vont plus correspondre
37:31 à mon niveau d'engagement ou de valeur de marque,
37:35 ou voire même, à l'inverse, bon là, on est en train d'attaquer,
37:38 mais je dérive un peu sur les cookies, les cookies aujourd'hui
37:41 qui sont de plus en plus refusés, qui vont disparaître,
37:43 mais qui nous permettaient d'aller tester un peu l'audience de ton contenu.
37:46 Avec ces technologies-là, en fait, on n'aura plus besoin d'aller chercher
37:50 qui est l'utilisateur, mais aller prédire l'audience
37:54 qui va être attirée dans le texte.
37:56 Le profil de l'audience d'un certain contenu.
37:58 Voilà, exactement.
37:59 Alors, Chine, chez NewsWord aussi, vous proposez des solutions
38:02 pour aider les annonceurs à mieux contrôler la diffusion de leur campagne.
38:07 Oui, on accompagne les marques dans deux choses,
38:11 à la fois pour éviter les sites de propagande, de désinformation,
38:16 de mésinformation, et aussi pour les aider à aller cibler davantage
38:22 de sites d'actualité fiables, responsables,
38:25 parce qu'on sait que c'est des audiences intéressantes pour les marques
38:29 et que nous, on a une base de données très vaste de la fiabilité de ces sites.
38:33 Donc, en fait, qu'est-ce qu'on fait chez NewsGuard ?
38:34 On est une société, on est des journalistes,
38:37 on va analyser la fiabilité des sites d'information.
38:40 On est dans 9 pays que vous voyez à l'écran aujourd'hui,
38:44 et dans chaque pays, on va analyser toutes les sources d'information
38:48 qui constituent 95% de l'engagement avec l'actualité en ligne,
38:50 donc les likes, les partages, les commentaires.
38:53 Et pour chaque site, on va avoir une analyse détaillée
38:56 de la fiabilité du site, un score sur 100,
38:59 et une qualification de la source, c'est-à-dire avec un degré d'alerte
39:04 pour le lecteur et pour nos clients,
39:07 notamment les marques, pour savoir si elles peuvent y aller ou pas.
39:09 Et puis ces analyses, c'est important de le dire,
39:13 elles s'appuient sur des critères journalistiques, apolitiques.
39:15 Il ne s'agit pas d'aller pénaliser les opinions politiques,
39:21 ou que sais-je encore, ou même d'aller valoriser
39:24 les meilleures plumes du journalisme, ce n'est pas ça l'idée,
39:26 c'est séparer les acteurs responsables des acteurs irresponsables.
39:29 Donc, dans un premier mouvement,
39:31 on aide les annonceurs à éviter les contenus indésirables,
39:34 donc qu'est-ce que ça veut dire ?
39:35 Ça veut dire qu'on les aide à s'assurer que,
39:38 s'ils travaillent avec des listes d'exclusion pour la publicité programmatique,
39:42 vont être inclus dans ces listes d'exclusion
39:45 les sites générés par IA, dont je parlais tout à l'heure,
39:48 mais aussi les sites de propagande connus, les sites d'infox, etc.
39:52 Pourquoi c'est important ?
39:53 Parce que souvent les marques vont travailler avec des outils de brand safety
39:57 qui font un super boulot, qui s'appuient sur de l'IA,
40:01 et qui font un super boulot pour tout ce qui est appel à la haine,
40:04 repérer les contenus pornographiques, les contenus violents,
40:06 mais qui sont moins efficaces pour repérer,
40:09 à cause de cette nuance et du fait que, comme je l'expliquais tout à l'heure,
40:12 les campagnes de désinformation, elles sont faites par définition
40:15 pour ressembler à de l'actualité.
40:16 Donc, c'est un peu l'angle mort du brand safety,
40:19 cette question de mésinformation, désinformation, propagande.
40:22 Donc, nous, on vient pour aider les marques avec cet étage supplémentaire,
40:26 ce n'est pas pour remplacer les outils de brand safety qui existent,
40:28 mais c'est vraiment pour apporter une réponse très, très ciblée là-dessus.
40:32 Et pourquoi c'est important ?
40:33 Aujourd'hui, nous, on a estimé à 2,6 milliards de dollars par an
40:37 la manne qui est envoyée par les marques directement
40:41 pour financer des sites de mésinformation et de propagande.
40:44 – C'est pas nécessaire.
40:45 – C'est énorme, et ça veut dire qu'à la fois,
40:47 c'est un danger pour les risques, pour les marques, c'est un risque,
40:50 mais ça veut aussi dire que les marques font un peu partie du problème,
40:53 aujourd'hui, elles peuvent faire partie de la solution.
40:55 Si toutes les marques arrêtaient de financer ces sites,
40:57 il faut forter à parier que certains de ces sites disparaîtraient.
41:01 Donc elles pourraient aider à lutter contre la mésinformation.
41:05 Et puis dans un second mouvement qui est aussi important,
41:09 on va aider les annonceurs à cibler l'actualité crédible,
41:12 donc à ne pas avoir peur du news en pensant que c'est trop dangereux pour une marque,
41:17 mais à se dire, voilà, on va pouvoir travailler sur des listes d'inclusion avec NewsGuard.
41:22 Donc on a plusieurs niveaux de sécurité,
41:24 je ne l'ai pas dit pour les listes d'exclusion, mais c'est pareil,
41:26 on a plusieurs niveaux de sécurité, maximale, basique, haute sécurité,
41:29 en fonction du degré d'aversion au risque des marques.
41:33 Donc là on va les aider à aller identifier des sites qui ne font peut-être pas partie,
41:36 qui ne sont peut-être pas dans leur radar,
41:37 mais qui sont des sites d'actualité de qualité,
41:39 où ils peuvent aller sans risque.
41:42 Ça peut être des sites d'actualité locaux, très locaux,
41:45 qui ne sont pas connus par les marques.
41:47 Et pourquoi c'est important ?
41:49 Parce qu'en fait les audiences de ces sites d'actualité, on le sait,
41:52 c'est des audiences très captives, très intéressantes pour les marques.
41:56 Et on a fait une étude avec une marque dans laquelle on a pu prouver
41:59 qu'en fait les marques pouvaient annoncer,
42:01 pouvaient améliorer vraiment leur métrique sur plusieurs...
42:05 améliorer les performances de leur campagne sur plusieurs métriques clés,
42:08 notamment augmenter le reach, augmenter le taux de clic,
42:13 et diminuer le coût du CPM.
42:16 Donc voilà, on accompagne les marques dans ces deux mouvements.
42:19 Et pour l'activation, c'est très facile, on travaille avec les marques,
42:24 soit directement, et elles peuvent accéder à nos données en direct,
42:28 via un tableau de bord, mais on a aussi une API,
42:30 un flux de données sur le cloud.
42:33 On peut aussi travailler avec les marques, avec des places de marché privées,
42:36 via la plupart des SSP, Pubmatic, OpenX, Conatex, Magnite.
42:41 Et puis on a aussi des segments en pre-bid via des DSP.
42:45 Donc on peut activer NewsGuard via des segments,
42:47 notamment sur The Trade Desk, Comscore, Peer39 et Cemasio.
42:51 Et puis, pour revenir à ce que je disais tout à l'heure,
42:54 sur comment combiner le meilleur de deux mondes,
42:57 on ne le fait pas encore pour le programmatique,
42:59 mais ce dont je parlais avant, la solution où on combine nos analyses
43:03 de la fiabilité, pardon, nos analyses des principales infos
43:07 qui circulent en ligne, déployées par de l'IA,
43:10 on pourrait imaginer à l'avenir, pour le programmatique,
43:12 combiner cette solution qui est pour le coup sur la source.
43:16 Par éditeur, éditeur, par éditeur.
43:17 Par éditeur, éditeur, par éditeur.
43:19 Donc là, c'est la solution programmatique basique qu'on propose chez NewsGuard.
43:23 Et on pourrait ajouter à ça, peut-être à l'avenir,
43:26 une solution qui, avec nos analyses des principales infos
43:30 qui circulent en ligne, qui permettent d'aller aussi vérifier le contexte de la page,
43:33 vérifier que la page chez cet éditeur n'a pas diffusé une infos.
43:37 Donc on pourrait imaginer aussi aller un peu plus loin
43:40 dans le programmatique grâce à l'IA.
43:43 Et puis, il y a une autre chose qu'on fait,
43:44 qui ne concerne pas le programmatique pour le coup,
43:46 mais qui est intéressante pour les marques aussi.
43:50 On a constaté chez NewsGuard que de plus en plus de fausses informations
43:53 visent les marques directement.
43:56 C'est-à-dire, on va avoir pas juste des rumeurs ou des appels au boycott,
43:59 mais des vraies fausses informations.
44:03 Nike aurait créé telle paire de baskets qui n'existent pas.
44:06 Enfin, des choses dont on peut prouver qu'elles sont fausses
44:09 et qui visent à discréditer les marques.
44:11 Donc, face à ce constat, on a créé un service de veille personnalisée
44:15 pour les marques sur la mésinformation.
44:17 Qu'est-ce que ça veut dire ?
44:18 Ça veut dire qu'une marque qui se sent concernée par cette problématique,
44:21 qui effectivement a constaté qu'elle faisait l'objet de beaucoup de fausses informations en ligne
44:25 et qui veut être à même d'y répondre de manière plus efficace,
44:28 peut faire appel à nos services sur une base d'un forfait.
44:31 Nous, en fait, on va faire de la veille de tous nos acteurs qu'on connaît malveillants,
44:35 tous les sites qu'on a analysés,
44:37 tous les comptes sur les réseaux sociaux qu'on connaît pour diffuser de fausses informations.
44:42 Et on va faire de la veille personnalisée pour telle marque.
44:45 On va regarder, tiens, là, il y a une augmentation des mentions
44:49 sur notre corpus de sites malveillants.
44:50 Qu'est-ce qui se passe ?
44:51 Allez regarder de plus près.
44:52 Et si on voit une fausse information, allez l'analyser,
44:55 allez lui tordre le cou et proposer cette réfutation aux marques
44:59 pour leur permettre, si elles le souhaitent,
45:01 de se servir d'une argumentation vraiment journalistique
45:04 dans leur campagne de communication pour répondre à des crises.
45:08 Merci, Chine.
45:09 Alors, on va terminer avec Florence.
45:11 On a entendu, Florence, que vous étiez pour le moins véléitaire,
45:15 peut-être même un peu remontée contre les plateformes.
45:17 Comment est-ce que les marques et les agences peuvent agir
45:20 pour mieux faire valoir leur intérêt face aux plateformes ?
45:24 Comme je l'ai évoqué plus tôt, les textes prévoient un accès
45:29 à certaines données qui sont assez importantes
45:32 pour les annonceurs et pour les agences.
45:34 Et des principes de transparence, encore une fois.
45:38 Du coup, je pense qu'il faut que les annonceurs,
45:40 ou via leurs agences ou directement,
45:42 n'hésitent pas à requérir auprès des grandes plateformes
45:45 les données, l'ensemble des données auxquelles ils ont droit
45:47 d'avoir accès, que ce soit le coût des annonces publicitaires,
45:50 la performance des campagnes publicitaires,
45:53 pour qu'on puisse le mieux agir et assurer la brand safety
45:57 au mieux et la meilleure réputation possible pour les marques.
46:01 Tout le monde est parti prenant de la mise en application de ces textes.
46:06 Il n'y a pas que les pouvoirs publics,
46:08 il y a tous les utilisateurs, les annonceurs.
46:11 Les pouvoirs publics, évidemment, ils sont en première ligne
46:14 puisque la Commission européenne n'hésite pas à ouvrir des enquêtes,
46:18 que ce soit pour le DSA et très récemment sur le DMA,
46:22 puisqu'elle vient d'ouvrir des enquêtes avant sanction
46:24 contre Alphabet, Meta et Apple.
46:31 Donc la Commission européenne est très attentive au respect de ces textes,
46:34 mais je pense qu'on a tous notre part à jouer dans le marché du numérique,
46:39 le meilleur pour tous les acteurs.
46:41 Les autorités, oui, peuvent se saisir d'elles-mêmes,
46:44 mais finalement c'est aussi aux acteurs du marché de saisir
46:48 et d'informer les autorités de situations
46:50 qui peuvent être anticoncurrentielles, par exemple, quand on parle du DMA.
46:53 Oui, tout à fait, et de saisir les plateformes
46:55 pour accéder aux informations auxquelles ils ont le droit d'avoir accès.
47:00 On est arrivé à la fin de cette émission.
47:02 Merci Daphné, merci Chine, merci Florence
47:06 pour la richesse de vos interventions.
47:09 Grâce à vous, les marques ont de nouveaux moyens,
47:12 de nouveaux outils pour exposer leur communication
47:15 dans les meilleures conditions médiatiques possibles
47:17 et donc ainsi mieux garantir, mieux protéger leur image et leur réputation,
47:23 mais aussi en évitant de financer par la publicité des contenus nuisibles
47:28 pour mieux affirmer leur engagement civique et leur responsabilité sociétale.
47:33 Si ce sujet vous a intéressé, si vous avez des questions,
47:35 si vous avez des commentaires,
47:37 si vous souhaitez travailler avec nous sur ces projets stratégiques,
47:40 n'hésitez pas à nous contacter.
47:42 Le groupe AVA s'est pleinement engagé pour accompagner les annonceurs
47:46 face à ces transformations.
47:47 En attendant, attention où vous mettez les pieds.
47:50 Merci beaucoup et à bientôt.
47:53 [Musique]

Recommandée