Mardi 26 novembre 2024, SMART TECH reçoit Nathalie Birocheau (Directrice générale, Ircam Amplify)
Category
🗞
NewsTranscription
00:00Bonjour Nathalie Birochaud, vous êtes cofondatrice PDG d'Ircam Amplify, je vous ai reçu il
00:10y a déjà quelques temps mais je vais quand même rappeler Ircam Amplify, filiale commerciale
00:14de l'Ircam en fait, qui commercialise donc les innovations de notre grand laboratoire
00:19audio français.
00:20Vous avez tout récemment lancé l'iSpeechDetector, donc un outil de détection de faux contenus
00:27vocaux.
00:28Alors comment ça fonctionne ?
00:29Qui peut l'utiliser ? Comment ça marche ?
00:32Ça fonctionne sur un principe simple qui est le scan de fichiers audio-vocaux, le scan
00:41automatique sur des durées très courtes, qui permet d'aller chercher des indices dans
00:45le son, dans la voix, qui nous permettent de donner un taux de confiance sur le fait
00:49que cette voix a été fabriquée ou non avec un moteur d'intelligence artificielle.
00:53Donc moi par exemple je peux l'utiliser, je peux charger un enregistrement d'un message
00:58que j'ai reçu sur mon téléphone par exemple et vérifier s'il s'agit d'un faux ou d'un
01:01vrai.
01:02Alors Ircam Amplify, on est une société qui délivre de la technologie audio facilement
01:06pour les entreprises et les industries, donc on s'adresse plutôt aux entreprises et on
01:11a mis ces technologies qui viennent notamment du laboratoire Ircam sur une plateforme d'API,
01:17ce sont des objets technologiques qui sont simples à implémenter dans un système d'information
01:22mais qui ne sont pas tout à fait accessibles au grand public.
01:25Pour autant on a une interface qui permet de tester des choses avec les API en ligne
01:32mais ce n'est pas du grand public pour le moment.
01:34D'accord.
01:35Alors justement qui va être particulièrement concerné selon vous ? Vous avez pensé j'imagine
01:39aux clients final, qui pourrait être susceptible d'acheter ce type de solution ? Pourquoi ? Que
01:45représenterait ce marché finalement ?
01:46C'est effectivement notre savoir-faire, ce qu'on a créé chez Ircam Amplify, c'est
01:51la capacité à créer le maillon entre un problème de marché à un instant T et de
01:56la R&D.
01:57Ce n'est pas si simple, on dit comme ça, ça paraît facile mais c'est un enjeu important
02:01et complexe.
02:02Et donc le problème effectivement c'est les volumes qui augmentent de création de
02:07voies fabriquées sur les moteurs qui maintenant sont accessibles pour le coup au grand public
02:11très facilement.
02:12Et donc on a créé cet outil-là plutôt à destination des médias, des rédactions,
02:19des newsrooms, des agences de vérification de l'information.
02:22On discute avec énormément de médias, que ce soit public ou privé, sur cette question
02:26d'avoir comme un antivirus à détection ou au moins une aide à la décision pour
02:32détecter les contenus qui buzzent, notamment sur les réseaux sociaux et qui en fait sont
02:37fake, sont faux.
02:39On a aussi comme cible des institutions publiques liées à la cybersécurité, à la défense.
02:47C'est ce que j'allais dire parce qu'en fait c'est aussi un vecteur de cyber-attaque
02:50donc ça va intéresser j'imagine toute l'industrie de la cyber.
02:52Alors le résultat est assez impressionnant, vous dites que l'outil est capable de détecter
02:59un deepfake avec un taux de précision de 98%, comment est-ce que vous arrivez à ce
03:04taux ?
03:05Alors je vais l'expliquer déjà, c'est important de comprendre ce qu'il y a derrière
03:07ce taux.
03:08Ce taux veut dire, quand on sort une voie fabriquée d'un moteur, je vais en citer
03:12un pour que tout le monde comprenne bien de quoi on parle, c'est comme Eleven Labs qui
03:15est l'un des leaders sur le marché, une société américaine, quand on sort une
03:18voie fabriquée d'un tel moteur et qu'on le passe dans notre outil, dans notre technologie,
03:24il détecte à 100% que ça a été créé par un moteur et on sait aussi identifier
03:28le moteur.
03:29Par contre ce qui se passe en fait la plupart du temps c'est que ces voies-là ensuite
03:32elles sont fabriquées, elles sont modifiées, elles sont reprocessées, elles sont intégrées
03:37dans un autre audio et donc c'est là que ça devient difficile.
03:39Et c'est ça qu'on cherche à optimiser encore plus.
03:43Plus le fichier audio qui sort du moteur va être transformé, plus le taux de confiance
03:47va descendre et on est là-dessus pour aller chercher dans l'audio et dans la voie des
03:52informations très pointues pour quand même réussir à donner une indication.
03:56Mais comment ? Donnez-nous un petit indice technologique quand même, comment ça fonctionne ?
04:00Jusqu'à aller identifier même l'outil qui a permis de créer cette voie.
04:03En fait il faut savoir que ces outils déjà ils sont sur le marché donc on les connaît,
04:08les IA sont de plus en plus puissantes, il faut le dire, elles arrivent à faire des
04:12résultats et des voix notamment de plus en plus proches de celles d'un être humain.
04:18Réaliste.
04:19Réaliste, merci.
04:20Par contre si on en fait beaucoup, en volume, on se rend compte de quelque chose, même
04:24quand on écoute nous des contenus fabriqués avec ces voix, à grande échelle on va dire,
04:28c'est qu'il y a des patterns, c'est qu'il y a des modèles qui se répètent.
04:31Donc ça on sait le détecter.
04:32Elles mettent aussi ces technologies-là de fabrication de voix artificielle, des défauts
04:37inaudibles à l'oreille humaine et des défauts dans l'audio que nous on sait aller rechercher
04:41grâce au savoir-faire ancestral, j'allais dire, qui est à l'IRCAM et dans les équipes
04:47d'IRCAM Amplify puisqu'on a vraiment des chercheurs et des ingénieurs très pointus
04:50sur la voix.
04:51Donc c'est un croisement d'analyse, de patterns.
04:54Et pour retrouver ces patterns, vous utilisez vous-même l'IA j'imagine ?
04:57Ah oui, c'est l'IA contre l'IA, on me dit souvent ça, c'est un peu Blade Runner, c'est
05:01vrai.
05:02Merci beaucoup Nathalie Birochaud pour vos explications, je rappelle que vous êtes la
05:05co-fondatrice et PDG d'IRCAM Amplify, merci.
05:08Merci.