SMART TECH - Le rendez-vous du mardi 13 juin 2023

  • l’année dernière
Mardi 13 juin 2023, SMART TECH reçoit Hervé le Jouan (advisor)

Category

🗞
News
Transcription
00:00 (Générique)
00:06 Vous êtes bien de retour sur le plateau de Smartech.
00:08 Vous nous regardez sur Bsmart ou vous nous suivez en podcast.
00:10 Peut-être aujourd'hui, c'est votre quotidienne sur l'innovation et le numérique.
00:14 Et là, c'est la deuxième séquence qui démarre de Smartech.
00:17 On va s'intéresser à la protection des mineurs, la lutte contre la pédocriminalité,
00:22 contre le cyberharcèlement.
00:24 Et bien, peut-être que cette lutte pourrait être plus efficace
00:26 si l'on utilisait de nouveaux outils à notre disposition, comme l'intelligence artificielle.
00:31 C'est la question que pose Hervé Lejouan, Advisor. Bonjour Hervé.
00:35 Bonjour Delphine.
00:37 Alors, d'abord peut-être moi une première question.
00:40 Qu'est-ce qui vous amène à vous interroger sur ce sujet aujourd'hui Hervé ?
00:44 Si vous vous souvenez, ma première rubrique début 2023
00:48 avait concerné l'accès à la pornographie par les plus jeunes
00:51 et l'urgence qu'il y avait à mettre en place des solutions
00:54 et à trouver des mesures pour arrêter ce fléau.
00:57 Alors, peu de temps après, le gouvernement a divulgué,
01:00 a proposé un certain nombre de mesures pour enrayer ce fléau.
01:04 Malheureusement, de l'avis de tous les experts,
01:08 c'est quasiment mission impossible, du moins dans la forme sur laquelle ils l'ont proposé.
01:12 Et cela relève encore une fois d'une non-compréhension par nos législateurs
01:17 du monde de la technologie et de l'Internet.
01:19 Et donc aujourd'hui, finalement, dans la logique et la suite de ça,
01:23 je souhaite finalement m'adresser et regarder un petit peu, pour les mêmes raisons,
01:27 et interpeller sur les sujets du cyberharcèlement et de la pédocriminalité.
01:31 Parce qu'en effet, il y a des événements tragiques récemment
01:35 qui nous ont rappelé encore une fois l'importance, malheureusement,
01:38 que jouent ces réseaux dans ces événements tragiques et dans la pédocriminalité.
01:45 Alors, c'est sûr que le cyberharcèlement et la pédocriminalité,
01:48 ce n'est pas quelque chose qui est arrivé aujourd'hui, ça a toujours existé.
01:51 Mais il faut reconnaître qu'avec l'avènement de l'Internet,
01:54 et surtout des réseaux sociaux et des réseaux de communication,
01:57 tels que Facebook, WhatsApp, Discord, Instagram et autres,
02:01 Jean Paz, TikTok, ça a explosé.
02:04 Surtout qu'aujourd'hui, nous avons un mobile 24 heures sur 24,
02:06 dans notre main, toujours connecté et toujours prêt à nous dire quelque chose.
02:11 Donc, on opère 24 heures sur 24, et n'importe où dans le monde est sous anonymat.
02:19 Et vous pensez donc que l'intelligence artificielle pourrait nous aider
02:22 à lutter davantage, plus efficacement, contre la délinquance, contre les mineurs ?
02:29 Depuis quelques années, et plus récemment que l'avènement de Chad Gpt,
02:32 qui a fait beaucoup parler de lui, l'IA a démontré des capacités
02:36 qu'on ne soupçonnait pas d'analyse du langage, de la grammaire,
02:40 du sens des phrases même, du sens des phrases, et tout ça en temps réel.
02:44 Et d'ailleurs, elle est de plus en plus utilisée.
02:46 Aujourd'hui, on voit la multiplication des applications d'intelligence artificielle
02:49 dans les outils conversationnels, sur des sites de commerçants, de banques, de tout,
02:54 qui sont capables d'interagir avec vous en langage naturel.
02:58 Donc, et elle permet aussi, si on regarde aussi au niveau temps réel,
03:03 ce qu'elle fait au niveau des voitures connectées,
03:05 typiquement avec des analyses en temps réel d'images, de vidéos, et ainsi de suite.
03:09 Donc, les capacités sont insoupçonnées et sont réelles aujourd'hui, ça fonctionne.
03:13 Cependant, il ne semble pas que ces capacités de l'intelligence artificielle
03:17 soient vraiment utilisées sur les réseaux sociaux pour lutter,
03:20 et dans ces applis de communication, pour lutter contre le cyberassainement
03:23 et la pédocriminalité.
03:25 Parce qu'aujourd'hui, en fait, tout le monde qui n'est pas surpris
03:28 de voir la prolifération des messages haineux, insultants, voire menaçants,
03:32 qui pululent et explosent sur Internet.
03:35 Et à côté de la pédocriminalité qui continue de sévir,
03:39 et qui explose aussi, et qui touche les plus jeunes.
03:42 Donc, les plateformes et les sociétés éditoriales de logiciels
03:45 n'ont pas l'air d'utiliser ça à son maximum,
03:49 puisqu'elles font beaucoup de modérations de contenu via des équipes manuellement,
03:53 et a posteriori, ce qui fait que le contenu est publié dans tous les cas.
03:57 Donc, moi, je me dis, et c'est pour ça que j'interpelle,
04:00 je me dis que ni les sociétés, ni les autorités ne souhaitent réellement s'attaquer au problème.
04:04 On a les technologies aujourd'hui, on nous parle d'IA qui nous facilite la vie,
04:08 qui nous rend des services, mais on ne parle pas de l'IA qui devrait,
04:12 et qui devrait être là pour nous protéger avant tout.
04:15 C'est vrai. Mais alors, qui seraient ces acteurs aux manettes de cette nouvelle manière
04:20 de lutter contre le cyberharcèlement ou la pédocriminalité ?
04:24 Ce seraient les plateformes qui devraient s'en occuper toutes seules ?
04:27 Oui, en premier lieu, oui, c'est elles qui devraient s'en occuper toutes seules,
04:31 parce que c'est elles qui, finalement, et elles le font déjà en partie,
04:34 c'est-à-dire qu'elles utilisent de l'intelligence artificielle,
04:36 souvent d'ailleurs pour nous suivre et nous proposer de la publicité et analyser,
04:41 mais effectivement, que ce soit Facebook, TikTok, encore une fois, WhatsApp, Discord ou autre,
04:46 elles pourraient intégrer ces algorithmes qui détecteraient en temps réel,
04:49 finalement, encore une fois, des contenus qui contiennent du NE et tout.
04:53 C'est très facile aujourd'hui. L'intelligence artificielle et le machine learning
04:56 sont capables de détecter des mots et des phrases et des chansons des phrases,
05:00 et donc de les bloquer. C'est-à-dire qu'au moment où vous écrivez quelque chose
05:03 qui relèverait justement d'un message menaçant ou haineux,
05:06 eh bien, il ne serait tout simplement pas publié. Donc, elles pourraient le faire, ça.
05:09 Les technologies existent et elles pourraient le faire.
05:11 Et donc, là, il ne semble pas qu'elles veulent le faire.
05:15 Alors, on peut y voir des raisons qui seront peut-être mercantiles,
05:17 c'est-à-dire que tout utilisateur est un bon utilisateur pour ses réseaux
05:21 et quelqu'un qui interagit. Et si demain, on commençait à supprimer,
05:25 finalement, à ne pas publier un certain nombre de messages,
05:28 certaines personnes pourraient décider de quitter ses réseaux.
05:30 Et au final, encore une fois, comme on dit ça depuis très longtemps,
05:34 nous sommes… tout est gratuit, donc nous sommes les produits sur Internet.
05:37 Donc, ces sociétés n'ont pas forcément intérêt à avoir des utilisateurs
05:42 qui partent de leur réseau parce qu'ils ne peuvent plus s'exprimer,
05:44 même si c'est des contenus qui sont haineux.
05:46 Après, les autorités, elles devraient rentrer…
05:48 Effectivement, elles ont leur responsabilité, parce qu'elles devraient rentrer
05:51 dans cette danse, comme elles le font pour d'autres sujets,
05:54 et essayer d'obliger et d'inciter les plateformes à utiliser ces algorithmes qui existent.
05:59 Et donc, à les mettre en œuvre, sous peine peut-être de les empêcher d'opérer
06:05 ou de contraindre un certain nombre de leurs opérations,
06:08 parce que là, on parle de protection.
06:10 Aujourd'hui, on voit bien qu'il y a des lois qui arrivent,
06:12 qui sont en train d'arriver sur le fait que le gouvernement va autoriser,
06:16 à distance, l'usage de la caméra et de la vidéo sur un mobile ou sur un ordinateur,
06:23 et sans, et à l'insu, effectivement, de la personne, pour régler des affaires de criminalité.
06:29 Donc, une loi va passer là-dessus.
06:31 Donc, ils sont capables de le faire.
06:33 Et donc, ce qu'on leur demande maintenant, c'est de se dire,
06:35 il faut protéger nos jeunes, il faut protéger pas seulement les jeunes,
06:38 mais aussi le harcèlement qui peut s'opérer sur des adultes, sur Internet,
06:42 avec la technologie qui existe.
06:45 Donc, aujourd'hui, on est vraiment…
06:47 C'est vrai qu'on ne comprend pas ce qui se passe.
06:50 Donc, on aimerait que soit les applications, et si elles ne le font pas,
06:53 que les autorités interviennent sur ces sujets-là.
06:55 Vous devriez être rassuré quand même avec les nouvelles réglementations
06:58 qui arrivent en Europe, avec le DSA, notamment.
07:01 Ah oui, le DSA. Mais le DSA, je suis à la fois rassuré d'un côté, bien entendu,
07:07 mais le DSA concerne… c'est assez vaste.
07:10 Et il n'y a pas un focus, je trouve, très fort sur seulement ces aspects contenues.
07:15 On parle plus de marketing ou de fake news et tout.
07:19 Alors, très bien, tout ça.
07:21 Mais là, encore une fois, on parle de quelque chose qui touche au harcèlement,
07:26 à la criminalité, et qui peut amener à des actes extrêmement violents, voire tragiques.
07:31 Donc, oui, le DSA, oui.
07:34 Mais je pense qu'on peut encore aller plus loin et mettre beaucoup plus de pression
07:39 pour l'utilisation d'une technologie qui existe et qui ferait très bien son travail.
07:43 Mettons, notre intelligence et notre savoir-faire technologique,
07:46 donc au service de la protection des mineurs en ligne.
07:49 C'est ce que vous nous dites, Hervé.
07:50 Merci beaucoup, Hervé Lejouan, entrepreneur, investisseur et advisor.
07:54 À suivre dans Smart Web.

Recommandations