• l’année dernière
Sécuriser l’espace numérique, oui… mais en se conformant aux législations européennes ! C’est un peu le discours adressé récemment par la Commission européenne au gouvernement français. En effet, Bruxelles craint que le projet de loi SREN récemment voté à l’Assemblée nationale ne soit plus restrictif que les règles de l’UE. On en parle dans le grand débrief de SMART TECH en compagnie de Jean-Noël de Galzain, président d’Hexatrust, Alain Garnier, président-fondateur de Jamespot, et Alain Staron, président d’Artifeel.

Category

🗞
News
Transcription
00:00 Et bien j'ai la French Tech en plateau pour débriefer l'ActuTech.
00:07 Trois entrepreneurs, Alain Garnier, président fondateur de Jamespot, donc une plateforme
00:12 tricolore qui ose s'attaquer au sujet des plateformes collaboratives, des plateformes
00:16 de travail et aussi des réseaux sociaux d'entreprise.
00:19 Alain Staron, président fondateur d'Artifil, et bien vous vous faites briller cette innovation
00:25 autour de l'IA dans la sécurité physique avec Artifil.
00:28 Et Jean-Noël Degasin, président d'ExaTrust, j'ai envie de dire porté-tandard de tout
00:32 l'écosystème français, européen, autour de la cybersécurité et du cloud de confiance.
00:38 Bonjour à tous les trois, très heureux de vous avoir en commentateur.
00:41 La loi française pour réguler et sécuriser Internet semble avoir un petit plan dans l'aile.
00:47 En tout cas il y a une sorte de coup d'arrêt, elle a été adoptée le 17 octobre et puis
00:52 depuis plus rien, on l'attend pour un passage en commission mixte paritaire et cela n'arrive
00:58 pas, c'est-à-dire que cette loi finalement n'arrivera qu'après 2023 ou 2024, c'est fort
01:04 probable et c'est surtout sans doute lié à des messages, des signaux envoyés de la
01:09 part de la commission européenne qui a un peu haussé le ton.
01:12 Je ne sais pas si c'est votre avis.
01:14 Est-ce que cette loi française allait un petit peu trop loin par rapport à ce qu'attendait
01:18 Bruxelles ?
01:19 Alain ?
01:20 Je peux commencer ?
01:21 Alors les signaux sont clairs, c'est carrément une lettre officielle.
01:28 On n'est pas juste dans les signaux de fumée avec les pigeons voyageurs de l'Europe.
01:34 Il se trouve que la France a pourtant été celle qui a amené cette loi au niveau européen.
01:39 C'est quand même à mettre au crédit un peu de la volonté française, en particulier
01:44 de sécuriser, mais également l'action de la souveraineté.
01:46 Et le problème par contre c'est qu'on n'a pas totalement respecté un peu le calendrier
01:49 et donc là c'est plutôt des fautes de quart, tout simplement administratives de délai
01:54 dans lesquelles il faut prévenir l'Europe.
01:56 Sinon il y a un petit côté impolitesse on va dire.
01:58 Et puis un deuxième sujet c'est que, et ça Jean-Noël Barraud d'ailleurs l'avait rappelé
02:03 à l'Assemblée Générale, il ne fallait pas aller trop loin parce que sinon il s'agit
02:08 de transposer un droit européen.
02:10 Donc finalement aller trop loin ce serait avoir l'Europe des 27 Europes.
02:13 Et là justement l'Europe nous arrête en disant non, là ce n'est pas dans le package
02:17 général.
02:18 Plusieurs problèmes en fait.
02:20 Par contre on va un petit peu plus loin que ce que prévoit le DSA, donc le règlement
02:25 européen sur les services numériques.
02:27 Et puis parfois on confond aussi actions de l'Etat et d'autorités administratives.
02:31 Moi je pense qu'on a un sujet de fond autour des données.
02:35 De toute façon.
02:36 Donc cette loi elle a dû aller assez loin sur les données parce qu'on sait que la France
02:40 est très en pointe sur le fait d'être en fait, de défendre un modèle numérique dans
02:45 lequel on peut reprendre la main sur nos données.
02:47 C'est un enjeu mondial.
02:49 C'est pas seulement en France.
02:50 J'étais au Canada il y a deux semaines avec le ministre de la cybersécurité et du numérique
02:57 au Canada, puisqu'il y a un ministère dédié à ça.
03:00 C'est un sujet partout dans le monde, ce contrôle sur les données.
03:03 Et donc il y a ce que marque cette situation finalement, au delà de l'anecdote elle-même,
03:10 parce que ça se réglera, c'est qu'il y a un désaccord profond sur la stratégie
03:16 autour des données.
03:17 Jusqu'où il faut aller, jusqu'où on met la barre dans le positionnement par rapport
03:24 aux lois extraterritoriales américaines.
03:26 On se souvient qu'avant l'été il y avait eu une tentative de passer rapidement le nouveau
03:32 projet de loi transatlantique d'échange sur les données, un nouveau framework.
03:37 Avec une nouvelle responsable européenne, assistante de la commission de la commissaire
03:44 européenne de Versteiger, qui venait précisément d'un GAFAM, avec un parcours très emprunt
03:54 sur les GAFAM.
03:55 Donc il y a quand même un problème de fond, on le voit récemment avec Amazon.
04:00 Au sein de la commission européenne, entre les Etats membres ?
04:02 Je pense qu'il y a un désaccord sur la stratégie autour des données.
04:07 Et du coup, quand la France, qui est très regardée sur ces sujets-là, fait un projet
04:12 de loi dans lequel, il faut le dire quand même, il était venu à l'université d'été
04:15 d'Exatrust, Jean-Noël Barrault, il l'avait dit, je ne peux pas non plus aller trop loin
04:21 et prendre tous les amendements que demandent les députés et les parlementaires, parce
04:25 que sinon je vais être hors la loi européenne.
04:28 Donc il avait prévenu quelque part.
04:30 Donc on se retrouve exactement face à la situation.
04:33 En fait il avait déjà reçu un courrier de Thierry Breton, on ne le savait pas à l'époque,
04:37 mais au mois d'août on lui avait déjà tiré la sonnette d'alarme.
04:41 Mais je pense qu'on ne peut pas soupçonner Jean-Noël Barrault de ne pas essayer d'avoir
04:45 une position qui reste relativement audacieuse quand on voit la situation européenne aujourd'hui
04:50 sur ce sujet des données.
04:52 Donc il va falloir trancher aussi, avoir une position européenne sur les données.
04:55 Alors on en a quand même une justement, l'EDSA c'est une position européenne commune.
05:01 On a trouvé cet accord.
05:02 Mais là la France veut aller plus loin en fait.
05:05 On va peut-être un peu trop vite.
05:07 Ou l'Europe ne va pas assez vite, je ne sais pas Alain.
05:10 Il y a une différence de tempo.
05:12 Clairement l'Europe ne va pas assez vite, c'est plutôt que la France va trop vite.
05:17 On ne va de toute façon pas assez vite les uns et les autres.
05:19 De notre point de vue français.
05:20 Parce qu'au fond elle est très vite.
05:21 Mais bien sûr.
05:22 Maintenant il y a un DSA, il y a une loi qui est sortie, en tout cas il y a un texte européen
05:27 qui est sorti ou en train de sortir.
05:29 On ne peut pas aller plus vite que la musique non plus parce que sinon on casse l'Europe
05:32 et à mon avis l'Europe en tant qu'entièreté est plus forte qu'un intérêt particulier
05:38 d'un pays qui voudrait aller plus loin.
05:40 Il vaut mieux qu'on avance moins loin tous ensemble que plus loin séparément parce
05:44 qu'on l'a tous vu depuis l'Irlande, l'Europe fragilisée, l'Europe désorganisée, c'est
05:48 une Europe fragilisée qui fait la barbelle à tout le fameux oligopole.
05:53 Et puis parfois ce sont des intentions politiques qu'on peut estimer louables mais on sait
05:57 très bien que dans la concrétisation, dans la mise en œuvre, ça ne va pas être possible.
06:02 Il y a ça aussi.
06:03 Mais ça en l'occurrence, la volonté politique peut être source d'innovation.
06:08 Si la politique dit "je veux qu'on puisse contrôler toutes les identités des gens
06:13 qui vont sur les sites porno" et bien il va falloir qu'on trouve une solution.
06:16 Et moi je fais confiance à tous les ingénieurs de la terre, en particulier en France, ils
06:19 sont plutôt bien calibrés, pour trouver des solutions.
06:21 Donc moi je ne m'arrête pas à "on veut quelque chose qui n'est pas possible".
06:25 Ce n'est pas vrai.
06:26 Rien n'est impossible.
06:27 - Des solutions technologiques, il y en a en l'occurrence dans ce domaine.
06:30 Mais la problématique c'est comment articuler ces solutions technologiques avec le respect
06:36 du droit à la vie privée, des droits fondamentaux des citoyens sur Internet.
06:40 - Liberté, protection, liberté, sécurité, c'est le débat qu'on a.
06:44 - Et puis il faut aussi reconnaître que si on prend par exemple l'action du DSA, en fait
06:47 la question de la vie privée, elle est quand même vue de manière différente.
06:50 Je pense que sous l'angle des données, le côté plutôt B2B entreprise, là il y a
06:55 effectivement peut-être un consensus plus général.
06:57 Mais sur les questions des mœurs, là il y a aussi une différence.
07:01 Et il faut accepter, je pense, que l'Europe peut être aussi un peu différenciée.
07:04 Donc ce qui est difficile c'est de trouver à la fois, aller tous dans le même sens,
07:08 effectivement je suis d'accord, on sera plus fort dans l'Europe.
07:10 Pas non plus avoir des gens qui sont trop en avance et d'autres qui sont trop en retard.
07:15 Et là du coup on retrouve le problème qu'on a eu avec les paradis fiscaux.
07:18 C'est-à-dire par exemple on aurait l'Irlande qui dirait "attendez, si vous venez chez moi
07:21 il n'y a aucun problème, vous êtes finalement gars, femme, continuez votre vie".
07:25 Donc en fait il faut aussi qu'on sorte de ça, c'est-à-dire que les mauvais élèves,
07:28 mais il ne faut pas non plus qu'il y en a qui fassent trop de zèle.
07:30 Donc effectivement c'est un peu compresser le message de l'Europe, qui est un peu la
07:33 façon de s'en sortir par le haut.
07:34 Mais pourtant on le connaît quand même cet exercice de mise en application, enfin en
07:39 tout cas d'adaptation de notre droit aux directives européennes, on le connaît cet exercice.
07:44 Non seulement on le connaît, mais si on regarde quand même en matière, en tous les cas dans
07:49 le domaine de la data, de la privacy, ce qu'on appelle la privacy, donc le respect de la
07:53 vie privée, et sur la partie résilience, cybersécurité, la France non seulement elle
07:58 connaît les règles, mais elle est l'inspirateur quand même d'un modèle européen.
08:02 Donc moi je pense qu'aujourd'hui on assiste quand même à une divergence très importante
08:11 sur jusqu'où il faut mettre le curseur sur le respect de la vie privée.
08:15 Il y a aussi une bataille, on ne va pas se leurrer là-dessus, il y a une espèce de
08:20 bataille entre la France et l'Allemagne sur qui prend le leadership sur ces sujets-là
08:24 avec des positions qui sont différentes, notamment…
08:27 Y compris sur la partie business.
08:29 Mais bien sûr sur la partie business, bien sûr, avec je pense les Allemands qui voient
08:34 une opportunité sur le cloud et nous qui sommes assez en pointe sur tout ce qui est
08:38 IA, cybersécurité ou quantum, notamment ordinateur quantique.
08:43 Et donc voilà, il faut que tout ce monde discute et on est dans un monde nous de l'innovation
08:49 qui a tendance à aller très très vite.
08:51 On oublie parfois que DSA, DMA, ça reste très abstrait pour quelqu'un qui se préoccupe
08:56 du harcèlement à l'école, des problèmes très basiques de la vie quotidienne.
09:03 Et donc c'est normal que…
09:04 Et puis là c'est quand même, je faisais référence au directif, mais là c'est quand
09:09 même un règlement, donc de toute façon on n'a pas le choix.
09:11 Mais oui, il va falloir l'appliquer tout le monde parait de la même façon.
09:14 Exactement.
09:15 Moi je vois le verre plutôt à moitié plein.
09:16 Venant de là où vient l'Europe, très belle étape.
09:19 Et tant pis si les Français doivent attendre un peu plus.
09:22 Tant pis, il faut un moment.
09:24 Allez, votre avis sur GroKo, ce nouveau chatbot qui va arriver sur X, la plateforme d'Elon
09:30 Musk.
09:31 Je dis qu'il va arriver parce que pour l'instant il n'y a que quelques personnes qui peuvent
09:35 le prendre en main.
09:36 A priori quand même pour pouvoir jouer avec, il faudra passer à un abonnement premium
09:41 plus et donc ça quittait de 16 euros par mois.
09:45 Il est très bien.
09:46 Il est très bien.
09:47 Il est très américain.
09:48 Oui.
09:49 Ça démarre aux Etats-Unis.
09:50 Ça démarre aux Etats-Unis, tout à fait.
09:51 Bon, on parlera aussi du modèle économique.
09:53 Qu'est-ce que ça veut dire pour le modèle économique de la plateforme ? Mais déjà
09:56 sur le principe, Elon Musk qui nous explique que l'IA c'est hyper dangereux, les IA
10:02 génératives encore plus, mais quand même lance sa propre solution en disant qu'en
10:08 plus c'est mieux que ChatGPT parce que ça va permettre d'avoir des résultats au prompt
10:13 qui sont actualisés avec toutes les données en temps réel qui sont publiées sur X.
10:17 Vous dites super, bonne nouvelle ou oulala ? Attention, danger.
10:21 Est-ce qu'aujourd'hui on a envie de mettre 10 euros par mois ou je ne sais quoi ?
10:25 Est-ce qu'on sera obligé ? Mais en tout cas, bonne ou mauvaise nouvelle, ce n'est
10:28 pas le sujet.
10:29 Par contre, ça montre vraiment plusieurs choses.
10:31 Sur le personnage Elon Musk, grand hypocrite, il avait quand même dit six mois de moratoire,
10:36 c'est le temps qu'il a mis pour sortir son truc.
10:37 Ça, je trouve que c'est du neuf.
10:39 C'est pas du hypocrisie ça alors ?
10:40 Voilà.
10:41 Mais en tout cas, je le mets sur le terrain éthique.
10:45 Ça ramène aussi à ce personnage sur lequel il faut un petit peu lui enlever des fois
10:48 les grands projecteurs qu'on lui met.
10:49 Point numéro deux, par contre, hyper intéressant.
10:51 On n'arrête pas de dire que l'IA, un des points clés, c'est justement qu'il ne soit
10:54 pas capté par quelques acteurs parce que justement, les IA vont amener une culture.
10:59 Pourquoi est-ce qu'Elon Musk ? Un des éléments au-delà du business, c'est que lui dit,
11:04 "Cha-JPT, il est trop woke".
11:05 Intéressant.
11:06 Donc en fait, lui dit, moi j'en ai marre qu'on réponde à des choses positives, polies,
11:12 sur les minorités.
11:13 Non.
11:14 Moi, mon groc, il va être un peu…
11:15 Il va apporter des réponses sexy, nous dit.
11:18 Ah, sexy.
11:19 Il peut sortir des sentiers battus sans problème.
11:22 Et lui, je pense que la question…
11:23 Il n'y a pas de limitation dans la pensée, dans son mode libertaire.
11:26 Donc ça prouve en tout cas un truc clair, c'est que les modèles d'IA, de toute façon,
11:31 auront cette question culturelle et que donc on a besoin d'avoir des modèles culturels
11:35 diversifiés.
11:36 Et dernier point.
11:37 Notamment européen.
11:38 Et dernier point sur l'argent.
11:40 Aujourd'hui, effectivement, un modèle d'IA, quand il est utilisé par les gens, il coûte
11:45 effectivement plutôt presque 20, 30 dollars par mois en coût d'infras.
11:50 Il faut se rendre compte qu'en fait c'est très dispendieux aujourd'hui l'IA.
11:53 Donc en fait, même en le vendant à 16 dollars, et ça reste encore pour lui un pari d'un
11:58 point de vue business model, mais ça prouve en tout cas que l'IA va être une technologie
12:03 qui va être soit ultra subventionnée par ceux qui ont beaucoup d'argent, soit qui
12:07 va être assez chère par rapport à son usage.
12:10 Mais c'est normal parce que l'intelligence, ça coûte.
12:12 Oui mais ça veut dire des usages professionnels.
12:15 Donc ça va être quoi ? Les professionnels, les fermes de robots qui vont accéder finalement
12:20 à cette IA générative ? Enfin, je veux dire, qui est la cible ? Qui est le public ?
12:24 Moi, je pense que l'IA génératique, ça reste une techno.
12:27 Donc moi, ça ne m'intéresse pas.
12:30 Le contenu de ce que dit Elon Musk en tant que tel sur le sujet ne m'intéresse pas
12:35 beaucoup.
12:36 On verra si elle est compétitive, etc.
12:38 Et on choisira les solutions techniques appropriées.
12:40 Par contre, moi, j'avais noté une...
12:42 Parce que j'aime bien ce que tu dis.
12:44 On défend cette idée quand même que l'IA, ça va véhiculer une culture, c'est civilisationnel
12:53 en fait, quelque part, à terme.
12:54 Et moi, j'ai relevé une petite phrase qui m'a beaucoup plu, qui vient d'une jeune
13:01 doctorante sénégalaise qui est dans la santé.
13:05 Et elle, elle veut utiliser l'intelligence artificielle pour prévenir les risques de
13:11 cancer et certaines maladies très graves.
13:15 Et elle dit la chose suivante.
13:16 Et ça, je pense que c'est pas quelqu'un sorti de non pas.
13:21 C'est une jeune femme.
13:22 Elle dit, Fatou Leniang, elle dit si nous n'avons pas de données africaines, nous
13:29 devons nous baser sur celles qui viennent d'Europe ou des Etats-Unis.
13:34 Mais nous ne pouvons pas prédire une maladie avec des données qui ne nous concernent pas.
13:40 Moi, je pense que ça résume assez bien ce qu'on est en train de dire.
13:44 Donc, quand est-ce qu'on va, au lieu de se préoccuper des, on va dire, des frasques
13:49 d'Elon Musk, quand est-ce qu'on va là vraiment se dire, il nous faut des données
13:55 pour produire nos IA.
13:56 On se le dit, il y a des initiatives en Europe sur l'IA générative.
13:57 On y va.
13:58 Et on met le paquet dessus.
13:59 Tous dessus.
14:00 Il y a cette question effectivement de l'initiative européenne autour des IA génératives.
14:06 Comment on fait pour rattraper le train qui est parti à mille à l'heure quand même.
14:09 Mais il y a aussi ce sujet d'une IA qui va être nourrie par ces contenus postés sur
14:15 Twitter avec beaucoup moins de filtres effectivement que les précédents.
14:19 Mais ça veut dire aussi que c'est un modèle qui est non figé.
14:21 C'est intéressant parce que Tchad GPT est figé à 2021.
14:23 Il n'est pas capable de répondre à des questions d'actualité.
14:25 Là, on a un modèle totalement différent.
14:28 C'est qu'une question de tuyau.
14:29 Oui, Tchad GPT.
14:30 On ouvre un robinet et ça va marcher.
14:32 On a parlé de deux choses différentes.
14:33 Mais ce n'est pas le modèle.
14:35 Tchad GPT, ce n'est pas ce modèle qui a été choisi.
14:38 Ça a été choisi de sorte qu'on ne transforme pas le grand modèle de langage.
14:43 On l'adapte en fonction des usages à des niveaux, des couches inférieures.
14:47 Ça peut évoluer.
14:48 Bien sûr.
14:49 Techniquement, il n'y a aucune difficulté.
14:50 Il y a deux sujets qui sont en évit.
14:51 Ce n'est pas le même résultat et ce n'est pas les mêmes conséquences.
14:56 Aujourd'hui, Twitter est une plateforme d'influence.
15:00 Je suis d'accord avec vous.
15:02 Et fait de toutes sortes de contenus non filtrés.
15:04 C'est une responsabilité encore supérieure par rapport à la sortie de Tchad GPT.
15:08 On disait déjà très responsable de plein de choses dans la société.
15:11 C'est encore autre chose.
15:12 Déjà, on vient de parler d'un manière dont on alimente les IA.
15:22 L'anecdote africaine.
15:23 Il y a une anecdote dans l'anecdote.
15:26 Facebook a un moment nommé un patron de la correction des billets en IA.
15:31 Ce patron est africain.
15:32 Pourquoi il a rejoint Facebook ?
15:34 Parce qu'il ne reconnaissait pas son visage avec le téléphone.
15:36 Parce qu'il s'est entraîné sur des blancs caucasiens.
15:38 Ça, on sait.
15:39 C'est parti.
15:40 Il faut le faire.
15:41 Si vous faites l'exercice, vous prenez une photo d'un homme avec une balle à côté.
15:47 Si l'homme est chinois, on dira que c'est ping-pong.
15:50 Si l'homme est caucasien, on dira que c'est tennis.
15:51 C'est radical.
15:52 Faites l'essai.
15:53 Ça marche très bien.
15:54 On voit bien qu'il y a encore beaucoup de boulot là-dessus.
15:55 Mais là, on est dans l'amour.
15:56 Quand on dit que...
15:58 Est-ce que...
15:59 ChatGPT s'arrête à 2021.
16:03 C'est d'abord un problème d'horizon, de temps.
16:05 Ce qui fait qu'il lui manque toutes les infos récentes.
16:07 Dire que l'IA de Elon Musk va sur Twitter, c'est...
16:10 D'une part, je le suis jusqu'au plus présent.
16:13 Mais d'autre part, je suis sur des contenus d'un biais absolu.
16:15 C'est quand même deux choses différentes.
16:17 Il y a...
16:18 Je suis à jour.
16:19 Et ChatGPT sera à jour.
16:20 Je ne vois pas pourquoi il ne serait pas à jour.
16:21 Et quel poids je donne dans mon corpus de données.
16:24 Ça ne retire rien à la performance de ChatGPT.
16:26 Ce n'est pas le sujet.
16:27 Oui, si.
16:28 Parce que si...
16:29 Non, parce qu'aujourd'hui, je pense que le groc est beaucoup moins performant que le LLM.
16:33 Si je demande à ChatGPT quel est le prénom belle de cette année, il n'est pas pas.
16:36 Voilà, ça sera dépendre indéfiniment.
16:37 Ah oui, mais ce n'est pas ça la performance d'un LLM.
16:40 Non, c'est la compréhension.
16:42 Oui, c'est la compréhension d'un mot dans un contexte de phrase.
16:45 Le même ChatGPT, si je lui demande...
16:48 Est-ce qu'Albert Camus a refusé le prénom belle, il me dit oui.
16:51 Et quand je dis en quelle année il l'a eu, il me donne l'année.
16:53 Oui, mais c'est pas un moteur de recherche.
16:55 Non, parce que là...
16:56 Non, mais il ne comprend pas.
16:57 Enfin, c'est pas un moteur de recherche.
16:59 Mais, ce que je voulais en venir quand même à la manière dont va être nourri ce modèle de langage,
17:06 donc avec les contenus postés sur Twitter.
17:09 Et en plus, on vient d'avoir en cadeau, j'ai envie de dire, avec l'abnésaire en application du DSA, du règlement européen,
17:15 le premier rapport rendu public sur ce qui passe dans les fourches codines de la modération sur Twitter.
17:22 Et on s'aperçoit de la quantité de messages violents, haineux, qui traînent sur ce réseau, notamment dans sa version française.
17:30 Et d'ailleurs, ça c'est une des surprises, d'ailleurs, enfin on a les datas, donc ça c'est bien.
17:34 On voit aussi l'écart, on parle de plusieurs milliers de modérateurs sur l'anglaise,
17:38 on descend à 50 pour le français, et je crois qu'on descend à 4 ou 8 pour les allemands,
17:42 et 2 pour certaines langues qui sont dites rares, alors qu'en fait elles sont pour nous importantes, comme l'italien.
17:48 Ça déjà on voit un peu le ratio.
17:51 Et la deuxième chose qu'on voit, et ça c'est une surprise, et je pense que les sociologues auront intérêt à se pencher là-dessus,
17:56 c'est qu'effectivement on se plaint en France énormément de cette dimension haineuse sur les réseaux sociaux,
18:01 en particulier Twitter, enfin X maintenant, et bien il se trouve qu'on est les plus gros émetteurs.
18:06 Donc quelque part, on est aussi, en tant que français, il faut vraiment aussi regarder les choses en face,
18:11 ceux qui se plaignent de ce que nous faisons le plus.
18:14 C'est-à-dire qu'il y a d'autres peuples européens qui sont beaucoup moins à diffuser les éléments de haine.
18:19 En tout cas c'est ce qu'on voit dans les signalements.
18:22 C'est une réalité statistique.
18:24 Peut-être qu'on est beaucoup plus vigilants aussi.
18:27 Avec 52 modérateurs c'est pas énorme, on arrive à avoir des scores quand même de suppression de postes.
18:32 Non, parce que le ratio par modérateur est supérieur pour les français que pour les allemands.
18:37 Les modérateurs français ils bossent beaucoup plus qu'en moyenne.
18:41 C'est pour ça que je dis qu'on est vraiment là-dessus.
18:43 On a une question à se poser sur notre degré de violence de la société française aujourd'hui,
18:47 et en même temps le fait de refuser cette violence de manière encore plus forte.
18:51 C'est-à-dire qu'il y a une violence des deux côtés.
18:54 Et ça je pense que c'est hyper intéressant pour les sociologues du futur,
18:59 qui analyseront ça pour essayer de comprendre quel était le mal de cette société française
19:03 à finalement se détester de ce qu'elle fait elle-même comme violence pour elle-même.
19:07 Je pense que c'est naturel.
19:08 Plus on est confronté à des trucs horribles, plus on s'énerve.
19:11 À un moment ou l'on reste policier et tout va bien, soit ça dérive et ça part en vrille.
19:15 Hypothèse.
19:16 Je ne vais pas rentrer trop dans ce débat-là, parce que je ne suis pas là pour faire des discours politiques.
19:22 Mais c'est vrai que par exemple, je reviens sur mon exemple du Canada, à Montréal,
19:26 et les discussions qu'on a pu avoir, c'est quand même intéressant de voir par exemple,
19:30 par exemple, ce pays, après je ne fais pas de jugement ni de comparaison,
19:35 mais dans ce pays, quand on aborde la question par exemple de l'immigration et des quotas,
19:39 on n'a pas de problème.
19:41 C'est devenu quasiment un facteur d'attractivité pour le pays en tant que tel.
19:46 Et donc on va chercher les gens.
19:48 On fait de la publicité, on favorise le regroupement familial.
19:52 On fait des choses en faveur de ça.
19:55 Chez nous, on n'a même pas encore abordé le projet de loi, qu'on a déjà supprimé toute discussion sur certains de ces sujets,
20:01 notamment sur le sujet des quotas.
20:03 Je ne dis pas que c'est bien ou que ce n'est pas bien.
20:05 Je dis juste qu'il est clair qu'on n'aborde pas les grands sujets de société d'aujourd'hui de la même manière,
20:11 avec la même sérénité.
20:14 On a du mal à discuter et à échanger.
20:16 C'est compliqué, il y a beaucoup d'antagonismes.
20:18 On enchaîne avec notre autre sujet, non Alain ?
20:20 Oui, enfin juste pour terminer sur Grox, ça met en avant Laval.
20:24 On a parlé de l'amont, il faut mettre plus de données, etc.
20:26 Mais Laval, on parlait de personnalité, j'ai envie plutôt de parler de propagation de biais.
20:31 Parce qu'il n'y a pas de personnalité, il n'y a pas de culture non plus.
20:34 Ça propage des biais.
20:35 Et les biais d'X sont des biais compliqués, avec néanmoins le fait qu'il y a tout et son contraire sur X.
20:41 Je suis inquiet de savoir dans quelle meilleure.
20:43 Soit ça amplifie tout et son contraire, ça sera ingérable, on va faire un par arrêté,
20:46 parce qu'on déteste la violence.
20:48 Soit ça va s'annuler et on va peut-être avoir une modération de X digne de ce nom.
20:53 Est-ce que vous serez prêt à payer 16 dollars ou 16 euros par mois pour vérifier ça ?
20:58 Mais non !
20:59 Allez, autre sujet, donc là c'est Facebook, Instagram.
21:02 Pour eux c'est fini la pub ciblée, enfin c'est fini.
21:05 En tout cas l'Union Européenne dit stop à l'utilisation des données sans un consentement explicite des utilisateurs,
21:12 considérant que pour l'instant ce n'est pas suffisamment explicite.
21:15 Et à ça le groupe META répond par "Ok, dans ce cas-là, on va demander aux gens de manière très claire de choisir,
21:22 soit ils acceptent ce service avec de la pub ciblée, soit ils devront payer."
21:27 Alors, dans quel camp allez-vous être ? Vous allez payer ou accepter encore cette pub ciblée ?
21:33 J'ai juste sorti ma calculette.
21:36 C'est assez cher l'abonnement, 9,99 euros.
21:39 Facebook fait 11 milliards de dollars de bénéfices trimestriels, avec 2 milliards de personnes.
21:44 Ça veut dire que s'ils devaient le faire payer, c'est 2 euros par personne, pas 9 ou 13.
21:50 Donc à un moment il faut arrêter.
21:52 J'imagine qu'ils considèrent qu'il n'y en a pas beaucoup qui vont payer.
21:54 Mais ce n'est pas grave, le reste aura de la pub.
21:56 Donc moi je dis, le calcul est très simple, si toute la base devenait payante,
22:00 je ne vois pas pourquoi le bénéfice de Facebook serait multiplié par 4.
22:03 Et selon vous ce prix, il est discriminatoire ?
22:06 Il est en partie discriminatoire et c'est un test produit.
22:12 Ils font un test pour voir si les gens sont prêts à payer,
22:15 combien de pourcentage de la base utilisateur est prête à payer.
22:18 Moi je serais un conseil qui cherche des nouveaux produits, des nouveaux services dans l'entreprise.
22:26 Ça fait longtemps que j'aurais fait le test.
22:28 Objectivement, ça a du sens pour eux.
22:31 Alors ça nous sort de ce modèle de l'Internet gratuit,
22:34 qui finalement on avait fini par accepter l'idée que quand c'est gratuit c'est nous le produit.
22:39 Sauf que ça va, il me semble, un peu plus loin aujourd'hui.
22:43 On n'est pas juste un produit, nous sommes des opinions manipulables et manipulées.
22:49 Ça devient un sujet politique.
22:51 Oui et puis ça devient effectivement un sujet dans lequel on est monétisé en permanence.
22:55 C'est effectivement l'étape d'ailleurs qui avait été analysée depuis longtemps.
22:59 L'étape suivante du capitalisme c'est de faire de nos corps et de nos esprits une valeur.
23:03 Et là on est vraiment là-dedans.
23:05 Je suis assez d'accord avec ce qu'a dit Jean-Noël, avec les calculs qu'a fait Alain.
23:08 C'est qu'en gros on a une entreprise là qui quelque part on lui force dans son modèle,
23:13 parce que clairement il ne va pas du côté de cœur.
23:15 Ils ont fait un communiqué comme quoi ils trouvaient que ce n'était pas une bonne idée.
23:18 Parce que ça complique pour eux quand même le message.
23:20 Forever free, ben non parce que forever ça dépend.
23:23 Et simplement par contre ce qu'ils vont faire c'est que là ils vont maximiser du coup leur profit encore.
23:27 C'est ça.
23:28 C'est à dire que quelque part, et ça c'est vraiment intéressant,
23:30 c'est comment est-ce qu'on a, un peu comme un lutteur grec,
23:33 au sol on n'arrive pas, on le prend, voire même il maintient sa position.
23:40 Parce que finalement au mieux ce qui va se passer,
23:43 imaginons que 10% de la base installée passe en payant,
23:46 ce qui va se passer tout simplement c'est que par rapport aux calculs qu'a fait Jean-Noël sur la marge,
23:50 ça y est sur 10% ils vont gagner encore de la marge.
23:52 Donc quelque part on n'a pas touché le fond du fond du modèle.
23:56 Et Metta d'ailleurs s'en sort de manière moi je trouve assez incroyable.
23:59 Il ne nous reste que 3 minutes et je voulais absolument qu'on parle avec Jean-Noël
24:03 de la contre-attaque contre les ransomware.
24:06 Puisqu'on a quand même une alliance de 50 membres à l'international
24:11 qui alors ne s'engage pas à ne plus jamais payer de rançon,
24:14 mais en tout cas qui dit que ce serait quand même mieux si on n'en payait pas
24:18 pour montrer l'exemple et assécher les comptes finalement des groupes de cybercriminels.
24:23 On va dire que dans le fond c'est une position qui est parfaitement cohérente et éthique pour le coup.
24:32 On ne va pas encourager on va dire à payer le crime pour sortir de ce problème là.
24:41 Maintenant bon on se souvient aussi qu'en France on a entre temps fait passer une loi
24:49 pour justement permettre le remboursement en fait, la prise en charge par les assurances
24:54 du remboursement des ransomware.
24:57 Des rançons payées.
24:58 Voilà donc ça veut dire qu'il y a quand même alors que je suis désolé de revenir encore au Canada
25:03 mais au Canada par exemple on rembourse.
25:05 La France fait partie de cette alliance Jean-Noël donc ça veut dire que ça pourra changer.
25:07 Tout à fait donc je dirais que là encore on est un peu comme dans ce qu'on disait tout à l'heure
25:12 sur le projet de loi numérique, il va y avoir à la fin une position intermédiaire.
25:18 Ce qui est certain c'est que la collaboration en matière de cybersécurité c'est comme les données pour l'IA.
25:25 Plus il y en a, plus on est performant.
25:28 Donc je pense que ça c'est une très bonne chose.
25:30 C'est aussi bien de montrer que justement l'éthique et la position on va dire qui est quand même appelée
25:37 par tous les gens sérieux dans nos métiers et les autorités tutelles en général
25:44 qui consiste à ne pas payer les criminels, payer les rançons, que finalement cette position est celle qui fait l'unanimité.
25:52 Donc ça a un sens sur le plan technique pour améliorer la qualité du renseignement, des échanges de données,
25:58 de la donnée qui va servir justement à lutter contre les rançomwares.
26:03 Et de l'autre côté c'est quand même la position de fond qui emporte.
26:08 Est-ce que ça va être plus efficace ? Il y a quand même des plateformes qui vont être mises en place
26:11 pour le partage des données au niveau international. On a l'impression que ça y est, ça bouge enfin.
26:15 On sera plus réactif ne serait-ce que ça.
26:17 On a 30 secondes pour conclure.
26:19 Et puis là on est dans un contexte un peu différent.
26:21 C'est les Etats-Unis eux-mêmes qui prennent la tête de cette initiative.
26:24 Ils n'ont aucun intérêt aujourd'hui à ce que ça augmente parce qu'ils ont en face plutôt des ennemis
26:29 qui sont côté chinois ou plutôt côté russe.
26:32 Donc quelque part là on n'est pas dans le même combat qu'on a discuté depuis le début, Amérique contre Europe.
26:37 Au contraire, eux là ils ont intérêt comme nous.
26:39 Là on est totalement alignés.
26:41 Et plus que nous.
26:43 Et donc quelque part on est protégés là.
26:45 Merci beaucoup à tous les trois.
26:47 Merci Alain Garnier, président fondateur de Jamespot.
26:51 Alain Staron, président fondateur d'Artifil.
26:54 Et Jean-Noël de Galzin, président d'Exatros.
26:57 C'était Smartech. Merci à vous de nous suivre avec une grande régularité sur BeSmart
27:01 et aussi via les réseaux sociaux et via les podcasts.
27:04 [Musique]

Recommandations