SMART TECH - Emission du lundi 1 juillet

  • il y a 2 mois
Lundi 1 juillet 2024, SMART TECH reçoit Christian Poyau (cofondateur et PDG, Micropole) , Julien Pillot (Consultant, Enseignant-chercheur en économie, Inseec - Groupe Omnes Education) et Alain Staron (président cofondateur, Artifeel)

Category

🗞
News
Transcript
00:00Bonjour à tous, grand débrief aujourd'hui dans Smartech avec mes invités, le disrupteur Alain Staron, le transformateur Christian Poyot et l'économiste Julien Pillon.
00:20On va parler notamment de chat contrôle ou comment les messageries, même les plus chiffrées d'entre elles, pourraient être surveillées.
00:27On va aussi s'intéresser à une affaire d'antitrust qui s'intéresse de près aux géants de l'intelligence artificielle et puis les majors qui commencent à s'attaquer à l'intelligence artificielle.
00:37On verra si on a le temps aussi de parler de Netflix House. Je ne sais pas si vous en avez entendu parler mais c'est un projet intéressant.
00:42Voilà, c'est parti pour le débrief.
00:48Mes débatteurs aujourd'hui pour ce grand débrief de l'attaque Alain Staron, président d'Artifil.
00:53Bonjour Alain, Christian Poyot, cofondateur PDG de Micropole. Bonjour Christian et Julien Pillon, consultant enseignant-chercheur en économie à l'INSEC. Bonjour Julien.
01:03On commence avec chat contrôle ou comment nos messageries, y compris les plus chiffrées de bout en bout, pourraient être mises à mal dans leur sécurité, confidentialité,
01:14puisqu'un règlement est en discussion au niveau européen pour prévoir de surveiller ce qui transite dans les messages personnels.
01:24En l'occurrence, c'est un règlement qui s'intéresse à la lutte contre les abus sexuels sur les enfants. Ce texte s'appelle le CSAR, Child Sexual Abuse Regulation, pour être tout à fait précise.
01:39Ce texte devait être débattu fin juin finalement. Les choses sont un peu repoussées vu l'actualité politique.
01:46Et puis en plus, il y a une polémique qui est montée quand même très très forte autour de ce dispositif particulier qui s'appelle chat contrôle.
01:53C'est un peu un petit nom pas très amical qu'on donne à ce dispositif, mais qui en fait va exiger aux messageries, quelles qu'elles soient,
02:02de surveiller en amont les liens et les contenus images et vidéos qui transitent, j'allais dire, non mais même c'est en amont,
02:12donc avant qu'elles ne soient envoyées au destinataire pour vérifier si à l'intérieur il n'y a pas de contenu ou de lien vers des contenus pédopornographiques.
02:21Alors, une réaction sur ce texte ? Est-ce que vous faites partie des gens qui s'insurgent contre ce chat contrôle, qui s'inquiètent pour le chiffrement, l'avenir du chiffrement ?
02:31Oui, Christian, je vous vois obligé.
02:33Oui, oui, oui, parce que la pédopédopornographie est un sujet, évidemment, dramatique, abject, tout le monde sera en phase avec ça, bien évidemment,
02:41donc il faut lutter de la manière la plus forte possible. Maintenant, je pense que la réponse qui est apportée n'est pas la bonne,
02:47parce qu'effectivement, elle aurait des impacts extrêmement forts sur les libertés individuelles,
02:52la possibilité de rentrer dans les messageries de tout le monde par des individus ou des États plus ou moins bienveillants, des choses comme ça.
02:58Donc comme souvent, malheureusement, avec la réglementation européenne, on part d'une idée qui est bonne, qui est luttée contre quelque chose
03:04qui est absolument horrible, évidemment, et ça débouche sur une réglementation qui... Déjà, est-ce que ça réglerait le problème ?
03:12Je ne pense pas. Enfin, je ne suis pas un spécialiste, mais je ne pense pas, malheureusement, que ça réglerait le problème.
03:16Et surtout, ça aurait des tas d'effets pervers, c'est le cas de le dire, malheureusement, sur ce sujet.
03:20Donc on ne peut que prendre, évidemment, en partie pour les défenseurs de cette cause tout à fait nobles, mais ce n'est pas la bonne réponse.
03:28Ce n'est pas la bonne réponse. Encore une fois, les effets parallèles seraient tout à fait mauvais. Donc j'insiste...
03:35— Alors on dit que ça va affaiblir le chiffrement. Pourquoi ? Parce qu'en fait, même une messagerie censée être chiffrée de bout en bout...
03:42— De bout en bout. — ...devra finalement créer une sorte de faille informatique, une backdoor, en fait, pour pouvoir accéder...
03:49— Non mais il n'y aura plus de chiffrement. Plutôt, le chiffrement...
03:51— C'est une grosse fragilisation. — Voilà. Ce sera possible. On pourra l'attaquer ou l'ouvrir ou le consulter par un certain nombre de perchos.
03:57Alors on va dire que c'est réservé à la police, à la gendarmerie, etc. Mais après, dès que le chiffrement tombe, on peut imaginer des choses
04:05beaucoup plus larges par, encore une fois, des États ou des individus plus ou moins mal intentionnés. Donc malheureusement, encore une fois,
04:11la cause étant – j'insiste à nouveau – d'une noblesse totale. Non, c'est pas la bonne réponse. Et c'est vraiment la marque de fabrique, malheureusement,
04:19des textes européens. Il y a la CSRD. Enfin il y en a plein d'autres à côté, où à chaque fois, on veut lutter avec pas les bonnes armes
04:27mais en tout cas avec des choses qui vont au final être pénalisantes pour la liberté des Européens de manière globale.
04:32Donc non, c'est pas une bonne réponse. — Mais pourtant, on entend même du côté des services de police défendre le chiffrement.
04:37Et on se dit « Mais comment peut-on arriver à un texte comme celui-ci ? » Bon, Julien Nerey.
04:43— Je sais pas comment peut arriver à un texte comme celui-ci. Mais ce dont je suis à peu près certain, c'est que Christian a dit en peu de mots
04:49tout ce qu'il y a à dire. Je crois même qu'on est là face à l'une des pires idées de la longue et triste histoire des mauvaises idées, en fait.
04:57Parce que pour régler un vrai problème, on crée un remède bien pire que le mal. D'une certaine façon, on ouvre une boîte de Pandore.
05:05Pourquoi s'arrêter uniquement à la pédopornographie ? Pourquoi ne pas dire qu'on va utiliser ce type d'outils pour pouvoir espionner d'autres types
05:14et couvrir d'autres types de risques, en fait, et d'autres types de conversations ? Jusqu'où s'arrêterons-nous ?
05:18Et est-ce qu'on veut une société de surveillance de masse généralisée qui est bien éloignée, à mon sens, de l'idéal démocratique ?
05:25Et puis une dernière chose qui m'est importante, qui m'importe beaucoup, et j'en parle très souvent ici comme ailleurs,
05:33c'est pourquoi, encore une fois, faire un régime d'exception sur le numérique par rapport à la sphère physique.
05:39Le secret de la correspondance, c'est quelque chose qui est inscrit dans le marbre de nos principes constitutionnels, dans le droit civil.
05:48Il ne peut être dérogé que dans des conditions extrêmement strictes. Pourquoi déroger à cela au titre que la correspondance ne serait pas par voie postale mais par voie numérique ?
05:59Oui, parce qu'il faut quand même préciser que là, on ne parle pas de cas d'enquête spécifique.
06:03Ce serait vraiment un scan qui serait fait de manière automatique sur l'ensemble des messageries. Alain ?
06:09Ben non. Moi, j'ai un enfant de 8 ans, donc je suis très content de ça. Après, je ne pense pas que ce soit une bague d'or, si c'est bien fait.
06:16En gros, un truc qui est à l'edge, embarqué, qui ne fait que scanner, comme au niveau du clavier. C'est écrit sur un clavier.
06:21Moi, je suis Apple, je scanne le clavier, je sais tout ce qui se passe. C'est évident. Sur l'iPhone, Apple peut savoir tout ce qui se passe.
06:29D'ailleurs, Siri peut écouter tout ce qui se passe.
06:31Siri, moi, je peux le désactiver, si j'ai pas envie qu'il m'écoute.
06:34Bien sûr. J'entends bien. Mais le clavier, tu en as besoin pour écrire. Et le clavier, c'est une fonction de base de quoi ? De l'iPhone.
06:40Donc, Apple a accès à ça.
06:42Mais ils n'ont pas le droit, au moment de le faire.
06:44Ils ne peuvent pas exploiter tout ce que tu mets sur ton clavier.
06:51Évidemment. On embarque un truc dans le téléphone.
06:55Ça veut dire qu'il est inaccessible du reste. En plus, c'est du deuxième ordre.
06:58C'est-à-dire qu'il ne lit pas ce qui se passe, il regarde si ce qui se passe est compatible avec les modèles qu'il a lui.
07:02Il y a plein de choses qui se font comme ça aujourd'hui.
07:05Aujourd'hui, on sait exécuter des algos sur des données chiffrées sans déchiffrer les données.
07:10On sait le faire.
07:12Les données sont intégrées. Et en fait, que fait l'algo ? Il comprend, en gros, ce qui se passe.
07:17Donc, on ne porte pas atteinte à ce qu'il y a dedans.
07:19On s'assure que ce qu'il y a dedans est plus ou moins conforme à telle ou telle chose.
07:22Donc, un, je pense qu'il faut le faire absolument.
07:25Moi, j'ai un fils de 8 ans.
07:26Pour aller vérifier si un lien mène vers un contenu pédopornographique,
07:29excuse-moi, mais je pense qu'il faut aller accéder au lien.
07:32Oui, mais le lien, d'accord.
07:35Mais le lien, c'est...
07:37C'est pas un détail.
07:39Oui, d'accord.
07:42Mais on pourra encore tourner autour de ça.
07:45Accéder au lien en local, scanner les contenus de ce qui se trouve sur le lien
07:51et avoir un algo qui va avoir des erreurs, forcément, parce que...
07:54De toute façon, je pense que ça va être des algorithmes.
07:56Ça va être géré de manière automatique.
07:58Automatique. Et donc, forcément, il y aura des erreurs.
08:01Mais il y aura un problème.
08:02On va peut-être choper 50 %, mais 50 %, c'est déjà un tel bénéfice.
08:06D'accord. Il y a 50 autres pourcents, en revanche.
08:09Mais oui, on vient de 100 %, on en vient de 50.
08:12Le problème qui se pose, c'est qu'on a toujours une espèce de myopie
08:15qui a été démontrée par tout un tas, d'ailleurs, de travaux empiriques en sciences économiques,
08:20qui est de dire qu'à partir du moment où on maîtrise sous contrôle
08:24certains canaux sur lesquels se diffusent des contenus ou des pratiques jugées illicites ou déviantes,
08:30on va faire disparaître, ipso facto, le contenu ou la pratique déviante ou illicite.
08:36En vrai, c'est jamais comme ça que ça se passe.
08:38On est bien d'accord avec ça, c'est pas ça le sujet.
08:41Mon sujet, c'est plutôt de faire la chasse aux pédos criminels
08:44plutôt que de les empêcher d'utiliser une messagerie scriptée.
08:48L'un n'empêche pas l'autre.
08:49Mettre des bâtons dans les roues, des canaux utilisés par ces gens-là,
08:52les retardent dans leur expansion. C'est tout.
08:55Et de toute façon...
08:56Tu pénalises l'ensemble de la population.
08:58La première réaction de Signal, quelle a été la réaction de la patronne de Signal ?
09:04On va arrêter, en fait, de se soumettre aux règles européennes.
09:08On part de ce marché.
09:10Bon, il y a d'autres moyens pour faire transiter ces contenus.
09:13Moi, j'ai aussi trois enfants, alors ils sont plus âgés,
09:15mais je suis aussi sensible à cette cause qui est absolument horrible.
09:19On est bien d'accord.
09:20Après, moi, j'étais auditeur lié à HEDN,
09:23donc on a vu tous ces sujets de sécurité, etc.
09:25Et tous ces sujets de pédo, ils appellent ça pédo, enfin c'est le cas.
09:30Ils sont principalement sur le dark web, si j'ose dire.
09:32C'est là où il y a des choses...
09:35innombables.
09:37Mais ça, ça va pas régler le problème du dark web, encore une fois.
09:39Et après, moi, je reviens sur ce qui a été dit.
09:41On se dit, OK, on va lutter contre la pédopornographie normale, etc.
09:45Mais après, pourquoi on ne lutterait pas aussi contre, je ne sais pas, la drogue ?
09:49Les gens qui consomment de la drogue, c'est illicite.
09:52Et moi, je trouve que c'est bien de lutter contre ça.
09:55On peut tirer le fil autant qu'on veut, si j'ose dire.
09:58Et encore, si c'est fait par un régime démocratique,
10:01comme en France, etc.
10:03Si c'est fait par des régimes...
10:05J'ai vu que Victor Orban était plus ou moins partant.
10:07Pourquoi pas après les opinions politiques ?
10:09On tire un fil qui est infernal, si j'ose dire.
10:12D'ailleurs, Victor Orban va prendre...
10:14C'est comme si on mettait toutes les communications téléphoniques sur écoute.
10:16Pourquoi pas mettre toutes les communications téléphoniques sur écoute ?
10:18La Hongrie va prendre la présidence de l'Union Européenne.
10:21Ce texte sera évidemment à l'ordre du jour.
10:24Et il sera évidemment rejeté, parce qu'il n'y aura jamais d'unanimité.
10:27On peut craindre, en tout cas, que ce sujet continue d'avancer.
10:30Et puis, encore une fois, un État continue-t-il d'être démocratique
10:34lorsqu'il prend des dispositions
10:36pour pouvoir assurer la surveillance de masse de sa population ?
10:39Un État qui est défiant vis-à-vis de sa population,
10:41pour moi, ne rentre plus dans le champ de la démocratie.
10:43C'est autre chose.
10:45On sort du champ judiciaire,
10:47on sort du champ de l'enquête.
10:49Et on a tellement aujourd'hui de choses à faire dans ce registre
10:53pour lutter contre la pédocriminalité,
10:56que déjà, travaillons sur les outils qu'on a,
11:00qui sont inopérants, qui sont mal coordonnés,
11:03avant d'employer des textes.
11:05Encore une fois, on passe par le plus simple, finalement.
11:08C'est la solution la plus simple, Alain.
11:11Pourquoi on n'écouterait pas toutes les conversations,
11:14dans ce cas, sur téléphone aussi ?
11:16Il y a l'écrit, mais on devrait écouter tout le monde.
11:19Quand on revient sur la communication privée,
11:21il y a quand même une différence entre, j'envoie une lettre, je téléphone,
11:24et je communique sur des messageries,
11:26où je peux faire venir des gens que je ne connais pas.
11:30Un enfant, on peut l'atteindre beaucoup plus facilement sur WhatsApp,
11:33qu'en lui envoyer un courrier, ou qu'en l'apprendre sur son téléphone.
11:36J'ai pas le nom en tête, mais j'entendais ça,
11:38il y a une messagerie qui a été fermée, il y a quelques jours,
11:40qui était aussi un repère, pareil, de gens pas du tout sympathiques,
11:44dans lequel ils attiraient les enfants, avec des messages,
11:47le nom m'échappe pendant la seconde,
11:49mais il a été fermé il y a quelques jours.
11:51Donc il y a aussi d'autres moyens, il n'y a pas uniquement de dire,
11:53on va suivre toutes les conversations sur WhatsApp ou sur Signal.
11:56C'est peut-être les moyens d'enquête.
11:58Encore une fois, la cause est hyper noble,
12:00mais je pense que là, on prendrait une option
12:03qui serait vraiment péjorative pour tout un tas de choses
12:06et qui pourrait être utilisée, étendue,
12:08à des fins beaucoup moins sympathiques.
12:11L'extension, c'est l'extension d'ici le Parlement.
12:14Pourquoi on interdit l'alcool aux moins de 18 ans, à la vente ?
12:18C'est parce qu'il y a des députés qui l'ont dit,
12:21je trouve ça scandaleux, à 15 ans, on devrait pouvoir boire.
12:23C'est parce qu'il y a des députés qui sont élus et qui votent une loi.
12:27C'est eux qui décideront qu'on peut étendre ce truc.
12:31Et si on ne fait que la pédopornographie, faisons que ça.
12:34Et puis si le Parlement décide de faire la drogue, il décidera,
12:36ou la vente d'arbres, ou j'en sais rien.
12:38Encore une fois, parce qu'on est en France et qu'on est dans un régime démocratique,
12:41quid dans autre chose ?
12:43Au-delà de ça, moi je suis contente d'avoir Alain,
12:46parce que je me disais, il faut que je trouve quelqu'un
12:48qui puisse m'expliquer, justifier ce texte,
12:51parce que ça me semble complètement aberrant.
12:54Alain, le problème que ça pose, c'est aussi un problème de sécurité.
12:59C'est-à-dire qu'on fragilise les messageries
13:03en permettant un moyen d'accès de surveillance.
13:06Non, tu dis, chacun fait ses messages,
13:09un algo tourne en parallèle sur les messages avant qu'ils ne soient cryptés,
13:13et c'est un algo...
13:14Non mais comment cet algo, il fait ? Il a bien une porte d'entrée.
13:17Non, il est embarqué.
13:20Aujourd'hui, qu'est-ce qu'une messagerie sécurisée ?
13:23Une messagerie chiffrée de bout en bout,
13:25à laquelle personne ne peut avoir accès, y compris le fournisseur.
13:28Ça reste chiffré de bout en bout.
13:30Personne n'y a accès, jusqu'à la définition reste bonne.
13:32C'est chiffré de bout en bout, personne n'y a accès.
13:34Simplement, le clavier est devenu un clavier un peu intelligent,
13:37qui reconnaît...
13:38Mais pourquoi tu parles de clavier ?
13:40Tu peux parler à ta messagerie...
13:42Ok, d'interface, peu importe.
13:44Donc le téléphone, le moyen de communication qu'est le téléphone,
13:47avant qu'il ne soit chiffré,
13:49est analysé, non pas bout en bout,
13:52mais de manière béjective.
13:54Il est analysé par analogie pour essayer de repérer des schémas
13:57avec toutes les erreurs qu'on pourra trouver.
13:59Donc on ne sera probablement pas totalement efficaces.
14:02Et cet algo qui ne sait pas ce qui se passe,
14:05qui a juste compris s'il y a des choses dangereuses,
14:08lui, il remonte de manière totalement séparée, pas par la messagerie.
14:11Non, mais là, tu es en train de dire...
14:13Tu es en train de dire que c'est un truc un peu anthropomorphique,
14:16qui va vérifier si tu as des comportements de pédocriminels.
14:18Non, ce n'est pas ça que je dis.
14:20Ce n'est pas ça qui est dans le texte.
14:22Je pense que la NSA serait très contente de ce genre de choses.
14:24D'une manière ou d'une autre, elle pourrait mettre la main
14:26sur tous les messages qui sont échangés.
14:28Peut-être qu'Alain, d'ici là, aura inventé une technologie
14:31qui permet d'assurer cette surveillance
14:34sans créer de bac d'or.
14:37Ça existe déjà.
14:39Des algos qui tournent des données encryptées, non déchiffrées.
14:42Et donc les données ne sortent pas.
14:44Au final, ils récupèrent bien de l'information et l'analysent.
14:46Donc ça revient au même.
14:47Pas du tout. Mais non, tu ne connais pas le message.
14:50Tu ne récupères pas.
14:52Le message n'est pas le bon.
14:54Le but, c'est d'arrêter la personne.
14:56Après, ça devient une enquête.
14:58Une enquête sur l'ensemble des messages.
15:00Non, sur les messages dans lesquels on a repéré un problème.
15:03Demain, tu supprimes toutes les voitures des routes.
15:05Tu n'as plus d'accidents routiers.
15:07C'est super, c'est génial.
15:09Mais je ne suis pas sûr que l'économie s'en relève.
15:11On passe à l'autre sujet.
15:13On n'arrivera pas à se mettre d'accord.
15:15Peut-être plus tard.
15:17Sujet d'Alain, d'ailleurs, que tu suggérais.
15:19Avec ses majors de la musique.
15:21Ça y est, il s'attaque aux services qui créent de la musique avec des intelligences artificielles.
15:26C'est extrêmement perturbant.
15:31Puisqu'on est à la limite du plagiat.
15:33On n'a pas le droit de plagier.
15:35On est vraiment à la limite.
15:37C'est vraiment un peu plus que la limite.
15:39Non, le plagiat, c'est des algos.
15:43À la limite, ils analysent un paquet.
15:46C'est de la génération de musique.
15:48C'est de la génération de musique, mais évidemment...
15:50On parle de services de génération de musique par intelligence artificielle.
15:53Mais qui s'appuient sur des modèles.
15:55Tu as du Zouk, tu apprends 12 000 machins de Zouk.
15:57Et honnêtement, qu'est-ce qui ressemble le plus à du Zouk ?
16:00Du Zouk.
16:01Donc, ce n'est pas très compliqué de refaire du Zouk.
16:03Après...
16:04C'est vrai.
16:05D'accord.
16:06Moi, j'ai un fils qui fait du piano.
16:07Il a un truc, il veut faire de la musique machin.
16:09Il fait de la musique machin.
16:10Et très très bien.
16:11Ce n'est pas une IA, mais il le fait très bien.
16:13Il ne la commercialise pas.
16:14C'est la limite.
16:15Donc...
16:16Là, en l'occurrence, ces générateurs de musique, ils sont gratuits.
16:21Si ma mémoire est bonne, je n'en connais pas un qui soit payant.
16:24Donc, c'est un service gratuit.
16:26Donc, ils ne font pas d'argent dessus.
16:27Et qui permet à n'importe qui de s'exprimer.
16:29À date, sous ton contrôle à la bite.
16:33Donc, il permet à tout un chacun de s'exprimer de manière un peu plus agréable.
16:38Moi, je ne sais pas chanter.
16:39Non, mais ce truc me plaît beaucoup.
16:41Parce que je peux me mettre à chanter.
16:42Et la vraie difficulté, c'est comment on protège la création.
16:46Et lire un cran plus loin.
16:47Que doit devenir la création humaine ?
16:49C'est ça le vrai sujet.
16:50C'est pour ça que je mets ça à table.
16:51Et en fait, il faut mettre à jour aussi la question du droit d'auteur.
16:54Et la manière dont il est protégé.
16:56Ou ne pas le mettre à jour, d'ailleurs.
16:58Et peut-être adapter les comportements des entreprises
17:01pour qu'ils soient conformes à notre conception du droit d'auteur.
17:04En tout cas, il y a une question qui va se poser.
17:05Je ne sais pas si mettre à jour le droit d'auteur.
17:06Mais il y a une question qui va se poser sur la rémunération des artistes.
17:10Justement.
17:11Cette histoire est intéressante parce qu'elle a trois niveaux de lecture.
17:13Il y a un niveau économique, un niveau juridique et un niveau éthique.
17:16Sur le niveau économique, on comprend pourquoi les majors sont au vent debout.
17:19Parce qu'en fait, ça attaque à la fois leur capacité à pouvoir amortir leurs coûts.
17:25Parce que c'est eux, finalement, qui ont produit les musiques, les chansons, les samples, etc.
17:31Sur lesquels ces intelligences officielles ont été entraînées.
17:34Et se basent pour faire leur output.
17:36Et puis, ça attaque leur rente.
17:38Parce que la rente du milieu créatif, qu'il soit musical ou d'autres types de création comme cinéma ou littérature.
17:45C'est ça.
17:46C'est un amortissement sur le très long terme.
17:47Sur la base des exploitations, des licences, des copyrights et des droits d'auteur.
17:51Donc, il y a une histoire de gros sous derrière ça.
17:53Comme à l'époque du téléchargement.
17:55Absolument.
17:56Il y a un problème juridique.
17:59Est-ce que la production artificielle, par le biais de ces outils-là, appartient aux développeurs de l'intelligence artificielle ?
18:09Ou est-ce que finalement, c'est une copropriété de l'ensemble des samples,
18:13si tenté qu'on soit capable de l'identifier, ce qui n'est pas sûr sur le plan technique,
18:17de l'ensemble des créateurs qui sont en amont.
18:19A la fois des créateurs, mais également des gens qui les ont financés ces créations-là.
18:22Et puis, sur le plan éthique, est-ce que c'est de la création ?
18:25Est-ce que c'est de la création ?
18:26Ou est-ce que c'est quelque chose de complètement artificiel,
18:29qui n'a d'originalité que parce que c'est complètement synthétique,
18:33mais qui est dénué de toute forme d'intelligence et d'émotion ?
18:36Ça, c'est des vraies questions qu'on va pouvoir se poser dans les prochaines années.
18:39Christian ?
18:40C'est le même problème que celui qu'on connaît toujours sur la presse.
18:44Alors, j'hésite entre le New York Times ou le Washington Post,
18:46mais il y a un des deux qui a porté plainte contre Chad Gipity pour violation des données.
18:51Ça a été prouvé qu'en fait, ils ont attaqué des supports de presse.
18:56Alors, ils ont fini par passer des accords, en fait.
18:58Pas avec tout le monde.
19:00Mais en tout cas, quand ils l'ont fait, ils l'ont fait de manière totalement illicite et sans prévenir.
19:04Il y a eu un coup de pression.
19:05Je ne peux pas les citer, mais il y a des médias français qui ont été piratés.
19:09Il faut dire la même chose.
19:10C'est-à-dire qu'on rentre dedans, on prend l'information et on s'en sert pour l'utiliser à d'autres fins
19:14ou en tirer soi-même profit.
19:15Moi, je ne suis pas juriste, mais globalement, ce n'est pas légal.
19:18Ça pose deux, trois problèmes.
19:20Donc, ce qu'on voit là, c'est la même chose.
19:23Moi, je trouve...
19:24Alors, un, ça prouve quand même qu'on dit toujours « intelligence artificielle ».
19:27C'est toujours important de rappeler que c'est un mot américain.
19:30« Intelligence », ce n'est pas vraiment « intelligence » au sens français.
19:32Donc, ça ne crée pas vraiment quelque chose.
19:34Ça prend des bouts et puis ça les assemble de manière effectivement assez puissante.
19:39Mais ça ne crée pas de nouvelles choses.
19:41Je ne sais pas.
19:42Est-ce que c'est capable de créer un nouveau mode musical ?
19:44Est-ce qu'il serait recréé Mozart au 17e ?
19:47Enfin, je n'en sais rien.
19:49Je pense qu'il faut effectivement...
19:50Alors, c'est normal, c'est le début.
19:52L'IA, telle qu'on la connaît aujourd'hui, générative, est quelque chose de très récent.
19:56Mais il faut arriver à trouver effectivement des...
19:58Je ne vais pas dire des barrières, parce que barrière, c'est négatif.
20:00On a l'impression qu'on freine les choses, etc.
20:02Mais des règles et bloquer les choses.
20:04Et la manière dont ces modèles utilisent aujourd'hui des données qui ne sont pas les leurs
20:08est tout à fait anormale et doit être, comment dire, régulée.
20:12On va dire ça comme ça.
20:13Moi, je pense que vraiment, on est à nouveau dans la même situation que l'arrivée du téléchargement.
20:18Oui, bien sûr.
20:19Ça repose la question de la rémunération et de la redistribution jusqu'au...
20:24Voilà.
20:25Toute la chaîne...
20:26Parce que c'est une longue chaîne d'intervenants.
20:28Mais c'est normal.
20:29C'est les nouvelles technologies.
20:30C'est une question de rémunération, en fait.
20:33Parce qu'aujourd'hui, en Europe, on est en train de réguler en se disant
20:37qu'il va falloir qu'il y ait de la transparence sur les jeux de données qui sont utilisés.
20:41Bon courage.
20:43Mais en fait, on n'a pas adressé cette question de la rémunération.
20:46Et là, je pense que ce n'est que le début avec cette double plainte.
20:50C'est une double plainte qui a été portée par la RIA,
20:53donc qui rassemble l'ensemble...
20:56Avec un niveau de complexité supplémentaire, si tu me permets Delphine,
20:59parce qu'autant sur le téléchargement, d'ailleurs qu'on appelle ça téléchargement,
21:02ou maintenant streaming live, on arrive à identifier finalement toute la chaîne de valeur.
21:07Tous les intervenants de la chaîne de valeur, depuis le producteur qui a engagé ses fonds personnels
21:11jusque à l'interprète, le créateur, les équipes techniques, etc.
21:15Donc quand vous êtes Spotify, vous êtes Deezer, vous êtes Apple Music,
21:19en gros, c'est assez facile d'identifier l'ensemble de l'amont de la chaîne de valeur
21:23et puis de mettre en place une politique commerciale
21:25qui permette de rétribuer les maisons de disques, les interprètes
21:29et l'ensemble des intervenants finalement de la chaîne de valeur.
21:31Dans le cas d'intelligence officielle, on en est très très loin.
21:33Parce qu'en vérité, non seulement il y a une opacité absolument totale
21:38des données qui ont été utilisées pour pouvoir entraîner l'intelligence officielle,
21:42mais surtout l'output qui est un espèce d'amalgame de tout ça.
21:47Sur les intelligences artificielles génératives, puisque c'est de celles dont on parle actuellement,
21:51la plupart des techniciens, des ingénieurs, des data scientists
21:57qui interviennent dans ce monde-là, vous disent qu'ils sont incapables de savoir
22:02comment est-ce qu'on est arrivé, par quel processus technique on est arrivé à l'output.
22:06Bon courage pour identifier la chaîne de valeur.
22:08Le comment n'est pas un problème. Le problème c'est, dans téléchargement,
22:12je sais quel est le contenu que je vais chercher à protéger, là c'est tous les contenus.
22:15Il va falloir rémunérer tout le monde, y compris celui qui publie des vidéos sur Youtube.
22:20J'ai plusieurs vies et donc j'interroge plein d'autres gens régulièrement
22:26et une des solutions qui est proposée déjà en France, ça circule dans les cerveaux du côté de l'Assasem et tout ça,
22:33c'est la copie privée. Tout le monde est taxé, c'est reversé à tout le monde.
22:38On verra si on en arrive là. En tout cas c'est un sujet qui a pris au moins 15 ans à être résolu
22:44et c'est vrai qu'avec l'IA c'est encore plus complexe.
22:47Il y a un côté entonnoir et pas un côté linéaire.
22:49Et ça sera la même chose sur les images aussi.
22:52Absolument.
22:53Oui mais ça l'est déjà.
22:54On essaye de passer au prochain sujet, antitrust, donc aussi on va parler d'intelligence artificielle.
23:01Alors là c'est Julien qui a répondu à Atlantico à la suite d'un entretien du Financial Times avec un avocat antitrust américain.
23:10Milton Kanter.
23:12Exactement, qui estime qu'un examen urgent est nécessaire sur le contrôle de l'intelligence artificielle.
23:17Donc c'est en train de bouger aux Etats-Unis.
23:19Alors ça bouge, ça bouge même très vite et très fortement et ça s'inscrit dans un contexte un peu plus global de revitalisation de l'antitrust au niveau américain.
23:28On le voit avec la nomination de Lina Khan à la Federal Trade Commission ou justement des personnes comme Jonathan Kanter aujourd'hui qui ont des postes stratégiques au niveau du département de justice américain.
23:40Donc qui sont les deux grandes chambres, les grandes autorités de concurrence au niveau américain.
23:45Et là ce qui les inquiète et là où c'est assez intéressant parce que c'est très en avance de phase finalement sur une industrie qui est en train de se construire sous nos yeux qui est celle de l'intelligence artificielle.
23:55C'est que dès à présent en fait ils ont identifié que sur différents maillons de la chaîne de valeur d'intelligence artificielle il commence à y avoir des pratiques qui posent question et des concentrations de pouvoir de marché qui posent réellement question.
24:05Que ce soit au niveau de la puissance de calcul où un acteur comme Nvidia aujourd'hui semble en capacité de pouvoir peut-être avoir une influence décisive sur les prix qui sont pratiqués mais également les volumes qui sont adressés au marché.
24:16Peut-être aussi de façon assez discriminatoire en fonction de la puissance de leur client.
24:19Oui, à qui il fournit en priorité.
24:21Le cloud. Au niveau du cloud on a des hyper scalers aujourd'hui qui prennent des parts de marché qui semblent assez décisives et difficilement contestables et qui étouffent un petit peu des opérateurs cloud plus décentralisés et peut-être un peu moins puissants sur la partie financière.
24:38Et donc ils prennent du retard sur la génération d'infrastructures qui sont compétitives. Je pense évidemment à Microsoft ou Amazon pour ne citer qu'eux.
24:45Puis sur la partie applicative, l'appareil sur certaines formes d'intelligence artificielle, certaines applications, on a des acteurs qui semblent entrer en capacité de pouvoir folklore, essayer de phagocyter un petit peu l'entrée sur le marché ou de pouvoir favoriser leur propre service de façon décisive dans un avenir extrêmement proche.
25:06Et ce d'ailleurs avec des pratiques assez différentes. Prenez Microsoft par exemple qui prend juste 49% de OpenAI. Donc OpenAI c'est JGPT. Donc juste assez pour ne pas être considéré comme le propriétaire légal de JGPT mais en gros qui lui donne à peu près la plénitude de pouvoir exercer son droit sur la propriété intellectuelle de OpenAI et qui lui donne évidemment la capacité de pouvoir décider à peu près de tout ou n'importe quoi sur le conseil d'administration.
25:32Et puis de temps en temps, des startups extrêmement prometteuses qui plutôt que d'être rachetées et de peut-être alerter de façon automatique les autorités de concurrence sur un contrôle de concentration qui serait excessif de pouvoir de marché, en fait on va décider plutôt de récupérer les individus les plus talentueux pour les faire travailler pour soi plutôt que de racheter la startup dans laquelle ils travaillaient.
25:56Mais est-ce qu'on peut imaginer, Julien, que les Etats-Unis décident de s'affaiblir eux-mêmes finalement dans le monde numérique ?
26:02Oui ou non. Mais je vais laisser Christian. Mais je pense que je rebondirai.
26:08On fait toujours la comparaison soit avec AT&T en je ne sais plus quelle année, dans les années 80, ou alors Standard Oil en 1912 ou 13, je ne sais plus, etc.
26:19Mais ce n'est pas comparable. Aujourd'hui, toutes ces technologies, et là on cite l'IA mais il y a tout le reste, il y a la tech d'une manière générale, représentent une arme géostratégique extrêmement importante face notamment à la Chine mais qui est quand même en retard sur ces sujets-là.
26:34Donc je n'imagine pas un seul instant que les Américains prennent des mesures extrêmement dures pour bloquer ça.
26:40Après sur la chaîne de la valeur, c'est vrai et ce n'est pas complètement vrai. Nvidia ne fait que la conception des puces. Il ne les produit pas.
26:48C'est là que se situe la valeur ajoutée.
26:50Et d'ailleurs dans la production, il y a ceux qui font les wafer, il y a ceux qui font les machines qui font les wafer, la fameuse boîte hollandaise.
26:56C'est-à-dire là on a un Européen champion.
26:58Donc quand on regarde vraiment du début jusqu'à la fin, sans partir des minerais ou des choses comme ça, il y a quand même un tas d'acteurs tout à fait différents dans la chaîne de la valeur.
27:06Après, est-ce que les hyperscalers américains ont un poids qui est très sensible, trop sensible ? Je suis assez d'accord avec ce point-là.
27:14Maintenant, il y a un dernier élément auquel moi je suis toujours sensible. Tout ça, qu'est-ce qui est important ? C'est la data qu'on met dedans.
27:19Vous pouvez avoir tout le moteur que vous voulez, la puissance, les calculs, tout ce que vous voudrez encore une fois.
27:23Et on a parlé finalement avec les données, soit de presse, soit de musique, etc. C'est la data que vous mettez dedans.
27:29Et ça là-dessus, les Européens, la France, on a des choses à dire et à faire.
27:33Donc je pense qu'il faut choisir son combat. On ne va pas de toute façon refaire Tchadjipiti.
27:37Alors après, il y aura des successeurs à Tchadjipiti, mais aujourd'hui, ils ont pris de l'avance effectivement.
27:40Ça servira pour le grand public.
27:42Par contre, la data, là, on a un poids et des choses à dire pour défendre nos intérêts d'Européens.
27:4730 secondes pour nous parler du Japon, notre voie possible.
27:51Oui, en fait, au Japon, la commission qu'ils ont créée sur l'IA est la commission la plus large, la plus friendly, laxiste qui soit.
28:02Avec un objectif très clair pour le Japon, c'est d'atterrir tous les développeurs qui sont coincés,
28:06qui en ont marre d'être coincés, que ce soit par les Américains qui vont peut-être faire quelque chose,
28:09par les Européens qui font déjà des choses.
28:11Les Japonais disent, venez chez nous, sentez-vous libres.
28:14Et à juste titre, les Japonais sont le peuple le plus vieillissant de la Terre.
28:18Et clairement, eux, sans l'IA, ils ne vont pas y arriver.
28:20Merci Alain Staron, Artifil, Julien Piyot de l'INSEC et Christian Poyot de Micropole.
28:26C'était Smartech, merci à vous de nous suivre très régulièrement.