• l’année dernière
Mardi 16 mai 2023, SMART TECH reçoit Tariq Krim (Fondateur, Codesouverain.fr) , Nicolas Arpagian (Vice-président, HeadMind Partners) , Éric Le Quellenec (Avocat associé spécialiste du droit du numérique, Simmons & Simmons) et Dr. Luc Julia (Directeur Scientifique du Groupe Renault, Cocréateur de Siri)

Category

🗞
News
Transcription
00:00 [Musique]
00:07 Bonjour à tous. Début avril, le commissaire européen Thierry Breton réalise un déplacement éclair,
00:13 mais ô combien remarqué au Forum international sur la cybersécurité.
00:17 C'est là qu'il a décidé d'annoncer la naissance d'un bouclier européen contre les cyberattaques.
00:23 Alors entre-temps est paru un texte qui précise les contours de ce projet.
00:27 On parle à la une de Smartech, de ce règlement sur la cybersolidarité européenne.
00:34 Ensuite en deuxième partie, on recevra Tariq Krim pour s'interroger sur Google.
00:38 Revient-il dans la course aux IA génératives ?
00:41 On terminera cette édition avec notre regard sur où va le web et le monde des métavers et des NFT.
00:46 Mais d'abord, je vous propose une interview avec le docteur Luc Julia sur l'intelligence artificielle et sa course folle.
00:53 C'est tout de suite dans Smartech.
00:55 [Générique]
01:01 Que des stars aujourd'hui dans Smartech.
01:03 En plateau avec moi, Nicolas Arpadjian, grand expert de la cybersécurité, vice-président de Edmind Partners.
01:10 Eric Lequelenec, avocat associé spécialiste du droit du numérique au sein du cabinet Simons & Simons.
01:16 Vous avez épluché ce Cyber Solidarity Act, ce règlement sur la solidarité cyber européenne
01:24 qui va nous permettre de faire émerger un bouclier contre les cyber-attacks.
01:28 Ça va être notre sujet à tous les trois dans Smartech, dans le Tech Talk, donc grand sujet à la une.
01:34 Mais d'abord, je vous propose que l'on écoute le docteur Luc Julia,
01:37 puisque autour de l'intelligence artificielle se passe une effervescence folle, en l'occurrence autour des IA génératives.
01:43 Le docteur Luc Julia nous fait le plaisir d'être connecté avec nous depuis Palo Alto, en direct de la Silicon Valley.
01:50 Merci beaucoup. Bonjour.
01:52 Bonjour, avec plaisir.
01:53 Alors, je voulais rappeler que vous avez publié un livre qui nous dit "l'intelligence artificielle n'existe pas",
01:59 qui est paru chez First en 2019. Il avait vocation à démystifier l'intelligence artificielle.
02:05 Et je me dis, malheureux aujourd'hui, il est encore plus d'actualité, encore plus nécessaire en 2023
02:12 de tordre le coup à ces fantasmes autour des IA génératives, et en l'occurrence de cette découverte qu'on a faite de l'utilisation de chat GPT.
02:20 Est-ce que, selon vous, chat GPT, c'est une illusion dangereuse ?
02:24 Je ne pense pas que ce soit une illusion. C'est une réalité. Et je ne pense pas non plus que ce soit dangereux en tant que tel.
02:31 Ce qui est dangereux, c'est l'utilisation que nous, on peut en faire.
02:34 Donc, c'est une intelligence artificielle. C'est un outil qui est potentiellement dangereux, comme tous les outils qui sont puissants.
02:40 Comment est-ce que vous voyez le développement de ces IA génératives ? Avec quel regard ?
02:45 D'abord, quand je parlais d'intelligence artificielle qui n'existe pas, ces intelligences artificielles qui n'existent pas,
02:51 ce sont celles que j'appelle de Hollywood, donc celles qu'on fantasme, que ce soit à travers des films comme Her ou Terminator.
03:00 Donc, les IA génératives, c'est une évolution, disons normale, des intelligences artificielles qui se sont vraiment développées dans les 20 dernières années,
03:09 même si ça date des années 50. Et c'est qu'une évolution de ces outils, encore une fois puissants.
03:15 La bonne nouvelle, si vous voulez, dans la définition même des IA génératives, c'est qu'on les a appelées IA génératives et pas IA créatives.
03:25 Donc, du coup, il faut bien comprendre qu'il n'y a pas de créativité dans ces IA. La créativité reste du côté de l'humain.
03:31 Et l'humain va les utiliser pour créer des choses, pour générer des choses que lui, il va décider.
03:38 Donc, encore une fois, outil puissant, mais j'aime bien comparer un outil comme celui-là à un marteau dont on tient le manche.
03:47 Alors, vous êtes à l'origine de quelques brevets majeurs qui ont permis la naissance de Siri.
03:52 Vous avez dirigé les équipes de Siri chez Apple. Vous vous situez où dans ce débat sur moratoire ou pas moratoire sur l'intelligence artificielle ?
04:03 Évidemment pas moratoire, c'est une stupidité. C'est impossible de décider un moratoire comme ça.
04:11 Et quand on voit les signataires, et en l'occurrence le second signataire de ce moratoire, Elon Musk, ça fait un peu sourire.
04:17 Parce que quelques jours auparavant, il créait sa propre boîte d'IA générative. Et donc, ça sentait quand même un peu comme « les gars, attendez, donnez-moi 6 mois pour vous rattraper ».
04:28 Oui, mais on trouve aussi Joshua Benjo quand même dans les signataires.
04:31 Et Joshua, je crois, est en train de se retourner un peu et de se dire qu'il n'aurait peut-être pas dû signer.
04:38 Ah, bon. Alors, Yann Lequin, qui est dans une position proche de la vôtre, en tout cas de ce que j'entends tout de suite, nous dit « dans 5 ans, de toute façon, on n'entendra plus parler de chat GPT et de ce modèle d'IA générative ».
04:51 Vous êtes d'accord aussi là-dessus ?
04:53 Je pense qu'il va y avoir une évolution. Vous savez, on est dans les courbes de Gardner, qui sont les courbes de hype.
04:58 Donc, on est en train de monter dans le hype beaucoup. Ce hype va redescendre à cause de problèmes que vont poser ces IAs génératives.
05:05 Il y a deux problèmes majeurs. Un problème de copyright, parce que les données utilisées ne sont peut-être pas exactement des données qui ont été consenties.
05:13 Et le deuxième problème, ça va être le problème de ce qu'ils appellent les hallucinations, où on va se rendre compte quand même que ce n'est pas très pertinent.
05:21 Il faut comprendre que chat GPT aujourd'hui est pertinent seulement à 64%. Alors, on peut considérer que c'est beaucoup, mais on peut considérer aussi que 36% d'erreurs et 36% de bêtises, c'est quand même beaucoup.
05:32 Donc, pas d'illusion, mais plutôt une hallucination. Qu'en est-il de l'impact sur l'emploi ? On parle beaucoup, on se dit « ça y est, cette automatisation des tâches ne touche plus seulement à un type d'activité, mais l'ensemble finalement des métiers occupés par les humains ».
05:50 Alors, plutôt que de métiers, je vais parler de tâches. Donc, il y a effectivement beaucoup de tâches qui peuvent être automatisées grâce à des césillages génératifs.
05:58 Mais vous savez, quand on va utiliser ces outils, il faut créer d'autres tâches qui sont les tâches justement de l'utilisation de ces outils.
06:05 Alors, évidemment, elles sont compensées. Ça veut dire que si on utilise un outil, par définition, il est utile. C'est-à-dire que ça va permettre de réduire le temps des tâches.
06:13 Mais ça veut dire aussi qu'on va pouvoir se concentrer certainement sur des tâches beaucoup plus humaines, qui sont des tâches dans le même métier, mais qui vont être vraiment la valeur ajoutée de ce métier.
06:23 Donc, je pense qu'il y a une évolution dans les métiers et dans les tâches qui sont effectuées. C'est pour ça que moi, j'aime bien parler, quand on parle d'IA, d'intelligence augmentée,
06:32 parce que c'est notre intelligence qui est augmentée par ces outils et qui nous permet de faire mieux notre travail en utilisant ces outils, mais en gardant les tâches qui sont, encore une fois, la valeur ajoutée,
06:42 qui sont les plus gratifiantes.
06:45 Alors, j'avais aussi envie de vous faire réagir sur les deux stratégies assez différentes d'OpenAI et de Google. Donc, Google, qui a tenu une grande conférence,
06:54 sa conférence annuelle, pour nous annoncer qu'il mettait de l'IA partout, pas seulement en back-office, mais en front-office. Pour autant, Google a choisi de réserver
07:04 certaines de ses technologies de pointe à des partenaires privilégiés, là où OpenAI a tout de suite permis à tout un chacun de tester ses IA génératives.
07:13 Comment est-ce que vous percevez ces deux stratégies et quelle est, selon vous, la meilleure ?
07:19 Bon, moi, je ne vais pas commenter, en fait, les stratégies parce que je ne suis pas un stratège, mais ce qui est sûr, c'est que Google a cette technologie depuis 2017, d'accord ?
07:28 Parce que c'est eux qui sont à l'origine de ces IA génératives. Et donc, ils avaient fait le choix de ne pas montrer, de ne pas utiliser encore parce qu'ils savaient très bien,
07:35 justement, que la pertinence n'était peut-être pas encore au rendez-vous. Ils ont été un peu poussés par OpenAI, qui a décidé en novembre dernier de montrer et de,
07:43 effectivement, ouvrir à tout le monde. Donc, c'est eux qui ont popularisé ça à travers une interface qui est le chat, qui permet à tout le monde de l'utiliser.
07:52 Et cette stratégie de push, on va dire, qui a poussé ça à tout le monde, est pour moi quand même assez dangereuse parce qu'on voit, justement, ces hallucinations
08:04 et le fait que ces IA sont quand même très peu pertinentes pour des choses assez génériques, comme par exemple dans un search engine.
08:14 Donc, personnellement, j'aurais fait un peu comme Google. C'est-à-dire que j'aurais attendu pour essayer de limiter et d'avoir un scope beaucoup plus étroit.
08:27 Je ne sais plus comment on dit scope en français. Je suis désolé. Donc, d'avoir des domaines beaucoup plus étroits d'application.
08:35 – Et vous êtes, je ne l'ai pas précisé, vous êtes l'actuel directeur scientifique chez Renault, au groupe Renault, en charge des projets spéciaux et innovants.
08:44 Est-ce qu'il y a une utilité des IA génératives chez Renault dans l'automobile en ce moment ?
08:50 – Bien sûr. Vous pouvez réfléchir à tous les niveaux, que ce soit au niveau du design, où vous pouvez avoir des aides.
08:57 Encore une fois, il faut considérer ces outils comme des aides au design, par exemple. Vous avez une idée.
09:02 Vous pouvez, grâce à ces IA génératives, en avoir plusieurs versions. Et puis, vous, vous allez choisir et vous allez itérer sur ces versions.
09:11 Donc, on peut imaginer ça en design. On peut imaginer ça aussi dans la voiture elle-même, quand vous allez avoir des assistants qui vont être beaucoup plus…
09:18 qui vont avoir des réponses un peu plus différentes et donc, du coup, qui vont avoir l'air beaucoup plus humaines.
09:24 Donc, ces IA génératives, on peut vraiment les utiliser dans n'importe quel domaine, que ce soit pour générer des images, que ce soit pour générer des textes ou de l'audio.
09:33 C'est vraiment des outils très, très puissants, encore une fois.
09:37 – Est-ce qu'on pourrait avoir des projets, des annonces qui vont arriver bientôt sur ce sujet ?
09:43 – Oui, je pense. Je ne sais pas s'il y aura des annonces vraiment.
09:47 Mais bien sûr, dans les mois qui viennent, on verra le résultat de l'utilisation de ces IA génératives dans les divers domaines de l'automobile en général.
10:00 – Bon. Alors, je voulais aussi vous interroger, parce que vous êtes également en charge de la Software République,
10:05 qui regroupe des grandes entreprises industrielles et technologiques, avec cette volonté de bâtir un écosystème ouvert d'open innovation pour la mobilité de demain.
10:15 Il y a cette question du modèle, justement, sur l'IA.
10:21 Diane Lequin, encore une fois, lors d'une interview à Ousbek et Erika, nous dit que le modèle du futur, c'est le modèle de l'open innovation, de l'innovation ouverte.
10:31 Là où d'autres ont choisi un modèle fermé, quel est votre regard là-dessus ?
10:36 Est-ce que l'Europe peut prendre des places sur ces IA génératives et les IA de demain en choisissant un modèle open source ouvert ?
10:45 – Oui. Alors, je pense que le modèle ouvert est important, ne serait-ce que pour la confiance.
10:49 Donc, ce que dit Diane est tout à fait correct. C'est-à-dire que pour faire confiance à quelque chose, il faut que la boîte soit transparente.
10:55 Et donc, du coup, les boîtes noires ne sont pas acceptables.
10:59 Et il va falloir effectivement que ces modèles soient beaucoup plus ouverts afin qu'on comprenne les données.
11:03 Le problème, c'est qu'il y a effectivement énormément de données.
11:06 Quand on parle de chat GPT, par exemple, on parle de 175 milliards de paramètres.
11:10 Donc, on ne va pas les vérifier un à un. Ce serait stupide et surtout impossible.
11:14 Mais ceci dit, si on a des modèles ouverts, et surtout au niveau des algorithmes,
11:20 donc des algorithmes qui vont travailler sur ces données, c'est effectivement quelque chose qui sera beaucoup plus acceptable et accepté, pour ne pas dire vérifiable.
11:30 Maintenant, l'Europe en général est en avance, on va dire, sur tout ce qui est régulation.
11:36 Donc, je n'ai pas de doute que l'Europe va nous pondre des régulations.
11:41 Il y a d'ailleurs l'IA Act qui est en cours, qui est en train d'être modifiée pour prendre en compte ces IAs génératives.
11:48 Pour ce qui est de l'avance potentielle, quand on parle souvent d'IA, on dit que les Chinois et les Américains sont beaucoup plus en avance sur nous.
11:56 Moi, j'ai tendance à dire que ce n'est pas vraiment le cas. Étant donné que vous parliez de Diane Lequin,
12:03 quand on voit un peu les chefs d'IA ici dans la Silicon Valley, il y a quand même beaucoup de Français.
12:09 Donc, ça veut dire qu'on est quand même assez fort en général parce qu'on est fort en mathématiques.
12:14 Et donc, je pense qu'il n'y a pas de problème scientifique pour développer en Europe des IAs.
12:21 Et d'ailleurs, il y en a quelques-unes comme Bloom, par exemple, qui est ouverte et qui est européenne.
12:27 Donc, on peut en avoir. Il va falloir les comprendre déjà, comprendre comment ça marche et comprendre ce qu'elles sont les limites.
12:34 Ce dont on a parlé un peu avant. Et à partir du moment où on va comprendre ça, je pense qu'on va pouvoir faire des IAs,
12:41 créer des IAs qui seront beaucoup plus de confiance.
12:45 Alors, il y a quand même une dernière question. Le temps passe, messieurs. On va parler du bouclier cyber-européen.
12:51 Mais tant que j'ai lu que Julia, je voulais poser cette question également.
12:54 Google a décidé de ne pas rendre disponible BARD tout de suite en Europe pour des questions justement de règlement sur la protection des données personnelles.
13:05 Est-ce qu'on risque d'être un peu le tiers monde des technos au demain en Europe ?
13:09 Encore une fois, je ne pense pas parce que je pense que quand on aura compris et quand on aura fait un peu le tri de ce qui est acceptable ou pas,
13:17 on a vu le gouvernement italien, par exemple, il y a quelques temps, avait interdit le chat GPT justement pour ces problèmes de données personnelles.
13:23 Donc, une fois qu'on va accepter, qu'on va comprendre l'outil et qu'on va mettre un petit drapeau en disant faites attention à prévenir les gens,
13:32 de montrer quels sont les dangers potentiels, on va pouvoir après utiliser ces IA d'une manière correcte et que ce soit en Europe, en Inde ou ailleurs.
13:43 Merci beaucoup, docteur Luc Julia, directeur scientifique du groupe Renault, co-créateur de Ciri d'avoir été avec nous dans Smartech.
13:50 On vous laisse vous reposer en Silicon Valley où il est bien tard ce soir pour vous.
13:54 Merci encore aussi à vous deux, Nicolas Arpagian, Eric Lequelinet d'avoir patienté pour notre talk sur le futur bouclier cyber-européen.
14:01 C'est tout de suite.
14:02 Alors, le Cyber Solidarity Act, donc ce règlement sur la cyber-solidarité et le texte qui précise comment l'Europe va se protéger de main contre les cyber-attaques.
14:19 Quels sont véritablement les contours de ce bouclier cyber-européen qui a été annoncé par le commissaire Thierry Breton au Forum international de la cybersécurité tout début avril ?
14:29 En quoi ça va consister ? Comment ça va se mettre en place ? Quelles sont les conditions pour que ce soit véritablement efficace ?
14:33 Est-ce qu'on a les moyens aussi de nos ambitions en Europe ? On en parle avec Eric Lequelinet, qu'avocat associé spécialiste du droit numérique au sein du cabinet Simons & Simons.
14:42 Vous vous êtes penché donc avec acuité sur ce dossier spécifique. On compte sur vous pour tout nous expliquer.
14:47 Nicolas Arpagian, expert cyber si il en est, membre du conseil d'orientation de l'Institut Diderot, conseiller du centre d'études et de prospectives stratégiques.
14:57 Vous êtes auteur d'une quinzaine d'ouvrages, je ne vais pas tous les citer, mais on peut dire par exemple "Que sais-je" sur la cybersécurité.
15:03 Et vous êtes le vice-président de Edminds Partners, qui est un spécialiste en conseil en cyber.
15:09 Alors la clé de ce bouclier, si j'ai bien compris, c'est quand même la coopération entre les États membres, une coordination, collaboration, qui ne semble pas évidente.
15:20 Qu'est-ce qui bloque sur ce sujet, Nicolas ?
15:25 Alors déjà, vous avez parlé de solidarité. Donc vous voyez qu'on n'est pas sur un langage guerrier, on est ni sur un langage économique,
15:36 on est sur l'assistance, la collaboration en cas de problème, en cas de crise, en cas d'attaque.
15:41 Donc c'est déjà une posture qui n'est peu, qui est peu, justement, offensive.
15:46 La deuxième chose, c'est que lorsqu'on va parler de cyber, il y a trois dimensions.
15:49 Il va falloir de la technologie, il va falloir du droit et il va falloir des femmes et des hommes.
15:55 Et la difficulté, c'est que les États membres ont des lacunes ou des pénuries ou des tensions sur au moins deux de ces composantes,
16:03 c'est-à-dire les technologies et les femmes et les hommes, avec la tête bien faite, pour traiter ces sujets-là.
16:08 Donc effectivement, c'est là où on va envisager la solution.
16:11 Mais les technologies, elles existent ? On peut utiliser des technologies étrangères ou pas ?
16:14 Alors, on peut toujours. La seule chose, c'est qu'il faut les maîtriser et donc s'assurer de la confiance, c'est le terme qu'on a évoqué jusqu'à présent.
16:20 Et donc, on voit bien que c'est un sujet d'interrogation avec la thématique de la souveraineté,
16:24 qui est un sujet qui monte et anime la problématique de cybersécurité.
16:29 Et donc, il va falloir prendre en compte ces trois dimensions.
16:32 La seule chose, c'est que comme il y a une tension, il y a une pénurie, on essaye de se positionner dans cet environnement qui est potentiellement hostile.
16:40 Et c'est la raison pour laquelle on mise sur la solidarité, en disant un peu comme mutualiser les casernes de pompiers,
16:46 faire en sorte que tout le monde n'a pas les ressources, les expertises, les équipements.
16:50 Si on mise sur la solidarité, avec l'espérance que l'une attaque surviendra à un endroit et pas sur des multiples foyers qui, effectivement, seraient d'autant plus dommageables.
17:00 Je crois aussi que du point de vue de la composition de l'Union européenne et de ses membres, est-ce qu'il y a vraiment une confiance totale dans tous ses membres, en manière géopolitique ?
17:12 Ce qui rejoint aussi la construction d'une défense européenne, c'est ce qui a conduit, en tous les cas, certains États à se montrer frileux, y compris dans l'échange et le partage d'informations.
17:21 Et notamment pour ces questions de souveraineté, non pas européenne, mais il y a aussi la question de la souveraineté nationale, quand on parle de défense.
17:28 En fait, la souveraineté s'apprécie dans la compréhension d'un certain nombre de gouvernements comme étant des nationalités juxtaposées.
17:35 C'est-à-dire qu'il n'y a pas un État fédéral américain, pardon, états-unien, là-dessus c'est important, parce qu'effectivement, il parle d'une seule voix, avec un seul droit et avec un pouvoir de police, d'ailleurs, éventuellement, ou de sécurité à l'échelle d'un territoire unique.
17:49 Là, on a des États, et on le voit avec le sommet Choose France, c'est pas Choose EU, c'est Choose France, et vous pouvez imaginer que le chancelier Olaf Scholz va faire l'équivalent sur la République fédérale,
18:02 et que, effectivement, Mme Mélanie sur l'Italie, et que les Espagnols seraient intéressés par attirer ces mêmes entreprises qui entretiennent et valorisent cette rivalité, cette concurrence entre les États membres.
18:15 Donc c'est vrai que le problème de la sécurité s'aborde de manière solidaire en cas de crise, c'est-à-dire celle qui resserre les liens, fait en sorte que, effectivement, un peu comme quand il y a un grand feu de forêt dans une zone du sud de l'Espagne, et que donc on fait en sorte d'apporter l'assistance, mais on apprécie des ressources nationalement pour se protéger et passer à l'offensive.
18:34 C'est comment on sort de simplement l'élan de solidarité pour en créer une véritable doctrine au sein de l'Union européenne. Quels sont les grands principes de ce bouclier ?
18:43 Le premier principe, c'est déjà de construire une intelligence à l'échelle de l'Union européenne afin d'avoir une autonomie stratégique sur la menace cyber, de sorte qu'on puisse avoir une force de détection, grâce justement à l'intelligence artificielle notamment, qui soit quasi instantanée entre le "zero-day threat", donc la détection en réalité d'une menace, et les premiers effets négatifs et les conséquences sur un système d'information, on dit qu'il s'écoule 190 jours.
19:11 Il s'agit évidemment de réduire ce temps d'analyse et de détection. Et puis il s'agit ensuite d'être prêt et d'avoir finalement une réserve qui puisse agir très concrètement pour partager les grandes remédiations entre parties prenantes et utilisateurs des systèmes d'information.
19:29 Parce que vous dites réserve, on n'a pas de cyber armée européenne, on est d'accord avec ce bouclier européen ?
19:35 Non du tout, simplement le terme de réserve ne doit pas être pris dans l'acceptation que nous en avons, nous français par exemple, de personnes qui ont une activité civile, vous pouvez être dentiste, boucher, journaliste, avocat, et par ailleurs être réserviste, que ce soit pour être pompier, gendarme, policier ou éventuellement militaire.
19:53 Le texte européen évoque une cyber réserve, par contre quand vous rentrez dans le détail et que vous dites "mais est-ce que ce sont des citoyens qui auraient une activité civile et qui viendraient en accessoire ?" on vous dit non, ce sont des prestataires à l'occasion de marchés qui auront été passés.
20:07 Donc le terme de réserve ne doit pas être conçu comme étant un acte spontané, volontaire, gracieux de quelqu'un qui mettrait à disposition son temps, son expertise au profit de la collectivité.
20:16 On est quand même dans la mise à disposition de personnel à l'occasion d'appels d'offres, avec la question de la disponibilité de ces personnes.
20:23 - Donc c'est une cyber armée qui dit pas son nom ?
20:24 - Non, de prestataires, parce que là on est dans une appréciation civile et pas du tout avec une qualification militaire, même si ça peut être un environnement concerné par les cyber attaques.
20:33 Mais c'est vrai que ce qui va être intéressant c'est aussi la créativité administrative, puisqu'on a la commission, évidemment, on a, rappelons-le, l'ENISA, l'agence nationale de sécurité qui est basée à Athènes et à Héracléone, en Crète.
20:47 Et début mai a été créé à Bucharest un centre cyber de compétences pour faire en sorte de faire de la formation.
20:53 Donc vous voyez on a une géographie de la cyber qui s'installe mais un peu en décalé du trio habituel qu'est Bruxelles, Luxembourg et Strasbourg.
21:02 Donc on rajoute une géographie, c'est peut-être un vecteur de complexité, ça on va voir, mais là aussi fondé sur la coopération et l'abondement par les Etats.
21:12 Parce qu'un budget a été alloué, mais il est en partie, à peu près un milliard pour la période 2023-2027, à peu plus d'un milliard, deux tiers payés par la commission, le troisième tiers en principe abondé par les Etats membres.
21:25 Donc vous voyez qu'il va falloir aussi faire cette quête budgétaire, tout le monde est d'accord, mais on a cette période 2023-2027 à couvrir.
21:33 Voilà, il faut être sûr que ça aille jusqu'au bout et qu'on ait formé les personnels, qu'on les ait trouvés et qu'ils soient au niveau et qu'ils soient capables de travailler ensemble.
21:41 Et alors un peu plus d'un milliard, on a les moyens de nos ambitions ?
21:44 Alors par rapport à la LOPMI ou au niveau national, on a dégagé 8 milliards pour justement la lutte contre la cybercriminalité.
21:52 Oui, en comparaison, ça paraît bien faible, mais ce qu'il faut bien comprendre, c'est qu'on est sur une logique de partenariat public-privé grâce au Cyber Solidarity Act.
22:01 Donc en réalité, ce seront beaucoup plus de moyens qui seront déployés, ce d'autant plus qu'il y aura un mécanisme de certification justement par rapport aux acteurs de cette cyber défense,
22:12 qui vont être également donc un élément fort de motivation et d'engagement des ressources à plusieurs échelles, publiques et privées.
22:22 Je pense qu'en tous les cas, c'est une formule assez originale pour pouvoir être efficace.
22:26 Après, il faut être capable de l'orchestrer, parce que là, on parle d'orchestrer quelque chose à un niveau européen avec plusieurs entités qui entrent en jeu, du public, du privé.
22:35 Qui va être le chef d'orchestre ?
22:37 Alors, la procédure telle qu'elle est inscrite, alors pour l'instant, vous savez, c'est la théorie. Il y a un vieux principe militaire qu'on dit que la première victime dans la guerre, c'est le plan.
22:45 C'est-à-dire qu'on avait fait des plans et puis c'est la première victime du conflit.
22:48 En fait, l'idée, c'est qu'un État exigeant, c'est-à-dire que ses ressources internes ne suffiraient pas à traiter la crise cyber auquel il est confronté, solliciterait la commission.
22:58 La commission s'engage à traiter, à instruire le dossier rapidement, on peut l'envisager, et à ce moment-là, donnant mission à l'ENISA ou éventuellement aux autres centres européens de supervision,
23:12 donc les SOC, Security Operations Center, c'est-à-dire des lieux d'analyse, de supervision, de détection de la menace, qui existent déjà,
23:19 puisqu'il y a ce maillage de SOC, donc de centres de supervision, qui doivent être soit créés, soit exploités des centres existants préalablement à l'échelon national,
23:28 comme c'est le cas en France avec l'Agence Nationale de Sécurité, c'est le cas avec son homologue allemand, le BSI, et ainsi dans les pays européens.
23:35 C'est plus qu'un point de contact, c'est vraiment l'autorité nationale en charge de la cybersécurité et qui a vocation à interagir.
23:41 Mais donc le protocole, c'est on va frapper à la porte de la Commission, qui instruit, qui redescend vers les instances, soit nationales, soit pour venir en aide, soit éventuellement à cet échelon européen.
23:51 Raconté comme ça, on se dit, ça va peut-être prendre un petit peu de temps, quoi, pour une réponse rapide.
23:56 Alors, dans le communiqué initial, il est mis des adverbes qui précisent que ce sera fait sans délai, avec diligence.
24:03 On est dans une logique coopérative, c'est certain.
24:05 Ce que moi, j'ai du mal à comprendre, c'est que des SOC, donc des centres opérationnels, on en a a priori dans tous les pays aujourd'hui.
24:11 Donc pourquoi la nécessité de parler de la création de nouveaux SOC sur le territoire européen ?
24:17 Il manquait justement, c'était un partage entre États européens à cause des réticences dont j'ai déjà pu parler et pour lequel, de toute façon, dans le texte,
24:25 il y aura une obligation pour chaque SOC national de participer justement à un des cinq ou six SOC européens.
24:32 On n'a pas encore le chiffre très précisément, mais c'est ça qui va être en tous les cas un "game changer", comme on le dit, par rapport à ce texte.
24:40 Et de faire monter le niveau, parce que le problème, c'est qu'il faut garder à l'esprit que les agences nationales de sécurité sont des recruteurs,
24:47 entre guillemets, comme les autres, sur ce marché très tendu de la cyber.
24:50 Il y a des tensions, pourquoi ? Parce que les grands utilisateurs finaux, les grands groupes, sont des recruteurs.
24:55 Les fournisseurs de services sont des recruteurs.
24:57 Les administrations militaires de l'État sont des recruteurs.
24:59 Également les administrations civiles et également, il faut quand même le savoir, le monde criminel.
25:03 Et donc, effectivement, il va falloir renforcer des agences nationales qui, même si elles existent sur le papier,
25:09 ne sont pas forcément en mesure de compléter l'ensemble des postes disponibles et d'avoir à la fois en nombre et en expertise
25:16 les personnalités qui peuvent composer cette ressource.
25:19 Sachant en plus que, effectivement, et c'est ce qu'on évoquait avec le maître Leclerc-Lennex,
25:23 ce qui est de dire que les États sont... Alors, garde à l'esprit que leurs adversaires peuvent être également les autres États membres.
25:30 On a eu des cas, pas si éloignés que cela, de pays européens s'espionnant les uns les autres.
25:35 Donc, on voit que la notion d'unité, elle peut être discutée. Pourquoi ?
25:39 Parce que les États membres sont concurrents d'un point de vue fiscal, social, économique et diplomatique, scientifique.
25:46 Et donc, évidemment, veulent aussi préserver cette singularité dans le domaine de la souveraineté et de l'exercice de leur autorité.
25:53 Qu'est-ce qui vous semble essentiel pour que l'ensemble de ce dispositif, pour que ce bouclier européen, soit vraiment opérationnel ?
26:01 Moi, ce que je pense, c'est une mobilisation et un état, effectivement, de préparation.
26:07 C'est dans le texte qu'il soit partagé de tous pour vraiment agir de la manière la plus efficace et coordonnée qu'il soit.
26:14 Donc, on le voit déjà, on a cité certains des organes de gouvernance.
26:18 Grosso modo, l'ESSOC, ce sera l'ENISA, en lien avec le 3C.
26:24 Grosso modo, effectivement, sur la mobilisation des réserves, on voit aussi, il y aura potentiellement un lien avec les groupes cyber, cette fois-là, liés aux États-majors.
26:34 Donc, je pense que par rapport à une menace, on ne l'a pas dit, plus de 140 % depuis le début du conflit ukrainien.
26:40 Eh bien, je pense que réellement, on a la nécessité de rentrer dans le concret et nécessiter Félox.
26:46 Oui, parce qu'on n'a pas vu arriver la cyberguerre dont on nous parlait au moment du déclenchement du conflit par la Russie en Ukraine.
26:55 Mais on a vu les cyberattaques croître de manière importante.
27:00 C'est à ce moment-là, d'ailleurs, qu'est née l'idée de créer ce bouclier cyber.
27:03 Ça a pris un an pour arriver à la rédaction du projet.
27:07 Tout ce temps long joue contre nous.
27:10 Alors, c'est long et il faut quand même concevoir que pour une organisation internationale qui produit du droit, qui produit de la norme, c'est au final assez court.
27:18 Parce qu'il va falloir, chaque, rappelez-vous, que quand même les gouvernements ont leurs agendas électoraux.
27:22 Ils ont à gérer une crise sanitaire, en tout cas pour un certain nombre d'entre eux.
27:25 Ils ont des problématiques liées à des plans environnementaux.
27:28 Il y a aussi d'autres chantiers mobilisateurs.
27:30 Donc, il faut aussi pouvoir le faire.
27:32 C'est long à l'échelle cyber, mais c'est rapide à l'échelle européenne.
27:34 Voilà, en tout cas, institutionnel.
27:35 Je pense que par rapport à votre question de la concrétisation, il va falloir passer, à ce que les militaires connaissent dans les exercices opérationnels,
27:43 qui sont de passer à des, justement, il faut tester le modèle grandeur nature.
27:47 C'est-à-dire que comment est-ce que c'est primordial, au-delà du plan théorique, conceptuel, de dire très bien on va faire un exercice en commun.
27:54 Voir est-ce que nos systèmes de communication sont interopérables.
27:58 Est-ce que nous savons déjà qui joindre dans les instances et équivalents.
28:02 Quels sont, lorsque la crise s'installe et dure, ou éventuellement s'étend à d'autres domaines de l'économie.
28:07 Comment est-ce qu'on agit.
28:09 Comment est-ce qu'on fait pour assurer la rotation des personnels.
28:11 Faire en sorte qu'on est toujours des gens qui soient disponibles, compétents.
28:15 Et faire en sorte qu'il y ait cette confrontation avec le réel.
28:20 Cet exercice va être bienvenu.
28:22 Alors, on a déjà fait des, la BCE, la Banque Centrale Européenne, procède à ce type d'examen, de test auprès des banques.
28:28 On a des exercices, des stress tests.
28:30 On a des exercices dans différents environnements.
28:32 Ça, ce sera l'épreuve du feu pour justement voir, est-ce que quand on compose un numéro, parce qu'il y a quelqu'un qui est proche.
28:38 Mais là, il y a eu une grande opération d'ailleurs, l'opération Orion, qui était organisée en France.
28:42 Où on a fait intervenir aussi des forces européennes.
28:45 Bien sûr. En fait, il faut démontrer la réalité de quels sont les points de contact.
28:50 Est-ce qu'ils sont réactifs ? Est-ce qu'on peut mobiliser ?
28:54 Est-ce qu'on ne tombe pas sur des problèmes logistiques ?
28:56 C'est-à-dire, quelquefois, pour faire accéder des personnels à certains sites.
29:00 Est-ce qu'on a bien tous les numéros de téléphone ?
29:02 Est-ce qu'on a des équipements de secours ?
29:05 Comment on fait quand les gens ne peuvent pas physiquement se déplacer ?
29:08 Évidemment, toutes ces circonstances qui viennent aggraver, amplifier une situation de crise.
29:13 Donc là, on a la théorie, on a la recette de cuisine.
29:16 Elle est bien accueillie par les professionnels que vous fréquentez depuis de longues, nombreuses années.
29:21 Alors, il y a cette annonce d'argent public, il y a cette annonce d'argent.
29:24 Il ne faut pas le fantasmer, parce que souvent, le chiffre du milliard,
29:27 et la France a pêché un peu par cet exercice de temps en temps d'annoncer un milliard pour la cyber,
29:31 bon, après, il faut voir, c'est sur une certaine durée,
29:34 on a vu qu'il y avait a priori deux tiers qui étaient financés.
29:36 Quel va être le guichet ? Quelle va être la procédure ?
29:39 En tout cas, ce qui est certain, c'est qu'il y a une dynamique.
29:41 Il y a une volonté de dire, voilà, coopérons, échangeons.
29:45 Donc ça, c'est bienvenu.
29:46 Et la France est plutôt volontaire ?
29:48 La France et l'Allemagne sont incontestablement dans la politique cyber,
29:51 que ce soit pour le RGPD, le Règlement Général sur la Protection des Données,
29:54 la directive NIS, celle qui désigne les opérateurs d'importance vitale,
29:58 les infrastructures critiques qui structurent le pays,
30:00 et sa deuxième version, NIS2, qui est en cours de transposition.
30:05 La France, l'Allemagne sont très à la manœuvre.
30:07 Pourquoi ? Parce que ce sont les pays qui ont les deux plus grosses agences nationales,
30:11 mais c'est aussi ces deux pays qui ont fait en sorte que l'échelon européen existe, certes,
30:15 mais ne soit pas, comment dire, supra-autoritaire, et que, effectivement...
30:19 Ne soit pas cannibalisé.
30:21 Voilà, et que le pouvoir national soit vigilant à cet égard.
30:23 D'un point de vue juridique, est-ce qu'il y a des choses qui peuvent faire capoter ce projet ?
30:29 Qu'est-ce que vous auriez aimé voir dans le texte ?
30:32 Alors, on est sur un règlement européen.
30:34 Donc, de ce point de vue-là, on est clairement sur un acte
30:37 qui va s'appliquer directement dans les législations des États membres.
30:42 En revanche, si on a déjà évoqué les quelques faiblesses sur l'aspect purement militaire,
30:48 même s'il y aura des partages d'informations et une certaine coordination,
30:51 c'est sur le volet pénal qu'on n'a malheureusement pas de concret dans le Cyber Solidarity Act.
30:57 Or, il faut des moyens qui doivent être également coordonnés pour lutter contre les cyberpirates.
31:04 En réalité...
31:05 C'est-à-dire une réponse pénale pan-européenne.
31:07 Et oui, avec notamment ce qu'on appelle des prosécuteurs, des procureurs,
31:11 qui puissent agir sur le ressort des 27 États.
31:14 Nous avons un outil extrêmement efficace et qui en fait réellement la démonstration,
31:18 c'est le parquet européen, mais qui n'a comme compétence que, en gros,
31:22 la protection des subsides et des fonds européens et de lutte contre leur détournement.
31:28 Malheureusement, dans le Cyber Solidarity Act, il y a juste une petite phrase qui dit
31:32 "Et oui, évidemment, les informations qu'on collecte peuvent être transmises au parquet national".
31:36 Et je crois qu'on vient de faire là un joli cadeau aux pirates,
31:39 puisque manifestement, il n'y aura pas de réponse commune pénale.
31:42 Ce n'est peut-être pas trop tard, parce qu'on est encore au stade du projet.
31:45 Alors, il n'y a pas de...
31:46 Parce qu'en fait, le fantasme ou l'analogie, c'est souvent on parle de FBI européen.
31:49 Il n'y a pas de FBI européen.
31:51 Il y a, lequel Eric le mentionnait, le EC3.
31:53 Le EC3, c'est le European Cybercrime Center, qui est basé à La Haye,
31:57 qui dépend d'Europol, qui est un lieu de coordination.
32:00 C'est-à-dire que les services de police, de gendarmerie, viennent frapper à la porte,
32:03 disent "Tiens, moi j'ai une affaire qui associe cela, tu aurais des éléments".
32:06 Et ça se partage de manière, alors, tout à fait aimable et civile.
32:11 La seule chose, c'est que c'est de la coopération.
32:13 C'est évidemment plus contraignant, moins réactif,
32:16 que quand vous êtes directement autonome pour vous déplacer, conduire vos opérations,
32:20 et votre autorité juridique et judiciaire est assurée par la loi.
32:25 Merci beaucoup à tous les deux.
32:26 On arrive à la fin du temps qui nous était imparti,
32:28 pour dresser un peu les contours de ce bouclier cyber-européen.
32:32 Merci beaucoup, Maître Luc Hellenec du cabinet Simons & Simons
32:36 et Nicolas Arpagian de Edmines Partners.
32:39 On va suivre une petite pause et après on retrouve Tariq Krim pour reparler d'IA et de la stratégie de Google.
32:44 Quelle journée ! Deuxième partie de Smartech.
32:53 Nous recevons Tariq Krim, fondateur de Codesouverain.fr.
32:56 Bonjour Tariq.
32:57 Bonjour.
32:58 Alors, on va reparler de la Google I/O qu'on a déjà décryptée dans Smartech,
33:01 mais là avec ton point de vue sur les annonces en matière d'IA générative,
33:05 d'intelligence artificielle entre les mains de tout le monde.
33:07 Est-ce que ça y est, Google rentre à nouveau dans la course à l'IA ?
33:11 C'est intéressant parce que première étape, si on se rappelle bien,
33:14 il y a quelques semaines, voire un mois maintenant,
33:17 première démo bâclée.
33:20 De barde.
33:21 De barde, une démo catastrophique.
33:23 100 milliards de valorisation partie en fumée.
33:26 Et puis surtout, instiller cette idée qui est absolument impossible pour Google,
33:32 c'est que Google raconte n'importe quoi,
33:34 toute la stratégie de Google est d'être dans la vérité,
33:38 d'être dans le sérieux, d'être dans le…
33:40 En plus, la question qui avait été posée avait montré
33:43 qu'effectivement on expliquait à les enfants,
33:46 donc est-ce que c'est aussi Google, on va expliquer les choses ?
33:48 Et en fait, c'était totalement planté.
33:51 Et donc avec I/O, ce qui est intéressant, c'est qu'on revoit la copie
33:55 et on repart sur des choses sérieuses.
33:57 Et je trouve qu'il y avait une tonne d'annonces, en gros.
34:01 Je crois que c'est The Verge qui a compté le nombre de fois
34:04 que Sundar a utilisé le mot AI.
34:07 Je pense que c'est quasiment…
34:09 Je crois que c'est en effet 150 fois, 150 occurrences.
34:12 Et donc évidemment, ici on ne parle pas d'AI,
34:15 mais d'AI générative avec une question clé pour Google,
34:18 c'est où est-ce qu'on l'intègre dans les produits ?
34:22 Il faut savoir qu'il y a une étude qui est sortie, je crois, hier,
34:26 qui démontre que l'avantage de ChatGPT pour Bing,
34:30 c'est une augmentation de 0,25%, donc négligeable.
34:36 Alors que désormais, Chat.OpenAI, qui est le ChatGPT d'OpenAI,
34:42 a maintenant autant de trafic que Bing.
34:46 Donc en fait, il y a une véritable question de quel est le produit,
34:50 comment on le fait et à quoi ça sert.
34:52 Et parmi les choses qui ont été annoncées par Google,
34:54 il y a deux choses qui sont intéressantes.
34:56 La première, c'est qu'ils ont annoncé un modèle qui s'appelle Palm,
34:59 qu'ils ont fait évoluer vers le modèle Palm 2.
35:02 Et dans les annonces, ce qui est très intéressant,
35:04 c'est que c'est un modèle qui peut se dégrader
35:06 et qui pourrait se dégrader jusqu'à pouvoir entrer au cœur d'un téléphone mobile
35:11 et donc tourner localement ou tourner sur les supercomputers de Google.
35:15 Et ce qui est fascinant, c'est qu'aujourd'hui,
35:17 quand on réfléchit à la question du mobile,
35:19 une des questions qu'on se pose, c'est à quoi ça sert d'acheter un nouveau téléphone ?
35:24 C'est vrai.
35:25 La caméra est excellente depuis cinq générations,
35:28 la puissance est excellente depuis cinq générations,
35:31 on a la 5G.
35:33 La seule raison pour acheter un appareil qui a de la puissance de calcul,
35:37 c'est d'y intégrer une IA.
35:39 Et il semblerait que Google a, à mon avis,
35:42 pris un peu d'avance sur Apple et sur d'autres acteurs
35:45 en réfléchissant à une stratégie où on aurait une IA personnelle sur son téléphone
35:49 qui peut se décupler avec d'autres IA qui seraient, elles, dans le cloud.
35:54 Alors, dans ce match entre Google et Microsoft,
35:59 c'est-à-dire d'un côté l'IA de Google générative BARD
36:03 et l'IA générative utilisée par Microsoft, donc Chadjipiti,
36:08 est-ce qu'il te semble que dans cette course,
36:10 Google va pouvoir rattraper son petit retard au démarrage ?
36:14 Je crois que...
36:15 Alors, on se base évidemment sur les démos,
36:18 puisque, faut-il le rappeler, BARD n'est pas disponible en France.
36:22 Alors, on se pose la question...
36:24 En Europe, même.
36:25 En Europe, mais est-ce que l'AI Act,
36:28 qui est une régulation, à mon avis, qui est arrivée un peu tôt
36:31 et qui n'est, à mon avis, pas véritablement efficace,
36:35 parce qu'elle va créer énormément de complexité
36:38 pour les gens qui veulent construire des modèles.
36:40 Et, en fait, je ne suis pas certain qu'elle réponde aux problèmes.
36:44 Il faut savoir que c'est le problème des régulations,
36:46 c'est qu'elle démarre au moment où les choses arrivent,
36:48 et puis on essaye de les changer.
36:50 On n'avait pas inclus ChatGPT, on n'avait pas inclus...
36:52 Il semble que, pour l'instant, ça pénalise quand même l'Europe.
36:54 Beaucoup, oui.
36:55 Pourquoi ? Parce qu'il faut comprendre qu'il y a trois gros modèles,
36:58 aujourd'hui, commerciaux.
37:00 Il y a OpenAI Microsoft, on va dire que c'est un tout,
37:03 même si ce n'est pas exactement le cas.
37:05 Google, qui a inventé cette technologie
37:07 et qui est en train de mettre les bouchées doubles.
37:09 Et une société qui s'appelle Anthropic,
37:11 qui est des anciens d'OpenAI,
37:13 qui a monté un système qui s'appelle Cloud,
37:15 et dont Google est un des investisseurs principaux.
37:19 Et à côté de ça, il y a un ensemble d'acteurs open source,
37:23 des modèles plus petits,
37:25 et dans un mémo qui a été liqué par un ingénieur de Google,
37:30 clairement, et je trouve ce mémo très intéressant,
37:34 que le modèle open source pourrait être, en fait,
37:37 donc les AI personnalisées open source,
37:41 pourraient être, à terme, plus intéressantes d'un point de vue commercial
37:46 que ces gros systèmes qui seraient durs à maintenir,
37:49 dans lesquels il faut avoir une sorte de régulation.
37:52 La régulation va être impossible,
37:54 puisqu'on est incapable de comprendre,
37:56 enfin, faut-il rappeler que ces technologies,
37:59 on ne sait toujours pas comment ça marche.
38:01 On sait juste qu'un jour, on a mis plein de puissance de calcul,
38:05 et plein de données, et finalement, ça s'est mis à marcher.
38:08 Et quand on discute avec les...
38:10 Moi, j'avais fait des réseaux de neurones il y a plus de 25 ans.
38:12 La plupart des problèmes n'ont pas été résolus,
38:14 mais la puissance de calcul fait que ça marche.
38:17 Donc, on est vraiment dans une situation,
38:18 on a des boîtes noires qui fonctionnent,
38:20 et c'est vrai que c'est complexe.
38:21 Ça pose la question de la confiance.
38:23 Mais tu parles de ce document, mais il y a aussi Yann Lequin qui dit
38:26 que si l'Europe veut prendre une place sur ce domaine de l'IA générative,
38:29 il faut justement qu'elle choisisse un modèle ouvert.
38:32 Et ce matin, dans Smartech, Luc Julia aussi vantait l'open innovation.
38:36 Je crois beaucoup à ça.
38:37 Donc, tu penses que pour l'Europe, il y a une place à prendre ?
38:39 Oui, je pense qu'il y a...
38:40 Déjà, il faut savoir que le modèle de la main,
38:42 je crois que les deux tiers des ingénieurs qui ont travaillé dessus étaient français,
38:47 donc il y a un savoir-faire.
38:49 Après, la question, c'est de savoir si la réglementation européenne
38:53 ne va pas tuer dans l'œuvre toutes ces plateformes open source.
38:56 Et puis ensuite, il y a une question, alors qu'on en avait déjà un peu parlé.
38:59 C'est est-ce qu'on parle d'AI global ou est-ce qu'on travaille sur les AI personnels,
39:05 c'est-à-dire qui s'occupent de mes données et qui ne s'intéressent qu'à moi ?
39:09 Moi, je suis plutôt un partisan de ces IA personnels,
39:13 mais de toute façon, on verra bien.
39:15 En tout cas, il y a des possibilités, mais en Europe, c'est sûr que seule l'open source
39:18 sera la voie à choisir.
39:21 Merci beaucoup, Tariq Krim, qu'on peut retrouver sur codesouverain.fr
39:25 et puis régulièrement dans Smartech.
39:27 À suivre, c'est notre regard sur OUVA le web.
39:30 Aujourd'hui, Eva nous raconte la naissance d'une plateforme de freelancing
39:37 sur le Web3.
39:40 Quand le Web3 s'attaque au recrutement et plus particulièrement au monde du freelancing,
39:46 c'est la plateforme d'Elance qui s'est lancée ce défi.
39:49 Révolutionner la façon dont les travailleurs indépendants
39:52 collaborent avec leurs employeurs, ça c'est l'objectif, la manière.
39:56 Maintenant, on pourrait croire à un job board comme les autres,
39:59 sauf que lui repose sur la technologie blockchain.
40:02 Grâce à elle, la plateforme transforme tous les projets en NFT,
40:07 c'est ses tokens qui permettent de garantir la propriété intellectuelle
40:11 sur les travaux des freelancers, un sujet important pour eux,
40:14 puisqu'ils font souvent face à des fraudes ou des usurpations.
40:18 Et enfin, la plateforme s'appuie elle aussi sur le métavers.
40:21 Vous pouvez créer vos propres bureaux virtuels dans l'univers d'Elance
40:25 et donc mieux communiquer avec votre freelancer ou votre employeur.
40:30 Évidemment, tout ça n'est pas gratuit.
40:32 D'un côté ou de l'autre, pour avoir accès à la plateforme,
40:35 il faudra acquérir des jetons d'Elance.
40:38 Ils sont basés sur la blockchain Ethereum.
40:40 Un jeton se vend actuellement au prix de 0,025 dollars.
40:45 Au final, cela reste bien moins cher que sur les autres plateformes de freelancing.
40:49 Alors, ce pari plaira-t-il ? Les besoins en tout cas, eux, sont là.
40:54 Les travailleurs indépendants sont aujourd'hui un peu plus d'un million en France.
40:57 Selon Eurostats, c'est 92% de plus qu'en 2009,
41:02 lors de la création du statut de micro-entrepreneur.
41:05 C'était Smartech. Merci à tous de nous suivre.
41:08 On se retrouve demain. Demain, on va repartir en Silicon Valley.
41:10 On va s'intéresser à ce monopole autour de la tech
41:13 avec l'auteur de La Tech, Olivier Alexandre,
41:16 qui sera mon invité dans Smartech. À demain.
41:18 [Musique]