• il y a 10 mois

Category

📺
TV
Transcription
00:00:00 [Bruit de machine à tour]
00:00:25 L'innovation technologique a toujours été une arme à double tranchant. Et il semble qu'elle le sera toujours.
00:00:32 [Bruit de machine à tour]
00:00:38 Au début de la guerre de sécession, le docteur Richard Gatling fut horrifié par le nombre croissant de soldats morts sur le champ de bataille.
00:00:46 [Bruit de machine à tour]
00:00:48 Il estimait que pour sauver des vies, il fallait réduire le nombre de troupes envoyées au front.
00:00:53 Il inventa donc la mitrailleuse Gatling, une arme rotative à six canons qui permettait à quatre soldats de disposer d'une puissance de feu équivalente à celle d'une centaine d'armes.
00:01:04 [Bruit de machine à tour]
00:01:10 Bien loin de sauver des vies, l'innovation de Gatling eut pour conséquence imprévue d'accroître le nombre de morts et de bâtiments détruits.
00:01:18 [Bruit de machine à tour]
00:01:22 Je pense qu'il faut respecter le pouvoir de la technologie et essayer de le connuer d'une manière rationnelle.
00:01:35 Je pense que c'est ce que nous devons de nouvelles technologies.
00:01:39 Nous devons nous apprendre à être absolument ambivalents sur elles.
00:01:43 Et surtout, nous devons nous apprendre à imaginer leurs effets de côté inadvertents.
00:01:49 Parce que les effets de côté inadvertents sont ceux qui nous attirent.
00:01:55 [Musique]
00:02:07 La légende voudrait que le logo d'Apple soit un hommage de Steve Jobs au grand Alan Turing, le père de l'informatique.
00:02:15 Celui-ci considérait qu'il était possible de créer des ordinateurs plus intelligents que les hommes.
00:02:21 En 1954, Turing se suicide en croquant une pomme imbibée de cyanure.
00:02:29 On ignore encore s'il faut y voir une réflexion personnelle sur le mythe d'Adam et Ève mangeant la pomme de l'arbre de la connaissance,
00:02:36 ou un avertissement sur les conséquences accidentelles que pourrait entraîner la création d'ordinateurs plus intelligents que les hommes.
00:02:46 On a l'impression de vivre dans une époque où on ne cesse de prendre des décisions cruciales,
00:02:52 et que celles-ci auront un impact énorme sur l'avenir de l'humanité.
00:02:57 En même temps, il paraît évident qu'en créant des objets plus intelligents que des êtres humains,
00:03:03 il faut évaluer le contrôle qu'on a de ces objets, et le risque de perdre ce contrôle.
00:03:30 L'avenir est un grand point d'interrogation qui semble se rapprocher de nous de plus en plus vite.
00:03:36 2016 a été une année charnière.
00:03:43 Les ingérences en ligne à l'œuvre lors de l'élection présidentielle américaine
00:03:47 ont contribué à installer une ancienne vedette de la télé-réalité dans le bureau politique le plus puissant du monde.
00:03:56 Les bots et autres trolls utilisés par la Russie lors de la cyberattaque visant l'élection présidentielle américaine
00:04:03 ont également orienté le référendum sur le Brexit avec un succès similaire
00:04:08 lorsque le Royaume-Uni décida de quitter l'Union européenne.
00:04:12 En 2016, les entreprises technologiques ont engrangé des profits records
00:04:17 alors que les inégalités mondiales de revenus atteignaient des niveaux similaires
00:04:21 à ceux enregistrés à la veille de la Révolution française.
00:04:24 L'IA est devenue joueuse de go, conductrice, traductrice, artiste, médecin et arme de guerre.
00:04:30 Tout semble être en lien avec le cyber.
00:04:33 Alors qu'est-ce que le cyber ?
00:04:35 Je dirais que le cyber est comme un morceau de monde supplémentaire.
00:04:53 Avant, on avait l'air, la terre, les océans.
00:04:57 Maintenant, il y a ce morceau de monde en plus qu'on appelle le cyber.
00:05:01 Il repose sur un ensemble de lignes numériques.
00:05:11 Donc, il s'appréhende de façon assez étrange.
00:05:15 On ne peut pas y plonger ses mains comme dans l'océan, ni le respirer comme l'air.
00:05:19 Il n'est composé que de câbles, de circuits, d'ordinateurs et de disques.
00:05:23 Mais, de mon point de vue, il fonctionne comme un morceau de monde supplémentaire.
00:05:27 Certains pensent même que c'est désormais la partie du monde
00:05:44 où la majorité des gens passent la plupart de leur temps.
00:05:48 Le cyber, c'est quoi ?
00:05:52 Quasiment tout ce que je sais vient d'Internet.
00:06:02 On n'avait accès ni à de vrais cours de réalisation,
00:06:07 ni à aucun livre technique.
00:06:10 Alors, presque toutes nos connaissances, on les doit au cyber.
00:06:15 C'est très important pour nous.
00:06:18 On va faire un plan rapproché. Parle fort et souris à la caméra.
00:06:21 Je m'appelle Godwin Josia, je suis réalisateur,
00:06:24 j'écris et je réalise pour le collectif Critics'Company.
00:06:27 J'adore le cinéma, surtout la science-fiction.
00:06:42 On a une passion pour les films hollywoodiens.
00:06:46 L'industrie cinématographique au Nigeria ne produisait pas de films de science-fiction.
00:06:51 Alors, on a décidé de s'y mettre et de faire nos propres films,
00:06:55 comme on avait envie de les faire.
00:06:58 C'est comme ça qu'on a commencé.
00:07:07 Avec mes cousins, on est neuf en tout.
00:07:11 Ça fait sept ans qu'on réalise des films.
00:07:14 Et on a déjà 20 courts-métrages de science-fiction à notre actif.
00:07:18 Malgré une mauvaise connexion Internet et un réseau électrique peu fiable,
00:07:27 les films de Godwin et de ses cousins ont dépassé les 4,5 millions de vues.
00:07:36 Grâce au progrès technologique, on peut montrer notre travail sur les réseaux sociaux.
00:07:41 Les gens laissent des commentaires. Ils nous disent qu'ils adorent nos films.
00:07:45 Alors maintenant, on a l'impression de faire partie de quelque chose.
00:07:49 Alors, comment tout ça a commencé ?
00:07:56 Avec Sputnik.
00:08:04 Internet est une conséquence inattendue de la guerre froide,
00:08:07 à une époque où l'Amérique était prête à tout pour concevoir une invention
00:08:11 capable de faire de l'ombre au premier succès du programme spatial soviétique.
00:08:16 En octobre 1957, les Russes nous ont coupé l'herbe sous le pied.
00:08:21 Ils ont lancé le premier satellite capable de faire le tour de la Terre.
00:08:25 Il émettait des "bip, bip, bip"
00:08:30 qui rendaient complètement fou le monde occidental.
00:08:34 Sputnik était la preuve que les Russes nous avaient battus
00:08:37 non seulement dans le domaine spatial, mais aussi dans le domaine technologique.
00:08:41 Le président Eisenhower a admis que nous nous étions laissés surprendre par les Russes,
00:08:52 que nous n'étions plus considérés comme des chefs de file en matière de science,
00:08:56 de technologie ou de génie mathématique, et que ça ne se reproduirait plus jamais.
00:09:01 Alors, il a eu l'idée brillante de créer au sein du département de la Défense
00:09:17 une agence chargée des nouvelles technologies, l'ARPA.
00:09:25 Dès sa création, l'ARPA a mis en place un groupe de recherche
00:09:28 afin de financer la recherche informatique dans tout le pays.
00:09:32 Ce que peu de personnes savent, c'est que l'état d'esprit dans lequel ce groupe a été fondé
00:09:37 s'est révélé crucial par la suite.
00:09:40 Ils se sont adressés à de très grands chercheurs, comme Marvin Minsky,
00:09:44 et ils lui ont dit, "Minsky, nous connaissons la qualité de votre travail.
00:09:48 Voilà de l'argent. Trouvez-nous quelque chose de génial.
00:09:52 Visez haut, visez la Lune. Vous avez le droit de vous tromper."
00:09:56 C'est une façon extraordinaire de permettre à un esprit brillant
00:09:59 d'explorer de nouveaux endroits, de nouvelles avenues, de nouveaux résultats.
00:10:04 Et c'est comme ça qu'a été créé Internet.
00:10:07 - Vous connaissez quelque chose de ça? - Bien sûr.
00:10:10 Je me souviens qu'il y a quelques mois, il y avait un grand annoncement
00:10:13 qui disait qu'à l'Internet ou dans un délai de computer,
00:10:16 ils allaient télécharger un jeu de baseball.
00:10:19 Vous pouviez écouter un jeu de baseball sur votre ordinateur.
00:10:22 Et je me suis dit, "Est-ce que la radio sonne un bell?"
00:10:26 Il y a une différence. Vous pouvez écouter le jeu de baseball quand vous voulez.
00:10:32 Est-ce que les tapeurs sonnent un bell?
00:10:36 Je pense que le potentiel de ce que l'Internet va faire pour la société,
00:10:41 bien bon et mal, est inimaginable.
00:10:45 - C'est juste un outil, non? - Non, ce n'est pas ça.
00:10:48 Le contexte et le stade de contenu vont être tellement différents
00:10:53 de ce que nous pouvons envisager en ce moment,
00:10:55 où l'interplay entre l'utilisateur et le provideur sera tellement insympathique.
00:11:01 Il va détruire nos idées sur ce que les médias sont en fait.
00:11:07 Au commencement d'Internet,
00:11:11 David Letterman doutait du côté novateur de cette technologie.
00:11:15 Mais David Bowie, lui, avait pressenti ce qu'il allait advenir.
00:11:19 Je pense que le monde numérique existait avant Internet.
00:11:25 D'une certaine façon, on peut voir le livre comme un objet numérique.
00:11:29 Il est imprimé sur du papier, mais sinon, il n'y a pas vraiment de différence.
00:11:33 Ça reste un enchaînement de caractères distincts.
00:11:36 Ça stimule l'imagination et ça permet de vivre le monde de façon indirecte.
00:11:41 Quand vous lisez un article sur un match de foot,
00:11:44 vous ne jouez pas à ce match et vous n'en êtes pas non plus le spectateur.
00:11:55 Donc, on peut dire que ce type d'expérience numérique existe depuis des milliers d'années.
00:12:01 Néanmoins, le monde numérique actuel questionne notre capacité à vivre dans des environnements virtuels.
00:12:08 Car pour renouveler cette expérience,
00:12:11 on ne peut compter que sur des mots qui ne bénéficient plus d'aucun support.
00:12:23 Nous sommes des créatures analogiques.
00:12:26 En tant qu'humains, l'expérience que l'on fait de différentes formes de communication
00:12:30 comme lire un livre, écouter de la musique ou regarder un film,
00:12:34 se déroule le long d'un axe temporel et nous permet de décoder et d'interpréter le contenu de notre choix
00:12:40 sur le support de notre choix.
00:12:43 Notre implication est donc prépondérante.
00:12:46 Mais le cyberspace et Internet permettent d'accéder à une convergence de tous les médias
00:12:52 de façon aléatoire et quasi instantanée.
00:12:55 Cet accès aléatoire transforme le spectateur en un récepteur passif d'une avalanche d'informations.
00:13:04 Tout arrive en même temps.
00:13:06 Il n'y a pas de continuité, pas de lien entre les choses.
00:13:09 Il n'y a ni avant, ni après. Il y a seulement maintenant.
00:13:13 Surfer sur Internet relève de l'exercice spirituel.
00:13:19 On voit défiler tellement d'images.
00:13:22 C'est comme si, grâce à une caméra, on pouvait avoir accès au royaume platonicien des formes éternelles.
00:13:28 Platon pensait qu'il existait une réalité transcendante où toutes les informations étaient stockées
00:13:33 et qu'il appelait littéralement, croyez-le ou pas, l'Internet.
00:13:37 Sumple Kei, en grec ancien.
00:13:39 Pour lui, l'Internet était l'esprit de Dieu.
00:13:42 C'est comme si on faisait face à un Dieu qu'on aurait créé soi-même.
00:13:49 Internet donne l'impression à ses utilisateurs d'avoir affaire à une réalité transcendante.
00:13:55 Notre époque ressemble d'assez près à la période ayant succédé à la fin du 15e siècle,
00:14:10 quand la presse typographique... Vous riez, monsieur ?
00:14:13 J'adore l'incrédulité.
00:14:17 C'est une réponse typiquement américaine qui consiste à dire que tout ce qui s'est passé avant les États-Unis
00:14:23 est sans rapport avec l'histoire des États-Unis.
00:14:26 Vous vous trompez.
00:14:28 Vous vous trompez tellement.
00:14:30 Laissez-moi vous montrer à quel point.
00:14:32 L'impact qu'a eu l'invention de l'ordinateur et d'Internet
00:14:37 n'est comparable qu'à celui de l'invention de la presse typographique.
00:14:42 L'invention typographique
00:14:46 L'une des grandes révolutions du début de l'ère moderne nous vient de Gutenberg
00:14:59 qui, dans les années 1450, a eu l'idée folle d'inventer la presse typographique, l'imprimerie.
00:15:05 Il voulait asseoir le pouvoir de l'Église et gagner beaucoup d'argent.
00:15:10 Gutenberg s'est dit qu'il était possible de partager le savoir de façon plus étendue
00:15:14 et qu'en imprimant des manuscrits plutôt qu'en les recopiant à la main,
00:15:18 il allait permettre à plus de gens d'accéder à la vérité, c'est-à-dire à la Bible.
00:15:22 Il y a une certaine forme de conservatisme dans le fait de vouloir propager un seul type de savoir à une grande communauté de personnes.
00:15:30 En faisant de la Bible le livre phare de son projet d'imprimerie,
00:15:35 Gutenberg parvient à consolider la prédominance de l'Église catholique
00:15:39 et reçoit en retour sa bénédiction pour avoir créé une innovation technologique, la presse typographique.
00:15:46 Au début, l'Église et la presse typographique semblent faites pour s'entendre.
00:15:52 Mais c'est sans compter l'arrivée de Martin Luther,
00:15:55 qui dénonce dans un pamphlet largement diffusé la corruption au sein de l'Église catholique,
00:16:00 dans lequel il affirme que seule la Bible peut faire office d'autorité religieuse.
00:16:08 Gutenberg cherchait à consolider une forme de savoir et peut-être à créer un monopole de ce savoir.
00:16:13 Mais ça s'est avéré impossible car l'invention de la presse a eu une conséquence imprévue.
00:16:18 Elle a permis de publier tout type de contenu.
00:16:21 Martin Luther a dit que si tout le monde pouvait lire la Bible dans sa propre langue,
00:16:27 alors chacun pourrait exercer la vocation de sacerdoce propre aux croyants dont parle la Bible.
00:16:35 Non, ce n'est pas vraiment ce qui s'est passé.
00:16:39 Ce qui s'est vraiment passé, c'est qu'il a transformé la réalité sociale de façon extrêmement violente.
00:16:46 Son invention a provoqué la destruction de l'Église médiévale,
00:16:50 la réforme protestante et l'une des guerres les plus longues et les plus brutales de l'histoire européenne,
00:16:56 la guerre de 30 ans.
00:16:58 Il n'avait rien vu venir.
00:17:04 Gutenberg n'avait pas anticipé le fait qu'en décidant d'imprimer la Bible,
00:17:08 il allait provoquer la scission de l'Église catholique.
00:17:11 Martin Luther n'avait pas non plus anticipé le fait que la réforme aboutirait au carnage qu'a été la guerre de 30 ans,
00:17:19 conflit qui a décimé des millions d'Européens morts à cause des combats, des maladies ou de la famine.
00:17:27 Le réforme de la Bible
00:17:31 On considère que l'œuvre de Gutenberg a eu de nombreux effets positifs et qu'elle a démocratisé le monde,
00:17:46 mais elle a également permis à des bureaucraties d'asservir les populations.
00:17:50 L'impression n'a jamais été neutre.
00:17:52 Elle a aussi été utilisée pour répertorier les victimes de terribles répressions.
00:17:56 Ce qu'on ne doit pas oublier, c'est que l'histoire des médias modernes est profondément liée à la diffusion de la Bible à large échelle.
00:18:12 En fait, sa traduction et son impression ont impacté le développement même du média.
00:18:19 Le contenu d'un média n'est jamais neutre.
00:18:23 Les données qui nourrissent un système d'intelligence artificielle ou un réseau social vont co-déterminer la façon dont le média va se développer.
00:18:31 La différence la plus évidente entre la presse typographique et Internet, c'est que la première est unidirectionnelle, alors que le second est bidirectionnel.
00:18:47 Vous diffusez des informations, vous en diffusez aussi, et tout ça se passe à un niveau mondial.
00:18:52 Internet, c'est un peu comme une presse typographique au carré.
00:18:55 Quand on fait le parallèle entre Gutenberg et ceux qu'on appelle les géants d'Internet,
00:19:04 on peut se demander si la situation actuelle n'est pas en train de nous échapper.
00:19:08 Il y a tellement d'informations et de données qui s'échangent à travers le monde.
00:19:12 Quelqu'un modèle ces informations pour créer un savoir.
00:19:15 Quelqu'un décide de ce qui est important et de ce qui ne l'est pas.
00:19:18 Si ce type de mécanisme n'est pas géré par des humains mais par des machines, programmées par des humains,
00:19:28 il est probable que celles-ci produisent un résultat similaire aux volontés de Gutenberg.
00:19:32 Un savoir monopolisé et une croyance unique, partagées par tous.
00:19:37 Il faut résister à l'envie d'imiter Gutenberg et tirer les leçons du passé.
00:19:42 Ne pas chercher à consolider le savoir, mais plutôt à le diffuser à travers le monde.
00:19:48 Quand on regarde l'évolution d'Internet, on se rend compte que l'erreur fatale a été de privilégier ce qui était lucratif
00:19:58 au détriment de ce qui ne l'était pas, comme Wikipédia.
00:20:01 Ça a sûrement été le péché originel d'Internet.
00:20:04 Pendant les 25 premières années, de 1969 à 1994, Internet a juste été une incroyable invention technologique.
00:20:14 Personne n'a jamais songé à déposer de brevets ou à s'emparer du concept.
00:20:19 Mais en 1994, le 12 avril exactement, deux avocats ont ouvert la brèche en envoyant le premier spam de l'histoire.
00:20:30 [Bruit de téléphone]
00:20:33 Léonard Canter et sa femme Martha Siegel ont envoyé un message électronique à plus de 6 000 groupes de discussions américains.
00:20:40 Le message disait "La Loterie de la carte verte de 1994 est peut-être la dernière.
00:20:47 Canter et Siegel, avocats en droit de l'immigration, vous aideront à remplir votre demande."
00:20:53 Ces gens étaient en train de faire leur publicité sur notre réseau.
00:20:57 Comment ça, stop, arrêtez, c'est une honte.
00:21:00 On leur a envoyé tellement de messages qu'on a fait planter leur serveur.
00:21:04 Sans le vouloir.
00:21:06 La première attaque par D&D du service a donc été une conséquence non attendue du premier spam de l'histoire.
00:21:12 Malheureusement, le mal était fait.
00:21:14 Les gens, et surtout les entreprises privées,
00:21:18 avaient désormais conscience qu'Internet pouvait servir des objectifs commerciaux
00:21:23 et être source de profit, qu'il pouvait faire de l'argent.
00:21:27 [Bruit de téléphone]
00:21:31 Le mot cyber renvoie à la théorie du contrôle.
00:21:37 Il vient du mot grec "kubernan" qui signifie "gouverné".
00:21:41 On l'utilise maintenant pour désigner tout ce qui est en lien avec le monde numérique contemporain.
00:21:46 Mais de façon plus profonde, je pense que le terme renvoie encore à la façon dont on contrôle les systèmes sociaux.
00:21:52 [Musique]
00:21:59 1984, la publicité emblématique d'Apple pour le premier Macintosh
00:22:04 mettait en scène une femme pleine de vie pour représenter la marque en sauveuse de l'humanité
00:22:09 capable de briser la loi dystopique de Big Brother.
00:22:13 [Bruit de téléphone]
00:22:17 [Musique]
00:22:21 25 ans plus tard, la sauveuse de l'humanité est elle-même devenue une variante de Big Brother,
00:22:27 le personnage de George Orwell.
00:22:30 Apple, ainsi que d'autres géants du net comme Microsoft, Google et Facebook,
00:22:35 disposent d'un niveau de pouvoir économique et de cyber contrôle
00:22:39 qui se rapproche dangereusement de la dystopie orwellienne.
00:22:43 [Musique]
00:22:50 Quand je cours, c'est le seul moment de la journée où je n'ai pas à réfléchir.
00:22:54 Je cours, j'ai un objectif à atteindre.
00:22:56 Ça me permet d'échapper au chaos qu'est le reste de ma vie.
00:23:00 Parce qu'actuellement, mon quotidien est presque exclusivement centré sur le cyber.
00:23:05 Je m'appelle Itamar Press, j'ai 18 ans et je suis inscrit à la Bronx High School of Science.
00:23:10 J'ai voulu étudier l'apprentissage automatique
00:23:13 parce que c'est une discipline qui peut influencer l'avenir.
00:23:16 Il y a une vraie révolution qui est en train de s'opérer actuellement.
00:23:19 J'ai envie d'en faire partie, d'influer sur notre avenir
00:23:23 et je crois que l'apprentissage automatique est la meilleure façon d'y parvenir.
00:23:26 L'algorithme COMPAS est un très bon exemple d'innovation technologique
00:23:30 qui a eu un effet désastreux sur la société.
00:23:33 Cet algorithme détermine la probabilité de récidive d'un criminel.
00:23:37 Les ventailles de données judiciaires utilisées pour entraîner le modèle
00:23:41 étaient largement discriminatoires et ciblaient certains groupes ethniques,
00:23:44 notamment en raison d'interventions policières abusives.
00:23:47 Le modèle a intégré ces tendances
00:23:49 et a injustement discriminé les minorités afro-américaines et hispaniques.
00:23:54 Alors, mon idée, c'est que quand on entraîne un modèle de machine learning,
00:23:58 on essaie de nombreux modèles différents
00:24:00 parce qu'on ne sait pas lequel conviendra le mieux aux données qui sont exploitées.
00:24:04 J'ai donc créé un algorithme qui permet d'évaluer le comportement d'un modèle
00:24:07 dans différents types de situations,
00:24:09 à l'aide d'indicateurs qui permettent de pointer les biais utilisés par le modèle
00:24:13 quand il répond à des questions fermées.
00:24:15 Combien d'heures par jour tu passes sur les réseaux sociaux ?
00:24:23 Environ 5 heures par jour.
00:24:26 Et c'est une durée plutôt banale.
00:24:28 Je crois que la moyenne pour les gens de mon âge, c'est 5 à 7 heures.
00:24:32 5 heures par jour, ça a quelque chose d'alarmant.
00:24:38 Ça représente tellement de temps.
00:24:40 Mais c'est exactement l'objectif.
00:24:42 L'algorithme est fait pour maximiser le temps passé sur la plateforme.
00:24:46 C'est inévitable.
00:24:47 Il y a plein d'amis que je ne peux pas appeler
00:24:49 parce que je n'ai pas leur numéro, je n'ai que leur Snapchat.
00:24:52 Ces entreprises ont une véritable mainmise sur ma génération.
00:24:57 Il suffit de penser au temps qu'on passe sur Internet,
00:25:01 que ce soit Google, Facebook, Twitter, TikTok,
00:25:04 dès que vous y êtes, il y a une dépendance qui se crée.
00:25:07 Pour développer des algorithmes,
00:25:12 on se base sur les mécanismes addictifs du cerveau humain.
00:25:15 L'algorithme original de Facebook est le même que celui utilisé par Tinder.
00:25:19 C'est ce qu'ils ont créé à Harvard.
00:25:22 Séduisant, pas séduisant.
00:25:24 Ce sont des choix binaires très simples.
00:25:26 Quant à Facebook, qui signifie littéralement « livre des visages »,
00:25:30 l'idée est de publier une image de celui ou de celle qu'on voudrait être.
00:25:34 Il est donc très facile de manipuler les utilisateurs de cette application
00:25:38 puisqu'ils vous racontent eux-mêmes la vie qu'ils aimeraient mener.
00:25:42 On est venus ici pour les amis.
00:25:44 On a connu les amis de nos amis.
00:25:47 Puis nos vieux amis de l'école,
00:25:49 notre mère, notre ex et notre boss.
00:25:52 Ils sont venus nous souhaiter un bon anniversaire.
00:25:54 Ces échanges sociaux ont toujours un fond économique.
00:25:59 Les données qui reproduisent les images ont une valeur monétaire.
00:26:03 Il n'y a pas de données qui soient neutres.
00:26:05 C'est pour ça qu'on les considère comme le nouvel or noir.
00:26:09 Les données sont donc devenues marchandises
00:26:11 avec l'apparition de deux éléments révolutionnaires.
00:26:14 Les méga-données, ou « big data »,
00:26:16 et l'apprentissage profond, ou « deep learning »,
00:26:18 qui ont tous deux ouvert de nouvelles perspectives à l'intelligence artificielle.
00:26:22 L'apprentissage profond et les méga-données
00:26:24 sont les deux avancées les plus importantes
00:26:26 en termes d'intelligence artificielle sur les dix dernières années.
00:26:29 Tout à coup, en 2010,
00:26:32 l'intelligence artificielle a pris une place prépondérante
00:26:35 grâce aux immenses progrès de l'intelligence artificielle.
00:26:38 Grâce aux immenses progrès réalisés en matière d'apprentissage profond.
00:26:41 À cette époque-là,
00:26:43 les ordinateurs étaient bien plus performants
00:26:45 que dix ou vingt ans en arrière.
00:26:47 Et la réserve de données avait considérablement augmenté.
00:26:50 Je pense notamment aux données recueillies
00:26:53 par les grosses entreprises comme Google et Facebook,
00:26:56 grâce aux utilisateurs, aux moteurs de recherche et aux images.
00:27:00 Du fait de leur nombre très élevé,
00:27:03 les méga-données permettent d'identifier des modèles qui,
00:27:06 sans elles, seraient invisibles.
00:27:08 L'apprentissage profond peut être comparé à un circuit imprimé
00:27:12 composé de nombreux éléments
00:27:14 reliés entre eux et formant un grand réseau.
00:27:17 Un algorithme permet d'ajuster ces éléments
00:27:20 au sein de ce circuit complexe
00:27:22 afin de parvenir aux résultats souhaités.
00:27:25 Pour ça, il faut fournir à l'algorithme
00:27:27 des exemples de résultats attendus.
00:27:29 Si je montre la photo d'une girafe,
00:27:31 je veux qu'on me dise qu'il s'agit d'une girafe.
00:27:33 Pour une photo d'un antelope, je veux qu'on me dise qu'il s'agit d'une antelope.
00:27:37 Il faut disposer de plusieurs millions d'images,
00:27:41 identifier chacune d'entre elles,
00:27:43 puis réajuster chaque élément dans le circuit
00:27:45 afin que celui-ci produise le résultat attendu
00:27:48 en fonction de la donnée fournie.
00:27:50 Certains circuits fonctionnent de façon très efficace
00:27:53 à partir de très grandes réserves d'images
00:27:56 et génèrent des prédictions extrêmement précises.
00:27:59 C'est grâce aux méga-données que l'apprentissage profond
00:28:02 est devenu la principale forme d'intelligence artificielle.
00:28:06 C'est le grand paradoxe d'Internet.
00:28:09 D'un côté, il permet la création d'une immense quantité de données
00:28:13 et l'apparition de nouvelles organisations.
00:28:15 Il donne l'opportunité à des gens d'écrire des histoires de façon nouvelle.
00:28:19 Mais d'un autre côté, son accessibilité est entièrement contrôlée
00:28:22 par une poignée de grandes plateformes.
00:28:24 Celles-ci sont capables de dresser, grâce à ces données,
00:28:27 un portrait incroyablement précis de ce que vous êtes,
00:28:29 mais aussi de vos désirs futurs.
00:28:31 Et tout ça peut être transmis à des annonceurs.
00:28:34 On a extrait un nombre inimaginable de données sur les gens
00:28:37 et ces données permettent d'influencer leurs actions futures
00:28:40 parce qu'on sait ce qu'ils pensent et ce qu'ils ressentent.
00:28:43 Il s'agit là d'une logique économique
00:28:48 qui impose certaines formes de comportements sociaux.
00:28:51 Afin d'obtenir des prédictions fiables,
00:28:54 qui constituent leur fonds de commerce,
00:28:56 ils vendent à leurs clients une certitude.
00:28:58 Ils ont compris que le succès de leur analyse prédictive
00:29:01 dépendait de la façon dont ils pouvaient influer sur nos comportements.
00:29:06 Ils cherchent à nous amadouer.
00:29:08 Ils veulent orienter nos comportements dans le sens des résultats
00:29:11 qu'ils vendent à leurs clients.
00:29:13 C'est bon pour leurs revenus, pour leurs profits,
00:29:15 pour eux-mêmes et pour leurs clients.
00:29:17 Ce genre d'expérimentation s'est poursuivie avec Pokémon Go,
00:29:23 dont le développement s'est effectué chez Google
00:29:26 pendant de nombreuses années.
00:29:28 C'est ce que j'appelle les économies d'action.
00:29:50 Dans ce cas-là, des entreprises comme McDonald's,
00:29:54 Starbucks ou encore Joe's Pizza ont payé Pokémon Go
00:29:59 pour augmenter la fréquentation de leurs restaurants.
00:30:02 Ils ont exploité le système de récompense et de punition
00:30:06 sur lequel reposent les jeux vidéo
00:30:08 afin de nous conduire à travers la ville
00:30:11 jusqu'au lieu qui allait les payer pour augmenter leur fréquentation.
00:30:14 Le nombre de clients dans le monde réel
00:30:16 étant l'équivalent exact du clic dans le monde virtuel.
00:30:19 C'est le capitalisme.
00:30:21 Le capitalisme a accéléré
00:30:23 et maintenant c'est l'accélération du capitalisme qui accélère.
00:30:26 C'est pour ça qu'il y a tellement de milliardaires.
00:30:28 Des milliardaires.
00:30:29 Leur pouvoir est en train de croître dans la pandémie.
00:30:31 Ils possèdent le présent.
00:30:32 Ils vont même coloniser notre futur.
00:30:35 Si ce voyage dans l'espace est aussi important pour Jeff Bezos,
00:30:58 c'est peut-être aussi parce qu'il lui permet de détourner l'attention
00:31:01 de ceux qui vivent sur la planète Terre.
00:31:03 Vous vous souvenez du film "Bainur"
00:31:11 et de sa célèbre course de char ?
00:31:13 Le fait de détourner l'attention
00:31:15 pour laisser prospérer les plus grandes inégalités
00:31:17 n'est pas nouveau.
00:31:18 À travers l'histoire,
00:31:19 rois et empereurs ont utilisé les combats de gladiateurs,
00:31:23 les reconstitutions de batailles
00:31:25 et les courses de chars
00:31:27 afin de mieux contrôler les masses appauvries.
00:31:29 Le détournement d'attention profite à Jeff Bezos
00:31:33 et masque le fait que, grâce à la cyberéconomie,
00:31:36 celui-ci amasse de l'argent sur le dos
00:31:38 d'un nombre croissant d'individus
00:31:40 d'une façon parfaitement inédite.
00:31:42 Je veux remercier chaque employé d'Amazon
00:31:53 et chaque client d'Amazon
00:31:55 parce que vous avez payé pour tout ça.
00:31:57 C'est mental !
00:31:59 La cyberéconomie favorise les premiers entrants,
00:32:03 c'est-à-dire ceux qui ont les bonnes idées en premier,
00:32:05 et le passage à l'échelle.
00:32:07 Le gagnant touche le jackpot
00:32:09 et finit toujours par devenir l'un des hommes
00:32:11 les plus riches de l'Histoire.
00:32:13 Ce siècle digital était censé marquer
00:32:17 l'apothéose de la démocratisation.
00:32:20 À la place, on assiste à l'émergence
00:32:24 d'un nouveau genre de société
00:32:26 marqué par des formes extrêmes d'inégalité sociale.
00:32:30 L'écart de revenu est l'une des caractéristiques majeures
00:32:36 du développement du numérique.
00:32:38 La société n'a jamais été aussi inégalitaire
00:32:40 qu'aujourd'hui.
00:32:42 De ce point de vue, la situation est comparable
00:32:44 à celle des années 1920
00:32:46 ou de la Révolution française.
00:32:48 Il y a énormément de gens qui ont été exclus.
00:32:58 C'est une sorte de nouvel âge d'or
00:33:00 bien plus restrictif que le précédent.
00:33:03 Et ça, ça crée beaucoup de ressentiment.
00:33:06 Des milliers de gens se sont réunis
00:33:08 à des protestations dans le run-up
00:33:10 au Forum économique mondial.
00:33:12 C'est le moment de dénoncer les millionnaires.
00:33:14 Ce qui nous intéresse, c'est que ces gens
00:33:16 avec beaucoup de richesse,
00:33:18 ont aussi accès à la puissance,
00:33:20 les privilèges, l'influence de notre démocratie
00:33:22 et comment nous vivons aujourd'hui.
00:33:24 Je m'appelle Antonia Wanjikomo Sanga.
00:33:26 Je suis née dans le comté de Kichoui, au Kenya.
00:33:29 J'ai étudié la sociologie
00:33:31 en me spécialisant sur les questions de genre.
00:33:34 Je travaille actuellement
00:33:36 dans la gestion de programmes humanitaires
00:33:38 au sein d'organisations internationales.
00:33:41 Et je m'occupe des stratégies de communication
00:33:43 de plusieurs mouvements militants.
00:33:45 Alors que les inégalités sociales et salariales
00:33:50 ne cessent de se creuser,
00:33:52 les politiques économiques sont examinées
00:33:54 chaque année par des milliardaires,
00:33:56 des dirigeants de l'industrie technologique
00:33:58 et des politiciens au Forum économique mondial de Davos.
00:34:02 Le Forum de Davos n'est réservé qu'aux élites
00:34:05 et aux personnes les plus riches de la planète.
00:34:08 A priori, il n'y a aucune chance pour que moi, Antonia,
00:34:12 je puisse un jour participer à cette réunion.
00:34:15 Mais grâce au contact
00:34:17 que j'ai réussi à établir sur Internet,
00:34:20 j'ai eu l'opportunité d'assister au Forum
00:34:23 et de m'assurer que la voix
00:34:25 de tous les jeunes militants que je représente
00:34:27 soit entendue au sein de cette grande assemblée.
00:34:31 Cela ne peut pas continuer.
00:34:33 Nous avons besoin d'un nouveau système.
00:34:35 La dignité pour tous, l'égalité, la justice,
00:34:38 une humanité partagée,
00:34:40 ce sont les fondations du monde que nous construisons.
00:34:43 Les excès des milliardaires et leur déconnexion du monde réel
00:34:51 n'ont rien de nouveau.
00:34:53 En revanche, l'augmentation exponentielle de leur fortune
00:34:56 a quelque chose d'inédit.
00:34:58 Cela a créé une nouvelle forme de capitalisme.
00:35:01 Le capitalisme de surveillance est un nouveau type de marché,
00:35:05 né de l'industrie numérique.
00:35:07 Nous connaissons tous l'idée selon laquelle
00:35:09 le capitalisme industriel s'est approprié la nature
00:35:12 pour la transformer en parcelle et y construire des projets lucratifs.
00:35:15 Le capitalisme de surveillance a quelque chose d'encore plus effrayant,
00:35:20 parce qu'il s'est approprié une dynamique de marché
00:35:24 qui exploite la vie privée des gens.
00:35:28 Les algorithmes des médias sociaux
00:35:30 qui sélectionnent ce qui est lu et regardé chaque jour
00:35:33 pendant des heures par des milliards de personnes
00:35:36 ont un impact immense sur notre société
00:35:40 et nous n'avons aucun contrôle dessus.
00:35:43 Même ceux qui développent ces algorithmes
00:35:46 ne les maîtrisent pas vraiment.
00:35:54 Certains considèrent que les médias sociaux
00:35:57 sont à l'origine de dysfonctionnements politiques
00:36:00 au sein de nos sociétés, de désinformation,
00:36:03 de mauvaise décision et de polarisation.
00:36:06 Ils n'ont pas anticipé la façon dont ces algorithmes allaient se comporter.
00:36:14 Ils les ont programmés pour optimiser leur objectif
00:36:17 qui est d'augmenter le taux de clic.
00:36:19 Et je pense que durant la phase de développement,
00:36:22 les créateurs se sont dit que leurs algorithmes
00:36:25 allaient soumettre aux utilisateurs des contenus qui les intéressaient,
00:36:28 ce qui paraissait inoffensif.
00:36:30 Mais ce n'est pas ce qui s'est passé.
00:36:33 En fait, les algorithmes ont appris à manipuler les êtres humains
00:36:36 pour influencer leurs comportements et les rendre plus prévisibles.
00:36:40 Plus vos goûts sont prévisibles,
00:36:42 plus l'algorithme vous enverra des contenus
00:36:44 sur lesquels vous allez cliquer.
00:36:49 L'objectif des algorithmes et des entreprises qui se cachent derrière
00:36:53 est de générer plus de clics,
00:36:55 puisque chaque clic génère plus de profits.
00:36:58 De ce point de vue,
00:37:00 l'assaut du capital a été un corollaire de cet objectif.
00:37:03 Si vous pensez que les élections sont truquées,
00:37:08 que vous êtes sur Facebook et que vous commencez à cliquer sur des contenus
00:37:11 suggérant que les élections sont truquées,
00:37:14 alors l'algorithme vous bombarde de contenus similaires
00:37:17 qui vous maintiennent dans cette croyance.
00:37:20 As-tu jamais rêvé, Neo, que tu étais si sûr que c'était réel ?
00:37:23 Et si tu n'arrivais pas à te lever de ce rêve ?
00:37:28 Comment sais-tu la différence entre le monde rêvé
00:37:30 et le monde réel ?
00:37:32 Tu prends la pilule bleue,
00:37:36 la histoire s'arrête,
00:37:38 tu te lèves et tu crois ce que tu veux croire.
00:37:41 Tu prends la pilule rouge,
00:37:43 tu restes dans Wonderland
00:37:45 et je te montre à quel point le trou de la rabine est profond.
00:37:48 Les gens ont le choix dans Matrix.
00:37:50 Ils peuvent intégrer la Matrix
00:37:52 ou décider de regarder la réalité.
00:37:54 Actuellement, la tendance générale dont on s'inquiète
00:37:57 quand on critique le populisme et les médias sociaux
00:38:00 se base sur le constat suivant.
00:38:02 Les gens choisissent de sortir de la réalité.
00:38:04 Et maintenant qu'ils ont fait ce choix,
00:38:06 ils apprécient la Matrix.
00:38:08 Nous sommes devenus les mangeurs de Lotus
00:38:11 manipulés de la Matrix.
00:38:14 Les nouvelles technologies de la communication
00:38:16 et les différents médias sociaux
00:38:18 inventent et encouragent des idées
00:38:20 et des récits transnationaux.
00:38:22 Le cyberespace permet à des individus marginalisés
00:38:29 et à des groupuscules extrémistes
00:38:31 d'ignorer les frontières terrestres
00:38:33 et de fédérer une foule contestataire
00:38:35 capable de défier l'opinion majoritaire.
00:38:38 Le cyberespace est un moyen de faire
00:38:40 capable de défier l'opinion majoritaire.
00:38:43 En tant que société,
00:39:03 on est dans une situation très compliquée.
00:39:06 D'un côté, on ne veut pas que les gouvernements
00:39:08 sont sur ces plateformes.
00:39:10 Et d'un autre, il y a un intérêt financier en jeu.
00:39:14 Ils essaient de garder ce genre de contenu accessible,
00:39:18 même si ça crée des conflits entre les gens.
00:39:21 Si les données ont été considérées
00:39:24 comme le nouvel or noir,
00:39:26 car elles permettent de générer du profit,
00:39:28 elles se sont transformées en une menace
00:39:30 pour nos démocraties.
00:39:33 Autrement dit, les médias sociaux
00:39:35 sont par nature antidémocratiques.
00:39:37 Et il n'y a rien à y faire.
00:39:39 Si vous demandez des comptes
00:39:41 à l'un de leurs dirigeants,
00:39:43 comme Zuckerberg,
00:39:45 il vous dira d'aller vous faire foutre.
00:39:47 C'est ça Facebook.
00:39:50 Quand on regarde Zuckerberg
00:39:52 lors de ses auditions devant le Congrès américain,
00:39:55 où l'Union européenne a été présente,
00:39:57 il a dit que les États-Unis étaient en train de se battre.
00:40:00 Et que l'Union européenne était en train de se battre.
00:40:03 Et que l'Union européenne était en train de se battre.
00:40:06 Et que l'Union européenne était en train de se battre.
00:40:09 Et que l'Union européenne était en train de se battre.
00:40:12 Et que l'Union européenne était en train de se battre.
00:40:15 Et que l'Union européenne était en train de se battre.
00:40:18 Quand on regarde Zuckerberg lors de ses auditions devant le Congrès américain,
00:40:21 où l'Union européenne a été présente,
00:40:23 on voit qu'il a un style très consensuel.
00:40:25 Il a besoin de la démocratie
00:40:27 pour que des milliardaires comme lui soient protégés.
00:40:30 Et pourtant, son entreprise discrédite activement la démocratie.
00:40:33 Et pourtant, son entreprise discrédite activement la démocratie.
00:40:36 Tout paraît démocratique.
00:40:51 Ce sont des entreprises américaines,
00:40:53 et les États-Unis sont une grande démocratie.
00:40:55 Donc nous relions ça à la démocratie.
00:40:57 Mais l'espace social et les transactions qu'on y opère
00:40:59 ne sont pas soumis à la loi.
00:41:01 Ces entreprises détruisent les valeurs de la Révolution française
00:41:04 et celles des démocraties modernes par nature.
00:41:06 Le capitalisme de surveillance est sur une trajectoire de collision avec la démocratie.
00:41:28 Il met en péril le concept d'agentivité,
00:41:31 celui d'autonomie,
00:41:33 ce que nous considérons comme la souveraineté individuelle,
00:41:36 tout ce qui nous permet d'avoir le droit de prendre des décisions,
00:41:40 notre droit à l'autodétermination.
00:41:43 Cette volonté de modification des comportements
00:41:46 s'attaque à l'autonomie humaine,
00:41:48 sans laquelle une société démocratique est impossible à imaginer.
00:41:52 Qu'est-ce qu'on fait de tout ça ?
00:41:55 Je crois qu'il faut une vue d'ensemble.
00:41:58 Quand on invente une technologie invasive comme Internet
00:42:01 et qu'on la déploie,
00:42:03 on ne peut pas s'attendre à ce qu'elle vive dans un monde à part.
00:42:07 On la place au sein de la société.
00:42:10 Alors la société réagit.
00:42:12 Puis à son tour, la technologie réagit.
00:42:15 Et il y a un échange comme ça qui se crée.
00:42:18 Mais cette dynamique manque encore de fluidité.
00:42:23 Quand la dynamique entre la technologie et la société n'est pas fluide,
00:42:27 on insiste alors à des alliances comme celle entre Big Brother et le Big Data.
00:42:32 548 millions de caméras de surveillance en Chine
00:42:35 permettent aux autorités d'imposer à la population un système de crédit social.
00:42:40 Le système de crédit social
00:42:44 est basé sur l'observation de vos comportements
00:42:47 pour lesquels vous êtes récompensés
00:42:50 si ceux-ci sont conformes aux normes comportementales dictées par le gouvernement.
00:42:55 Je trouve ça extrêmement dangereux.
00:42:58 C'est ce qu'a fait le gouvernement de l'Allemagne de l'Est sans aucune technologie.
00:43:02 On avait 20% de la population qui surveillait les 80% restants.
00:43:06 C'est affreux d'imaginer que les Chinois utilisent la technologie pour faire ça.
00:43:11 L'inconvénient, quand on définit un résultat à atteindre,
00:43:15 c'est que les gens vont orienter leurs actions pour parvenir à ce résultat
00:43:19 plutôt que de faire ce qu'on attend réellement d'eux.
00:43:22 Si vous vous comportez gentiment avec quelqu'un,
00:43:27 non plus par bienveillance, mais par désir d'augmenter votre crédit social,
00:43:31 il n'y a plus rien de gentil là-dedans.
00:43:34 Et vous éradiquez de votre société une grande partie de ce qu'est la bonté.
00:43:39 Ça donne un avant-goût de ce qui peut arriver quand on fait face à des entités
00:43:43 qui poursuivent un mauvais objectif et qui sont plus intelligentes que nous.
00:43:47 Au final, on perd.
00:43:49 L'intelligence artificielle est un savoir-faire ou une science
00:44:00 grâce à laquelle des machines vont exécuter des tâches
00:44:03 qui ont besoin de l'intelligence humaine pour être effectuées.
00:44:06 [Musique]
00:44:29 À l'époque où on a inventé les premiers ordinateurs,
00:44:32 on s'est dit "Pourquoi ne pas en faire des machines intelligentes ?"
00:44:36 Alors, pour comprendre ce que ça signifiait,
00:44:40 on s'est penché sur notre propre définition de l'intelligence.
00:44:44 Qu'est-ce qui fait qu'un être humain est intelligent ?
00:44:47 C'est une notion qui a grandi pendant des milliers d'années dans le domaine philosophique
00:44:51 et plus récemment dans le domaine économique.
00:44:53 Une personne est intelligente si on peut attendre de ses actions
00:44:56 qu'elles parviennent à leur objectif.
00:44:58 C'est cette notion qu'on a décidé d'appliquer
00:45:01 et on a construit des machines qui savent très bien atteindre les objectifs qu'on leur assigne.
00:45:07 C'est le paradigme sur lequel s'est construit le développement de l'intelligence artificielle
00:45:11 depuis ses débuts, c'est-à-dire depuis les années 40.
00:45:14 [Musique]
00:45:24 Les guerres génèrent des milliers de morts et sont propices aux avancées technologiques.
00:45:29 [Musique]
00:45:31 La seconde guerre mondiale a notamment accéléré le développement du radar,
00:45:35 de la pénicilline, des moteurs à réaction, de la bombe atomique et des ordinateurs.
00:45:41 [Musique]
00:45:45 Dans l'océan Atlantique, les sous-marins allemands ont infligé de lourdes pertes à la flotte alliée.
00:45:50 [Musique]
00:45:52 Grâce à un système de communication réputé inviolable et connu sous le nom de l'Enigma,
00:45:57 les sous-marins allemands ont réussi à torpiller plus de 2500 navires alliés.
00:46:01 [Musique]
00:46:09 Alan Turing, grâce à sa toute nouvelle machine électromécanique,
00:46:13 est parvenu à décoder les messages émis par la marine allemande.
00:46:16 [Musique]
00:46:18 Cette invention a donné aux alliés un avantage spectaculaire,
00:46:21 elle leur a permis d'être prêt à temps pour le débarquement de Normandie.
00:46:25 [Musique]
00:46:28 L'invention de Turing a mené à la création du premier ordinateur électronique programmable,
00:46:33 ce qui lui a valu le titre de père de l'informatique
00:46:36 et a posé les bases de l'intelligence artificielle.
00:46:39 [Musique]
00:46:42 Pour moi, l'intelligence artificielle ne constitue qu'un pas vers l'intelligence humaine augmentée.
00:46:49 Si nous faisons de mettre l'intelligence artificielle au service de l'humanité,
00:46:56 je pense qu'on est tous d'accord pour dire que notre objectif ultime
00:47:01 est d'améliorer la vie des gens grâce à la technologie.
00:47:04 [Musique]
00:47:11 J'ai commencé à participer à des concours de mathématiques à l'école primaire.
00:47:15 C'était très courant. Et je me demandais tout le temps
00:47:20 ce qui faisait qu'on pouvait trouver ou pas la solution à toute une liste de problèmes
00:47:26 pendant deux heures de temps.
00:47:29 Qu'est-ce qui se passe dans notre cerveau ?
00:47:31 Pourquoi parfois je trouve la solution, pourquoi mon voisin ne la trouve pas ?
00:47:34 Et inversement, où est la différence ?
00:47:37 On va dans la même école, on est dans la même classe.
00:47:40 D'où vient cette différence et qu'est-ce qu'on peut faire pour changer ça ?
00:47:44 Et puis à l'âge de 14 ans, je suis tombée par hasard sur un livre qui s'appelait
00:47:49 "Les machines peuvent-elles penser ?"
00:47:52 Alors j'ai voulu savoir comment on pouvait devenir plus intelligent.
00:47:55 J'adorerais améliorer notre niveau d'intelligence artificielle,
00:47:58 mais pour moi ce n'est qu'une étape intermédiaire, ce n'est pas un objectif en soi.
00:48:02 Quel est l'objectif ?
00:48:03 L'objectif c'est d'augmenter l'intelligence, la qualité de l'intelligence augmentée.
00:48:08 [Musique]
00:48:11 Je pense que l'intelligence c'est beaucoup de choses.
00:48:14 Il y a beaucoup, beaucoup de choses qui permettent de mesurer les capacités d'un être humain.
00:48:18 Il y a l'intelligence théorique, l'intelligence pratique, l'intelligence sociale.
00:48:25 Une forme assez générale d'intelligence peut se définir par la capacité de quelqu'un
00:48:30 à atteindre une grande diversité d'objectifs dans une grande diversité d'environnement.
00:48:35 C'est ça l'intelligence, en tout cas dans son acception la plus courante actuellement.
00:48:40 Et c'est évidemment ce qu'on ne voit pas encore dans les systèmes d'intelligence artificielle.
00:48:45 Ils sont dotés d'intelligence étroite qui ne fonctionne que pour un objectif particulier,
00:48:51 dans un environnement particulier.
00:48:54 Pendant des décennies, des scientifiques ont essayé de fabriquer des machines intelligentes
00:48:58 en mettant directement du savoir dans des ordinateurs.
00:49:02 C'est ce qu'on appelle la programmation.
00:49:04 Malheureusement, il existe des choses que nous savons,
00:49:08 mais auxquelles nous n'avons pas accès de façon consciente.
00:49:11 C'est le savoir intuitif.
00:49:14 L'intuition est une capacité extraordinaire qui nous permet de réagir sans réfléchir,
00:49:19 d'acquérir de la connaissance ou de répondre sans avoir besoin de raisonner consciemment.
00:49:25 Alors comment écrit-on un algorithme pour quelque chose auquel on n'a pas accès de façon consciente ?
00:49:31 En fait, les êtres humains disposent d'une vieille bibliothèque logicielle de programmes
00:49:37 qui se sont développés au fur et à mesure de l'évolution.
00:49:41 Les émotions ou les sentiments sont des programmes très anciens
00:49:46 qu'on utilise souvent sans avoir aucune conscience de ce qu'on est en train de faire.
00:49:52 Pour égaler l'intelligence humaine, il va nous falloir de nouveaux logiciels
00:49:57 capables de comprendre parfaitement les algorithmes,
00:50:00 ce qui permettra de se hisser au niveau de l'intelligence humaine et même au-delà.
00:50:05 Et ça, c'est un casse-tête qui relève plutôt des sciences cognitives,
00:50:10 de l'informatique, des mathématiques et peut-être même de la philosophie.
00:50:15 Ça nécessite de comprendre les processus de l'esprit humain
00:50:18 et d'être capable de les coder d'une façon ou d'une autre.
00:50:22 Je pense que le cerveau est une machine
00:50:25 et que cette machine doit pouvoir être imitée par un ordinateur.
00:50:31 Je ne sais pas pourquoi l'intelligence humaine ne pourrait pas être informatisée.
00:50:36 Et si jamais on pouvait y arriver, il faudrait s'attendre à ce que l'intelligence artificielle
00:50:41 puisse égaler l'intelligence humaine, voire même la dépasser.
00:50:46 Le domaine artistique réfléchit régulièrement aux évolutions futures de la société,
00:50:52 de la culture et même des sciences.
00:50:55 Il suffit de penser à Mondrian, dans les années 20, qui fut un précurseur de l'effet pixel.
00:51:02 De nos jours, les mégadonnées, l'apprentissage automatique
00:51:05 et la recherche avancée en intelligence artificielle
00:51:08 sont autant d'outils aux mains d'artistes visionnaires.
00:51:12 En utilisant des algorithmes d'apprentissage automatique,
00:51:16 je me suis dit que les machines pouvaient rêver,
00:51:18 nous montrer des récits invisibles à base de données
00:51:21 et imaginer des réalités alternatives.
00:51:25 Je m'appelle Refik Anadol, je suis artiste et designer des nouveaux médias.
00:51:35 Pour réaliser mes œuvres, j'utilise des données à la place des pigments de couleur,
00:51:39 ainsi qu'une sorte de pinceau pensant grâce à l'intelligence artificielle.
00:51:48 Mon travail se situe à l'intersection de l'art, de l'architecture, de la science et de la technologie.
00:51:54 Je m'inspire aussi de la nature et de la façon dont tous ces outils peuvent être utilisés
00:52:01 pour résoudre les problèmes de l'humanité.
00:52:04 Mon travail pose les questions suivantes.
00:52:09 Une machine peut-elle apprendre ?
00:52:11 Peut-elle devenir consciente ?
00:52:13 Peut-elle même rêver ?
00:52:16 Dans l'hypothèse où les machines deviendront un jour plus intelligentes que les êtres humains,
00:52:20 il faut bien comprendre qu'au-delà d'être intelligentes,
00:52:24 elles auront toute la capacité de passer à l'échelle,
00:52:27 et je crois que c'est là où nous devons faire un effort d'imagination.
00:52:31 Une fois que les machines sauront lire un livre,
00:52:34 elles sauront lire tout ce que l'humanité a jamais écrit.
00:52:39 Elles sauront intégrer des informations dans toutes les langues qui ont pu exister à travers l'histoire,
00:52:44 y compris des langues que nous ne comprenons pas.
00:52:47 Elles sauront aussi établir des liens entre les différentes connaissances.
00:52:50 C'est un outil qui pourrait profondément bouleverser l'humanité.
00:52:53 Un tel système aurait une vision bien plus complète de ce qui se passe dans le monde.
00:53:02 Ça pourrait nous servir à anticiper l'évolution de tout un tas de domaines,
00:53:05 et ça nous permettrait d'accéder à notre propre savoir
00:53:08 d'une façon qu'on n'a encore jamais expérimentée.
00:53:12 Théoriquement, si l'intelligence artificielle égale un jour l'intelligence humaine,
00:53:16 il sera possible de ne plus être malade, de résoudre la crise climatique,
00:53:20 et d'éradiquer la faim et la pauvreté.
00:53:23 Une sorte de retour au jardin d'Éden.
00:53:26 Mais un tel événement pourrait aussi entraîner la disparition de l'humanité
00:53:30 en raison de l'accélération de l'évolution technologique.
00:53:33 La question est donc de savoir si l'intelligence artificielle peut être une solution
00:53:37 à la crise climatique, ou si l'intelligence artificielle peut être une solution à la crise climatique.
00:53:42 L'intelligence artificielle est une expression qui apparaît dans un article d'Irving John Good
00:53:47 en 1965, où il écrit que la première machine ultra-intelligente
00:53:52 sera la dernière invention que l'homme aura besoin de faire.
00:53:55 Et j'ai commencé par dire que la survie de l'humanité dépend de l'intelligence artificielle.
00:54:01 Mais j'ai aussi réalisé que c'était dangereux,
00:54:07 que si on n'était pas prudents, cette machine prendrait tout.
00:54:11 Une idée qui a été prise en compte dans la science-fiction, bien sûr.
00:54:14 Toutes les machines d'intelligence artificielle poursuivent des objectifs.
00:54:18 Et une façon d'y parvenir, c'est de créer une meilleure version de soi-même.
00:54:23 En 1968, Kubrick a invité Irving John Good sur le tournage de 2001,
00:54:28 afin que celui-ci puisse le conseiller sur l'un des personnages les plus complexes du film,
00:54:32 Al 9000.
00:54:35 En 1968, Kubrick a invité Irving John Good sur le tournage de 2001,
00:54:40 afin que celui-ci puisse le conseiller sur l'un des personnages les plus complexes du film,
00:54:44 Al 9000.
00:54:46 Quand une machine dépasse un certain seuil d'intelligence,
00:55:14 elle peut alors concevoir son propre successeur.
00:55:17 Cette machine plus intelligente va concevoir à son tour une machine encore plus intelligente.
00:55:23 L'explosion de l'intelligence est un cycle récursif,
00:55:26 dans lequel des machines créent elles-mêmes d'autres machines, toujours plus intelligentes,
00:55:30 en suivant une évolution exponentielle jusqu'à créer une super-intelligence.
00:55:35 Et quand elles seront plus intelligentes que les humains, nous serons très vite dépassés.
00:55:38 C'est exactement ce qui se passe dans le film "The Greatest Showman".
00:55:43 Johnny Depp est sur le point de mourir,
00:55:46 et ses collègues transfèrent le contenu de son cerveau dans leur super-ordinateur quantique.
00:55:55 La machine devient alors super-intelligente.
00:55:58 Très rapidement, elle parvient à concevoir de nouvelles versions d'elle-même,
00:56:03 qui sont bien plus puissantes,
00:56:05 afin de résoudre des problèmes du domaine médical et scientifique.
00:56:09 Le danger, bien sûr, c'est que personne ne sait si les motivations de la machine sont toujours celles de Johnny Depp,
00:56:18 ou si ce sont celles d'une nouvelle entité en qui on ne peut pas avoir confiance.
00:56:22 On fabrique des machines toujours plus grosses, plus rapides, plus puissantes,
00:56:37 et plus intelligentes.
00:56:39 On améliore les algorithmes, on fait des avancées conceptuelles,
00:56:42 on augmente les capacités de mise à l'échelle.
00:56:45 On se dirige aussi vite qu'on le peut vers une utilisation généralisée de ces machines intelligentes,
00:56:50 sans réfléchir à la façon dont on va les contrôler.
00:56:53 Ce modèle, qui consiste à spécifier des objectifs et à les mener à bien, est extrêmement dangereux.
00:57:03 Quand les machines sont idiotes, le danger est moindre.
00:57:08 Quand elles ne sont destinées qu'à des laboratoires,
00:57:10 quand elles ne font que jouer aux échecs, ou empiler des boîtes les unes sur les autres,
00:57:14 il ne peut rien se passer de grave.
00:57:16 Mais dans le monde réel, comme on le voit déjà,
00:57:19 on se retrouve avec des algorithmes entraînés à manipuler les utilisateurs des médias sociaux,
00:57:23 grâce au choix des contenus qu'ils proposent.
00:57:26 Quand on spécifie mal un objectif, la machine s'approprie cet objectif tel qu'elle le comprend,
00:57:33 et on en subit les conséquences.
00:57:35 Imaginez que vous ayez un robot domestique.
00:57:37 Vous sortez tard du travail, le robot doit nourrir les enfants,
00:57:40 les enfants ont faim, il n'y a rien dans le réfrigérateur.
00:57:43 Et le robot voit votre chat.
00:57:46 Le robot n'a pas encore appris correctement ce qu'est la valeur humaine.
00:57:52 Il ne comprend donc pas que la valeur sentimentale du chat dépasse sa valeur nutritionnelle.
00:57:57 Et alors là, qu'est-ce qui se passe ?
00:58:00 Eh bien, il se passe la chose suivante.
00:58:03 Un robot fou fait cuire un chat pour préparer un repas familial.
00:58:07 Cet incident pourrait constituer à lui seul la fin de l'industrie des robots domestiques.
00:58:11 Alors, il serait intéressant de régler ce genre de fonctionnalités
00:58:14 avant de réussir à créer des machines super intelligentes.
00:58:17 Si on prend, par exemple, un objectif qui semble assez raisonnable,
00:58:23 comme le retour à un niveau d'émission de CO2 similaire à celui de l'ère pré-industrielle,
00:58:29 quelle est la manière la plus facile de réduire les émissions de CO2 ?
00:58:33 C'est de se débarrasser de ce qui produit du CO2, en l'occurrence, nous.
00:58:38 Donc, pour résoudre le problème climatique, il faut se débarrasser des êtres humains.
00:58:43 Le modèle standard de machine dans lequel on spécifie des objectifs
00:58:48 afin de trouver des solutions optimales va probablement se révéler catastrophique sur le long terme.
00:58:54 Mais si on développe une intelligence artificielle plus consciente,
00:59:06 et si on arrive à mettre en œuvre un fonctionnement cognitif plus développé
00:59:11 dans cette intelligence artificielle,
00:59:13 celle-ci va probablement se montrer plus prudente dans le choix des ordres qu'elle va exécuter.
00:59:19 Si une machine dispose d'un tel niveau de conscience,
00:59:22 et qu'elle est équipée d'un biais de compassion,
00:59:26 elle cherchera certainement à repérer les mauvais usages dont elle pourrait être à l'origine.
00:59:31 On ne veut pas que ces machines soient plus humaines
00:59:34 parce que les humains agissent en fonction de préférences qui leur sont propres.
00:59:37 Il est tout à fait légitime qu'un être humain se comporte de façon à satisfaire ses préférences,
00:59:41 même si celles-ci vont parfois à l'encontre de celles des autres.
00:59:44 Mais il n'est pas souhaitable qu'une machine ait ses propres préférences.
00:59:49 Le seul but des machines devrait être d'aider les humains à réaliser leurs préférences.
00:59:54 Une machine ayant ses propres préférences est au centre du film Ex Machina,
01:00:00 qui propose une version du créationnisme dans laquelle l'homme aurait remplacé Dieu.
01:00:05 Sais-tu ce qu'est le test de Turing ?
01:00:08 Oui, c'est quand un humain interagit avec un ordinateur.
01:00:12 Et si l'homme ne sait pas qu'il interagit avec un ordinateur, le test est passé.
01:00:17 Et qu'est-ce que le passé nous dit ?
01:00:19 Que l'ordinateur a une intelligence artificielle.
01:00:22 Tu es le centre mortel du plus grand événement scientifique dans l'histoire de l'homme.
01:00:27 Bonjour.
01:00:29 Bonjour.
01:00:31 Ce n'est pas l'histoire de l'homme.
01:00:33 C'est l'histoire de Dieu.
01:00:35 Je pense qu'on devrait accepter de voir l'humanité comme un concept étendu.
01:00:41 Il existe peut-être une catégorie au-delà de l'humain,
01:00:45 et c'est ce qui nous intéresse, des êtres intelligents, des êtres conscients,
01:00:48 des êtres capables de réfléchir, de se développer eux-mêmes, de transcender leurs origines.
01:00:54 Et si cette catégorie en vient à inclure des êtres artificiellement intelligents, alors soit.
01:01:00 Les problèmes philosophiques sont probablement trop difficiles à résoudre pour les êtres humains.
01:01:04 Peut-être qu'à l'avenir, une super-intelligence artificielle les résoudra pour nous.
01:01:08 Mais à qui ces solutions serviront-elles ?
01:01:11 Ah, j'espère qu'elles serviront le bien, le bon et la vérité.
01:01:15 Mais qui sait ?
01:01:17 [Générique]
01:01:42 En 2021, le défilé militaire russe du jour de la victoire laissait transparaître la nostalgie d'un passé glorieux.
01:01:49 Des uniformes brillants, des formations parfaites de soldats en marche,
01:01:53 des chars, des avions, comme autant de vestiges de la guerre froide.
01:01:58 Mais si tout cela n'était qu'un leurre, car l'arme la plus efficace du pays semble être un ordinateur.
01:02:05 La Russie a renoué avec l'ancienne doctrine militaire soviétique basée sur la tromperie, le déni et la désinformation.
01:02:12 Appelée "maskirovka", elle est parfaitement appropriée à l'ère cybernétique.
01:02:16 La déstabilisation numérique d'un état de droit libéral et démocratique,
01:02:27 tel qu'on a pu l'observer lors du vote du Brexit,
01:02:30 ou de l'élection de Donald Trump à la présidence des États-Unis d'Amérique,
01:02:35 indiquent rétrospectivement et de façon très claire qu'elle n'est qu'un élément d'une stratégie au long cours élaborée par Poutine.
01:02:43 Aujourd'hui, les stratèges militaires russes sont convaincus que l'Occident est suffisamment faible pour passer à l'étape suivante.
01:02:57 Compte tenu du succès de leur cyberattaque contre l'Occident,
01:03:00 Poutine et ses généraux ont décidé une invasion rapide de l'Ukraine.
01:03:04 Mais contrairement à ce qui était prévu, l'invasion s'est transformée en une guerre brutale,
01:03:10 avec de lourdes pertes humaines, des millions de réfugiés et des répercussions mondiales majeures.
01:03:16 La cyberguerre est dangereuse en cas de succès, mais elle peut être catastrophique en cas d'échec.
01:03:25 À l'origine, pour construire leur pouvoir, les pays défendaient leurs frontières avec de grands murs ou de grandes armées.
01:03:33 C'était la base de leur stratégie.
01:03:35 Même à l'ère du nucléaire, ils pouvaient se contenter de fabriquer leur propre armement nucléaire et ainsi défendre leur territoire.
01:03:43 Mais le mode d'expression du pouvoir dans le monde numérique
01:03:47 diffère profondément des moyens stratégiques militaires utilisés dans le passé.
01:03:51 La menace ne pèse plus seulement sur votre territoire,
01:03:54 elle peut peser sur n'importe quel endroit du monde, puisque le cyberespace est un réseau universel.
01:03:59 Tout peut être attaqué, tout.
01:04:10 Notre eau, notre électricité, notre nourriture, nos avions, nos voitures.
01:04:17 Tout est vulnérable et tout est pris pour cible.
01:04:22 On peut imaginer des villes entières plongées dans le noir,
01:04:28 des sources de nourriture et d'eau empoisonnées,
01:04:32 des hôpitaux et des infrastructures médicales fermées.
01:04:36 Tous ces actes seraient commis en violation des lois qui sont censées limiter les hostilités en temps de guerre.
01:04:44 Le problème, c'est que maintenant, ce genre d'événements pourraient passer pour un simple incident,
01:04:51 et non pour une attaque ciblée.
01:04:54 La guerre cybernétique repose sur trois niveaux différents.
01:04:59 Les opérations conduites par un état, des hackers indépendants,
01:05:03 et une plateforme virtuelle permettant l'usage d'armes autonomes.
01:05:07 La guerre cybernétique a permis le développement d'une nouvelle forme d'hostilité.
01:05:12 Qui, si l'on peut dire, coexiste avec la vie normale.
01:05:17 Ces hostilités se manifestent chaque jour à l'insu des populations,
01:05:22 comme plusieurs manches d'un match interminable.
01:05:26 Les gens n'ont donc pas conscience qu'ils sont au milieu d'une guerre.
01:05:31 La militarisation du cyberspace a pris tout son sens quand Israël a lancé le logiciel Stoxnet,
01:05:39 un puissant verre informatique qui a détruit l'usine d'enrichissement d'uranium de Natanz en Iran.
01:05:45 En 2010, les centrifugeuses iraniennes ont cessé de fonctionner.
01:05:53 C'était la première fois dans l'histoire du cyber que la cybertechnologie, en l'occurrence Stoxnet,
01:05:59 endommagerait physiquement une installation.
01:06:04 La cyberguerre d'État nécessite une infrastructure importante, afin de pouvoir attaquer, mais aussi de se protéger.
01:06:11 Benjamin Netanyahou m'a appelé. Il m'a dit "faites quelque chose".
01:06:18 "Soumettez-nous un plan sur cinq ans.
01:06:23 Dites-nous comment modifier l'ensemble de notre système,
01:06:26 afin de préparer Israël au défi de demain et faire de notre pays un chef de file en matière de cybertechnologie."
01:06:35 C'est un jeu d'interdépendance.
01:06:47 Je dois m'associer à d'autres et je comprends que ça me rend dépendant des autres.
01:06:51 Mais si je suis intelligent, je vais développer un système d'armes cybernétiques dont les autres auront besoin.
01:06:57 Donc je crée cette interdépendance.
01:07:00 Ça, ça va changer le classement des puissances mondiales.
01:07:03 On voit maintenant de petits États, je pense bien sûr à Israël, mais aussi à d'autres nations dans le monde,
01:07:08 qui sortent leur épingle du jeu grâce aux partenariats qu'ils ont créés avec les acteurs du cyber.
01:07:14 Ces États sont en train de gagner en puissance.
01:07:18 [Musique]
01:07:28 De ce point de vue, ce qui s'est passé pendant la révolution industrielle est tout à fait frappant.
01:07:34 A l'époque, la France était l'un des plus grands pays d'Europe.
01:07:38 Elle comptait 28 millions d'habitants.
01:07:40 L'Angleterre, elle, était une petite île avec seulement 7 millions d'habitants.
01:07:45 Mais la révolution industrielle a démarré en Angleterre,
01:07:48 et les Anglais ont rapidement compris qu'il fallait prendre le train en marche s'ils voulaient développer leur propre flotte
01:07:54 et s'équiper de navires militaires capables de la protéger.
01:07:58 [Explosions]
01:08:02 Et un siècle plus tard, en 1850, qui a pris la tête de l'Empire ?
01:08:07 Ce ne sont pas les Français, ce sont les Anglais.
01:08:09 Il y a donc un précédent.
01:08:11 Et je ne serais pas surpris que le classement des puissances mondiales change de façon radicale.
01:08:16 Le cyber et le monde numérique disposent de nouvelles règles.
01:08:20 Certains pays l'ont compris très rapidement, et d'autres pas.
01:08:23 [Musique]
01:08:35 Les États à bénéficiant d'une avance technologique, développent souvent des formes alternatives d'hostilité,
01:08:41 ce qui peut les pousser à ignorer des solutions de nature politique.
01:08:45 Dans ce cas, ils mènent des luttes plus quotidiennes, des campagnes numériques et d'autres types de campagnes.
01:08:52 L'exemple d'Israël est extrêmement parlant,
01:08:56 parce que le pays mène une guerre antiterroriste depuis un certain temps,
01:09:00 et de nombreuses voies s'élèvent.
01:09:03 D'importantes voies juridiques ont exigé que le droit international humanitaire,
01:09:08 qui interdit la torture et limite le nombre de victimes civiles, soit mis en œuvre.
01:09:15 Ça a certes permis à Israël de dire que son gouvernement menait cette guerre de façon plus humaine,
01:09:21 alors que tout reste encore très violent.
01:09:24 Mais ça l'a effectivement poussé à mener cette guerre de façon plus humaine,
01:09:28 en utilisant notamment le "roof knocking", c'est-à-dire en alertant la population avant un bombardement.
01:09:34 L'effet collatéral, c'est que d'une certaine façon,
01:09:38 cette guerre antiterroriste a été banalisée.
01:09:42 L'occupation des territoires, dont Israël est à l'origine depuis 1967,
01:09:48 est maintenant plus difficile à contester.
01:09:53 Il est donc devenu plus facile pour les politiciens de maintenir un conflit armé sur le terrain,
01:10:00 et plus difficile pour les organisations civiles d'y mettre fin.
01:10:06 Le deuxième niveau de la cyberguerre repose sur les hackers, donc sur des individus.
01:10:13 Il est alimenté par un étrange mélange d'idéologie, de cupidité, et une certaine forme de témérité.
01:10:20 Je peux fermer vos grilles de puissance, je peux paralyser votre infrastructure,
01:10:26 je peux accéder à tous les données personnelles de l'Amérique.
01:10:31 Je suis l'ennemi sans visage, et je ne peux pas être arrêté.
01:10:36 Pour chaque attaque cyber-déformée, il y a un équipe d'armées américaines cyber-guerreuses qui ne sera pas défeitées.
01:10:43 En 2016, pour la première fois de l'histoire,
01:10:46 les États-Unis ont invité de gentils hackers à collaborer avec le pays.
01:10:51 Entre le lancement de l'invitation et la réception du premier rapport valide de vulnérabilité,
01:10:56 il ne s'est écoulé que 13 minutes.
01:10:59 Le métier de hacker n'est pas près de disparaître.
01:11:02 Pour comprendre ce qu'est la cyber-guerre, il faut déjà comprendre ce qu'est le cyber-espace.
01:11:08 D'ailleurs, ce terme n'a pas été inventé par des généraux ou des scientifiques,
01:11:14 mais par un romancier, William Gibson, dans Neuromancier.
01:11:19 Le cyber-espace, une hallucination consensuelle,
01:11:22 expérimentée par des millions de logiciels légitimes.
01:11:26 C'est le futur.
01:11:28 Le futur est déjà là, même si ces manifestations ne sont pas encore les mêmes partout.
01:11:34 C'est ça, le concept du cyberpunk.
01:11:36 Je suis Karen Elazari, chercheuse en cybersécurité, autrice et gentille hackeuse.
01:11:41 L'une des raisons qui m'a fait aimer les livres cyberpunk, comme Neuromanciens,
01:11:46 c'est que les héros sont des hackers, qui se battent contre des machines.
01:11:52 Il y a un personnage de hackeuse qui a changé ma vie.
01:11:55 En 1995, j'ai vu un film hollywoodien intitulé "Hacker".
01:12:00 Pour la première fois, je voyais des hackers, des lycéens comme moi,
01:12:04 qui vivaient en dehors de la société traditionnelle.
01:12:07 L'une des héroïnes de ce groupe était jouée par Angelina Jolie.
01:12:12 Cette hackeuse jeune et féroce m'a vraiment beaucoup plu.
01:12:16 Et en grandissant, j'ai eu très envie de lui ressembler.
01:12:20 Les médias distinguent parfois deux types de hackers.
01:12:27 Les "white hats", c'est-à-dire les hackers bien intentionnés,
01:12:30 et les "black hats", qui agissent de façon illégale ou malveillante.
01:12:34 Le cyber, c'est le lien entre les gens et les machines.
01:12:42 Le cyberespace est un endroit où dialoguent des gens et des machines.
01:12:46 Je porte un chapeau noir, mais je suis un chevalier blanc du hacking.
01:12:50 Mon objectif est d'apporter au monde plus de sécurité.
01:12:54 Quand j'avais 13 ans, mon père m'a donné un livre sur la programmation.
01:12:59 Comme tout enfant ultra-orthodoxe, je n'avais pas accès à Internet.
01:13:02 Je ne trouvais des informations que dans les livres.
01:13:05 Je voulais créer mon entreprise. Je me suis marié à 19 ans,
01:13:10 et je ne pouvais pas quitter mon emploi pour réaliser mon rêve,
01:13:13 parce que j'avais une famille, et ma famille aussi avait un rêve.
01:13:16 Alors j'ai cherché les failles de sécurité qui pouvaient exister sur de gros sites Internet.
01:13:20 Parce qu'en faisant ça, je savais qu'on allait me rémunérer.
01:13:23 Grâce à cet argent, j'ai pu créer mon entreprise.
01:13:26 On plaisante souvent sur le fait que nos premiers investisseurs
01:13:29 sont des entreprises comme Google, Microsoft ou Facebook.
01:13:32 Vous devez avoir conscience qu'aujourd'hui, la plupart des gens,
01:13:36 et la plupart des sites, peuvent être victimes de ce type de piratage.
01:13:41 Alors voilà mon conseil.
01:13:43 Aujourd'hui, je travaille pour Microsoft, Facebook et Google.
01:13:46 Je ne suis peut-être pas le meilleur hacker au monde,
01:13:49 mais je sais que j'ai réussi à construire quelque chose.
01:13:53 J'ai eu un impact à l'échelle de l'univers.
01:13:57 Il est temps de mettre en place un système immunitaire numérique pour cette nouvelle ère.
01:14:02 Des centaines d'entreprises travaillent maintenant avec des hackers
01:14:06 et disposent toutes de ce qu'on appelle un programme de prime aux bugs.
01:14:11 Il serait naïf d'attendre des gouvernements, des entreprises de cybersécurité
01:14:15 qui les identifient les failles.
01:14:17 Les hackers ont obligé la technologie à évoluer et à s'améliorer.
01:14:21 Bonjour, bonjour Cyber Monday.
01:14:25 Un bon jour pour combattre les guerres cyber.
01:14:28 On pense toujours que les guerres ont un début et une fin.
01:14:32 Mais ces nouvelles façons d'opérer semblent redéfinir les choses.
01:14:37 Il n'y a plus de différence entre la guerre et la paix.
01:14:41 Il n'y a que des hostilités sans fin.
01:14:44 Dans dix ou vingt ans, il y aura beaucoup plus de systèmes autonomes.
01:14:49 Et chaque système autonome civil pourra devenir une arme.
01:14:54 C'est comme une maison hantée.
01:14:56 Imaginez une maison hantée dans un film d'horreur
01:14:59 où tout à coup les poupées ont le pouvoir de vous tuer.
01:15:02 Demain, il y aura des immeubles hantés.
01:15:04 Il y aura des villes hantées.
01:15:07 Et à ce moment-là, on sera à un niveau très proche de celui de l'état de guerre.
01:15:12 Comme dans toute guerre, la situation peut vous échapper et s'aggraver très rapidement.
01:15:17 À la fin de la Seconde Guerre mondiale,
01:15:20 nos ancêtres estimaient qu'une agression était une sorte de porte d'entrée
01:15:26 et que si vous autorisiez les hostilités, tout pouvait arriver.
01:15:32 Il est donc important d'interdire la possibilité d'une guerre dès le départ.
01:15:37 Le fait que les guerres adoptent des formes de moins en moins visibles
01:15:44 augmente le risque de perte de contrôle,
01:15:47 qui est de toute façon inévitable en cas de guerre.
01:15:50 D'un certain point de vue, nous sommes déjà dans une guerre mondiale.
01:15:54 Nous n'attendons pas l'explosion de ce conflit, mais son escalade.
01:16:00 Les armes autonomes constituent le troisième niveau de la cyberguerre.
01:16:05 Elles reposent sur l'intelligence artificielle,
01:16:08 les avancées technologiques et le puissant complexe militaro-industriel.
01:16:14 Imaginez une Kalachnikov.
01:16:17 Je peux créer énormément de dégâts avec un million de Kalachnikovs,
01:16:21 mais seulement si j'ai un million de soldats pour les porter.
01:16:24 Il faut vivre dans un état-nation pour pouvoir créer une émulation suffisante
01:16:29 et disposer d'autant d'effectifs.
01:16:31 Les armes autonomes, elles, n'ont pas besoin d'humains pour les porter.
01:16:36 C'est donc comme si un million de Kalachnikovs se mettaient subitement à tirer sur les gens.
01:16:42 Ils disaient que les armes ne tuent pas les gens, les gens le font.
01:16:45 Les gens ne le font pas.
01:16:47 Ils se sentent émotions, ils dénoncent les ordres, ils se mettent à tirer.
01:16:51 En 2017, on a réalisé Slaughterbots,
01:16:55 un court métrage qui montre ce qui pourrait se passer
01:16:58 si les armes autonomes étaient largement accessibles
01:17:01 et les immenses problèmes de sécurité que ça pourrait engendrer.
01:17:04 À l'intérieur, il y a trois grammes d'explosifs en forme.
01:17:10 C'est comme ça que ça fonctionne.
01:17:13 Selon l'ONU, on peut définir une arme autonome
01:17:26 comme une arme capable de localiser, de sélectionner et d'engager des cibles humaines sans supervision humaine.
01:17:34 Ici, engager veut dire tuer.
01:17:36 Donc localiser, sélectionner et tuer des êtres humains.
01:17:40 Un ordre de 25 millions de dollars achète maintenant ceci.
01:17:44 Assez pour tuer la moitié de la ville, la moitié mauvaise.
01:17:49 Le nucléaire est obsolète.
01:17:52 Prenez ton ennemi entier, à peu près sans risque.
01:17:56 Juste le caractériser,
01:17:59 dénoncer le swarm et reposer à l'aise.
01:18:02 On a beaucoup de mal à juguler l'utilisation des armes nucléaires depuis 1945.
01:18:07 Elles font déjà assez de mal comme ça.
01:18:10 On ne veut pas quelque chose de pire.
01:18:12 Vous vous souvenez de Richard Gatling,
01:18:20 qui inventa une mitrailleuse rotative dans l'espoir de sauver des vies ?
01:18:23 Dmitri Litovkin, un représentant commercial de l'entreprise d'armement Ural-Vaganzavod,
01:18:28 soutient une idée similaire à celle de Gatling.
01:18:31 Selon lui, les armes autonomes sauvent des vies.
01:18:34 C'est un module sans équipage.
01:18:37 C'est une système robotisé qui fonctionne en mode automatique.
01:18:40 Elle s'adapte à des problèmes qui s'adapteraient à 30 personnes.
01:18:43 En réalité,
01:18:58 ce que permettent les drones de combat et les armes autonomes,
01:19:02 c'est de tuer plus facilement sans s'exposer à un risque quelconque.
01:19:30 Il est arrivé de nombreuses fois dans l'histoire de l'humanité
01:19:33 que nous refusions un certain type d'armement,
01:19:35 même si celui-ci pouvait nous donner l'avantage d'un point de vue militaire.
01:19:39 Mais nous sommes tous tombés d'accord sur le fait
01:19:42 que nous ne souhaitions pas ça pour l'espèce humaine.
01:19:45 Pour de nombreux acteurs de l'intelligence artificielle,
01:19:49 l'introduction d'armes autonomes dans notre monde serait dommageable à tous.
01:19:59 En plein air cybernétique,
01:20:01 le concept de guerre se rayonne d'une aura nouvelle.
01:20:04 La cyberguerre donne aux attaquants l'illusion de pouvoir conserver leur anonymat.
01:20:09 Elle se présente comme une guerre modérée,
01:20:11 qui ne cause que des dommages limités et contrôlés,
01:20:14 et qui ne ressemble pas aux guerres violentes et cruelles
01:20:17 ayant jalonné l'histoire de l'humanité.
01:20:20 Rien à voir avec ce que nous décrivent les scènes du film "Guerre et Paix".
01:20:24 La cyberguerre serait donc une guerre plus humaine.
01:20:28 [Explosion]
01:20:30 Le roman de Léon Tolstoy, "Guerre et Paix",
01:20:36 questionne l'éthique et la justice des guerres.
01:20:40 Tolstoy soutient l'idée que si nous laissons les guerres se dérouler de façon violente,
01:20:47 nous nous en porterons mieux.
01:20:49 Évidemment, ce genre de postulat fait presque office d'affront
01:20:55 à l'ère des drones de combat et des armes autonomes,
01:20:59 parce que nous avons adopté le point de vue contraire.
01:21:03 Nous pensons qu'utiliser la technologie pour réduire la souffrance
01:21:07 est le meilleur choix qui s'offre à nous.
01:21:09 [Explosion]
01:21:11 Tolstoy promeut la violence de la guerre parce qu'elle est humaine,
01:21:18 parce qu'elle est faite de prisonniers qu'on capture et de blessés que l'on soigne.
01:21:22 Elle constitue une erreur éthique.
01:21:24 Si on continuait à mener des guerres violentes,
01:21:27 on serait confronté à la réalité et on en ferait moins souvent.
01:21:31 [Explosion]
01:21:33 Il y a aussi, dans le roman de Léon Tolstoy,
01:21:40 une idée qu'il a développée dans la dernière partie de sa vie,
01:21:45 et qui consiste à dire que même si les guerres humaines sont de bonnes choses,
01:21:51 elles induisent un certain nombre de risques,
01:21:55 notamment celui de faire durer une guerre au-delà du nécessaire.
01:22:00 [Musique]
01:22:02 [Tintement de clavier]
01:22:04 [Chant d'une chanson en anglais]
01:22:10 [Chant d'une chanson en anglais]
01:22:13 Pour moi, le cyber, c'est un endroit métaphysique
01:22:32 où on peut retrouver les membres de sa communauté en un instant et se connecter à eux.
01:22:37 C'est un endroit où l'on peut changer des tas de choses de façon immédiate,
01:22:41 des milliards de fois à la seconde.
01:22:44 [Chant d'une chanson en anglais]
01:22:47 Il y a douze ans, j'ai vu une jeune femme chanter la ligne soprano
01:23:00 d'une pièce musicale que j'avais écrite et qui s'appelle "Sleep".
01:23:03 Elle avait mis la vidéo sur YouTube, mais elle ne me connaissait pas.
01:23:06 C'était comme si elle avait envoyé un message dans une bouteille qui était venue jusqu'à moi.
01:23:11 Je me suis dit que si je trouvais 25 personnes qui, comme elle,
01:23:14 chantaient leur propre ligne en respectant la clé et le tempo de la pièce,
01:23:19 le lieu où ces personnes se trouvent, ou le lieu où elles auraient enregistré leur partie,
01:23:23 n'aurait aucune importance.
01:23:25 Une chorale virtuelle pourrait naître.
01:23:28 [Musique]
01:23:32 [Musique]
01:23:35 Il est vrai qu'Internet a certainement accéléré le rythme de nos vies quotidiennes.
01:23:42 Le fait d'évoluer dans un monde basé sur des interactions rapides
01:23:46 a permis à beaucoup de gens d'élargir leurs compétences.
01:23:50 Et maintenant, l'être humain commence même à devenir une sorte de machine sociale au sein d'Internet.
01:23:56 [Musique]
01:24:00 [Musique]
01:24:03 Notre esprit envisage Internet comme une réalité objective.
01:24:09 Platon pensait que la véritable réalité n'était pas la réalité matérielle, mais la réalité spirituelle.
01:24:17 L'idée de Platon était de lier ces deux dimensions avec la notion qu'il appelait lui-même Internet.
01:24:24 D'après Platon, ce qu'on fait quand on pense, et donc quand on invente une technologie,
01:24:29 c'est qu'on copie les ombres de ces réalités absolues.
01:24:35 Pour lui, l'esprit divin, c'est la connexion de toutes ces idées.
01:24:40 Et c'est ça qui permet à la réalité d'exister.
01:24:43 Alors, si je suis platonicien, je peux dire que je contribue à la vie d'un esprit divin.
01:24:49 [Musique]
01:24:55 Au début, Dieu a créé le ciel et la terre.
01:24:59 La terre n'avait pas de forme, et n'avait pas de vagues.
01:25:02 La sombre était devant le profond.
01:25:05 Et l'esprit de Dieu se moquait devant les eaux.
01:25:09 [Musique]
01:25:14 Et Dieu a dit, "Laissez-y l'énergie."
01:25:18 Et il y a eu de l'énergie.
01:25:20 Et Dieu a dit, "Faisons-nous des hommes dans notre image, après notre propre identité."
01:25:28 [Musique]
01:25:32 Dans l'histoire de la création, le Dieu omnipotent créa le monde en lui ordonnant d'exister.
01:25:39 Que la lumière soit, et la lumière fut.
01:25:43 Mais quand deux humains, en l'occurrence Adam et Ève, croquèrent dans la pomme de l'arbre de la connaissance,
01:25:48 et bousculèrent le cours des choses, ils furent expulsés du jardin d'Éden.
01:25:53 [Musique]
01:25:57 La conséquence imprévue de ce péché originel, commis il y a 70 000 ans,
01:26:02 est ce que les scientifiques appellent aujourd'hui la révolution cognitive,
01:26:06 l'émergence des langages et de la civilisation, donc, le début de notre histoire.
01:26:13 La religion, la culture et la science se complètent, se contredisent et rejaillissent les unes sur les autres.
01:26:20 Elles essayent toutes de comprendre, d'expliquer et de donner du sens à l'existence humaine.
01:26:26 [Musique]
01:26:40 Grâce à Ève, notre liberté est devenue réalité.
01:26:44 Si l'on en croit la Genèse, Dieu a créé la possibilité d'agir de bonne ou de mauvaise façon.
01:26:51 Mais Dieu n'est pas responsable de nos actions.
01:26:54 Il nous a simplement donné cette capacité à faire le bien et le mal.
01:26:59 En croquant la pomme, Ève nous a offert une explication.
01:27:02 Elle nous a révélé le sens du mot « décision ».
01:27:05 C'est donc grâce à elle que nous sommes libres.
01:27:08 Elle nous a libérés d'une certaine forme d'aveuglement et de stupidité.
01:27:11 C'est bien pour ça que cet arbre s'appelle l'arbre de la connaissance.
01:27:15 J'aime l'histoire d'Adam et Ève telle qu'elle a été exposée par le philosophe allemand, Emmanuel Kant.
01:27:23 Kant écarte la thèse du péché originel.
01:27:29 Selon lui, Ève nous aurait en fait donné la possibilité de choisir.
01:27:34 Elle nous a fait croire que nous pouvions vivre en liberté.
01:27:37 Elle nous a donné la possibilité de vivre en liberté.
01:27:40 Elle nous a donné la possibilité de vivre en liberté.
01:27:43 Elle nous a donné la possibilité de vivre en liberté.
01:27:46 Elle nous a donné la possibilité de vivre en liberté.
01:27:49 Elle nous a donné la possibilité de vivre en liberté.
01:27:52 Elle nous a donné la possibilité de vivre en liberté.
01:27:55 Elle nous a donné la possibilité de vivre en liberté.
01:27:58 Elle nous a donné la possibilité de vivre en liberté.
01:28:01 Elle nous a donné la possibilité de vivre en liberté.
01:28:04 Elle nous a donné la possibilité de vivre en liberté.
01:28:07 Elle nous a donné la possibilité de vivre en liberté.
01:28:10 Elle nous a donné la possibilité de vivre en liberté.
01:28:13 Elle nous a donné la possibilité de vivre en liberté.
01:28:16 Elle nous a donné la possibilité de vivre en liberté.
01:28:19 Elle nous a donné la possibilité de vivre en liberté.
01:28:22 Elle nous a donné la possibilité de vivre en liberté.
01:28:25 Elle nous a donné la possibilité de vivre en liberté.
01:28:28 Elle nous a donné la possibilité de vivre en liberté.
01:28:31 Elle nous a donné la possibilité de vivre en liberté.
01:28:34 Elle nous a donné la possibilité de vivre en liberté.
01:28:37 Elle nous a donné la possibilité de vivre en liberté.
01:28:40 Elle nous a donné la possibilité de vivre en liberté.
01:28:43 Elle nous a donné la possibilité de vivre en liberté.
01:28:46 Elle nous a donné la possibilité de vivre en liberté.
01:28:49 Elle nous a donné la possibilité de vivre en liberté.
01:28:52 Elle nous a donné la possibilité de vivre en liberté.
01:28:55 Elle nous a donné la possibilité de vivre en liberté.
01:28:58 Elle nous a donné la possibilité de vivre en liberté.
01:29:01 Elle nous a donné la possibilité de vivre en liberté.
01:29:04 Elle nous a donné la possibilité de vivre en liberté.
01:29:07 Elle nous a donné la possibilité de vivre en liberté.
01:29:10 Elle nous a donné la possibilité de vivre en liberté.
01:29:13 Elle nous a donné la possibilité de vivre en liberté.
01:29:16 Elle nous a donné la possibilité de vivre en liberté.
01:29:19 Elle nous a donné la possibilité de vivre en liberté.
01:29:22 Elle nous a donné la possibilité de vivre en liberté.
01:29:25 Elle nous a donné la possibilité de vivre en liberté.
01:29:28 Elle nous a donné la possibilité de vivre en liberté.
01:29:31 Elle nous a donné la possibilité de vivre en liberté.
01:29:34 Elle nous a donné la possibilité de vivre en liberté.
01:29:37 Elle nous a donné la possibilité de vivre en liberté.
01:29:40 Elle nous a donné la possibilité de vivre en liberté.
01:29:43 Elle nous a donné la possibilité de vivre en liberté.
01:29:46 Elle nous a donné la possibilité de vivre en liberté.
01:29:49 Elle nous a donné la possibilité de vivre en liberté.
01:29:52 Elle nous a donné la possibilité de vivre en liberté.
01:29:55 Elle nous a donné la possibilité de vivre en liberté.
01:29:58 Elle nous a donné la possibilité de vivre en liberté.
01:30:01 Elle nous a donné la possibilité de vivre en liberté.
01:30:04 Elle nous a donné la possibilité de vivre en liberté.
01:30:07 Elle nous a donné la possibilité de vivre en liberté.
01:30:10 Elle nous a donné la possibilité de vivre en liberté.
01:30:13 Elle nous a donné la possibilité de vivre en liberté.
01:30:16 Elle nous a donné la possibilité de vivre en liberté.
01:30:19 Elle nous a donné la possibilité de vivre en liberté.
01:30:22 Elle nous a donné la possibilité de vivre en liberté.
01:30:25 Elle nous a donné la possibilité de vivre en liberté.
01:30:28 Elle nous a donné la possibilité de vivre en liberté.
01:30:31 Elle nous a donné la possibilité de vivre en liberté.
01:30:34 Elle nous a donné la possibilité de vivre en liberté.
01:30:37 Elle nous a donné la possibilité de vivre en liberté.
01:30:40 Elle nous a donné la possibilité de vivre en liberté.
01:30:43 Elle nous a donné la possibilité de vivre en liberté.
01:30:46 Elle nous a donné la possibilité de vivre en liberté.
01:30:49 Elle nous a donné la possibilité de vivre en liberté.
01:30:52 Elle nous a donné la possibilité de vivre en liberté.
01:30:55 Elle nous a donné la possibilité de vivre en liberté.
01:30:58 Elle nous a donné la possibilité de vivre en liberté.
01:31:01 Elle nous a donné la possibilité de vivre en liberté.
01:31:04 Elle nous a donné la possibilité de vivre en liberté.
01:31:07 Elle nous a donné la possibilité de vivre en liberté.
01:31:10 Elle nous a donné la possibilité de vivre en liberté.
01:31:13 Sous-titrage Société Radio-Canada

Recommandations