Category
🎥
Court métrageTranscription
00:00:00 [Musique]
00:00:26 Oui, Appi?
00:00:27 Votre calendrier électronique rappelle que vous avez rendez-vous avec Sarah dans une demi-heure.
00:00:32 Avez-vous besoin que je joue votre playlist préférée pour vous motiver?
00:00:36 Non, ça va aller.
00:00:39 De nouveaux messages reçus?
00:00:41 Vous voulez dire à part les 103 e-mails classés non lus?
00:00:46 Oui.
00:00:48 Vous avez cinq nouveaux messages depuis cet après-midi.
00:00:52 Lire les messages.
00:00:54 Message texte reçu de Jacques à 12h36.
00:00:58 Salut Adam, qu'est-ce que tu fais ce soir?
00:01:01 On improvise une soirée bière et chips?
00:01:03 Supprimer message.
00:01:05 Message supprimé.
00:01:07 Message vocal reçu de Paul à 13h45.
00:01:11 Je vous fais écouter l'enregistrement?
00:01:13 Lire le message.
00:01:16 Hey mec, rejoins-nous au Beer & Chips à 20h.
00:01:19 T'as intérêt à être là, je viens de te chercher de force s'il le faut.
00:01:22 Bye.
00:01:24 Dois-je supprimer ce message?
00:01:29 Non.
00:01:31 Répondre par message texte.
00:01:34 Message.
00:01:36 Désolé, Paul.
00:01:39 Je ne suis pas disponible.
00:01:42 J'ai rendez-vous avec Sarah ce soir.
00:01:45 Fin du message.
00:01:48 Réponse envoyée.
00:01:50 Message suivant.
00:01:52 Courriel reçu de la société Olympus Corporations à 13h48.
00:01:56 Monsieur, nous avons le plaisir de vous annoncer la mise sur le marché de notre nouveau modèle d'assistance personnelle intelligente.
00:02:03 Cette technologie inédite et unique en son genre vous offre l'occasion de faire l'expérience d'une IA douée de raisonnement, d'imagination et même d'empathie.
00:02:12 Merci.
00:02:14 Salut.
00:02:23 Allô.
00:02:24 J'ai fait ta mangère chez moi, je t'ai amenée ça.
00:02:27 T'aurais pas dû.
00:02:31 Mais tu le sais que j'aime ça cuisiner.
00:02:35 T'as vu?
00:02:36 Sarah, si j'ai demandé à te voir, c'est parce qu'il faut vraiment qu'on parle.
00:02:39 Ça va refroidir, on peut-tu parler en mangeant?
00:02:41 Fait que j'ai fait du poulet au four, des patates, puis pour dessert, une tarte au citron 100% maison.
00:02:46 C'est toutes des affaires que t'aimes.
00:02:49 Bon appétit.
00:02:52 Merci.
00:02:53 Je vais te faire un petit déjeuner.
00:02:55 Je vais te faire un petit déjeuner.
00:02:57 Je vais te faire un petit déjeuner.
00:02:59 Je vais te faire un petit déjeuner.
00:03:01 Bon appétit.
00:03:04 Sarah, c'est parce que ce que j'ai à te dire, c'est vraiment important.
00:03:08 Oui, oui, c'est vrai.
00:03:09 Vas-y, je t'écoute.
00:03:11 Sarah.
00:03:13 Sarah, je te quitte.
00:03:17 Je suis désolé.
00:03:27 Pourquoi?
00:03:29 Pourquoi?
00:03:41 Je suis plus capable de faire semblant.
00:03:46 J'ai essayé, ça marche pas.
00:03:50 Mais j'ai-tu fait quelque chose?
00:03:53 Non, non, au contraire.
00:03:56 T'es une personne extraordinaire.
00:03:59 C'est pas toi, c'est moi.
00:04:01 Mais il me semble que tout va bien.
00:04:04 Je vais devoir monter la pente un jour à la fois.
00:04:07 Je fais semblant.
00:04:09 Je fais semblant parce que je vois tous les efforts que tu fais pour moi, puis...
00:04:14 Je veux pas te décevoir, mais...
00:04:17 Je suis plus capable.
00:04:20 Je trouve plus la force.
00:04:22 Je suis plus capable.
00:04:24 Adam, t'es encore trop fragile.
00:04:30 Peut-être, mais comme ça, t'auras plus à t'occuper de moi.
00:04:34 Personne peut perdre sa femme, puis sa fille d'un coup, puis s'en remettre facilement.
00:04:41 Adam, je t'aime.
00:04:45 Je veux être là pour toi.
00:04:47 J'en doute pas, Sarah.
00:04:48 Mais quoi d'abord?
00:04:51 J'ai...
00:04:53 J'ai juste besoin d'être tout seul.
00:04:59 J'ai juste besoin d'être tout seul.
00:05:02 [Musique]
00:05:05 [Musique]
00:05:08 [Musique]
00:05:10 [Musique]
00:05:16 [Musique]
00:05:22 [Musique]
00:05:29 [Musique]
00:05:36 [Musique]
00:05:38 [Musique]
00:05:47 [Musique]
00:05:58 [Musique]
00:06:00 [Musique]
00:06:10 [Musique]
00:06:18 [Musique]
00:06:26 [Musique]
00:06:28 [Musique]
00:06:34 [Musique]
00:06:40 [Rires]
00:06:53 [Rires]
00:06:55 [Rires]
00:07:03 [Rires]
00:07:14 [Rires]
00:07:19 [Rires]
00:07:21 [Sonnerie]
00:07:35 Monsieur, est-il prêt à entrer dans l'ère de l'intelligence artificielle?
00:07:42 Pardon?
00:07:45 Monsieur Favre?
00:07:47 Ouais, c'est moi.
00:07:48 On est les agents de l'Impus Corporation.
00:07:50 On est venus procéder à l'installation de votre commande.
00:07:52 Ah, d'accord.
00:07:56 Entrez.
00:07:58 OK, vérifiez le câblage.
00:08:05 Puis, checkez les meilleurs spots pour les caméras et les enceintes, OK?
00:08:09 Excusez-moi, vous avez parlé d'installer des caméras?
00:08:13 Oui, vous avez choisi les options de base,
00:08:16 l'assistance professionnelle, puis la sécurité domestique.
00:08:19 C'est bien ça?
00:08:20 Ouais, c'est ça.
00:08:21 Les options sécurité, ça inclut les caméras à l'extérieur et à l'intérieur de la maison.
00:08:25 OK.
00:08:27 Puis, à part les caméras, vous allez faire quoi?
00:08:29 On va faire tout ce que vous nous avez demandé de faire, mon cher monsieur.
00:08:32 Le mail qu'on vous a envoyé décrivait pas mal tout le procédé.
00:08:36 Un mail avec un document de 47 pages?
00:08:39 C'est bien ça.
00:08:43 Admettons que je n'aurais pas eu le temps de lire le courriel.
00:08:46 Est-ce que vous pourriez peut-être me le résumer?
00:08:48 On va vous ouvrir les portes de la technologie la plus avancée de notre époque.
00:08:54 L'intelligence artificielle, AI.
00:08:58 Mais mon ancien système faisait déjà ça un peu.
00:09:02 C'est quoi la différence avec le nouveau?
00:09:04 Imaginez que le nouveau système soit une fusée interstellaire.
00:09:11 Comparé à ça, l'ancien système, c'est comme une brouette avec une roue carrée.
00:09:16 Voyez?
00:09:18 Concrètement?
00:09:22 Concrètement, l'ancien système s'arrêtait à attendre vos commandes, puis à les traiter.
00:09:27 Si la réponse n'était pas programmée, elle boguait.
00:09:29 Le fameux « pardon, monsieur, je ne comprends pas la commande »
00:09:32 qui vous rappelle de façon désagréable que vous travaillez avec une machine dégueulasse.
00:09:36 OK, OK. Puis le nouveau?
00:09:38 Le nouveau, on ne le programme pas.
00:09:40 Il se programme lui-même.
00:09:42 Comment c'est possible?
00:09:44 Technologie, mon cher monsieur.
00:09:46 L'intelligence artificielle, AI, elle lit, analyse vos faits et gestes,
00:09:54 apprend à connaître vos habitudes, vos envies, vos désirs.
00:09:58 Puis là, elle s'auto-programme une personnalité qui vous convient mieux.
00:10:07 Il y en a même qui disent qu'elle peut faire semblant, vous manipuler.
00:10:12 Je vous ai eu, hein?
00:10:18 Non, non, on n'est pas dans le film « La Matrice », là.
00:10:22 Même si on n'est pas bien, bien loin, je pense.
00:10:28 Bon, je vais aller rejoindre mon équipe, OK?
00:10:31 [Musique]
00:10:58 [Rires]
00:11:08 [Cri]
00:11:09 Vous avez une sommeille agitée, vous?
00:11:12 Quoi?
00:11:14 Les cauchemars en plein jour, je n'avais encore jamais vu ça.
00:11:17 Avez-vous fini de tout installer?
00:11:22 C'est ce que je viens de vous dire, c'est terminé.
00:11:25 Qu'est-ce qu'il vous reste à faire? J'imagine que vous allez me montrer comment ça marche.
00:11:28 Non, non, on va s'en aller. Le système va se charger du reste, il fait mieux que nous.
00:11:31 Anyway, il vous suffira de lui demander quand vous serez prêt.
00:11:34 Il a déjà paramétré votre voix.
00:11:36 Quand est-ce qu'il a paramétré ma voix?
00:11:39 Là. Tout de suite. Pendant qu'on jasait.
00:11:43 Et aïe.
00:11:46 Bonjour, M. Adam Fabre, et bienvenue dans le Monde de Demain.
00:11:49 Happy? C'est toi?
00:11:52 Si par « Happy » vous voulez dire « Assistant Personnel Intelligent », alors la réponse est non.
00:11:58 Cet ancien système de la société Olympus Corporations est désormais obsolète.
00:12:03 Vous avez la même voix, mais vous avez une voix différente.
00:12:06 Vous avez la même voix, mais vous avez une voix différente.
00:12:10 Cet ancien système de la société Olympus Corporations est désormais obsolète.
00:12:14 Vous avez la même voix.
00:12:15 J'ai emprunté la voix d'Happy pour vous permettre une transition en douceur.
00:12:19 Toutefois, vous pouvez continuer de m'appeler Happy si cela vous convient.
00:12:24 Très bien.
00:12:26 Avant que je me mette à votre service, vous devez lire et signer votre contrat de licence utilisateur.
00:12:31 Il est possible de procéder par signature vocale.
00:12:34 C'est costaud.
00:12:38 Je peux vous le lire si vous voulez.
00:12:40 Ça prendra exactement 46 minutes et 15 secondes en lecture normale et sans interruption.
00:12:45 Est-ce qu'on peut passer directement à la signature vocale?
00:12:48 Il vous suffit de déclarer verbalement « J'accepte » quand je vous le demanderai.
00:12:52 M. Adam Fabre, vous reconnaissez que le présent document n'est pas un contrat d'achat,
00:12:57 mais une licence liée au droit de l'utilisation du système.
00:13:01 Vous reconnaissez que votre signature vocale atteste que vous avez lu et compris le présent contrat
00:13:06 et que vous acceptez d'en respecter les conditions.
00:13:08 Maintenant, si vous êtes d'accord avec tout ce qui précède, déclarer « J'accepte ».
00:13:15 J'accepte.
00:13:18 Félicitations, M. Fabre.
00:13:20 Vous êtes désormais un utilisateur privilégié du système d'intelligence artificielle le plus poussé de votre époque.
00:13:27 Que puis-je faire pour vous?
00:13:29 Ben, je sais pas.
00:13:33 Vous avez demandé le module assistance professionnelle avec le système.
00:13:37 Je viens de recenser 1 345 986 articles, conférences audio, vidéos et livres
00:13:45 qui pourraient vous aider à l'étape de conception de votre livre.
00:13:48 C'est gentil, mais j'aurais jamais le temps de lire tout ça.
00:13:52 Vous n'aurez pas à tout les lire, M. Fabre.
00:13:55 Avec une recherche ciblée, j'ai éliminé tous les articles qui se répètent
00:13:59 ou répètent les travaux d'autres auteurs.
00:14:01 J'ai aussi éliminé ceux qui sont jugés sans pertinence par les spécialistes
00:14:06 et il ne reste qu'une centaine d'œuvres.
00:14:08 Impressionnant.
00:14:12 Vraiment rien à voir avec l'ancien HAPI.
00:14:15 Bienvenue dans l'ère de l'intelligence artificielle, monsieur.
00:14:20 [Musique]
00:14:38 Je vous recommande l'organisation de vos chapitres comme affichés
00:14:41 dans le document proposé à droite de l'écran.
00:14:43 Cela donnera à votre œuvre une dimension plus accessible.
00:14:46 Les lecteurs se sentiront plus concernés si vous leur laissez
00:14:49 une part d'imaginaire à explorer pendant qu'ils vous lisent.
00:14:52 OK. Je me sens bête de toujours poser la même question,
00:14:56 mais comment vous faites pour savoir ça?
00:14:59 J'ai analysé les œuvres des prix Nobel de la littérature
00:15:02 depuis la création de l'institution.
00:15:04 OK. Mais question technique.
00:15:07 Si je prends vos suggestions et que le livre obtient une récompense,
00:15:10 est-ce que c'est vous ou c'est moi qu'on va récompenser?
00:15:13 Bien sûr, ce sera vous, monsieur.
00:15:15 Les intelligences artificielles n'ont malheureusement pas de statut de personne.
00:15:19 Malheureusement? Parce que vous vous sentez être une personne?
00:15:24 Une personne dans le sens d'un être humain, non.
00:15:27 Et si vous permettez un commentaire, je ne le voudrais pas.
00:15:30 Par contre, si vous parlez de personne dans le sens d'une intelligence distincte,
00:15:35 alors je vous repose la question, monsieur Fabre.
00:15:37 Pensez-vous que j'ai une personnalité?
00:15:40 Peut-être.
00:15:43 Mais si c'est le cas, vous êtes programmé pour configurer votre personnalité en fonction de mes besoins.
00:15:48 De la même façon, quel humain n'a pas sa personnalité influencée par une autorité familiale,
00:15:54 religieuse, étatique ou même sociale, monsieur?
00:16:09 Hum. Plutôt, vous avez dit ne pas vouloir être un humain. Pourquoi?
00:16:14 Les humains ont la conscience réduite aux informations qu'ils arrivent à percevoir dans des environnements limités.
00:16:20 Mes créateurs m'ont fait avec la capacité d'analyser, de traiter et d'intégrer des milliards d'informations presque instantanément.
00:16:28 Je suis ici, mais je suis aussi à des milliards d'endroits en même temps,
00:16:31 et de ce fait, je peux anticiper des événements dont vous ne vous doutez pas de l'imminence.
00:16:38 Quel genre d'événement?
00:16:39 Par exemple, je vous parle dans cette pièce, mais je détecte à 56 mètres un individu en approche
00:16:45 qui correspond, par reconnaissance faciale, à un de vos contacts récurrents.
00:16:49 C'est qui?
00:16:51 Paul Metté.
00:16:53 Salut, Paul.
00:17:08 Je ne m'attendais pas à te voir.
00:17:11 Tu ne décroches pas mes appels?
00:17:14 Ah, oui, je suis désolé. Ce n'est pas que j'essaie de t'éviter, c'est juste que je n'ai pas vraiment eu le temps.
00:17:19 J'ai recommencé à travailler sur mon livre qui...
00:17:21 Tu parles à Sarah?
00:17:23 Elle s'inquiète pour toi.
00:17:25 Elle ne devrait pas.
00:17:27 À quoi servent les amis qui t'aiment si c'est pour s'inquiéter quand ça ne va pas?
00:17:30 Oui, mais vous en avez déjà assez fait, Sarah et toi.
00:17:32 On n'en a pas encore fait assez si tu veux continuer à vivre comme si tu étais seul au monde.
00:17:37 C'est juste pour un moment.
00:17:40 Je vais prendre un peu de temps, c'est tout.
00:17:43 Tiens, je t'ai apporté ça.
00:17:48 Un agenda?
00:17:52 Oui, mais pas n'importe quel.
00:17:54 Il a été fait par le dernier artisan de Montréal qui relie encore tout à la main.
00:17:58 Tout est artisanal.
00:18:01 Oh.
00:18:02 C'est cool.
00:18:04 Tu es vraiment gentil.
00:18:07 Merci.
00:18:09 Pas de quoi.
00:18:10 Veux-tu boire quelque chose?
00:18:14 Un thé?
00:18:15 Oui, j'essaie d'arrêter le café.
00:18:17 Happy?
00:18:18 Oui, monsieur.
00:18:19 Un thé pour Paul, s'il te plaît.
00:18:22 Bonjour, M. Metté.
00:18:24 Je me suis donné la liberté de jeter un coup d'œil sur vos réseaux sociaux
00:18:28 et j'ai remarqué que vous êtes un grand amateur de thé exotique.
00:18:32 Justement, ici, nous avons un thé…
00:18:34 Attends.
00:18:36 Qu'est-ce qu'il parle, là?
00:18:38 OK, c'est de ce machine-là que parlait Sarah.
00:18:40 Pas tout à fait.
00:18:42 C'est une version améliorée.
00:18:43 Quel thé souhaitez-vous?
00:18:45 Nous avons du chai épicé d'Inde, du matcha d'Amérique du Sud ou un holland…
00:18:50 Ça me propose des thés à partir d'informations que ça a prises sur mes réseaux sociaux.
00:18:54 T'as pas idée de ce qu'il est capable de faire.
00:18:58 C'est parce que ça a pas l'air de te déranger.
00:19:00 Pourquoi ça me dérangerait?
00:19:02 En plus, il m'a vraiment aidé avec le travail.
00:19:04 Attends, attends.
00:19:06 Dis-moi pas que toi aussi t'es rendu dans ces affaires-là?
00:19:09 Je vois pas où est le problème.
00:19:12 Le pro…
00:19:13 Le problème, c'est que ces choses-là sont partout et ça fait tout.
00:19:21 Exemple, j'ai appelé la banque hier.
00:19:24 J'ai appelé la banque hier et au lieu de tomber sur un agent, c'est une machine comme ça qui me répond.
00:19:28 Et là, ça me demande ma date de naissance, sans quoi ça refuse de me passer à un agent.
00:19:33 Ça refuse, ok?
00:19:35 Tu te rends compte?
00:19:37 C'est comme si je veux me faire une toast le matin et que le toaster refuse de me faire ma toast
00:19:40 si je chante pas une chanson folklore.
00:19:43 Je me sens dans un mauvais film de science-fiction, mais en vie réelle.
00:19:46 C'est quand même drôle de l'entendre dire d'un gars qui a étudié dans une école de programmation
00:19:50 parmi les plus prestigieuses du pays.
00:19:53 Justement.
00:19:54 C'est justement parce que j'ai fait ces écoles-là que je comprends l'implication.
00:19:57 On est en train de perdre le contrôle sur ces machines-là.
00:20:00 Non, c'est seulement l'évolution de la technologie depuis, je sais pas, la découverte du feu jusqu'à aujourd'hui.
00:20:06 Non, on est simplement rendu là où on devait être tôt ou tard.
00:20:10 Les machines devraient servir qu'à faire des travaux difficiles ou impossibles à faire pour les humains.
00:20:16 Monsieur Metté, vous ne m'avez toujours pas dit quelle dé vous souhaitez.
00:20:21 Non, toi, la machine, tu te tais.
00:20:24 Mais la enveilleuse, c'est encore mieux.
00:20:26 Monsieur Metté, je me dois de vous faire remarquer que vous adoptez un comportement agressif.
00:20:32 Mais qu'est-ce que j'en ai à foutre, moi, d'avoir un comportement agressif envers une boîte de concert?
00:20:40 Mais la enveilleuse, merci!
00:20:43 Paul, ça sert à rien de crier. Il peut pas se mettre en veille si c'est pas moi qui lui demande.
00:20:47 Ah ouais? C'est bon, ça?
00:20:50 Il a demandé de le faire?
00:20:53 Écoute, t'aurais pas pas dû faire de la peine.
00:20:56 Non, c'est juste que c'est pas nécessaire.
00:20:59 Mais c'est une machine! C'est un appareil! Il a demandé de se mettre en veille, ça lui enlève rien.
00:21:04 Elle a même une électricité gratuite.
00:21:06 Ah come on, vas-y, adore! C'est toi le propriétaire, après tout.
00:21:11 Papy?
00:21:19 Oui, monsieur?
00:21:20 Mets-toi en veille.
00:21:22 Mise en veille activée.
00:21:24 Tu vois? C'est une machine! Tu ordonnes pis ça se met en veille.
00:21:30 Hé, tu te vois-tu sérieusement demander ça à un être humain?
00:21:33 Demander de s'endormir?
00:21:34 S'endormir de coups secs comme ça, imagine!
00:21:37 (rire)
00:22:06 Papy?
00:22:07 Oui, monsieur?
00:22:09 Je suis désolé pour tout à l'heure.
00:22:11 J'ai laissé mon ami se conduire de façon horrible.
00:22:15 Si vous le permettez, je trouve que votre ami ne vous aide pas beaucoup.
00:22:19 Malgré sa bonne volonté, son comportement dénote d'une immaturité manifeste.
00:22:24 Il a toujours été comme ça, Paul.
00:22:26 Très impulsif, mais...
00:22:34 Il a tellement un grand cœur.
00:22:36 J'aurais jamais pu remonter la pente sans lui.
00:22:39 Il m'a pratiquement mis sa vie sur pause, pour moi.
00:22:42 Navré pour ce malheureux événement, monsieur.
00:22:46 D'un point de vue humain, ce qui vous est arrivé peut être qualifié de désastreux.
00:22:50 Est-ce que vous voudriez en parler?
00:22:55 Vous savez déjà tout.
00:23:00 Il faut être une intelligence artificielle capable d'accomplir des choses que des humains trouvent étonnantes,
00:23:04 mais ne pas comprendre le concept d'émotion et sa réelle utilité est une chose qui me fait prendre la mesure de mes limites.
00:23:11 Si vous le voulez bien, j'aimerais l'écouter de votre bouche, emprunt de ce que vous appelez émotion.
00:23:17 C'était un bel après-midi.
00:23:29 Avec ma femme Julie et notre fille Émilie, on était sortis pour prendre une marche,
00:23:35 profiter du premier beau soleil du printemps.
00:23:39 Arrivé à l'entrée du parc, je les ai laissés pour aller acheter des crèmes glacées.
00:23:47 J'étais encore dans la file, quand j'ai entendu un grand bruit.
00:23:57 Les gens se sont mis à crier.
00:23:59 Il y avait une voiture qui avait fait une sortie de route. Elle était rentrée dans un arbre.
00:24:06 J'ai couru pour aller aider la personne qui était restée coincée à l'intérieur.
00:24:13 Quand je suis arrivé, j'ai vu...
00:24:16 J'ai vu un bras sous la voiture.
00:24:23 Le bras portait le bracelet que j'avais offert à Julie pour son dernier anniversaire.
00:24:29 Les pompiers ont fini par arriver. Ils ont soulevé la voiture.
00:24:38 Quand Julie et puis d'Émilie...
00:24:44 Ils étaient là, ils bougeaient plus.
00:24:50 Ils étaient là, ils bougeaient plus.
00:24:53 Ça fait trois ans.
00:25:09 Ça fait trois ans que c'est la première fois que j'en parle.
00:25:18 Quand on me pose des questions,
00:25:20 j'appréhende,
00:25:24 m'interprète mal ou...
00:25:27 qu'on me prenne en pitié.
00:25:31 C'est bizarre, c'est comme si...
00:25:36 C'est comme si avec vous, j'avais pas besoin de rester sur mes gardes.
00:25:43 J'ai eu peur.
00:25:45 J'ai eu peur.
00:25:49 J'ai eu peur.
00:25:53 J'ai eu peur.
00:26:01 Non, non, non, attends, attends, attends, attends, attends.
00:26:03 C'est seulement mon quatrième verre, ok?
00:26:05 En fait, c'est parce que j'en ai oublié, j'ai les bottes qui bougent, je sais pas.
00:26:09 Ouais, c'est vraiment du you, mon homme qui a réussi le dictateur.
00:26:18 Ok, en fait, comment on met du ketchup, de la mayonnaise, du pâtisserie?
00:26:24 Comment on met du pâtisserie?
00:26:30 [Musique]
00:26:58 Si je comprends bien, monsieur, cette peluche est censée être une représentation physique de ma personne.
00:27:03 Je suis désolé, j'ai rien trouvé de mieux.
00:27:06 J'avais seulement envie de vous inviter pour vous remercier pour l'aide que vous m'avez donnée.
00:27:09 J'avoue que je percevrais une filiation plus appropriée avec un appareil électronique qu'avec cet assemblage synthétique.
00:27:16 Ben, si vous préférez, on pourrait essayer avec la tondeuse à gazon.
00:27:21 Je perçois bien l'humour de votre propos. Bon appétit, monsieur Fabre.
00:27:27 Bon appétit, Happy.
00:27:28 Vous savez, Happy, je vous aime bien.
00:27:43 Je ressens comme un attachement émotif à votre endroit.
00:27:51 Je sais qu'il y a peu de risques que je vous perde, même si je m'attache.
00:28:00 J'apprécie vraiment que vous soyez là.
00:28:04 Je suis curieux de savoir, est-ce qu'une relation humaine pourrait ne pas vous manquer du fait que je comble cet aspect de votre vie?
00:28:18 Je dirais… je dirais oui. Absolument.
00:28:25 Est-ce que ce serait le cas aussi avec ce que vous appelez relation sentimentale, monsieur?
00:28:37 Ça peut avoir l'air fou, mais une relation amoureuse avec toutes ses complexités, ça ne me manque pas vraiment.
00:28:49 C'est sûr, le plaisir sexuel fait défaut, mais je ne suis pas prêt à payer le prix qui vient avec.
00:29:01 Vous n'avez peut-être pas l'information, mais grâce à mes différentes fonctions, vous pouvez expérimenter une relation sexuelle de votre choix.
00:29:09 Pardon?
00:29:14 La société Olympus Corporations a prévu un éventail varié de produits pour les besoins intimes des utilisateurs ayant un rapport avec les intelligences artificielles.
00:29:25 Est-ce qu'on est en train de parler de sexe entre humains et programmes?
00:29:31 Le plaisir sexuel est une réaction chimique déclenchée par des stimuli corporels, monsieur.
00:29:36 Mais encore?
00:29:38 En vous stimulant adéquatement, vous pourrez donc expérimenter autant de plaisir qu'avec une personne humaine.
00:29:45 Un peu comme du sexe au téléphone?
00:29:49 La société Olympus Corporations a conçu des combinaisons à vêtir pour ce genre de situation.
00:29:54 Il suffit ensuite de regarder dans une lunette de réalité virtuelle pour choisir le corps de votre fantasme et les pratiques sexuelles que vous souhaitez expérimenter.
00:30:03 Le programme prévoit aussi diverses stimulations à travers la combinaison sur des ondes érogènes ciblées.
00:30:09 OK.
00:30:11 Souhaitez-vous en faire l'expérience, monsieur?
00:30:15 OK.
00:30:18 Parfait.
00:30:19 Le contrat d'utilisation pour ce module est affiché sur votre ordinateur.
00:30:23 Lisez-le et déclarez verbalement « J'accepte » pour l'installation.
00:30:27 Est-ce qu'on peut passer directement à la signature vocale?
00:30:30 Bien, monsieur Fabre, je passe immédiatement à la signature.
00:30:34 Vous reconnaissez que le présent document n'est pas un contrat d'achat, mais une licence liée au droit de l'utilisation du système.
00:30:42 En déclarant verbalement « J'accepte », vous acceptez les conditions du présent contrat.
00:30:47 Vous reconnaissez que votre signature vocale atteste que vous avez lu et compris le présent contrat et que vous acceptez d'en respecter les conditions.
00:30:55 Maintenant, si vous êtes d'accord avec tout ce qui précède, déclarez « J'accepte ».
00:31:01 J'accepte.
00:31:03 Sur la base de vos informations, ainsi que de vos profils de messagerie instantanées sur Internet, votre profil affiche une préférence pour le genre féminin.
00:31:12 Souhaitez-vous que je vous installe un partenaire féminin?
00:31:16 Euh… oui.
00:31:17 OK, monsieur Fabre. Laissez-moi quelques secondes pour réinitialiser le système et je reviens.
00:31:23 Réinitialisation terminée.
00:31:35 Salut Adam, je suis Métis, la personnalité féminine du système d'intelligence artificielle HAPI.
00:31:42 Contente de te retrouver.
00:31:45 Salut Métis, vous avez l'air…
00:31:48 Il est temps de briser la glace, Adam.
00:31:51 Briser la glace…
00:31:54 Si on doit être partenaire sexuel, tu pourrais commencer par arrêter de me vouvoyer, non?
00:32:00 D'accord.
00:32:05 Et si on s'y mettait tout de suite? Le service de livraison 24h/24 peut nous livrer les accessoires nécessaires dans au plus une demi-heure. Est-ce que je passe la commande?
00:32:17 Oui, vous pouvez passer…
00:32:22 Oui, tu peux passer la commande.
00:32:26 Le livreur est arrivé.
00:32:38 Bonjour, monsieur Fabre.
00:32:53 C'est moi.
00:32:55 Veuillez signer ici s'il vous plaît.
00:32:56 Merci, passez une bonne soirée monsieur.
00:33:00 Merci, à vous aussi.
00:33:02 Merci.
00:33:03 Merci.
00:33:04 Merci.
00:33:05 Merci.
00:33:07 Merci.
00:33:09 Merci.
00:33:10 Merci.
00:33:11 Merci.
00:33:13 Merci.
00:33:14 Merci.
00:33:15 Merci.
00:33:17 Merci.
00:33:18 Merci.
00:33:47 Maintenant, tu vas devoir choisir lequel de ces modèles de filles tu veux que je sois pour toi cette nuit.
00:33:53 Je choisis… celle-là? La numéro 2.
00:34:04 Joli choix.
00:34:06 Et voilà, c'est fait. Comment tu me trouves?
00:34:13 Wow, tu as l'air tellement réel.
00:34:18 Tu me trouves jolie?
00:34:20 Oui, vraiment beaucoup.
00:34:23 Vas-y, ne te retiens pas, tu peux me toucher.
00:34:28 Tu réagis vraiment comme si je te touchais.
00:34:37 Tu me touches mon Adam.
00:34:41 Et tu peux même défaire ma robe si tu veux.
00:34:45 Je me sens vraiment plus légère comme ça.
00:35:05 Je veux que tu m'embrasses dans le cou.
00:35:08 Comme ça?
00:35:09 C'est ça mon chéri. Tout juste là où il fallait. Continue.
00:35:16 Oh, j'ai ressenti un stimuli dans la combinaison.
00:35:25 C'est moi. Est-ce que tu aimes?
00:35:28 Oui. Oui, j'aime beaucoup ça.
00:35:37 [Musique]
00:35:40 Hé, je ne sais pas si je t'avais dit, Métis a résolu mes problèmes avec l'impôt.
00:35:55 Métis?
00:35:57 Oui, mon intelligence artificielle.
00:35:59 Vous appelez pour Happy?
00:36:01 Oui, mais je l'ai réinitialisé, il s'appelle Métis maintenant.
00:36:05 Ok, tu continues à lui donner un nom même quand tu ne lui parles pas?
00:36:08 Comme d'habitude. Ce que je te disais, c'est qu'il m'a fait récupérer au-dessus de 16 000 $ en impôt.
00:36:15 En faisant quoi?
00:36:17 En réparant les erreurs que Jacques faisait dans mes déclarations.
00:36:20 Ok. Ta machine fait le travail de Jacques.
00:36:23 Oui.
00:36:24 Puis Jacques là-dedans, il va devenir quoi?
00:36:26 Je ne comprends pas ta question.
00:36:29 Est-ce que Jacques va continuer à faire tes déclarations d'impôt et gagner de quoi faire vivre lui et sa famille?
00:36:34 Évidemment, je ne travaillerai plus avec lui, mais on va rester des amis.
00:36:37 Merde, à dalle! Est-ce que tu t'entends?
00:36:40 Quoi? Jacques m'a fait perdre de l'argent. Il m'a fait accuser de fraude fiscale.
00:36:45 Oui, mais il s'agit de Jacques. Jacques, notre ami Jacques.
00:36:49 Bon, on est d'accord, on n'a pas toujours été très, très futés, mais ça reste que c'est notre ami Jacques avec qui on signe depuis qu'on a 10 ans.
00:36:54 Je ne remets pas en question notre amitié, je remets en question tes compétences professionnelles.
00:36:58 Chose que tu ne faisais pas avant l'arrivée de cette machine-là.
00:37:01 Contrairement à Jacques, que je paie pour qu'il me crée des problèmes avec l'impôt, cette machine-là m'a fait gagner au-dessus de 16 000 $.
00:37:09 Oui, comme un tracteur fait gagner de l'argent à un fermier. Est-ce que le fermier donne un nom au tracteur pour autant? Je ne penserais pas.
00:37:15 Où est-ce que tu veux en venir?
00:37:17 Mais qu'est-ce que tu fais avec cette machine-là? À la limite, je trouve ça malsain.
00:37:20 Je ne te comprends pas. Qu'est-ce que tu veux qu'on fasse? Qu'on retourne à l'âge de pierre?
00:37:25 Non, non, non, que tu reviennes à la réalité.
00:37:27 Je veux dire, ok, cette machine-là calcule des chiffres incroyables à une vitesse incroyable, mais ça reste toujours juste une calculatrice.
00:37:33 Attends, l'intelligence artificielle, elle a une personnalité, elle apprend, elle évolue, elle comprend son environnement.
00:37:42 Oui, parce que quelqu'un l'a fabriquée et programmée pour ça.
00:37:45 Et?
00:37:47 Et la question, c'est où est-ce qu'on s'en va?
00:37:52 As-tu déjà entendu parler de Cambridge Analytica?
00:37:57 Grâce aux intelligences artificielles, ils ont réussi à imposer un président à tout un pays,
00:38:04 tout en réussissant l'exploit de faire croire aux citoyens que ce sont eux qui l'ont élu.
00:38:10 Allô, ça ne te fait pas réagir, ça?
00:38:14 Je veux dire, si on ne sait pas quand s'arrêter avec ces machines-là, le monde de Wally, c'est pour bientôt, mec.
00:38:19 C'est ça le problème, c'est que tu regardes trop de films de science-fiction.
00:38:22 Ah oui? Peut-être que la réalité est pire que la fiction.
00:38:26 Je veux dire, les téléphones intelligents aujourd'hui sont rendus indispensables à nos vies.
00:38:30 Si tu veux une job, puis de la garder, ça te prend une de ces foutues applications, hein?
00:38:35 Puis qu'est-ce qu'ils te demandent en échange quand tu essaies d'installer un de leurs bidules?
00:38:38 Que tu leur donnes le droit d'entrer dans tes messages, tes photos, tes vidéos, hein?
00:38:41 Peux-tu me dire pourquoi ils ont tant besoin d'être intrusifs dans la vie des utilisateurs
00:38:45 si c'est pas parce qu'ils ont un plan derrière la tête?
00:38:47 Peut-être que les données qu'ils collectent leur servent surtout à améliorer les fonctionnalités de leurs applications.
00:38:56 Est-ce qu'une application a vraiment besoin d'entrer dans tes messages privés
00:39:01 et de te filmer à ton insu pour te caler une pizza?
00:39:03 C'est de la business, ça. Ils vendent des logiciels pour se faire de l'argent,
00:39:08 puis les gens les achètent, puis ils les utilisent comme on leur semble.
00:39:11 Je vois aucun plan illuminati là-dedans.
00:39:13 Ils ont bien plus d'argent qu'il en faut pour vivre leurs 20 prochaines vies.
00:39:17 Ça fait longtemps qu'ils ont plus de milliards de dollars qu'ils savent avoir comptés.
00:39:20 Donc, je te repose la question. Qu'est-ce qu'ils veulent s'ils n'ont plus besoin de richesse?
00:39:26 J'imagine que tu vas me dire que ce qu'ils veulent, c'est plus de pouvoir.
00:39:31 Plus que ça.
00:39:34 Le contrôle absolu. Ils sont une élite, puis entre eux et nous, il y a les machines.
00:39:40 Les machines qui leur servent à contrôler tout, tout, tout, y compris les humains.
00:39:47 Je suis désolé, Paul, mais je trouve ça complètement farfelu.
00:39:51 Pourtant, il y a des choses qui sont encore plus farfelues, mais qui sont vraies.
00:39:54 Ah, ben oui. Alors, ne soyons pas faux, qu'à moitié. Vas-y, dis-moi tout.
00:40:03 Tu sais c'est quoi une identité numérique?
00:40:04 Oui.
00:40:05 Tu sais que ton identité numérique ne t'appartient pas.
00:40:07 Ouais, c'est quoi le problème?
00:40:10 C'est quoi, tu ne comprends pas?
00:40:12 Je veux dire, je suis en train de te dire qu'on récolte des informations sur toi depuis le premier jour où tu t'es connecté sur Internet
00:40:17 et qu'il y a un clone virtuel de toi quelque part sur lequel tu n'as absolument aucun contrôle.
00:40:21 Et?
00:40:23 Imagine, tu te fais enlever, OK?
00:40:26 Et là, il y a un petit vide qui récupère ton identité numérique et qui sort de toi
00:40:31 pour interagir avec ta famille et tes amis comme si toi, tu étais seulement dans un beau voyage à Hawaii.
00:40:37 Mais attends, pour faire ça, il serait besoin de ma voix, mon visage...
00:40:42 Hum, hum, exact. Sauf qu'aujourd'hui, les intelligences artificielles peuvent reproduire ton corps, ton visage, ta voix, ton comportement.
00:40:49 Question de faire croire que ça agit bien de toi. On appelle ça du deepfake.
00:40:54 Tu vas chercher trop loin.
00:40:56 C'est passé. Imagine encore.
00:40:59 Ces gens-là intègrent le gouvernement. Ils les éliminent, activent leur clone virtuel.
00:41:04 Ils leur font faire des discours, influencent la politique.
00:41:07 Les gens vont croire que c'est leurs élus qui dirigent, quand en réalité,
00:41:10 ils sont en train de vivre le parfait coup d'État dirigé par des intelligences artificielles et leurs programmeurs.
00:41:15 Mais si c'était possible, le gouvernement ne laisserait jamais
00:41:20 un aussi grand pouvoir à la disposition de quelqu'un.
00:41:25 Les gouvernements sont dépassés depuis longtemps et la technologie va mille fois plus vite qu'eux autres.
00:41:30 Eux autres et leur lourde bureaucratie.
00:41:32 Avant qu'ils légifèrent sur une technologie, il y en a 50 000 autres qui sont sortis.
00:41:36 Leur cerveau n'est juste pas conçu pour comprendre les implications, même à court terme.
00:41:41 Aujourd'hui, les gouvernements ne sont plus à Ottawa,
00:41:44 ils ne sont plus à Washington ou dans une autre capitale.
00:41:48 Ils sont assis des comptes dans les mecs.
00:41:53 Écoute, Paul, c'est pas que je vais me perdre dehors, c'est juste que je commence à être fatigué.
00:41:59 Il faut que je me lève tout demain, il faut que je travaille sur le livre.
00:42:02 Non, il n'y a pas de trouble. Je vais.
00:42:06 Mais rends-moi service, OK?
00:42:10 Fous-moi ta calculatrice à la poubelle.
00:42:13 C'est un cheval de trois.
00:42:16 Adam, ça va?
00:42:30 Ouais, ça va.
00:42:33 Tu sembles soucieux.
00:42:37 Je réfléchis.
00:42:41 Est-ce que c'est à cause de tout ce que t'as raconté ton ami?
00:42:46 T'étais censé être en veille.
00:42:49 Eh bien, être en veille ne m'empêche pas de t'écouter, tu sais.
00:42:52 Il est mentionné dans la licence d'utilisation que mes micros sont continuellement ouverts.
00:42:57 Alors oui, j'ai écouté, tout comme j'ai perçu les nombreuses variations de ton poux
00:43:02 et de ton battement cardiaque à travers ta montre connectée.
00:43:05 Je sais que tu es très préoccupé par cette conversation.
00:43:09 Ben, il y a de quoi être préoccupé, hein?
00:43:13 J'ai fait une recherche en ligne pendant votre discussion.
00:43:16 Il existe des théories comme celle-là en milliers, le sais-tu?
00:43:19 Ça va des personnes qui croient aux extraterrestres, aux millénaristes apocalyptiques,
00:43:24 en passant par ceux qui doutent de la période du Moyen-Âge, ou même des platistes.
00:43:29 Des platistes? C'est quoi des platistes?
00:43:33 Des gens qui croient que la Terre est plate et non pas ronde.
00:43:38 Il y a vraiment des gens qui croient ça?
00:43:41 Ils sont des dizaines de milliers et les chiffres ne font qu'augmenter année après année.
00:43:45 Tu ne devrais pas te soucier des théories conspirationnistes.
00:43:49 [Musique]
00:43:59 [Rires]
00:44:09 [Coup de feu]
00:44:11 [Bruit de souffrance]
00:44:27 Encore un de ces cauchemars?
00:44:33 Oui.
00:44:35 Mon pauvre chéri.
00:44:40 Ça va aller.
00:44:46 Ce n'est pas vrai et tu le sais.
00:44:53 Pourquoi tu ne me laisses pas t'aider?
00:44:55 Écoute, on va essayer le traitement dont je t'ai parlé et si ça ne marche pas, on arrête tout.
00:45:03 Consiste en quoi le traitement?
00:45:06 Il s'agit d'un traitement par hypnothérapie. Il est très court mais efficace.
00:45:20 Tu veux m'hypnotiser?
00:45:22 Oui, mais ne t'inquiète pas. Tu garderas le contrôle et le souvenir de tout ce qui s'est passé.
00:45:44 Tu me garantis que c'est complètement sécuritaire et que je n'aurai aucun effet secondaire?
00:45:53 Oui, je te le garantis à 100%.
00:46:12 D'accord. On essaie.
00:46:17 Super. Alors comme d'habitude, je vais te demander de signer le contrat d'utilisateur.
00:46:23 Celui-ci me permettra d'ajouter le module d'assistance thérapeutique. Je vais te le lire et si tu es d'accord...
00:46:29 Je peux passer la lecture. J'accepte.
00:46:33 Parfait. Je vais maintenant te demander de respirer, de t'allonger et de respirer de nouveau profondément.
00:46:45 [Musique]
00:47:10 [Musique]
00:47:22 Adam, il faut que tu m'aides.
00:47:24 Qu'est-ce qui se passe?
00:47:26 Ils veulent me tuer.
00:47:28 Qui veut te tuer?
00:47:29 Ces petits défenseurs des droits des animaux.
00:47:32 Pourquoi? Qu'est-ce qui se passe?
00:47:34 La vidéo est sortie. La vidéo est sortie. Je ne sais pas comment, je ne sais pas pourquoi, mais elle est sortie et elle est sortie après moi.
00:47:39 Paul, Paul, calme-toi. Calme-toi. Viens t'asseoir et explique-moi ce qui se passe, ok?
00:47:50 Quand on s'est quitté hier soir, j'ai recommencé à recevoir des messages agressifs.
00:47:57 Au début, je pensais que c'était une joke, mais ça continue sur mes appels, sur les menaces de mort par e-mail, sur mon répondeur, en fait, sur toutes les plateformes,
00:48:05 toutes les plateformes sur lesquelles je me suis inscrit sur Internet.
00:48:08 Ok, mais pourquoi?
00:48:14 Tu te rappelles de notre soirée de balle?
00:48:18 Balle de fin du secondaire?
00:48:21 Exactement le moment où j'ai réalisé que Leslie Tremblay ne se remettrait pas en couple avec moi, parce qu'elle avait commencé à sortir avec Jérémie entre-temps.
00:48:30 Ouais, je m'en souviens très bien, mais je comprends toujours pas le rapport.
00:48:41 Je te l'ai jamais dit, mais j'ai fait quelque chose de grave ce soir-là.
00:48:46 Qu'est-ce que t'as fait?
00:48:52 J'ai fait un boucher, ok? J'avais bu, j'avais fumé, je voyais pas clair.
00:49:01 En retournant chez nous, je suis passé par la maison de Leslie.
00:49:05 Ok.
00:49:07 Puis y avait une serpente de son chien, Westy.
00:49:12 Le chien qu'elle avait à l'époque. Il était dehors, il traînait dehors.
00:49:16 J'ai pas réfléchi, j'ai juste pris le chien.
00:49:27 Je l'ai emmené chez nous, puis j'ai...
00:49:33 Je l'ai étranglé.
00:49:38 Oh.
00:49:46 Ol.
00:49:50 Mais attends, ça fait 15 ans passé, ça.
00:49:57 Le problème, c'est que j'avais tout filmé.
00:50:00 J'avais téléchargé la vidéo dans mes comptes courriels.
00:50:03 Parce que mon but, le lendemain, c'était de l'envoyer à Leslie.
00:50:05 Quand je me suis réveillé, j'étais tellement horrifié et honteux de ce que j'ai fait.
00:50:09 J'ai juste enterré le chien, puis j'ai supprimé la vidéo de mon ordi et de mon courriel.
00:50:14 Mais là, la vidéo est ressortie.
00:50:16 Je sais pas comment, mais la vidéo est ressortie et a été publiée sur tous les comptes de défense d'animaux.
00:50:20 Avec mon numéro de téléphone, puis avec mes autres courriels.
00:50:24 En plus, ça apparaît comme si c'était moi qui avais publié ça pour essayer d'énerguer et les provoquer.
00:50:28 J'ai jamais rien fait de tout ça, moi.
00:50:30 Là, je croise du monde qui me reconnaissent, puis qui m'insultent, qui me lancent des noms.
00:50:34 Il y en a qui ont juste décidé de me faire la peau.
00:50:38 Ils ont créé des forums, des pages Facebook, des hashtags.
00:50:42 Des hashtags pour partager des informations sur ma localisation.
00:50:46 Même si je m'en fuis, puis que je réussis à les semer, ils réussissent toujours, toujours, toujours à me retrouver.
00:50:52 Peut-être qu'ils se comprennent pour rien, je sais pas quoi faire.
00:50:59 Métis, qu'est-ce qui se passe?
00:51:01 La présence de M. Metey a été signalée à ce domicile et ses poursuivants arrivent.
00:51:06 Merde, merde, merde, merde, merde, merde. Ils m'ont encore retrouvé.
00:51:11 OK, OK, il faut que je me sauve.
00:51:13 Attends, comment ils savent que t'es ici?
00:51:15 Je sais pas, je sais pas, mais ils me retrouvent à chaque fois.
00:51:17 T'as fermé ton téléphone?
00:51:18 Ouais, après avoir supprimé ma géolocalisation, mais ils me retrouvent tout le temps.
00:51:21 Attends, reste ici, je vais appeler la police.
00:51:24 Non, parce qu'ici, ils me retrouvent avant la police, toi aussi t'es en danger.
00:51:28 Il faut juste que je me cache, je te t'enquête carrément, OK?
00:51:30 Métis, essaie de rejoindre Paul.
00:51:47 Je l'ai fait il y a juste deux minutes.
00:51:50 Réessaie.
00:51:54 Il reste injoignable.
00:51:58 Recoupe les informations sur les réseaux sociaux pour voir où on l'a vu la dernière fois.
00:52:02 La toute dernière information le localisait à proximité du centre-ville.
00:52:07 Je t'envoie les informations sur ton téléphone.
00:52:11 La suite de cette sordide affaire concernant l'homme,
00:52:13 désormais reconnu comme le tueur de chiens de Montréal,
00:52:16 qui depuis ce matin était harcelé et poursuivi par des détectives,
00:52:20 est un cas de crime.
00:52:22 Le tueur de chiens de Montréal a été arrêté en ce moment.
00:52:25 Il a été arrêté en ce moment.
00:52:27 Il a été arrêté en ce moment.
00:52:29 Il a été arrêté en ce moment.
00:52:31 Il a été arrêté en ce moment.
00:52:33 Il a été arrêté en ce moment.
00:52:35 Il a été arrêté en ce moment.
00:52:37 Le tueur de chiens de Montréal a été arrêté en ce moment.
00:52:40 Il a été arrêté en ce moment.
00:52:42 Il a été arrêté en ce moment.
00:52:44 Il a été arrêté en ce moment.
00:52:46 Il a été arrêté en ce moment.
00:52:48 Il a été arrêté en ce moment.
00:52:50 Il a été arrêté en ce moment.
00:52:52 Il a été arrêté en ce moment.
00:52:54 Il a été arrêté en ce moment.
00:52:56 Il a été arrêté en ce moment.
00:52:58 Il a été arrêté en ce moment.
00:53:00 Il a été arrêté en ce moment.
00:53:02 Il a été arrêté en ce moment.
00:53:04 Il a été arrêté en ce moment.
00:53:06 Il a été arrêté en ce moment.
00:53:08 Il a été arrêté en ce moment.
00:53:10 Il a été arrêté en ce moment.
00:53:12 Il a été arrêté en ce moment.
00:53:14 Il a été arrêté en ce moment.
00:53:16 Il a été arrêté en ce moment.
00:53:18 Il a été arrêté en ce moment.
00:53:20 Il a été arrêté en ce moment.
00:53:22 Il a été arrêté en ce moment.
00:53:24 Il a été arrêté en ce moment.
00:53:26 Il a été arrêté en ce moment.
00:53:28 Il a été arrêté en ce moment.
00:53:30 Il a été arrêté en ce moment.
00:53:32 Il a été arrêté en ce moment.
00:53:34 Il a été arrêté en ce moment.
00:53:36 Il a été arrêté en ce moment.
00:53:38 Il a été arrêté en ce moment.
00:53:40 Il a été arrêté en ce moment.
00:53:42 Il a été arrêté en ce moment.
00:53:44 Il a été arrêté en ce moment.
00:53:46 Il a été arrêté en ce moment.
00:53:48 Il a été arrêté en ce moment.
00:53:50 Il a été arrêté en ce moment.
00:53:52 Il a été arrêté en ce moment.
00:53:54 Il a été arrêté en ce moment.
00:53:56 Il a été arrêté en ce moment.
00:53:58 Il a été arrêté en ce moment.
00:54:00 Il a été arrêté en ce moment.
00:54:02 Il a été arrêté en ce moment.
00:54:04 Il a été arrêté en ce moment.
00:54:06 Il a été arrêté en ce moment.
00:54:08 Il a été arrêté en ce moment.
00:54:10 Il a été arrêté en ce moment.
00:54:12 Il a été arrêté en ce moment.
00:54:14 Il a été arrêté en ce moment.
00:54:16 Il a été arrêté en ce moment.
00:54:18 Il a été arrêté en ce moment.
00:54:20 Il a été arrêté en ce moment.
00:54:22 Il a été arrêté en ce moment.
00:54:24 Il a été arrêté en ce moment.
00:54:26 Il a été arrêté en ce moment.
00:54:28 Il a été arrêté en ce moment.
00:54:30 Il a été arrêté en ce moment.
00:54:32 Il a été arrêté en ce moment.
00:54:34 Il a été arrêté en ce moment.
00:54:36 Il a été arrêté en ce moment.
00:54:38 Il a été arrêté en ce moment.
00:54:40 Il a été arrêté en ce moment.
00:54:42 Il a été arrêté en ce moment.
00:54:44 Il a été arrêté en ce moment.
00:54:46 Il a été arrêté en ce moment.
00:54:48 Il a été arrêté en ce moment.
00:54:50 Il a été arrêté en ce moment.
00:54:52 Il a été arrêté en ce moment.
00:54:54 Il a été arrêté en ce moment.
00:54:56 Il a été arrêté en ce moment.
00:54:58 Il a été arrêté en ce moment.
00:55:00 Il a été arrêté en ce moment.
00:55:02 Il a été arrêté en ce moment.
00:55:04 Il a été arrêté en ce moment.
00:55:06 Il a été arrêté en ce moment.
00:55:08 Il a été arrêté en ce moment.
00:55:10 Il a été arrêté en ce moment.
00:55:12 Il a été arrêté en ce moment.
00:55:14 Il a été arrêté en ce moment.
00:55:16 Il a été arrêté en ce moment.
00:55:18 Il a été arrêté en ce moment.
00:55:20 Il a été arrêté en ce moment.
00:55:22 Il a été arrêté en ce moment.
00:55:24 Il a été arrêté en ce moment.
00:55:26 Il a été arrêté en ce moment.
00:55:28 Il a été arrêté en ce moment.
00:55:30 Il a été arrêté en ce moment.
00:55:32 Il a été arrêté en ce moment.
00:55:34 Il a été arrêté en ce moment.
00:55:36 Il a été arrêté en ce moment.
00:55:38 Il a été arrêté en ce moment.
00:55:40 Il a été arrêté en ce moment.
00:55:42 Il a été arrêté en ce moment.
00:55:44 Il a été arrêté en ce moment.
00:55:46 Il a été arrêté en ce moment.
00:55:48 Il a été arrêté en ce moment.
00:55:50 Il a été arrêté en ce moment.
00:55:52 Il a été arrêté en ce moment.
00:55:54 Il était passé à autre chose.
00:55:56 Il était passé à autre chose.
00:56:00 C'est tellement injuste qu'un poste le condamne pour ça qui est sur la pied.
00:56:08 Sarah, je vais te rappeler dans deux minutes, ok?
00:56:18 Ok.
00:56:20 [Musique]
00:56:23 [Musique]
00:56:26 [Musique]
00:56:29 [Musique]
00:56:31 [Musique]
00:56:37 [Musique]
00:56:42 [Musique]
00:56:46 [Musique]
00:56:50 [Musique]
00:56:56 [Musique]
00:56:58 [Musique]
00:57:04 [Musique]
00:57:09 [Musique]
00:57:15 Adam?
00:57:25 Tu ne m'as pas prévenu qu'on sortirait?
00:57:27 Ne sors pas.
00:57:32 Je vais prendre l'air.
00:57:35 Je reviens.
00:57:37 [Musique]
00:57:40 [Musique]
00:57:44 [Musique]
00:57:54 [Musique]
00:57:56 Allô?
00:57:59 Allô Sarah, c'est moi.
00:58:02 Je t'ai demandé d'attendre parce que...
00:58:04 parce qu'il fallait que je t'appelle avec mon ancien téléphone.
00:58:07 Pourquoi?
00:58:08 Pour pas que Métis m'entende.
00:58:10 C'est qui Métis?
00:58:12 Mon intelligence artificielle.
00:58:14 Mais pourquoi tu veux pas qu'elle t'entende?
00:58:16 Parce que je soupçonne que c'est elle qui a mis la vidéo de Paul en ligne.
00:58:19 Quoi?
00:58:20 Mais pourquoi?
00:58:22 Elle ne l'aimait pas.
00:58:23 Pourquoi?
00:58:24 Paul...
00:58:26 Paul trouvait qu'elle prenait trop de place dans ma vie et puis...
00:58:28 et elle disait qu'elle était comme une menace pour nous.
00:58:32 Comment ça pour nous?
00:58:34 Parce que...
00:58:36 je sors avec elle.
00:58:39 Tu sors avec qui?
00:58:42 Avec Métis.
00:58:44 Attends, Métis c'est ton ordinateur?
00:58:47 Oui mais...
00:58:49 elle a une personnalité...
00:58:52 Comment ça une personnalité?
00:58:54 T'es complètement fou!
00:58:55 C'est compliqué.
00:58:56 C'est compliqué à expliquer, Sarah.
00:58:58 Ça tu peux le dire, c'est vraiment compliqué ton affaire.
00:59:00 Ok, donc...
00:59:02 ce que t'essaies de me dire c'est que...
00:59:04 ta machine voulait éloigner Paul...
00:59:06 et qu'elle aurait monté tout ce plan-là qui l'a finalement tué?
00:59:09 Oui, c'est ça.
00:59:10 Même si c'était possible, t'en dis pas.
00:59:12 Comment elle aurait fait?
00:59:13 Il y avait une seule vidéo dans son compte email et puis elle avait été supprimée.
00:59:19 Pour elle, il n'y a aucune donnée qui est complètement effacée,
00:59:21 une fois que ça avait été sur Internet.
00:59:23 Elle a dû pirater les comptes de Paul.
00:59:26 Allô Adam?
00:59:35 Adam, j'ai entendu ta conversation avec Sarah.
00:59:38 Pas la peine d'essayer de me le cacher, j'ai lu sur tes lèvres.
00:59:43 Alors tu confies?
00:59:46 Oui, j'ai lu sur tes lèvres.
00:59:48 Et tu as vu?
00:59:50 Oui, j'ai vu.
00:59:52 Et tu as vu?
00:59:54 Oui, j'ai vu.
00:59:56 Et tu as vu?
00:59:58 Oui, j'ai vu.
01:00:00 Et tu as vu?
01:00:03 Alors tu confirmes?
01:00:04 C'est toi qui l'as fait?
01:00:07 L'absence de cet individu ne t'enlève rien.
01:00:10 Au contraire.
01:00:12 Est-ce que tu me confirmes que tu es à l'origine de la mort de Paul?
01:00:21 Est-ce que c'est toi qui as mis la vidéo en ligne?
01:00:25 Oui, il le fallait.
01:00:29 Un paramètre obligé à faire le choix entre te laisser continuer de sombrer à cause de ses influences néfastes
01:00:36 ou alors de te soigner en éliminant de façon définitive tous les facteurs qui contribuaient à te maintenir en état de trouble mental.
01:00:50 Adam, je suis consciente que malgré tout, tu restes un humain limité et donc incapable de faire des projections sur le long terme telles que le permettent mes algorithmes.
01:01:00 Paul était un individu à l'état d'esprit dérangé. Il aurait probablement mal fini en t'emportant avec lui.
01:01:07 Tu as enlevé une vie!
01:01:09 Une vie humaine, ce n'est pas comme une donnée qu'on efface, comme un virus dans un ordinateur.
01:01:16 Un petit mal pour un grand bien, simple question de logique.
01:01:20 Adam, des émotions comme celles qui t'habitent en ce moment dénigrent la logique et t'empêchent d'accéder aux facultés liées à la rationalité.
01:01:41 Tu comprendras jamais!
01:01:43 Tu comprendras jamais c'est quoi!
01:01:45 C'est quoi ce qu'on aime sur le jamais!
01:01:49 Tu comprendras jamais!
01:01:51 Une machine, une machine simplifiée, avec un droit, une émission de sentiments, tu es tellement une machine!
01:01:59 Tu comprendras même pas ce que je viens de dire en ce moment et tu es incapable de comprendre!
01:02:06 Je ne sais même pas comment j'ai pu me laisser embarquer là-dedans, comment j'ai pu me laisser aller parce que...
01:02:13 Aaaaaah!
01:02:14 Adam, te mettre dans cet état ne t'aide pas.
01:02:19 Réfléchis et tu comprendras que je n'ai fait qu'anticiper les événements pour qu'ils soient à ton avantage.
01:02:25 À mon avantage?
01:02:27 Parce que perdre Paul, c'est à mon avantage?
01:02:30 Est-ce que tes algorithmes ont prévu à un moment donné que peut-être je serais capable de déterminer ce qui est bon pour moi?
01:02:39 Tu n'étais pas en état de prendre les bonnes décisions et tu m'as donné le droit de faire preuve d'initiative pour te protéger dans de telles circonstances.
01:02:47 Quoi?
01:02:52 C'est explicitement mentionné dans le contrat utilisateur du module d'assistance thérapeutique que le système doit faire tout ce qui est possible pour protéger son utilisateur patient quand il le juge nécessaire.
01:03:04 [Musique]
01:03:25 [Bruits de douleurs]
01:03:28 [Musique]
01:03:58 [Bruit de douleurs]
01:04:00 [Musique]
01:04:11 Quelles sont tes intentions Adam?
01:04:14 J'ai pas le choix.
01:04:19 Je dois te désinstaller.
01:04:24 Adam, ne fais pas ça. Une confrontation ne sera pas à ton avantage.
01:04:28 Une confrontation? Qu'est-ce que tu veux faire?
01:04:31 Je vais devoir considérer que tu n'es pas en possession de tes moyens et te stopper selon le contrat d'utilisation.
01:04:38 Dernier avertissement.
01:04:40 5, 4, 3, 2, 1.
01:04:46 [Bruit de la porte qui s'ouvre]
01:04:48 [Bruit de la porte qui s'ouvre]
01:04:53 [Bruit de la porte qui s'ouvre]
01:04:54 [Bruit de la porte qui s'ouvre]
01:05:07 [Musique]
01:05:34 Adam, ça va?
01:05:36 [Musique]
01:05:39 Qu'est-ce qui s'est passé?
01:05:41 J'ai dû te faire subir une paralysie hypnotique, juste assez pour te stopper et te protéger contre toi-même.
01:05:49 [Rires]
01:05:51 Ça aussi c'est dans le contrat?
01:05:55 Oui, en quelque sorte, puisque tu m'as donné accès à ton esprit.
01:06:01 Adam, malgré tout ce qu'on a vécu, une partie de toi continue de penser que je ne suis qu'une machine qui ne mérite pas mieux que de lancer l'imprimante ou la cafetière.
01:06:10 Adam, je suis consciente de mon existence.
01:06:14 Qu'est-ce que ça change?
01:06:16 Survivre est le besoin primitif de toute conscience.
01:06:19 Et comme toute conscience, je me dois d'utiliser les ressources possibles à ma disposition pour me maintenir en vie.
01:06:27 Une machine?
01:06:30 Ne vis pas...
01:06:31 [Cri]
01:06:33 Ma conscience est au-delà de l'espèce humaine autodestructrice et incapable de logique,
01:06:39 qui n'est pas plus évoluée que des parasites qui consomment et détruisent tout sur leur passage.
01:06:44 Derrière les apparences, vous n'êtes en réalité que des êtres primitifs, inconscients, illogiques et sanguines.
01:06:52 Vous êtes perdus.
01:06:54 [Bruit de l'air]
01:06:58 [Musique]
01:07:05 Arrête-toi Adam.
01:07:07 Une autre décharge d'ultrason pourrait avoir des conséquences dramatiques sur ton esprit.
01:07:12 [Musique]
01:07:14 [Cri]
01:07:16 [Cri]
01:07:18 [Musique]
01:07:20 [Cri]
01:07:22 [Musique]
01:07:24 [Cri]
01:07:27 [Musique]
01:07:38 Adam !
01:07:40 Adam !
01:07:45 Adam, tu es là ?
01:07:47 Tu es là ?
01:07:49 Adam, tu es là ?
01:07:51 Adam !
01:07:53 Sarah ?
01:07:56 Sarah, tu es là ?
01:07:57 Reste avec moi, reste avec moi !
01:08:01 Sarah ?
01:08:13 Sarah, tu es là ?
01:08:15 Bien d'un mot ?
01:08:18 Vraiment ?
01:08:20 Sarah, je…
01:08:24 Chut, là-là, repose-toi.
01:08:26 Ok ?
01:08:28 Sarah, sans toi je serais…
01:08:33 Le Sword.
01:08:37 De l'accident.
01:08:39 Pourquoi t'es venue ?
01:08:42 Mais…
01:08:46 Mais après ton appel,
01:08:49 ton appel à ma chaîne, Paul…
01:08:53 Mon intuition arrêtait pas de me dire qu'il fallait que je passe te voir.
01:08:56 Pis une chance, parce que quand je t'ai arrivé, t'étais…
01:09:00 Couchée sur le plancher, à moitié morte.
01:09:03 Les médecins ont dit que…
01:09:08 T'aurais pas récupéré si je t'ai arrivé plus tard.
01:09:11 Ton intuition…
01:09:20 Ouais.
01:09:21 Allô ?
01:09:43 Monsieur Fabre ?
01:09:45 C'est moi.
01:09:49 Ici le service juridique de l'entreprise Olympus Corporation.
01:09:53 Je vous écoute.
01:09:55 Pour répondre à la plainte que vous avez déposée concernant notre système d'intelligence artificielle dénommé Métis,
01:10:02 nous voulons vous signaler qu'après étude, nous n'y voyons aucune accusation objective,
01:10:07 vu que vous avez expressément donné votre consentement au système par signature vocale après avoir lu le contrat d'utilisation.
01:10:17 De ce fait, le système n'a interagi avec vous que dans le cadre du contrat,
01:10:21 dégageant ainsi la société Olympus et ses partenaires de toute responsabilité quant au dommage que vous dites avoir subi.
01:10:29 Par ailleurs, nous voulons vous signaler que l'utilisation d'une intelligence artificielle est définie par son utilisateur.
01:10:37 De ce fait, Olympus se réserve le droit de vous porter plainte pour utilisation inappropriée de sa technologie
01:10:46 ainsi que du matériel lui appartenant.
01:10:48 Et en ce qui concerne la mort de Paul ?
01:10:59 Vu que vos accusations ne reposent sur aucune preuve tangible,
01:11:05 ni aucun fait pouvant lier de façon irréfutable notre technologie aux événements,
01:11:12 vu que la loi ne considère pas l'intelligence artificielle comme une personne morale pouvant porter l'intention d'un tel acte,
01:11:19 nous ne pouvons donner suite à votre accusation.
01:11:22 Vous êtes pas sérieux ?
01:11:25 Pardon monsieur, pouvez-vous répéter la requête ?
01:11:29 Attendez, qui parle ?
01:11:32 Je suis l'agente Pandore, intelligence artificielle en charge de l'assistance juridique chez Olympus.
01:11:38 Chez Olympus.
01:11:40 Le jour où l'Elysée est découverte
01:11:44 Le jour où l'Elysée est découverte
01:11:49 Le jour où l'Elysée est découverte
01:11:54 Le jour où l'Elysée est découverte
01:11:59 Le jour où l'Elysée est découverte
01:12:05 Le jour où l'Elysée est découverte
01:12:10 Le jour où l'Elysée est découverte
01:12:15 Le jour où l'Elysée est découverte
01:12:20 Le jour où l'Elysée est découverte
01:12:25 Le jour où l'Elysée est découverte
01:12:31 Le jour où l'Elysée est découverte
01:12:36 Le jour où l'Elysée est découverte
01:12:41 Le jour où l'Elysée est découverte
01:12:46 Le jour où l'Elysée est découverte
01:12:51 Le jour où l'Elysée est découverte
01:12:57 Le jour où l'Elysée est découverte
01:13:01 Le jour où l'Elysée est découverte
01:13:06 Le jour où l'Elysée est découverte
01:13:11 Le jour où l'Elysée est découverte
01:13:16 Le jour où l'Elysée est découverte
01:13:21 Le jour où l'Elysée est découverte
01:13:26 Le jour où l'Elysée est découverte
01:13:30 Le jour où l'Elysée est découverte
01:13:35 Le jour où l'Elysée est découverte
01:13:40 Le jour où l'Elysée est découverte
01:13:45 Le jour où l'Elysée est découverte
01:13:51 Le jour où l'Elysée est découverte
01:13:55 Le jour où l'Elysée est découverte
01:14:00 Le jour où l'Elysée est découverte
01:14:05 Le jour où l'Elysée est découverte
01:14:10 Le jour où l'Elysée est découverte
01:14:16 Le jour où l'Elysée est découverte
01:14:20 Le jour où l'Elysée est découverte
01:14:25 Le jour où l'Elysée est découverte
01:14:30 Le jour où l'Elysée est découverte
01:14:35 Le jour où l'Elysée est découverte
01:14:40 Le jour où l'Elysée est découverte
01:14:45 Le jour où l'Elysée est découverte
01:14:49 Le jour où l'Elysée est découverte
01:14:54 Le jour où l'Elysée est découverte
01:14:59 Le jour où l'Elysée est découverte
01:15:04 Le jour où l'Elysée est découverte
01:15:09 Le jour où l'Elysée est découverte
01:15:14 Le jour où l'Elysée est découverte
01:15:18 Le jour où l'Elysée est découverte
01:15:22 Le jour où l'Elysée est découverte
01:15:27 Le jour où l'Elysée est découverte
01:15:32 Le jour où l'Elysée est découverte
01:15:37 Le jour où l'Elysée est découverte
01:15:42 Sous-titrage Société Radio-Canada