rejoins-moi sur Instagram : https://www.instagram.com/dairing.tia/
pour un partenariat (et uniquement ça) c'est là : contact@dairing-tia.fr
pour un partenariat (et uniquement ça) c'est là : contact@dairing-tia.fr
Category
😹
AmusantTranscription
00:00 Faites attention aux machines, elles ne nous veulent pas du bien.
00:02 *musique*
00:06 Hello mes BG, j'espère que vous allez bien.
00:07 On se retrouve aujourd'hui pour une nouvelle vidéo.
00:10 Je vous ai un peu manqué.
00:11 Alors je suis désolée sans être désolée.
00:13 Parce que le pollen, vous savez, quand quelqu'un vous met un coup de tête,
00:16 peut-être vous avez jamais fait cette expérience, moi non plus.
00:19 Demandons plutôt à Zidane et Materazzi comment ça se passait.
00:21 Mais donc quand quelqu'un vous met un coup de tête, et bah ça fait mal,
00:24 et bah le pollen il me met des coups de tête.
00:25 Il m'a enchaîné au sol, il m'a roué deux coups.
00:27 Et ça va un peu mieux. Franchement ça va un peu mieux.
00:29 Mais donc j'étais hors jeu.
00:31 Je l'ai annoncé en story sur Insta.
00:33 J'avais fait un petit live TikTok où on en parlait justement.
00:36 Donc n'hésitez pas à me rejoindre sur ces réseaux sociaux là.
00:38 Parce que quand je meurs et que je ne peux pas me poser vraiment devant YouTube
00:42 parce que j'ai une voix abominable, c'est par là-bas que je serai.
00:44 Et encore là tout de suite, vous avez plutôt de la chance.
00:46 Parce que ma voix est beaucoup revenue comparée à hier.
00:49 Dans la mesure où j'étais au concert de Beyoncé.
00:51 Là, les cordes vocales elles se sont vraiment boostées.
00:54 Parce que hier on était un peu trop comme ça.
00:57 C'était quelque chose.
00:59 Mais sinon les BG, j'espère que vous allez bien.
01:01 On se retrouve aujourd'hui. Petit disclaimer très rapidement.
01:03 Pour un talk, on n'aura pas de "recherche approfondie" avec un call avec des experts.
01:09 Voilà, on est sur une discussion sur un sujet qui me touche un peu trop.
01:14 Donc je me suis dit "why not ?"
01:16 Et si vous avez remarqué, au niveau du cadrage, là on est un peu différent.
01:19 Bon, j'ai profité de la lumière du jour.
01:20 Parce qu'étant donné qu'on a de la luminosité, c'est super cool.
01:23 Mais c'est mon nouvel objectif.
01:25 Je suis en train d'essayer de tester un peu pour voir.
01:28 Je suis en grand angle là. Je sais pas si vous voyez mais...
01:30 C'est comme ça qu'on voit mieux. On dirait mes bras c'est des merguez.
01:35 Mais donc je suis en grand angle.
01:36 N'hésitez pas à me dire ce que vous en pensez.
01:37 Le rendu, ce que ça donne un peu.
01:39 N'hésitez jamais à me dire ça parce que vous savez très bien que votre avis compte.
01:41 Vu que c'est vous qui regardez ces vidéos là.
01:43 Et comme d'hab, les BG, avant toute fois qu'on commence vraiment,
01:45 n'hésitez pas à vous abonner à la chaîne.
01:47 Ça donne de la force et ça me fait très plaisir.
01:49 Et rejoignez-moi sur mes autres réseaux sociaux.
01:51 Ils sont dans la barre d'infos.
01:52 Regardez mes nouveaux ongles aussi, ils sont trop bien.
01:54 J'aime trop, ils sont trop beaux. C'est Eleven Spot.
01:56 Ils sont trop trop trop trop beaux.
01:58 Allez leur donner de la force, allez prendre rendez-vous.
01:59 Je sais pas si comme moi vous aviez regardé et aimé le film "I, Robot" avec Will Smith.
02:03 Personnellement je l'avais adoré.
02:05 Vraiment quand on était môme, mon père commençait à en avoir un peu marre.
02:08 Parce qu'on le regardait tout le temps avec mes frères.
02:10 C'est-à-dire que le DVD on l'a saigné.
02:12 Je suis sûre que si on regarde le DVD, il doit y avoir des stries.
02:14 Tellement le truc a été lu par notre lecteur.
02:16 Mais dans ma tête, j'aurais bien aimé que justement,
02:19 tout ce côté robotisé à l'excès, ça reste dans le film.
02:23 Mais le gros du souci c'est qu'avec les avancées technologiques actuelles,
02:27 on tend de plus en plus justement à se reposer purement sur de l'IA
02:32 et tôt ou tard à mettre les pieds dans cette réalité là.
02:35 Qui, je sais pas si vous êtes au courant, "I, Robot" à la base, on est sur un livre.
02:39 Alors j'ai oublié, je vais vous écrire juste en bas pendant que j'en parle,
02:42 le titre et le nom de l'auteur.
02:44 Mais pour moi, on restait vraiment sur de la science-fiction et jamais ça allait nous frôler.
02:48 Et donc pour se faire aujourd'hui mes beautés,
02:50 nous allons aborder un sujet ô combien intéressant et troublant,
02:53 les dérives de l'intelligence artificielle.
02:56 Les avancées technologiques, elles ont apporté, mais des avantages qui sont nombreux.
03:00 Je vais même pas commencer à les lister parce qu'on ne peut pas les lister.
03:03 Il n'y a que des avantages tous les quatre matins grâce aux avancées technologiques.
03:07 On en est sûr.
03:08 Aujourd'hui, grâce à ce petit appareil, je peux parler en live avec ma maman et mon papa
03:15 qui sont à New York, tout en nous regardant grâce à cette boîte.
03:19 Je vais uniquement parler de ça parce que l'autre fois avec mon père, on en parlait
03:22 et c'est quelque chose de dingue.
03:24 Le téléphone portable et le téléphone de manière générale,
03:26 je pense qu'on les prend un peu trop pour acquis.
03:28 Mais mon papa me disait que, par exemple, une personne qui reviendrait d'entre les morts
03:33 et qui est décédée dans les années 80,
03:35 c'est une personne qui aujourd'hui ne capterait jamais ce qui se passe et aurait peur
03:39 parce que vous imaginez que grâce aux avancées technologiques,
03:42 tout mon travail à moi se situe ici.
03:45 Et avec cette boîte-là, je peux tout faire quasiment.
03:48 Je n'ai plus besoin d'ordinateur, je n'ai plus besoin de montre,
03:50 je n'ai plus besoin d'un chronomètre au sport,
03:53 je n'ai plus besoin de carte bancaire physique.
03:55 En fait, je n'ai plus besoin de rien sauf de ça.
03:57 Et je vous parle que de l'avancée technologique de ce côté-là.
04:00 Il y en a énormément de partout et ça a apporté vraiment un nombre d'avantages incontifiable.
04:05 Mais ça a aussi apporté pas mal de menaces et de problèmes,
04:08 surtout, dont le nerf de la guerre aujourd'hui,
04:10 en matière de vie privée et d'atteinte à cette vie privée-là.
04:13 Et dans un monde où justement d'ici pas longtemps,
04:15 on pourra peut-être se faire attaquer par des robots comme Sony dans iRobot,
04:18 moi c'est la partie réellement atteinte à la vie privée et sécurité en ligne,
04:22 c'est ça qui me fait le plus peur.
04:23 Parce que c'est là où, très malheureusement,
04:25 aujourd'hui déjà je commence à être en sueur.
04:27 Vous allez comprendre, ne vous inquiétez pas, je vais tout vous expliquer.
04:29 Mais je ne sais pas si vous vous rendez compte réellement,
04:30 mais en très peu de temps, les IA, elles sont rentrées dans nos vies
04:34 et elles se sont perfectionnées d'une manière à atteindre aujourd'hui.
04:39 Des IA qui font des sons à partir des voix d'artistes,
04:41 mais des sons qui n'existent pas, qui n'ont jamais été posés en studio.
04:44 Des IA qui réalisent des peintures qui peuvent être commissionnées,
04:47 qui peuvent donc être vendues et affichées chez les gens.
04:49 Des IA, parlons ici par exemple de Tchad GPT,
04:52 qui font nos devoirs à notre place.
04:54 Des IA qui remportent des concours photo,
04:57 où uniquement des participants humains ont été enregistrés,
05:00 comme le dernier concours Sony remporté par Boris Eldakson,
05:03 qui justement a montré que ce n'était pas normal,
05:06 parce que personne n'avait compris que c'était généré par une IA.
05:09 Des IA qui font des campagnes de pub,
05:12 comme la dernière campagne de pub Coca-Cola,
05:14 qui a été générée par l'intelligence artificielle,
05:16 qui s'appelle Stable Diffusions.
05:18 Une campagne de pub par une IA,
05:21 qui est diffusée et annoncée de partout.
05:25 Et des IA qui maintenant créent des mannequins pour des campagnes de pub,
05:28 comme la dernière chez Undies.
05:30 On en a beaucoup parlé sur Twitter, si vous étiez là.
05:33 Et là, je vous ai cité uniquement ce que je connais,
05:35 et que j'ai pu voir par moi-même.
05:37 Il y a la présence des IA de partout.
05:40 Je ne vous parlerai même pas de Snapchat,
05:42 qui a mis en place une IA dans l'appli.
05:45 C'est partout.
05:46 Donc on comprend hyper rapidement, qu'en se basant uniquement sur ça,
05:48 on peut partir en roue libre très vite.
05:50 Déjà par rapport à Snapchat, on peut se poser des questions.
05:53 L'IA, qu'est-ce qu'elle va faire ?
05:54 À quoi elle sert réellement ? C'est très bizarre.
05:56 Je ne suis pas en train de jeter la pierre sur toutes les IA,
05:57 ce n'est pas du tout le but.
05:58 Par exemple, chat GPT, moi je sais que pour mon taf, c'est très utile.
06:01 Si tu veux remplir un script,
06:03 si tu veux avoir des informations par rapport à un sujet,
06:05 tout et n'importe quoi, sans toutefois te perdre dans les limbes de Google,
06:08 c'est hyper intéressant d'avoir chat GPT avec toi.
06:11 Et même pour les gens pour les devoirs, c'est hyper intéressant.
06:14 Mais sauf que le côté, justement, perversion des IA et omniprésence,
06:18 j'ai l'impression que les gens n'en ont pas assez peur et n'en parlent pas assez.
06:21 Parce qu'avec ce que j'ai dit, on peut facilement capter que
06:23 les IA peuvent être à l'origine de la suppression de millions de posts.
06:27 Les IA ont la porte ouverte sur notre vie et nos données digitales,
06:30 et peuvent donc en faire un peu ce qu'elles veulent.
06:32 Les IA peuvent transformer toute notre vie en "e" à fake news,
06:35 comme c'est déjà en train de commencer, sur plein de plateformes, vous l'avez vu.
06:39 Les IA auront clairement cette capacité à nous rendre dépendantes d'elles, en fait.
06:43 Parce que une IA peut donc finir dans un jeu, par exemple.
06:46 Ça va être un jeu, je sais pas, chopper Fortnite, chopper Roblox, comme vous voulez.
06:52 Mais dans ce type de jeu-là, où vraiment tu évolues dans un monde et tout ça,
06:57 tu auras un échange vocal avec une IA.
06:59 Elle va créer un truc d'addiction, tu auras l'impression d'être dans une réalité, en fait.
07:04 Tu seras dans la réalité de l'IA, dans tous les cas, dans une réalité préfabriquée.
07:07 Mais sauf que, on va arriver dans un truc qui me fait très peur.
07:10 Et parmi les dérives et les dangers auxquels les IA nous exposent,
07:13 moi c'est vraiment ce que je vous ai cité qui me fait le plus peur.
07:15 Vraiment ça.
07:16 Je sais qu'il peut y avoir plein de choses.
07:17 Déjà rien que les robots qui peuvent prendre le contrôle de nos vies.
07:19 Mais moi déjà, c'est ce que je vous ai cité, parce que je pense que c'est la première étape,
07:23 soyez honnêtes.
07:23 Et soyez honnêtes pourquoi ? Parce que c'est déjà en place, justement.
07:26 Par exemple, du côté des fake news qui sont, à mon sens, très effrayantes.
07:29 C'est quelque chose qui est de plus en plus difficile à démêler pour le vrai du faux.
07:32 Avec les IA, vous l'avez vu sûrement sur Twitter.
07:35 Les fausses photos d'arrestations musclées de Trump,
07:38 qui apparemment se faisaient plaquer au sol par des policiers.
07:41 On a même vu des photos de soi-disant arrestations de Macron.
07:45 De Macron qui se faisait tabasser par des manifestants.
07:48 Et des choses qui semblent très vraies.
07:49 Je sais que moi-même, ça m'est arrivé une ou deux fois,
07:52 de liker ou retweeter des images générées par des IA.
07:55 Par exemple, c'est des images, la dernière en date.
07:57 Et heureusement, j'ai lu les commentaires.
07:59 Maintenant, j'ai des doutes tout le temps.
08:00 Je ne crois plus en rien ni en personne.
08:02 Mais donc, la dernière en date, c'était une soi-disant photo
08:04 d'une communauté noire particulière dans la communauté noire.
08:08 J'ai oublié quel était leur nom.
08:09 Mais ils avaient un style vestimentaire de dingue, en fait.
08:13 Soi-disant dans les années 70.
08:15 Et j'étais là en mode "Waouh, mais ils sont trop stylés.
08:17 Mais qu'est-ce qu'ils sont... Waouh !"
08:19 Et j'ai commencé un peu à zoomer pour juste regarder les coiffures des gens.
08:22 Et j'ai vu un visage dans le fond qui était un peu bizarre.
08:25 Et j'ai continué à regarder les détails.
08:27 J'ai vu une main qui avait un doigt qui était un peu trop long par rapport aux autres.
08:30 Une autre main où il y avait un bug.
08:32 Donc tu dis, c'est pas juste un mec qui avait un doigt qui était plus long.
08:34 Là, on est sur un bug.
08:35 Pourquoi ? Parce que c'est généré par l'IA.
08:37 Et sauf que les gens ne voient pas ça.
08:40 Parce que justement, oui, en scrutant de près,
08:42 on verra un visage où il y a un bug.
08:44 On verra une oreille, une main.
08:46 Il y aura un cheveu qui sera bizarrement mis par-dessus le visage
08:50 et qui n'aura pas de sens.
08:51 Enfin bref, il y aura, comme on dit en français, très très joli,
08:55 une couille dans le pâté.
08:57 Ok, mais pour ça, il faut avoir l'œil.
08:59 Il faut connaître ces détails-là.
09:00 Et c'est pas le cas de tout le monde.
09:01 Parce que le souci, c'est que par exemple,
09:03 pour la dernière photo de moi avec Jaylaikey dont je vous parlais,
09:05 je crois qu'ils étaient à 26 000 likes sur le tweet.
09:09 Avant, toutefois, qu'il y ait une personne dans les commentaires qui réagit
09:12 et qu'il soit arrivé pour dire "Non mais s'il vous plaît, arrêtez avec les IA."
09:15 Parce que là, pour le coup, c'est juste une personne qui cherchait du clout,
09:17 qui a balancé une photo qui est totalement fausse,
09:19 une version qu'on n'a jamais vue sur Internet, qui était hyper stylée.
09:21 Donc les gens ont les likés, bien entendu.
09:23 Donc s'il n'y en a pas une personne qui est assez éclairée sur le sujet
09:25 et qui va balancer son commentaire,
09:26 parce qu'il y a des gens qui vont se dire "Vas-y, c'est une IA",
09:28 mais qui vont passer.
09:29 Tout le reste tombe dans le panneau.
09:30 Et le souci, c'est qu'au fur et à mesure du temps,
09:32 ça désaiguise, si je peux dire ça ainsi,
09:34 ça émousse, c'est mieux, nos lames en fait.
09:37 Parce qu'avant, on avait nos lames, nos visions
09:40 qui étaient aiguisées comme pas possible par rapport à ça.
09:42 Sauf qu'au fil du temps, si tu t'habitues au fake,
09:44 bah pour toi, le fake est devenu réalité.
09:46 Et c'est ça qui est flippant.
09:47 Parce que vous devinez mes beautés,
09:48 quelle est la prochaine étape et qui à mon sens est la plus sombre ?
09:51 L'atteinte à la vie privée.
09:52 Ça fait déjà quelques jours qu'en ouvrant Twitter,
09:54 je sais pas si vous êtes vraiment beaucoup sur Twitter,
09:56 moi aussi j'ai beaucoup de Twitter US,
09:58 parce que je suis pas mal de personnes américaines,
10:01 pas mal de hashtags aussi qui sont vraiment que anglophones et tout ça.
10:04 Mais ça fait quelques jours que je vois pas mal de comptes US surtout.
10:07 Je l'ai vu sur une française tout à l'heure,
10:09 des filles qui postent juste une photo d'elles en maillot de bain par exemple,
10:13 en bikini la plupart du temps,
10:15 ou bien petite robe de soirée sexy nini tout ça,
10:18 on adore, pas de souci, jolie nana.
10:20 Et en QRT, donc en retweet, ou bien en commentaire,
10:24 tu verras un compte qui est un compte totalement fake,
10:26 un compte inexistant, pas de photo de profil,
10:28 pas de tweet d'eux-mêmes,
10:30 une personne qui va juste publier une photo de cette fille,
10:33 mais dénudée.
10:34 Donc en fait par exemple, si je prends un selfie comme ça
10:36 et là je suis en maillot de bain genre en...
10:38 vous savez les hauts triangles classiques,
10:41 la personne, la même photo, sauf qu'en fait je serais sein nu,
10:43 parce que ça aura été généré par l'IA.
10:45 Et donc les gens s'amusent juste à balancer le truc.
10:48 Vous savez c'est comme cette folie de piquer les gens en soirée,
10:51 ceux qui piquaient les gens mais uniquement avec de l'eau,
10:54 donc uniquement pour leur faire peur,
10:55 juste pour te faire paniquer.
10:57 Donc là en fait c'est que ça,
10:58 c'est des gens qui te balancent le truc en commentaire ou en QRT,
11:00 juste pour faire paniquer ces meufs-là.
11:03 Pour l'instant j'ai vu ça avec des femmes,
11:04 j'ai pas encore vu ça sur des mecs,
11:06 mais c'est un comportement de fou furieux.
11:08 Et surtout ça me fait très peur pour l'avenir.
11:10 Parce que bien sûr ces photos des nudés,
11:12 on précise et on souligne,
11:13 ces personnes-là ne les ont jamais prises d'elles-mêmes.
11:17 Ça n'a jamais été pris, cette photo n'existe pas.
11:19 Vous voyez doucement vers où on arrive ?
11:20 Parce qu'un algorithme en fait d'une intelligence artificielle,
11:23 il peut être entraîné,
11:24 parce que de toute manière l'intelligence artificielle fonctionne
11:26 selon ce qu'on lui donne à manger en gros.
11:29 Donc il peut être entraîné à reconnaître très rapidement
11:32 des images à caractère sexuel,
11:34 donc là on va voir un début de décolleté ou tout le reste,
11:36 et donc derrière à générer ce type de photos-là,
11:40 et surtout, surtout, surtout,
11:42 à les balancer au maximum sur la place publique.
11:45 À flouder les réseaux sociaux avec ce type de contenu.
11:48 Et je rigole pas avec vous,
11:49 on est vraiment sur une propagation rapide et virale,
11:52 qui peut tout simplement être programmée dans l'IA.
11:55 C'est hyper flippant.
11:56 Donc en fait c'est assez simple.
11:57 Une femme, un homme, personne non-binaire,
11:59 une personne qui n'aura jamais pris de nude,
12:03 va retrouver des photos de son corps nu sur les réseaux sociaux.
12:07 C'est ça que l'IA peut faire aujourd'hui.
12:08 Et c'est pour ça que je vous dis que moi c'est la chose
12:10 qui commence à me faire le plus flipper,
12:11 l'attente à la vie privée,
12:12 avant toutefois que les robots commencent à nous retenir en otage,
12:16 comme ils le faisaient dans Aérobots.
12:17 Il y a l'étape d'avant, et c'est l'étape de maintenant.
12:20 Parce que cette étape-là, je tiens quand même à souligner
12:23 que ça peut détruire des carrières,
12:24 ça peut détruire des familles, des couples, des vies entières.
12:28 C'est absolument fin.
12:30 C'est un truc qui me fait très peur,
12:31 et surtout c'est quelque chose qui donne un second souffle
12:35 au revenge porn.
12:36 Je sais pas si vous y avez pensé.
12:38 Si jamais vous connaissez pas le revenge porn,
12:39 c'est la diffusion non consensuelle d'images, de vidéos
12:42 à caractère sexuel.
12:44 Souvent, on sait, c'est un ancien partenaire
12:46 ou des potes de l'ancien partenaire
12:48 qui a le seum de la fin de la relation ou de je sais pas quoi
12:50 qui balance ça sur les internets.
12:52 Parce que outre la propagation virale dont je vous parlais très rapide,
12:55 c'est hyper difficile de faire retirer du compte d'une internet.
12:58 Vous le savez très bien.
12:59 C'est hyper difficile.
13:00 La plupart des gens engagent des informaticiens,
13:03 des personnes qui sont vraiment spécialisées dans le nettoyage.
13:06 Vraiment, et ça coûte de l'argent.
13:08 Parce que c'est un travail.
13:09 Ça coûte beaucoup d'argent.
13:11 C'est très difficile de faire retirer tout ça.
13:12 Donc t'as une propagation virale rapide.
13:15 Comment tu fais retirer tout ça ?
13:17 Qu'est-ce que tu fais ?
13:18 Et c'est pour ça que là-dessus,
13:19 du côté du législateur, comme des plateformes,
13:21 donc des réseaux sociaux,
13:22 ils font face à des nouveaux défis,
13:23 mais sauf que ces nouveaux défis-là,
13:24 ils doivent les prendre à bras le corps.
13:26 Ils doivent absolument capter que là, tout de suite,
13:29 ces nouveaux défis, il faut les prendre au sérieux.
13:31 Parce que la porte ouverte est béante.
13:34 J'ai jamais vu ça de ma vie.
13:36 C'est quelque chose, franchement, je vous jure,
13:38 j'en parle de temps en temps avec mon chéri Abba,
13:40 parce qu'on est pas mal branchés
13:42 sur tout ce qui concerne les IR et tout ça.
13:43 On adore franchement tout ce qui est hyper futuriste, OK.
13:47 Sauf que là, on est sur le côté qui fait flipper.
13:49 Mais vraiment.
13:50 Donc si c'est pas encore le cas,
13:51 ouvrez les yeux s'il vous plaît sur cette réalité.
13:53 Vraiment, ouvrez les yeux par pitié.
13:55 Et il faut lutter contre ces abus,
13:56 sauf que cette lutte contre les abus,
13:57 elle va pas se faire d'elle-même.
13:58 Comme je l'ai dit, le législateur, les plateformes, mais nous aussi.
14:01 Parce que par exemple, les personnes comme moi,
14:03 personnes qui sommes exposées sur les réseaux sociaux,
14:05 on est les personnes, je pense,
14:07 qui sommes le plus face à ce risque-là,
14:09 ce risque d'arriver et qu'en fait, tu es des haters,
14:12 comme on en a pas mal,
14:14 qui vont débarquer un matin
14:15 et balancer des soi-disant "nudes" de toi,
14:17 juste parce qu'en fait, ils ont la haine.
14:18 Juste parce que par exemple,
14:19 si je ponds demain un "pourquoi je déteste" sur une célébrité
14:22 et que ça pique trop une personne
14:24 qui sait un tout petit peu bidouiller des trucs avec une IR,
14:27 bam ! Je vais me lever le matin,
14:29 après avoir posté ma vidéo,
14:30 un lundi matin tranquille, je vais me lever
14:32 et je vais voir des soi-disant "nudes" de moi.
14:34 Alors qu'il y en a pas.
14:35 Alors qu'il y en a pas.
14:36 Je sais pas si vous vous rendez compte de la folie que c'est.
14:38 Parce qu'après, on marche réellement sur la tête.
14:40 Comment réussir à prouver que ce n'est pas moi ?
14:43 Comment je vais venir et vous dire,
14:44 bon, même si dans tous les cas,
14:45 c'est pas la personne dont on publierait sa nudité,
14:47 comme le Revenge Porn,
14:48 c'est pas à toi de venir essayer de prouver ce que c'est ton corps et ce que...
14:50 Non, non.
14:51 Le but, en fait, c'est de choper la personne qui a publié ça
14:53 et qui est totalement hors la loi
14:55 et, j'allais dire, de la défoncer.
14:57 Non, bon, on est censé obéir sur la loi,
15:00 il y a des amendes, il y a des contraventions,
15:02 toutes ces choses-là. Bref.
15:03 Mais moi, pour le coup, j'ai de la chance,
15:04 parce qu'on est nombreux comme moi aussi.
15:06 J'ai plein de signes distinctifs
15:08 qui vont rendre la tâche difficile
15:10 dans ce cas de figure.
15:11 C'est-à-dire que j'ai plein de tatouages.
15:13 Et j'ai des tatouages,
15:14 vous les avez jamais vus en photo.
15:16 Vous ne savez pas comment ils sont, où ils sont.
15:18 Donc demain, moi, ça m'arrive,
15:20 en l'espace de trois secondes, je vais dire
15:22 "Arrête, s'il te plaît, on voit pas mes tatouages.
15:25 Pitié."
15:26 Mais le souci, c'est que donc, la personne
15:28 qui n'a aucun signe distinctif,
15:30 pas de piercing précis, pas de je sais pas quoi,
15:32 de tâche de naissance ou non,
15:34 OK, cette personne, elle fait comment ?
15:36 À part pleurer, cette personne, elle fait comment ?
15:37 Et c'est pour ça qu'il faut que les plateformes,
15:39 elles renforcent leur politique de modération
15:41 et que les gouvernements se penchent vraiment là-dessus.
15:43 Les IAS, c'est intéressant,
15:45 dans une certaine mesure.
15:46 Et le souci, c'est que là, la porte,
15:47 elle a été ouverte à tous les abus, en fait.
15:49 À tous les abus, maintenant, on va arriver,
15:51 on va dire "Gros, je vais pas te payer
15:53 pour me créer un logo, parce qu'en fait,
15:55 je vais payer une IA, que je vais même pas payer
15:57 en fin de compte, elle va me générer le truc
15:59 en trois secondes. Pourquoi je vais te payer
16:01 pour me peindre un truc ? Je vais demander
16:03 ça à une IA, ça va être en deux secondes.
16:05 Oh, j'aurais trop aimé entendre
16:07 un feat entre Nicki Minaj, Beyoncé et Rihanna,
16:10 le fameux R&B qu'on veut depuis tout le temps.
16:13 Hum, je vais demander à l'IA de créer ce feat-là.
16:15 Voilà. Et je vais flouder
16:17 toutes les plateformes avec ça.
16:19 Bon, bien sûr, on finira par me tomber dessus, c'est sûr,
16:21 mais c'est pas grave, c'est pas grave,
16:23 je vais m'amuser entre temps. Et c'est pour ça,
16:25 entre autres, pour les sons, je vous invite,
16:27 s'il vous plaît, cliquez le moins possible dessus,
16:29 écoutez-les le moins possible. Je sais que ça peut être
16:31 tentant de vous dire "Bon, ben, un feat
16:33 entre ces deux personnes que j'adore, et qui ont
16:35 jamais featé, qui se sont jamais croisées, qu'est-ce que ça pourrait donner ?"
16:37 Mais s'il vous plaît, ne le faites pas, parce que
16:39 le plus vous allez cliquer, le plus vous leur
16:41 donnerez de l'importance et du clout,
16:43 le plus ça continuera. Donc s'il vous plaît,
16:45 évitez ça au maximum, parce que, ben,
16:47 j'imagine même pas, en tant qu'artiste,
16:49 ce que tu dois ressentir en tombant sur ces trucs-là.
16:51 Et donc vraiment, c'est un sujet, je sais pas si vous,
16:53 c'est quelque chose qui vous touche vraiment,
16:55 mais je trouve que c'est hyper important de sensibiliser
16:57 là-dessus. C'est pour ça que j'ai voulu en parler,
16:59 parce qu'il faut qu'on sensibilise par rapport aux IA.
17:01 Les IA, c'est bien, je vous l'ai dit, parce que
17:03 c'est une avancée de dingue,
17:05 mais il faut une limite. Il faut une limite,
17:07 et cette limite, le souci, c'est qu'elle se mettra pas toute seule.
17:09 Donc voilà mes BG, voilà pour moi aujourd'hui,
17:11 j'espère que le sujet vous a plu. N'hésitez pas à réagir en commentaire,
17:13 je sais que vous aurez pas mal de choses
17:15 à dire sur le sujet, parce que
17:17 y'a pas mal de choses à dire sur le sujet.
17:19 Si jamais ça vous a plu, vous savez quoi faire,
17:21 abonnez-vous, lâchez un pouce bleu,
17:23 ça fait toujours plaisir. Lâchez un commentaire,
17:25 même des émojis pommes de terre, là, faites travailler
17:27 cet algorithme YouTube-esque,
17:29 et nous on se retrouve très bientôt, en attendant,
17:31 vous savez très bien ce qui se passe.
17:33 Rendez-vous sur Instagram, Twitter et TikTok.
17:35 Je vous fais de gros bisous,
17:37 prenez soin de vous, et
17:39 mettez de la crème solaire pitié.
17:41 Peace guys.
17:43 [Musique]