• l’année dernière
Aujourd'hui, l'invité du grand entretien est Bruno Patino, président d’Arte France, spécialiste des médias et des questions numériques, et auteur de “Submersion” (Grasset). Plus d'info : https://www.radiofrance.fr/franceinter/podcasts/l-invite-de-8h20/l-invite-de-8h20-du-we-du-samedi-07-octobre-2023-7627379

Category

🗞
News
Transcription
00:00 Et le grand entretien de la matinale ce matin avec Marion Lourds, notre invité a connu
00:05 un immense succès en librairie qui avait fait date avec ce livre « La civilisation
00:09 du poisson rouge ». Il y faisait le constat de notre dépendance aux écrans, ses conséquences
00:15 sur notre cerveau.
00:17 Tempête dans un bocal assuivi, il publie ce mois-ci « Submersion », un essai passionnant.
00:23 On le prenait pour une baguette magique, ce téléphone portable qu'on a tous au bout
00:28 du pouce, il nous conduit en vérité à la fatigue, à la lassitude, comment retrouver
00:33 la liberté dans ce trop-plein ? Si vous vous sentez concerné, chers auditeurs, et j'imagine
00:38 que vous êtes très nombreux à l'être, n'hésitez pas à nous appeler.
00:42 Vos questions, vos réactions au 01 45 24 7000 ou sur l'application France Inter.
00:47 Bonjour Bruno Patino.
00:49 Bonjour.
00:50 Et bienvenue Président d'Arte, spécialiste de ce monde nouveau qui n'arrête pas de
00:55 changer et d'évoluer.
00:56 « Submersion », c'est ce livre que vous publiez aux éditions Grasset, c'est en
01:00 librairie depuis mercredi dernier.
01:03 On va commencer non pas par l'explication de ce titre « Submersion » puisqu'on
01:06 était dans un bocal, maintenant on est perdu dans le vaste océan.
01:11 Nous sommes dans ce studio, il va bientôt faire jour et vous commencez votre livre en
01:16 disant qu'on a perdu la nuit.
01:17 Qu'est-ce que ça veut dire ?
01:18 En fait, ça part toujours d'une expérience personnelle, d'un ressenti qui peut-être
01:24 n'est pas seulement le mien.
01:26 En tout cas, je le crois.
01:27 Ce qui devait au départ nous donner accès à tout, à toute une liberté, parfois on
01:33 se sent envahi par ce qui nous devait accès.
01:35 Ce qui devait nous donner accès à tout ?
01:38 Oui, le téléphone portable.
01:40 Le téléphone portable.
01:41 À une infinité de messages, d'images, de sons, bref, une liberté totale.
01:46 Finalement, on se sent envahi par lui.
01:48 Et moi, ce sentiment-là, il m'apparaît surtout la nuit.
01:50 C'est-à-dire que finalement, au lieu du noir, j'ai cette espèce de lumière bleue
01:55 rétro-éclairée qui m'attire, qui m'envahit, qui à la fois me propose énormément de
01:59 choses mais me fatigue à la fois.
02:01 Qui vous rend insomniaque ?
02:02 Qui me rend presque insomniaque.
02:04 C'est-à-dire que ce n'est plus l'insomnie, c'est le fait de ne plus même vouloir
02:07 aller dormir et passer d'application en application, essayer de faire un choix et
02:13 surtout ne pas être capable de le faire.
02:15 J'aimerais juste qu'on donne une indication à nos auditeurs, parce que vous connaissez
02:18 ces sujets de près.
02:19 Vous dites qu'à force de manipuler ces téléphones portables, nos corps se sont modifiés, nos
02:24 corps se sont modifiés et comment ne l'aurait-il pas fait alors que nous touchons notre téléphone
02:29 mobile combien de fois par jour ?
02:31 600 ou 700 fois par jour selon les études.
02:34 600, 700 fois.
02:35 Oui.
02:36 Et la moitié des habitants du Royaume-Uni passent combien d'heures devant leur téléphone ?
02:39 Et bien figurez-vous, plus de 11 heures.
02:41 Plus de 11 heures.
02:42 Oui, plus de 11 heures par jour.
02:44 Quand j'ai donné ce chiffre, le correcteur des éditions Grassem a envoyé un mail en
02:49 me disant « il y a sans doute une erreur, pouvez-vous me citer vos sources ? ». Je
02:53 lui ai envoyé évidemment les sources et les études.
02:54 J'avais moi-même relu à deux fois l'étude pour être sûr que le chiffre était exact.
02:59 Mais on parle bien de plus de 11 heures par jour.
03:01 Et vous dites aussi « 40% de notre vie éveillée passait en ligne ».
03:05 Oui.
03:06 Alors c'est quelque chose qu'on a choisi ou c'est quelque chose qu'on subit Bruno
03:09 Patino ?
03:10 Les deux.
03:11 C'est-à-dire que c'est ça qui est un peu vertigineux.
03:13 C'est-à-dire que bien sûr qu'on l'a choisi.
03:15 Et bien sûr qu'il y a eu ce vertige, et moi-même je le ressens toujours, de se dire
03:21 quel outil incroyable de liberté, de mise en relation avec l'autre, de mise en relation
03:26 avec tout le savoir du monde, avec toute la production culturelle du monde.
03:31 Et finalement, cet accès, j'allais dire, universel, ce rêve, pardon de cette référence,
03:37 mais à une bibliothèque d'Alexandrie imaginée, au début de l'Internet c'était ça.
03:43 Eh bien on a accès à ça.
03:45 Et qu'est-ce qui se passe ? Ça nous fatigue.
03:47 Souvent on abandonne, on a l'impression vraiment qu'on ne sait plus choisir, parce que cet
03:52 aspect-là est très important dans la fatigue que ça engendre.
03:55 Et cette absence de capacité de faire son choix, d'avoir l'impression d'être mis
04:01 sur des rails, finalement change quelque chose en nous.
04:04 Il y a quelque chose d'étonnant, c'est ce constat, cette servitude volontaire.
04:08 On est submergé par les messages et les notifications, on peut tous en faire l'expérience, vous-même
04:13 d'ailleurs, vous le premier, mais on a ces propositions de films et de musiques.
04:18 Et vous-même, à la tête de France Culture, à la tête du Monde.fr, à la tête d'Arte,
04:24 vous proposez des choix culturels.
04:27 40 000 heures de programme sur Netflix, il y a environ 80 ou 100 millions de titres sur
04:33 Spotify, et pourtant on n'arrive plus à faire des choix.
04:37 Écrivez-vous Bruno Patino, comment l'expliquez-vous ?
04:40 Mais je pense que ça c'est un élément absolument essentiel.
04:44 C'est-à-dire que l'abondance était une promesse, elle est finalement, enfin cette
04:48 abondance-là, elle est devenue une sorte de problème.
04:51 Et ce problème c'est que justement, en tout cas en ce qui me concerne, et manifestement
04:56 d'après les études, en ce qui concerne un être humain, en moyenne, on arrive à
04:59 faire des choix entre 15, 20, 30 options.
05:01 Il y a un paradoxe du choix.
05:02 Exactement.
05:03 Quand on vous propose 100 millions de choses, on n'y arrive pas.
05:06 Alors le paradoxe du choix, j'y fais référence et j'essaie de le raconter, c'est quelque
05:10 chose qui a été développé par quelqu'un qui s'appelle Barry Schwartz.
05:13 Psychologue américain.
05:14 Psychologue américain, qui expliquait qu'au bout d'un certain nombre d'options, quand
05:17 on vous propose trop d'options, il se passe deux choses.
05:20 Et il parle de jeans.
05:21 Il parle de jeans.
05:22 Alors il donne cette expérience tout à fait pertinente.
05:27 Quand lui, qui a une corpulence moyenne, une taille moyenne, rentrait dans une boutique
05:32 et qu'on lui proposait quatre modèles, il les essayait tous les quatre, il prenait
05:35 celui qui lui allait le mieux et il en ressortait satisfait.
05:38 Maintenant qu'on lui propose dans la même boutique, 20 ans ou 30 ans après, 40, 45
05:43 modèles, évidemment il n'a plus le temps de les essayer, ça n'aurait pas de sens
05:46 de passer deux jours à essayer d'acheter un jean.
05:49 Donc il demande conseil.
05:52 Il en prend un.
05:53 Et alors ce qui le sidère, c'est qu'il en ressort toujours malheureux.
05:57 Et il l'explique de deux façons.
05:58 La première, c'est que, évidemment, comme il n'a pas pu faire le choix de façon rationnelle,
06:02 il a délégué son choix.
06:04 Et donc il y a un manque de confiance.
06:05 Sans doute, il y avait quelque chose qui m'allait mieux, il y a de la défiance qui est là.
06:09 Et en plus de ça, comme vous avez beaucoup plus d'options, vos attentes ont augmenté.
06:12 Et comme vos attentes ont augmenté, votre déception augmente d'autant.
06:16 Et dans ce contexte de choix à profusion, est-ce que publier un livre, ce n'est pas
06:21 une sorte de défi ? Ce n'est pas un peu fou pour nous faire part de ce constat effrayant ?
06:25 Oui, vous allez dire que j'ajoute à la submersion une goutte d'eau supplémentaire.
06:29 Mais en même temps, ce livre est un plaidoyer non pas pour l'arrêt de la technologie,
06:37 non pas pour l'arrêt de tout ça, mais à savoir de dire "ne délégons pas nos choix
06:42 à des formules mathématiques qui ne sont pas capables de nous connaître vraiment".
06:46 Elles nous calculent très bien, elles nous connaissent très faiblement, elles nous empêchent
06:51 souvent l'inattendu, la surprise.
06:54 On va dire quelque chose comme ça, le bouleversement complètement imprévisible de
06:59 votre vie.
07:00 Et donc c'est un plaidoyer pour le retour du choix et un plaidoyer finalement pour
07:04 le retour de la philosophie.
07:05 Vous dites qu'il faut prendre soin de ceux dont le métier est d'orienter la hiérarchie.
07:10 C'est là où vous esquissez les solutions par rapport à ça, d'éclairer, de trier,
07:15 de proposer.
07:16 Vous parlez des journalistes en fait ?
07:17 Je parle entre autres des journalistes parce qu'on parle aussi de cette fatigue informationnelle
07:21 devant le surcroît d'informations.
07:22 Je parle évidemment de tous ceux qui font intermédiaire pour la rencontre.
07:27 La rencontre avec justement la culture, avec les messages, avec l'information.
07:32 Ceux qui peuvent encore nous amener à trouver des choses qu'on ne cherchait pas ou quelque
07:38 fois d'ailleurs à nous montrer qu'on n'arrivera pas à trouver ce qu'on cherche.
07:42 Parce que ne pas arriver à trouver ce qu'on cherche c'est la quête.
07:45 Trouver quelque chose qu'on ne cherchait pas c'est la culture.
07:47 Et ces deux choses-là nous font échapper aux calculs.
07:50 Donc oui, je fais plaidoyer pour ceux qui font le métier, qui essayent de faire les
07:53 algorithmes aujourd'hui.
07:54 Vous essayez de faire ce métier justement pour ne pas calculer, laisser une part à
08:00 l'imprévisible.
08:01 Il y a cette chanson de Bruce Springsteen dans la bande originale de ce livre.
08:05 Qu'est-ce qu'il dit Bruce Springsteen ? C'est une chanson qui n'est pas très connue ?
08:08 Non, et c'est une chanson qui précède l'internet.
08:11 Il disait 57 chaînes de télévision et il n'y a rien dessus.
08:14 Parce que quand vous posez la question effectivement aux gens, qu'est-ce qu'il y a à la télé,
08:18 plus ils ont de chaînes, plus ils vous disent qu'il n'y a rien dessus.
08:21 Et aujourd'hui vous avez des gens qui vous disent, tu sais, il n'y a plus grand-chose
08:24 sur Spotify, vous avez vous-même dit, il y a 80 millions de titres.
08:26 Et ils vous disent, il y a de moins en moins de choses sur Netflix par exemple, alors qu'il
08:30 y a de plus en plus de choses.
08:31 C'est justement ce paradoxe du choix.
08:33 Il y a de plus en plus de choses, donc on n'arrive plus véritablement à percevoir
08:37 ce qui nous est proposé.
08:38 Oui, mais c'est paradoxal de la part du patron d'Arte, Bruno Pacino.
08:42 57 chaînes de télé, il doit y en avoir beaucoup plus aujourd'hui d'ailleurs.
08:45 Et on n'a rien à regarder.
08:47 C'est parce que justement le problème n'est pas l'offre, le problème c'est le choix.
08:50 Et quel est le rôle de l'intelligence artificielle dans cette profusion-là ? Ça rajoute encore ?
08:54 Alors justement, l'intelligence artificielle, si vous voulez, rajoute, en tout cas à mon
08:59 avis et de façon quasiment certaine, une troisième, pardon de dire ça comme ça,
09:03 couche.
09:04 C'est-à-dire qu'au niveau de la civilisation numérique, nous avons eu le premier temps
09:08 qui était le temps de la copie infinie.
09:10 C'était facile de tout copier.
09:11 Et donc tout d'un coup, il y a eu une première profusion parce que les copies étaient multiples.
09:15 Donc l'accès était de moins en moins compliqué.
09:18 Et puis ensuite, il y a eu la viralisation ou le partage infini avec les réseaux sociaux,
09:22 la connexion permanente.
09:23 On a pu partager tout ça.
09:25 Et maintenant arrive quelque chose qu'on entrevoit, c'est quasiment la production
09:29 infinie.
09:30 C'est-à-dire que l'intelligence artificielle va nous aider, va aider tout le monde à produire
09:34 beaucoup plus rapidement et sans doute de façon beaucoup plus simple, un très grand
09:38 nombre de messages.
09:39 Et je ne parle même pas de la différence entre le vrai et le faux.
09:41 Peut-être qu'on y reviendra après.
09:42 Et de la musique même, et des livres.
09:43 Et bientôt, l'intelligence artificielle produira elle-même.
09:47 On voit bien que YouTube a annoncé une collection produite par l'intelligence artificielle.
09:52 Netflix a une série produite entièrement par des IA.
09:55 Vous avez une radio en Allemagne, on m'a raconté ça il y a deux jours, qui est entièrement
10:00 opérée et produite par l'intelligence artificielle.
10:02 Et dans la musique aujourd'hui, vous avez beaucoup d'artistes qui s'aident de l'IA,
10:05 voire même qui produisent grâce à l'IA.
10:07 Tout ça est évidemment naturel.
10:11 Et l'IA là-dessus n'est qu'un outil.
10:12 Mais c'est un outil justement qui rajoute encore aux déluges.
10:15 Vous êtes d'avis qu'il faut faire une pause pour l'utilisation de l'IA et notamment
10:20 de Chad J.P.T.
10:21 comme certains l'ont demandé ?
10:22 Non, je pense que la pause est une sorte de fiction.
10:27 C'est-à-dire quand Sam Altman, le père de Chad J.P.T. dit avec certains autres "faisons
10:34 une pause parce que sinon nous allons détruire l'humanité".
10:36 A mon sens, il y a deux exagérations.
10:39 La première, c'est qu'il demande aux autres de lui faire faire une pause à lui-même.
10:43 Ce qui est quand même étrange, il pourrait la faire lui-même.
10:45 Et la deuxième chose, c'est qu'on est un peu dans une sorte d'ego trip, pardon de
10:49 dire ça, qui est de faire de l'IA non pas une invention, ce que c'est, c'est un outil
10:54 supplémentaire, mais une création.
10:55 Et comme vous le savez, dans toute création, à un moment donné, la créature se retourne
11:01 contre son créateur.
11:02 Et donc il y a cette image fantasmagorique de Terminator ou autre, ou de 2001 Odyssée
11:06 de l'espace.
11:07 Sur lequel vous revenez régulièrement.
11:08 Le Rival de HAL, l'ordinateur maléfique qui dit à Dave "je suis désolé, je ne pourrais
11:14 pas faire ça et je ne te laisserai pas entrer dans le vaisseau spatial et tu mourras abandonné
11:19 seul dans l'espace".
11:20 Mais vous parlez d'un changement de civilisation.
11:22 On aurait pu le dater ce changement Bruno Patino, à novembre 2022, quand tout le monde
11:28 a commencé à utiliser Chachapiti.
11:30 Tout le monde, en tout cas des centaines de millions de personnes, se sont mises à utiliser
11:34 ce robot conversationnel.
11:36 Vous dites "non, en fait, il ne s'est rien passé, c'est une illusion et pourtant on
11:41 est devant un changement de civilisation".
11:42 Ce n'est pas paradoxal ?
11:43 D'abord, un, je n'ai pas dit qu'il ne s'était rien passé, j'ai dit qu'il ne s'était
11:46 rien passé d'un point de vue technologique.
11:48 Si vous me citez correctement…
11:50 Je vous cite "il ne s'est pourtant rien passé d'un point de vue technologique".
11:53 En novembre 2022, vous connaissez votre livre par cœur, c'est assez impressionnant.
11:57 Figurez-vous que je l'ai écrit.
11:59 C'est incroyable, ce n'est pas une intelligence artificielle.
12:02 Je vois bien.
12:03 Ce que je veux dire par là, c'est que tous les systèmes d'intelligence artificielle
12:07 générative étaient déjà là, en gestation, en outils et même utilisés.
12:11 Utilisés par un certain nombre de gens.
12:13 Ce qui s'est passé, c'est une mise à disposition du grand public et tout d'un
12:16 coup, avec une interface nouvelle, cette capacité que nous avons eue tous à utiliser chaque
12:21 GPT, à dialoguer avec lui.
12:23 Donc il s'est quand même passé quelque chose.
12:25 Mais en ce qui me concerne, c'est une accélération d'un phénomène qui était déjà en gestation
12:29 et non pas une rupture civilisationnelle.
12:31 La civilisation pour moi, sa rupture ou son inflexion, si vous voulez, elle date de quelques
12:39 années avant, peut-être de quelques décennies avant.
12:42 Quand ?
12:43 Je ne sais pas, on pourrait dire 2006.
12:45 2006 qui est un équivalent à 1450, c'est-à-dire l'invention de l'imprimerie.
12:49 Oui, et la presse sans Gutenberg pourtant s'est imposée dans notre monde.
12:54 Vous avez des phrases assez fortes où vous parlez du ciel.
12:58 Le ciel qui est devenu la propriété des grands patrons de la tech.
13:00 Et cette idée qu'on est sur le cloud.
13:03 Les nuages ont perdu leur sens.
13:05 Il faut réapprendre à les regarder.
13:07 Parce que face à la subversion, vous imaginez des solutions.
13:11 Ou en tout cas une issue.
13:12 Elle relève de qui ? Est-ce qu'elle relève de nous, citoyens, consommateurs, fanatisés
13:17 par nos écrans ? Ou est-ce qu'elle relève des pouvoirs publics ? Est-ce qu'elle relève
13:21 des opérateurs comme les patrons de plateformes ? Ou le patron d'une chaîne de télé comme
13:26 Arte, d'un site internet et d'une radio ?
13:28 Ce livre, en tout cas, dresse une espérance.
13:34 C'est qu'on ne limite pas les solutions nécessaires à cet emballement général,
13:41 soit à la régulation nécessaire pour autant, soit même à la technique.
13:47 C'est-à-dire qu'on ne confie pas à la technique une partie des problèmes engendrés
13:51 par la technique.
13:52 Je crois vraiment que l'humanisme, les sciences humaines, la philosophie, je parle
14:00 beaucoup de discernement.
14:01 Un des grands enjeux à venir, c'est la construction du discernement face à cette
14:07 submersion.
14:08 Et cette construction du discernement, elle n'est donnée ni par la régulation ni par
14:11 la technique.
14:12 Elle est donnée par les humanités, la littérature, la philosophie, l'éducation, l'amitié
14:20 même.
14:21 Et ce discernement me semble être aujourd'hui au cœur de ce que nous devons construire.
14:24 Je suis assez optimiste par rapport à ça.
14:26 Je dis juste, n'ayons pas l'illusion techniciste ou régulatoire, je ne sais pas comment on
14:32 dit, en tout cas de régulation, de penser que c'est de l'extérieur que va devoir
14:37 s'opérer la solution à un bouleversement qui est avant tout intérieur.
14:41 Vous dites qu'il faut s'allonger sur l'herbe, espérer le dénuement, écouter sa propre
14:46 respiration.
14:47 Il faut faire partie des pistes pour arriver à surnager dans cette submersion.
14:51 Vous ne voulez pas tout confier à la régulation, malgré tout il va falloir en faire un peu
14:56 quand même.
14:57 Qu'est-ce que vous pensez quand vous voyez que la Chine, par exemple, limite l'usage
15:01 des réseaux sociaux entre 22h et 6h du matin ? Ce genre de mesures autoritaires ?
15:05 C'est une mesure autoritaire que maintenant il nous faille d'une façon ou d'une autre
15:09 encourager des lieux de déconnexion et des moments de déconnexion.
15:12 Ça fait environ trois livres que je l'écris.
15:14 Oui, bien sûr, je suis absolument convaincu de ça.
15:17 Que par ailleurs on demande, pardon d'être un peu technique, aux plateformes une régulation
15:24 par l'intermédiaire de ce qu'on appelle la responsabilité algorithmique.
15:27 C'est-à-dire qu'on soit capable d'évaluer et de mesurer l'impact de leurs algorithmes
15:33 sur notre dépendance aux écrans, sur la polarisation générale de notre espace public.
15:39 C'est-à-dire leurs effets.
15:40 C'est non seulement nécessaire, mais en marche quand vous regardez ce qui se passe
15:44 au sein de l'Union Européenne, on voit bien que cette régulation essaye de se mettre
15:47 en place et c'est très heureux.
15:48 Vous avez même cet IA Act, cet acte d'intelligence artificielle en gestation dans l'Union Européenne
15:57 qui parle d'un IA de confiance, c'est-à-dire avec un certain nombre d'outils de certification
16:02 ou de transparence.
16:03 Évidemment, tout ça est absolument nécessaire.
16:06 Ça va assez vite ? En tout cas, ça va plus vite que ce qu'on
16:08 aurait pu imaginer.
16:09 C'est-à-dire que si on repart des deux siècles qui viennent de se passer où toujours
16:15 la réaction politique avait six à sept ans de décalage avec l'installation d'une
16:21 nouvelle technologie, on voit que ce temps s'est rétréci.
16:24 Vous allez me dire que c'est heureux parce que l'accélération est beaucoup plus
16:26 forte qu'avant.
16:27 Néanmoins, oui, c'est en route.
16:29 Après, avec beaucoup de difficultés, mais on ne peut pas dire que rien n'est en train
16:34 de s'opérer.
16:35 Il y a de nombreuses questions au Standard Inter et notamment sur l'application d'Inter.
16:40 Beaucoup vous demandent si vous, vous avez réussi à lutter contre cette addiction.
16:45 Je les renvoie donc exactement à la lecture de ce livre.
16:49 Vous avez une phrase, parce qu'elle est assez forte, "on est inondé de fiction".
16:54 On est inondé d'images, d'histoires, de livres éventuellement.
16:59 Vous dites "on est rentré dans une société de la fiction permanente.
17:03 Le rapport au réel est passé au second plan".
17:05 Explication de texte.
17:06 Oui, j'appelle même ça, évidemment en hommage à Guy Debord, la société du simulacre.
17:12 C'est-à-dire qu'à un moment donné, quand vous avez cette production infinie de fiction,
17:17 vous êtes comme dans un stroboscope et vous n'arrivez plus à faire la différence entre
17:21 ce qui est une fiction et ce qui est vrai.
17:23 On vit dans l'empire du faux.
17:24 Oui, c'est-à-dire qu'en plus, ce qui m'a intéressé, c'est que ça ne semble pas nous
17:29 poser de problème.
17:30 On raconte cette histoire, pardon d'en parler 30 secondes, où j'ai moi-même été au
17:35 concert des avatars d'Aba.
17:37 Oui, à Londres.
17:38 À Londres, où à aucun moment on ne vous fait croire que vous êtes en présence, évidemment,
17:43 du vrai groupe, puisqu'ils ont 30 ans et qu'aujourd'hui on sait bien qu'en réalité
17:46 ils en ont plus de 70, voire peut-être même 80.
17:49 Mais ce qui m'a intéressé, ce qui m'a fasciné, c'est la réaction du public.
17:53 Évidemment la mienne aussi, je faisais partie du public.
17:55 C'est-à-dire qu'au bout de deux ou trois minutes, vous oubliez que ce sont des avatars
17:59 et vous faites comme s'ils étaient réels.
18:02 Et ce que je crois aujourd'hui, c'est qu'avec les développements de l'intelligence
18:04 artificielle, on parle de pouvoir discuter avec les morts, de parler à des IA comme
18:09 si c'était des êtres humains, de commander une voiture de location avec une IA.
18:13 Oui mais vous n'êtes pas spectateur Bruno Patineau, vous produisez du faux, vous produisez
18:17 de la fiction.
18:18 Même si c'est de la fiction exigeante et même si on parle d'arté.
18:22 Oui mais le problème n'est pas la fiction, le problème est le discernement entre ce
18:26 qui est vrai et ce qui est faux.
18:27 Et j'espère bien que nous, quand on produit de la fiction, on ne brouille pas les pistes
18:33 entre ce qui tient du réel et de la réalité et ce qui tient de la fiction.
18:38 Martine, bonjour et bienvenue sur France Inter.
18:43 Martine, vous nous appelez avec une question qui est une question à laquelle beaucoup
18:51 se retrouvent confrontés.
18:53 On va rétablir la liaison dans un instant.
18:55 Mais voici la question qu'elle vous pose Bruno Patineau.
18:58 Elle vous pose la question Martine, je travaille dans une collectivité territoriale, je suis
19:03 parti 15 jours en vacances et en rentrant j'avais 1700 mails à traiter.
19:09 Martine de Montélimar vous interroge, qu'est-ce qu'on fait de cette vie-là ?
19:13 Mais voilà, c'est la vie de la submersion en permanence.
19:17 Comment on fait ça ? Vous voyez bien que là, je vais faire plaisir à Marion Lourd,
19:21 vous savez aujourd'hui cette règle ou cette régulation qui se met en place sur la déconnexion
19:28 au travail, c'est-à-dire qu'à un moment ou à un autre, c'est ça la submersion,
19:32 c'est le brouillage entre il y a un temps pour tout.
19:35 Aujourd'hui, il n'y a plus un temps pour tout, tout a tout le temps.
19:38 Et donc c'est ça qui s'est passé, c'est-à-dire que nous n'avons plus, on peut faire référence
19:43 à l'ecclésiaste ou à d'autres, si vous voulez, nous n'avons plus un temps consacré
19:50 à chaque chose.
19:51 Et donc vous, Président d'Arte, je repose un peu la question, qu'est-ce que vous faites,
19:56 Président d'Arte, pour proposer des contenus qui ne submergent pas le public, dans lesquels
20:01 ils peuvent se retrouver, ils ne vont pas les envahir et qui en même temps peuvent
20:04 les intéresser ?
20:05 On essaye de faire trois choses qui sont un peu dans le livre, enfin je ne parle pas d'Arte
20:10 dans le livre, mais qui sont, que vous retrouverez dans le livre.
20:13 D'abord, être un tiers de confiance.
20:15 Parce que quand on parle de brouillage entre la réalité et la fiction, on voit bien que
20:20 la victime, la première victime de ce brouillage-là, c'est la confiance.
20:25 C'est-à-dire que vous ne savez plus à qui et à quoi faire confiance.
20:28 Et donc on essaye d'être un tiers de confiance et de bien faire la distinction entre ce qui
20:33 est une information, ce qui n'en est pas, ce qui est une fiction, ce qui n'en est pas.
20:36 La deuxième chose, sur notre plateforme ou ailleurs, c'est qu'on essaye de faciliter
20:41 le choix.
20:42 C'est-à-dire de ne pas être sur l'idée qu'il faille vous proposer des dizaines et des dizaines
20:47 et des dizaines de milliers d'options, mais au contraire, de vous faciliter un choix encore
20:52 possible.
20:53 C'est une personne qui le fait, c'est un algorithme.
20:55 Et la troisième chose, c'est qu'on essaye de limiter l'emprise du calcul.
20:59 C'est-à-dire que quand on parle de l'emprise des algorithmes, alors pour paraphraser ou
21:04 faire une référence à Michel Houellebecq, c'est l'extension du domaine du calcul.
21:07 Et nous essayons de ne pas céder à cette extension du domaine du calcul, mais au contraire,
21:13 de laisser place à l'humain, à la surprise et de faire en sorte que vous puissiez trouver
21:17 des choses que vous ne cherchiez pas.
21:18 Parce que sinon, on se noie.
21:20 Justement, vous citez Bob Dylan et cette chanson extraordinaire.
21:24 Et vous avez cette vision de l'algorithme.
21:28 Vous dites "l'algorithme, mon serviteur, l'algorithme, mon sauveur, l'algorithme, mon maître, l'algorithme,
21:34 ma servitude".
21:35 Et pourtant, il n'y a pas de fatalité.
21:37 Aucune fatalité.
21:39 Et en tout cas, pour s'en convaincre, j'en commande chaleureusement, submersion.
21:43 Bruno Patino, merci d'avoir été l'invité de France Inter.
21:47 Le livre est publié chez Grasset.
21:48 Et vous aviez une dernière question.
21:50 On peut prendre une seconde.
21:51 Est-ce qu'il y aura une saison 3 de ?
21:53 En thérapie.
21:54 Après votre thérapie, on va savoir si c'est en thérapie.
21:57 Ça dépend absolument du Dr Daillon et d'Éric Tollé et d'Annaud et d'Olivier Nakache.
22:02 Bon, écoutez, on le souhaite, on croise les doigts.
22:05 Je ne suis absolument pas contre, comme vous pouvez l'imaginer.
22:08 Le Dr Daillon me manque souvent.
22:09 Il y a de l'imprévisible, Bruno Patino dans la vie.
22:12 C'est vous-même qui l'écrivez.
22:13 Merci d'avoir été l'invité d'Inter.

Recommandations