• il y a 10 mois
Transcription
00:00 À présent, j'ai le plaisir d'appeler madame Solange Garnauti.
00:05 Alors, juste pour préciser, le roman "Off" a été écrit par Philippe Molin et Solange Garnauti.
00:14 Philippe Molin, à le plaisir.
00:16 Exactement. Merci.
00:19 Merci Philippe pour cette belle collaboration.
00:21 Oui, alors donc, encore une dame.
00:25 Vous voyez qu'à l'Arxi, il y en a qui parlent beaucoup de féminisation, nous on la pratique.
00:32 D'ailleurs, j'ai une petite anecdote à ce sujet.
00:36 J'étais à la Cyber Week de Rennes il y a deux semaines.
00:40 Et nous étions voisins, l'Arxi avait un stand voisin de celui d'un mouvement
00:47 qui s'appelle "La Féminisation", "Women for Cyber". Et le stand avait été déserté.
00:55 Et puis, il y avait trois clients qui viennent de le voir.
00:59 Alors bon, en bon voisin, je me suis proposé, il y avait des prospectus qui traînaient.
01:05 Puis en même temps, je leur ai fait l'affaire.
01:08 Compte tenu de ma longue expérience féminine dans l'ASSI,
01:14 j'aurais montré à quel point c'était intéressant d'avoir des femmes dans le cyber.
01:20 Avec des exemples.
01:21 Non, mais c'est pas ça alors.
01:22 J'ai changé d'idée.
01:24 Parce que, bien sûr, j'ai cité un certain nombre de belles carrières que j'ai vues,
01:31 de femmes qui ont prospéré dans tout le monde.
01:36 Je racontais que la meilleure époque de ma vie, moi, c'était quand ma chef était une femme,
01:42 plus une diplomate et mon adjointe était une normalienne du sub-télécom.
01:50 Oui, il me le faudrait.
01:53 Voilà.
01:54 On est prêt ?
01:55 Deux minutes.
01:56 Deux minutes.
01:57 Non, parce qu'il y a...
01:58 Alors, Solange...
01:59 Je crois que t'es là-haut, on va le mettre.
02:00 Solange, regarde, là-haut.
02:01 Oui, si tu veux.
02:02 Le PDSG de la COMB, c'est une sommité internationale.
02:05 Une experte en cybersécurité dont les ouvrages sont traduits même en Chine.
02:11 On a les guillemets.
02:12 On peut avoir la diapo suivante ?
02:21 Voilà.
02:22 C'est un photomontage quand même.
02:28 Ah bon ?
02:29 Ça se voit pas, mais...
02:31 J'ai un peu peur que le guide Jinping nous l'enlève.
02:38 Non, il n'y a pas de danger quand même.
02:40 Bon.
02:41 Enfin, j'espère.
02:43 Alors, elle cherche, enseigne, dirige à l'université de Lausanne, elle fonde, elle crée, et surtout,
02:50 elle est une pionnière d'une approche transdisciplinaire de la sécurité numérique, et a développé
02:56 cette faculté qui m'a toujours époustouflé, d'assimiler très vite, puis de relier entre
03:02 eux les concepts innovants dès leur apparition, souvent en les expliquant à ceux qui les
03:07 lui avaient présentés.
03:09 Rien d'étonnant à ce qu'elles soient recherchées par de grandes organisations et de grandes
03:13 firmes pour les conseiller.
03:16 Merci Jean-Louis.
03:18 Bonjour à toutes et à tous.
03:19 Merci infiniment.
03:20 Donc on va régler le problème de présentation du support Powerpoint qui était prévu pour
03:25 ce matin.
03:26 Ce que je voulais vous dire aussi, c'est que j'ai pris effectivement un peu de distance
03:30 par rapport aux problématiques purement de la cybersécurité.
03:34 Comme vous le savez, j'ai un doctorat en informatique et télécom, et je me suis lancée
03:38 dans la sécurité informatique très technique et assez tôt pour comprendre que la technologie
03:43 n'allait pas résoudre tous les problèmes, même si avec la technologie rien n'est impossible.
03:49 Mais en matière de sécurité, et pourquoi la sécurité m'a intéressée, c'est qu'elle
03:53 permettait d'accéder à l'humain et de parler de l'humain, de l'universel, de ce qui nous
04:00 fonde et qui nous permet de vivre en société.
04:03 Donc l'éclairage que j'avais envie de partager avec vous ce matin, c'était de considérer
04:08 les problèmes de sécurité, comme l'annonce la conférence, en termes de sécurité globale.
04:13 Et pour moi, la sécurité informatique passe d'abord par la sécurité de nous en tant
04:18 qu'êtres vivants.
04:19 Et je me suis interrogée comment les technologies du numérique et notamment l'intelligence
04:24 artificielle transformaient nos relations au monde, notre façon d'être, notre façon
04:30 de vivre, et voire notre façon de rêver.
04:34 Alors ce qui serait bien, c'est que maintenant on puisse accéder à la présentation.
04:38 On verra.
04:40 Et je me souviens, mais malheureusement, je me souviens de qui m'avait dit que la meilleure
04:43 façon de maîtriser l'informatique, c'était de pouvoir s'en passer.
04:46 C'est peut-être le premier degré de sécurité que nous allons devoir affronter ce matin
04:51 ensemble.
04:52 Donc de se passer de la présentation que j'ai préparée laborieusement ce week-end,
04:56 ce matin, pour être là ce matin avec vous.
04:59 Est-ce qu'on a une idée de si le support peut être en ligne ou pas ?
05:06 Que j'ai envoyé hier soir d'accord un peu tard, mais quand même.
05:09 Bon alors...
05:14 Oui, parce que j'ai vu, vous n'avez peut-être pas forcément la dernière suite Office.
05:26 Voilà, c'est ça les logiciels.
05:29 On aurait pu me prévenir, ça aurait été bien aussi.
05:31 Mais donc je n'avais pas envisagé.
05:33 C'est la première fois effectivement où la suite Office n'est pas mise à disposition
05:37 des personnes et je n'ai pas ma machine avec moi.
05:41 Comment allons-nous faire ?
05:45 Alors, de mémoire, et sans support.
05:48 J'avais pris le temps de mettre des images et tout ça.
05:52 Mais de toute façon, je ne veux pas m'énerver non plus.
05:55 J'avais envie de parler avec vous de l'artificialisation du réel
05:58 et de s'interroger sur ce que faisait le numérique dans notre relation.
06:03 Alors, premier constat, c'est de dire que le numérique instaurait une distance
06:07 entre nous-mêmes et le reste du monde.
06:10 C'est-à-dire cette distance qui médiait nos relations.
06:16 Nos relations inter-humaines, interpersonnelles, inter-organisationnelles
06:19 se font de plus en plus par des technologies du numérique.
06:22 Et ce numérique-là, et donc l'objet, enfin, excusez-moi,
06:29 cette interaction entre les humains fait l'objet d'un commerce
06:33 et d'un commerce de nos relations.
06:36 Et le grand problème, me semble-t-il, et qui est un problème fondamental,
06:40 c'est cette distance mise et cet écart mis entre les personnes.
06:44 Ah, vous me sauvez la vie !
06:46 Mais il y a des gens formidables dans cette salle.
06:48 Merci infiniment.
06:49 Donc, voilà, ça m'évitera peut-être de...
06:52 Attendez, il faut trouver le bon bouton, ça va être ça, peut-être.
06:56 C'est galère, hein ?
06:59 En plus, je ne suis pas bien réveillée, donc ça ne va pas le faire.
07:02 Pourquoi ça ne fonctionne pas ?
07:05 Pour tout résoudre, cliquez ici, mais là, ça ne clique pas bien.
07:09 Voilà, oui, alors mon plan, c'est de parler d'artificialisation et de sécurité
07:13 pour offrir quelques perspectives.
07:16 Alors, dans ce contexte...
07:19 Non, mais pourquoi ça ne fonctionne pas quand j'appuie ?
07:22 Franchement, ce n'est pas très sympa, ça.
07:26 Peut-être...
07:29 Il y a des piles dans le truc ?
07:34 Bon, là, j'ai besoin d'aide.
07:39 On recommence.
07:45 Non, mais je pense qu'il n'y a plus de piles dans le...
07:48 Non ? C'est pas ça ?
07:51 OK.
08:00 Le dessus, il est en place.
08:03 OK, c'est bon.
08:06 Je vais le mettre là.
08:09 OK, c'est bon.
08:12 OK, le dessus, il est en place.
08:15 Le câble HDMI, il est là.
08:18 Le truc ne veut pas s'en aller.
08:30 Tiens, attends.
08:33 Et je m'en veux, parce qu'en fait, moi, j'aime beaucoup les logiciels libres,
08:36 et je me suis dit, de toute façon, une fois sur deux, ça ne marche pas avec les logiciels libres.
08:39 Comme d'habitude, quoi. Et voilà.
08:42 C'est la dernière version, c'est ça ?
08:45 Bon, ça, je n'arrive pas à le retirer.
08:48 Alors...
08:51 Je n'arrive pas à le retirer.
09:00 Elle va venir m'aider.
09:06 Allez, vas-y.
09:09 Il y a un petit bouton, mais je n'arrive pas à le retirer.
09:12 Non, c'est celui-là.
09:15 Oui, celui-là.
09:18 Ça se tire ?
09:21 Oui, ça se tire.
09:24 Vas-y.
09:27 Oui.
09:34 Allez.
09:37 Il est dedans, oui.
09:40 On va baisser, on va baisser.
09:43 Vas-y.
09:46 C'est un public qui est rigolo.
09:49 Mais non plus.
09:52 Mais non plus.
09:55 Ça va, il est de sa loco.
09:58 Ça va, ça va.
10:01 Ça va, ça va.
10:04 On va pas casser la carte mère, je pense.
10:07 Dans cette problématique de l'intermédiation du réel par des technologies numériques et notamment l'intelligence artificielle,
10:13 nous mettons une distance entre nous-mêmes, notre corps, notre esprit, mais tous les autres, et la nature.
10:19 Donc ce réel est de plus en plus perçu via des théories de l'information, via des écrans.
10:25 Et vous avez vu sans doute les dernières innovations des téléphones ou montres connectées qui se font sans écran.
10:32 C'est l'abolition même de l'écran et c'est ce monde immatériel qui est à l'œuvre et qui devient de plus en plus invisible.
10:39 Et dès lors qu'on instaure cette invisibilité, on a du mal à percevoir les impacts que ça pourrait avoir.
10:46 Donc l'idée c'était, on a une idée, on a une idée, on a une idée.
10:52 Donc l'idée c'était de mettre en avance ce manque de contact direct entre les individus et entre...
11:01 Non mais j'ai besoin d'avoir un visuel sous les yeux.
11:04 Mais vous l'aurez.
11:05 Ok d'accord.
11:07 Alors cette désincarnation est à mon avis une source de problème dans notre façon d'évoluer dans ce monde connecté et d'hyper-connexion.
11:19 On l'a vu tout à l'heure, en fait pour rebondir sur les deux précédents exposés que j'ai particulièrement apprécié, je remercie les auteurs,
11:26 c'est de montrer à quel point les systèmes d'IA sont omnipréhensants et conduisent nos comportements
11:32 et à quel point nous avons besoin de ressources de base qui sont celles des infrastructures matérielles
11:40 et notamment pour la transmission qui est aussi de plus en plus invisible.
11:43 On voit bien comment on peut tout faire dysfonctionner.
11:46 Et dans cette désincarnation, dans cette invisibilité, dans cet immatériel de ce non tangible,
11:52 je questionne effectivement cette désincarnation possible et le fait que l'autre peut devenir inutile dont on a le moins besoin possible.
12:01 Et je pose la question de savoir si ce sont des technologies qui contribuent à faire que nous nous abolissions nous-mêmes.
12:08 Et c'est dans cette réflexion-là que j'ai voulu investiguer un tout petit peu les problématiques de sécurité que ça pouvait poser.
12:14 Donc du côté de l'humain, une autre façon d'aborder la question, c'est de dire mais qu'est-ce que ça veut dire pour les fournisseurs de ces technologies ?
12:22 Alors on voit bien que dorénavant, toutes nos interactions sont médiées par la technologie
12:27 et que ces interactions sont la source même de profit pour les fournisseurs.
12:32 Et là, on a une dualité à considérer, le besoin de l'humain versus le besoin de l'entreprise commerciale
12:39 de faire du business et du retour sur investissement sur ce qu'ils nous font nous-mêmes, c'est-à-dire nos interactions.
12:44 Et là, on va voir la planche suivante, s'il vous plaît.
12:47 Donc le constat, c'est de dire que les interactions fondent notre vie, notre façon d'être au monde,
12:57 que ce sont les fournisseurs de technologies qui maintenant créent les conditions de notre existence
13:02 puisqu'ils créent les conditions de nos interactions et que tous nos comportements maintenant sont médiés
13:08 et dépendent de la rationalité computationnelle, j'en veux pour preuve cette pensée computationnelle binaire
13:15 qui est à l'oeuvre à l'heure actuelle.
13:18 Et donc on le voit aussi dans cette dépossession des capacités de faire et d'être des humains
13:22 et on le voit notamment au niveau des métiers, les métiers qui sont impactés par cette numérisation.
13:28 On peut penser que la rationalité informatique va organiser notre utilité et notre droit de vie et de mort.
13:34 Et dans cette interaction, nous sommes de plus en plus dépendants des infrastructures numériques
13:39 et donc des fournisseurs d'infrastructures.
13:42 Et on voit bien que ce régime de dépendance n'est pas non plus un régime de liberté.
13:47 Et si on instaure cette dépendance vis-à-vis des utilisateurs et des fournisseurs,
13:53 on voit bien que pour les fournisseurs, eux, ils ont instauré un régime de la rente très bénéfique.
13:58 Et cette rente est là pour durer.
14:00 Slide suivant, s'il vous plaît.
14:03 Alors, il me semble que nous sommes en train de créer de nouveaux paradoxes liés à cette dépendance à ces infrastructures.
14:11 Et on voit bien que pour que les infrastructures soient rentables, il faut les utiliser.
14:15 Et qu'on se retrouve dans un monde, notamment depuis l'avènement des réseaux sociaux, dans une surabondance d'informations.
14:21 Et cette surabondance d'informations invite les personnes à être tout le temps connectées
14:26 pour effectivement avoir cette extraction des données possibles, cette consommation numérique.
14:31 Et cette consommation numérique introduit des nouvelles formes d'activités qui sont complètement passives.
14:37 Pourquoi ? Parce qu'il n'y a pas de création tangible, concrète qui sont derrière.
14:40 Et on peut remarquer que le temps passé derrière des écrans ou des claviers est phénoménal et en pleine explosion.
14:48 Et on peut se demander que dans tout ce discours de facilitation de la vie,
14:53 ce ne serait pas une façon d'industrialiser la paresse des personnes.
14:59 Et ce règne du sans-effort pose problème dans cette capacité d'être.
15:04 Pourquoi ? Parce que l'intégralité de nos facultés créatives, et on le voit au niveau de l'art notamment,
15:10 mais de l'expression des personnes, sont tributaires de l'informatique.
15:14 Et nous délégons de plus en plus nos capacités de penser et d'agir à des systèmes,
15:20 sans s'interroger pour autant aux conséquences à plus long terme.
15:24 Et c'est dans ces nouveaux paradoxes qu'il faut peut-être trouver une nouvelle façon d'envisager la sécurité.
15:30 Alors on va foncer sur la planche d'après, s'il vous plaît.
15:34 Si on revient un peu sur la façon dont nous construisons nos systèmes d'information,
15:40 c'est toujours sur une logique extractionniste.
15:43 C'est-à-dire qu'on va extraire du minerai informationnel de là où il se trouve,
15:47 mais où se trouvent ces informations, dans les personnes et dans les corps des personnes.
15:50 Et j'en veux pour preuve qu'on commence à considérer les humains comme des systèmes d'information,
15:55 qui peuvent être pilotés à distance par des algorithmes,
15:58 mais qui peuvent être aussi mis à jour par des algorithmes.
16:02 Et donc dans cette logique extractionniste se trouve peut-être, pour envisager la fin de l'humain,
16:09 il y a même des personnes qui envisagent dans ces courants du transhumanisme, la fin de la mort.
16:14 Mais la fin de la mort, c'est la fin d'être humain, d'être vivant.
16:17 Et donc dans cette logique extractionniste de computationalisation à l'extrême,
16:22 excusez-moi le jargon, ou ce mot qui est un très mauvais mot d'ailleurs,
16:26 et en fait qui m'oblige à penser sur ce qu'on fait aux humains, à la nature, au monde, au réel.
16:31 Et c'est dans ce sens-là que je reviens sur l'artificialisation du réel.
16:35 C'est de la simulation, c'est de la modélisation et de la simulation,
16:38 pour que toutes ces données puissent rentrer dans des traitements mathématiques et statistiques.
16:43 Et à partir de ces modèles mathématiques et statistiques, dont on pourrait questionner le jeu de données
16:49 et la non-transparence des algorithmes qui le font, on refabrique du réel.
16:55 Donc on transforme le réel via des processus mathématiques.
16:59 Toujours dans une optique d'optimisation, de rationalisation,
17:03 et dans cette logique aussi peut-être de positivisme scientifique,
17:10 sans se questionner sur ses implications à plus long terme sur notre façon d'être au monde.
17:17 En revanche, nous avons tous un processus de séduction et de fascination envers cette nouvelle technologie
17:23 qui nous empêche de voir plus loin que l'usage immédiat de la récompense.
17:27 Donc pour tout résoudre, cliquez ici.
17:29 Pour que ça soit encore plus fluide, on a quand même inventé le QR code qui est un clic immatériel.
17:37 Ce fait d'aller avec toujours plus de numérisation, de nouveaux usages,
17:43 sans pour autant voir que ces usages représentent la réalité,
17:47 mais une partie biaisée de la réalité, puisque conçue par des humains
17:51 et qui font une intermédiation entre la vraie réalité et la façon dont ils perçoivent cette réalité,
18:00 qui permet aussi la conduite des comportements.
18:03 La page suivante, s'il vous plaît.
18:07 Alors, pourquoi ça marche en fait ?
18:10 Parce que ça concerne toutes les affaires humaines
18:13 et qu'il n'y a plus un espace de liberté en dehors du numérique.
18:16 Tout ce qui n'est pas quantifiable n'existe pas.
18:19 Et on a une source unique de fabrication de ce réel,
18:22 qui sont notamment produites par les GAFAM, qu'ils soient d'origine américaine ou chinoise,
18:29 dans un temps réel, puisque ces injonctions électroniques nous arrivent d'une façon permanente,
18:35 sans pouvoir questionner ou prendre le temps nécessaire à la distance, à la critique,
18:40 dans cette injonction de réponse.
18:43 Ça parle d'une façon autoritaire, comme pour le GPS, tourner à droite, tourner à gauche.
18:49 Et ça nous incite à nous soumettre à ces systèmes-là.
18:55 Et ils sont conçus dans un esprit utilitariste, en fonction d'une vision du monde par certains acteurs.
19:00 Alors, on parle beaucoup d'intelligence artificielle.
19:03 Moi, je crois qu'il faudrait d'abord parler de croyances artificielles,
19:07 dans le fait où on sait qu'on n'a pas de sécurité by design,
19:12 dans la plupart des conceptions de ces systèmes d'information.
19:15 On voit qu'ils sont vulnérables, qu'ils sont sujets à des cyberattaques.
19:18 Mais en revanche, on nous prie de croire que ces systèmes vont résoudre tous nos aspects de la vie.
19:24 Et donc, dans ce marketing de la croyance, ça empêche aussi de voir l'insécurité
19:30 qui est sous-jacente à ces modes de fonctionnement et ces modes de conception.
19:34 Et puis, avec le mot "artificiel", j'avais envie de parler un tout petit peu de paradis artificiel,
19:38 qui pourrait être les métaverses.
19:40 Donc, on nous enjoint à aller vivre dans un univers artificiel conçu pour nous,
19:45 spécialement pour nous, bien sûr, pour notre plus grand bonheur.
19:48 Alors, si on regarde la planche suivante,
19:51 j'avais envie d'insister sur ce nouveau régime de réalité,
19:55 cette transposition de notre réalité par des technologies du numérique,
20:00 mais surtout, pas tant par des technologies, mais par des fournisseurs de technologies,
20:04 et ce réductionnisme de la complexité humaine par des traitements liés à des processeurs
20:09 avec des opérations arithmétiques et logiques.
20:11 Sur la planche suivante, nous allons voir,
20:15 la problématique a déjà été évoquée ce matin en partie,
20:19 sur cette manipulation informationnelle.
20:22 On pourrait l'appeler "guerre informationnelle",
20:25 attaques sémantiques, se trouvent effectivement tous les problèmes liés
20:29 à la désinformation, à l'espionnage.
20:32 Et cet accès au vrai, c'est-à-dire à la réalité des choses,
20:37 passe par l'ère de la post-vérité,
20:40 qui est un mot qui est rentré au dictionnaire Oxford en 2016.
20:43 On voit bien que cette culture du faux pose problème.
20:48 Et dans cette culture du faux, on pourrait dire également
20:51 que tous les sens peuvent être impactés par cette culture du faux.
20:54 Et ce n'est plus que du visuel.
20:56 Et là, on n'a aucune solution de cybersécurité
21:00 pour lutter contre cette cyber-influence.
21:02 En termes d'influence, j'en veux pour preuve les nouveaux métiers de l'influence,
21:07 qui sont les influenceurs.
21:08 Vous demandez à un jeune ce qu'il veut faire plus tard,
21:10 beaucoup d'entre eux répondront de l'influence.
21:14 Mais qu'est-ce que de l'influence ?
21:15 C'est de la publicité et du marketing poussés à l'extrême.
21:18 Et là, avec les outils des sciences cognitives, on fait ça très bien.
21:21 Donc on ne peut pas non plus critiquer ou mettre en avant un problème
21:25 que nous avons créé nous-mêmes.
21:27 La planche suivante, s'il vous plaît.
21:30 À partir de ce nouveau régime de réalité,
21:33 nous avons instauré un nouveau régime de vérité.
21:35 Et il n'y a de vérité que de vérité algorithmique.
21:39 C'est une partie du problème,
21:41 et de se poser la question de la conception de ces algorithmes,
21:44 qu'on a un peu évoqué aussi précédemment,
21:46 de dire que le code informatique est une boîte noire.
21:49 On n'a pas la maîtrise globale du tout le cycle de vie
21:52 et de toutes les parties du code.
21:53 Et peut-être se réapproprier cette notion de programmation
21:56 dans son intégralité, son inflector de souveraineté.
21:59 Alors sur la planche suivante,
22:01 nous allons aborder cette question de sécurité
22:04 pour répondre à la question posée par les rencontres.
22:07 L'emballement des progrès technologiques en matière de numérique
22:10 ne met-il pas en péril la sécurité de l'information ?
22:13 Ce qu'on a essayé de montrer jusqu'à présent,
22:15 c'est que cette sécurité avait de multiples aspects
22:18 et de problèmes qu'on ne maîtrisait pas,
22:20 qu'on pouvait prendre au sens large.
22:22 Ici, j'aurais envie d'insister sur l'interdépendance des risques
22:25 liées à l'interdépendance des infrastructures.
22:27 Et ce dont on parle très peu en matière de cybersécurité
22:30 ou de sécurité informatique,
22:33 c'est les enjeux environnementaux de cette fuite en avant
22:36 vers toujours plus de numérique qui pose problème.
22:39 Alors nous allons le voir dans la planche suivante.
22:41 Ce qu'on sait faire essentiellement en cybersécurité,
22:44 c'est de la disponibilité, intégrité et confidentialité
22:47 qui est une partie indispensable et nécessaire
22:49 à la sécurité de l'information,
22:51 mais qui ne traite pas les problèmes de lutte informationnelle,
22:53 qui ne traite pas de la qualité des données
22:55 ni de la véracité de ces données
22:57 sur lesquelles on va notamment entraîner des systèmes d'IA.
23:00 Alors je vous propose de passer à la planche suivante
23:03 et de dire que nous avons vis-à-vis de ces risques
23:07 plusieurs attitudes qui sont contre-productives
23:09 dans une logique de sécurité.
23:11 C'est le déni, si on ne voit pas le problème,
23:13 c'est qu'il n'existe pas.
23:15 C'est l'autosatisfaction, tout va bien, on a pris des mesures,
23:17 pour autant sont-elles utiles et efficaces, testées, pérennes ?
23:21 Ça, on n'est pas très sûr.
23:23 On développe en fait le marché de la cybersécurité
23:25 sans résoudre le problème et on déplace le problème.
23:28 Et c'est une logique de marché qui prévaut à l'heure actuelle.
23:31 Puis ensuite, nous avons cette fuite en avant technologique
23:34 où on fait appel à davantage de technologies
23:37 que l'on ne maîtrise pas puisque les IA sont conçues
23:39 comme des boîtes noires.
23:41 Donc plus la société aussi semble ingouvernable,
23:43 plus on a recours à de l'IA.
23:45 Et là, vous avez cité la Chine en ouverture,
23:47 on pourrait penser que le crédit social à la chinoise
23:50 ne va pas rester qu'en Chine.
23:52 J'en veux pour preuve ce marché des caméras de reconnaissance faciale
23:56 et tout ce qu'on sait faire en croisement des données.
23:59 Donc, ce crédit social est déjà en cours dans nos sociétés
24:05 d'une façon plus ou moins invisible
24:07 puisqu'on a encore beaucoup les bonus et pas encore les malus.
24:10 Alors, sur la planche suivante, j'avais envie de mettre en évidence
24:13 cette problématique liée à la réalité des cyberattaques
24:18 sur les infrastructures critiques.
24:20 Ici, on parle d'énergie, de distribution d'eau, d'hôpitaux.
24:23 Et peut-être les cyberattaques les plus importantes
24:26 sont celles sur les chaînes d'approvisionnement
24:28 de la sécurité elle-même.
24:30 Donc, si on veut résoudre ce problème,
24:32 il faut peut-être penser autrement la sécurité,
24:34 changer de paradigme.
24:36 Mais le problème le plus important, c'est si on n'a pas de ressources naturelles,
24:39 si on n'a pas d'électricité, on n'a pas de numérique.
24:41 Puis, si on n'a pas de numérique, on n'a pas d'électricité.
24:43 Donc, comment résoudre ces injonctions contradictoires ?
24:46 Eh bien, c'est peut-être en passant la slide suivante
24:49 qu'on aura des éléments de réponse.
24:51 Vous avez évoqué tout à l'heure le roman "Off"
24:53 que nous avons écrit avec Philippe Monin.
24:55 C'est justement pour penser ce blackout possible.
24:59 Et que veut dire l'effondrement d'une société
25:01 quand il n'y a plus d'informatique
25:03 et quand il n'y a plus d'électricité,
25:05 puisque c'est conjoint.
25:07 Donc, c'est un roman basé sur de la réalité
25:09 qui est devenue fictionnelle en espérant que la fiction
25:11 ne deviendra pas réalité.
25:13 Tout ce qu'on a voulu mettre en évidence,
25:15 c'est ce que ça veut dire au niveau de la population
25:17 et de montrer comment les gouvernements
25:19 peuvent réagir à ce type de problématiques.
25:22 Et d'insister sur le fait que les risques technologiques
25:25 comme les risques environnementaux que nous connaissons
25:27 à l'heure actuelle, ont une origine humaine
25:29 et que ce n'est pas la faute à pas de chance.
25:31 Donc la question à savoir, c'est comment éviter le blackout
25:33 dans un monde hyperconnecté,
25:35 dans un contexte conflictuel.
25:37 Et c'est peut-être dans ces questions-là
25:39 qu'il faut apporter des réponses.
25:41 Et dans les perspectives de réponse,
25:43 nous l'avons vu dans cette Data-Driven Society,
25:45 donc une société pilotée par des algorithmes
25:47 à partir de données.
25:49 On voit bien que ce sont des questions géopolitiques
25:51 et de souveraineté de première importance
25:53 pour lesquelles il faudrait reprendre un peu de maîtrise.
25:57 Donc, en quoi est-ce un fulture désirable
25:59 que de déléguer la prise de décision
26:01 à des algorithmes ?
26:03 C'est une question que j'aimerais vous poser.
26:05 Comme pourquoi continuer à alimenter
26:07 l'asymétrie du pouvoir
26:09 entre ceux qui maîtrisent les technologies
26:11 et ceux qui les utilisent ?
26:13 Alors, sur la planche suivante,
26:15 vous reprendrez bien un peu d'IA,
26:17 ce n'est pas une question,
26:19 puisque nous en sommes à toujours plus d'IA.
26:21 Et peut-être insister sur le fait
26:23 que ces IA sont conçus comme des boîtes noires.
26:25 Donc la boîte noire, ça peut pas être
26:27 une sécurité potentielle.
26:29 Et que nos habitudes construisent nos crises.
26:31 Et donc, si on part de ce constat-là,
26:33 et peut-être j'aurais dû commencer la conférence
26:35 par ce slide,
26:37 nos habitudes construisent nos crises.
26:39 C'est-à-dire, d'où construire nos habitudes
26:41 pour créer de nouvelles habitudes ?
26:43 Et c'est dans ces éléments de réponse
26:45 qui, vous allez voir, ne sont pas des éléments technologiques.
26:47 Nous allons proposer des pistes de réflexion.
26:49 Alors, sur la page suivante,
26:51 d'abord, déconstruire le mythe
26:53 de la consommation durable.
26:55 Plus on aura de consommation durable,
26:57 plus on va consommer, et on aura des effets rebonds
26:59 qui ne permettront pas de maîtriser
27:01 nos environnements numériques.
27:03 Pensez que nos environnements numériques
27:05 sont vulnérables par design,
27:07 et donc il faut changer ce paradigme-là.
27:09 On va le voir tout à l'heure.
27:11 Mais en revanche, questionner
27:13 notre façon d'être au monde
27:15 et nos interactions avec le numérique,
27:17 qui sont basées sur l'addiction.
27:19 L'addiction à la performance et à la rationalité.
27:21 Une addiction à la croissance.
27:23 On peut se poser la question
27:25 de la finalité de ces addictions.
27:27 Est-ce que c'est uniquement pour augmenter
27:29 la valeur pour des actionnaires ?
27:31 Et je ne vois pas comment on peut considérer
27:33 faire encore plus de numérique
27:35 quand on a compris la finitude des ressources,
27:37 qui était une réalité,
27:39 et que l'immatériel est très matériel.
27:41 Donc, penser que le numérique va sauver le climat,
27:43 l'environnement, la biodiversité,
27:45 est à mon avis une hérésie.
27:47 Et on peut le même voir dans les objectifs
27:49 du développement durable de l'ONU 2030.
27:51 Le huitième objectif, c'est assurer un emploi
27:53 et la croissance économique.
27:55 Et là, c'est une contradiction majeure.
27:57 Si on ne change pas de paradigme, on ne va pas y arriver.
27:59 Et ce n'est pas le quantique qui va nous sauver.
28:01 Bien que le quantique va apporter des solutions.
28:03 Je me suis posé la question
28:05 de savoir si la transition numérique
28:07 était de la poudre aux yeux,
28:09 pour changer, pour ne rien changer.
28:11 Et c'est questionner ces implications-là.
28:13 Et de penser que la régulation
28:15 a posteriori ne fonctionne pas.
28:17 On a déjà beaucoup d'exemples qui nous le montrent.
28:19 Je fonce un peu pour tenir les délais.
28:21 On va regarder sur la page suivante.
28:23 J'ai voulu revenir sur cette notion de lien
28:25 qu'il y avait entre l'intelligence artificielle
28:27 et la sécurité.
28:29 Mais on le sait tous,
28:31 qu'on a de l'intelligence artificielle
28:33 pour attaquer.
28:35 Mais on peut avoir de l'intelligence artificielle
28:37 pour détecter, résoudre, etc.
28:39 Donc ça, c'est cette course à l'infini
28:41 qui est toujours, à mon avis,
28:43 une suite en avant.
28:45 Mais se poser la question de savoir
28:47 si c'est réellement la sécurité,
28:49 dans tout le cycle de vie de la sécurité,
28:51 c'est déjà se réapproprier de la souveraineté
28:53 dans la façon de faire de la sécurité
28:55 informatique de base.
28:57 Et penser peut-être que
28:59 contrôler la sécurité par de l'intelligence artificielle
29:01 est peut-être une nouvelle perte de contrôle.
29:03 Parce que plus on va contrôler,
29:05 plus on va faire appel à des boîtes noires
29:07 qu'on ne contrôle pas et pour lesquelles
29:09 nous sommes dépendants d'acteurs externes.
29:11 Donc peut-être déconstruire ce mythe
29:13 de la pensée magique, le numérique et l'IA,
29:15 va tout solutionner,
29:17 va être la réponse à tous les problèmes.
29:19 Ce que j'essaie de dire,
29:21 c'est surtout qu'on nous vend l'IA
29:23 en cybersécurité
29:25 parce qu'on n'a pas les compétences,
29:27 on n'a pas les ressources, on n'a pas le budget.
29:29 Et donc on va déléguer le traitement
29:31 de nos incidents, notre surveillance, etc.
29:33 à d'autres fournisseurs
29:35 qu'on ne maîtrise pas non plus.
29:37 Donc je pense que c'est une suite en avant
29:39 dans le contrôle du sur-contrôle
29:41 qui ne va pas résoudre le problème.
29:43 On est encore dans cette pensée magique
29:45 où la technologie va nous sauver
29:47 et si cela ne fonctionne pas, c'est qu'il n'y a pas encore
29:49 assez de technologie. Et c'est toujours de la fuite
29:51 en avant qui nous permet de rebondir
29:53 sur le titre de ces rencontres.
29:55 Et je pose la question aussi de savoir
29:57 que la monoculture numérique intensive,
29:59 est-ce que c'est bon pour la santé ?
30:01 J'en suis pas sûre et je voudrais faire le parallèle
30:03 avec la monoculture
30:05 en agriculture qui pose problème.
30:07 Et là je pense qu'on est en train de refaire
30:09 exactement la même chose dans d'autres environnements
30:11 et qu'on utilise peut-être aussi
30:13 des technologies militaires
30:15 pour faire du civil et ça peut aussi poser des problèmes.
30:17 Mais là on pourrait développer un peu plus.
30:19 En tous les cas,
30:21 peut-être qu'il faut changer les récits,
30:23 créer des nouveaux récits,
30:25 des nouvelles visions du monde
30:27 pour résoudre les problèmes urgents
30:29 sur lesquels nous sommes confrontés
30:31 et sortir aussi de la fascination
30:33 pour l'effondrement et la fin du monde.
30:35 On est quand même beaucoup
30:37 dans cette éco-anxiété
30:39 et dans cet effondrement inéluctable.
30:41 Je ne suis pas sûre que ce soit inéluctable
30:43 mais pour que ça n'advienne pas,
30:45 il faut peut-être changer nos habitudes
30:47 et nos façons de faire
30:49 et de reconsidérer cette monoculture informatique.
30:51 Et ce n'est pas la technologie qui pose problème,
30:53 c'est la façon dont on la déploie et dont on l'utilise.
30:55 Sur la page suivante,
30:57 il me semble que j'ai encore
30:59 une slide ou deux.
31:01 Comment vivre dans un monde robotisé ?
31:03 Puisqu'on voit quand même,
31:05 et on pourrait développer,
31:07 des robots de chair et de sang,
31:09 des algorithmes, des programmes,
31:11 des robots électroniques et des robots logiciels,
31:13 est-ce que l'ère du robotocène
31:15 que nous sommes en train de construire
31:17 sera meilleure que celle de l'anthropocène ?
31:19 C'est une question.
31:21 En revanche,
31:23 en s'appuyant toujours plus
31:25 sur ces IA,
31:27 je pense qu'on est en train de vivre
31:29 le déclin de la puissance d'être
31:31 et une déresponsabilisation de ce que nous sommes.
31:33 Et donc, pour inverser
31:35 des pistes
31:37 d'évolution possible,
31:39 au lieu de parler
31:41 de sécurité
31:43 et de résilience,
31:45 la résilience pour moi, c'est un facteur d'échec.
31:47 Le mot "cyber-résilience" a été
31:49 introduit par le WEF,
31:51 le World Economic Forum en 2012.
31:53 C'était pour moi un choc,
31:55 c'était le choc d'admettre que la protection
31:57 et la prévention n'allaient pas marcher.
31:59 Et donc, on allait investir
32:01 à la survivance, à survivre
32:03 à un incident majeur. Et ça, c'est la double peine.
32:05 Et alors,
32:07 plutôt que d'aller dans le sur-contrôle
32:09 de quelque chose qu'on ne peut pas contrôler,
32:11 c'est d'accepter qu'on ne puisse
32:13 pas le contrôler, mais qu'en revanche,
32:15 sur la base, renverser dans le design,
32:17 dans la conception, dans la commercialisation,
32:19 c'est investir dans la robustesse
32:21 et dans la résistance. Et c'est d'abord rendre responsables
32:23 les fournisseurs de technologies,
32:25 des vulnérabilités qu'ils créent, qui sont exploitées
32:27 à des fins malveillantes. Donc,
32:29 remettre un peu de responsabilité, de robustesse.
32:31 Et voyez que ce discours
32:33 sur la robustesse et sur la résistance qu'on pourrait décliner
32:35 sur plusieurs niveaux, change
32:37 la façon de fournir, de créer
32:39 des outils techniques de sécurité.
32:41 Et plutôt que d'aller
32:43 vers toujours plus d'IA, qui est
32:45 d'éradiquer l'erreur, d'éradiquer
32:47 le hasard, c'est-à-dire, quelque part,
32:49 éradiquer l'humain, c'est vivre avec
32:51 cet incertain. C'est considérer
32:53 que l'incertain puisse être une opportunité,
32:55 de la même façon qu'on pourrait reconsidérer
32:57 le réseau dans sa capacité de distribution
32:59 comme un élément de robustesse.
33:01 Mais ce qu'on a fait depuis plus de 20 ans, c'est de concentrer.
33:03 On a tué le réseau par les plateformes.
33:05 On n'a plus de réseau, on a de la centralisation.
33:07 On n'a plus de distribution.
33:09 Et c'est la distribution qui va faire la force
33:11 de la sécurité. Alors,
33:13 peut-être questionner le besoin de toujours plus.
33:15 Et pour nous humains, c'est toujours faire plus
33:17 avec moins de ressources. Et puis,
33:19 se poser la question de savoir comment faire
33:21 vraiment de la gestion des risques et des choix cohérents
33:23 avec une approche holistique
33:25 pour gagner en autonomie.
33:27 Ce sont des questions philosophiques,
33:29 je te dirais, plus que des questions techniques
33:31 et de philosophie politique.
33:33 Je crois que c'est ma dernière planche.
33:35 Peut-être appuyer encore sur le bouton,
33:37 voir s'il y a quelque chose d'autre.
33:39 Le dernier slide.
33:41 Vous pouvez passer le slide suivant, s'il vous plaît ?
33:43 Il n'y en a pas ?
33:45 Si, il y en avait, normalement.
33:47 C'est pour vous dire,
33:49 pour vous remercier de votre présentation.
33:51 Voilà, vous remercier.
33:53 Merci.
33:55 (Applaudissements)
33:57 Est-ce qu'on peut poser des questions ?
34:07 Je vous avais prévenu,
34:13 c'est époustouflant.
34:15 Exact.
34:17 Et je suis contente
34:19 de vous découvrir.
34:21 J'ignorais toutes vous.
34:23 Peut-être que vous allez être contentes
34:25 de découvrir mes travaux.
34:27 Moi, je suis futurologue.
34:29 Et notre base de réflexion dans la futurologie,
34:31 c'est la climatologie,
34:33 la géologie et l'anthropologie.
34:35 Et j'ai matière
34:37 à vous rassurer.
34:39 Le numérique que nous avons aujourd'hui,
34:41 il a la gueule
34:43 sympathique
34:45 des premiers chars d'assaut.
34:47 Et on voit bien
34:49 que les outils
34:51 militaires
34:53 et civils, ils vont plus ressembler
34:55 à des drones. Donc on voit bien
34:57 qu'on est au début de quelque chose.
34:59 Pourquoi je vous dis ça ?
35:01 C'est parce qu'aujourd'hui,
35:03 on est dans une période charnière
35:05
35:07 on découvre
35:09 un petit peu tout.
35:11 Mais je vous rassure, le vivant trouve
35:13 toujours sa propre porte de sortie
35:15 et on commence à la dessiner.
35:17 Moi, je travaille sur les problèmes de monnaie.
35:19 Je pourrais vous raconter
35:21 comment on essaye de travailler
35:23 sur le problème fondamental
35:25 que vous avez soulevé
35:27 qui est que, pour le moment,
35:29 ce qu'on ne sait pas compter,
35:31 on ne le compte pas.
35:33 Et malheureusement, ce qu'on ne sait pas compter,
35:35 c'est le vivant proprement dit
35:37 et donc c'est là que ça se joue.
35:39 Je voulais juste vous rassurer.
35:41 Il y a d'autres courants de pensée qui sont moins pessimistes
35:43 que vous. Je m'assure,
35:45 comme vous,
35:47 sur l'anthropocène.
35:49 Hier, j'étais à l'UNESCO, on travaillait sur d'autres sujets
35:53 et on faisait le constat
35:55 que
35:57 au 18e siècle
35:59 et au 19e siècle,
36:01 les romans
36:03 d'anticipation à succès,
36:05 ils nous promettaient des merveilles.
36:07 Et très rapidement, aujourd'hui,
36:09 toute cette
36:11 catégorie de littérature nous promet
36:13 le pire.
36:15 Il faut revenir vers le meilleur.
36:17 Et il y a matière à revenir vers le meilleur. C'est ça que je voulais vous dire.
36:19 Merci.
36:25 Je n'ai pas besoin d'être assurée forcément.
36:27 Je ne suis pas angoissée non plus.
36:29 Y a-t-il une autre question ?
36:39 Bonjour.
36:41 Bonjour.
36:47 Jean-Yves Creusot. Je suis au Comcyber.
36:49 C'est mon chef qui était là tout à l'heure.
36:51 Je suis intéressé de voir que
36:53 vous avez une approche tout à fait différente
36:55 au niveau de l'intelligence artificielle
36:57 sur la partie de la cyberdéfense.
36:59 Je veux remontrer
37:01 votre point de vue.
37:03 Je suis plutôt en accord avec vous.
37:07 Ça, c'était la première chose.
37:09 La deuxième chose, vous avez parlé de résilience
37:11 et de résistance.
37:13 Et vous citez
37:15 comme exemple le réseau.
37:17 Pour moi, le fait d'être en réseau,
37:19 ça amène de la résilience,
37:21 pas de la résistance.
37:23 Quand on parle de résistance, on serait plutôt
37:25 en système centralisé.
37:27 Donc, j'ai été
37:29 un peu étonné
37:31 de cet exemple.
37:33 Je me suis peut-être mal exprimée.
37:35 Je faisais résistance par rapport à la robustesse.
37:37 Oui, la robustesse.
37:39 Pour moi, la robustesse venait de la distribution
37:41 et pas de la centralisation.
37:43 Peut-être que c'est dans l'interprétation du mot résilience.
37:49 Parce que dans la résilience, c'est survivre à un choc.
37:51 L'idée que j'avais derrière,
37:53 c'est que quand on concentre
37:55 sur des plateformes,
37:57 on concentre les risques, on concentre les opportunités
37:59 de dysfonctionnement.
38:01 Et donc, pour diminuer
38:03 et d'avoir plus de résistance
38:05 à des attaques majeures, c'est de pouvoir réutiliser
38:07 le paradigme de réseau
38:09 dans cette distribution.
38:11 Après,
38:13 ça va dépendre du contexte dans lequel on emploie
38:15 le mot résilience.
38:17 Mais la résistance et la robustesse
38:19 vont venir dans la conception
38:21 du système.
38:23 C'est dans ce sens-là qu'il faudrait investir
38:25 beaucoup plus, c'est de pouvoir
38:27 avoir un niveau
38:29 attesté de robustesse des environnements.
38:31 Et tout ce qu'on fait dans le numérique,
38:33 je ne suis pas sûr que ça construise la robustesse,
38:35 je ne suis pas sûr que ça construise la résistance.
38:37 Bonjour Madame. Merci beaucoup
38:45 parce que c'était lourd,
38:47 lourd au sens puissant.
38:49 Et ça m'a touché.
38:51 Donc je voulais vous remercier pour ça.
38:53 Une seule question très courte.
38:55 En tant que penseur
38:57 ou penseuse, je ne sais plus comment on dit aujourd'hui,
38:59 du vivre ensemble,
39:01 parce que je pense que c'est vraiment ça
39:03 que vous nous amenez à penser.
39:05 Est-ce que vous pensez que
39:07 quel est le rôle d'un Etat ou du collectif
39:09 ou des moyens mis en commun
39:11 vis-à-vis de cette
39:13 problématique ou de ses besoins ?
39:15 C'est une question ouverte et pour avoir une question fermée,
39:19 est-ce que vous pensez qu'il ne serait pas temps
39:21 d'avoir un ministère
39:23 du numérique, des risques du numérique,
39:25 comme il y a un ministère
39:27 du transport, de l'agriculture,
39:29 etc.
39:31 Oui, je vous remercie de ces questions
39:33 qui sont des
39:35 questions complexes pour ce qui est du rôle
39:37 de l'Etat. Moi, ce qui me choque en tous les cas,
39:39 pour moi en tant que citoyenne,
39:41 c'est de penser que l'Etat m'impose des pratiques
39:43 numériques qui ne sont pas sécurisées.
39:45 Ce qui me choque en tant que citoyenne, c'est que
39:47 ces pratiques numériques sont sous-temps
39:49 comitantes de pratiques de surveillance
39:51 et de contrôle et qu'il n'y ait pas
39:53 de contre-mesure ni de contre-contrôle.
39:55 Parce qu'on voit bien que les dérives
39:57 sur les libertés individuelles
39:59 sont quand même
40:01 assez omniprésentes et sont
40:03 déjà à l'oeuvre. Donc cette surveillance
40:05 de masse autorisée par le numérique
40:07 me pose problème
40:09 et c'est la surveillance de tous par tous.
40:11 En revanche, plus nous devenons
40:13 transparents pour l'Etat,
40:15 pour les fournisseurs de technologies
40:17 également, plus
40:19 il y a une obscurité sur la façon
40:21 dont cette surveillance se fait.
40:23 C'est quand j'évoquais le fait
40:25 de réduire la symétrie du pouvoir, c'est aussi
40:27 réduire cette asymétrie-là
40:29 et de reprendre du contrôle par la population.
40:31 Alors après, est-ce qu'une structure
40:33 organisationnelle va
40:35 permettre, nouvelle ou différente,
40:37 va permettre de résoudre, d'apprécier
40:39 tous ces problèmes-là ?
40:41 Peut-être. En tous les cas, ce qui manque
40:43 de vision à plus long terme, de prospective
40:45 et d'évolution, et on a l'impression
40:47 qu'un discours officiel,
40:49 c'est de dire que la technologie va nous
40:51 sauver. C'est pour ça que j'ai
40:53 incité à réfléchir sur ce changement
40:55 de récit qui permettrait de changer
40:57 les discours. J'en veux aussi
40:59 pour preuve sur les instances organisationnelles,
41:01 notamment de l'ONU, je citerai trois
41:03 initiatives, celle de
41:05 l'Union internationale des télécommunications,
41:07 qui est une initiative
41:09 AI for good et ICT
41:11 for good. C'est toujours
41:13 pour le meilleur et on ne questionne pas d'emblée
41:15 les risques ou la négativité
41:17 possible. On voit bien que dans ces
41:19 initiatives, c'est aussi beaucoup porté
41:21 par le secteur privé. Et la dernière
41:23 initiative ICT for good
41:25 qui est sortie il y a un mois ou deux,
41:27 ce qui m'a vraiment choquée,
41:29 c'est une initiative de la nouvelle secrétaire générale
41:31 de l'ITU qui a mis sur place toute une
41:33 structure multipartie,
41:35 multi-intervenant, tous les pays,
41:37 tout le monde, toutes les races, enfin tout ce que vous voulez.
41:39 Mais c'est chapeauté, je vous le donne par qui.
41:41 Sur l'organigramme, vous voyez secrétaire
41:43 générale de l'ITU, qui est une américaine en l'occurrence
41:45 à l'heure actuelle,
41:47 le Knowledge Partner, ils ont inventé
41:49 le mot de Knowledge Partner,
41:51 je vous le donne en mille, c'est le Boston Consulting Group.
41:53 Donc on voit très bien comment
41:55 sont organisés les échanges et pour
41:57 avoir fait partie de ces processus,
41:59 je peux vous dire que quand vous êtes invité
42:01 comme expert, vous dépendez des
42:03 consultants et que le travail est fait en avant et qu'ils
42:05 ont juste besoin de votre nom pour accréditer
42:07 la démarche. La deuxième initiative
42:09 que j'aimerais évoquer avec vous, a été
42:11 évoquée ce matin aussi dans la première conférence
42:13 avec l'ONU
42:15 qui a installé une initiative
42:17 sur l'IA. Vous savez
42:19 qu'il y a deux
42:21 présidents, un représentant
42:23 étatique et l'autre représentant,
42:25 le vice-président de cette initiative,
42:27 c'est le vice-président de Google.
42:29 Donc on peut penser que les débats seront éclairés
42:31 comme il faut
42:33 pour ce qui concerne
42:35 l'IA pour la vie de tous les jours.
42:37 C'est parenthèse ouverte
42:39 pour évoquer le fait
42:41 que ce n'est pas forcément une structure organisationnelle
42:43 de plus qui va résoudre le problème
42:45 si on ne met pas tous les processus de contrôle
42:47 démocratique de ces structures-là
42:49 et de s'assurer d'un débat
42:51 réellement multiparti.
42:53 - Bonjour,
42:59 Jean-Marc Delivremento. D'abord je voulais vous remercier
43:01 pour le livre que vous avez écrit avec Philippe Monin,
43:03 le livre "Off" que j'ai lu avec
43:05 très grande attention. Et j'avais lu
43:07 d'ailleurs un autre livre
43:09 plus ancien qui s'appelle "Blackout"
43:11 qui traite d'un sujet assez similaire
43:13 avec une approche toutefois un peu différente.
43:15 Pourquoi je lis ce livre avec attention ?
43:17 Tout simplement parce que je travaille chez Inédis,
43:19 distributeur d'électricité.
43:21 Je travaille également
43:23 sur des sujets de résilience.
43:25 J'aimerais bien travailler sur de la robustesse ou de la sécurité
43:27 mais il faut être clair,
43:29 aujourd'hui on a besoin de résilience
43:31 parce qu'il est de plus en plus
43:33 complexe de créer
43:35 des systèmes
43:37 industriels
43:39 qui soient robustes et sécurisés.
43:41 En fait mon activité
43:43 elle est sur de l'architecture et de la sécurité
43:45 du système industriel et j'ai notamment
43:47 été au jury d'une thèse de doctorat
43:49 qui a été présentée au mois de septembre
43:51 par la chaire
43:53 Résilience de Supelec
43:55 qui traite de l'interdépendance
43:57 entre l'électricité et les télécoms.
43:59 Donc vous l'avez abordé
44:01 sous la forme numérique
44:03 mais effectivement lorsque l'électricité
44:05 est coupée, alors pas que pour des
44:07 raisons de cyberattaque,
44:09 il y a des trompettes qui coupent l'électricité
44:11 qui sont de plus en plus fréquentes
44:13 sur des territoires
44:15 de plus en plus vastes.
44:17 Donc il faut rétablir l'électricité
44:19 c'est du physique,
44:21 il faut replanter des poteaux,
44:23 il faut tirer des lignes électriques
44:25 et pour coordonner des travaux
44:27 de rétablissement de l'électricité, il faut des moyens de télécom.
44:29 Or les moyens de télécom
44:31 ne fonctionnent plus lorsqu'il n'y a pas d'électricité.
44:33 Donc cette notion d'interdépendance
44:35 elle est très importante.
44:37 La notion de résilience, c'est quand finalement
44:39 on est face à ces éléments climatiques
44:41 comment on fait pour être capable
44:43 de rétablir l'électricité sur tout le territoire
44:45 et donc tous les services numériques
44:47 qui sont portés sur l'électricité.
44:49 Un des axes de réflexion c'est tout simplement
44:51 de penser résilience de l'énergie.
44:53 On parle souvent dans la
44:55 en sécurité du critère
44:57 DICT.
44:59 On va beaucoup parler de chiffrement,
45:01 de traçabilité, le RGPD, etc.
45:03 On oublie que le point le plus
45:05 important c'est tout simplement la disponibilité
45:07 du numérique.
45:09 Sans numérique on ne fait plus rien.
45:11 Et c'est pour ça que par exemple, ça fait des années
45:13 que nous demandons aux opérateurs
45:15 télécoms de ne pas
45:17 retirer les batteries sur les relais radio.
45:19 Parce que le temps que nous
45:21 on intervienne, il nous faut
45:23 24h pour apprécier la situation et ensuite nous coordonner.
45:25 Il faut ensuite diriger les gens sur le terrain.
45:27 Donc on a besoin
45:29 de moyens d'autonomie
45:31 en énergie pour pouvoir
45:33 réaliser tout cela sur des territoires qui sont de plus en plus étendus.
45:35 Donc voilà. J'ai pas de
45:37 réponse à apporter comme cela.
45:39 Ça peut être des débats très longs
45:41 et on n'aura pas forcément le temps. Mais en tout cas c'est une réflexion
45:43 qu'il faut avoir. C'est qu'il est complexe
45:45 de définir des systèmes
45:47 robustes et sécurisés. Donc on
45:49 est obligé de penser résilience en attendant.
45:51 Merci. - Oui, tout à fait. La résilience
45:53 est indispensable à l'heure actuelle. Mais si on
45:55 ne change pas ce parading, on sera toujours dans la
45:57 fuite en avant. Et donc la question qui était posée
45:59 c'était comment repenser
46:01 cette fuite en avant. Est-ce qu'on peut l'arrêter pour justement
46:03 gagner en sécurité ? Et je pense
46:05 qu'on ne va jamais résoudre les problèmes
46:07 si on ne s'intéresse pas à la racine
46:09 des problèmes. Et avoir une approche radicale
46:11 en termes de radical, c'est de revenir à la racine
46:13 et aux fondamentaux. Et je pense que là
46:15 on est confronté à des limites
46:17 qui sont réelles.
46:19 Et si on ne fait pas cet effort drastique
46:21 de changer d'état d'esprit,
46:23 de changer de faire notre façon de faire,
46:25 je crois qu'on ne va pas y arriver réellement.
46:27 On va rajouter des rustines.
46:29 Parce que pour l'instant on fait de la sécurité.
46:31 Si on achète une passoire à trous,
46:33 alors qu'on avait besoin d'acheter une casserole.
46:35 Et on va passer notre temps à boucher les trous.
46:37 Je ne suis pas sûre que ce soit efficace. Il faudra boucher les trous,
46:39 de boucher les trous. Et comme on ne va pas pouvoir boucher
46:41 tous les trous, il y aura un problème. Donc si on veut vraiment
46:43 penser, résoudre le problème de la sécurité
46:45 et pas développer le marché de la cybersécurité,
46:47 il faut repenser notre façon
46:49 de concevoir, d'utiliser,
46:51 de commercialiser le numérique.
46:54 Bien.
46:56 Je ne vous avais pas trompé,
47:02 c'était un régal.
47:04 Merci. Un peu perturbé par le départ.
47:06 Je ne veux pas en rajouter, mais j'aurais des tas de choses
47:08 à dire, y compris sur le dernier
47:10 terme qui a été utilisé de disponibilité.
47:12 C'est vrai que c'est celui
47:14 qui a permis
47:16 souvent de s'intéresser
47:18 à la sécurité des systèmes d'information.
47:20 Tant que les chefs
47:22 étaient simplement,
47:24 on leur disait, confidentialité,
47:26 intégrité, etc.
47:28 Ils n'étaient jamais
47:30 punis parce qu'ils avaient commis
47:32 des fautes dans ce domaine-là.
47:34 Le jour où on leur a dit
47:36 "Ah ben attention, votre système, le jour où vous en aurez besoin,
47:38 ne marchera plus", là ils ont commencé à être
47:40 attentifs.
47:42 En tout cas, merci infiniment.
47:44 Merci pour l'invitation.
47:46 Je ne vais pas t'offrir ton livre.
47:48 Par contre, je crois que cette histoire des transmissions de 1941-1940 pourrait t'intéresser.
47:58 Absolument, merci. J'adore l'histoire.
48:00 Est-ce que c'est un secret
48:02 qu'on peut dire aujourd'hui ?
48:04 C'est pas vraiment un secret.
48:06 Non, alors on peut dire que c'est l'anniversaire de Solange.
48:12 Merci.
48:14 (...)

Recommandations