• l’année dernière
ABONNEZ-VOUS pour plus de vidéos : http://www.dailymotion.com/Europe1fr
À l'occasion du vendredi thématique "L’Intelligence Artificielle, à l’aube une nouvelle révolution sociale et industrielle", Dimitri Pavlenko reçoit Brunessen Bertrand, professeure de Droit et responsable de recherche au centre européen du numérique de Rennes.

Retrouvez "L'invité actu" sur : http://www.europe1.fr/emissions/l-interview-de-7h40
LE DIRECT : http://www.europe1.fr/direct-video


Retrouvez-nous sur :
| Notre site : http://www.europe1.fr
| Facebook : https://www.facebook.com/Europe1
| Twitter : https://twitter.com/europe1
| Google + : https://plus.google.com/+Europe1/posts
| Pinterest : http://www.pinterest.com/europe1/

Category

🗞
News
Transcription
00:00 - Il est 7h12 sur Europe, Dimitri Pavlenko, vous recevez ce matin la professeure de droit Brunessen Bertrand.
00:06 - Bonjour Brunessen Bertrand.
00:08 Allô ? Vous êtes là ?
00:11 Brunessen Bertrand, on vous a quitté.
00:14 Enfin, la liaison visiblement est un peu perturbée. On va vous retrouver dans un instant Brunessen Bertrand. Le temps pour moi
00:21 d'expliquer que vous êtes professeur de droit à l'université de Rennes,
00:25 spécialiste en droit du numérique, plus largement des nouvelles technologies, cyber, data, intelligence artificielle. Toute la journée sur Europe 1,
00:32 on tente de prendre la mesure de la révolution
00:35 que représente l'irruption de l'intelligence artificielle dans nos quotidiens. C'est le vendredi thématique que vous propose la rédaction.
00:41 En fait l'IA, elle est déjà très largement présente dans nos vies, dans les algorithmes de recommandation de contenu,
00:47 sur les réseaux sociaux par exemple, dans l'aide à la conduite dans certaines voitures.
00:51 Mais ce ne sont là que les tout débuts d'une technologie qui est appelée à se diffuser
00:55 dans tous les secteurs. Je crois que vous êtes à nouveau avec nous Brunessen Bertrand.
01:00 Oui, bonjour.
01:02 Alors question qui se pose toujours quand une nouvelle technologie émerge, est-ce qu'il faut rapidement l'encadrer ?
01:06 Ou bien au contraire la laisser grandir sans entrave, se laisser un peu de temps ?
01:11 L'Europe considère qu'il est temps d'agir. Le parlement européen a approuvé mardi un projet de régulation, c'est le premier au monde.
01:17 Brunessen Bertrand, de votre point de vue de juriste, pourquoi faudrait-il vite légiférer maintenant à propos de l'intelligence artificielle ?
01:24 Alors je pense qu'il faut en effet légiférer.
01:28 Je ne sais pas si on peut dire ça, parce que c'est vrai que c'est compliqué pour le droit de
01:34 s'arrimer sur la technologie, mais il y a quand même toute une série d'enjeux assez fondamentaux
01:38 et qui impliquent à mon sens de réguler l'IA, des enjeux de protection des droits fondamentaux,
01:45 de la vie privée, des données personnelles,
01:47 d'éviter aussi les discriminations qui peuvent être générées par les biais des algorithmes. Il y a des enjeux démocratiques très forts.
01:56 Alors très concrètement, quels sont-ils Brunessen Bertrand ? Est-ce que vous pouvez nous donner des exemples concrets qui nous permettent de comprendre pourquoi
02:02 l'Europe se préoccupe autant de légiférer désormais, dès à présent, sur l'intelligence artificielle ?
02:09 Eh bien on voit notamment à propos d'enjeux démocratiques, des pratiques de modération des contenus sur les réseaux sociaux,
02:16 des enjeux aussi avec les nouvelles IA génératives dont on parle beaucoup, avec des risques de manipulation de l'information et ainsi de
02:25 protection des valeurs démocratiques en Europe.
02:29 Et il y a des enjeux géopolitiques aussi, puisque pour l'Europe c'est aussi une façon de se positionner
02:34 dans le monde en montrant que l'Europe régule, défend ses valeurs et défend son marché intérieur aussi.
02:40 Oui, alors ça c'est l'idée que se fait elle-même de l'Union Européenne d'elle-même, grande puissance
02:45 normative. Alors ça pose quand même malgré tout beaucoup de questions.
02:49 L'Union Européenne entend par exemple interdire les systèmes qui posent un risque
02:55 inacceptable, une menace pour les personnes. De quoi on parle très concrètement là ? Parce que on pense par exemple
03:01 spontanément à l'image d'une machine qui serait utilisée pendant la guerre, un robot qui prendrait seule la décision d'ouvrir le feu.
03:07 C'est à ce genre de technologie qu'on pense quand on parle de risques inacceptables ?
03:12 Alors sans doute, si ce n'est que là, la proposition de règlement ne concerne pas les applications militaires,
03:19 qui sont mises complètement à part. C'est une régulation très générale, sauf sur ce domaine là. Mais
03:24 il ne reste pas moins qu'il y a quand même un certain nombre de pratiques considérées comme inacceptables, notamment les IA utilisées pour la
03:31 notation sociale,
03:33 les systèmes de police prédictive, des systèmes de reconnaissance des émotions quand ils sont utilisés dans certains contextes.
03:39 Et le Parlement européen a aussi beaucoup
03:43 resserré l'interdiction sur les systèmes d'identification
03:45 biométriques à distance en temps réel dans les espaces accessibles au public.
03:51 Pour en prendre des exemples, je pense ce sera plus parlant,
03:56 quand vous dites l'Union européenne entend prohiber les systèmes de notation sociale. Alors là on a en tête par exemple ce qui aurait vu cet
04:03 épisode de Black Mirror, où l'on voit les gens se noter entre eux, s'attribuer des étoiles,
04:06 et le fait de ne pas en avoir suffisamment vous interdit l'accès à certains endroits ou à certaines relations sociales. On sait que c'est aussi ce
04:13 que fait le régime chinois, mais en fait ça existe déjà en France. Vous prenez,
04:18 ça se fait dans le monde de la banque ou de l'assurance, le credit scoring, c'est-à-dire on vous attribue une note sur votre capacité à
04:24 rembourser un emprunt. C'est déjà de la notation sociale, ça existe déjà et ça n'est pas interdit Brunessen Bertrand.
04:30 Oui alors en effet il faut distinguer selon la façon dont ce système de notation sociale est utilisé.
04:38 Mais c'est vrai que la classification de personnes en fonction de leur comportement social, de leurs caractéristiques personnelles,
04:44 pour en déduire un certain nombre de conséquences sur l'exercice de leurs droits,
04:52 c'est effectivement quelque chose qui est considéré comme un niveau de risque
04:55 inacceptable dans l'Union européenne.
04:57 Et effectivement on a des exemples assez concrets quand on regarde ce qui se passe en Chine.
05:01 Oui, il y a cette idée en Europe qu'il faut que l'intelligence artificielle soit de confiance.
05:06 Il faut qu'on puisse avoir confiance en cette technologie, que ce soit transparent.
05:09 Et quand on a affaire à de l'IA, au moins que ce soit écrit, qu'on le sache Brunessen Bertrand.
05:14 Oui alors,
05:16 l'IA de confiance c'est effectivement
05:20 presque le slogan européen. Alors c'est à la fois confiance du citoyen européen dans les valeurs et le cadre démocratique
05:27 européen, c'est aussi la confiance du consommateur
05:30 européen parce qu'il y a des enjeux économiques très forts. Il faut que les systèmes d'IA puissent circuler et être utilisés
05:37 aussi dans l'Union européenne. Alors on met des exigences de transparence. Il faut avoir
05:42 conscience que c'est jusqu'à un certain point, puisqu'il y a certaines formes d'intelligence artificielle
05:46 qui sont
05:48 par essence
05:50 inintelligibles. Le problème de la boîte noire notamment, de certains algorithmes de machine learning.
05:55 - Ah ben justement, j'allais y venir parce qu'en fait il se trouve que
05:57 le deep learning, c'est-à-dire la technique d'apprentissage des réseaux neuronaux, ça consiste en quoi ? Très concrètement, vous gavez votre réseau neuronal de données,
06:07 vous observez ce qu'il en ressort, les résultats, mais à l'intérieur, les processus à l'intérieur du réseau, on ne sait pas ce que c'est.
06:14 On parle de black box, de boîte noire, et on prétend réguler ça par la loi, Bruness Anne Bertrand.
06:20 - Oui, alors effectivement il y a
06:22 schématiquement plusieurs sortes d'IA.
06:25 Celles qui étaient classiquement fondées sur la programmation avec idée de code, iso, etc.
06:30 Et les IA qui sont fondées sur un mode de fonctionnement très différent, sur l'apprentissage.
06:34 Donc pas une logique de programmation, mais une logique d'apprentissage qui apprend
06:40 effectivement en observant le monde tel qu'on lui présente à travers les données. Et plus on lui donne des données de qualité représentative,
06:47 fiable,
06:50 exemple de biais au départ, et plus on se dit qu'on va limiter les biais, les erreurs
06:57 dans les résultats. Mais en effet, entre les deux, entre les données d'entraînement
07:01 qu'on donne pour alimenter ces algorithmes et le résultat qu'on a, on ne peut pas expliquer.
07:09 Il y a une opacité intrinsèque, une inintelligibilité de ces systèmes.
07:12 Donc juridiquement,
07:14 effectivement, la prise est limitée. On peut contrôler les données qu'on donne au départ.
07:18 Si on donne des données biaisées, on aura des résultats biaisés. On peut essayer d'avoir une transparence sur ces données
07:24 qu'on donne précisément, et essayer d'avoir quelques garanties de traçabilité de ces systèmes,
07:31 de documentation, pour essayer d'en savoir le plus possible. Mais en effet, on ne saura pas tout.
07:36 Mais à vouloir tout tracer, tout délimiter, etc.
07:40 Est-ce qu'on ne va pas tuer l'innovation et l'initiative ?
07:43 Ça, c'est des choses qu'on entend très souvent dans le monde de la tech aujourd'hui.
07:45 Est-ce que finalement, cette volonté de réguler, ça n'exprime pas une technodéfiance finalement ?
07:50 Alors, je ne suis pas sûre qu'il y a une technodéfiance. Il y a peut-être une forme de protectionnisme économique
07:58 pour les industries européennes. Alors c'est très ambivalent parce que, à la fois, réguler l'IA dans l'Union Européenne,
08:06 c'est sans doute mettre des freins à l'innovation. Mais il y a certains garde-fous qui sont prévus dans le texte de ce point de vue-là.
08:13 Je pense notamment à ce qu'on appelle des bacs à sable réglementaires, qui permettent aux entreprises de pouvoir
08:18 expérimenter des solutions dans un cadre juridique sécurisé,
08:22 contrôlé par les autorités publiques. Donc, le texte essaye de trouver un compromis entre, en effet, la nécessité de ne pas tuer
08:30 l'innovation dans l'Union Européenne et, en même temps, de ne pas laisser se développer tous les usages de façon anarchique.
08:38 Merci beaucoup Brunesse Nbertrand de vos lumières. Il y aurait beaucoup de choses à dire encore. En tout cas, cette
08:43 régulation de l'IA par l'Europe, c'est clairement un acte d'autorité.
08:47 On va avoir l'occasion de leur parler parce qu'il y a une bataille géopolitique gigantesque autour de l'intelligence artificielle.
08:52 On en parlera d'ici 9 heures. Pour l'heure 7h25, merci beaucoup.

Recommandations