• l’année dernière
Les progrès toujours plus rapides de l'IA mettent au défi notre capacité à comprendre, raisonner et créer. Quels risques de perte de contrôle des humains sur les machines ? Comment les éviter ? Qu'adviendra-t-il de certains emplois ? Quelle relation aurons-nous avec l'IA et comment l'IA va transformer nos relations interpersonnelles ? Faut-il réguler ? Si oui, jusqu'où ?

Toutes ces questions ont été débattues en présence de Luc Ferry, Philosophe, écrivain et ancien ministre, Philippe Limantour, Chief technology and cybersecurity officer de Microsoft France, Serge Tisseron, Psychiatre et membre du Conseil national du numérique et Maria Pernas, Executive VP et groupe counsel chez Capgemini, lors de la plénière d'ouverture de la 2e édition de Paris Legal Makers consacré à l’intelligence artificielle. Ce rendez-vous international du monde du droit et des affaires, organisé par le Barreau de Paris, en partenariat avec Le Point, s’est tenu au Palais Brongniart à Paris le 23 novembre 2023. Retrouvez ici les moments forts de l'ouverture.

Suivez nous sur :

- Youtube : https://www.youtube.com/c/lepoint/
- Facebook : https://www.facebook.com/lepoint.fr/
- Twitter : https://twitter.com/LePoint
- Instagram : https://www.instagram.com/lepointfr
- Tik Tok : https://www.tiktok.com/@lepointfr
- LinkedIn : https://www.linkedin.com/company/le-point/posts/
- www.lepoint.fr
Transcription
00:00 (Musique)
00:04 Nous avons conscience que faire l'impasse du droit revient à sauter les deux pieds joints dans le vide
00:10 à la rencontre de l'inconnu, de ses dangers et de toutes les peurs qu'il peut susciter.
00:15 Pour signifier son importance capitale et son pouvoir, nous avons donc créé le Paris Legal Makers,
00:20 le sommet du développement par le droit, qui fait le pari d'aborder dans le détail,
00:25 dans le pratique, sous un angle technique et juridique, les grandes transformations auxquelles nos sociétés doivent faire face.
00:31 Notre objectif est très simple, nous voulons apporter grâce au droit de la stabilité et de la confiance.
00:38 Car ce qui nous inquiète à titre personnel, qui inquiète également les marchés et qui freine le développement et l'innovation,
00:45 c'est l'incertitude. C'est la question d'un impôt mondial sur les sociétés à l'heure des GAFAM,
00:50 c'est la question de la protection des actifs immatériels des entreprises à l'heure de la blockchain, des NFT et des crypto-monnaies,
00:56 c'est la question de la protection de nos données à l'heure où une part importante de nos vies se déroule en ligne,
01:01 et c'est aussi la question de notre capacité à apprivoiser, à encadrer et j'oserais dire à dompter l'intelligence artificielle sous toutes ses formes.
01:10 Rien de ce qui vous sera présenté aujourd'hui n'a été préparé par une intelligence artificielle,
01:16 et pourtant nous aurions pu tant les systèmes d'intelligence artificielle générative sont fascinants d'audace, de créativité et d'inventivité.
01:24 Reste qu'ils font aussi preuve d'un goût un peu trop prononcé pour la paraphrase et la violation du droit d'auteur.
01:32 A mi-chemin se trouve sans doute une terra incognita où l'intelligence artificielle soutient l'intelligence humaine,
01:38 où l'humain apprivoise l'extraordinaire potentiel de l'outil.
01:42 C'est à sa recherche que nous partons ensemble aujourd'hui, convaincus que nous sommes capables grâce au droit de dompter les ardeurs de l'IA
01:48 et d'en proposer un usage universel et éthique.
01:51 Nous mettons tout en œuvre pour que la place de droit de Paris, fidèle à sa réputation d'excellence,
01:56 demeure la capitale où se forment et s'exercent les avocats les plus pointus du marché.
02:01 Une place où les innovateurs, les créateurs, les entrepreneurs, les penseurs sont toujours chez eux,
02:07 une place où ensemble nous faisons vibrer la force du droit.
02:11 Sur l'IA, comme sur beaucoup de sujets, la question c'est la régulation.
02:16 Ce n'est pas toujours une bonne solution d'augmenter la régulation de manière trop forte.
02:22 Et sur ce sujet, comme sur les autres, nous sommes très mobilisés de façon à bien réguler pour que les entreprises restent efficaces.
02:32 Notre vision vis-à-vis de l'intelligence artificielle, c'est que ça a quand même généré des gains de productivité hyper intéressants
02:38 et nous sommes aussi attentifs à ce que les entreprises françaises, européennes puissent s'en emparer de manière efficace.
02:46 De manière générale, sur les nouvelles technologies, ce sont les entreprises qui sont en pointe.
02:51 Il y a l'IA Act, mais il y a aussi le Directive, enfin le DSC, DME, donc c'est sur le marché et sur les services numériques.
03:02 Parallèlement en France, on a la loi ZREN, sécuriser et réguler l'espace numérique.
03:08 On a tout un tas de régulations qui arrivent qui nous inquiètent beaucoup.
03:13 L'entreprise aujourd'hui est le principal levier de changement.
03:17 Par votre vision, par vos valeurs, par le fait que vous conseillez ces entreprises-là, vous avez un rôle à jouer pour qu'on soit plus fort
03:27 et que les grandes promesses de l'intelligence artificielle puissent être relevées par les entreprises.
03:33 Au fond, à quoi ça fait penser ce qui nous arrive dans l'IA ?
03:36 Ça fait penser à une immense poétesse russe qui était Anna Armatova.
03:40 Cela s'est passé en une heure et nous avons vieilli de 100 ans.
03:44 Finalement, c'est difficile de mieux résumer ce qui se passe depuis, peut-être pas depuis une heure, mais depuis un an,
03:50 depuis que chat GPT est vraiment rentré dans nos vies, on a l'impression d'être passé d'une époque à l'autre, que les choses ne seront plus comme avant.
03:57 On passe une nouvelle ère, pourquoi ? Parce qu'on arrive à démocratiser finalement l'accès à ces solutions.
04:02 La première caractéristique de ces nouveaux modèles, c'est de faciliter l'interaction en langage naturel.
04:08 Vous regardez l'histoire de l'informatique depuis le début.
04:11 On a été obligé, nous pauvres humains, d'apprendre à utiliser une souris, un clavier, des menus, des interfaces, des boutons.
04:18 Finalement, une complexité pour aller accéder ou mettre en valeur notre capacité, nos connaissances, notre expertise.
04:26 Avec ces nouveaux modèles d'IA, on casse cette barrière et on peut dialoguer en langage naturel avec la machine.
04:33 Cela va ouvrir des formidables opportunités d'inclusivité.
04:37 La deuxième, ce sont les capacités de raisonnement, qu'on appelle GPT 3.5.
04:41 On s'attendait, au niveau des experts IA, à arriver à quelque chose de ce niveau-là.
04:47 Ce qu'on n'attendait pas aussi vite, c'est GPT 4.
04:51 Aujourd'hui, ce modèle-là est bien au-delà des autres.
04:55 Il n'a pas du tout la même constitution, architecture.
05:00 C'est un autre objet que les gens utilisent à 20% de ses capacités aujourd'hui, mais qui a des vraies capacités de raisonnement.
05:09 Quand on parle d'intelligence, premièrement, il y a une caractéristique de compréhension, une fine sémantique.
05:14 C'est la capacité à dialoguer.
05:17 La deuxième, ce modèle a une très forte capacité de généralisation.
05:22 On peut lui donner 2, 3, 4 exemples de quelque chose qu'il n'a jamais appris, et il est capable de raisonner.
05:28 On peut lui donner la description d'un algorithme, il va exécuter cet algorithme mieux qu'un programme.
05:33 Troisième caractéristique, la capacité à enchaîner des raisonnements, des processus.
05:42 Ce qui lui manque aujourd'hui à ce modèle, c'est la capacité de planification.
05:46 L'intelligence artificielle générative, je vais me focaliser sur cette intelligence en particulier.
05:51 Le premier risque, c'est le risque commercial.
05:53 Si on veut utiliser l'intelligence artificielle générative dans tout son potentiel, ça va demander des investissements.
06:01 Il faudra bien sélectionner les cas d'usage.
06:04 Et par définition, on va sélectionner les cas d'usage qui apportent une valeur ajoutée, mais qui sont moins risqués.
06:11 La deuxième chose, on a beaucoup parlé des risques de propriété intellectuelle, des risques de gestion des données, des risques de responsabilité.
06:19 Pour l'apprentissage du Foundation Models, on va utiliser un certain nombre d'éléments.
06:24 Il y a un risque de contrefaçon, mais si on regarde les produits comme Microsoft Copilot, il y a déjà un certain nombre de contrôles qui ont été mis en place.
06:33 Et les sociétés qui mettent dans le marché des produits qu'on appelle « off the shelf »,
06:38 ils sont en train de communiquer qu'ils seraient prêts à nous en dénoncer,
06:43 et je dis « en dénoncer » parce que nous sommes partenaires aussi de Microsoft, un cas de risque de contrefaçon.
06:49 On parle beaucoup des données personnelles.
06:53 Tous les cas d'usage ne traitent pas de données personnelles, donc il faudrait bien choisir son cas d'usage pour limiter les risques.
07:01 Les risques éthiques, je suis sûre qu'on va en parler.
07:04 Il y a certains cas d'usage qui peuvent amener certains risques dans le domaine éthique,
07:12 mais j'insiste, tout commence par une bonne sélection du cas d'usage.
07:17 Oui, les risques existent, mais à la date aujourd'hui, il y a déjà tout un certain nombre de mécanismes qu'on peut mettre en place
07:25 et c'est parfaitement possible de commencer à utiliser l'intelligence artificielle générative dans certains cas d'usage, pas partout,
07:33 avec un niveau de risque bien contrôlé.
07:35 Il y a quatre sujets majeurs.
07:37 Un, quel est l'impact dans le monde du travail ? Goldman Sachs a fait une étude disant que 300 millions d'emplois seraient supprimés,
07:42 et notamment plutôt les emplois Bac+10 que Bac-3.
07:46 Et donc c'est une très bonne nouvelle pour la voie professionnelle.
07:49 Quel est l'impact dans le monde universitaire et scolaire ? Est-ce qu'il faut l'interdire ou pas ?
07:53 Moi je pense qu'il faut au contraire le rendre obligatoire.
07:56 Troisième sujet, est-ce qu'on va vers une IA forte, c'est-à-dire une machine consciente et qui aurait des émotions ?
08:01 Le projet Blue Brain, donc un cerveau avec les neurones artificielles serait tellement performant
08:07 qu'il enjaillerait la conscience et les émotions.
08:10 Je n'y crois pas non plus, je pense qu'on ira vers une IA généraliste, mais pas forte pour autant.
08:15 Et puis quatrième sujet, la régulation.
08:17 Moi ce qui m'inquiète le plus, c'est le seul sujet qui m'inquiète vraiment, c'est les deepfakes.
08:21 Ça je pense que c'est extraordinairement dangereux.
08:23 On va être amené à interagir avec ces machines comme avec des humains,
08:27 puisqu'on va leur parler comme à des humains, ils vont nous répondre.
08:31 Mais il faut comprendre que l'IA générative, c'est qu'une partie de l'IA.
08:36 Très bientôt, vous ne parlerez plus seulement à une boîte noire, vous parlerez à un visage sur un écran,
08:43 ce qu'on appelle un robot virtuel, dont vous pourrez éventuellement choisir l'intonation.
08:47 Et puis un peu plus tard, un robot qui aura une présence physique.
08:51 Et évidemment, il va falloir interagir avec ces machines qui nous paraîtront en tout point semblables à des humains,
08:59 tout en sachant qu'elles ne sont pas des humains.
09:01 Et ça, ça va être une vraie gymnastique mentale.
09:03 Il y a une logique des algorithmes qui fait qu'ils se calent sur ce que vous leur dites
09:07 quand vous avez une relation régulière avec une machine.
09:10 Et finalement, la machine peut vous convaincre qu'elle est finalement comme vous.
09:15 Et donc on va avoir ça à gérer, ce qu'on appelle l'illusion anthropomorphe.
09:19 Je trouve que les machines, c'est extrêmement intéressant.
09:21 J'attends avec impatience le moment où elles vont en effet, on parlait de JVT 7 tout à l'heure,
09:25 elles vont être capables de nous raconter quelque chose de leur propre expérience du monde.
09:30 Mais ça ne sera pas du tout la nôtre.
09:32 Et donc en attendant, on va devoir lutter contre ce qu'on appelle un biais de technologie,
09:39 c'est-à-dire une tendance à croire que parce que la machine est une machine, elle est objective.
09:43 Que parce que la machine est une machine, elle nous donne des renseignements qui sont forcément vrais.
09:48 N'oublions pas quand même qu'il y a des limites.
09:50 Il y a, comme on dit, le biais lié aux données.
09:53 Il faut qu'une machine dispose d'un très très grand nombre de données,
09:56 les fameux big data, pour que son jugement ne soit pas limité.
10:00 Si je suis là, c'est pour dire que les données c'est important, les algorithmes c'est important,
10:04 ce que produit la machine c'est important,
10:06 mais la manière dont l'utilisateur le perçoit c'est également très très important.
10:10 Il y a des domaines où on va être énormément aidé par les machines, c'est bien évident,
10:14 on va en profiter énormément.
10:16 Il y a des domaines où il va falloir être vigilant,
10:18 de manière à ne pas vivre des expériences dans les mondes virtuels,
10:26 parce qu'il y a aussi les mondes virtuels,
10:28 pas vivre des expériences trop différentes des expériences qu'on vit dans le monde concret,
10:32 d'une manière qui pourrait nous brouiller nos repères.
10:34 Et puis il y a des domaines où il va falloir carrément qu'on soit protégé par toute une législation.
10:39 Et c'est vrai que l'Europe fait un travail considérable dans ce domaine-là,
10:42 mais il y a aussi l'importance de toute l'éducation qui pourrait être donnée,
10:45 qui devra être donnée dans le cadre scolaire.
10:48 Toutes les technologies sont porteuses de risques,
10:51 et c'est très important de construire les pare-feu au fur et à mesure que se construisent les technologies.
10:56 Aujourd'hui les entreprises sont déjà dans un procès de digitalisation,
11:00 et la digitalisation aujourd'hui ce n'est pas juste automation.
11:04 La digitalisation aujourd'hui, tout ce que les sociétés comme Capgemini font pour leurs clients aujourd'hui,
11:10 c'est de transformer leur business model pour être plus productif,
11:16 pour gagner en compétitivité et pour accélérer la croissance.
11:21 Principe de base, l'intelligence artificielle générative va nous permettre de continuer à avancer dans ces trois domaines.
11:29 Accélération de croissance,
11:31 augmenter la productivité et augmenter la compétitivité.
11:35 Il y a plein de choses qui aujourd'hui doivent être automatisées dans l'intérêt des employés,
11:42 et moi je vais utiliser l'intelligence artificielle générative
11:46 pour permettre aujourd'hui de se focaliser sur le sujet des vraies valeurs ajoutées,
11:51 et pour gagner en efficacité et en productivité.
11:55 Je pense qu'on confond les tâches et les emplois, et les métiers.
11:59 Je pense qu'en vérité 90% des tâches vont être impactées,
12:03 mais peu de métiers, beaucoup moins qu'on ne le pense.
12:05 Les métiers qui associent la tête, le cœur et la main seront les moins impactés.
12:10 Le radiologue disparaîtra avant le généraliste, et le généraliste disparaîtra avant l'infirmière.
12:14 On supprime des tâches bêtes et sans aucun intérêt pour libérer du travail intelligent.
12:19 C'est surtout pour les métiers intellectuels moyens que ça va être très dur.
12:25 Il va falloir réfléchir à la formation permanente, ce sera un sujet majeur,
12:29 parce qu'il va falloir upgrader un certain nombre de personnes
12:34 pour qu'elles fassent des métiers plus intéressants.
12:37 Autrement dit, c'est une vraie bonne nouvelle l'intelligence artificielle dans la plupart des domaines.
12:42 Au fond, l'équation à exoutre c'est comment rendre nos enfants complémentaires et pas victimes de l'IA.
12:47 Et si j'étais ministre de l'éducation, ce serait mon sujet numéro 1, avant tous les autres.
12:51 En Europe, on va réguler quelque chose qu'on n'a pas produit,
12:54 puisque pour l'essentiel c'est fabriqué aux Etats-Unis et en Chine.
12:57 Il est évident que plus on régule, plus on rend service à la Chine,
13:01 parce qu'eux n'ont pas de régulation, donc ils peuvent continuer à travailler, ils peuvent continuer à progresser.
13:06 Donc il faut faire très attention de ne pas stopper la recherche en régulant trop.
13:10 A mon avis, le sujet sur lequel il faut vraiment réguler tout de suite, c'est les deepfakes.
13:14 Ça c'est vraiment très très dangereux.
13:16 Si l'Europe est aujourd'hui obligée de réguler des technologies qu'elle n'a pas inventées,
13:19 c'est bien pour ça qu'elle se pose la question d'inventer ses propres technologies à l'avenir.
13:23 Il y a très peu de métiers dans lesquels des individus n'ont affaire qu'à des machines.
13:28 Dans beaucoup de métiers, des individus ont affaire à des collègues, et puis ils ont affaire à des usagers.
13:32 Introduire de l'intelligence artificielle là-dedans, c'est obligé de se poser pas seulement la question de la productivité,
13:38 du bien-être du salarié au travail, c'est obligé aussi de se poser la question de savoir comment
13:43 les technologies d'intelligence artificielle qui vont être introduites vont modifier les relations des salariés entre eux,
13:48 les relations des salariés avec les usagers, et même les relations des usagers entre eux.
13:53 Et ça c'est un modèle qu'on appelle le modèle biopsychosocial,
13:56 qui à mon avis devrait aujourd'hui être placé au centre de toutes les recherches.
14:00 Parce que il y a des technologies d'aide à la personne qui marchent très bien en laboratoire,
14:04 et ça ne marche pas du tout avec les personnes.
14:07 Il y a eu une époque où il était question que pour les personnes âgées, les personnes démentes,
14:12 ce soit une intelligence artificielle qui leur rappelle l'horaire de prise de leurs médicaments.
14:17 Il y a eu des essais à l'époque avec l'enceinte Alexa.
14:22 Et ça a été une catastrophe, parce que les personnes âgées,
14:26 le moment où une infirmière leur rappelle de prendre leurs médicaments,
14:29 ou une personne qui passe à domicile, c'est un moment de relation.
14:32 Ce n'est pas du tout la prise des médicaments qui est importante,
14:34 c'est comment vous allez, est-ce que vous avez passé une bonne journée, c'est tout ce qu'il y a autour.
14:38 La recherche aujourd'hui, elle devrait beaucoup plus impliquer d'emblée les usagers, les professionnels,
14:45 de manière à prendre en compte tout de suite ce qui va être modifié entre eux,
14:49 et comment la motivation qu'ils ont à travailler peut être réduite ou renforcée par l'intelligence artificielle.
14:56 Et ça c'est très important, ce n'est pas seulement gagner du temps,
14:59 c'est aussi avoir plus de plaisir à travailler.
15:02 Il faut penser en termes de satisfaction, pas seulement en termes de gains de temps et de gains de ratabilité.
15:08 Il faut réglementer, il faut des accords, et ça rejoint aussi des aspects économiques.
15:12 Si on a des règles de base communes un peu partout dans le monde, c'est plus facile d'avoir des échanges.
15:18 Ensuite il y a des éléments qu'il faut mettre en place.
15:22 Quand on parle d'open source, on confond plusieurs choses.
15:27 Dans l'open source, et on est parmi les plus grands contributeurs à l'open source chez Microsoft,
15:32 dans l'IA et dans d'autres sujets, on amène de la transparence et on facilite la collaboration.
15:38 Pour moi, ce sont les deux principes clés de l'open source, de la transparence, de la collaboration,
15:43 notamment dans l'IA parce que ça avance extrêmement vite.
15:46 On a besoin d'un regard critique, de quelqu'un qui n'a pas le même parcours, la même expertise, la même vision.
15:52 Après on associe souvent open source à libre de droit.
15:56 C'est vrai pour une très très faible proportion des contrats de licence,
16:01 ce n'est pas à vous que je vais apprendre ça, il y en a un pléthore des contrats d'open source.
16:05 C'est un faux ami de croire qu'il n'y a pas un lien économique derrière.
16:11 Et troisième point, si on veut mettre des garde-fous autour d'un modèle d'IA, il faut ajouter des choses.
16:18 Si le modèle est libre en open source, sans l'encapsulation de garde-fous, on donne le champ libre aussi,
16:26 et c'est le cas aujourd'hui, ces modèles sont utilisés aussi par des hackers, on parlait de deep fake tout à l'heure.
16:32 On met entre les mains de tout le monde un modèle qui est un peu brut de fonderie.
16:37 C'est très bien pour faire avancer la recherche, c'est très bien pour partager.
16:41 Il manque quelque chose. Ce quelque chose, on parle de transparence, ça fait 7 ans qu'on travaille sur l'IA responsable,
16:47 et qu'elle est exécutée, moi je suis responsable pour la France de ce sujet.
16:52 C'est une analyse de risque, c'est très pragmatique, mais c'est ancré dans les process.
16:57 La première chose c'est qu'on ne donne pas accès à un modèle sur notre interface sans passer par un questionnaire.
17:05 L'utilisateur, le client, le partenaire va dire "j'ai envie de faire des résumés de texte avec tel modèle,
17:10 j'ai envie de détecter si la personne a la capacité de rembourser ou pas,
17:18 vous voyez que dans ces deux cas je vais avoir des impacts potentiels ou des risques qui vont être différents,
17:23 donc on ne peut pas ou pas donner accès au modèle, ça nous arrive régulièrement de ne pas donner accès à des modèles.
17:27 La transparence, on appelle des notes de transparence, c'est expliquer l'usage, qui sont les utilisateurs,
17:32 qu'est-ce qu'on a prévu que le modèle ne fasse pas, quel moyen on a mis pour qu'il ne le fasse pas.
17:36 On acquiert deux choses, pour moi, si je simplifie à l'extrême au cours de la vie, de l'expertise et de l'expérience.
17:44 Si les modèles d'IA amènent de l'expertise, c'est pas du free lunch mais c'est pas loin,
17:52 comment on acquiert de l'expérience, de l'esprit critique qui est nécessaire,
17:59 nous on veut qu'il y ait toujours un humain dans la boucle, dans ces systèmes,
18:02 c'est vraiment augmenter l'être humain, lui apporter des choses,
18:05 et comment on a cet esprit critique, comment on sait dire que tel livre ou tel auteur ou tel journal
18:12 est digne ou pas de confiance sur un sujet particulier, c'est un vrai sujet, pas la réponse,
18:18 c'est un sujet à travailler dès l'éducation, dès les petites écoles.
18:22 Cette machine est bourrée de biais philosophiques et moraux,
18:25 elle est californienne, wokiste, féministe, écologiste, antiraciste, tout ce que vous voudrez de beau,
18:33 mais elle n'est pas élevée par Jean-Pierre Chevènement, sinon elle serait universaliste et républicaine.
18:37 Quand vous lui posez des questions d'éthique ou des questions qui touchent à la morale,
18:42 les biais californiens sont omniprésents.
18:45 Moi je crois beaucoup à la revalorisation du métier de journaliste,
18:48 au sens où il y a une vraie signature en dessous qui garantit que quelque chose,
18:52 on peut être en désaccord, mais ça garantit qu'au moins il y a une responsabilité derrière.
18:56 Parfois la réglementation est trop focalisée sur la technologie,
19:00 la réglementation devrait être très focalisée sur les cas d'usage.
19:03 Je suis très sensible à tout ce qui a été dit par rapport à l'utilisation de la technologie par les enfants,
19:09 les faits que les enfants aujourd'hui ont accès à tout type d'informations,
19:12 et il ne faut pas attendre la génération de faillite.
19:15 La génération de faillite, ça vient en plus de la plupart des risques qu'on trouve aujourd'hui
19:20 dans l'intelligence générative d'une façon théorique,
19:23 les biais, la fausse information, les droits de propriété intellectuelle, la gestion des données personnelles.
19:30 Est-ce qu'il y a quelqu'un dans la salle qui puisse me dire qu'il n'y a pas ce type de risque
19:34 dans l'utilisation des réseaux sociaux aujourd'hui et de l'internet ?
19:37 Les entreprises, et je parle, c'est notre cas chez Capgemini, mais je pense que c'est la position générale,
19:44 nous sommes parfaitement conscients des challenges associés à l'utilisation des générations de faillite
19:51 et nous sommes engagés à développer une génération de faillite qui est ce qu'on appelle « Secure by Design ».
19:59 Il y a eu la révolution des données, on a développé le principe « Data Privacy by Design »,
20:05 il y a eu la révolution dans le domaine de la sécurité des informations,
20:09 on a développé la notion « Security by Design »,
20:12 tout ce qu'on fera en matière d'intelligence artificielle générative sera « Secure by Design »
20:20 et nous, on a déjà publié en 2021, notre code d'éthique pour le déploiement de l'intelligence artificielle.
20:30 Il y a un domaine qui me paraît particulièrement important pour préserver la santé mentale de l'avenir,
20:35 c'est que nous sachons toujours si nous avons affaire, de quelle manière nous avons affaire à une intelligence artificielle ou à un humain.
20:42 Il faudrait vraiment être très vigilant aussi dans les avatars, dans les nouveaux espaces numériques,
20:47 qui seront les métavers, qui seront gérés par des intelligences artificielles,
20:51 qu'aucun avatar généré par une intelligence artificielle ne laisse imaginer aux utilisateurs
20:58 que s'agit-il d'un humain qui est derrière.
21:01 C'est-à-dire que toujours l'intelligence artificielle nous rappelle sa présence.
21:05 Et je pense que ça c'est capital pour que l'on n'évolue pas vers un monde qui risque de se déshumaniser
21:10 parce que l'intelligence artificielle aura ses propres règles de fonctionnement
21:14 et si on ne sait pas qu'elle est là, on pourrait être amené à penser que finalement,
21:18 ce sont des règles de fonctionnement humaines normales, alors que non, ce sera les règles de fonctionnement des machines.
21:23 Ça reste qu'un modèle et l'intelligence artificielle, la définition, on l'oublie souvent,
21:27 c'est juste un système qui prend des données et qui va mimer certaines fonctions cognitives.
21:33 Donc on n'est pas à l'intelligence artificielle, n'égale pas l'être humain, n'égale pas l'intelligence, n'égale pas le cerveau, c'est pas le but.
21:39 !

Recommandations