• l’année dernière
Commission des affaires étrangères : Enjeux internationaux de l’intelligence artificielle

Catégorie

🗞
News
Transcription
00:00:00 On a une question de la part de l'Etat.
00:00:02 On a une question de la part de l'Etat.
00:00:04 On a une question de la part de l'Etat.
00:00:06 On a une question de la part de l'Etat.
00:00:08 On a une question de la part de l'Etat.
00:00:10 On a une question de la part de l'Etat.
00:00:12 On a une question de la part de l'Etat.
00:00:14 On a une question de la part de l'Etat.
00:00:16 On a une question de la part de l'Etat.
00:00:18 On a une question de la part de l'Etat.
00:00:20 On a une question de la part de l'Etat.
00:00:22 On a une question de la part de l'Etat.
00:00:24 On a une question de la part de l'Etat.
00:00:26 On a une question de la part de l'Etat.
00:00:28 On a une question de la part de l'Etat.
00:00:30 On a une question de la part de l'Etat.
00:00:32 On a une question de la part de l'Etat.
00:00:34 On a une question de la part de l'Etat.
00:00:36 On a une question de la part de l'Etat.
00:00:38 On a une question de la part de l'Etat.
00:00:40 On a une question de la part de l'Etat.
00:00:42 On a une question de la part de l'Etat.
00:00:44 On a une question de la part de l'Etat.
00:00:46 On a une question de la part de l'Etat.
00:00:48 On a une question de la part de l'Etat.
00:00:50 On a une question de la part de l'Etat.
00:00:52 On a une question de la part de l'Etat.
00:00:54 On a une question de la part de l'Etat.
00:00:56 On a une question de la part de l'Etat.
00:00:58 On a une question de la part de l'Etat.
00:01:00 On a une question de la part de l'Etat.
00:01:02 On a une question de la part de l'Etat.
00:01:04 On a une question de la part de l'Etat.
00:01:06 On a une question de la part de l'Etat.
00:01:08 On a une question de la part de l'Etat.
00:01:10 On a une question de la part de l'Etat.
00:01:12 On a une question de la part de l'Etat.
00:01:14 On a une question de la part de l'Etat.
00:01:16 On a une question de la part de l'Etat.
00:01:18 On a une question de la part de l'Etat.
00:01:20 On a une question de la part de l'Etat.
00:01:22 On a une question de la part de l'Etat.
00:01:24 On a une question de la part de l'Etat.
00:01:26 On a une question de la part de l'Etat.
00:01:28 On a une question de la part de l'Etat.
00:01:30 On a une question de la part de l'Etat.
00:01:32 On a une question de la part de l'Etat.
00:01:34 On a une question de la part de l'Etat.
00:01:36 On a une question de la part de l'Etat.
00:01:38 On a une question de la part de l'Etat.
00:01:40 On a une question de la part de l'Etat.
00:01:42 On a une question de la part de l'Etat.
00:01:44 On a une question de la part de l'Etat.
00:01:46 On a une question de la part de l'Etat.
00:01:48 On a une question de la part de l'Etat.
00:01:50 On a une question de la part de l'Etat.
00:01:52 On a une question de la part de l'Etat.
00:01:54 On a une question de la part de l'Etat.
00:01:56 On a une question de la part de l'Etat.
00:01:58 On a une question de la part de l'Etat.
00:02:00 On a une question de la part de l'Etat.
00:02:02 On a une question de la part de l'Etat.
00:02:04 On a une question de la part de l'Etat.
00:02:06 On a une question de la part de l'Etat.
00:02:08 On a une question de la part de l'Etat.
00:02:10 On a une question de la part de l'Etat.
00:02:12 On a une question de la part de l'Etat.
00:02:14 On a une question de la part de l'Etat.
00:02:16 On a une question de la part de l'Etat.
00:02:18 On a une question de la part de l'Etat.
00:02:20 On a une question de la part de l'Etat.
00:02:22 On a une question de la part de l'Etat.
00:02:24 On a une question de la part de l'Etat.
00:02:26 On a une question de la part de l'Etat.
00:02:28 On a une question de la part de l'Etat.
00:02:30 On a une question de la part de l'Etat.
00:02:32 On a une question de la part de l'Etat.
00:02:34 On a une question de la part de l'Etat.
00:02:36 On a une question de la part de l'Etat.
00:02:38 On a une question de la part de l'Etat.
00:02:40 On a une question de la part de l'Etat.
00:02:42 On a une question de la part de l'Etat.
00:02:44 On a une question de la part de l'Etat.
00:02:46 On a une question de la part de l'Etat.
00:02:48 On a une question de la part de l'Etat.
00:02:50 On a une question de la part de l'Etat.
00:02:52 On a une question de la part de l'Etat.
00:02:54 On a une question de la part de l'Etat.
00:02:56 On a une question de la part de l'Etat.
00:02:58 On a une question de la part de l'Etat.
00:03:00 On a une question de la part de l'Etat.
00:03:02 On a une question de la part de l'Etat.
00:03:04 On a une question de la part de l'Etat.
00:03:06 On a une question de la part de l'Etat.
00:03:08 On a une question de la part de l'Etat.
00:03:10 On a une question de la part de l'Etat.
00:03:12 On a une question de la part de l'Etat.
00:03:14 On a une question de la part de l'Etat.
00:03:16 On a une question de la part de l'Etat.
00:03:18 On a une question de la part de l'Etat.
00:03:20 On a une question de la part de l'Etat.
00:03:22 On a une question de la part de l'Etat.
00:03:24 On a une question de la part de l'Etat.
00:03:26 On a une question de la part de l'Etat.
00:03:28 On a une question de la part de l'Etat.
00:03:30 On a une question de la part de l'Etat.
00:03:32 On a une question de la part de l'Etat.
00:03:34 On a une question de la part de l'Etat.
00:03:36 On a une question de la part de l'Etat.
00:03:38 On a une question de la part de l'Etat.
00:03:40 On a une question de la part de l'Etat.
00:03:42 On a une question de la part de l'Etat.
00:03:44 On a une question de la part de l'Etat.
00:03:46 On a une question de la part de l'Etat.
00:03:48 On a une question de la part de l'Etat.
00:03:50 On a une question de la part de l'Etat.
00:03:52 On a une question de la part de l'Etat.
00:03:54 On a une question de la part de l'Etat.
00:03:56 On a une question de la part de l'Etat.
00:03:58 On a une question de la part de l'Etat.
00:04:00 On a une question de la part de l'Etat.
00:04:02 On a une question de la part de l'Etat.
00:04:04 On a une question de la part de l'Etat.
00:04:06 On a une question de la part de l'Etat.
00:04:08 On a une question de la part de l'Etat.
00:04:10 On a une question de la part de l'Etat.
00:04:12 On a une question de la part de l'Etat.
00:04:14 On a une question de la part de l'Etat.
00:04:16 On a une question de la part de l'Etat.
00:04:18 On a une question de la part de l'Etat.
00:04:20 On a une question de la part de l'Etat.
00:04:22 On a une question de la part de l'Etat.
00:04:24 On a une question de la part de l'Etat.
00:04:26 On a une question de la part de l'Etat.
00:04:28 On a une question de la part de l'Etat.
00:04:30 On a une question de la part de l'Etat.
00:04:32 On a une question de la part de l'Etat.
00:04:34 On a une question de la part de l'Etat.
00:04:36 On a une question de la part de l'Etat.
00:04:38 On a une question de la part de l'Etat.
00:04:40 On a une question de la part de l'Etat.
00:04:42 On a une question de la part de l'Etat.
00:04:44 On a une question de la part de l'Etat.
00:04:46 On a une question de la part de l'Etat.
00:04:48 On a une question de la part de l'Etat.
00:04:50 On a une question de la part de l'Etat.
00:04:52 On a une question de la part de l'Etat.
00:04:54 On a une question de la part de l'Etat.
00:04:56 On a une question de la part de l'Etat.
00:04:58 On a une question de la part de l'Etat.
00:05:00 On a une question de la part de l'Etat.
00:05:02 On a une question de la part de l'Etat.
00:05:04 On a une question de la part de l'Etat.
00:05:06 On a une question de la part de l'Etat.
00:05:08 On a une question de la part de l'Etat.
00:05:10 On a une question de la part de l'Etat.
00:05:12 On a une question de la part de l'Etat.
00:05:14 On a une question de la part de l'Etat.
00:05:16 On a une question de la part de l'Etat.
00:05:18 On a une question de la part de l'Etat.
00:05:20 On a une question de la part de l'Etat.
00:05:22 On a une question de la part de l'Etat.
00:05:24 On a une question de la part de l'Etat.
00:05:26 On a une question de la part de l'Etat.
00:05:28 On a une question de la part de l'Etat.
00:05:30 On a une question de la part de l'Etat.
00:05:32 On a une question de la part de l'Etat.
00:05:34 On a une question de la part de l'Etat.
00:05:36 On a une question de la part de l'Etat.
00:05:38 On a une question de la part de l'Etat.
00:05:40 On a une question de la part de l'Etat.
00:05:42 On a une question de la part de l'Etat.
00:05:44 On a une question de la part de l'Etat.
00:05:46 On a une question de la part de l'Etat.
00:05:48 On a une question de la part de l'Etat.
00:05:50 On a une question de la part de l'Etat.
00:05:52 On a une question de la part de l'Etat.
00:05:54 On a une question de la part de l'Etat.
00:05:56 On a une question de la part de l'Etat.
00:05:58 On a une question de la part de l'Etat.
00:06:00 On a une question de la part de l'Etat.
00:06:02 On a une question de la part de l'Etat.
00:06:04 On a une question de la part de l'Etat.
00:06:06 On a une question de la part de l'Etat.
00:06:08 On a une question de la part de l'Etat.
00:06:10 On a une question de la part de l'Etat.
00:06:12 On a une question de la part de l'Etat.
00:06:14 On a une question de la part de l'Etat.
00:06:16 On a une question de la part de l'Etat.
00:06:18 On a une question de la part de l'Etat.
00:06:20 On a une question de la part de l'Etat.
00:06:22 On a une question de la part de l'Etat.
00:06:24 On a une question de la part de l'Etat.
00:06:26 On a une question de la part de l'Etat.
00:06:28 On a une question de la part de l'Etat.
00:06:30 On a une question de la part de l'Etat.
00:06:32 On a une question de la part de l'Etat.
00:06:34 On a une question de la part de l'Etat.
00:06:36 On a une question de la part de l'Etat.
00:06:38 On a une question de la part de l'Etat.
00:06:40 On a une question de la part de l'Etat.
00:06:42 On a une question de la part de l'Etat.
00:06:44 On a une question de la part de l'Etat.
00:06:46 On a une question de la part de l'Etat.
00:06:48 On a une question de la part de l'Etat.
00:06:50 On a une question de la part de l'Etat.
00:06:52 On a une question de la part de l'Etat.
00:06:54 On a une question de la part de l'Etat.
00:06:56 On a une question de la part de l'Etat.
00:06:58 On a une question de la part de l'Etat.
00:07:00 On a une question de la part de l'Etat.
00:07:02 On a une question de la part de l'Etat.
00:07:04 On a une question de la part de l'Etat.
00:07:06 On a une question de la part de l'Etat.
00:07:08 On a une question de la part de l'Etat.
00:07:10 On a une question de la part de l'Etat.
00:07:12 On a une question de la part de l'Etat.
00:07:14 On a une question de la part de l'Etat.
00:07:16 On a une question de la part de l'Etat.
00:07:18 On a une question de la part de l'Etat.
00:07:20 On a une question de la part de l'Etat.
00:07:22 On a une question de la part de l'Etat.
00:07:24 On a une question de la part de l'Etat.
00:07:26 On a une question de la part de l'Etat.
00:07:28 On a une question de la part de l'Etat.
00:07:30 On a une question de la part de l'Etat.
00:07:32 On a une question de la part de l'Etat.
00:07:34 On a une question de la part de l'Etat.
00:07:36 On a une question de la part de l'Etat.
00:07:38 On a une question de la part de l'Etat.
00:07:40 On a une question de la part de l'Etat.
00:07:42 On a une question de la part de l'Etat.
00:07:44 On a une question de la part de l'Etat.
00:07:46 On a une question de la part de l'Etat.
00:07:48 On a une question de la part de l'Etat.
00:07:50 On a une question de la part de l'Etat.
00:07:52 On a une question de la part de l'Etat.
00:07:54 On a une question de la part de l'Etat.
00:07:56 On a une question de la part de l'Etat.
00:07:58 On a une question de la part de l'Etat.
00:08:00 On a une question de la part de l'Etat.
00:08:02 On a une question de la part de l'Etat.
00:08:04 On a une question de la part de l'Etat.
00:08:06 On a une question de la part de l'Etat.
00:08:08 On a une question de la part de l'Etat.
00:08:10 On a une question de la part de l'Etat.
00:08:12 On a une question de la part de l'Etat.
00:08:14 On a une question de la part de l'Etat.
00:08:16 On a une question de la part de l'Etat.
00:08:18 On a une question de la part de l'Etat.
00:08:20 On a une question de la part de l'Etat.
00:08:22 On a une question de la part de l'Etat.
00:08:24 On a une question de la part de l'Etat.
00:08:26 On a une question de la part de l'Etat.
00:08:28 On a une question de la part de l'Etat.
00:08:30 On a une question de la part de l'Etat.
00:08:32 On a une question de la part de l'Etat.
00:08:34 On a une question de la part de l'Etat.
00:08:36 On a une question de la part de l'Etat.
00:08:38 On a une question de la part de l'Etat.
00:08:40 On a une question de la part de l'Etat.
00:08:42 On a une question de la part de l'Etat.
00:08:44 On a une question de la part de l'Etat.
00:08:46 On a une question de la part de l'Etat.
00:08:48 On a une question de la part de l'Etat.
00:08:50 On a une question de la part de l'Etat.
00:08:52 On a une question de la part de l'Etat.
00:08:54 On a une question de la part de l'Etat.
00:08:56 On a une question de la part de l'Etat.
00:08:58 On a une question de la part de l'Etat.
00:09:00 On a une question de la part de l'Etat.
00:09:02 On a une question de la part de l'Etat.
00:09:04 On a une question de la part de l'Etat.
00:09:06 On a une question de la part de l'Etat.
00:09:08 On a une question de la part de l'Etat.
00:09:10 On a une question de la part de l'Etat.
00:09:12 On a une question de la part de l'Etat.
00:09:14 On a une question de la part de l'Etat.
00:09:16 On a une question de la part de l'Etat.
00:09:18 On a une question de la part de l'Etat.
00:09:20 On a une question de la part de l'Etat.
00:09:22 On a une question de la part de l'Etat.
00:09:24 On a une question de la part de l'Etat.
00:09:26 On a une question de la part de l'Etat.
00:09:28 On a une question de la part de l'Etat.
00:09:30 On a une question de la part de l'Etat.
00:09:32 On a une question de la part de l'Etat.
00:09:34 On a une question de la part de l'Etat.
00:09:36 On a une question de la part de l'Etat.
00:09:38 On a une question de la part de l'Etat.
00:09:40 On a une question de la part de l'Etat.
00:09:42 On a une question de la part de l'Etat.
00:09:44 On a une question de la part de l'Etat.
00:09:46 On a une question de la part de l'Etat.
00:09:48 On a une question de la part de l'Etat.
00:09:50 On a une question de la part de l'Etat.
00:09:52 On a une question de la part de l'Etat.
00:09:54 On a une question de la part de l'Etat.
00:09:56 On a une question de la part de l'Etat.
00:09:58 On a une question de la part de l'Etat.
00:10:00 On a une question de la part de l'Etat.
00:10:02 On a une question de la part de l'Etat.
00:10:04 On a une question de la part de l'Etat.
00:10:06 On a une question de la part de l'Etat.
00:10:08 On a une question de la part de l'Etat.
00:10:10 On a une question de la part de l'Etat.
00:10:12 On a une question de la part de l'Etat.
00:10:14 On a une question de la part de l'Etat.
00:10:16 On a une question de la part de l'Etat.
00:10:18 On a une question de la part de l'Etat.
00:10:20 On a une question de la part de l'Etat.
00:10:22 On a une question de la part de l'Etat.
00:10:24 On a une question de la part de l'Etat.
00:10:26 On a une question de la part de l'Etat.
00:10:28 On a une question de la part de l'Etat.
00:10:30 On a une question de la part de l'Etat.
00:10:32 On a une question de la part de l'Etat.
00:10:34 On a une question de la part de l'Etat.
00:10:36 On a une question de la part de l'Etat.
00:10:38 On a une question de la part de l'Etat.
00:10:40 On a une question de la part de l'Etat.
00:10:42 On a une question de la part de l'Etat.
00:10:44 On a une question de la part de l'Etat.
00:10:46 On a une question de la part de l'Etat.
00:10:48 On a une question de la part de l'Etat.
00:10:50 On a une question de la part de l'Etat.
00:10:52 On a une question de la part de l'Etat.
00:10:54 On a une question de la part de l'Etat.
00:10:56 On a une question de la part de l'Etat.
00:10:58 On a une question de la part de l'Etat.
00:11:00 On a une question de la part de l'Etat.
00:11:02 On a une question de la part de l'Etat.
00:11:04 On a une question de la part de l'Etat.
00:11:06 On a une question de la part de l'Etat.
00:11:08 On a une question de la part de l'Etat.
00:11:10 On a une question de la part de l'Etat.
00:11:12 On a une question de la part de l'Etat.
00:11:14 On a une question de la part de l'Etat.
00:11:16 On a une question de la part de l'Etat.
00:11:18 On a une question de la part de l'Etat.
00:11:20 On a une question de la part de l'Etat.
00:11:22 On a une question de la part de l'Etat.
00:11:24 On a une question de la part de l'Etat.
00:11:26 On a une question de la part de l'Etat.
00:11:28 On a une question de la part de l'Etat.
00:11:30 On a une question de la part de l'Etat.
00:11:32 On a une question de la part de l'Etat.
00:11:34 On a une question de la part de l'Etat.
00:11:36 On a une question de la part de l'Etat.
00:11:38 On a une question de la part de l'Etat.
00:11:40 On a une question de la part de l'Etat.
00:11:42 On a une question de la part de l'Etat.
00:11:44 On a une question de la part de l'Etat.
00:11:46 On a une question de la part de l'Etat.
00:11:48 On a une question de la part de l'Etat.
00:11:50 On a une question de la part de l'Etat.
00:11:52 On a une question de la part de l'Etat.
00:11:54 On a une question de la part de l'Etat.
00:11:56 On a une question de la part de l'Etat.
00:11:58 On a une question de la part de l'Etat.
00:12:00 On a une question de la part de l'Etat.
00:12:02 On a une question de la part de l'Etat.
00:12:04 On a une question de la part de l'Etat.
00:12:06 On a une question de la part de l'Etat.
00:12:08 On a une question de la part de l'Etat.
00:12:10 On a une question de la part de l'Etat.
00:12:12 On a une question de la part de l'Etat.
00:12:14 On a une question de la part de l'Etat.
00:12:16 On a une question de la part de l'Etat.
00:12:18 On a une question de la part de l'Etat.
00:12:20 On a une question de la part de l'Etat.
00:12:22 On a une question de la part de l'Etat.
00:12:24 On a une question de la part de l'Etat.
00:12:26 On a une question de la part de l'Etat.
00:12:28 On a une question de la part de l'Etat.
00:12:30 On a une question de la part de l'Etat.
00:12:32 On a une question de la part de l'Etat.
00:12:34 On a une question de la part de l'Etat.
00:12:36 On a une question de la part de l'Etat.
00:12:38 On a une question de la part de l'Etat.
00:12:40 On a une question de la part de l'Etat.
00:12:42 On a une question de la part de l'Etat.
00:12:44 On a une question de la part de l'Etat.
00:12:46 On a une question de la part de l'Etat.
00:12:48 On a une question de la part de l'Etat.
00:12:50 On a une question de la part de l'Etat.
00:12:52 On a une question de la part de l'Etat.
00:12:54 On a une question de la part de l'Etat.
00:12:56 On a une question de la part de l'Etat.
00:12:58 On a une question de la part de l'Etat.
00:13:00 On a une question de la part de l'Etat.
00:13:02 On a une question de la part de l'Etat.
00:13:04 On a une question de la part de l'Etat.
00:13:06 On a une question de la part de l'Etat.
00:13:08 On a une question de la part de l'Etat.
00:13:10 On a une question de la part de l'Etat.
00:13:12 On a une question de la part de l'Etat.
00:13:14 On a une question de la part de l'Etat.
00:13:16 On a une question de la part de l'Etat.
00:13:18 On a une question de la part de l'Etat.
00:13:20 On a une question de la part de l'Etat.
00:13:22 On a une question de la part de l'Etat.
00:13:24 On a une question de la part de l'Etat.
00:13:26 On a une question de la part de l'Etat.
00:13:28 On a une question de la part de l'Etat.
00:13:30 On a une question de la part de l'Etat.
00:13:32 On a une question de la part de l'Etat.
00:13:34 On a une question de la part de l'Etat.
00:13:36 On a une question de la part de l'Etat.
00:13:38 On a une question de la part de l'Etat.
00:13:40 On a une question de la part de l'Etat.
00:13:42 On a une question de la part de l'Etat.
00:13:44 On a une question de la part de l'Etat.
00:13:46 On a une question de la part de l'Etat.
00:13:48 On a une question de la part de l'Etat.
00:13:50 On a une question de la part de l'Etat.
00:13:52 On a une question de la part de l'Etat.
00:13:54 On a une question de la part de l'Etat.
00:13:56 On a une question de la part de l'Etat.
00:13:58 On a une question de la part de l'Etat.
00:14:00 On a une question de la part de l'Etat.
00:14:02 On a une question de la part de l'Etat.
00:14:04 On a une question de la part de l'Etat.
00:14:06 On a une question de la part de l'Etat.
00:14:08 On a une question de la part de l'Etat.
00:14:10 On a une question de la part de l'Etat.
00:14:12 On a une question de la part de l'Etat.
00:14:14 On a une question de la part de l'Etat.
00:14:16 On a une question de la part de l'Etat.
00:14:18 On a une question de la part de l'Etat.
00:14:20 On a une question de la part de l'Etat.
00:14:22 On a une question de la part de l'Etat.
00:14:24 On a une question de la part de l'Etat.
00:14:26 On a une question de la part de l'Etat.
00:14:28 On a une question de la part de l'Etat.
00:14:30 On a une question de la part de l'Etat.
00:14:32 On a une question de la part de l'Etat.
00:14:34 On a une question de la part de l'Etat.
00:14:36 On a une question de la part de l'Etat.
00:14:38 On a une question de la part de l'Etat.
00:14:40 On a une question de la part de l'Etat.
00:14:42 On a une question de la part de l'Etat.
00:14:44 On a une question de la part de l'Etat.
00:14:46 On a une question de la part de l'Etat.
00:14:48 On a une question de la part de l'Etat.
00:14:50 On a une question de la part de l'Etat.
00:14:52 On a une question de la part de l'Etat.
00:14:54 On a une question de la part de l'Etat.
00:14:56 On a une question de la part de l'Etat.
00:14:58 On a une question de la part de l'Etat.
00:15:00 On a une question de la part de l'Etat.
00:15:02 On a une question de la part de l'Etat.
00:15:04 On a une question de la part de l'Etat.
00:15:06 On a une question de la part de l'Etat.
00:15:08 On a une question de la part de l'Etat.
00:15:10 On a une question de la part de l'Etat.
00:15:12 On a une question de la part de l'Etat.
00:15:14 On a une question de la part de l'Etat.
00:15:16 On a une question de la part de l'Etat.
00:15:18 On a une question de la part de l'Etat.
00:15:20 On a une question de la part de l'Etat.
00:15:22 On a une question de la part de l'Etat.
00:15:24 On a une question de la part de l'Etat.
00:15:26 On a une question de la part de l'Etat.
00:15:28 On a une question de la part de l'Etat.
00:15:30 On a une question de la part de l'Etat.
00:15:32 On a une question de la part de l'Etat.
00:15:34 On a une question de la part de l'Etat.
00:15:36 On a une question de la part de l'Etat.
00:15:38 On a une question de la part de l'Etat.
00:15:40 On a une question de la part de l'Etat.
00:15:42 On a une question de la part de l'Etat.
00:15:44 On a une question de la part de l'Etat.
00:15:46 On a une question de la part de l'Etat.
00:15:48 On a une question de la part de l'Etat.
00:15:50 On a une question de la part de l'Etat.
00:15:52 On a une question de la part de l'Etat.
00:15:54 On a une question de la part de l'Etat.
00:15:56 On a une question de la part de l'Etat.
00:15:58 On a une question de la part de l'Etat.
00:16:00 On a une question de la part de l'Etat.
00:16:02 On a une question de la part de l'Etat.
00:16:04 On a une question de la part de l'Etat.
00:16:06 On a une question de la part de l'Etat.
00:16:08 On a une question de la part de l'Etat.
00:16:10 On a une question de la part de l'Etat.
00:16:12 On a une question de la part de l'Etat.
00:16:14 On a une question de la part de l'Etat.
00:16:16 On a une question de la part de l'Etat.
00:16:18 On a une question de la part de l'Etat.
00:16:20 On a une question de la part de l'Etat.
00:16:22 On a une question de la part de l'Etat.
00:16:24 On a une question de la part de l'Etat.
00:16:26 On a une question de la part de l'Etat.
00:16:28 On a une question de la part de l'Etat.
00:16:30 On a une question de la part de l'Etat.
00:16:32 On a une question de la part de l'Etat.
00:16:34 On a une question de la part de l'Etat.
00:16:36 On a une question de la part de l'Etat.
00:16:38 On a une question de la part de l'Etat.
00:16:40 On a une question de la part de l'Etat.
00:16:42 On a une question de la part de l'Etat.
00:16:44 On a une question de la part de l'Etat.
00:16:46 On a une question de la part de l'Etat.
00:16:48 On a une question de la part de l'Etat.
00:16:50 On a une question de la part de l'Etat.
00:16:52 On a une question de la part de l'Etat.
00:16:54 On a une question de la part de l'Etat.
00:16:56 On a une question de la part de l'Etat.
00:16:58 On a une question de la part de l'Etat.
00:17:00 On a une question de la part de l'Etat.
00:17:02 On a une question de la part de l'Etat.
00:17:04 On a une question de la part de l'Etat.
00:17:06 On a une question de la part de l'Etat.
00:17:08 On a une question de la part de l'Etat.
00:17:10 On a une question de la part de l'Etat.
00:17:12 On a une question de la part de l'Etat.
00:17:14 On a une question de la part de l'Etat.
00:17:16 On a une question de la part de l'Etat.
00:17:18 On a une question de la part de l'Etat.
00:17:20 On a une question de la part de l'Etat.
00:17:22 On a une question de la part de l'Etat.
00:17:24 On a une question de la part de l'Etat.
00:17:26 On a une question de la part de l'Etat.
00:17:28 On a une question de la part de l'Etat.
00:17:30 On a une question de la part de l'Etat.
00:17:32 On a une question de la part de l'Etat.
00:17:34 On a une question de la part de l'Etat.
00:17:36 On a une question de la part de l'Etat.
00:17:38 On a une question de la part de l'Etat.
00:17:40 On a une question de la part de l'Etat.
00:17:42 On a une question de la part de l'Etat.
00:17:44 On a une question de la part de l'Etat.
00:17:46 On a une question de la part de l'Etat.
00:17:48 On a une question de la part de l'Etat.
00:17:50 On a une question de la part de l'Etat.
00:17:52 On a une question de la part de l'Etat.
00:17:54 On a une question de la part de l'Etat.
00:17:56 On a une question de la part de l'Etat.
00:17:58 On a une question de la part de l'Etat.
00:18:00 On a une question de la part de l'Etat.
00:18:02 On a une question de la part de l'Etat.
00:18:04 On a une question de la part de l'Etat.
00:18:06 On a une question de la part de l'Etat.
00:18:08 On a une question de la part de l'Etat.
00:18:10 On a une question de la part de l'Etat.
00:18:12 On a une question de la part de l'Etat.
00:18:14 On a une question de la part de l'Etat.
00:18:16 On a une question de la part de l'Etat.
00:18:18 On a une question de la part de l'Etat.
00:18:20 On a une question de la part de l'Etat.
00:18:22 On a une question de la part de l'Etat.
00:18:24 On a une question de la part de l'Etat.
00:18:26 On a une question de la part de l'Etat.
00:18:28 On a une question de la part de l'Etat.
00:18:30 On a une question de la part de l'Etat.
00:18:32 On a une question de la part de l'Etat.
00:18:34 On a une question de la part de l'Etat.
00:18:36 On a une question de la part de l'Etat.
00:18:38 On a une question de la part de l'Etat.
00:18:40 On a une question de la part de l'Etat.
00:18:42 On a une question de la part de l'Etat.
00:18:44 On a une question de la part de l'Etat.
00:18:46 On a une question de la part de l'Etat.
00:18:48 On a une question de la part de l'Etat.
00:18:50 On a une question de la part de l'Etat.
00:18:52 On a une question de la part de l'Etat.
00:18:54 On a une question de la part de l'Etat.
00:18:56 On a une question de la part de l'Etat.
00:18:58 On a une question de la part de l'Etat.
00:19:00 On a une question de la part de l'Etat.
00:19:02 On a une question de la part de l'Etat.
00:19:04 On a une question de la part de l'Etat.
00:19:06 On a une question de la part de l'Etat.
00:19:08 On a une question de la part de l'Etat.
00:19:10 On a une question de la part de l'Etat.
00:19:12 On a une question de la part de l'Etat.
00:19:14 On a une question de la part de l'Etat.
00:19:16 On a une question de la part de l'Etat.
00:19:18 On a une question de la part de l'Etat.
00:19:20 On a une question de la part de l'Etat.
00:19:22 On a une question de la part de l'Etat.
00:19:24 On a une question de la part de l'Etat.
00:19:26 On a une question de la part de l'Etat.
00:19:28 On a une question de la part de l'Etat.
00:19:30 On a une question de la part de l'Etat.
00:19:32 On a une question de la part de l'Etat.
00:19:34 On a une question de la part de l'Etat.
00:19:36 On a une question de la part de l'Etat.
00:19:38 On a une question de la part de l'Etat.
00:19:40 On a une question de la part de l'Etat.
00:19:42 On a une question de la part de l'Etat.
00:19:44 On a une question de la part de l'Etat.
00:19:46 On a une question de la part de l'Etat.
00:19:48 On a une question de la part de l'Etat.
00:19:50 On a une question de la part de l'Etat.
00:19:52 On a une question de la part de l'Etat.
00:19:54 On a une question de la part de l'Etat.
00:19:56 On a une question de la part de l'Etat.
00:19:58 On a une question de la part de l'Etat.
00:20:00 On a une question de la part de l'Etat.
00:20:02 On a une question de la part de l'Etat.
00:20:04 On a une question de la part de l'Etat.
00:20:06 On a une question de la part de l'Etat.
00:20:08 On a une question de la part de l'Etat.
00:20:10 On a une question de la part de l'Etat.
00:20:12 On a une question de la part de l'Etat.
00:20:14 On a une question de la part de l'Etat.
00:20:16 On a une question de la part de l'Etat.
00:20:18 On a une question de la part de l'Etat.
00:20:20 On a une question de la part de l'Etat.
00:20:22 On a une question de la part de l'Etat.
00:20:24 On a une question de la part de l'Etat.
00:20:26 On a une question de la part de l'Etat.
00:20:28 On a une question de la part de l'Etat.
00:20:30 On a une question de la part de l'Etat.
00:20:32 On a une question de la part de l'Etat.
00:20:34 On a une question de la part de l'Etat.
00:20:36 On a une question de la part de l'Etat.
00:20:38 On a une question de la part de l'Etat.
00:20:40 On a une question de la part de l'Etat.
00:20:42 On a une question de la part de l'Etat.
00:20:44 On a une question de la part de l'Etat.
00:20:46 On a une question de la part de l'Etat.
00:20:48 On a une question de la part de l'Etat.
00:20:50 On a une question de la part de l'Etat.
00:20:52 On a une question de la part de l'Etat.
00:20:54 On a une question de la part de l'Etat.
00:20:56 On a une question de la part de l'Etat.
00:20:58 On a une question de la part de l'Etat.
00:21:00 On a une question de la part de l'Etat.
00:21:02 On a une question de la part de l'Etat.
00:21:04 On a une question de la part de l'Etat.
00:21:06 On a une question de la part de l'Etat.
00:21:08 On a une question de la part de l'Etat.
00:21:10 On a une question de la part de l'Etat.
00:21:12 On a une question de la part de l'Etat.
00:21:14 On a une question de la part de l'Etat.
00:21:16 On a une question de la part de l'Etat.
00:21:18 On a une question de la part de l'Etat.
00:21:20 On a une question de la part de l'Etat.
00:21:22 On a une question de la part de l'Etat.
00:21:24 On a une question de la part de l'Etat.
00:21:26 On a une question de la part de l'Etat.
00:21:28 On a une question de la part de l'Etat.
00:21:30 On a une question de la part de l'Etat.
00:21:32 On a une question de la part de l'Etat.
00:21:34 On a une question de la part de l'Etat.
00:21:36 On a une question de la part de l'Etat.
00:21:38 On a une question de la part de l'Etat.
00:21:40 On a une question de la part de l'Etat.
00:21:42 On a une question de la part de l'Etat.
00:21:44 On a une question de la part de l'Etat.
00:21:46 On a une question de la part de l'Etat.
00:21:48 On a une question de la part de l'Etat.
00:21:50 On a une question de la part de l'Etat.
00:21:52 On a une question de la part de l'Etat.
00:21:54 On a une question de la part de l'Etat.
00:21:56 On a une question de la part de l'Etat.
00:21:58 On a une question de la part de l'Etat.
00:22:00 On a une question de la part de l'Etat.
00:22:02 On a une question de la part de l'Etat.
00:22:04 On a une question de la part de l'Etat.
00:22:06 On a une question de la part de l'Etat.
00:22:08 On a une question de la part de l'Etat.
00:22:10 On a une question de la part de l'Etat.
00:22:12 On a une question de la part de l'Etat.
00:22:14 On a une question de la part de l'Etat.
00:22:16 On a une question de la part de l'Etat.
00:22:18 On a une question de la part de l'Etat.
00:22:20 On a une question de la part de l'Etat.
00:22:22 On a une question de la part de l'Etat.
00:22:24 On a une question de la part de l'Etat.
00:22:26 On a une question de la part de l'Etat.
00:22:28 On a une question de la part de l'Etat.
00:22:30 On a une question de la part de l'Etat.
00:22:32 On a une question de la part de l'Etat.
00:22:34 On a une question de la part de l'Etat.
00:22:36 On a une question de la part de l'Etat.
00:22:38 On a une question de la part de l'Etat.
00:22:40 On a une question de la part de l'Etat.
00:22:42 On a une question de la part de l'Etat.
00:22:44 On a une question de la part de l'Etat.
00:22:46 On a une question de la part de l'Etat.
00:22:48 On a une question de la part de l'Etat.
00:22:50 On a une question de la part de l'Etat.
00:22:52 On a une question de la part de l'Etat.
00:22:54 On a une question de la part de l'Etat.
00:22:56 On a une question de la part de l'Etat.
00:22:58 On a une question de la part de l'Etat.
00:23:00 On a une question de la part de l'Etat.
00:23:02 On a une question de la part de l'Etat.
00:23:04 On a une question de la part de l'Etat.
00:23:06 On a une question de la part de l'Etat.
00:23:08 On a une question de la part de l'Etat.
00:23:10 On a une question de la part de l'Etat.
00:23:12 On a une question de la part de l'Etat.
00:23:14 On a une question de la part de l'Etat.
00:23:16 On a une question de la part de l'Etat.
00:23:18 On a une question de la part de l'Etat.
00:23:20 On a une question de la part de l'Etat.
00:23:22 On a une question de la part de l'Etat.
00:23:24 On a une question de la part de l'Etat.
00:23:26 On a une question de la part de l'Etat.
00:23:28 On a une question de la part de l'Etat.
00:23:30 On a une question de la part de l'Etat.
00:23:32 On a une question de la part de l'Etat.
00:23:34 On a une question de la part de l'Etat.
00:23:36 On a une question de la part de l'Etat.
00:23:38 On a une question de la part de l'Etat.
00:23:40 On a une question de la part de l'Etat.
00:23:42 On a une question de la part de l'Etat.
00:23:44 On a une question de la part de l'Etat.
00:23:46 On a une question de la part de l'Etat.
00:23:48 On a une question de la part de l'Etat.
00:23:50 On a une question de la part de l'Etat.
00:23:52 On a une question de la part de l'Etat.
00:23:54 On a une question de la part de l'Etat.
00:23:56 On a une question de la part de l'Etat.
00:23:58 On a une question de la part de l'Etat.
00:24:00 On a une question de la part de l'Etat.
00:24:02 On a une question de la part de l'Etat.
00:24:04 On a une question de la part de l'Etat.
00:24:06 On a une question de la part de l'Etat.
00:24:08 On a une question de la part de l'Etat.
00:24:10 On a une question de la part de l'Etat.
00:24:12 On a une question de la part de l'Etat.
00:24:14 On a une question de la part de l'Etat.
00:24:16 On a une question de la part de l'Etat.
00:24:18 On a une question de la part de l'Etat.
00:24:20 On a une question de la part de l'Etat.
00:24:22 On a une question de la part de l'Etat.
00:24:24 On a une question de la part de l'Etat.
00:24:26 On a une question de la part de l'Etat.
00:24:28 On a une question de la part de l'Etat.
00:24:30 On a une question de la part de l'Etat.
00:24:32 On a une question de la part de l'Etat.
00:24:34 On a une question de la part de l'Etat.
00:24:36 On a une question de la part de l'Etat.
00:24:38 On a une question de la part de l'Etat.
00:24:40 On a une question de la part de l'Etat.
00:24:42 On a une question de la part de l'Etat.
00:24:44 On a une question de la part de l'Etat.
00:24:46 On a une question de la part de l'Etat.
00:24:48 On a une question de la part de l'Etat.
00:24:50 On a une question de la part de l'Etat.
00:24:52 On a une question de la part de l'Etat.
00:24:54 On a une question de la part de l'Etat.
00:24:56 On a une question de la part de l'Etat.
00:24:58 On a une question de la part de l'Etat.
00:25:00 On a une question de la part de l'Etat.
00:25:02 On a une question de la part de l'Etat.
00:25:04 On a une question de la part de l'Etat.
00:25:06 On a une question de la part de l'Etat.
00:25:08 On a une question de la part de l'Etat.
00:25:10 On a une question de la part de l'Etat.
00:25:12 On a une question de la part de l'Etat.
00:25:14 On a une question de la part de l'Etat.
00:25:16 On a une question de la part de l'Etat.
00:25:18 On a une question de la part de l'Etat.
00:25:20 On a une question de la part de l'Etat.
00:25:22 On a une question de la part de l'Etat.
00:25:24 On a une question de la part de l'Etat.
00:25:26 On a une question de la part de l'Etat.
00:25:28 On a une question de la part de l'Etat.
00:25:30 On a une question de la part de l'Etat.
00:25:32 On a une question de la part de l'Etat.
00:25:34 On a une question de la part de l'Etat.
00:25:36 On a une question de la part de l'Etat.
00:25:38 On a une question de la part de l'Etat.
00:25:40 On a une question de la part de l'Etat.
00:25:42 On a une question de la part de l'Etat.
00:25:44 On a une question de la part de l'Etat.
00:25:46 On a une question de la part de l'Etat.
00:25:48 On a une question de la part de l'Etat.
00:25:50 On a une question de la part de l'Etat.
00:25:52 On a une question de la part de l'Etat.
00:25:54 On a une question de la part de l'Etat.
00:25:56 On a une question de la part de l'Etat.
00:25:58 On a une question de la part de l'Etat.
00:26:00 On a une question de la part de l'Etat.
00:26:02 On a une question de la part de l'Etat.
00:26:04 On a une question de la part de l'Etat.
00:26:06 On a une question de la part de l'Etat.
00:26:08 On a une question de la part de l'Etat.
00:26:10 On a une question de la part de l'Etat.
00:26:12 On a une question de la part de l'Etat.
00:26:14 On a une question de la part de l'Etat.
00:26:16 On a une question de la part de l'Etat.
00:26:18 On a une question de la part de l'Etat.
00:26:20 On a une question de la part de l'Etat.
00:26:22 On a une question de la part de l'Etat.
00:26:24 On a une question de la part de l'Etat.
00:26:26 On a une question de la part de l'Etat.
00:26:28 On a une question de la part de l'Etat.
00:26:30 On a une question de la part de l'Etat.
00:26:32 On a une question de la part de l'Etat.
00:26:34 On a une question de la part de l'Etat.
00:26:36 On pourra revenir sur les différences
00:26:38 entre les modèles chinois, américain et européen.
00:26:40 entre les modèles chinois, américain et européen.
00:26:42 Mais il faut bien retenir que les financements
00:26:46 et les innovations privées en intelligence artificielle
00:26:48 reposent sur des bases étatiques
00:26:50 et en particulier militaires.
00:26:52 et en particulier militaires.
00:26:54 Comme le disait déjà Galbraith dans les années 60,
00:26:56 il faut abandonner le mythe de l'entrepreneur autonome
00:26:58 qui s'y étend aux économistes.
00:27:00 La réalité, c'est que le monde des technologies avancées
00:27:02 La réalité, c'est que le monde des technologies avancées
00:27:04 est un monde d'Etat, de politique industrielle,
00:27:06 de financement public de la recherche,
00:27:08 de programmes militaires.
00:27:10 Car seul l'Etat peut concéder
00:27:12 des investissements aussi importants
00:27:14 dont la rentabilité est incertaine.
00:27:16 dont la rentabilité est incertaine.
00:27:18 Seul l'Etat peut garantir à des entreprises
00:27:20 un retour sur investissement
00:27:22 à l'abri des fluctuations du marché.
00:27:24 Et ce n'est pas pour rien que les grandes entreprises du numérique
00:27:26 proviennent d'Etats interventionnistes
00:27:28 qui n'hésitent pas sur les dépenses militaires
00:27:30 et les contrats à long terme.
00:27:32 Je terminerai cette intervention
00:27:34 par un pas de côté
00:27:36 qui peut s'assimiler à une remarque de bon sens
00:27:38 mais qui me semble être la clé de lecture la plus heuristique
00:27:40 pour employer un terme jargonnant
00:27:42 pour embrasser du regard
00:27:44 tous les enjeux
00:27:46 que soulève l'intelligence artificielle.
00:27:48 Les individus, les organisations,
00:27:50 les entreprises, les Etats,
00:27:52 tous ceux qui financent l'intelligence artificielle
00:27:54 et indépendamment
00:27:56 des objectifs propres
00:27:58 ont pour but
00:28:00 la substitution
00:28:02 la plus large possible
00:28:04 des machines aux êtres humains
00:28:06 afin de dégager des gains de productivité
00:28:08 au sens large.
00:28:10 C'est à dire remplacer des êtres humains
00:28:12 par des machines jugées plus performantes,
00:28:14 moins coûteuses,
00:28:16 qui ne perçoivent pas de salaire, d'allocations,
00:28:18 de pensions de retraite, etc.
00:28:20 Et aussi des machines
00:28:22 moins dangereuses,
00:28:24 parce qu'elles ne sont pas susceptibles,
00:28:26 sauf innovation radicale,
00:28:28 de se prêver de manifester,
00:28:30 de refuser d'obéir aux ordres
00:28:32 ou de se révolter.
00:28:34 On peut se mettre à la place d'un Etat belligérant.
00:28:36 Il peut sembler plus efficient aussi
00:28:38 d'un point de vue politique et des buts de guerre
00:28:40 de remplacer les soldats par des machines
00:28:42 ne serait-ce que pour éviter
00:28:44 les réactions aussi de la population
00:28:46 quand on va apprendre la mort,
00:28:48 les premières morts au combat.
00:28:50 Alors évidemment,
00:28:52 cette recherche de productivité pose des questions essentielles.
00:28:54 Et je terminerai par là.
00:28:56 Que fait-on d'une masse importante
00:28:58 de la population sans emploi
00:29:00 ou reléguée à des tâches d'annexe
00:29:02 qui ne lui permettent pas de subvenir à ses besoins ?
00:29:04 Quels sont les débouchés
00:29:06 d'une entreprise
00:29:08 dont la clientèle se retrouverait impécunieuse,
00:29:10 incapable de consommer
00:29:12 le fruit de la production de l'intelligence artificielle ?
00:29:14 Comment maintenir
00:29:16 la confiance d'une population
00:29:18 et donc étouffer ses élans sédicieux
00:29:20 si son lien à la puissance publique
00:29:22 est médié par des machines ?
00:29:24 Qui plus est, des machines
00:29:26 dont le fonctionnement par nature est opaque.
00:29:28 Parce que c'est bien là un trait distinctif
00:29:30 d'une intelligence artificielle
00:29:32 que de produire des résultats sans qu'on sache
00:29:34 exactement comment elle y est parvenue.
00:29:36 Bref, voilà donc quelques questions
00:29:38 qui me semblent essentielles que pose le développement
00:29:40 d'intelligence artificielle.
00:29:42 Et je m'arrête là pour le moment.
00:29:44 Oui, ça va intéresser M. Lecoq
00:29:46 parce que fondamentalement,
00:29:48 c'est le problème de la plus-value que vous posez, Yves Finet.
00:29:50 Le gain de plus-value
00:29:52 va à celui qui possède
00:29:54 ces techniques. Mais qu'est-ce qu'on en fait
00:29:56 si les salariés
00:29:58 ne sont plus
00:30:00 bénéficiaires de ça,
00:30:02 comme les salariés sont aussi les consommateurs ?
00:30:04 Ça met en cause le théorème
00:30:06 de Nyford.
00:30:08 Donc on est...
00:30:10 Mais là, je pense que
00:30:12 le vice-président Lecoq va...
00:30:14 Le vice-président Lecoq réagira.
00:30:16 Madame Malas, excusez-moi.
00:30:18 Oui, il faut couper votre micro.
00:30:20 C'est à vous. Après cette
00:30:22 très intéressante
00:30:24 introduction qui nous permet de...
00:30:26 Ça fait penser à la phrase
00:30:28 de Tocqueville, "Le passé n'éclairant
00:30:30 plus l'avenir, l'homme s'avance dans le ténèbre."
00:30:32 Vous avez parfaitement éclairé le passé
00:30:34 et donc nous ne nous avançons plus dans les ténèbres.
00:30:36 Madame Malas.
00:30:38 Merci.
00:30:44 Monsieur le président, merci beaucoup de vous intéresser.
00:30:48 Non, ça ne marche pas ?
00:30:50 Plus ? Là, ça va ?
00:30:54 Et là ?
00:30:58 Ma voix de
00:31:00 Cressel arrive jusqu'à vos
00:31:02 tendres oreilles.
00:31:04 Monsieur le président, merci beaucoup pour l'invitation.
00:31:06 Merci surtout d'avoir pris le sujet,
00:31:08 de vous y pencher
00:31:10 et de nous donner la parole
00:31:12 ce matin. Mesdames,
00:31:14 messieurs, les députés, bonjour
00:31:16 et merci pour votre présence.
00:31:18 Je vais essayer d'être complémentaire
00:31:20 avec les propos de Charles
00:31:22 et donc je ne vais pas du tout
00:31:24 revenir, pour ne pas faire de redondance,
00:31:26 sur l'historique 1956,
00:31:28 1950
00:31:30 et surtout 1943,
00:31:32 la date des premiers textes
00:31:34 et des premiers papiers de recherche
00:31:36 avec McCulloch et Pitts sur
00:31:38 en gros cette obsession, à un moment donné
00:31:40 qui est arrivée et qui est interdisciplinaire
00:31:42 pour essayer de comprendre si on était capable
00:31:44 de construire des modèles
00:31:46 d'intelligence dite
00:31:48 artificielle qui seraient capables de reproduire
00:31:50 l'intelligence biologique humaine. C'était ça
00:31:52 un peu la question obsessionnelle et
00:31:54 initiale des chercheurs du domaine.
00:31:56 Je ferme la parenthèse parce que je crois que
00:31:58 entre monsieur le président
00:32:00 et Charles Thibou, vous avez une vision
00:32:02 exhaustive de cette historique.
00:32:04 Si je devais maintenant plonger vers le
00:32:06 présent et plutôt d'ailleurs en perspective
00:32:08 vers le futur,
00:32:10 le thème de la table ronde c'est, il me semble,
00:32:12 enjeux internationaux de l'intelligence
00:32:14 artificielle si je ne me trompe pas.
00:32:16 C'est un très vaste sujet de bac,
00:32:18 j'ai presque envie de dire, où on
00:32:20 aurait quatre heures pour y répondre
00:32:22 avec une thèse, une antithèse
00:32:24 et une synthèse. En gros,
00:32:26 pour vous plonger directement dans les gros
00:32:28 enjeux, et si je devais en définir
00:32:30 les plus importants, il y en aurait
00:32:32 quatre à mon sens.
00:32:34 Le premier est un enjeu évidemment géopolitique
00:32:36 encore que l'intelligence artificielle,
00:32:38 mais vous l'avez compris maintenant, ça ne veut
00:32:40 directement rien dire.
00:32:42 Mais j'y reviendrai probablement vers
00:32:44 la fin de mon propos.
00:32:46 Le premier c'est un enjeu géopolitique,
00:32:48 le second est un enjeu militaire,
00:32:50 le troisième est un enjeu de gouvernance
00:32:52 et donc normatif, le quatrième
00:32:54 c'est l'enjeu évidemment de la souveraineté,
00:32:56 laquelle, de qui, comment, comment
00:32:58 est-ce qu'on la redéfinit, est-ce qu'on devrait
00:33:00 même la redéfinir, et selon quel
00:33:02 terme de l'équation, disons, politique.
00:33:04 Si je devais
00:33:06 aller sur d'abord les enjeux
00:33:08 géopolitiques, pourquoi est-ce que l'intelligence
00:33:10 artificielle tout d'un coup, au-delà
00:33:12 des discours que vous entendez
00:33:14 souvent à droite à gauche sur
00:33:16 une espèce d'hystérisation
00:33:18 du débat, les super intelligences
00:33:20 qui viendraient tout détruire sur leur chemin,
00:33:22 l'humanité, les hommes, la civilisation,
00:33:24 la démocratie, je pense qu'il faut absolument garder
00:33:26 la tête froide et avoir ce travail de déconstruction
00:33:28 des narratifs
00:33:30 comme on dit en très bon français, qui
00:33:32 viennent d'ailleurs directement de la Silicon Valley en partie.
00:33:34 Donc, les enjeux
00:33:36 géopolitiques, et en termes de réel politique
00:33:38 et de façon beaucoup plus pragmatique,
00:33:40 c'est tout simplement la rivalité Etats-Unis-Chine
00:33:42 autour de la question des
00:33:44 systèmes d'intelligence artificielle, des
00:33:46 SIA, et en particulier à usage
00:33:48 militaire, parce que ce qui se joue,
00:33:50 et là je ne vous apprends strictement rien,
00:33:52 c'est le leadership
00:33:54 en fait, et notamment ce qui est en train de se
00:33:56 passer en
00:33:58 mer de Chine, et plus largement sur la recomposition
00:34:00 de l'échiquier géopolitique. Et de ce
00:34:02 point de vue-là, la question technologique
00:34:04 et en particulier l'intelligence artificielle
00:34:06 est absolument nodale dans
00:34:08 cette rivalité. Et en fait, si on est un
00:34:10 tout petit peu méthodique, l'intelligence artificielle,
00:34:12 puisque ça ne veut rien dire, il faut en fait
00:34:14 la déconstruire selon sa chaîne de valeur.
00:34:16 Et donc, en amont, vous avez quoi ? Évidemment
00:34:18 la question des semi-conducteurs, et
00:34:20 en particulier des semi-conducteurs
00:34:22 de très fine gravure, et qui en fait
00:34:24 cristallisent cette hystérisation
00:34:26 Etats-Unis-Chine, et c'est là
00:34:28 où on a vu apparaître dès 2022, avec le
00:34:30 fameux discours de Jake Sullivan
00:34:32 de septembre 2022, le concept
00:34:34 de dériscage, par exemple,
00:34:36 qui va être atténué un peu plus tard par
00:34:38 l'autre concept plus européen
00:34:40 de découplage. Et en fait,
00:34:42 on est dans cet aller-retour
00:34:44 Etats-Unis-Chine entre montée en tension,
00:34:46 mais en même temps, mais en même temps,
00:34:48 et c'est plutôt pas une très mauvaise nouvelle.
00:34:50 Je n'irai pas jusqu'à dire que
00:34:52 c'est une bonne nouvelle, mais enfin, ils ont un tout petit peu
00:34:54 mis de l'eau dans leur vin.
00:34:56 En novembre 2023, quand les deux
00:34:58 présidents se sont
00:35:00 rencontrés, Biden et Xi Jinping,
00:35:02 à San Francisco, et qu'ils ont décidé
00:35:04 justement de maintenir, disons, le canal de communication
00:35:06 ouvert, notamment sur la question de la gouvernance
00:35:08 de l'intelligence artificielle
00:35:10 entre les deux blocs,
00:35:12 disons.
00:35:14 Donc, enjeux géostratégiques,
00:35:16 parce que rivalité, parce que leadership,
00:35:18 parce que l'intelligence artificielle,
00:35:20 au sens générique et conceptuel du terme,
00:35:22 gardons-le pour aller vite dans la démonstration,
00:35:24 ce sont d'abord des outils de soft et de
00:35:26 hard power. Chad Gpitty,
00:35:28 quand en fait il a une adoption
00:35:30 de plusieurs millions d'utilisateurs
00:35:32 en quelques semaines, ce sont des véhicules
00:35:34 en fait de valeur, de
00:35:36 vision, et en fait de soft américain.
00:35:38 Et quand vous écoutez
00:35:40 les auditions de Sam Altman
00:35:42 en mai 2023,
00:35:44 ça n'a pas été vachement, pardon
00:35:46 pour la familiarité, mais beaucoup
00:35:48 relevé, en tout cas pas beaucoup relevé en France
00:35:50 et en Europe, mais il le dit
00:35:52 très clairement, Altman, quand il est auditionné,
00:35:54 il dit que un de ses
00:35:56 enjeux de diffusion du modèle
00:35:58 de Chad Gpitty et des modèles d'open
00:36:00 AI en général, c'est aussi
00:36:02 la diffusion ou en tout cas
00:36:04 la protection des valeurs
00:36:06 démocratiques occidentales, sous-entendu
00:36:08 à comprendre les valeurs démocratiques
00:36:10 américaines, évidemment.
00:36:12 Donc il y a évidemment
00:36:14 cet enjeu-là, et puis l'enjeu de hard power.
00:36:16 Là, on a deux champs,
00:36:18 des champs d'expérimentation
00:36:20 passés à l'échelle,
00:36:22 l'Ukraine et évidemment Gaza, où on voit
00:36:24 que les intelligences artificielles sont aujourd'hui
00:36:26 à usage militaire et que c'est plus
00:36:28 que des bagues à sable, ça permet aussi
00:36:30 d'ailleurs aux technologies
00:36:32 américaines d'expérimenter
00:36:34 vraiment à échelle
00:36:36 un certain nombre d'outils, de logiciels,
00:36:38 j'y reviendrai
00:36:40 si vous le souhaitez. Donc
00:36:42 enjeux géostratégiques, parce que
00:36:44 hard power, parce que rivalité
00:36:46 Etats-Unis-Chine, parce que ça cristallise la question
00:36:48 des semi-conducteurs, avec évidemment TSMC,
00:36:50 et c'est ce qui va expliquer en fait
00:36:52 l'ensemble des mesures qui vont être prises
00:36:54 par les Etats-Unis
00:36:56 pour, disons, bloquer ou freiner le développement
00:36:58 chinois dans cette
00:37:00 filière-là, qui n'est pas une filière en fait,
00:37:02 qui est vraiment, et monsieur le Président
00:37:04 l'a précisé dans ses propos liminaires,
00:37:06 une révolution. L'intelligence artificielle,
00:37:08 si je devais la schématiser,
00:37:10 pour que vous ayez un peu une vision d'ensemble,
00:37:12 ce n'est pas des outils,
00:37:14 ou plus exactement, avant que ce ne soit
00:37:16 des outils, ce sont des infrastructures,
00:37:18 si vous voulez, socles,
00:37:20 à partir desquelles se déploie absolument
00:37:22 tout le reste. Et quand je parle de tout le reste,
00:37:24 c'est quoi ? C'est le fait politique, le fait militaire,
00:37:26 le fait industriel, le fait économique, le fait social.
00:37:28 Et vous avez
00:37:30 tout un tas de continuum comme ça
00:37:32 qui se mettent en place.
00:37:34 Réseaux sociaux, désinformation,
00:37:36 intelligence artificielle générative,
00:37:38 par exemple. Donc,
00:37:40 tout ça doit absolument faire système.
00:37:42 Et si on ne comprend pas l'intelligence artificielle
00:37:44 en système,
00:37:46 on passe à côté de quelque chose,
00:37:48 c'est-à-dire qu'on ne va pas savoir
00:37:50 diagnostiquer ces nouvelles structures de pouvoir et de puissance
00:37:52 qui sont en train de se mettre en place.
00:37:54 Le deuxième enjeu, c'est un enjeu militaire.
00:37:56 On en a parlé.
00:37:58 Il y a évidemment la question du leadership.
00:38:00 Charles Thibault
00:38:02 l'évoquait dans ses propos,
00:38:04 mais dès 2017, dans les plans
00:38:06 quinquennaux chinois,
00:38:08 est présentée l'ambition de la Chine
00:38:10 de devenir une puissance militaire
00:38:12 de rang mondial à 2049.
00:38:14 La rivalité Etats-Unis-Chine,
00:38:16 de ce point de vue-là, n'est absolument pas nouvelle.
00:38:18 Ce n'est pas tout d'un coup, en 2022,
00:38:20 sous l'administration Biden, qu'on va découvrir ça.
00:38:22 En réalité, ça commence en 2008,
00:38:24 si je devais être dans un
00:38:26 passé proche,
00:38:28 sous l'administration Obama.
00:38:30 Et pour quelle raison ?
00:38:32 Et c'est là où on va commencer à voir la fameuse stratégie pivot,
00:38:34 où tout d'un coup, on va se rendre compte qu'évidemment,
00:38:36 la région devient
00:38:38 un sujet éminemment stratégique
00:38:40 pour les Etats-Unis, dans un contexte,
00:38:42 par ailleurs, où on a besoin
00:38:44 d'un autre aussi narratif, ou d'une fabrique
00:38:46 dont on peut d'ailleurs discuter, la pertinence.
00:38:50 Et le fait est que
00:38:52 elle est aujourd'hui pertinente.
00:38:54 Mais la fabrique d'un ennemi, la puissance américaine,
00:38:56 c'est souvent construite contre quelque chose.
00:38:58 Contre un bloc,
00:39:00 contre quelqu'un.
00:39:02 Donc 2008, ça va être le début
00:39:04 de ce qu'on va appeler le démarrage
00:39:06 d'une stratégie de containment.
00:39:08 Et on va arriver très vite, dès 2019,
00:39:10 le scandale
00:39:12 Huawei, et puis après, Tik Tok,
00:39:14 qui participent toujours de cette même
00:39:16 logique de rivalité
00:39:18 Etats-Unis-Chine avec les Etats-Unis,
00:39:20 qui posent cette question fondamentale
00:39:22 pour eux, et qu'on retrouve dans l'executive order
00:39:24 d'octobre 2023, qui donne, si vous voulez,
00:39:26 les grandes consignes à l'administration
00:39:28 et aux administrations, aux agences fédérales américaines
00:39:30 sur l'usage de l'intelligence artificielle.
00:39:32 Et donc, le grand enjeu, c'est
00:39:34 évidemment la question de la sécurité nationale,
00:39:36 bien sûr. Qu'on retrouve un tout petit peu
00:39:38 en miroir, d'ailleurs, du côté
00:39:40 chinois.
00:39:42 Rivalité militaire, donc, disais-je,
00:39:44 parce que l'intelligence artificielle
00:39:46 aujourd'hui est un carburant,
00:39:48 est un outil qui est mis au service
00:39:50 aussi de, disons, de la puissance de feu conventionnée,
00:39:52 les classiques. En Ukraine,
00:39:54 qu'est-ce qu'on a vu éclore
00:39:56 et advenir ? L'intelligence artificielle
00:39:58 au service, mais des deux côtés, et en particulier
00:40:00 aux côtés des armées
00:40:02 ukrainiennes, aidées,
00:40:04 évidemment, énormément par les Etats-Unis,
00:40:06 et qui, on retrouve, évidemment,
00:40:08 Starlink de Elon Musk,
00:40:10 Palantir, Clearview,
00:40:12 les logiciels de reconnaissance faciale,
00:40:14 Amazon, AWS,
00:40:16 Google,
00:40:18 Microsoft, sur les questions de cyber-défense.
00:40:20 Et quand on parle aujourd'hui de
00:40:22 cyber-défense, c'est impossible
00:40:24 d'envisager le sujet sans, évidemment,
00:40:26 le volet intelligence artificielle.
00:40:28 À la fois pour créer ou amplifier,
00:40:30 massifier la menace,
00:40:32 ou, à contrario, pour identifier,
00:40:34 par signe faible, ou pour contre-carrer
00:40:36 la menace. Donc, tout ça,
00:40:38 vraiment, est absolument imbriqué.
00:40:40 Plus récemment,
00:40:42 le conflit
00:40:44 Israël-Gaza a montré
00:40:46 aussi l'usage de logiciels
00:40:48 d'intelligence artificielle pour,
00:40:50 disons, cibler
00:40:52 les opérations.
00:40:54 Il y a eu toutes les
00:40:56 révélations, disons, autour de
00:40:58 logiciels Lavender,
00:41:00 Asbora, etc.
00:41:02 Ce qui pose une autre
00:41:04 question, qui est maintenant
00:41:06 philosophique, mais qui devient très vite politique,
00:41:08 et donc très vite géopolitique,
00:41:10 la question de l'usage
00:41:12 de ces outils-là, nouveaux, qu'on est en train
00:41:14 d'expérimenter, qu'on est en train de découvrir.
00:41:16 Avec ce vieux rêve qui était le rêve de la frappe
00:41:18 chirurgicale, en réalité. On pensait,
00:41:20 on a pensé, dans les narratifs,
00:41:22 on peut penser, à tort d'ailleurs,
00:41:24 que les logiciels d'IA mis au service
00:41:26 de conflits
00:41:28 peuvent être ultra-précis,
00:41:30 en réalité, en fonction des
00:41:32 dommages collatéraux que vous acceptez
00:41:34 ou non, avec le coup politique que
00:41:36 ça peut avoir ou non, on observe
00:41:38 et on note que ça peut devenir des armes de destruction
00:41:40 littéralement massives, avec
00:41:42 la question de la responsabilité, et donc
00:41:44 aussi de la gouvernance. Ce qui m'amène
00:41:46 à mon troisième et dernier point dans le
00:41:48 volet enjeu militaire,
00:41:50 évidemment, à la question des armes autonomes,
00:41:52 qui aujourd'hui ne fait absolument pas
00:41:54 consensus, ni sur la définition, ça commence
00:41:56 où, ça s'arrête où, et surtout,
00:41:58 il y a, par l'enjeu
00:42:00 géostratégique de rivalité entre les Etats-Unis
00:42:02 et la Chine, à mon sens,
00:42:04 pas tellement un grand
00:42:06 désir, au-delà de quelques consignes, de quelques
00:42:08 vœux pieux et de quelques livres blancs,
00:42:10 etc., de réguler ou,
00:42:12 en tout cas, d'interdire ce type d'armes.
00:42:14 Je crains, et c'est un peu notre
00:42:16 histoire à nous, et notre, peut-être,
00:42:18 destin d'humain, je crains qu'il ne faille
00:42:20 attendre, comme d'habitude, l'accident,
00:42:22 donc le scandale, donc la mobilisation
00:42:24 des opinions publiques, pour qu'à un moment donné,
00:42:26 peut-être, les lignes bougent, mais en tout cas,
00:42:28 c'est un sujet,
00:42:30 aujourd'hui, un des grands sujets,
00:42:32 disons, de discussion de gouvernance
00:42:34 internationale sur la question de l'intelligence artificielle.
00:42:36 Il y a quelques jours,
00:42:38 il y a deux semaines, je crois, il y a eu le
00:42:40 sommet de Vienne sur ces questions-là, avec un
00:42:42 appel, justement, à la régulation
00:42:44 des armes autonomes, sans que ça ne débouche
00:42:46 pour l'instant sur
00:42:48 pas grand-chose.
00:42:50 Est-ce à dire que
00:42:52 c'est la fin ?
00:42:54 Je ne le crois pas,
00:42:56 mais l'avenir nous le dira. Et puis, enfin,
00:42:58 la question de la gouvernance internationale
00:43:00 et donc normative de l'intelligence
00:43:02 artificielle,
00:43:04 pareil, c'est un sujet absolument passionnant,
00:43:06 parce que les instances, aujourd'hui,
00:43:08 sont, soit multilatérales, mais surtout
00:43:10 véhiculant, disons,
00:43:12 une vision
00:43:14 très occidentalo-centrée,
00:43:16 disons,
00:43:18 des choses, en tout cas jusque-là.
00:43:20 Et vous avez un État-Empire
00:43:22 qui s'appelle la Chine, qui conteste,
00:43:24 finalement,
00:43:26 elle-même étant puissance de cette technologie-là,
00:43:28 qui conteste cette vision,
00:43:30 disons, normative qui serait
00:43:32 trustée par
00:43:34 les démocraties occidentales,
00:43:36 et en particulier par les États-Unis.
00:43:38 Donc, il y a cette
00:43:40 bataille juridique normative
00:43:42 des standards, en fait,
00:43:44 et des usages, qui est en train de se jouer
00:43:46 actuellement, et c'est ce qui explique d'ailleurs
00:43:48 la multiplication, la prolifération
00:43:50 de sommets, de réunions, d'auditions,
00:43:52 de commissions, de rapports, de livres blancs
00:43:54 à vraiment toute échelle.
00:43:56 Le phénomène peut-être le plus intéressant
00:43:58 dans la question de la
00:44:00 gouvernance internationale, de l'intelligence
00:44:02 artificielle, avec comme enjeu
00:44:04 allons-nous vers
00:44:06 une collaboration globale et internationale,
00:44:08 premier scénario,
00:44:10 ou une fragmentation, une balkanisation
00:44:12 régionale et donc normative,
00:44:14 qui serait l'autre option,
00:44:16 les dés sont jetés,
00:44:18 les jeux sont ouverts, on verra bien.
00:44:20 Il est probable qu'on aille vers
00:44:22 quelque chose d'un peu mou, à très court terme,
00:44:24 qui serait de la compétition,
00:44:26 donc cette rivalité géostratégique, mais on garde le canal
00:44:28 et puis on se
00:44:30 teste. Mais il y a deux phénomènes
00:44:32 qui sont très intéressants, en sous-point,
00:44:34 à avoir en tête sur la question de la gouvernance.
00:44:36 C'est les BRICS,
00:44:38 les BRICS+ en fait, qui arrivent
00:44:40 sur la scène, avec notamment des
00:44:42 pays qui ont des vraies ambitions,
00:44:44 l'Inde, mais aussi l'Arabie saoudite, les Emirats
00:44:46 arabes unis, qui posent des agendas
00:44:48 et avec la Chine, qui aimerait, elle, avoir
00:44:50 et voire pousser un agenda de normes
00:44:52 contraignantes, top-down, verticales,
00:44:54 coercitives, sur ces
00:44:56 questions-là. La question des BRICS+
00:44:58 dans la gouvernance internationale,
00:45:00 elle va être de savoir s'ils vont pousser leur...
00:45:02 s'ils vont d'abord réussir à avoir
00:45:04 un agenda commun, c'est absolument pas gagné,
00:45:06 ils sont 10 et 10 avec des intérêts
00:45:08 diplomatiques et parfois géostratégiques
00:45:10 pas toujours convergents, il y a des rivalités
00:45:12 entre eux, il y a des tensions entre la Chine
00:45:14 et l'Inde, par exemple, notamment sur la
00:45:16 question technologique. Donc la question des BRICS,
00:45:18 ça va être de savoir s'ils vont pousser,
00:45:20 s'ils vont réussir à pousser un agenda commun,
00:45:22 donc de parler d'une seule voie, et en particulier
00:45:24 au sein des instances multilatérales,
00:45:26 ou s'ils vont
00:45:28 finalement, disons, faire sécession,
00:45:30 on verra. Pareil, c'est une
00:45:32 question qui reste parfaitement ouverte.
00:45:34 Ce qui m'amène...
00:45:36 Je sais pas si je suis dans mes temps, j'ai encore
00:45:38 un peu de temps ? Pas beaucoup ?
00:45:40 Je fais très vite.
00:45:42 Je continue.
00:45:44 Je persévère.
00:45:46 De chute.
00:45:50 Avant-dernier enjeu,
00:45:54 j'irai très vite, de la souveraineté,
00:45:56 avec la fameuse troisième voie européenne,
00:45:58 et là, on ira
00:46:00 probablement, j'espère là-dessus,
00:46:02 dans la partie questions-réponses. En gros,
00:46:04 si je la fais vite et courte,
00:46:06 en France et en Europe... Non, en France,
00:46:08 je crois qu'on est un tout petit peu
00:46:10 à côté de la plaque, pour ne pas dire complètement,
00:46:12 et j'y reviendrai.
00:46:14 Et on a beau sortir des commissions et des rapports
00:46:16 et tout un tas de choses,
00:46:18 en fait, on a un système d'innovation nationale
00:46:20 illisible, on a une difficulté culturelle
00:46:22 à fusionner, ou en tout cas à intégrer
00:46:24 ou à faire travailler le public et le privé,
00:46:26 hors BITD, et on a
00:46:28 un problème de compréhension
00:46:30 de la dualité de ces technologies-là,
00:46:32 qui sont civiles et militaires à la fois.
00:46:34 Or, quand on voit les stratégies gagnantes
00:46:36 dans le monde, en général, vous avez
00:46:38 une fusion civile et militaire, qu'on a du mal
00:46:40 aujourd'hui à faire éclore,
00:46:42 hors quelques, disons,
00:46:44 îlots spécifiques dans le champ
00:46:46 défense.
00:46:48 L'enjeu, évidemment, démocratique,
00:46:50 je le problématiserai
00:46:52 simplement, pour ouvrir vos chakras,
00:46:54 au-delà de la question de la régulation,
00:46:56 le AI Act ne couvre
00:46:58 pas tellement le sujet, ce qui est en fait un angle
00:47:00 mort total et absolu, au-delà de simplement
00:47:02 avoir une obligation de watermarking,
00:47:04 c'est-à-dire d'avoir un
00:47:06 marquage des contenus
00:47:08 qui vont être générés par
00:47:10 les IA génératives. Le problème,
00:47:12 au-delà de la simple régulation,
00:47:14 c'est de se demander, à quoi
00:47:16 sert ma régulation ? C'est-à-dire, quel est mon
00:47:18 objectif politique ? Or,
00:47:20 la régulation, ou une réglementation,
00:47:22 par définition, est ex post,
00:47:24 forcément, on a beau dire que c'est ex ante,
00:47:26 c'est forcément ex post à la fin des fins,
00:47:28 et puis surtout, l'exemple
00:47:30 argentin est extrêmement intéressant,
00:47:32 il y a eu des élections argentines, il n'y a pas
00:47:34 longtemps, et ce qu'on a vu apparaître, ce sont des
00:47:36 cheapfakes, c'est-à-dire des deepfakes,
00:47:38 qui sont absolument grossiers,
00:47:40 visibles, et ça ne comptait pas
00:47:42 tellement, en réalité. Donc,
00:47:44 il y a toute la question de l'éducation,
00:47:46 de l'acculturation, de la compréhension
00:47:48 de ça, et ça ne peut pas passer
00:47:50 simplement par l'appareil législatif
00:47:52 ou par de la loi, disons,
00:47:54 descendante. C'est impossible.
00:47:56 Je terminerai sur
00:48:00 les acteurs nouveaux,
00:48:02 qui sont encore un angle mort
00:48:04 dans le débat public français,
00:48:06 et Charles, je parle en complément,
00:48:08 parce que je sais aussi que c'est vos champs
00:48:10 de travaux et de recherches,
00:48:12 c'est évidemment les géants technologiques...
00:48:14 Non, non, j'ai dit ça ?
00:48:16 Oui, il n'y a pas dit son dernier mot, mais je rebondissais
00:48:18 parce que j'entendais dans la description que c'était son champ de travail,
00:48:20 et qui est donc aussi le mien, et donc,
00:48:22 évidemment, il y a l'apparition tout d'un coup
00:48:24 de ces big tech, ou ces géants technologiques,
00:48:26 américains ou chinois d'ailleurs, selon
00:48:28 des modalités de gouvernance différentes,
00:48:30 et parfois parallèles des deux côtés,
00:48:32 et qui deviennent des acteurs politiques,
00:48:34 géopolitiques, militaires à part entière,
00:48:36 et qu'il faut donc comprendre comme tel,
00:48:38 et qui donc viennent aussi réinterroger
00:48:40 la question de la souveraineté, quand on est un pays
00:48:42 comme la France. La question
00:48:44 n'est pas de les diaboliser, ou d'être dans
00:48:46 un souverainisme patenté,
00:48:48 et complètement illusoire et fantasmatique,
00:48:50 ou d'être dans quelque chose de
00:48:52 complètement américanophobe,
00:48:54 la question est de se dire comment est-ce qu'on travaille avec,
00:48:56 et où sont nos intérêts convergents,
00:48:58 à condition, à condition de maintenir
00:49:00 une souveraineté, à minima, des données
00:49:02 les plus confidentielles, les plus
00:49:04 sensibles, ou secret défense.
00:49:06 Et là, ce sont des champs entiers qui sont ouverts,
00:49:08 qui sont en discussion, et qui ne sont absolument pas du tout,
00:49:10 aujourd'hui, clos. Voilà pour mes
00:49:12 propos liminaires,
00:49:14 et je terminerai peut-être avec un clin d'œil à Thucydide,
00:49:16 toute la question de l'intelligence artificielle,
00:49:18 qui est éternelle, et c'est la permanence
00:49:20 de nos questions, c'est à la fin des fins,
00:49:22 de savoir qui est dominé, et qui est dominant.
00:49:24 Voilà, voilà, voilà.
00:49:28 - C'est effectivement terminé par une question
00:49:30 très ouverte. Je vous remercie
00:49:32 infiniment, je crois que ces deux
00:49:34 éclairages étaient très importants, je crois notamment
00:49:36 qu'on a très très bien compris à quel point
00:49:38 ces phénomènes d'intelligence artificielle
00:49:40 étaient au cœur d'une
00:49:42 modification des rapports de domination,
00:49:44 et notamment,
00:49:46 une sorte de plein développement de ce qu'on
00:49:48 appelle l'hybridisme, c'est-à-dire
00:49:50 quelque chose qui est
00:49:52 indissolublement civil et militaire.
00:49:54 Dans ce que vous avez décrit, il y avait
00:49:56 quand même une grande part
00:49:58 de...
00:50:00 l'automatisation sous
00:50:02 toutes ses formes. Ce qui nous inquiète,
00:50:04 ce qui nous...
00:50:06 pas nous inquiète, mais ce qui nous interroge,
00:50:08 c'est le
00:50:10 fait que nous avons derrière ces
00:50:12 phénomènes à la fois
00:50:14 une extériorisation
00:50:16 de tâches d'exécution,
00:50:18 puis un stade
00:50:20 supérieur de la prise de décision,
00:50:22 un stade encore supérieur
00:50:24 de la conception
00:50:26 de ce qu'on fait, et
00:50:28 presque, c'est
00:50:30 implicite dans ce que vous avez dit,
00:50:32 et même quasiment explicite
00:50:34 avec les normes, une tâche de prescription.
00:50:36 On a donc une
00:50:38 artificialisation de niveaux
00:50:40 d'action de l'esprit humain
00:50:42 qui sont de plus en plus
00:50:44 considérables, et c'est ça qui
00:50:46 donne un peu le vertige.
00:50:48 Maintenant, comme les groupes
00:50:50 ont le vertige, ils vont pouvoir
00:50:52 apaiser leur vertige en vous interrogeant,
00:50:54 et pour le début, ce sera
00:50:56 le groupe Renaissance, qui
00:50:58 sera représenté par...
00:51:00 Pardon ?
00:51:02 Vous éteignez votre micro.
00:51:04 Par Mme Mireille Clapot, qui est notre
00:51:06 vice-députée de la Rome, et qui est
00:51:08 notre vice-présidente. Mireille, c'est à vous.
00:51:10 Merci, M. le Président.
00:51:12 Merci beaucoup, Mme,
00:51:14 M. au nom du groupe Renaissance Apparenté
00:51:16 pour vos interventions très intéressantes.
00:51:18 C'est vraiment un sujet qui me passionne
00:51:20 puisque je travaille depuis quelques mois
00:51:22 sur le sujet, tant pour la commission
00:51:24 supérieure du numérique et des postes
00:51:26 composée de députés et de sénateurs,
00:51:28 que pour l'Assemblée parlementaire du Conseil de l'Europe
00:51:30 avec un angle plutôt égalité de genre
00:51:32 et intelligence artificielle.
00:51:34 Alors moi, j'en suis arrivée à la conclusion
00:51:36 que l'intelligence artificielle, c'est comme
00:51:38 la langue des hoppes, ça peut être la meilleure
00:51:40 et la pire des choses,
00:51:42 et aussi que la France a un rôle
00:51:44 particulier à jouer parce qu'on a
00:51:46 des talents, parce qu'on a une politique
00:51:48 publique, comme vous le soulignez, qui porte
00:51:50 ses fruits depuis 2018
00:51:52 avec le rapport Villani et la première
00:51:54 stratégie, et puis plus récemment
00:51:56 avec ses nombreux rapports, dont le
00:51:58 rapport du comité d'experts
00:52:00 qui préconise d'investir
00:52:02 5 milliards d'euros, mais aussi toutes les annonces
00:52:04 faites par les investisseurs étrangers,
00:52:06 Google, pas plus tard
00:52:08 qu'hier, Microsoft, 4 milliards,
00:52:10 Amazon, 1 milliard, et on va avoir un
00:52:12 sommet très important en 2025.
00:52:14 Et je voudrais aussi rendre hommage à nos
00:52:16 services publics qui utilisent
00:52:18 l'intelligence artificielle et donc
00:52:20 font un effort d'acclimatation de la
00:52:22 population au bienfait d'une
00:52:24 automatisation du travail.
00:52:26 Sur la régulation,
00:52:28 qui est aussi une nécessité,
00:52:30 vous avez souligné, Madame
00:52:32 Mala, la profusion de niveaux de
00:52:34 régulation. L'Union européenne
00:52:36 avec l'IA Act, je trouve qu'elle a fait un travail
00:52:38 intéressant, elle permet
00:52:40 de réguler selon les risques et de rester
00:52:42 sur cette ligne de crête, éviter
00:52:44 de tomber dans trop de régulation ou
00:52:46 dans trop d'interventionnisme de l'État,
00:52:48 avec un modèle européen
00:52:50 finalement qui est entre les deux
00:52:52 blocs. Je pense que l'avenir, ça sera
00:52:54 sans doute dans un traité international
00:52:56 comme on en a pour les traités de circulation
00:52:58 aérienne ou maritime.
00:53:00 Et puis il faudra aussi s'occuper de la question
00:53:02 des droits d'auteur.
00:53:04 Impact sociaux, vous l'avez dit,
00:53:06 je pense aussi impact sur les capacités
00:53:08 cognitives, il faut qu'on garde la maîtrise
00:53:10 et pour ça il faut garder
00:53:12 certaines compétences et surtout l'esprit
00:53:14 critique. Et puis pour revenir à ce qui
00:53:16 préoccupe une commission des affaires étrangères,
00:53:18 c'est des enjeux géopolitiques
00:53:20 avec des utilisations dans des
00:53:22 robots tueurs qui violent le droit
00:53:24 international humanitaire, des enjeux
00:53:26 démocratiques. Parlons aussi des
00:53:28 enjeux environnementaux, parce que
00:53:30 l'IA consomme beaucoup d'énergie
00:53:32 et d'eau et donc pourrait tenter de
00:53:34 quitter l'Europe.
00:53:36 Et l'enjeu de souveraineté. Et malheureusement
00:53:38 comme le maître du temps me rappelle à mes devoirs,
00:53:40 je vais conclure juste par une question.
00:53:42 Comment pensez-vous qu'on peut se
00:53:44 prémunir des risques d'ingérence
00:53:46 face à l'intensification des investissements
00:53:48 étrangers que j'ai mentionnés ? Je vous remercie.
00:53:50 Je vous remercie Madame la
00:53:52 vice-présidente.
00:53:54 Ce qu'il faudrait c'est essayer de tenir dans une réponse
00:53:56 de deux minutes et demie, ça sera difficile.
00:53:58 Donc vous n'êtes pas obligé de répondre tous les deux.
00:54:00 Je ne sais pas...
00:54:02 Mais vous pouvez répondre tous les deux.
00:54:04 Vous pouvez répondre...
00:54:06 Vous...
00:54:08 Celui ou celle
00:54:10 qui a envie de dire quelque chose, le fait.
00:54:12 Alors je...
00:54:14 Vous avez redressé un
00:54:16 panorama synthétique
00:54:18 et à la fois exhaustif des principaux
00:54:20 enjeux. Si je devais peut-être
00:54:22 en profiter pour ajouter
00:54:24 quelque chose sur
00:54:26 la question de la...
00:54:28 du
00:54:30 IA Act et de la régulation.
00:54:32 Je ne dis pas exactement qu'on a une stratégie efficace.
00:54:36 Je dis qu'elle est plutôt inefficace.
00:54:38 Pourquoi
00:54:42 inefficace ? Enfin en tout cas,
00:54:44 pas tellement aboutie pour une raison très simple.
00:54:46 Sur le IA Act, d'un point
00:54:48 de vue du signal politique,
00:54:50 c'est-à-dire redéfinir
00:54:52 et réaffirmer nos valeurs.
00:54:54 Parce que c'est un texte qui est basé
00:54:56 sur nos droits, les droits fondamentaux, les droits
00:54:58 de l'homme, qu'est-ce qu'on peut, disons,
00:55:00 tolérer dans un cadre d'État de droit
00:55:02 démocratique, qui est notre
00:55:04 modèle politique. Ça, de ce point de vue-là,
00:55:06 moi, j'y souscris absolument.
00:55:08 Et de toute façon, il fallait le faire parce qu'il fallait
00:55:10 une préemption, d'ailleurs, de la régulation internationale.
00:55:12 Et de ce point de vue-là, l'autre enjeu
00:55:14 du IA Act, c'était de dire, est-ce qu'on n'aurait pas un
00:55:16 Brussels effect, où tout d'un coup, on
00:55:18 emballerait la machine internationale
00:55:20 sur le modèle européen. Et donc,
00:55:22 il fallait le faire, de ce point de vue-là,
00:55:24 du point de vue européen. Après,
00:55:26 la question
00:55:28 d'avoir un texte à ce point, disons,
00:55:30 corseté, malgré tout,
00:55:32 avec une architecture, disons,
00:55:34 qui peut être rapidement
00:55:36 lourde et bureaucratique, c'est le
00:55:38 dilemme éternel, innovation versus
00:55:40 réglementation ou régulation,
00:55:42 qu'on n'arrive pas exactement, nous, en Europe,
00:55:44 à résoudre. L'approche
00:55:46 chinoise,
00:55:48 peut-être que Charlie reviendra, est davantage
00:55:50 itérative, on va dire,
00:55:52 mais pareil, avec un enjeu de sécurité
00:55:54 nationale et de contrôle, surtout social,
00:55:56 intérieur, et qui pose d'ailleurs d'énormes questions
00:55:58 sur la probabilité,
00:56:00 la possibilité qu'aura
00:56:02 la Chine de développer ses propres systèmes
00:56:04 d'intelligence artificielle, puisque plus vous
00:56:06 enfermez, en fait, plus
00:56:08 vous freinez votre propre
00:56:10 développement technologique. Et puis, les Etats-Unis
00:56:12 qui ont fait davantage
00:56:14 des guidelines,
00:56:16 donc des grandes consignes
00:56:18 à destination des agences fédérales,
00:56:20 avec évidemment la question de la sécurité nationale, mais aussi
00:56:22 du développement économique et industriel,
00:56:24 puisque c'est aussi un instrument de puissance,
00:56:26 la capacité
00:56:28 d'innovation, et d'avoir
00:56:30 un tissu
00:56:32 industriel extrêmement dynamique, ce qui explique
00:56:34 entre autres, d'ailleurs, notre
00:56:36 discours aujourd'hui, notre stratégie de
00:56:38 réindustrialisation. Donc, dans les faits,
00:56:40 ou en tout cas, dans l'intention,
00:56:42 oui, c'est exactement ça qu'il faut faire,
00:56:44 réindustrialiser, trouver la bonne
00:56:46 jauge de réglementation avec le bon gradient,
00:56:48 on verra, ça s'affinera peut-être.
00:56:50 Le problème étant que,
00:56:52 si je
00:56:54 reviens à un niveau local, donc français,
00:56:56 le problème étant qu'aujourd'hui,
00:56:58 on a un système d'innovation nationale,
00:57:00 de le dire aussi franchement, mais qui est
00:57:02 illisible.
00:57:04 Donc, on a
00:57:06 beau ajouter des strates
00:57:08 supplémentaires, des rapports supplémentaires,
00:57:10 des dotations supplémentaires, et on voit
00:57:12 d'ailleurs les écarts de grandeur,
00:57:14 c'est à échelle
00:57:16 d'un pays qui n'est pas aujourd'hui un
00:57:18 grand pays technologique. Donc, avant
00:57:20 de dire, on a bon, on dit à Cafaucon,
00:57:22 il faudrait que, et regardons,
00:57:24 être toujours en position de follower
00:57:26 des Etats-Unis et de la Chine, c'est plutôt de se dire,
00:57:28 et moi c'est ce que j'explique
00:57:30 du matin au soir, mais je ne suis toujours,
00:57:32 hélas, pas écoutée, c'est commencer par faire une cartographie
00:57:34 en fait de la France, où sont nos forces,
00:57:36 nos forces et nos faiblesses, où est-ce
00:57:38 qu'il faudrait qu'on aille.
00:57:40 Développer l'intelligence artificielle,
00:57:42 ça ne veut rien dire, d'un point de vue
00:57:44 économique et industriel, ça ne veut
00:57:46 rien dire du tout.
00:57:48 Je terminerai juste, donc c'est la
00:57:50 question des cas d'usage, est-ce qu'on va sur la santé,
00:57:52 il va falloir qu'on comprenne où sont
00:57:54 nos avantages compétitifs.
00:57:56 - C'est très clair. Je me sens
00:57:58 un peu coupable vis-à-vis de vous,
00:58:00 est-ce que vous avez quelque chose à ajouter à ce que dit votre...
00:58:02 - Pardon.
00:58:04 - Bon, c'est...
00:58:06 - Non, non, mais on peut... - Il faut arrêter le...
00:58:08 Voilà.
00:58:10 - Non, non, on peut enchaîner. - Très bien.
00:58:12 - Je voulais juste relever,
00:58:14 sans intervenir, ça dure 10 secondes,
00:58:16 il m'a semblé relever dans votre question
00:58:18 à Yatus, peut-être,
00:58:20 parce qu'il se quise une contradiction, au moment
00:58:22 où vous avez évoqué, où vous êtes fait
00:58:24 y citer des investissements étrangers récents,
00:58:26 notamment des grandes entreprises du numérique
00:58:28 française, et à la fin de votre intervention,
00:58:30 vous pointiez les risques d'ingérence étrangère
00:58:32 via ces investissements étrangers. Voilà, je trouvais ça
00:58:34 intéressant, et peut-être que ça pourrait faire...
00:58:36 - Madame Clapot n'est pas députée en Géorgie.
00:58:38 Tiens, vous rassurez.
00:58:40 Madame, pour le Rassemblement national,
00:58:44 Madame Galzy, qui est
00:58:46 députée de Leroux.
00:58:48 - Merci, monsieur le Président.
00:58:50 Madame, monsieur, l'intelligence
00:58:52 humaine, au cours de son histoire, a permis
00:58:54 à nos sociétés de se transformer,
00:58:56 de passer de rien à la civilisation,
00:58:58 de vivre la révolution
00:59:00 industrielle, d'aller dans l'espace,
00:59:02 de marcher sur la Lune. Aujourd'hui,
00:59:04 la civilisation humaine vit une nouvelle
00:59:06 révolution, celle de l'intelligence
00:59:08 artificielle. Pour ceux
00:59:10 de ma génération, on pourrait imaginer
00:59:12 que les films de science-fiction se
00:59:14 réalisent 20 ans plus tard.
00:59:16 Devons-nous avoir peur ou
00:59:18 devons-nous nous en réjouir ? Il s'agit
00:59:20 d'une question importante.
00:59:22 Nous devons évoluer, nous adapter
00:59:24 à cette forme de prouesse humaine
00:59:26 qui doit nous permettre de progresser
00:59:28 tout en ayant des gardes-fous.
00:59:30 Notre mission pour notre pays est de garantir
00:59:32 sa souveraineté numérique tout en
00:59:34 développant nos propres applications
00:59:36 et ainsi de les promouvoir
00:59:38 dans le monde entier. Oui,
00:59:40 la souveraineté numérique française
00:59:42 doit devenir le nouvel enjeu
00:59:44 des décennies à venir.
00:59:46 La question éthique est une grande
00:59:48 préoccupation. En effet, il faut
00:59:50 encadrer l'intelligence artificielle
00:59:52 pour ne pas dépasser certaines
00:59:54 limites tout en respectant les
00:59:56 libertés fondamentales et surtout
00:59:58 éviter la manipulation de
01:00:00 l'information et la violation de la
01:00:02 vie privée. Il est aujourd'hui possible
01:00:04 de faire une vidéo en utilisant
01:00:06 l'image et la voix d'une personne
01:00:08 en y ajoutant un discours contraire
01:00:10 à ce que cette personne pense
01:00:12 en réalité. Cette manipulation
01:00:14 devenue très simple
01:00:16 peut être un danger pour nos démocraties
01:00:18 et une nouvelle arme utilisée par
01:00:20 nos ennemis. La question de la
01:00:22 coopération internationale doit être
01:00:24 encouragée comme celle de sa
01:00:26 réglementation analysée.
01:00:28 L'intelligence artificielle peut nous
01:00:30 être utile en matière de sécurité car elle
01:00:32 permet de traiter d'énormes volumes de données
01:00:34 et ainsi de nous renforcer
01:00:36 dans la gestion des menaces.
01:00:38 Garder l'humain au cœur de
01:00:40 l'intelligence artificielle est essentiel
01:00:42 car c'est l'empathie, la créativité
01:00:44 et les valeurs éthiques humaines
01:00:46 qui guident et enrichissent
01:00:48 les capacités de l'IA assurant
01:00:50 qu'elle reste un outil au service du bien-être
01:00:52 et de l'épanouissement de l'humanité.
01:00:54 Avec l'intelligence artificielle
01:00:56 il est possible d'écrire un discours en moins
01:00:58 de 30 secondes voire même un roman
01:01:00 mais elle ne remplacera jamais
01:01:02 un Molière, Albert Camus ou encore
01:01:04 Charles Baudelaire. Aucune
01:01:06 machine ne pourra remplacer
01:01:08 le génie humain. Malgré des inquiétudes
01:01:10 légitimes, il nous faut accompagner
01:01:12 l'intelligence artificielle afin que cette
01:01:14 dernière soit au service de l'homme tout en gardant
01:01:16 notre sens critique. Je terminerai
01:01:18 donc par une question un peu
01:01:20 philosophique. Ne pensez-vous pas
01:01:22 que le plus grand défi en ce monde
01:01:24 n'est pas tant le manque d'intelligence
01:01:26 que le manque d'humanité ?
01:01:28 Je vous remercie. Je vous remercie
01:01:30 Madame la députée. Je rappelle que quand je tapote
01:01:32 sur mon micro
01:01:36 c'est simplement, non pas pour vous couper
01:01:38 mais pour vous dire que vous avez encore
01:01:40 15 secondes.
01:01:42 Il faut que, comme je le disais tout à l'heure,
01:01:44 vous prépariez votre atterrissage.
01:01:46 Vous voulez répondre à Madame...
01:01:50 Oui, oui, bien sûr.
01:01:52 A Madame Galzy.
01:01:54 Merci pour votre question.
01:01:56 Je ne répondrai pas à votre question
01:01:58 philosophique en deux minutes.
01:02:00 D'ailleurs, pas en plus.
01:02:02 Je serais bien incapable.
01:02:04 Mais, non,
01:02:06 je voulais relever ce que vous disiez
01:02:08 à propos de la souveraineté numérique et donc l'idée
01:02:10 de développer finalement nos propres technologies
01:02:12 si je vous ai bien entendu
01:02:14 finalement pour concurrencer
01:02:16 les grandes firmes du numérique.
01:02:18 C'est quelque chose que la France a déjà
01:02:20 essayé de faire. Je ne sais pas si
01:02:22 ça dit quelque chose à certains d'entre vous
01:02:24 mais le projet Kéro
01:02:26 datant de 2006,
01:02:28 2005-2006,
01:02:30 était un projet de moteur de recherche
01:02:32 - Vous pouvez vous taire ?
01:02:34 C'est agaçant.
01:02:36 Allez-y.
01:02:38 Il était un projet de recherche
01:02:40 pardon,
01:02:42 un projet de création d'un moteur de recherche
01:02:44 concurrent de celui de Google en 2005
01:02:46 lancé par Jacques Chirac.
01:02:48 C'était d'abord un projet européen
01:02:50 puis un projet franco-allemand
01:02:52 et qui a été pris en charge à l'époque
01:02:54 par France Télécom et Thomson
01:02:56 qui s'est avéré
01:02:58 un échec cuisant parce que
01:03:00 on ne crée pas, on n'innove pas
01:03:02 comme ça à partir de rien.
01:03:04 Il y a une histoire
01:03:06 derrière ces technologies. Quand on pense
01:03:08 au moteur de recherche de Google,
01:03:10 ce sont des décennies de recherches
01:03:12 derrière, de liens très importants
01:03:14 entre Stanford,
01:03:16 la NSF, le département de la Défense,
01:03:18 la communauté du renseignement.
01:03:20 Pensez à la création
01:03:22 du moteur de recherche de Google.
01:03:24 C'est à la base deux doctorants
01:03:26 de Stanford,
01:03:28 Sergey Brin et Larry Page,
01:03:30 qui voient une partie
01:03:32 de leurs recherches financées
01:03:34 à la fois par la NSF
01:03:36 mais aussi par
01:03:38 des industriels, IBM,
01:03:40 Hitachi, le japonais,
01:03:42 et puis la NASA,
01:03:44 le département de la Défense,
01:03:46 la NSA, etc.
01:03:48 Ce sont des décennies
01:03:50 de confusion,
01:03:52 d'accumulation,
01:03:54 de relations
01:03:56 entre le secteur public,
01:03:58 l'Etat, le militaire
01:04:00 et les universités.
01:04:02 Puis, par-dessus,
01:04:04 les soutiens financiers qui vont arriver,
01:04:06 les firmes de capital risque en particulier,
01:04:08 qui permettent de créer ces technologies.
01:04:10 Tout cela demande des décennies
01:04:12 à se construire.
01:04:14 Il me paraît illusoire
01:04:16 de penser cela
01:04:18 sur le court terme.
01:04:20 Il faudrait poser toutes ces briques-là
01:04:22 et envisager ça pour les décennies
01:04:24 à venir.
01:04:26 - Vous voulez ajouter un mot ?
01:04:28 Vous n'êtes pas obligé.
01:04:30 - Un mot, c'est l'Afrique.
01:04:32 Il va falloir qu'on en parle.
01:04:34 - Très bien. C'est vraiment un mot.
01:04:36 Je vous remercie.
01:04:38 Maintenant, pour la France insoumise,
01:04:40 c'est mon collègue
01:04:42 M. Saint-Aul, mon collègue départemental.
01:04:44 - Absolument.
01:04:46 Merci, M. le Président.
01:04:48 En 2030, évidemment, on a peu de temps.
01:04:50 Vous avez ouvert de nombreuses perspectives.
01:04:52 - Merci. Vous n'êtes pas membre
01:04:54 de cette commission. Je suis d'une impression
01:04:56 beaucoup que vous nous fassiez
01:04:58 votre visite et
01:05:00 la démonstration de votre compétence
01:05:02 qui est reconnue. - Merci beaucoup, M. le Président.
01:05:04 Merci de m'accueillir.
01:05:06 Je retiens de ce que
01:05:08 vous avez dit, des choses qui vont
01:05:10 dans le sens de ce que défend la France insoumise.
01:05:12 Je préfère le souligner. Ensuite, vous
01:05:14 posez des questions un peu plus précises.
01:05:16 Vous
01:05:18 préférez, d'une certaine façon,
01:05:20 revenir aux infrastructures,
01:05:22 aux politiques publiques,
01:05:24 plutôt que de prendre par le petit bout de la lorniette
01:05:26 des usages, qui est en réalité la façon
01:05:28 dont le sujet est le plus souvent traité
01:05:30 dans les médias. Je crois que c'est aller-retour
01:05:32 plutôt de l'usage vers l'infrastructure,
01:05:34 vers la politique, et ce qui doit
01:05:36 nous intéresser désormais.
01:05:38 Il y aura une longue discussion à avoir
01:05:40 sur l'innovation et les modèles
01:05:42 de financement de l'enseignement supérieur.
01:05:44 On a eu de nombreuses réformes ces 20 dernières
01:05:46 années qui ont affaibli
01:05:48 l'enseignement supérieur et la recherche
01:05:50 et ont bouleversé ce qui était un modèle
01:05:52 mertonien du financement de l'innovation.
01:05:54 On aurait de nombreuses discussions,
01:05:56 mais je crois que c'est un sujet extrêmement important
01:05:58 à avoir.
01:06:00 Des questions précises.
01:06:02 Quelles sont, d'après vous,
01:06:04 les perspectives ou les effets de la rencontre
01:06:06 de la puissance de calcul
01:06:08 quantique qu'on attend
01:06:10 et le développement de l'IA ?
01:06:12 Deux.
01:06:14 Une question un peu générale et délicate,
01:06:16 mais évidemment,
01:06:18 c'est un secteur qui progresse, comme tous
01:06:20 les secteurs scientifiques, par
01:06:22 la coopération, le partage,
01:06:24 et en même temps, évidemment, la question
01:06:26 centrale est celle de la souveraineté,
01:06:28 parce qu'il y a un enjeu sur les données.
01:06:30 Donc, est-ce que vous seriez
01:06:32 en mesure de définir ce qu'est le
01:06:34 bon niveau de partage ? Bon courage, vous avez deux minutes.
01:06:36 Et la troisième
01:06:38 question, vous avez déjà évoqué le sujet des armes
01:06:40 autonomes. J'étais à Vienne. Il y avait 140
01:06:42 pays qui étaient représentés, 900 participants.
01:06:44 J'étais le seul
01:06:46 parlementaire français.
01:06:48 Néanmoins, la participation a été
01:06:50 massive et c'est original.
01:06:52 Est-ce que vous avez dit votre
01:06:54 pessimisme sur les perspectives
01:06:56 de régulation sur les armes autonomes ?
01:06:58 Pourtant, il y a une stratégie
01:07:00 qui est proposée, qui est de sortir
01:07:02 la négociation d'un cadre qui existe,
01:07:04 le cadre Genevoix, de la Convention sur certaines
01:07:06 armes, pour en faire un objet
01:07:08 spécifique d'une négociation à
01:07:10 New York, et qui est la proposition
01:07:12 du secrétaire général des Nations Unies,
01:07:14 Guthièrez. Est-ce que vous pensez que cette stratégie
01:07:16 pourrait être pertinente,
01:07:18 être la bonne, et ne pas menacer
01:07:20 les intérêts français, si jamais la France
01:07:22 y adhérait ? Pour ma part, je le crois.
01:07:24 Je ne crois pas que l'intelligence
01:07:26 artificielle soit de nature à conférer
01:07:28 une supériorité opérationnelle telle
01:07:30 que nous devions renoncer d'agir,
01:07:32 même dans un cadre qui
01:07:34 n'inclurait pas la Russie ou la Chine,
01:07:36 par exemple. Mais j'aimerais entendre votre avis
01:07:38 sur ce sujet. Je vous remercie
01:07:40 infiniment. Trois questions très importantes.
01:07:42 Qui veut apporter tant...
01:07:46 Madame,
01:07:48 allez-y. Je crois que vous...
01:07:50 Les deux seront sans doute
01:07:52 nécessaires, parce que ce sont des questions assez
01:07:54 fondamentales qui se posent.
01:07:56 Du coup, je ne vais pas forcément répondre
01:07:58 à tout, plutôt en racontant
01:08:00 une histoire
01:08:02 à partir de vos questions.
01:08:04 Sur la question de la souveraineté, puisque c'est
01:08:06 un peu le sujet qui revient en bouclin
01:08:08 et qui a juste titre,
01:08:10 d'ailleurs,
01:08:12 c'est de trouver
01:08:14 la juste
01:08:16 mesure, c'est-à-dire de se dire
01:08:18 où est-ce qu'elle commence ou se termine. On a beaucoup parlé, par exemple,
01:08:20 de Mistral. Quand on regarde la composition
01:08:22 du capital ou à partir de quel hyperscaler,
01:08:24 c'est-à-dire les superclouders
01:08:26 américains, donc
01:08:28 elle déploie, ça pose une question
01:08:30 ou un cas d'école extrêmement intéressant.
01:08:32 Moi, mon propos, et là je vais
01:08:34 donner un avis qui est personnel, qui est le mien,
01:08:36 je ne suis plus sur de l'état des lieux, je suis sur de la
01:08:38 proposition de
01:08:40 point de vue, c'est qu'avec les
01:08:42 géants technologiques américains, il va falloir qu'on
01:08:44 travaille avec eux. Ce qui est très intéressant, c'est
01:08:46 qu'il y a quelques mois de ça, ce qu'ils
01:08:48 ont fait au UK, en Grande-Bretagne,
01:08:50 c'est que Microsoft, par exemple, c'est l'exemple que j'ai en tête,
01:08:52 ils ont abondé, ils ont
01:08:54 annoncé quelque chose
01:08:56 comme je crois, il faudrait vraiment vérifier
01:08:58 les chiffres, mais 3 milliards de dollars
01:09:00 pour continuer le développement
01:09:02 des infrastructures, donc les data centers
01:09:04 avec les capacités de calcul, donc les
01:09:06 puces, notamment NVIDIA, et
01:09:08 enfin le troisième volet, qui est
01:09:10 le volet de la recherche fondamentale. Et ça, c'est Microsoft
01:09:12 qui a investi avec
01:09:14 le gouvernement britannique,
01:09:16 qui essaye d'ailleurs de prendre, le UK, une position
01:09:18 de leadership sur l'IA, et notamment sur la question
01:09:20 de la désinformation, et ils proposaient d'ailleurs
01:09:22 Ichi-Suna, qu'il n'y a pas longtemps, le cerne
01:09:24 de l'IA, avec une espèce de coopération
01:09:26 qui serait basée à Londres. Donc il y a des
01:09:28 concurrences aussi entre capitales,
01:09:30 pour accueillir ces éventuelles
01:09:32 prochaines instances.
01:09:34 Donc, et il se trouve
01:09:36 qu'en ce moment même, il y a de choses frances.
01:09:38 Et qu'est-ce qu'on apprend ? Exactement la
01:09:40 même stratégie d'ailleurs de Microsoft,
01:09:42 Google, Amazon, etc.,
01:09:44 mais qui n'est pas du tout packagé
01:09:46 de la même façon. C'est-à-dire que, pour
01:09:48 justement ne pas heurter une sensibilité
01:09:50 disons plus élevée sur les questions de souveraineté
01:09:52 en France, parce que ce n'est pas les
01:09:54 mêmes liens, et bien il va y avoir
01:09:56 les mêmes montants, les mêmes projets,
01:09:58 pareil, par Microsoft, donc sur les data centers,
01:10:00 sur la recherche, etc.
01:10:02 Et la deuxième chose sur les armes
01:10:04 autonomes, je termine là-dessus,
01:10:06 parce que je vois le monsieur le président s'impatienter.
01:10:08 Oh, je ne m'impatiente pas, vous savez, je vous
01:10:10 écoute avec beaucoup d'intérêt,
01:10:12 mais je regarde en même temps le chronomètre.
01:10:14 Donc j'atterris, je chute.
01:10:16 Sur la question des armes,
01:10:18 donc sur la souveraineté, c'est de définir
01:10:20 où ça commence, et donc c'est vraiment se dire
01:10:22 mes géants technologiques, s'ils sont détenteurs
01:10:24 d'infrastructures qui deviennent des infrastructures
01:10:26 publiques, c'est-à-dire d'intérêts publics
01:10:28 plus exactement, il va falloir se demander
01:10:30 comment on travaille avec eux en étant non pas
01:10:32 pessimiste, non pas optimiste, mais simplement
01:10:34 pragmatique. Pragmatique.
01:10:36 Ce sont des entités aujourd'hui qui sont
01:10:38 hybrides et qui sont partie prenante de cette discussion-là.
01:10:40 Deuxième et dernière
01:10:42 remarque sur les armes autonomes, je ne suis pas pessimiste,
01:10:44 je suis réaliste.
01:10:46 C'est très important de ne pas confondre les deux.
01:10:48 Aujourd'hui, dans le contexte
01:10:50 géopolitique actuel, je vois
01:10:52 mal pourquoi les États-Unis et la Chine
01:10:54 iraient au-delà de quelques
01:10:56 guidelines. Maintenant, les
01:10:58 propositions de l'ONU qui essayent
01:11:00 justement, d'ailleurs l'ONU c'est très intéressant,
01:11:02 parce qu'ils ont aussi un enjeu interne, de maintenir
01:11:04 une forme de leadership aussi normatif
01:11:06 là-dessus. Donc se joue encore une fois
01:11:08 cette bataille juridique, normative,
01:11:10 réglementaire à échelle internationale
01:11:12 avec la question qui reste ouverte, fragmentation,
01:11:14 balkanisation, régionalisation ou
01:11:16 coopération globale. Je n'en sais strictement rien
01:11:18 parce que je n'ai pas de boule de cristal.
01:11:24 En quelques mots
01:11:26 sur les armes létales autonomes,
01:11:28 je ne suis pas
01:11:30 un juriste, donc ce que je vais
01:11:32 dire est à prendre avec les pincettes.
01:11:34 Mais il me semble en fait que
01:11:36 déjà on a un cadre juridique
01:11:38 international qui est assez
01:11:40 fort pour encadrer l'usage de ces
01:11:42 armes, notamment avec le droit international
01:11:44 et humanitaire, qui permet de
01:11:46 fixer notamment des normes en termes
01:11:48 de responsabilité, de niveau de
01:11:50 proportionnalité, de discrimination de l'usage
01:11:52 de ces armes. L'idée étant que
01:11:54 une arme, quelle qu'elle soit
01:11:56 doit respecter certains principes,
01:11:58 notamment le fait
01:12:00 d'effectuer un tir
01:12:02 proportionnel par rapport à la cible
01:12:04 et qu'elle soit
01:12:06 discriminatoire, c'est-à-dire qu'elle puisse
01:12:08 choisir, cibler
01:12:10 de façon suffisamment précise pour
01:12:12 abattre des combattants,
01:12:14 pour le dire simplement, et non pas des civils à côté.
01:12:16 Et puis la question de la responsabilité,
01:12:18 étant de savoir effectivement
01:12:20 dans le cadre d'une arme létale
01:12:22 autonome qui est responsable
01:12:24 juridiquement, si elle est
01:12:26 complètement autonome, si l'humain est
01:12:28 out of the loop,
01:12:30 hors de la boucle de décision,
01:12:32 ça pose effectivement des problèmes.
01:12:34 Est-ce que c'est un opérateur ? Est-ce que c'est
01:12:36 le chef militaire ? Est-ce que c'est éventuellement
01:12:38 le responsable politique
01:12:40 qui a autorisé la
01:12:42 fabrication et l'usage de ces armes ? Pour l'instant,
01:12:44 ces questions ne sont pas réglées et effectivement
01:12:46 là, sur ce point en particulier, il y a besoin
01:12:48 de faire quelque chose.
01:12:50 Mais je pense qu'on peut s'appuyer
01:12:52 assez fortement sur ce qui existe, notamment
01:12:54 la Convention d'Ottawa.
01:12:56 Et la France, elle a une position
01:12:58 que là-dessus ?
01:13:00 En 2021, nous, on a dit, en France,
01:13:02 on a déclaré que notre position
01:13:04 sur les armes létales autonomes ou les laws,
01:13:06 ce serait de ne pas y aller, ou de ne pas
01:13:08 les utiliser ou de ne pas les fabriquer.
01:13:10 Après, se pose la question très justement
01:13:12 évoquée par vous. Est-ce que ce faisant, on ne prend pas
01:13:14 un retard supplémentaire sur,
01:13:16 par exemple, une forme de réelle politique
01:13:18 sur le sujet ?
01:13:20 - Si. Maintenant, c'est pour
01:13:22 le groupe Démocrate.
01:13:24 C'est M. Pain,
01:13:26 qui est député
01:13:28 du Morbihan.
01:13:30 - Merci, M. le Président.
01:13:32 Madame, M. Thibault.
01:13:34 - Nous vous souhaitons un bon anniversaire. - Merci, ma nouvelle présidente.
01:13:36 Au nom du groupe Modem, Démocrate
01:13:38 et Apparenté, je veux d'abord remercier les différents
01:13:40 intervenants de nous avoir présenté leurs travaux,
01:13:42 leurs réflexions sur ce sujet, devenus incontournables
01:13:44 de l'IA, y compris dans les domaines
01:13:46 qui intéressent notre commission,
01:13:48 les relations internationales.
01:13:50 Ces dernières années, l'Union Européenne
01:13:52 n'a cessé de construire et de préciser sa politique
01:13:54 numérique, notamment depuis la mise en place
01:13:56 du règlement général sur la protection des données
01:13:58 en 2016.
01:14:00 Nous en sommes, nous, Européens,
01:14:02 nous nous sommes, nous, Européens, lancés dans la course
01:14:04 dont la Chine et les Etats-Unis ont pris
01:14:06 la tête, et vous nous avez parlé, chère
01:14:08 Madame Mala, de la troisième voie.
01:14:10 Si l'intelligence artificielle entraîne des bénéfices
01:14:12 économiques, sociaux ou encore stratégiques,
01:14:14 elle comporte aussi des risques
01:14:16 jusqu'à potentiellement porter atteinte à nos
01:14:18 intérêts et à nos droits. L'Union Européenne
01:14:20 est en conscience,
01:14:22 en est consciente, et s'est donnée pour
01:14:24 objectif de défendre ses valeurs
01:14:26 en luttant contre les risques associés au développement
01:14:28 irrégulé de ces systèmes,
01:14:30 enjeux de cybersécurité, lutte contre
01:14:32 la concurrence déloyale et la désinformation
01:14:34 et protection des données notamment.
01:14:36 Elle veut promouvoir des systèmes d'intelligence
01:14:38 artificielle sûrs, transparents,
01:14:40 traçables, non discriminatoires
01:14:42 et respectueux de l'environnement.
01:14:44 L'importance de ces systèmes et l'utilisation
01:14:46 grandissante des
01:14:48 intelligences artificielles génératives ont
01:14:50 poussé des Etats à réfléchir
01:14:52 à la définition d'un cadre réglementaire plus
01:14:54 strict. Un cadre juridique provisoire
01:14:56 a été discuté en décembre dernier
01:14:58 au Royaume-Uni, lors du sommet
01:15:00 sur la sécurité de l'intelligence artificielle
01:15:02 qui devrait être concrétisé en France
01:15:04 à la fin de l'année, lors d'un
01:15:06 second sommet. En accueillant
01:15:08 cet événement, la France démontre qu'elle
01:15:10 entend jouer un rôle de
01:15:12 premier plan dans le développement de l'intelligence
01:15:14 artificielle et de sa régulation.
01:15:16 Nous faisons partie des leaders européens dans
01:15:18 ces technologies et comptons bien rester
01:15:20 ambitieux et innovants. Pouvez-vous nous
01:15:22 parler un petit peu de cet événement qu'accueillera
01:15:24 la France à la fin de l'année ?
01:15:26 Je vous remercie.
01:15:28 Vous avez vu que M. Péain
01:15:30 avait évoqué la troisième voie,
01:15:32 avait rappelé que vous aviez parlé
01:15:34 de troisième voie. Quand vous parlez de troisième voie
01:15:36 d'un centriste, vous suscitez quasiment
01:15:38 un réflexe pavlovien.
01:15:40 Qui veut répondre
01:15:42 à M. le député du Morbihan ?
01:15:44 Allez-y, madame Alain.
01:15:48 J'y vais. La troisième voie
01:15:50 européenne ou française,
01:15:52 on retourne encore sur
01:15:54 la question de la souveraineté. Je vais
01:15:56 bientôt ne plus avoir grand-chose
01:15:58 à dire de plus.
01:16:00 Vous n'êtes pas
01:16:02 obligée de vous répéter, il suffit de dire que
01:16:04 vous avez déjà dit.
01:16:06 Vous savez que je suis entarissable sur ce sujet.
01:16:08 Oui, je sais. Joyeux anniversaire.
01:16:10 Comme vous êtes modem et que vous avez
01:16:14 une très jolie cravate orange,
01:16:16 il y a quelque chose qu'on a
01:16:18 qui est une institution en France qui s'appelle
01:16:20 le commissariat au plan.
01:16:22 Or, ce qu'il faut...
01:16:26 Le haut commissariat au plan.
01:16:28 Il me semble.
01:16:32 C'est bien la couleur de la cravate qui m'y fait penser.
01:16:34 Parlez sans vous émouvoir.
01:16:36 Ce n'est pas la couleur du plan, mais c'est la couleur de la cravate.
01:16:38 C'est la couleur de la cravate.
01:16:40 Pourquoi je dis ça ?
01:16:42 Parce que la stratégie, en fait,
01:16:44 construire une stratégie techno-industrielle
01:16:46 sur la question de l'intelligence artificielle,
01:16:48 mais sur tout un tas d'autres technologies.
01:16:50 Aujourd'hui, on parle beaucoup d'IA, mais ça peut être
01:16:52 beaucoup d'autres choses. Suppose, en fait,
01:16:54 de jouer sur deux temporalités. Du très court terme,
01:16:56 évidemment, il faut gérer
01:16:58 des surprises, des bons
01:17:00 technologiques, disons, de l'incrémental
01:17:02 ou pas. Et puis, il faut surtout avoir une vision
01:17:04 de très long terme sur ce que
01:17:06 devrait être la France, en fait,
01:17:08 dans 20, 30 ans.
01:17:10 Et ça peut être à la fois...
01:17:12 Disons...
01:17:14 Je ne sais pas comment vous le dire,
01:17:16 mais vraiment, travailler sur ces deux aspects-là.
01:17:18 Or, pour se dire ce qu'est la France
01:17:20 dans la question technologique à 20 ans,
01:17:22 il faut absolument comprendre où sont
01:17:24 nos stratégies de niche. Donc, tout à l'heure,
01:17:26 je vous parlais de cartographier, en fait, nos assets,
01:17:28 nos actifs stratégiques. Ça suppose
01:17:30 vraiment de monter
01:17:32 du travail. C'est travailler,
01:17:34 c'est monter des équipes pour essayer de comprendre
01:17:36 où est-ce qu'en fait, il va falloir qu'on
01:17:38 mette la focale pour arrêter
01:17:40 de saupoudrer. Il ne faut plus saupoudrer.
01:17:42 Et la question n'est pas d'ailleurs de faire
01:17:44 plus. Ce n'est pas de mettre plus
01:17:46 d'argent. C'est juste de se dire, avec
01:17:48 les moyens qu'on a à disposition,
01:17:50 comment est-ce qu'on affecte le plus intelligemment
01:17:52 possible pour non pas être
01:17:54 partout en suiveur des États-Unis,
01:17:56 parce que c'est un peu ça notre logique, en fait.
01:17:58 Mais c'est plutôt de se dire, où est-ce qu'on peut être avant-gardiste
01:18:00 sur quelques stratégies de niche, sur des chaînes
01:18:02 de valeurs stratégiques qui sont
01:18:04 ultra importantes pour nous, et donc de devenir
01:18:06 incontournable, c'est-à-dire d'avoir quelque chose
01:18:08 à mettre sur la table transactionnelle,
01:18:10 quand vous avez besoin de tenir votre rapport de force.
01:18:12 C'est ça, la véritable souveraineté.
01:18:14 Et c'est d'autres stratégies. C'est Israël,
01:18:16 par exemple, dans le cyber. Et donc, c'est
01:18:18 plutôt cette réflexion-là, un peu
01:18:20 plus, disons, constructive, qu'il faudrait
01:18:22 ou disons, qui peut être plus
01:18:24 apporter plus d'opportunités qu'il faudrait avoir.
01:18:26 Et enfin, et je termine, parce que j'y tiens, parce que je n'arrive
01:18:28 toujours pas à le placer, c'est la question africaine.
01:18:30 Aujourd'hui, l'exportation du modèle
01:18:32 chinois se fait sur ce continent-là.
01:18:34 Ils ont préempté cette question-là. Donc, on a
01:18:36 les luttes informationnelles par la Russie, on a les
01:18:38 infras, et les réseaux, et la connectivité
01:18:40 par la Chine. D'ailleurs, dans un continuum
01:18:42 où récemment, je lisais un article, je crois, dans
01:18:44 "The Time", où ils ont même lancé des
01:18:46 écoles de formation des dictateurs.
01:18:48 Donc, vous avez cette continuité d'exportation
01:18:50 du modèle techno-autoritaire chinois en Afrique.
01:18:52 Et là où, nous, on est rivés
01:18:54 sur les Etats-Unis, et on aurait peut-être des choses
01:18:56 à faire en Afrique de ce point de vue-là, en termes
01:18:58 de rayonnement, de soft power, et même
01:19:00 d'exportation de nos normes et de nos valeurs.
01:19:02 Enfin, valeurs, non, mais en tout cas de nos normes.
01:19:04 Et ça serait ça, le "Brussels Effect".
01:19:06 Je vous remercie.
01:19:08 En termes de formation, l'école
01:19:10 Saint-Jacques-aux-Equidents a contribué à
01:19:12 la formation de nombreux chefs d'État africains.
01:19:14 Monsieur Thibault, est-ce que
01:19:16 vous voulez ajouter quelque chose à ce
01:19:18 qu'a dit madame Allard ? Non ?
01:19:20 Comme vous le souhaitez, je crois
01:19:22 qu'il a été répondu assez clairement
01:19:24 aux questions de monsieur Payens.
01:19:26 Pour les socialistes et apparentés, c'est
01:19:28 monsieur David, qui est député
01:19:30 de la Gironde. Alain, c'est à vous.
01:19:32 Merci, monsieur le Président,
01:19:34 madame, monsieur,
01:19:36 chers collègues. La maîtrise de ces
01:19:38 nouvelles technologies, l'intelligence artificielle,
01:19:40 en particulier,
01:19:42 constitue un élément de la capacité d'influence
01:19:44 dans les prochaines décennies,
01:19:46 que ce soit en termes de soft power
01:19:48 et même en termes de hard power,
01:19:50 puisque vous évoquez
01:19:52 également les déclinaisons
01:19:54 militaires et technologiques.
01:19:56 Il est d'ailleurs très paradoxal
01:20:00 que tous ces sujets
01:20:02 sur les technologies de pointe
01:20:04 et sur l'intelligence artificielle
01:20:06 prennent autant de place au moment
01:20:08 où les relations internationales
01:20:10 ont, elles, été
01:20:12 plutôt un grand pas
01:20:14 en arrière vers la conflictualité,
01:20:16 les rapports de force,
01:20:18 la guerre à haute
01:20:20 intensité, que l'on pourrait
01:20:22 qualifier de à l'ancienne,
01:20:24 avec son cortège de destruction,
01:20:26 de barbarie, d'obus ou de tranchées,
01:20:28 même si les drones
01:20:30 et le guidage intelligent des obus
01:20:32 et missiles tiennent
01:20:34 une large place.
01:20:36 Cela a été mentionné, un rapport
01:20:38 a récemment été remis
01:20:40 au Président de la République par la Commission
01:20:42 de l'intelligence artificielle, co-présidée
01:20:44 par Anne Bouvreau,
01:20:46 présidente du Conseil d'administration
01:20:48 de l'École normale supérieure et par l'économiste
01:20:50 Philippe Agion.
01:20:52 Je vous ai sentis en partie
01:20:54 réservés sur la tonalité
01:20:56 raisonnablement optimiste
01:20:58 de ces travaux, dans la capacité
01:21:00 de la France à figurer
01:21:02 à la pointe de cette révolution
01:21:04 technologique. En conséquence,
01:21:06 sur ce sujet, comme sur bien
01:21:08 d'autres, je pense qu'il convient de nous
01:21:10 départir d'une certaine naïveté,
01:21:12 naïveté dont s'encombre,
01:21:14 je trouve, moins rarement,
01:21:16 nos partenaires anglo-saxons et plus encore
01:21:18 chinois. On l'a vu ces derniers
01:21:20 jours, avec la visite d'État
01:21:22 du président chinois en France,
01:21:24 il est encore difficile de considérer
01:21:26 ce géant comme un partenaire,
01:21:28 un concurrent, et surtout comme
01:21:30 un rival systémique, tel
01:21:32 que le Parlement européen l'avait qualifié
01:21:34 en 2019.
01:21:36 De fait, ne pensez-vous pas
01:21:38 qu'en matière d'intelligence artificielle,
01:21:40 aussi, l'enjeu de long terme
01:21:42 n'est pas autant que le leadership
01:21:44 économique, la défense du
01:21:46 modèle démocratique, libéral
01:21:48 et de respect des libertés fondamentales
01:21:50 et des droits de l'homme ?
01:21:52 Je vous remercie,
01:21:54 M. le député. Qui souhaite
01:21:56 répondre à M. David ?
01:21:58 Allez-y, M. David. Oui, il y a beaucoup de choses
01:22:00 dans vos observations.
01:22:02 Je redirais tout simplement ce que je disais tout à l'heure,
01:22:06 c'est-à-dire que, dans mon intervention liminaire,
01:22:08 quand vous regardez, effectivement,
01:22:10 ce qui s'est passé aux Etats-Unis,
01:22:12 ce qui s'est passé également en Chine,
01:22:14 c'est que vous n'avez pas de développement technologique
01:22:16 important, endogène,
01:22:18 sans l'intervention massive de l'État.
01:22:20 Et aujourd'hui, l'Europe et la France ne sont pas
01:22:22 du tout dans cette optique, à part quelques
01:22:24 petites enclaves, effectivement.
01:22:26 En France, c'est le ministère de la Défense,
01:22:28 la DGA, de manière très spécifique,
01:22:30 qui encore intervient directement dans
01:22:32 ces affaires par la commande publique.
01:22:34 Mais, à part cela, ça n'existe pas,
01:22:36 en fait, en Europe. On est dans la régulation,
01:22:38 en matière d'actifs,
01:22:40 et sinon, on est plutôt dans un esprit
01:22:42 d'accompagnement au plus près des entreprises,
01:22:44 avec l'idée que, finalement,
01:22:46 on ne va pas commencer à poser des directives
01:22:52 aux entreprises dans ce qu'elles doivent faire,
01:22:54 que ce soit par des règlements,
01:22:56 ou que ce soit par de la commande publique.
01:22:58 Non, non, on pense que, finalement, il faut laisser éclore
01:23:00 le génie de chacun, et que,
01:23:02 miraculeusement, peut-être par les lois
01:23:04 magiques du marché,
01:23:06 on arrivera à une situation optimale.
01:23:08 Bon, c'est un pari,
01:23:10 c'est un pari qui peut se défendre,
01:23:12 mais, pour l'heure, en tout cas,
01:23:14 les grands modèles qui ont fonctionné,
01:23:16 que ce soit les États-Unis ou la Chine,
01:23:18 ont fonctionné à partir d'économies planifiées.
01:23:20 J'appuie sur ce terme.
01:23:22 Arrêtons avec le mythe
01:23:24 des États-Unis libéraux.
01:23:26 Ça marche très bien
01:23:28 en termes de propagande internationale,
01:23:30 mais dans les faits, bon,
01:23:32 c'est une économie planifiée.
01:23:34 Alors, selon des modalités
01:23:36 qui ont été évoluées au fil du temps,
01:23:38 on n'est plus dans les années 60, mais,
01:23:40 malgré tout. Donc, pour conclure,
01:23:42 si on regarde ce qui se passe en France ou en Europe,
01:23:44 si le but
01:23:46 est de développer une capacité
01:23:48 endogène majeure,
01:23:50 à même de faire de nous des leaders
01:23:52 en matière de technologies numériques
01:23:54 de façon indépendante, et je ne dis pas que c'est bien
01:23:56 ou que ce n'est pas bien, j'ai absolument pas du tout
01:23:58 envie de prendre partie dans ce débat,
01:24:00 de manière complètement indépendante
01:24:02 des acteurs états-uniens et des acteurs chinois,
01:24:04 bon, clairement,
01:24:06 on fait fausse route.
01:24:08 Donc, soit on fait fausse route, on se trompe,
01:24:10 soit on se dirige dans une autre direction.
01:24:12 À ce moment-là, il faudrait nous dire dans quelle direction on se dirige.
01:24:14 C'est très clair comme diagnostic.
01:24:20 Maintenant,
01:24:22 pour horizon apparenté, c'est
01:24:24 M. Portarieux, qui est
01:24:26 lui député de la Haute-Garonne.
01:24:28 Merci, M. le Président.
01:24:30 Une question très courte.
01:24:32 Vous avez évoqué, Madame,
01:24:34 l'espèce de consensus international
01:24:36 qui existe sur
01:24:38 la nécessité de se doter d'une instance
01:24:40 de gouvernance appropriée
01:24:42 de l'intelligence artificielle.
01:24:44 Vous avez mentionné le rôle
01:24:46 que les BRICS pourraient tenir.
01:24:48 Mais à quoi ça pourrait ressembler
01:24:50 cette gouvernance, cette instance ?
01:24:56 M. Portarieux a de nombreuses qualités,
01:24:58 dont celle de poser des questions extrêmement brèves.
01:25:00 Merci, parce que j'aurais d'autant plus
01:25:02 de temps pour la réponse.
01:25:04 Non, je répéterai simplement
01:25:06 ce que je disais tout à l'heure.
01:25:08 Les questions restent ouvertes.
01:25:10 Aujourd'hui, les possibilités
01:25:12 qu'on a sur la table, les différents
01:25:14 scénarios possibles, c'est soit, en effet, on arrive
01:25:16 à monter une gouvernance globale
01:25:18 de l'intelligence artificielle, qui pourrait être abritée
01:25:20 soit par des instances multilatérales existantes,
01:25:22 soit ad hoc.
01:25:24 Pourquoi réinventer la poudre, mais pourquoi pas
01:25:26 à la limite si l'ONU crispe
01:25:28 certains états,
01:25:30 j'entends. Donc, il y aurait
01:25:32 cette première possibilité-là,
01:25:34 de coopération globale, qui est appelée
01:25:36 par les voeux
01:25:38 d'un certain nombre d'États, mais enfin, dans les faits,
01:25:40 on est très tâtonnant, parce que
01:25:42 vous avez des intérêts diplomatiques et géostratégiques
01:25:44 divergents, quoi qu'on en dise.
01:25:48 Soit, vous avez, en effet,
01:25:50 une régionalisation, c'est-à-dire que
01:25:52 ça va se balkaniser. Et d'ailleurs, sur la question
01:25:54 de la régulation globale
01:25:56 et internationale, ce qu'il faudrait
01:25:58 détricoter et revenir un tout petit peu, c'est vraiment
01:26:00 sur les usages techniques de ces outils-là.
01:26:02 Et en fait, ce qu'on est en train de voir apparaître,
01:26:04 on n'en a pas du tout parlé, c'est l'éventuel
01:26:06 ou ce qui pourrait être perçu
01:26:08 comme un petit retard
01:26:10 qui a été enregistré par la Chine
01:26:12 par rapport aux États-Unis sur la question des IA génératives.
01:26:14 Aujourd'hui, les modèles dominants
01:26:16 des IA génératives sont
01:26:18 d'abord et avant tout américains.
01:26:20 Et donc,
01:26:22 est-ce qu'on ne va pas avoir finalement
01:26:24 un système international
01:26:26 mais à double vitesse, où on va
01:26:28 découpler de plus en plus,
01:26:30 pour ne pas oser le mot
01:26:32 de dériscage,
01:26:34 mais est-ce qu'on va découpler au fur
01:26:36 et à mesure toutes ces filières et tous ces usages
01:26:38 ultra stratégiques pour arriver à des systèmes
01:26:40 qui cohabitent
01:26:42 sans forcément
01:26:44 se dialoguer ou en dialoguant
01:26:46 vraiment à la marge ? Je n'ai
01:26:48 toujours pas la réponse. Et puis les BRICS, oui,
01:26:50 c'est un mouvement vraiment à suivre de près.
01:26:52 À l'été 2023,
01:26:54 quand ils se sont réunis à Johannesburg,
01:26:56 ils ont sorti d'ailleurs
01:26:58 leur groupe d'études sur l'intelligence artificielle,
01:27:00 avec un énorme volet d'ailleurs sur l'éducation.
01:27:02 Donc, à regarder.
01:27:04 L'Afrique, encore une fois, j'insiste.
01:27:06 Pourquoi sur l'Afrique ? Pas parce que
01:27:08 j'en suis originaire, pas du tout.
01:27:10 Mais pour une raison très simple, c'est parce que
01:27:12 quand on parle de souveraineté
01:27:14 ou quand on parle d'Europe puissance,
01:27:16 quand on parle de France puissance,
01:27:18 il va falloir à un moment donné qu'on
01:27:20 redéfinisse
01:27:22 la morphologie de notre relation à l'Afrique,
01:27:24 dont on a un destin absolument
01:27:26 commun, autour de la question
01:27:28 technologique. Et de ce point de vue-là,
01:27:30 j'ai travaillé sur un certain nombre de projets, notamment
01:27:32 technologiques en Afrique, et je vois très peu
01:27:34 d'acteurs français se positionner, même sur les appels
01:27:36 d'offres, sur les histoires
01:27:38 de Smart City, de ville intelligente,
01:27:40 d'infra. Donc il va falloir
01:27:42 venir en France, simplement
01:27:44 avoir un discours de la commande publique, c'est très bien,
01:27:46 mais si, aujourd'hui, on ne va pas chercher
01:27:48 aussi nos marchés là-bas, on est en train de passer
01:27:50 à côté d'une bataille, quelqu'un l'évoquait,
01:27:52 de soft power, et donc
01:27:54 industriel aussi, pur. Et donc
01:27:56 il ne faut pas négliger ces zones-là,
01:27:58 tout ne tourne pas systématiquement
01:28:00 autour des Etats-Unis, il faut aussi savoir décentrer
01:28:02 un tout petit peu son regard. Je crois que vous avez
01:28:04 tout à fait raison, et c'est une dimension
01:28:06 dans cette commission, et très consciente.
01:28:08 Monsieur Thibault, vous voulez dire
01:28:10 quelque chose de plus ?
01:28:12 Donc maintenant,
01:28:14 c'est pour la gauche démocrate et républicaine,
01:28:16 c'est notre
01:28:18 vice-président, député du Havre,
01:28:20 monsieur Lecoq.
01:28:22 Merci, monsieur le Président. Vous imaginez
01:28:24 bien qu'en 150 secondes,
01:28:26 il n'est pas facile de
01:28:28 développer une thèse, une antithèse, comme on pourrait le faire
01:28:30 au bac en 4 heures.
01:28:32 Et oublier Aigle et parler.
01:28:34 Voilà, et donc...
01:28:36 Déjà,
01:28:38 il y a au moins un point qui
01:28:40 me fait aller vers vous, c'est
01:28:42 de mesurer que ces grandes technologies
01:28:44 nécessitent de la planification.
01:28:46 Ça fait des décennies qu'on l'explique.
01:28:48 Mais c'est bien,
01:28:50 on commence à gagner, et je propose que la
01:28:52 première décision que devrait prendre, après la commission,
01:28:54 notre gouvernement, c'est de confier aux communistes
01:28:56 la planification de ces grandes technologies.
01:28:58 Ça ira peut-être plus vite
01:29:00 que par Bayrou.
01:29:02 Le deuxième
01:29:04 aspect, vous en avez parlé, c'est l'éducation.
01:29:06 On n'est pas au niveau
01:29:08 où il faut dans notre pays sur la
01:29:10 compréhension de l'intelligence artificielle,
01:29:12 de ses possibilités,
01:29:14 de ses risques, parce qu'on n'en parle pas
01:29:16 trop. Mais il y a quand même...
01:29:18 L'ONU dit "attention, l'intelligence artificielle
01:29:20 et la bombe atomique,
01:29:22 il faut limiter les choses, quoi.
01:29:24 Il ne faut pas trop confier la bombe atomique à l'intelligence artificielle.
01:29:26 Ça veut dire qu'il y a peut-être un risque
01:29:28 de décision
01:29:30 contre nature.
01:29:32 Ensuite, l'ONU,
01:29:34 Guterres dit "c'est un sujet
01:29:36 pour les futures générations".
01:29:38 Il dit "c'est pas la prochaine, pas la suivante,
01:29:40 mais l'autre d'après".
01:29:42 Et moi, quand j'écoutais tout ce que me disaient
01:29:44 ces gens-là, et comme je suis
01:29:46 très attaché à la liberté,
01:29:48 je me dis "en quoi l'intelligence artificielle
01:29:50 peut entraver ma liberté ?"
01:29:52 Et vous avez parlé des systèmes.
01:29:54 Et quand je vois la reconnaissance
01:29:56 faciale, plus tous les systèmes
01:29:58 numériques, ma carte bleue, mon téléphone,
01:30:00 etc., et au-dessus
01:30:02 de tout ça, un système
01:30:04 qui permet de croiser potentiellement
01:30:06 des données et tout, je me dis que ma liberté
01:30:08 peut être
01:30:10 entravée par celui
01:30:12 qui maîtrisera, ou celle qui maîtrisera,
01:30:14 ou ceux qui maîtriseront ces
01:30:16 systèmes d'intelligence artificielle.
01:30:18 Quand ce sont les États, je me dis qu'il y a
01:30:20 peut-être encore un espace démocratique, même si
01:30:22 des fois, j'en doute.
01:30:24 Mais alors quand ce sont des entreprises privées
01:30:26 qui investissent fortement,
01:30:28 alors au début c'est pour faire des profits,
01:30:30 mais au bout du bout, ça peut être
01:30:32 aussi pour avoir le pouvoir.
01:30:34 Et donc la notion "pouvoir"
01:30:36 et "intelligence artificielle",
01:30:38 c'est aussi ça qui fait que on dit
01:30:40 "peut-être il faudra une régulation,
01:30:42 peut-être il faudrait que la communauté internationale
01:30:44 mette des bornes", comme on a mis des bornes
01:30:46 sur le clonage. À un moment donné,
01:30:48 on savait faire, mais on a dit "Hop,
01:30:50 stop, on s'arrête là, ça peut pas
01:30:52 être la société de demain". Est-ce que sur
01:30:54 l'intelligence artificielle, vous pensez qu'à un moment donné,
01:30:56 on sera contraints et forcés de
01:30:58 mettre des bornes en se disant "Attention,
01:31:00 ça peut pas être la société humaine
01:31:02 de demain".
01:31:04 Je vous ai pas...
01:31:06 Je vous ai pas tapoté,
01:31:08 parce que je sais que vous êtes
01:31:10 d'une discipline absolue.
01:31:12 Mais enfin, effectivement, la question
01:31:14 posée par M. Lecoq est quand même importante.
01:31:16 J'avais un ami à moi
01:31:18 disparu pendant l'épidémie
01:31:20 du Covid, qui était le président
01:31:22 du Conseil départemental de Haute-Seine,
01:31:24 M. De Vegean, qui avait toujours cette
01:31:26 maxime. Ceux qui ont connu
01:31:28 le pétrole avant la démocratie
01:31:30 ne connaîtront jamais la démocratie.
01:31:32 Et on a un peu tendance à dire
01:31:34 "Ceux qui connaîtront l'intelligence artificielle
01:31:36 avant la démocratie, connaîtront-ils
01:31:38 la démocratie ?"
01:31:40 - Est-ce que les démocraties qui rencontrent
01:31:44 l'intelligence artificielle resteront démocrates ?
01:31:46 - Oui, oui. Je ne pose pas
01:31:48 de questions. - Oui, oui.
01:31:50 - Je vous ai répondu un peu différemment.
01:31:52 - Mais la question que vous posez,
01:31:54 M. le député, c'est celle, en fait...
01:31:56 Vous dites "mettre des bornes".
01:31:58 Alors, oui,
01:32:00 effectivement, mais
01:32:02 si je puis me permettre, c'est que votre question
01:32:04 présuppose finalement qu'il y ait une distinction
01:32:06 nette entre
01:32:08 le public et le privé, entre l'État
01:32:10 et les entreprises. Et cela,
01:32:12 en fait, en ce sujet politique, on sait
01:32:14 très bien que les liens entre ces
01:32:16 deux entités un peu abstraites sont
01:32:18 effectivement très importants.
01:32:20 Et que ce soit d'ailleurs
01:32:22 dans une économie totalement
01:32:24 planifiée à la limite soviétique comme
01:32:26 la Chine, qu'aux États-Unis,
01:32:28 qu'en France, en Europe.
01:32:30 Donc, en fait, c'est beaucoup
01:32:32 plus compliqué que ça, à mon avis,
01:32:34 que de vouloir poser des bornes.
01:32:36 Parce que si vous voulez
01:32:38 mettre des bornes
01:32:40 au pouvoir des entreprises qui maîtriseraient
01:32:42 l'intelligence artificielle, il faudrait
01:32:44 que ces entreprises n'aient pas de pouvoir
01:32:46 déjà auparavant. Et à mon avis, elles l'ont déjà.
01:32:48 Mais c'est de manière assez
01:32:50 compliquée et on ne peut pas traiter ça tout de suite.
01:32:52 Je laisse de côté.
01:32:54 Mais sur les libertés,
01:32:56 la question de la reconnaissance faciale, la reconnaissance
01:32:58 biométrique, effectivement, c'est un sujet extrêmement majeur.
01:33:00 Moi, je crois que les
01:33:02 représentants de la nation ont aujourd'hui les moyens
01:33:04 de commencer à réguler cette question-là
01:33:06 pour l'État lui-même.
01:33:08 Parce qu'effectivement, on voit
01:33:10 depuis quelques années des libertés
01:33:12 qui sont prises par les autorités publiques
01:33:14 à ce sujet. Des libertés
01:33:16 qui sont même aujourd'hui consacrées
01:33:18 notamment dans la loi,
01:33:20 qui sont consacrées dans le règlement
01:33:22 européen, les "I-Act",
01:33:24 qui notamment autorisent,
01:33:26 sous certaines conditions, l'usage des
01:33:28 outils d'identification biométrique
01:33:30 en temps réel, à distance.
01:33:32 C'est-à-dire le fait de reconnaître
01:33:34 des gens à partir de leur visage,
01:33:36 etc. Alors, dans des cas
01:33:38 spécifiques,
01:33:40 mais qui sont suffisamment larges,
01:33:42 qui permettent suffisamment d'exceptions pour
01:33:44 qu'on puisse,
01:33:46 disons, craindre des
01:33:48 cas de généralisation, en tout cas des
01:33:50 cas de dérive,
01:33:52 si je puis dire. Donc,
01:33:54 il me semble que
01:33:56 s'il fallait, effectivement,
01:33:58 renforcer la question
01:34:00 des libertés individuelles et fondamentales
01:34:02 dans le domaine de l'intelligence artificielle,
01:34:04 ce serait d'abord, à mon avis, à la représentation nationale
01:34:06 de le faire pour le cas
01:34:08 de l'État, concomitamment
01:34:10 avec, évidemment, la question des entreprises,
01:34:12 bien sûr.
01:34:16 La vocation de la souveraineté de l'État
01:34:18 est certainement très bienvenue.
01:34:20 Pour le
01:34:22 dernier orateur inscrit
01:34:24 au titre des groupes,
01:34:26 et non pas au nom d'un groupe,
01:34:30 puisque c'est au titre des non-inscrits,
01:34:32 c'est Mme Véronique Besse, qui est députée
01:34:34 de la Vendée. Merci, M. le Président.
01:34:36 Merci beaucoup pour vos
01:34:38 interventions et vos éclairages.
01:34:40 Alors, vous avez déjà en partie
01:34:42 répondu, parce que, voilà, le problème quand on passe
01:34:44 en dernier, c'est que beaucoup de choses ont été dites,
01:34:46 mais de nombreux acteurs gravissent
01:34:48 autour de cette innovation
01:34:50 qu'est l'IA, et beaucoup
01:34:52 de choses restent à découvrir. L'Union européenne
01:34:54 a ouvert le bal, si je puis dire, des législations
01:34:56 autour de l'IA en adoptant
01:34:58 en mars dernier la proposition de règlement
01:35:00 établissant des règles harmonisées
01:35:02 concernant l'intelligence artificielle.
01:35:04 Ce texte, une première mondiale, soutient
01:35:06 certes l'innovation, mais vise également à protéger
01:35:08 les droits et la sécurité. Si ce texte
01:35:10 est validé par le Conseil européen, il rentrera
01:35:12 en vigueur, je crois, en 2025.
01:35:14 L'intelligence artificielle
01:35:16 semble devoir entraîner des bouleversements dans nos
01:35:18 quotidiens, on en a parlé, mais des impacts
01:35:20 sur les relations géopolitiques
01:35:22 sont à envisager. C'est ce qu'anticipe
01:35:24 l'Europe en résumant les objectifs du règlement
01:35:26 voté le 13 mars 2024, je cite,
01:35:28 "protéger les droits fondamentaux, la démocratie,
01:35:30 l'état de droit et la durabilité environnementale
01:35:32 contre les risques liés à l'IA,
01:35:34 tout en encourageant l'innovation en faisant de
01:35:36 l'Europe un acteur de premier plan dans ce domaine".
01:35:38 Donc, l'Europe cherche
01:35:40 à se protéger, elle interdit donc certains
01:35:42 usages de l'IA, comme les
01:35:44 systèmes de notation citoyenne ou la manipulation
01:35:46 du comportement. Mais au-delà de ce texte
01:35:48 fondateur, l'Europe est-elle bien intégrée
01:35:50 dans la course de cette nouvelle technologie ?
01:35:52 Ou cette course est-elle déjà gagnée par
01:35:54 un autre acteur ? La France
01:35:56 doit-elle faire course commune
01:35:58 avec l'Europe ou doit-elle parier sur ses
01:36:00 propres capacités ? Notre pays
01:36:02 est-il d'ailleurs en capacité réelle à innover
01:36:04 dans ce domaine ? Et en a-t-il les moyens ?
01:36:06 Et au-delà des rivalités étatiques
01:36:08 et du besoin de savoir développer et utiliser
01:36:10 cette technologie de manière souveraine,
01:36:12 est-ce que les entreprises privées sont avantagées
01:36:14 dans cette période de défrichage de l'intelligence
01:36:16 artificielle ?
01:36:18 Merci Madame la députée.
01:36:22 Monsieur Thibault.
01:36:26 Merci Madame la députée.
01:36:28 Alors, est-ce que l'Europe est dans la course
01:36:32 déjà ? C'est une bonne question. Est-ce que l'Europe
01:36:34 cherche véritablement à devenir une puissance
01:36:36 en matière d'intelligence artificielle autonome ?
01:36:38 Je n'en suis pas sûr. Pour le moment,
01:36:40 ce qu'on voit,
01:36:42 il se trouve que mon travail,
01:36:44 mon principal travail, c'est une thèse
01:36:46 que je suis en train de préparer sur les rapports entre Google et l'État.
01:36:48 Et ce que je puis voir au fil
01:36:50 de mes recherches, c'est finalement quoi ?
01:36:52 L'attitude des gouvernants étant
01:36:54 finalement la volonté, alors pas que dans le domaine
01:36:56 des nouvelles technologies, un petit peu partout, d'attirer
01:36:58 effectivement les investissements étrangers.
01:37:00 Avec cette idée
01:37:02 que finalement,
01:37:04 personne ne le dit comme ça, mais
01:37:06 on ne sera jamais en mesure de
01:37:08 recréer un Google, un Microsoft,
01:37:10 un Amazon, un Apple.
01:37:12 Ce qui peut être d'ailleurs vrai.
01:37:14 Donc, faisons venir
01:37:16 ces investisseurs en France et faisons
01:37:18 en sorte qu'ils infusent
01:37:20 le tissu économique national et qu'ils diffusent
01:37:22 leur technologie. C'est
01:37:24 le pari aujourd'hui que font les Français,
01:37:26 je ne crois pas me tromper en disant cela,
01:37:28 et que font les Européens
01:37:30 en règle générale. Donc,
01:37:32 à mon sens,
01:37:34 la question de la souveraineté numérique européenne
01:37:36 est presque une fausse question.
01:37:38 Alors, ça fonctionne,
01:37:40 je comprends l'usage rhétorique qui peut
01:37:42 en être fait, c'est normal,
01:37:44 ça a un poids aujourd'hui dans le débat public
01:37:46 de parler de souveraineté, mais je ne crois pas
01:37:48 aujourd'hui que ce soit véritablement
01:37:50 au sens strict du terme,
01:37:52 la direction vers laquelle
01:37:54 se dirigent nos gouvernants.
01:37:56 Je ne crois pas que ce soit ça l'idée. L'idée, c'est
01:37:58 plutôt de se dire, bon,
01:38:00 attirons ces investisseurs, profitons
01:38:02 des technologies qu'ils ont, faisons
01:38:04 en sorte de les utiliser à bon escient pour
01:38:06 accroître le PIB et l'emploi,
01:38:08 et puis,
01:38:10 espérons que nous ne fâchions jamais
01:38:12 avec eux, et avec
01:38:14 leur état de tutelle.
01:38:16 C'est comme ça que je
01:38:18 verrai les choses, rapidement.
01:38:20 - Oui, c'est un peu inquiétant. Ils apportent
01:38:22 la technologie, nous, nous apportons Versailles.
01:38:24 - On apporte aussi les talents.
01:38:26 - Madame. - J'aimerais
01:38:28 simplement compléter.
01:38:30 Ça dépend de ce qu'on entend
01:38:32 par acteur privé.
01:38:34 Il y a une focale sur les
01:38:36 Big Tech ou les géants technologiques
01:38:38 américains, à juste titre, mais encore une fois, il ne s'agit
01:38:40 absolument pas du tout de les diaboliser, mais de
01:38:42 comprendre en quoi, pragmatiquement, on peut avoir
01:38:44 des intérêts convergents avec eux. Et quand on
01:38:46 dit, d'ailleurs, Big Tech ou acteur privé,
01:38:48 ça ne veut encore rien dire. Vous avez, en fait,
01:38:50 ceux qui se sont normalisés, qui sont devenus
01:38:52 vraiment des industries en tant que telles,
01:38:54 et qui sont aujourd'hui des partenaires et des stakeholders
01:38:56 de cette discussion-là. Évidemment,
01:38:58 il y a Google, Meta, dans une
01:39:00 certaine mesure, Microsoft,
01:39:02 évidemment, Amazon, et puis vous avez les nouveaux
01:39:04 entrants, entre guillemets,
01:39:06 Open AI et Elon Musk, qui sont beaucoup plus dans une
01:39:08 immaturité, même industrielle.
01:39:10 Et donc, en fait, ça dépend de qui on parle
01:39:12 et quel est l'interlocuteur qu'on a en face.
01:39:14 Quand on voit aujourd'hui Google, par exemple,
01:39:16 sur la question de la souveraineté, on n'en a pas parlé
01:39:18 très brièvement ou je l'évoquais. En fait, il faut
01:39:20 toujours comprendre la chaîne de valeur de l'intelligence
01:39:22 artificielle. Et en fait, en amont de ça, vous avez
01:39:24 le Data Center, donc toute la question, par exemple,
01:39:26 du cloud. Eh bien, sur la question
01:39:28 de l'extraterritorialité du droit américain
01:39:30 dont on a
01:39:32 totalement hystérisé, par exemple, en France,
01:39:34 donc Cloud Act et FISA,
01:39:36 qui sont un peu les deux textes qui sont
01:39:38 problématiques d'un point de vue
01:39:40 juridique, justement, sur la protection, la souveraineté
01:39:42 des données, et des données sensibles
01:39:44 en particulier. Eh bien,
01:39:46 dans toutes les discussions qu'il peut y avoir,
01:39:48 Google a publié, ou a
01:39:50 annoncé récemment, un cloud
01:39:52 qui est complètement déconnecté.
01:39:54 C'est-à-dire qu'en cas de crise géopolitique
01:39:56 extrêmement majeure
01:39:58 entre la France et les États-Unis, dans
01:40:00 un cas absolument catastrophique,
01:40:02 ceux qui sont sur ce cloud-là,
01:40:04 ils coupent tout, et de toute façon, vous
01:40:06 recentrez, vous recentralisez,
01:40:08 vous relocalisez totalement votre
01:40:10 infra, même si elle était d'origine
01:40:12 disons américaine. Donc, il y a
01:40:14 des réflexions. C'est pour ça que je vous dis de ne pas diaboliser
01:40:16 et aller un tout petit peu dans le détail des choses,
01:40:18 plutôt que de faire des analyses
01:40:20 trop génériques sur le sujet.
01:40:22 Et puis, il y a la question, en fait, de qu'est-ce que
01:40:24 vaut votre souveraineté, si
01:40:26 aujourd'hui, vous n'avez pas la couche de cyber-sécurité ?
01:40:28 Ça vaut quoi, au-delà de
01:40:30 l'incantation politique ? Donc, ça pose des
01:40:32 questions systémiques de ce type-là.
01:40:34 Enfin, quand je dis de quel acteur privé on parle,
01:40:36 vous avez aujourd'hui des entrepreneurs
01:40:38 ou des hommes d'affaires français qui
01:40:40 investissent là-dedans, dans ces sujets-là,
01:40:42 à quelques centaines de millions d'euros. Donc,
01:40:44 les ordres de grandeur n'y sont pas. Mais,
01:40:46 quand on les interroge,
01:40:48 la question est de se dire pourquoi est-ce qu'ils ne travaillent pas avec l'État ?
01:40:50 Pourquoi ?
01:40:52 Eh bien, je vais vous le dire, pour une raison très
01:40:54 simple. Parce qu'en fait, on n'a
01:40:56 pas de fléchage, on a une bureaucratie
01:40:58 très lourde, et en fait, ça devient
01:41:00 tout d'un coup, au-delà de dire "on a
01:41:02 un super rapport, une super commission, il faut mettre 5 milliards",
01:41:04 il y a une difficulté, aujourd'hui,
01:41:06 de faire davantage intégrer
01:41:08 des très bonnes volontés du secteur privé
01:41:10 avec le secteur public.
01:41:12 La culture, l'agilité
01:41:14 ne s'est encore pas faite.
01:41:16 Est-ce qu'elle est en cours ? Je l'espère.
01:41:18 Est-ce qu'il faut continuer à sensibiliser sur ces questions-là ?
01:41:20 Je l'espère. Mais, en tout cas,
01:41:22 on est encore très,
01:41:24 disons, tâtonnant, là où
01:41:26 les stratégies, disons, de pays qui sont
01:41:28 beaucoup plus avancés, Chine, États-Unis,
01:41:30 Israël, etc., eux, ont dépassé
01:41:32 ce cap-là depuis très longtemps.
01:41:34 Mais, dans leur ADN,
01:41:36 en fait, il y a ces allers-retours entre public et privé.
01:41:38 Donc, il va falloir s'interroger aussi sur
01:41:40 notre culture entrepreneuriale,
01:41:42 notre culture du risque, et notre culture
01:41:44 technologique au sens large.
01:41:46 Et ça, on n'y est pas tout à fait.
01:41:48 Donc, il y a cette question-là.
01:41:50 Je voulais dire autre chose.
01:41:52 Je terminerai juste d'un mot. Encore une fois,
01:41:54 quand on dit "IA", ça ne veut rien dire.
01:41:56 C'est la question de quels usages,
01:41:58 quels sont les développements d'usages dont on parle.
01:42:00 On a des champs énormes en France
01:42:02 sur la question de la santé,
01:42:04 sur l'agri-tech, sur l'agriculture,
01:42:06 sur le climat. Donc, la question,
01:42:08 elle est pas de se dire "Tiens, il y a de l'IA".
01:42:10 Et donc, on va mettre de l'IA partout.
01:42:12 Alors, quel est notre projet de société ? Quel est l'objectif politique
01:42:14 qu'on cherche à atteindre ? Et de ce point de vue-là,
01:42:16 et en rétro-planning, disons,
01:42:18 en quoi les systèmes technologiques,
01:42:20 en quoi les logiciels peuvent nous aider
01:42:22 à atteindre cet objectif politique ?
01:42:24 Et donc, en fait, il faut réinverser la proposition de valeur,
01:42:26 il faut réinverser la question.
01:42:28 - Oui, vous me faites penser, en vous écoutant,
01:42:30 vous me faites penser à la phrase
01:42:32 des théologiens catholiques qui disent que
01:42:34 l'argent est un mauvais maître
01:42:36 et un bon serviteur. C'est exactement ça.
01:42:38 Monsieur Thibault, est-ce que vous voulez...
01:42:40 - Je voulais juste apporter peut-être une nuance
01:42:42 sur ce que vient de dire ma voisine
01:42:44 sur le point de...
01:42:46 Est-ce que les GAFAM, finalement,
01:42:48 sont capables de se découpler, à un moment donné,
01:42:50 de l'État américain
01:42:52 en cas de conflit, etc.
01:42:54 Ça me paraît extrêmement compliqué.
01:42:56 Ça me paraît extrêmement compliqué.
01:42:58 - Non, je ne disais pas ça. Je disais juste que Google vient sortir une annonce
01:43:00 sur un cloud déconnecté.
01:43:02 Et donc, ça peut être intéressant de voir un peu ces formes-là.
01:43:04 - D'accord. A investiguer.
01:43:06 Mais, effectivement, il est arrivé,
01:43:08 dans l'histoire récente, qu'il y ait des coups d'éclat
01:43:10 de la part de Microsoft, Apple et Google,
01:43:12 mais refusant, par exemple,
01:43:14 d'obéir aux injonctions du FBI
01:43:16 en termes de requêtes judiciaires.
01:43:18 Mais,
01:43:20 dans le temps long,
01:43:22 imaginez
01:43:24 que ces entreprises
01:43:26 refusent d'obéir à l'État fédéral américain.
01:43:28 Je n'y crois pas trop.
01:43:30 Pourquoi ? Parce que
01:43:32 c'est un petit peu ce qui a commencé...
01:43:34 Ce qui sait est ce qu'il sait.
01:43:36 Je vais vous faire rapidement cette anecdote.
01:43:38 En 2018,
01:43:40 on a vu un hiatus se produire.
01:43:42 D'un côté,
01:43:44 certaines entreprises,
01:43:46 notamment Google, annonçaient,
01:43:48 notamment sous la pression de ses employés,
01:43:50 le retrait d'un grand contrat
01:43:52 avec le Pentagone, un contrat d'intelligence artificielle,
01:43:54 qui visait
01:43:56 à équiper les drones de l'armée pour faire vite
01:43:58 d'outils de reconnaissance
01:44:00 d'images automatiques
01:44:02 pour cibler
01:44:04 des terroristes, des cibles diverses.
01:44:06 Google s'est retiré
01:44:08 de ce contrat sous la pression d'une partie
01:44:10 de ses employés. Le même mois,
01:44:12 Google signait un partenariat avec
01:44:14 l'université Tsinghua pour le développement de l'intelligence artificielle,
01:44:16 donc l'université pékinoise.
01:44:18 Une université qui est de notoriété publique,
01:44:20 connue pour être un acteur
01:44:22 majeur de la stratégie de fusion
01:44:24 civilo-militaire chinoise.
01:44:26 Et, une semaine avant, le vice-président
01:44:28 de cette université expliquait
01:44:30 dans les médias chinois que
01:44:32 l'université était tout à fait en pointe
01:44:34 dans le développement de l'IA à des fins militaires
01:44:36 avec l'armée.
01:44:38 Il y a eu une sorte de disjonction stratégique
01:44:40 qui s'est opérée à ce moment-là.
01:44:42 Et le gouvernement américain, sous la houlette
01:44:46 de Trump, a réagi
01:44:48 extrêmement vivement. Vous avez eu une audition
01:44:50 notamment du comité des forces armées, du Sénat,
01:44:52 du secrétaire à la Défense à l'époque
01:44:54 et du chef d'état-major des armées
01:44:56 qui expliquent,
01:44:58 quasi mot pour mot, que
01:45:00 Google est en état de trahison.
01:45:02 Google est un traître.
01:45:04 Et qu'il est en train de travailler avec l'armée chinoise.
01:45:06 Et à partir de ce moment-là,
01:45:08 mais de façon plus globale, l'image
01:45:10 des GAFAM s'est extrêmement dégradée dans l'opinion
01:45:12 publique américaine
01:45:14 et donc la classe politique a un peu suivi,
01:45:16 à partir de ce moment-là, on a vu un réanimement
01:45:18 quand même s'opérer. C'est-à-dire que
01:45:20 certes,
01:45:22 aussi sous la pression de la Chine, les entreprises
01:45:24 américaines se sont désengagées
01:45:26 du territoire chinois. Il faut dire qu'ils n'ont pas
01:45:28 été aidés par la loi de protection
01:45:30 sur les données personnelles chinoises
01:45:32 qui faisait en sorte que, d'une certaine manière,
01:45:34 en fait, il devenait impossible pour une entreprise américaine,
01:45:36 en raison des lois
01:45:38 extraterritoriales type FISA, etc.,
01:45:40 d'opérer sur le marché chinois.
01:45:42 Mais voilà, c'est pour cette raison
01:45:44 qu'aujourd'hui je vois moins,
01:45:46 au-delà d'ailleurs des textes juridiques,
01:45:48 je vois moins s'esquisser
01:45:50 la perspective d'une disjonction
01:45:52 entre les grandes entreprises
01:45:54 technologiques américaines et
01:45:56 le gouvernement fédéral américain. Même si,
01:45:58 je ne doute pas que, dans l'esprit
01:46:00 notamment des commerciaux
01:46:02 Google, Amazon, Facebook, Apple, Microsoft,
01:46:04 il y ait cette volonté, effectivement, de se détacher
01:46:06 de cette tutelle
01:46:08 encombrante.
01:46:10 Je vous remercie. Nous avons encore
01:46:12 un quart d'heure, pas plus,
01:46:14 et nous avons fini les
01:46:16 prises de parole des représentants
01:46:18 des groupes. Nous avons les parlementaires
01:46:20 qui interviennent à titre
01:46:22 individuel,
01:46:24 en rhétorique classique,
01:46:26 j'enseignais Cormeil aux enfants,
01:46:28 on appelait ça de la "steak-o-mitty",
01:46:30 c'est-à-dire une intervention en moins
01:46:32 d'une minute auxquelles vous répondez dans
01:46:34 le même délai. La première intervenante
01:46:36 ce sera Mme Soudé.
01:46:38 Merci, M. le Président.
01:46:40 Ce débat sur
01:46:42 l'intelligence artificielle devrait être régulé
01:46:44 dans notre Assemblée car son omniprésence prochaine
01:46:46 pose deux questions essentielles.
01:46:48 La première, c'est que nous devons établir un
01:46:50 rapport de force avec les entreprises.
01:46:52 L'intelligence artificielle ne doit pas servir à supprimer
01:46:54 des emplois. Le FMI estime que l'IA
01:46:56 impactera 40% des emplois au niveau mondial,
01:46:58 60% dans les pays les plus riches.
01:47:00 Il faut s'y préparer en cadrant le plus possible
01:47:02 cette technologie. La deuxième problématique
01:47:04 tient à la régulation et au contrôle.
01:47:06 Nous savons que le ministère de l'Intérieur travaille
01:47:08 sur une centaine de projets mobilisant le numérique
01:47:10 et l'IA. Une grande majorité sont
01:47:12 des chabottes qui permettent de simplifier la communication
01:47:14 avec les usagers, mais certaines
01:47:16 activités voulues par le gouvernement doivent être
01:47:18 strictement contrôlées, voire combattues par le pouvoir
01:47:20 parlementaire. L'exemple le plus parlant
01:47:22 est l'expérimentation de la vidéosurveillance
01:47:24 algorithmique dans le cadre fixé par la
01:47:26 loi Jeux Olympiques, adoptée l'an dernier.
01:47:28 Alors, mes deux questions sont très simples.
01:47:30 Quelle garantie pouvez-vous nous donner
01:47:32 quant à la protection des emplois mis en concurrence par l'IA ?
01:47:34 Quel contrôle le gouvernement prévoit-il
01:47:36 quant à la récolte de données sensibles
01:47:38 et leur utilisation via l'IA, et comment
01:47:40 le Parlement pourra-t-il contrôler son application ?
01:47:42 Je vous remercie, madame la députée.
01:47:44 Lequel de vous deux
01:47:46 ou lesquels
01:47:48 de vous deux suiviez en
01:47:50 temps de répondre, madame la députée ?
01:47:52 Allez-y.
01:47:54 En une minute,
01:47:56 c'est impossible de répondre. En tout cas,
01:47:58 c'est absolument impossible.
01:48:00 Pour essayer de comprendre un peu les enjeux
01:48:02 démocratiques sur la question des
01:48:04 libertés, je vous invite vraiment
01:48:06 à essayer de voir les travaux de la Quadrature du Net
01:48:08 et de ces quelques associations qui
01:48:10 ont une vision, ou d'un juriste qui
01:48:12 s'appelle Serge Slama, qui sont extrêmement
01:48:14 disons
01:48:16 actifs sur ces questions-là,
01:48:18 et qui mériteraient une audition en tant que telle, que je
01:48:20 problématiserais en tout cas de la façon suivante,
01:48:22 en quoi les instruments de projection de puissance
01:48:24 que sont en fait les outils technologiques,
01:48:26 et en particulier ces acteurs technologiques américains,
01:48:28 peuvent devenir tout d'un coup
01:48:30 un instrument d'hyperpouvoir sur sa population,
01:48:32 et en quoi donc notre modèle démocratique
01:48:34 se diluerait, ou convergerait
01:48:36 vers des modèles qu'on critique, et qui ne sont pas
01:48:38 les nôtres en termes de valeur,
01:48:40 les techno-autoritarismes que l'on connaît bien.
01:48:42 Je n'ai pas de boule de cristal,
01:48:44 et tout dépendra aussi de la sensibilité
01:48:46 des Français à ces questions-là.
01:48:48 Or, le silence est globalement
01:48:50 assourdissant, au-delà de quelques
01:48:52 érugumènes qui essayent,
01:48:54 qui parlent un peu, c'est dangereux
01:48:56 le truc. Donc, qui chatte, pardon.
01:48:58 - Pas la même chose.
01:49:00 - Non, c'est pas du tout la même chose, donc qui chatte.
01:49:02 Je pensais à autre chose.
01:49:04 Et donc, voilà.
01:49:06 C'est une question fondamentale,
01:49:08 et qui suppose peut-être aussi
01:49:10 une sensibilisation de ou des opinions
01:49:12 publiques sur ces sujets-là,
01:49:14 mais visiblement, le fameux dilemme
01:49:16 sécurité versus liberté,
01:49:18 dans la rhétorique actuelle, tend
01:49:20 plutôt vers la question sécuritaire,
01:49:22 pour plein de raisons qui n'ont rien à voir avec la question
01:49:24 technologique, et dans laquelle s'inscrit
01:49:26 la question technologique. Mais là, ça supposerait
01:49:28 une réponse de 4 heures au moins.
01:49:30 - Oui, alors, c'est une...
01:49:32 Vous précisez effectivement que cette réponse
01:49:34 de 4 heures, on va certainement la porter,
01:49:36 et j'ai bien pris note du conseil
01:49:38 que vous avez donné,
01:49:40 et je peux consulter M. Slaba.
01:49:42 Bien.
01:49:44 Maintenant, c'est M. Wicks,
01:49:46 qui est député
01:49:48 du Calvados.
01:49:50 - Merci, M. le Président.
01:49:52 - Des horizons du Calvados. - Merci, M. le Président.
01:49:54 Je pense que ma question va nécessiter
01:49:56 des développements, malheureusement. Moi, je voulais
01:49:58 vous interroger sur la question juridique
01:50:00 et réglementaire. Le Conseil de l'Europe
01:50:02 a mis en place une convention cadre,
01:50:04 et je cite, "le contrôleur
01:50:06 européen de la protection des données
01:50:08 l'a vivement critiqué ou du moins
01:50:10 été déçu parce que trop restrictive
01:50:12 et limitée aux champs publics."
01:50:14 Je voulais, en fait, vous entendre
01:50:16 et savoir notamment si
01:50:18 on n'a pas déjà un premier point de blocage
01:50:20 lié, justement, aux intérêts
01:50:22 économiques qui contraignent
01:50:24 forcément la protection aussi
01:50:26 des droits
01:50:28 de tout à chacun. - Oui,
01:50:30 vaste question, là, encore.
01:50:32 M. Thibault, vous voulez dire un mot ?
01:50:34 Comme...
01:50:36 Comme vous voulez, je pratique
01:50:38 le stationnement alterné.
01:50:40 - Non.
01:50:42 Évidemment, quand on
01:50:44 prend position en matière juridique,
01:50:46 il y a toujours la question de savoir quels sont les intérêts
01:50:48 en jeu et comment est-ce qu'on arbitre entre
01:50:50 ces intérêts.
01:50:52 En l'occurrence, l'Union européenne...
01:50:54 Alors là, vous parlez du Conseil de l'Europe, effectivement.
01:50:56 Mais les instances
01:50:58 européennes, en général,
01:51:00 le Conseil de l'Europe en particulier, ont toujours
01:51:02 été
01:51:04 plutôt dans le sens, en fait, d'un renforcement
01:51:06 des droits et des libertés fondamentaux.
01:51:08 Et peut-être qu'effectivement, pour une
01:51:10 fois, le Conseil de l'Europe a fait un pas en arrière
01:51:12 et n'est pas allé aussi loin qu'il
01:51:14 aurait pu, effectivement, dans ce sens-là.
01:51:16 Mais
01:51:18 peut-être aussi parce que la question
01:51:20 de l'innovation, du besoin
01:51:22 d'innovation, en fait, a aujourd'hui
01:51:24 pris une importance majeure
01:51:26 dans le discours,
01:51:28 dans tous les discours politiques, d'une certaine
01:51:30 manière. Et c'est sans doute
01:51:32 une erreur. C'est sans doute une
01:51:34 erreur parce qu'à un moment donné, quel que soient
01:51:36 les
01:51:38 aspirations économiques, quel que
01:51:40 soient nos espoirs
01:51:42 en termes de croissance et d'emploi,
01:51:44 une démocratie digne de ce nom
01:51:46 doit, je pense, pouvoir
01:51:48 mettre des lignes
01:51:50 rouges à ne pas franchir.
01:51:52 Et les lignes rouges, c'est quoi ? C'est ne pas
01:51:54 surveiller sa population
01:51:56 pour... à tout prétexte.
01:51:58 Ce n'est pas restreindre des libertés
01:52:00 ...
01:52:02 Je m'arrêterai là.
01:52:04 Ne pas restreindre des libertés fondamentales,
01:52:06 ne pas...
01:52:08 Voilà, il y a des choses à respecter.
01:52:10 À un moment donné, si on a envie d'être une puissance
01:52:12 française ou européenne,
01:52:14 qu'on a envie d'exporter notre modèle
01:52:16 vers le reste du monde, si on a envie de
01:52:18 rayonner, il faut
01:52:20 qu'on soit conforme à nos valeurs.
01:52:22 Il faut qu'on puisse regarder les gens en face
01:52:24 et leur dire, voilà, nous, nous vous proposons ce modèle
01:52:26 que nous appelons
01:52:28 universel, voire universaliste,
01:52:30 mais... voilà, parce que
01:52:32 nous le respectons nous-mêmes. Et je crois
01:52:34 qu'il y a un risque, effectivement,
01:52:36 depuis quelques années,
01:52:38 que, notamment en matière technologique,
01:52:40 nous nous dirigeons
01:52:42 dans une direction un petit peu hasardeuse.
01:52:44 Le cycle d'audition démarre
01:52:48 à un point absolument idoine,
01:52:50 puisque on est en pleine préparation des JO.
01:52:52 Et que la question, justement, des VSA,
01:52:54 des vidéos de surveillance algorithmique,
01:52:56 le quadrillage
01:52:58 de l'espèce publique, etc., en termes
01:53:00 d'expérimentation, commencent, justement,
01:53:02 et soulèvent un certain nombre de débats.
01:53:04 Donc ces auditions-là, autour de la question de la
01:53:06 technosécurité ou technosécuritaire,
01:53:08 ou de technosurveillance, peuvent être très intéressantes,
01:53:10 avec notamment aussi la CNIL, qui aujourd'hui a davantage
01:53:12 un rôle consultatif, et n'est pas du tout,
01:53:14 d'ailleurs, n'a pas assez de ressources,
01:53:16 disons, humaines, pour
01:53:18 gérer l'ensemble
01:53:20 de ces questions-là.
01:53:22 Donc ça peut être aussi intéressant d'avoir aussi le régulateur,
01:53:24 qui est censé être en charge de ces questions-là,
01:53:26 d'avoir son point de vue
01:53:28 sur ces sujets, puisqu'ils sont
01:53:30 au cœur de l'actualité
01:53:32 du moment.
01:53:34 Oui, la CNIL, qui d'ailleurs, en fait, depuis 2004,
01:53:38 n'a quasiment plus aucun pouvoir sur l'État.
01:53:40 Les pouvoirs de la CNIL
01:53:42 ont été vidés de leur substance, alors qu'elle a
01:53:44 quand même été créée pour protéger
01:53:46 les citoyens contre le fichage par l'État,
01:53:48 en 78.
01:53:50 C'est terrible.
01:53:52 Autre chose qui est quand même terrible,
01:53:54 mais pensons-y, c'est que nous avons
01:53:56 aujourd'hui un très grand acteur de la tech chinoise,
01:53:58 qui est un partenaire officiel
01:54:00 des Jeux Olympiques. Je ne le citerai pas,
01:54:02 parce que je n'ai pas envie de me prendre à un procès,
01:54:04 mais c'est une entreprise
01:54:06 qui aujourd'hui participe
01:54:08 à la ségrégation,
01:54:10 à la persécution
01:54:12 de populations en Chine.
01:54:14 Je pense aux Ouïghours, je pense à d'autres types
01:54:16 de populations civiles, et
01:54:18 nous ouvrons notre pays
01:54:20 à cette entreprise-là.
01:54:22 Je le dis, c'est scandaleux.
01:54:24 C'est scandaleux
01:54:26 que nous ayons laissé faire ça.
01:54:28 Et j'espère
01:54:30 qu'à l'avenir,
01:54:32 on réfléchira quand même à deux fois à qui nous invitons
01:54:34 en France.
01:54:36 C'est effectivement
01:54:40 assez préoccupant, et ça mériterait
01:54:42 qu'on poursuit cette
01:54:44 réflexion sur ce terrain-là.
01:54:46 Monsieur...
01:54:48 Maintenant, c'est à
01:54:50 M. Joly, député
01:54:52 Rassemblement national
01:54:54 de l'ISER, si je ne me trompe pas.
01:54:56 Merci, M. le Président, Mme,
01:54:58 M.... L'intelligence artificielle
01:55:00 constitue un défi majeur pour nos sociétés,
01:55:02 mais les promesses de progrès
01:55:04 technologique et humain qu'elles portent sont
01:55:06 absolument gigantesques, notamment en termes
01:55:08 d'organisation du travail, puisque
01:55:10 le développement de ces technologies aura
01:55:12 pour conséquence effectivement un accroissement considérable
01:55:14 d'abord du chômage, dû à la disparition
01:55:16 de nombreuses activités jusque là pilotées
01:55:18 par l'humain, mais engendrera dans le même
01:55:20 temps une hausse considérable de la
01:55:22 productivité. L'articulation
01:55:24 de l'intelligence artificielle et de cette nouvelle
01:55:26 organisation du travail repose d'abord
01:55:28 et avant tout sur la question de la répartition
01:55:30 des gains de productivité.
01:55:32 L'intelligence artificielle sera un
01:55:34 cauchemar social si les gains de productivité
01:55:36 seront captés entièrement par
01:55:38 une toute petite minorité, et un véritable
01:55:40 paradis économique s'ils sont a contrario
01:55:42 bien répartis et profitent à l'ensemble
01:55:44 de la population, en permettant
01:55:46 soit une hausse des salaires,
01:55:48 soit une réduction du temps de travail.
01:55:50 Alors je souhaiterais savoir
01:55:52 si vous avez quelques éléments
01:55:54 en perspective
01:55:56 sur cette question, s'il vous plaît.
01:55:58 Je vous remercie.
01:56:00 C'était une intéressante question.
01:56:02 Allez, répondez tous les deux si vous voulez.
01:56:06 C'est brièvement.
01:56:08 Sur la question
01:56:10 de productivité, est-ce qu'on va avoir des gains
01:56:12 de productivité ? Il est vraisemblable
01:56:14 que oui. De quel ordre ?
01:56:16 Personne n'a de boule de cristal, encore une
01:56:18 fois, et les rapports aujourd'hui
01:56:20 essaient d'être un peu plus mesurés, mais vous avez un peu
01:56:22 à boire et à manger. Sur l'impact du travail,
01:56:24 pareil, c'est exactement la même question,
01:56:26 ce qui est très intéressant sur la question du travail,
01:56:28 il y a évidemment la question de la politique publique,
01:56:30 c'est-à-dire comment un État, en l'occurrence la France,
01:56:32 va accompagner, c'est-à-dire la remontée
01:56:34 en compétence, le changement de compétence
01:56:36 de la population
01:56:38 française. Donc ça c'est un champ
01:56:40 énorme qui est à
01:56:42 lancer, d'une certaine façon,
01:56:44 j'ai presque envie de vous dire, parce que
01:56:46 une fois qu'on l'a écrit noir sur
01:56:48 blanc sur des rapports et des commissions, encore faut-il passer
01:56:50 à l'acte. Donc il y a toute la question de ce qu'on va appeler
01:56:52 en anglais, pardon pour le mot, mais
01:56:54 du "reskilling" ou de l'"upskilling"
01:56:56 de la
01:56:58 population active française,
01:57:00 ça c'est fondamental à
01:57:02 avoir en tête. Sur l'impact, vous
01:57:04 évoquez l'éventualité d'une
01:57:06 casse sociale, je n'en sais rien,
01:57:08 en fait c'est beaucoup moins, disons, binaire
01:57:10 que ça, il faudrait voir par poche de métiers.
01:57:12 Tous les métiers ne seront pas
01:57:14 impactés de la même façon, et puis il y a aussi des complémentarités,
01:57:16 notamment dans le secteur de la santé, avec
01:57:18 les médecins, etc. Donc il faut aussi voir où
01:57:20 est-ce que l'intelligence artificielle
01:57:22 au sens, disons, général,
01:57:24 s'inscrit dans la chaîne de
01:57:26 valeur. Et je
01:57:28 terminerai là-dessus, ce qui est très intéressant, c'est les
01:57:30 narratifs et c'est les récits, surtout
01:57:32 de Sam Altman et de Elon Musk sur
01:57:34 la question, et d'une certaine façon, ils réinventent,
01:57:36 ils boostent Marx dans
01:57:38 une forme de post-capitalisme
01:57:40 complètement débonnaire,
01:57:42 puisque eux parlent, en fait, de
01:57:44 la création de valeurs ajoutées entre eux,
01:57:46 élites technologiques, et leur production, leurs
01:57:48 créatures, les intelligences
01:57:50 artificielles de main générale,
01:57:52 on va dire, et donc
01:57:54 tout d'un coup, on remettrait au goût du jour
01:57:56 le revenu universel de base, mais qui serait
01:57:58 distribué par eux, à nous le peuple,
01:58:00 pour la paix sociale, pendant qu'eux vont à la conquête du
01:58:02 monde, de l'univers et du futur. Donc
01:58:04 pour l'instant, c'est du récit, d'ailleurs
01:58:06 qui vient d'être, hier soir,
01:58:08 remis à jour par Sam Altman
01:58:10 lui-même, mais il faut faire un tout petit peu attention
01:58:12 parce que tout d'un coup, de hurluberlu
01:58:14 de la Silicon Valley,
01:58:16 ils ont quand même des milliards, ils sont capables
01:58:18 de lever des milliards, et puis, enfin, et je terminerai là-dessus,
01:58:20 vous avez une partie de l'élite technologique américaine
01:58:22 qui commence à pencher doucement vers
01:58:24 l'alt-right, et donc de ce point de vue-là,
01:58:26 si vous combinez
01:58:28 un pacte, sociaux,
01:58:30 sociétaux, démocratiques et idéologiques,
01:58:32 on a des phénomènes politiques
01:58:36 à vraiment garder à l'œil.
01:58:38 Je vous remercie.
01:58:40 Monsieur, si vous voulez dire quelque chose.
01:58:42 En deux mots, pour abonder dans votre sens,
01:58:44 effectivement, que ce soit
01:58:46 la Banque mondiale en 2019 ou le FMI
01:58:48 récemment, début 2024,
01:58:50 on parle quand même de taux de suppression
01:58:52 net d'emplois tout à fait énormes.
01:58:54 En moyenne,
01:58:56 le FMI, en 2024,
01:58:58 vous le disiez tout à l'heure très rapidement,
01:59:00 il me semble, parle de
01:59:02 60% des emplois nets supprimés
01:59:04 dans les économies avancées.
01:59:06 Dans les économies avancées, c'est-à-dire qu'en fait,
01:59:08 ce sont plutôt les professions dites
01:59:10 intellectuelles, pour aller vite, je n'aime pas du tout ce terme,
01:59:12 qui vont être impactées.
01:59:14 60% ce serait pour les États-Unis,
01:59:16 en particulier, ça irait jusqu'à 70%
01:59:18 pour la Grande-Bretagne.
01:59:20 D'autres chiffres ont été avancés,
01:59:22 alors là, c'était plutôt la Banque mondiale,
01:59:24 77% en Chine,
01:59:26 66% en Inde, etc.
01:59:28 Il se trouve que, on ne sait pas ce qui va se passer,
01:59:30 mais on risque d'avoir
01:59:32 des suppressions massives d'emplois, et donc un chômage,
01:59:34 on parle de chômage de masse depuis les années 80,
01:59:36 mais là, un chômage gigantesque.
01:59:38 Et la question, c'est que
01:59:40 qu'est-ce qu'on va faire de ces gens-là ?
01:59:42 Qu'est-ce qu'on va faire de ces gens-là ?
01:59:44 Est-ce qu'on va développer, à partir
01:59:46 des gains de productivité développés par les IA,
01:59:48 est-ce qu'on va distribuer ces gains de productivité
01:59:50 à ces gens, pour qu'ils essaient de survivre ?
01:59:52 Je n'ai pas l'impression que ce soit l'optique
01:59:54 de nos gouvernants actuels. J'ai plutôt l'impression
01:59:56 que ce sont des personnes qui vont être marginalisées.
01:59:58 Peut-être que je me trompe, d'ailleurs j'espère,
02:00:00 parce que ce qui risque de se passer,
02:00:02 c'est une véritable catastrophe sociale.
02:00:04 Et qui dit catastrophe sociale, dit
02:00:06 des troubles sociopolitiques majeurs.
02:00:08 La question va être de savoir, dans les années à venir,
02:00:12 si ce scénario se confirme,
02:00:14 dans quelle direction vont aller nos gouvernants ?
02:00:16 Est-ce qu'ils vont aller plutôt vers
02:00:18 mettre en place une redistribution
02:00:20 des gains de productivité
02:00:22 pour faire en sorte que les gens continuent à vivre
02:00:24 décemment, même s'ils ne travaillent pas
02:00:26 ou qu'ils travaillent peu ? Ou est-ce qu'on va aller
02:00:28 plutôt vers une accentuation
02:00:30 des dépenses sécuritaires
02:00:32 de police, de justice et d'armée
02:00:34 pour essayer de quadriller
02:00:36 le paysage social et faire en sorte
02:00:38 que les populations ne se révoltent pas ?
02:00:40 On en est là. Si ces
02:00:42 scénarios se précisent, on en est à ce point-là.
02:00:44 C'est un sujet extrêmement inquiétant
02:00:46 et je pense que la représentation nationale
02:00:48 devrait s'en emparer.
02:00:50 Après, est-ce que je peux ajouter
02:00:52 quelque chose ? Très, très,
02:00:54 très brièvement, je vous jure.
02:00:56 Je vous assure.
02:00:58 Si on prend un petit coup de
02:01:00 rétroviseur, ce n'est pas du tout pour nuancer
02:01:02 parce que vraiment, je pense qu'on n'en sait, je crois,
02:01:04 rien. Mais simplement pour apporter
02:01:06 un autre élément de réflexion, pour ouvrir
02:01:08 les perspectives. Quand on
02:01:10 prend un petit coup de rétroviseur, quand on y eut
02:01:12 les grosses vagues d'automatisation dans les années
02:01:14 70-80 de l'économie notamment allemande et
02:01:16 japonaise, ça ne s'est absolument pas du tout traduit
02:01:18 par du chômage de masse. Ça s'est traduit par
02:01:20 de la complémentarité, par d'autres
02:01:22 compétences, etc. Et le
02:01:24 rapport de cet été de l'OIT,
02:01:26 je crois, parlait plutôt d'une destruction
02:01:28 nette d'emploi de 5%, chiffre
02:01:30 je crois qui a été repris par le rapport
02:01:32 de la Commission qui a été remis
02:01:34 au Président de la République.
02:01:36 En gros, je crois que
02:01:38 tous les scénarios sont possibles, que personne
02:01:40 n'en sait rien et que toute la question
02:01:42 n'est pas de se dire "voilà l'horreur" et
02:01:44 avoir des épouvantables, c'est plutôt de se dire "aujourd'hui
02:01:46 en termes de politique publique, comment est-ce qu'on prépare,
02:01:48 on accompagne, on anticipe un risque
02:01:50 éventuel ?" Et c'est là où en fait
02:01:52 on est complètement détenteur
02:01:54 et producteur et fabricateur
02:01:56 même de notre avenir
02:01:58 d'une certaine façon. Il ne nous est pas
02:02:00 imposé, il ne nous est pas
02:02:02 tombé comme ça sur les épaules.
02:02:04 Ça se prépare.
02:02:06 Oui, bon, ça se prépare
02:02:08 mais je trouve que
02:02:10 l'intervention précédente
02:02:12 était plus compatible avec celle de
02:02:14 M. Thibault et elle me pèle à vôtre
02:02:16 et je crois qu'elle était plus juste.
02:02:18 M. Thibault dit "il y a
02:02:20 un risque massif de suppression
02:02:22 d'emplois" et ce que vous aviez dit, qui me paraissait
02:02:24 très juste, c'est qu'il fallait absolument
02:02:26 nuancer toutes les situations
02:02:28 qui étaient très différentes. Mais je pense
02:02:30 que le déficit net,
02:02:32 on est plutôt dans un
02:02:34 scénario digne de
02:02:36 Vespasien que de Ricardo.
02:02:38 Il y a une étude qui vient de sortir, mais franchement,
02:02:40 il y a deux semaines, sur les gains de productivité aujourd'hui
02:02:42 avec les IA génératives.
02:02:44 Je vous donne le truc
02:02:46 pour que vous retrouviez la source, c'est le McKinsey Global Institute.
02:02:48 Je sais que McKinsey, c'est le diable en ce moment.
02:02:50 C'est intéressant parce qu'ils ont des méthodologies
02:02:52 assez, disons, traçables.
02:02:54 Si vous voulez vérifier les chiffres. Bon, les gains
02:02:56 de productivité à date, en fait, les retours
02:02:58 d'expérience qu'on commence à avoir, ne sont pas si
02:03:00 extraordinaires que ça. Il y a eu une espèce de vague de
02:03:02 hype absolument incroyable sur les
02:03:04 IA génératives, par aussi tous les récits
02:03:06 de la Silicon Valley, de Altman, de Musk,
02:03:08 etc. En réalité, on est en train
02:03:10 d'en revenir un tout petit peu, quand même.
02:03:12 En termes de principe de réalité, d'usage
02:03:14 industriel et économique dans les
02:03:16 grandes entreprises françaises et européennes.
02:03:18 Donc, il faut vraiment...
02:03:20 On tâtonne.
02:03:22 Je ne sais pas, moi je ne suis pas spécialiste,
02:03:24 mais j'ai l'impression
02:03:26 que là vous posez un autre problème
02:03:28 qui est très juste, qui est le problème du rythme.
02:03:30 C'est-à-dire qu'il est très
02:03:32 très possible que
02:03:34 ce que les études constatent,
02:03:36 c'est que, effectivement, les changements
02:03:38 n'ont pas été massivement destructeurs
02:03:40 jusqu'à présent, mais quand on
02:03:42 voit ce qu'on nous propose,
02:03:44 ce qu'on nous prévoit sur le plan des
02:03:46 évolutions technologiques, il peut y avoir
02:03:48 une modification
02:03:50 très
02:03:52 importante, même si,
02:03:54 comme dit à la Nouveau,
02:03:56 je vais encore faire une citation
02:03:58 religieuse, même si personne
02:04:00 ne sait le jour ni l'heure.
02:04:02 Monsieur, alors le dernier intervenant,
02:04:04 excusez-moi, monsieur Guignot, je ne vous ai pas
02:04:06 oublié, c'est monsieur Michel Guignot,
02:04:08 député Rassemblement National de l'Oise.
02:04:10 Oui, merci, monsieur le Président.
02:04:12 Non, je n'en doutais pas.
02:04:14 Madame, monsieur, oui,
02:04:16 rapidement, donc, l'ébouversement,
02:04:18 ça a été dit plusieurs fois, lié à l'intelligence
02:04:20 artificielle, modifieront
02:04:22 évidemment de façon indéliminée
02:04:24 notre société. Nous assistons là à un
02:04:26 changement de paradigme sûrement
02:04:28 aussi important que celui qui nous a
02:04:30 fait passer de l'agriculture à l'industrie.
02:04:32 Ce changement est impulsé autant par
02:04:34 les technologies que par l'histoire, et nous ne
02:04:36 savons pas quel en sera le résultat
02:04:38 concret. L'intelligence artificielle
02:04:40 rend dispensable bien plus
02:04:42 de professions et de travailleurs que ne
02:04:44 l'a fait l'automatisation des usines
02:04:46 il n'y a qu'un certain nombre d'années. Vous parliez
02:04:48 d'ailleurs, tout à l'heure, vous aviez évoqué
02:04:50 60% des emplois net,
02:04:52 et cela fait froid dans le dos,
02:04:54 puisque là aussi, vous l'avez confirmé,
02:04:56 une possibilité de chômage
02:04:58 gigantesque, avec bien sûr
02:05:00 des conséquences
02:05:02 absolument terrifiantes.
02:05:04 Pourtant, ces apports semblent loués au point
02:05:06 que deux visions divergentes s'opposent. D'un côté,
02:05:08 la possibilité de préserver notre nature humaine
02:05:10 et nos activités, et de l'autre, la possibilité
02:05:12 de dépasser les capacités humaines, quitte à nous rendre
02:05:14 dispensables, voire spectateurs
02:05:16 de nouvelles avancées. Juste sur un
02:05:18 point très précis, pensez-vous
02:05:20 qu'à terme, il devient nécessaire
02:05:22 de certifier le mode de production
02:05:24 par exemple d'une image, comme cela
02:05:26 commence à être le cas dans les publicités
02:05:28 que nous pouvons observer et son
02:05:30 origine ? Merci.
02:05:32 Vous n'avez pas eu besoin de tapoter, M. le Président.
02:05:34 Je vous remercie, M. le Député. Est-ce qu'une certification
02:05:36 des images,
02:05:38 c'est... Vous répondez, M. Thibault ?
02:05:40 Non, non, mais il se trouve que je n'ai pas entendu
02:05:42 votre question. Est-ce que vous...
02:05:44 Pardon, mais c'est...
02:05:46 C'est pas de votre faute, M. Guillaume, c'est eux qui étaient bavards.
02:05:48 Pour une fois, c'était pas moi.
02:05:50 Oui.
02:05:52 La question
02:05:54 portée sur les images,
02:05:56 est-ce que...
02:05:58 Il faut...
02:06:00 C'est à la limite.
02:06:02 Merci.
02:06:04 De certifier le mode de production d'une image,
02:06:06 comme cela commence à être le cas dans les publicités
02:06:08 que nous pouvons observer
02:06:10 et l'origine de cette image ? Merci.
02:06:12 On pourra faire des faits que certifient.
02:06:14 Bon, sur la question
02:06:16 du watermarking, c'est-à-dire marquer
02:06:18 la production d'images
02:06:20 inauthentiquement fausses
02:06:22 ou en tout cas nativement produites par les
02:06:24 idées génératives, oui, c'est prévu dans le
02:06:26 IA Act. C'est une des obligations
02:06:28 d'ailleurs, et c'est à peu près l'une des
02:06:30 rares sur la question de la désinformation et de
02:06:32 la massification de l'industrialisation de la désinformation
02:06:34 par les deepfakes et les audios,
02:06:36 etc. Bon, mais ce que je disais aussi
02:06:38 tout à l'heure sur cette question-là,
02:06:40 précisément, c'est qu'au-delà de la question
02:06:42 de ce solutionnisme technojuridique,
02:06:44 donc on va mettre un texte de loi coercitif
02:06:46 et puis après avec une solution technique,
02:06:48 le problème du solutionnisme
02:06:50 technologique permanent,
02:06:52 c'est qu'en fait, vos outils ne sont
02:06:54 pas du tout infaillibles, ils sont donc
02:06:56 faillibles, ils sont piratables,
02:06:58 ils sont détournables, on le voit déjà sur le
02:07:00 watermarking, on sait déjà aujourd'hui
02:07:02 supprimer, bidouiller, etc.
02:07:04 Donc, et quand vous avez aujourd'hui
02:07:06 de la vraie intention
02:07:08 malveillante par les États ou des groupes
02:07:10 para-étatiques, donc les fameuses luttes
02:07:12 informationnelles et demain, ce qu'on va appeler
02:07:14 probablement des guerres cognitives,
02:07:16 vous voyez bien que l'enjeu
02:07:18 ou la réponse n'est pas à hauteur. Donc en fait,
02:07:20 c'est tout le promo d'ailleurs de mon
02:07:22 ouvrage, c'est de dire que la dualité
02:07:24 de ces technologies qui sont toujours civiles
02:07:26 et militaires à la fois, qui s'inscrivent
02:07:28 dans le cadre de guerres hybrides,
02:07:30 doivent absolument embarquer
02:07:32 avec elles la population entière,
02:07:34 comprendre que chacun devient une cible,
02:07:36 que chacun doit être armé cognitivement,
02:07:38 de comprendre les enjeux sous-jacents
02:07:40 et que ça concerne strictement tout le monde, et que ça ne peut
02:07:42 plus être simplement de l'ordre de l'industriel
02:07:44 ou du régalien ou de je ne sais quoi,
02:07:46 mais que ça doit absolument infuser dans toute
02:07:48 la société. C'est vraiment cette dualité-là
02:07:50 qu'il faut avoir en tête, et donc c'est en fait
02:07:52 une nouvelle éducation, une nouvelle
02:07:54 anthropologie. C'était Michel Serres, puisqu'on
02:07:56 en est sur les références, qui l'écrivait de façon
02:07:58 très succincte, mais que j'avais trouvé très brillante,
02:08:00 avant qu'il ne se dédise, dans
02:08:02 Petite Poucette. Ce sont de nouvelles
02:08:04 anthropologies qu'il nous faut accompagner, et donc on ne peut
02:08:06 pas les accompagner avec un regard qui vient
02:08:08 du XXe siècle, de ce point de vue-là.
02:08:10 Et c'est toute la question de la symbiose, finalement,
02:08:12 entre le vrai et le faux, le réel et le virtuel,
02:08:14 le public et le privé. Ça pose d'énormes questions.
02:08:16 - Voilà, écoutez,
02:08:18 oui, ça pose d'énormes questions, je crois que c'est la bonne
02:08:20 conclusion de ce
02:08:22 très très intéressant colloque.
02:08:24 On a effectivement compris, je crois,
02:08:26 que le marché, la main invisible
02:08:28 d'Adam Smith n'était
02:08:30 pas très applicable
02:08:32 à l'intelligence
02:08:34 artificielle. On a compris
02:08:36 que la langue des hoppes pouvait
02:08:38 être artificielle, si j'ose dire,
02:08:40 et vous venez de l'évoquer à l'instant.
02:08:42 Je crois
02:08:44 qu'il faut vous remercier,
02:08:46 parce que nous sommes maintenant...
02:08:48 Vous nous avez amenés aujourd'hui, c'est un début
02:08:50 de réflexion pour nous,
02:08:52 nous allons continuer ce cycle
02:08:54 de réflexion, mais vous nous avez
02:08:56 amenés au pied de la montagne,
02:08:58 ou au pied de trois montagnes, qui sont
02:09:00 effectivement très dures à gravir,
02:09:02 mais nous nous sommes très reconnaissants.
02:09:04 La première de ces montagnes,
02:09:06 c'est la montagne
02:09:08 démocratique. Est-ce que
02:09:10 nous pouvons
02:09:12 survivre,
02:09:14 faire survivre la démocratie
02:09:16 à l'ensemble
02:09:18 de ces évolutions ?
02:09:20 Ce n'est pas évident. Quand on vous entendait,
02:09:22 on voyait bien qu'il y avait des choses à faire,
02:09:24 mais que ce n'était pas gagné. La deuxième montagne
02:09:26 est la montagne sociale.
02:09:28 Les transferts,
02:09:30 les transferts
02:09:32 de...
02:09:34 La destruction potentielle
02:09:36 d'un grand nombre d'emplois
02:09:38 et la concentration
02:09:40 des bénéfices de la production
02:09:42 sur, en fait,
02:09:44 les actionnaires, disons,
02:09:46 sur un certain nombre de gens
02:09:48 très limités, va poser
02:09:50 un problème de redistribution, qui a été
02:09:52 notamment posé très fortement
02:09:54 par M. Thibault, qui est
02:09:56 très, très compliqué, et qui fait
02:09:58 que, sans doute, les solutions
02:10:00 de demain seront effectivement
02:10:02 assez différentes de celles qu'on avait
02:10:04 évoquées au XIXe et au XXe siècle.
02:10:06 Et, troisièmement,
02:10:08 un enjeu national,
02:10:10 c'est-à-dire, où sommes-nous
02:10:12 dans cette course ?
02:10:14 Quels sont nos atouts ?
02:10:16 Quelles sont nos limites ?
02:10:18 Quelles sont nos
02:10:20 défaillances, nos insuffisances ?
02:10:22 Je crois que ça fait trois montagnes
02:10:24 que nous allons gravir.
02:10:26 Donc, heureusement que ça
02:10:28 se termine maintenant, cette audition,
02:10:30 parce que le travail à effectuer
02:10:32 est tout à fait énorme et demanderait
02:10:34 bien davantage
02:10:36 que le prolongement
02:10:38 de cette audition. Merci,
02:10:40 vraiment. C'était, pour moi,
02:10:42 qui suis un homme du XXe siècle, alors, profondément,
02:10:44 c'était
02:10:46 quelque chose de très éclairant,
02:10:48 de très intéressant. Je crois
02:10:50 qu'un grand nombre de questions ont été
02:10:52 posées. Je crois que tous les collègues
02:10:54 ont pris
02:10:56 un grand intérêt à
02:10:58 ces questions qui, en fait,
02:11:00 percutent, directement, traversent,
02:11:02 à défaut de percuter, mais traversent
02:11:04 directement et fortement les compétences
02:11:06 et les préoccupations de cette commission.
02:11:08 Merci à vous deux.
02:11:10 Vous êtes un couple admirablement
02:11:12 complémentaire et nous nous félicitons
02:11:14 de vous avoir invités l'une et l'autre.
02:11:16 C'était un plaisir. Merci beaucoup.
02:11:18 Merci beaucoup.
02:11:20 La séance est levée.
02:11:22 La réunion du Bureau
02:11:24 aura lieu dans 10 minutes.
02:11:26 Merci.
02:11:28 [Sous-titres réalisés par la communauté d'Amara.org]
02:11:31 [Logo de l'Ontario]
02:11:34 [Logo de l'Ontario]
02:11:37 [Logo de l'Ontario]
02:11:41 [Logo de l'Ontario]
02:11:45 [Logo de l'Ontario]
02:11:49 [Logo de l'Ontario]
02:11:53 [Logo de l'Ontario]
02:11:57 [Logo de l'Ontario]
02:12:01 [Logo de l'Ontario]
02:12:04 [SILENCE]

Recommandations