Categoría
🗞
NoticiasTranscripción
00:00Hablamos del primer pilar, ética y responsabilidad, en el ámbito de la
00:06defensa de la inteligencia artificial. El más importante, prohibición del uso de
00:12la inteligencia artificial para decisiones letales sin intervención
00:17humana. No es lo mismo que la inteligencia artificial decida, en esa
00:22fragata, dar respuesta a un torpedo, que es algo hierro al fin y al cabo, que tener
00:29que atacar a un avión que lleva tripulación o a otro buque que lleva
00:34tripulación. Como hemos visto en el ciclo ODA, en el momento de la decisión, quien
00:40toma la decisión es el comandante. Se le ha facilitado rápidamente toda la
00:46información integrada, se le han dado previsiones y posibilidades de respuesta,
00:52pero la decisión siempre pasa por el ser humano, por el comandante de la
00:57operación. Sobre todo y siempre cuando se va a emplear fuerza letal, se entiende,
01:05frente a otros seres humanos. Segundo, dentro de la ética y
01:10responsabilidad, verificabilidad y trazabilidad del
01:17algoritmo. No podemos comprar un algoritmo sin saber qué es lo que está
01:22haciendo ese algoritmo. Necesitamos conocer el algoritmo, porque va a ser
01:27quien le dé las opciones de respuesta al comandante. Luego, no podemos ser ciegos
01:32hacia cómo se han hecho esos algoritmos, los sesgos que pueda tener en su
01:36preparación y las vulnerabilidades que pueda tener ese algoritmo. Eso es
01:41fundamental. Y, por supuesto, el compromiso con el
01:45derecho internacional humanitario y los valores democráticos de los que
01:50disfrutamos. Porque si queremos defender la democracia, tiene que ser desde la
01:54democracia, sin tentaciones autoritarias.