Category
🗞
NoticiasTranscripción
00:00La inteligencia artificial está haciendo más accesible el fraude, está democratizando
00:18el acceso al fraude. Hoy en día es más fácil que nunca crear una identidad sintética con
00:23un documento de identidad falso, es más fácil que nunca clonar una voz e incluso generar
00:28un vídeo que sea un deepfake para poder suplantar la identidad de una persona y acceder a su
00:34información o, como agente malicioso, acceder incluso a sus activos financieros. La buena
00:40noticia es que precisamente gracias a la inteligencia artificial hay tecnología que puede frenar
00:48esta ola de fraude, como por ejemplo tecnología que permite hacer una prueba de vida de una
00:53persona o detectar si una voz ha sido clonada o si un vídeo es realmente un deepfake o es un vídeo
01:00real. Es por esto que vemos las dos caras y es lo que hemos hablado hoy en esta mesa,
01:05como las amenazas de la inteligencia artificial se pueden ver frenadas por las oportunidades a
01:13nivel de ciberseguridad, detección de fraude, que genera también precisamente esta inteligencia artificial.
01:24La inteligencia artificial y la ciberseguridad es una sinergia muy buena que representa actualmente
01:29un tanto un reto como una oportunidad. Por un lado, con la inteligencia artificial tenemos que
01:33apalancarnos en ella para transformar todo el porfolio de ciberseguridad y distintos servicios.
01:37Por otro lado, con la seguridad tenemos que securizar la inteligencia artificial para mitigar
01:42todos los riesgos derivados de ella. Actualmente tenemos también un componente ético muy importante
01:49que tenemos que trabajar. La IA genera aplicaciones que éticamente no son correctas y hemos pasado
01:55de tener una época de cambio a un cambio de época, de forma que el mundo virtual y el mundo real ya
02:00no están tan separados. Un ejemplo puede ser los deepfakes. En el tema de fraude, un vídeo que es
02:05falso puede generar un daño muy real tanto a una persona como a una organización. Por ello,
02:09es necesario que trabajemos todos de una forma justa, equitativa y ética para transformar la
02:14sociedad y apalancarnos en la inteligencia artificial.
02:20En la mesa que hemos celebrado hoy referida a inteligencia artificial y ciberseguridad hemos
02:27tratado distintos temas. Por un lado, la parte más de amenazas y los riesgos que conlleva el uso de
02:33la inteligencia artificial, como también la parte de protección y sistemas de detección para
02:40protegernos frente a ellos. En ese sentido, hemos llegado a una serie de conclusiones como que,
02:44por ejemplo, es una herramienta fantástica, pero sí que es necesaria una mayor concienciación,
02:49sensibilización y formación de los distintos actores que están implicados en todo el proceso
02:55de la inteligencia artificial. Y ya no sólo hablamos de los proveedores de modelos o proveedores
03:00de herramientas, sino también, por ejemplo, de los usuarios, bien sean empresas o organismos,
03:05o de los propios ciudadanos al utilizar herramientas de inteligencia artificial. En
03:09conclusión, es una herramienta fantástica, no hay que tener miedo en utilizarla y sí,
03:14pues seguir una serie de recomendaciones que desde todos los organismos pues irán llegando.
03:28Hoy hemos estado en una interesante mesa de debate sobre la inteligencia artificial y la
03:34ciberseguridad y hemos hablado de soluciones a muchos de los retos que nos planteamos en las
03:40organizaciones, que nos planteamos o se plantean a la ciudadanía y a nuestros clientes. Lo que
03:47queda claro es que no es más de lo mismo, pero podemos abordarlo basado en la experiencia. Es
03:53decir, igual que en la ciberseguridad teníamos modelos que aseguraban que los sistemas tienen
04:00confidencialidad, integridad y disponibilidad, aquí hemos hablado que la inteligencia artificial
04:04debe garantizar una fiabilidad, una transparencia y sobre todo una responsabilidad, todo a través
04:11de ese análisis de riesgos. En definitiva, hemos hablado de crear confianza entre organizaciones
04:18y personas. En definitiva, muy interesante, se nos ha quedado corto y continuaremos próximamente
04:27en otras charlas y en otras conferencias porque esto no ha hecho nada más que empezar.