Category
🗞
NoticiasTranscripción
00:00Gracias a todos por estar aquí, y primero quiero agradecer a Pepa Bueno y El País por invitarme.
00:11¿Cómo está mi voz? ¿Está bien? Sí, bien.
00:15Estoy segura de que han tenido un día increíble, y así que ahora lo que voy a hacer es hablar con ustedes
00:20sobre tendencias para la tecnología y el mundo del trabajo, y es un momento históricamente muy importante
00:26para hacer esto, porque hay cambios donde los sistemas de inteligencia artificial
00:32se están convirtiendo en más prevalentes en el mundo del trabajo, y este es un momento
00:36en el que pocos países han pasado la ley vinculante a la tecnología,
00:40que va a importar, por las razones que voy a aclarar.
00:43Las uniones no han solidificado un movimiento internacional para defender a los trabajadores
00:47en el contexto de la tecnología y la integración en el entorno de trabajo,
00:52y los negocios, y en particular la tecnología, están empujando a la innovación y el avancemiento de la inteligencia artificial
00:58a niveles previamente desconocidos.
01:01Así que lo que voy a hacer hoy es discutir tres tendencias en el trabajo y la tecnología de hoy,
01:09refiriendo a algunas de mis publicaciones en la filosofía y la academia,
01:13y también a algunos de los reportes y trabajo que he hecho para la Unión Europea,
01:18y algunos trabajos también para la Organización Internacional de Trabajo.
01:21Entonces, tendencias en tecnología y trabajo, TTT, tendencias en todo el mundo, TAG,
01:30y tendencias en el Reino Unido, TUK,
01:33así que eso nos da una manera de pensar micro, meso y macro
01:37de las tendencias en el trabajo y la tecnología.
01:41Y después les voy a dar un manifiesto, una sugerencia de derechos de datos basados en mi análisis.
01:53Entonces, en términos de las tendencias en el trabajo,
01:56¡ay, me dijeron tabaco! ¿Qué es esto? Tendencias en el trabajo.
02:00Así que lo que me interesa es algo que llamo el derecho al subjeto.
02:04Y esto es porque he visto un aumento en el uso de Bosware y el manejo algorítmico
02:11en todas las etapas del ciclo de vida,
02:13lo que ha aumentado durante el periodo de la COVID-19, por supuesto,
02:17cuando la gente estaba trabajando desde casa.
02:19Entonces, hubo un avance en el trabajo de conocimiento y en el trabajo capacitado
02:24en los environmentos de trabajo desde casa,
02:26donde el uso de Bosware y lo que ahora llamamos el manejo algorítmico ha aumentado.
02:31Entonces, la demanda por labeles acurados que están surgiendo de la extracción biométrica,
02:36por supuesto, con imágenes, texto y otros tipos de grabaciones de datos personales,
02:41están surgiendo a base de los tipos de discusiones que han tenido hoy en día, creo,
02:46sobre la inteligencia artificial y la necesidad de grandes datos para esto.
02:52Pero en el contexto del manejo algorítmico,
02:55el tipo de datos biométricos que veo que se abstracan y extraen
02:59es en la emoción y la reconoción facial,
03:02así como el análisis de sentimientos,
03:04que es un nuevo avance en esta arena.
03:07Ahora, los racionales que los negocios están usando para extraer este tipo de datos
03:11son para la protección de la seguridad personal y la salud,
03:14así que la seguridad ocupacional y la salud.
03:16El próximo racional es para monitorear la presencia y la productividad
03:20con muchos nuevos tipos de tecnologías en el mercado
03:23y también para la protección de los secretos comerciales
03:26y por razones de la seguridad ciber.
03:29Ahora, un estudio de datos de Gartner de 2019 de 239 grandes corporaciones
03:34encontró que más del 50% de ellos
03:37usaban alguna forma de monitoreo no tradicional.
03:41Esto incluyó el análisis del texto de los e-mails de los trabajadores,
03:44el uso de los medios sociales, la escrutinación de las reuniones.
03:48Algunos de ustedes han tenido esto recientemente con el nuevo Outlook
03:51y también con los tipos de software de Google
03:53con implicaciones de manejo de recursos humanos
03:55que no hemos visto antes.
03:58Así que este tipo de datos biométricos es una tendencia muy importante para la reunión.
04:04Ahora, en mi trabajo para el Parlamento Europeo,
04:06que fue publicado en 2020,
04:08y también para un diario llamado Convergence,
04:10que fue publicado el año pasado, en 2023,
04:12digo que en la ley de protección de datos,
04:15donde la gente cuya data es recopilada,
04:17que se llaman sujetos de datos en la ley de protección de datos,
04:20el profilamiento basado en datos biométricos,
04:23la recopilación y monitoreo, y también la extracción,
04:25lleva a diferentes tipos de riesgos
04:27para los trabajadores como sujetos de datos
04:29que hacen para los consumidores o para los ciudadanos.
04:32Así que los riesgos se vuelven realmente importantes
04:34cuando hablamos de lo que es efectivamente
04:36la tecnología neurotecnológica, como se llama.
04:39Así que este avance, los riesgos avanzan cuando las emociones son capturadas.
04:44Y esto es porque tiene que ver con nuestra propia subjetividad,
04:47con nuestra propia naturaleza de lo que hacemos en este planeta.
04:49Así que mi argumento por los derechos de los sujetos de datos
04:52es discutir una dimensión afectiva para la recopilación biométrica.
04:57Así que dado la incrementada integración que he discutido
05:00y los nuevos riesgos para los sujetos de datos que trabajan,
05:03hay preguntas serios que se presentan ahora
05:06sobre cómo poner un equilibrio
05:08o dónde poner un énfasis en la investigación,
05:11así como en la política,
05:13en la regulación, en la gobernación
05:16y también en la creación de sistemas artificiales en el mundo del trabajo.
05:20Y el equilibrio tiene que ver con las protecciones sociales para los trabajadores,
05:24tiene que ver con el papel de las uniones de comercio,
05:26con el papel de la sociedad civil,
05:28así como con los avances y el negocio en la innovación.
05:32Así que lo que he hecho para lidiar con esta pregunta,
05:35y esto es mi TAG, que tiene que ver con tendencias a través del mundo,
05:39es que he creado un proyecto que es
05:42la inteligencia artificial y la observatoria de políticas
05:45para el mundo del trabajo,
05:47que he creado con la Organización Internacional del Trabajo en Geneva.
05:50La razón por la que hago esto es para asesorar
05:52cómo diferentes países están lidiando con las preguntas
05:55que les he dicho,
05:57dentro de la regulación, dentro de la creación y dentro de la gobernación,
06:00para asesorar cómo diferentes jurisdicciones
06:03en ambos el sur y el norte mundial
06:05están lidiando con estas preguntas.
06:07Y ha sido bastante fascinante hacer esto
06:09y lo estoy haciendo con la Universidad de Essex,
06:11donde soy profesora,
06:13con mis colegas Bo Donahue y Luciana Zorzolí.
06:16Y lo que hemos argumentado hasta ahora
06:19es que las siete jurisdicciones diferentes
06:21están haciendo esto de diferentes maneras,
06:23pero desde el sitio web que pueden encontrar,
06:26lo que hemos hecho es que estamos
06:28empezando la investigación fundamental
06:30y lo que hemos hecho hasta ahora es que tenemos
06:32una serie de reportes de estudios de casos
06:34que señalan en los avances de la inteligencia artificial
06:36en cada parte del mundo,
06:38que están en nuestras siete jurisdicciones,
06:40cómo países y jurisdicciones
06:42hacen esto con respecto al mundo del trabajo.
06:44Así que ha sido extremadamente interesante.
06:46Tenemos una serie de líderes de equipo
06:48para las jurisdicciones y yo he tomado
06:50el papel de líder para la Unión Europea.
06:52¿Por qué esto importa cuando hablamos
06:54de tendencias globales?
06:56Es porque de algo que llamamos
06:58el efecto de Bruselas.
07:00El efecto de Bruselas significa
07:02que las empresas internacionales
07:04tienden a, casi voluntariamente,
07:06y realmente deberían hacerlo
07:08con el Acto de la Inteligencia Artificial
07:10y deberían adaptarse
07:12a la ley y la regulación de la Unión Europea
07:14en sus empresas para ser
07:16operacionales globalmente.
07:18Así que es por eso que voy a
07:20discutir eso. Y también
07:22encuentro que es lo más fuerte del mundo
07:24por un par de razones diferentes
07:26que voy a hablar ahora, pero voy a centrarme
07:28en los primeros dos.
07:30Areas útiles dentro de la Unión Europea
07:32la ley y la regulación
07:34para la protección de los trabajadores
07:36debido a los avances
07:38de la tecnología neuro
07:40en el trabajo actual.
07:42En la GDPR tenemos algo
07:44llamado minimización de datos.
07:46Lo que esto significa es que si hay
07:48una manera de llevar a cabo
07:50algunas operaciones o procesos
07:52en el medio ambiente, deberías
07:54intentar usar algo analógicamente
07:56en lugar de automáticamente
07:58tomar la ruta de digitalización.
08:00Ese es el primero. El segundo
08:02es sobre la proporcionalidad,
08:04para que el equilibrio de intereses
08:06entre los intereses corporativos
08:08y los derechos de los trabajadores
08:10sea equilibrado.
08:12Y el tercero tiene que ver con el consenso.
08:14Esto también está en la regulación
08:16de la protección de los datos generales.
08:18Y estoy lobbyeando continuamente
08:20para que esto sea llevado a la esfera
08:22para debatir si los trabajadores
08:24pueden consentir significativamente
08:26en el mundo del trabajo, porque el Banco Europeo
08:28de Protección de los Datos arguó que tal vez no.
08:30Y tal vez eso es cierto. Tal vez no podemos.
08:32Pero, ¿qué significa eso en términos
08:34de relación de poder y también
08:36en términos de nuestra propia subjetividad
08:38cuando el dato que se extrae,
08:40especialmente si tiene que ver con nuestras emociones
08:42y con nuestro afecto,
08:44puede comenzar a importar cuando se profila?
08:46De manera que a veces ni siquiera sabemos.
08:48Así que estos son los tipos de cosas
08:50que estoy arguiendo. Ahora, el Acto de la Inteligencia
08:52fue aprobado el 13 de marzo de este año
08:54y el Parlamento Europeo
08:56adoptó el Acto de la Inteligencia
08:58en la primera lección, después de una serie
09:00de reuniones trilógicas por años
09:02en las que se dieron diferentes enmiendas
09:04y muchos debates sucedieron.
09:06Ahora, esto es excelente
09:08porque el texto del Acto de la Inteligencia
09:10empeza que la inteligencia puede generar
09:12riesgos y causar daño a los intereses públicos
09:14y derechos fundamentales
09:16que son protegidos por la ley de la unión.
09:18Tal daño podría ser,
09:20y esto es fascinante,
09:22material y inmaterial,
09:24incluyendo físico,
09:26psicológico,
09:28social y económico
09:30en términos de daño.
09:32Entonces, en términos de los riesgos por daño,
09:34el Acto pone tecnologías
09:36que serían usadas para
09:38trabajo de trabajadores
09:40en la categoría de riesgos altos.
09:42Entonces, son diferentes categorías de riesgos
09:44que todos han tenido que lidiar con hasta ahora,
09:46si estás haciendo algo en el Acto de la Inteligencia.
09:48Entonces, en realidad,
09:50los riesgos por daño, en esta área,
09:52en la categoría de riesgos altos,
09:54el Acto de la Inteligencia encuentra
09:56tecnologías usadas para la reclutación
09:58o cualquier aspecto del ciclo de vida de los trabajadores
10:00que va más allá
10:02de las básicas en términos de identificación
10:04para los datos biométricos,
10:06estarán en la categoría de riesgos altos.
10:08Eso significa que los productos en esta área
10:10tendrán que ir a una caja de sangre
10:12o algún tipo de envío simulado
10:14para un análisis regulatorio
10:16o un método de prueba
10:18para identificar
10:20si esto es un riesgo alto
10:22y si puede ser lanzado al mercado.
10:24Esto será interesante, pero luego,
10:26en marzo,
10:28el primer análisis fue aprobado
10:30por el Parlamento Europeo,
10:32pero luego, a finales de abril,
10:34y esto es fascinante,
10:36fue distribuido algo llamado corregendum.
10:38Y durante el corregendum hay nuevos textos,
10:40de hecho, también correcciones
10:42que van a este tramo de trabajo
10:44que luego se convierte en parte del producto final
10:46que puedes encontrar.
10:48Entonces, el corregendum es realmente fascinante
10:50porque lo que quería mencionar hoy
10:52es que hay más definiciones precisas
10:54en el corregendum
10:56de lo que puede ser hecho con datos biométricos
10:58que existían antes.
11:00Y los dos tipos son,
11:02primero, la identificación básica.
11:04Entonces, la definición
11:06ahora para los datos biométricos
11:08para lidiar con las categorías de riesgo,
11:10por ejemplo, la categoría de riesgo alto
11:12que acabo de mencionar.
11:14La identificación básica tiene que ver con la autenticación,
11:16identificación o categorización
11:18de personas naturales.
11:20Y luego, la segunda tiene que ver
11:22con una dimensión de reconocimiento más profunda.
11:24Y esto es para la reconocimiento
11:26de las emociones de personas naturales.
11:28Ahora, volviendo a las categorizaciones de riesgo,
11:30el artículo 5 del Acto de la AI
11:32lista la categoría prohibida
11:34y cosas que no serán permisibles
11:36para entrar
11:38en el mercado de las Uniones Europeas.
11:40Ahora, en esta categoría prohibida
11:42tenemos la colocación en el mercado
11:44de un servicio con el propósito
11:46de inferir las emociones
11:48de una persona natural en el trabajo
11:50y en los entornos educativos,
11:52excepto donde esté en lugar
11:54por razones médicas o de seguridad.
11:56Ahora, esto es fascinante porque,
11:58como ya he dicho, hay diferentes riesgos
12:00para diferentes tipos de sujetos de datos
12:02donde las formas avanzadas de datos biométricos
12:04en la extracción de esto,
12:06que puede identificar y está identificando
12:08la emoción, está ocurriendo,
12:10y a veces niveles de honestidad,
12:12así que hay productos que están siendo testeados
12:14en Border Control,
12:16si estás familiarizado con esto,
12:18que son los botes de inteligencia artificial
12:20para identificar, y esto sería
12:22en la categorización de tu sujeto de datos
12:24como potencialmente un ciudadano o no.
12:26Así que, incluso cuando no lo sabemos,
12:28esto está ocurriendo,
12:30y cuando nos convierte en conocidos
12:32sobre esto, podemos tener miedo
12:34a cosas como algo que se llama
12:36Función Creep, y cosas como Inferencia.
12:38Inferencia es cuando un juicio puede ser hecho
12:40sobre ti, donde hay tecnología en existencia
12:42y datos recogidos,
12:44y datos recogidos, guardados y procesados,
12:46donde se puede hacer una inferencia.
12:48¿Cómo se protege contra este tipo de cosas?
12:50¿Y cómo se protege de los datos
12:52que se recogen por un propósito
12:54para ser usados por otro propósito?
12:56Es parte de la limitación del propósito en la GDPR.
12:58Es muy difícil saber cómo
13:00los datos pueden ser usados.
13:02Así que estoy argumentando aquí
13:04que lo que necesitamos hacer, al menos para las empresas,
13:06es estar extremadamente claros
13:08sobre lo que intentan hacer en términos de funcionalidad,
13:10donde haya algún tipo de análisis de sentimientos,
13:12cualquier producto que salga
13:14en recursos humanos,
13:16gestión y otros tipos de medios de trabajo.
13:18Y también he puesto la Directiva de Liabilidades,
13:20que está en parálisis en este momento,
13:22y espero que volvamos
13:24a las discusiones sobre eso,
13:26porque eso realmente ayudará
13:28a tratar algunas de las preguntas que estoy levantando.
13:30Y luego la Directiva de Maquinaria,
13:32que ya ha sido bastante útil
13:34para tratar la seguridad del producto.
13:36La razón por la que puse este slide
13:38y es de mi artículo de convergencia,
13:40es para, nuevamente,
13:42que los diferentes subjetos de datos
13:44enfrentan diferentes riesgos.
13:46Así que aquí tenemos
13:48que el sujeto de datos es sujeto a,
13:50el sujeto de datos es sujeto dentro,
13:52el sujeto de datos es sujeto de.
13:54Y así que lo que he hecho aquí
13:56es poner al consumidor y al trabajador
13:58como dos de las categorías
14:00en las que podemos pensar automáticamente
14:02cuando un consumidor entra en una relación,
14:04una relación bilateral de consenso,
14:06en la que te acuerdas o no acuerdas,
14:08te acuerdas o no acuerdas
14:10y luego los datos que se recogen sobre ti,
14:12¿cuál es el riesgo para ti
14:14si ya eres un consumidor
14:16donde ya tienes acceso a capital,
14:18mientras que si eres un trabajador
14:20tus riesgos podrían tener una pérdida de viabilidad
14:22y esto importa en la manera en la que
14:24se escribió el Acto de la Inteligencia,
14:26ex poste y ex ante.
14:28Entonces, ex ante y ex poste
14:30significa que hay riesgos potenciales
14:32que podrías enfrentar.
14:34Y esto está siendo tratado muy serio
14:36por la Unión Europea,
14:38pero vamos a volver a lo local
14:40en términos del Reino Unido.
14:42Por supuesto, esto es donde trabajo
14:44como profesora, como les he dicho.
14:46Y lo que estamos haciendo ahora
14:48es que voy a publicar un informe
14:50del Instituto para el Futuro del Trabajo
14:52con algunos colegas allí.
14:54Y lo que estamos haciendo con este informe
14:56que es datos en nuestras mentes,
14:58estamos mirando a dónde esto está ocurriendo
15:00y estamos hablando de una serie
15:02de casos en los que
15:04estamos encontrando estos productos
15:06que están produciendo en el Reino Unido.
15:08Lo que me preocupa es que,
15:10ahora que no estamos en la Unión Europea,
15:12podemos convertirnos en un testbed
15:14para algunas de estas tecnologías
15:16y algunos de los riesgos que enfrentamos.
15:18No necesariamente tenemos el recurso automático
15:20dentro de la ley europea.
15:22Entonces, tenemos un enfoque temático
15:24en el informe que se publicará
15:26esta semana o la próxima.
15:28En el estudio de casos, nos centramos
15:30nuevamente en el manejamiento
15:32del afecto algorítmico, como lo llamamos.
15:34Y también en el manejamiento emocional,
15:36psicológico y fisiológico
15:38de los trabajadores dentro de
15:40categorías específicas como
15:42monitoreo de fatiga y alerta,
15:44y monitoreo de análisis de personas
15:46y de performance.
15:48El beneficio de este informe, creo que
15:50va a ser muy útil para los asociados,
15:52para las empresas, para los gobiernos
15:54y para los representantes de los trabajadores,
15:56es que hemos ido a ver
15:58las diferentes tecnologías
16:00y hemos mirado su funcionalidad.
16:02También hemos hecho
16:04un par de investigaciones diferentes.
16:06Hemos mirado el bienestar
16:08asociado con las solicitudes
16:10para que los empleados usen
16:12AAM o
16:14software de manejo de afecto algorítmico.
16:16Y 380 trabajadores
16:18respondieron a la investigación
16:20sobre los medios de trabajo
16:22de los dos que distribuimos, y casi
16:24el 40% de los trabajadores
16:26reportaron experimentar una especie
16:28de tecnología AAM
16:30en el medio de trabajo.
16:32Pero la mayoría de los respondientes
16:34de la investigación no acudieron
16:36o no apreciaron esto como
16:38tener un impacto positivo
16:40en su experiencia de trabajo.
16:44Estos son nuestros resultados.
16:46Y luego, para entender, monitoreo de emociones
16:48y también monitoreo para análisis de sentimientos,
16:50manejo de emociones
16:52y manejo de texto para análisis de sentimientos.
16:54Entonces, en términos de monitoreo
16:56y manejo de emociones, lo que estamos
16:58arguyendo ahora es que los beneficios
17:00que podrían surgir a través de estos tipos
17:02de prácticas, aún no se han visto
17:04y tendrá que llevar un poco más de trabajo.
17:06Y vamos a mantener un ojo en cómo esto
17:08está sucediendo en el contexto del Reino Unido.
17:10Así que voy a terminar con mi manifiesto
17:12por derechos de datos de la izquierda.
17:14Y esto es, en realidad, una terminología
17:16proveniente de un escolar argentino, Roberto Cargarella,
17:18y también de un investigador
17:20legal llamado Radha D'Souza.
17:22Y ambos están arguiendo que
17:24un framework de derechos no puede ser
17:26suficiente para proteger las relaciones sociales
17:28alrededor de la protección de datos,
17:30debido a la manera en que los frameworks de derechos
17:32están operando. Y si tenemos que hacer
17:34estas cosas, por ejemplo, y luego terminaré,
17:36tenemos que hablar de, cuando hablamos
17:38del derecho al consentimiento significativo,
17:40también hay un potencial
17:42para el derecho al rechazo significativo,
17:44que hasta ahora no vemos como igual
17:46para todos los subjetos de datos.
17:48El derecho a la descripción de riesgos
17:50y el derecho a la seguridad debería ser hecho
17:52con interés colectivo, con representantes
17:54presentes.
17:56El derecho a la reconoción, que podría tener
17:58que ver con la reconoción facial y, por supuesto,
18:00la reconoción emocional debería también estar presente
18:02con el derecho a no
18:04ser desrecognizado, porque las implicaciones
18:06de ser desrecognizado
18:08pueden significar que estás directamente
18:10en la oficina de la policía
18:12y te va a tomar un tiempo para tenerte
18:14absolvido de cualquier potencial
18:16y incluso de preguntas de liabilidad,
18:18que realmente importa ahora. Así que estamos tratando
18:20de decir eso. Y luego la redistribución
18:22de la cualidad de acceso a la identificación
18:24tiene que ver con
18:26derechos, usualmente asumiendo
18:28que hay otros derechos ya en lugar
18:30para que el acceso ocurra y
18:32para que la cualidad sea protegida.
18:34Y esto viene de
18:36mi reporte de parlamento
18:38europeo de 2020.
18:40De nuevo, para darles algunas de las recomendaciones
18:42que les dio sobre los primeros principios.
18:44Codeterminación. Soy un gran fan.
18:46Ustedes saben lo que es. Proporcionalidad, necesidad
18:48y transparencia. He hablado de algunos
18:50de estos ya. Pero en términos
18:52de los puntos finales alrededor de priorización,
18:54de lo que deberíamos estar mirando,
18:56el consenso y el riesgo son para mí
18:58las cosas más importantes
19:00que hay que pensar cuando entramos
19:02en un mundo en el que
19:04nuestras emociones y nuestro afecto
19:06están sostenidos de muchas maneras.
19:08En la UE será especialmente importante
19:10mirar cosas como
19:12cómo se define la emoción
19:14cuando hablamos de lo que se reconoce,
19:16de qué tipo de datos se recogen,
19:18de qué tipo de datos biométricos se recogen.
19:20¿Es solo el proceso?
19:22¿Es solo un conjunto de relaciones bilaterales?
19:24¿O hay una multiplicidad de relaciones de datos
19:26que nos rodean
19:28cuando entramos en una nueva era
19:30de extracción? Estos son
19:32algunas de las piezas de trabajo que he referido
19:34con los derechos de datos de la izquierda,
19:36que estoy desarrollando ahora. Estas son algunas
19:38de las publicaciones a las que estoy refiriendo.
19:40Estoy segura de que, si esto está grabado,
19:42o, por supuesto, me puedes enviar un e-mail,
19:44y estoy más que feliz de compartir esto con ustedes.
19:46Muchas gracias de nuevo por estar aquí,
19:48y espero poder hablar contigo en cualquier otro
19:50tipo de contexto. Gracias.