• hace 1 hora

Category

🗞
Noticias
Transcripción
00:00Muchísimas gracias a todos y todas por estar hoy aquí, en primer lugar me gustaría agradecer
00:05a Pepa Bueno del país por haberme invitado. ¿Mi voz llega bien? ¿Sí? Bien, fenomenal.
00:11Estoy segura de que habéis tenido un día estupendo y ahora lo que voy a hacer es hablaros
00:16acerca de tendencias para la tecnología y el mundo del trabajo e históricamente es
00:22un momento muy importante para hacerlo porque hay cambios en los que los sistemas de inteligencia
00:28artificial cada vez son más prevalentes en el mundo del trabajo y es el momento en
00:32el que algunos países ya han aprobado leyes vinculantes con respecto a la IA que tendrán
00:38su importancia por motivos que aclararé más adelante. No se han creado uniones para defender
00:44a los trabajadores en el contexto de la IA y la integración en el mundo del trabajo
00:49y los negocios, sobre todo la Big Tech, está pidiendo que haya cada vez una mayor innovación
00:54y un avance de la IA a ritmos que anteriormente no se habían visto. Así que lo que voy a
00:59hacer ahora es hablar de tres tendencias en el mundo del trabajo y de la tecnología
01:05el día de hoy. Voy a referirme a algunas de mis publicaciones en la filosofía y en
01:09el mundo académico y también otros informes y trabajo que he realizado para la Unión
01:13Europea y también algún trabajo que he hecho para la OIT, la Organización Internacional
01:19del Trabajo, es decir, tendencias en la tecnología y el trabajo, TTT, tendencias en el mundo
01:24entero, TAG y tendencias en el Reino Unido, TUK. Así que esto nos da una visión micro
01:31macro sobre las tendencias en el trabajo y en la tecnología. Y después os voy a dar
01:39un manifiesto, una sugerencia para los derechos sobre los datos basándome en mi análisis.
01:44Bien, en cuanto a las tendencias en el mundo del trabajo, no sé por qué digo tabaco,
01:53me estoy diciendo tendencias en el trabajo. Bueno, lo que me interesa es algo que yo llamo
01:58el derecho del sujeto y en ese sentido lo que quiero decir es que ha habido un aumento
02:04en cuanto a la utilización de gestión algorítmica y Boswell en todos los momentos del ciclo
02:10que se aumentó durante la época del COVID-19, cuando la gente trabajaba desde casa. Ahí es
02:15cuando avanzaron todos los temas sobre el conocimiento y trabajar desde casa, donde la
02:27gestión aumentó y por ello necesitamos etiquetas más fiables que surjan de la extracción biométrica
02:35con datos y con registros personales que se basan en las conversaciones que habéis tenido
02:42durante el día de hoy, es decir, inteligencia artificial y la necesidad de tener grandes
02:46sets de datos para ello. Pero en el contexto de la gestión algorítmica, el tipo de datos
02:52biométricos que estoy viendo que se extraen y que se abstraen se centra sobre todo en la emoción,
02:58reconocimiento facial y también el análisis de las opiniones, que es otro avance en esta arena.
03:03Y también los negocios están utilizando estos datos, están extrayendo estos datos para proteger,
03:09se supone, para la salud y seguridad en el trabajo. También dicen que es para monitorizar
03:14la presencia, la productividad, con muchísimas tecnologías nuevas que se encuentran ahora mismo
03:20en el mercado para ello y también para la protección de los secretos empresariales y
03:24por temas de seguridad frente a ciberataques. Gardner lanzó distintos informes de grandes
03:32empresas y vieron que más de 40% estaban utilizando algún tipo de control no tradicional.
03:37Y esto incluye también el análisis de los textos de los correos electrónicos de los
03:41trabajadores, la utilización de redes sociales, también control de sus reuniones. Seguramente lo
03:47habéis visto en Outlook y con Google, con ese tipo de software en los que hay gestión de recursos
03:53humanos más allá de lo que hemos visto antes. Estos datos biométricos son muy importantes y son
03:58una tendencia muy importante. Ahora bien, en mi trabajo para el Parlamento Europeo, que se
04:03publicó en 2020 y también para un periódico que se llama Convergence, que lo publicó el año pasado
04:08en 2023, muestro que en cuanto a las leyes de protección de datos, cuando se recaban datos de
04:14las personas que son data subjects en la ley de protección de datos, se centran en monitorización,
04:21extracción y eso lleva a distintos riesgos, riesgos tanto para los trabajadores como sujetos
04:26de datos como para los consumidores y los ciudadanos. Entonces los riesgos se convierten en algo muy
04:30importante cuando hablamos de lo que es neurotecnología, así se le llama. Entonces estos son avances que
04:38van avanzando cada vez más rápido cuando se capturan también las emociones, porque al final tiene que
04:42ver con nuestra subjetividad y con la naturaleza de lo que hacemos en este planeta. Entonces yo
04:47cuando hablo de los derechos del sujeto de los datos, es que no hay que utilizar los afectos
04:53para todo lo que es la trazabilidad biométrica. Teniendo en cuenta estos riesgos para los nuevos
04:59sujetos, hay temas muy importantes que nos tenemos que plantear ahora y tenemos que ver cómo encontrar
05:04un equilibrio o dónde tenemos que darle mayor prioridad tanto para todo lo que es la investigación
05:09como para la legislación en cuanto a regulación, gobernanza, pero también desarrollo para sistemas
05:15de IA en el mundo del trabajo y también el equilibrio tendría que ver con la protección
05:19social para los trabajadores, tiene que ver también con el papel de los sindicatos y la sociedad civil,
05:24así como las ventajas para los negocios en la innovación. Y lo que he hecho para tratar de
05:30abordar esta pregunta, y este es mi trabajo sobre tendencias en el mundo entero, es un proyecto
05:37que he establecido que se centra en la inteligencia artificial y el observatorio de políticas para el
05:42mundo del trabajo que establecí con la OIT en Ginebra. Bien, el motivo por el que hacemos esto
05:48es porque tenemos que valorar cómo los distintos países están gestionando los elementos que os
05:52acabo de mencionar dentro de la regulación, del desarrollo y de la gobernanza, para valorar cómo
05:58las distintas jurisdicciones en el sur global, así como el norte global, están enfrentándose a estos
06:02temas. Y la verdad es que ha sido fascinante establecerlo y lo estoy haciendo con la Universidad
06:07de ESSEC, donde soy catedrática, con mis colegas Bo Donahue y Luciana Zorzolli, y lo que hemos
06:16visto es que hay siete jurisdicciones distintas y cada una lo está haciendo a su manera. Pero desde
06:20la página web que podéis encontrar, lo que hacemos es iniciar nuestro trabajo y lo que hemos hecho
06:27ha sido obtener una serie de informes sobre casos de estudio que lo que hacen es mostrar que ha
06:31habido avances de la IA en distintos lugares del mundo, que hemos dividido en siete jurisdicciones,
06:36cómo los países y las jurisdicciones están gestionándolo dentro del mundo del trabajo. Ha
06:41sido muy interesante, tenemos una serie de equipos de trabajo para cada una de las jurisdicciones
06:46y yo me encargo del equipo de trabajo para la Unión Europea. ¿Por qué esto es importante cuando
06:50hablamos de las tendencias globales? Pues por algo que llamamos el efecto de Bruselas. El efecto de
06:54Bruselas significa que las empresas internacionalmente tienden a querer, de forma voluntaria y ahora con
07:04la directiva de la inteligencia artificial, deberían adaptarse a las leyes europeas y a los
07:11reglamentos europeos para poder operar internacionalmente. De esto vamos a hablar más
07:17adelante y también considero que es la normativa más sólida del mundo por distintos motivos. Pero
07:24me voy a centrar en dos áreas útiles dentro de la Unión Europea, de las leyes y los reglamentos
07:31para la protección de los trabajadores, teniendo en cuenta las ventajas de la neurotecnología en
07:37el lugar de trabajo a día de hoy. En la GDPR tenemos algo que se llama la minimización de los
07:43datos. Esto significa que si existe la posibilidad de hacer operaciones y procesos en el entorno de
07:48trabajo, deberíamos tratar de utilizar algo analógico en lugar de automáticamente no tomar
07:55siempre el camino de la digitalización. El segundo tiene que ver con la proporcionalidad. Por lo
07:59tanto, el equilibrio entre los intereses de las empresas y los derechos de los trabajadores tiene
08:06que estar equilibrado. Y el tercero tiene que ver con el consentimiento. Obviamente esto está
08:10también en la GDPR y yo constantemente defiendo que esto debe ser incluido también en la esfera
08:18del debate. Si realmente los trabajadores deberían también dar su consentimiento en el mundo del
08:24trabajo, porque según la directiva europea es a lo mejor que no y a lo mejor tienen razón y es que
08:29no. Pero ¿eso qué significa en cuanto a relaciones de poder y también para nuestra propia subjetividad
08:33cuando los datos se están extrayendo sobre todo si tienen que ver con nuestras emociones y con
08:38nuestras opiniones? A lo mejor puede tener importancia cuando empiecen a darse perfilajes. A
08:43veces no nos damos ni cuenta y estas son las cosas que yo defiendo. A ver, la ley de la
08:47inteligencia artificial se aprobó el 13 de marzo de este año y el Parlamento Europeo adoptó la
08:52ley de la inteligencia artificial tras la primera lectura después de distintas reuniones que se
08:58dieron durante años cuando se hicieron muchísimas enmiendas y hubo muchísimo debate. Bueno,
09:03esto es excelente porque la ley de la IA enfatiza que la IA puede generar riesgos y puede dañar los
09:10intereses públicos y los derechos fundamentales que son protegidos por la ley de la Unión. Las
09:15leyes de la Unión Europea y estos daños podrían ser daños materiales, pero también y materiales.
09:20Esto es fascinante, incluyendo daños físicos, psicológicos, sociales y económicos en cuanto a
09:26los daños que se pueden sufrir en general. Así que en cuanto a los riesgos de los daños en la
09:31producción de la tecnología utilizado, por ejemplo, para trazabilidad de los empleados, se incluye
09:38dentro de la categoría de alto riesgo. Hay distintas categorías de riesgo y seguramente lo habréis
09:43visto que hay distintos ámbitos en la ley de la IA. Bueno, los riesgos dentro de este área del alto
09:49riesgo, la ley de la IA considera que son aquellas tecnologías que se utilizan para contratación y
09:55cualquier aspecto dentro del ciclo de empleo que son los más básicos, desde la identificación con
10:02datos biométricos, están en la categoría de alto riesgo. Es decir, que los productos en esta área
10:07tienen que pasar por un sandbox legislativo o regulatorio para poder revisar esos softwares
10:15para hacer unos test para ver si es de alto riesgo o si se puede lanzar al mercado. Y será interesante,
10:20pero al final de abril, porque en marzo fue la primera lectura y fue aprobado por el Parlamento
10:26Europeo, pero después, a finales de abril, y esto es fascinante, algo que se llama el
10:31Corregendum. Y en el Corregendum lo que tenemos es un nuevo texto y con correcciones también de
10:40este documento que se aprobó y que forma parte del documento final. Y es interesante y fascinante
10:47porque aquí se dan definiciones mucho más precisas en cuanto a lo que se puede hacer con los datos
10:53biométricos y lo que no se puede hacer. Mucho más preciso de lo que existía con anterioridad. Y los dos
10:58tipos son, primero, la identificación básica, es decir, la definición de datos biométricos para pensar
11:06en las distintas categorías de riesgo, como la de alto riesgo que acabo de mencionar. La identificación
11:11básica tiene que hacer autenticación, identificación o categorización de las personas naturales.
11:16Y la segunda tiene que ver con un reconocimiento en profundidad, es decir, otra dimensión y es para
11:21el reconocimiento de las emociones de una persona, de una persona física. Y ahora, si hablamos de la
11:27categorización, el artículo 5 de la ley IA habla de las cosas que no se pueden permitir, las cosas que
11:34no se permitirá que se introduzcan en el mercado de la Unión Europea. En esta categoría prohibida
11:39tenemos lanzar al mercado un servicio que tenga como propósito el entender las emociones de una
11:45persona física en el lugar de trabajo o en un entorno educativo, salvo cuando se establece por
11:50motivos médicos o de seguridad. Y es fascinante porque, por supuesto, como ya he dicho, hay distintos
11:55riesgos para distintos tipos de sujetos de datos, dependiendo de los datos biométricos y cómo se
12:01extraen, que pueden que pueden identificar emociones. Y a veces hay niveles de honestidad. También hay
12:08productos que se están probando ahora mismo para, por ejemplo, control fronterizo. No sé si estaréis
12:13familiarizados con esto. Son robots de IA y esto está dentro de lo que es categorización para ver si
12:20alguien es ciudadano o no. Así que incluso si no sabemos que esto está sucediendo, está sucediendo.
12:25Y cuando, de pronto, sabemos al respecto, puede darnos miedo que llegue a algo que se llama
12:32function trick e inferencia, cuando se puede juzgar gracias a la tecnología actual que recaba datos,
12:39que se almacenan, que se procesan, etcétera, y pueden hacerse inferencias. ¿Cómo nos podemos
12:45proteger frente a este tipo de cosas? ¿Cómo nos podemos proteger frente a los datos que están
12:48siendo recabados para un propósito, pero que luego se utilizan para otro objetivo distinto? Esa es una
12:53de las limitaciones de la GDPR y es muy difícil ver cómo se pueden utilizar los datos. Así que lo
12:58que defiendo aquí es que lo que vamos a necesitar hacer, por lo menos con las empresas, va a tener que
13:03dejar muy claro lo que pretendemos hacer con cada producto en cuanto a funcionalidad, si hay un
13:08análisis de opiniones, de sentimientos en todos los productos que se lancen al mercado, como por
13:13ejemplo para gestión de recursos humanos y para todo lo que es en el lugar de trabajo. Y luego he
13:17puesto la parte de la responsabilidad, y espero que podamos tener conversaciones al respecto,
13:22porque ayudará en gran medida para poder responder a otros de los temas en los que estoy trabajando.
13:28Y esto nos está ayudando muchísimo para ver la seguridad de los productos. Y el motivo por el
13:33que estoy mostrando esta diapositiva, que es de mi artículo de Convergence, es para subrayar los
13:39distintos sujetos de datos que se enfrentan a distintos riesgos. Por ejemplo, el sujeto de
13:44datos es 1, 2 y 3. Tenemos distintos sujetos dentro de o para. Entonces hemos puesto al
13:54consumidor y al trabajador en dos categorías. Y podemos decir, cuando un consumidor tiene una
13:59relación bilateral de consentimiento, en la que consiente o no consiente a que se pongan
14:06cookies en nuestro ordenador y que se recaben datos de nosotros, ¿cuál es el riesgo para nosotros si
14:10ya somos un consumidor, si ya tenemos acceso a capital? ¿Qué pasa si somos trabajador? Porque
14:15a lo mejor nuestros trabajadores pueden tener otra dimensión distinta. Y así es como se ha
14:20escrito la ley IA, Exante. Está Exante y Expost. Expost es que hay riesgos futuros a los que nos
14:28podremos enfrentar. Y esto es algo a lo que se está enfrentando de forma muy seria la Unión
14:32Europea, lo cual me parece que es excelente. Y ahora vamos a pasar a la parte local. Vamos a
14:37pasar al Reino Unido. Por supuesto, aquí es donde yo trabajo como catedrática, como ya os he dicho.
14:42Y lo que estamos haciendo ahora mismo es preparar un informe para publicarlo para el Instituto del
14:48Futuro del Trabajo con unos colegas. Y lo que estamos haciendo con este informe, que se llama
14:52Data on Our Minds, datos en nuestra mente, es ver dónde esto está sucediendo. Y estamos hablando de
14:57una serie de casos en los cuales estamos viendo que estos productos ya existen en el Reino Unido.
15:03Lo que me preocupa es el hecho de que ahora, que no estamos en la Unión Europea, nos podríamos
15:09convertir en un banco de ensayo para algunas de estas tecnologías y no tenemos el recurso de la
15:15ley europea para protegernos. Así que nos estamos centrando en un tema, en el informe que se
15:21publicará esta semana o la que viene. En el caso de estudio nos centramos en la gestión de opiniones
15:26algorítmicas, es decir, tecnologías que están diseñadas para medir o para gestionar lo emocional,
15:32lo psicológico, lo fisiológico, todo dentro del estado de los trabajadores dentro de distintas
15:37categorías, como por ejemplo, cansancio, estar alerta. Y el beneficio de este informe es que va
15:44a ser muy útil para las empresas, pero también para los gobiernos, como para los representantes
15:50de los trabajadores, porque estamos considerando las distintas tecnologías y estamos viendo cuáles
15:56son sus funcionalidades. Lo que hemos hecho también es realizar distintos cuestionarios,
16:02hemos hecho sondeos, hemos considerado el bienestar asociado con la solicitud a los empleados de
16:08utilizar gestión de los afectos algorítmicos, es decir, unos softwares concretos para las opiniones
16:15y las emociones, y distintos empleados, 380, han respondido a nuestro sondeo y el 40% consideran
16:24que sí que han experimentado ya este tipo de softwares, pero la mayoría de los empleados
16:32no consideran que tenga un impacto positivo en su experiencia en el mundo del trabajo. Así que
16:40estos son nuestros hallazgos, y para entender la monitorización de las emociones, pero también
16:45la monitorización para el análisis de las opiniones, de los sentimientos, y también la gestión de los
16:50textos para analizar los sentimientos. Bueno, en cuanto al control y la gestión de las emociones,
16:55lo que decimos es que los beneficios que podrían surgir al utilizar estas prácticas todavía no
16:59se han visto, y llevará más trabajo y más tiempo el ver si esto se dará, y tenemos que seguir
17:05estudiándolo en el contexto del Reino Unido. Voy a terminar con mi manifiesto para los derechos
17:10de los trabajadores desde la izquierda, y esto es terminología que he tomado prestada de un
17:15académico argentino, el señor Roberto Gargarela, y lo que consideramos es que un marco jurídico
17:22podría no ser lo suficiente para proteger nuestras relaciones y la protección de datos por la forma
17:27en que funcionan los marcos, y si se pueden hacer este tipo de cosas, y terminaré después de decir
17:31esto, tenemos que hablar también del derecho a un consentimiento, y también el derecho a negarse
17:40al consentimiento, algo que vemos que no es algo que se le ofrezca a todos los sujetos de datos,
17:46y tener la posibilidad de entender que existe el riesgo de ser descritos de forma incorrecta,
17:54y luego, obviamente, todo lo que tiene que ver con el reconocimiento no solamente de nuestra
17:59cara, sino también de nuestros sentimientos, y que no se nos reconozca de forma incorrecta,
18:04porque eso significa que a lo mejor directamente podemos terminar en una comisaría de policía,
18:09porque nos han reconocido incorrectamente, y podríamos tener hasta problemas de responsabilidad,
18:15lo cual tiene un impacto importante. Y luego, la redistribución de la igualdad y el acceso a la
18:20autoidentificación, esto tiene que ver con los derechos, entendiendo normalmente que hay otros
18:25derechos que ya están establecidos para acceder a nuestros datos, y para que se proteja la igualdad.
18:30Y esto viene de mi informe del Parlamento Europeo de 2020, con algunas de las recomendaciones que
18:39di en cuanto a los principios, la codeterminación, soy un fan, la proporcionalidad, la transparencia,
18:45de esto ya se ha hablado hoy, y en cuanto a los últimos puntos, en cuanto a la priorización,
18:50o qué es lo que deberíamos ver, es el consentimiento y el riesgo, son lo más importante para mí,
18:55son los temas más importantes en los que tenemos que pensar, a medida que nos introducimos en un
19:00mundo en el que nuestras emociones y nuestras opiniones están siendo controladas de distintas
19:05maneras. En Estados Unidos, por ejemplo, va a ser importante ver cómo definir las emociones cuando
19:11hablamos de lo que se reconoce, cuáles son los datos que se recaban, cuáles son los datos biométricos
19:15que se están recabando, y si son relaciones bilaterales o si hay una multiplicidad de
19:22relaciones y sus datos que nos rodean ahora, que nos introducimos en una nueva era de extracción.
19:27Estos son algunos de los documentos en los que he trabajado, como por ejemplo el manifiesto
19:31para la izquierda en el que estoy trabajando. Y aquí tenemos algunas de las publicaciones
19:36a las que me referí, y dado que esto se está grabando, me pueden por supuesto escribir un
19:39correo electrónico, y estaré encantada de enviarles esta información. Muchas gracias por
19:43haber venido y estaré encantada de hablar con ustedes en cualquier otro contexto. Muchísimas gracias.

Recomendada