VACÍOS LEGALES EN EL USO DE LA INTELIGENCIA ARTIFICIAL PARA CREAR FOTOS FALSAS
La falta de legislación sobre el uso de inteligencia artificial para generar imágenes trucadas plantea preocupaciones sobre la privacidad y los derechos de los menores. Expertos destacan la necesidad urgente de regular estas prácticas, mientras que proyectos legislativos buscan abordar el problema.
Category
🗞
NoticiasTranscripción
00:00Carolei, que es especialista en estos temas, ¿qué hace, Fer?
00:03Bueno, quiero saber tu impresión acerca de este caso, que bueno, es desalentador, ¿no?
00:08Porque dice Hugo Osorbo, que sabe como nadie de esto, no se puede hacer nada,
00:12porque vas a llegar al juzgado y no hay delito para imputar acá,
00:17porque la foto es una foto trucada y ninguna parte del Código Penal ni de ninguna ley
00:22dice que la foto trucada con inteligencia artificial es un delito.
00:26Así que prepárate, Fer, porque el día de mañana nos van a poner una foto a nosotros,
00:30en una situación delictiva, a Carlit...
00:32Ah, ya, ah, bueno.
00:33Yo la tuve, yo tuve una chance de una foto editada, no importa.
00:36¿A qué voy con esto?
00:38Y estaba escuchando atentamente a Hugo.
00:39Me parece que estamos en una situación en la cual hay un vacío,
00:43que ese vacío se va a tener que llenar.
00:45De hecho, la otra vez, en América Noticias de mañana,
00:47entrevistamos a un diputado que está presentando uno de los tantos proyectos
00:51que se están pensando para ver de qué manera se legisla
00:54cuestiones vinculadas a inteligencia artificial.
00:56¿Por qué?
00:57Por lo menos para aclarar qué contenidos son realizados con inteligencia artificial
01:02y cuáles no.
01:03Y vos me dirás, igual, por más que aclaren que el contenido es realizado
01:05con inteligencia artificial, el daño a los menores se le realiza igual.
01:09Y esto es verdad.
01:10Pero en cierta manera, lo que es más grave, me parece,
01:13es que estamos primero hablando de menores,
01:16segundo, de que el que comete el delito también es un menor,
01:18y tercero, de que estamos hablando de algo que no existe,
01:21porque la imagen editada, que realmente lo hace el sistema solo,
01:25de hecho, hoy por la mañana mostramos,
01:26no quisimos mostrar cómo se hacía,
01:29porque justamente uno no quiere hacer apologías,
01:30simplemente quiere contar que esto existe.
01:32Las cosas que existen hay que contar las que existen
01:34para que no nos sorprendamos cuando pasen cosas como estas.
01:37Exactamente.
01:37Bueno, el procedimiento no es ni siquiera muy complicado.
01:41No es complicado, ¿está al alcance de cualquiera, Fer?
01:44Sí, está al alcance de cualquiera, con un celular,
01:47ni siquiera, en algunos casos, ni siquiera tenés que bajarte una aplicación.
01:50Con enviar una fotografía a un bot de Telegram, en este caso,
01:54el trabajo lo hace solo.
01:56Y es más, si lo hace de manera gratuita,
01:58hasta cierta cantidad de fotos y después te empieza a cobrar,
02:01pero es tan sencillo y tan simple,
02:04y la verdad que lo hace con tanta precisión en algunos casos,
02:08que preocupa.
02:10Y preocupa los delitos que empiezan a aparecer,
02:13o en realidad habrá que ponerlos en caja de delitos, ¿no?
02:17Pero bueno, preocupa los inconvenientes a la vida cotidiana
02:20que empieza a generar este tipo de cosas.
02:22Por ejemplo, que chicas se sientan avergonzadas
02:24si no vayan al colegio cuando no cometieron ningún delito,
02:27no hicieron nada malo,
02:29sientan inclusive hasta la vergüenza de enfrentar a la persona
02:32que fue la que realizó estas fotos, estas imágenes, ¿no?
02:34Claro, que es, digo, no hay derecho más preciado,
02:39bien más preciado que el de los menores, que el de las mujeres.
02:42Son temas que están legislados a nivel internacional
02:44y donde hay que ser muy rigurosos.
02:46Hay casos de otros países donde, bueno,
02:49hayan avanzado en la legislación.
02:51Pienso, no sé, en temas, cuestiones políticas,
02:54la fake news en Brasil, que hubo procesos muy duros
02:57contra Bolsonaro y su equipo de comunicación.
03:00Quizás sea un rubro en el que más se utilice, ¿no?
03:03Esto con noticias falsas y imágenes educadas.
03:06Sí, con lo de fake news se avanzó mucho.
03:07Yo creo que se avanzó mucho en su momento
03:09con lo que fue el derecho al olvido.
03:13¿Se acuerdan que en Europa se habló y mucho de derecho al olvido?
03:15Pero ahí estábamos hablando del derecho al olvido,
03:18o que quiten, que en realidad era que desindexen,
03:20o sea, que saquen de esos...
03:22Los buscadores son grandes índices
03:24en los que te indica en qué sitios web está el contenido.
03:28Bueno, con el derecho al olvido lo que se lograba
03:30era que se desindexaran imágenes o sitios
03:33que pudieran perjudicar la imagen de la persona
03:36con procesos que muchas veces eran largos.
03:38En Argentina tenemos varios casos de éxito
03:40de desindexación de imágenes.
03:41Victoria Banucci, ¿no?
03:43Con el tema de la casa de animales.
03:45Belén Rodríguez también en algún momento
03:47fue protagonista de uno de los casos emblemáticos.
03:52El tema es que acá estamos hablando de imágenes
03:54que se generan en segundos,
03:56que no son reales
03:58y que no se distribuyen de la vía tradicional.
04:00El desindexar un sitio es importante
04:04porque la red sigue siendo importante
04:06en cuanto a navegación,
04:07en cuanto a manera en la que uno accede a información.
04:10Pero hoy por hoy,
04:11que tampoco quiero demonizar,
04:13porque son aplicaciones de mensajería,
04:14pero en un grupo de Telegram
04:17o en un grupo o en un canal de distribución de Discord,
04:21por ejemplo, que es la aplicación
04:22que se menciona mucho en las últimas horas.
04:23¿Qué es Discord?
04:24No tengo ni la más pálida idea.
04:27Discord es una...
04:27Y está bien porque está, sobre todo,
04:30más o siendo utilizada por un rango etario
04:33tal vez menor que es muy afín a los videojuegos.
04:36Discord es una aplicación muy buena
04:39de mensajería y de chat por voz.
04:42Entonces, por ejemplo,
04:44nosotros nos bajamos un juego,
04:45jugamos en línea
04:46y en un canal de Discord
04:48abrimos un chat por voz
04:49y podemos estar, mientras estamos jugando,
04:51hablando.
04:53Puede tener que ver con el juego
04:54o querer hablar con grupos de amigos.
04:56Me pasa con mi hijo,
04:56que a veces está con amigos.
04:58Todos charlando y es la plaza de hoy en día.
05:01Fer, le digo...
05:02Sí, dale, dale.
05:03Es la plaza digital.
05:04Es su lugar de clave.
05:05Completamente.
05:06Yo no demonizo ni las aplicaciones,
05:08no soy tremendista con las tecnologías,
05:10este apocalipsis de la tecnología
05:12y la inteligencia artificial
05:13que a lo Terminator
05:14va a eliminar la humanidad.
05:16En absoluto.
05:17Pero ahora lo que te pregunto, Fer,
05:19desde el punto de vista de la tecnología,
05:22¿es imposible descubrir de dónde salió,
05:25quién lo hizo y cómo lo hizo?
05:28No, de hecho, en este caso lo descubrieron.
05:30Se metieron en el Discord de esta persona.
05:32Cuando esta persona empezó a comercializar,
05:34le pidieron un CBU,
05:35CBU con B corta, creo,
05:36porque era de una billetera virtual.
05:39Y cuando vieron quién era el nombre,
05:40pudieron identificar a la persona.
05:42De hecho, llegaron a quién es la persona
05:44que comercializaba las fotos.
05:46Ahora, llegar a la persona
05:48que genera la imagen, eso sí,
05:50eso es más difícil.
05:51Bueno, y los consumidores,
05:52por lo que vos decís también, Fer,
05:54porque, digo, aquel que le hizo
05:56una transferencia...
05:56CBU que tiene que comprar.
05:57¿No?
05:58Eso también es un delito, digo,
05:59si hay mayores de edad,
06:01ahí tenemos a alguien que pueda pagar,
06:03¿no?, por el delito.
06:04Si bien Hugo D. hizo una foto trucada,
06:06no es una foto real, ¿no?
06:10Es decir, quizá eso haga con que...
06:12Estaban consumiendo imágenes...
06:14Sí, dentro de las fotos
06:15había imágenes trucadas
06:17con inteligencia artificial,
06:19medio como el ejemplo que veo
06:20que están mostrando,
06:21por supuesto, lo que se puede mostrar,
06:22pero medio con ese efecto
06:24de que había una persona en match
06:25y de golpe la desnuda,
06:27que es algo de lo que hace
06:28este tipo de aplicaciones,
06:29o un bot que directamente
06:31lo hace automático.
06:33Y también había imágenes
06:34de las menores
06:35que habían sido compartidas
06:37por amigos y que habían sacado
06:38de sus propias redes sociales,
06:39pero tal vez...
06:41Viste que dentro de la plataforma
06:42Instagram hay un apartado
06:43que es mejores amigos, ¿sí?
06:44Son fotos o contenido
06:46que vos querés compartir
06:47solo con cierta cantidad
06:48de personas, que no lo haces
06:49público de manera pasiva.
06:50Bueno, hay gente que entra
06:52en esos grupos de mejores amigos
06:53porque tal vez tiene una amistad
06:54con alguien o porque lo meten
06:56dentro de ese grupo.
06:57Toma esas imágenes y las comparte
06:59de manera pública.
07:00Es muy difícil encontrar
07:03o tratar de encontrarle legalmente
07:05el delito para poder continuar
07:07con la causa en estos casos.
07:09Y sobre todo cuando son menores
07:10los involucrados, menores
07:11los que cometen el delito, ¿no?
07:13Pero sí vamos a tener que,
07:14de alguna manera,
07:16controlar una situación
07:17que genera que 22 chicas
07:19hoy no quieran ir al colegio
07:20porque se sienten avergonzadas.
07:21Imágenes que son virales, ¿no?
07:23Porque se distribuyeron,
07:25se vendieron.
07:27Una vez que entran al mundo
07:28digital, una vez que entran
07:30al mundo digital y que encima
07:32no están identificadas
07:33como contenido hecho
07:35O sea, hoy por hoy,
07:37si una foto de esta chica
07:38la distribuyen con fotos reales
07:40de 50 personas, no vas a distinguir
07:42cuál de las otras 49 son reales
07:45y una es falsa.
07:46Porque la verdad que tiene
07:47una precisión que hace que...
07:49O sea, una vez que están
07:50en el mundo digital,
07:51ya están, de cierta manera.
07:53Están distribuidas de una manera
07:54que es muy difícil de frenar.
07:55Estoy pensando en algo
07:56muy, muy chiquito.
07:59Me toca a mí de cerca.
08:00Imagino a Carlito, a Buffer,
08:01a Hugo Sorbo, que es...
08:03Bueno, uno sube fotos
08:04de sus hijas, ¿no?
08:05No sé, eso fui el sábado
08:07a un recital de Emilia Mernes.
08:08Subo la foto con mis hijas.
08:09Claro, obvio.
08:10Subo distintas fotos de ellas
08:12posando en mi casa.
08:13Me parecen hermosas y capaz
08:15una mano delictiva
08:18las agarra y las convierte
08:20en algo más.
08:20¿Qué hay que hacer?
08:21¿No hay que subir más fotos?
08:23En algún momento se había...
08:25Pasa que uno como padre
08:26está orgulloso de sus hijos,
08:28pero es difícil encontrar
08:30la línea entre lo que es compartir
08:32y lo que es entregar parte
08:33del contenido de la vida privada
08:35de uno, ¿no?
08:36Te entiendo perfectamente.
08:38Me pasa lo mismo con mis hijos
08:39de 16 y mi nena de 13.
08:43En algún momento se recomendaba
08:44no compartir fotos de los chicos
08:48con...
08:49Viste, cuando son más chicos
08:50que por ahí están en la playita
08:52o estaban...
08:53Momentos de intimidad
08:55en los cuales hubiera poca ropa.
08:56Acá ni siquiera importa
08:57si hay poca ropa o no.
08:59Porque con solo tener la imagen...
09:01La cara, claro.
09:02Sí, pueden generar
09:03ese tipo de contenido.
09:04Por eso me parece que en este caso
09:06no caería sobre los padres
09:08que comparten contenido,
09:09sino que iría más allá.
09:10Iría sobre el tipo de distribución
09:12que se da.
09:14¿Qué tipo de mirada había
09:15desde el colegio también?
09:16Porque...
09:18A ver, si el colegio, si bien
09:19no es responsable,
09:20es el ámbito en el que pasó eso, ¿no?
09:22¿No se escuchaba que estábamos
09:23diciendo...
09:23Sí, sí.
09:24...que se pasó en el club?
09:25El club tiene que ser...
09:27Más que nada porque hay gente
09:30que se ocupa
09:31de la parte pedagógica
09:32que va más allá de la enseñanza.
09:34Sabés, Kéfer,
09:35te tienen que llamar a vos,
09:37a los que entienden esto.
09:37Claro, lo que saben.
09:38Y den una clase.
09:40Vos que sos un referente,
09:41sos una imagen pública,
09:42todos te tienen referenciado
09:43con la tecnología.
09:44Bueno, que den un taller
09:46por lo menos para...
09:47Por lo menos hagan de cuenta
09:49que les importa, ¿no?
09:50En el colegio de mis hijos
09:51dan talleres...
09:53O sea, me parece que está bueno eso.
09:54Dan talleres de grooming
09:56y dan talleres también de manejo
09:58de tu perfil social,
09:59de tu identidad social.
10:01Porque no está mal también,
10:02en vez de restringir,
10:04condenar o caer
10:05cuando está la cosa hecha,
10:07ir desde los perfiles
10:09más jóvenes, de los chicos
10:09más jóvenes, contándoles que
10:11mirá que todo lo que subas
10:12a Internet
10:13forma parte de tu historia
10:14digital.
10:15Es parte de tu huella digital.
10:18Dar herramientas, ¿no?
10:20Y no para privar a nadie
10:21de que sea libre de publicar
10:23lo que tenga ganas,
10:24pero sí tal vez de cuidar
10:25su intimidad.
10:26Dar herramientas,
10:26formar justamente para hacer
10:28la tarea de prevención, ¿no?
10:30Para que no suceda.
10:32Te hago la última, Hugo.
10:34¿Qué hacen estos padres
10:37de estas 22 chicas
10:38para que dejen de circular
10:40las fotos en redes,
10:42en Internet?
10:43¿Hay algo que puedan hacer?
10:45Bueno, en principio ya hicieron
10:47las denuncias correspondientes.
10:49Entonces, como dijo Fer recién,
10:51tienen que...
10:52El juego de la Fiscalía,
10:53lo que tiene que hacer,
10:53tiene que ordenar...
10:54El juzgado tiene que ordenar
10:56a la Fiscalía la desindexación
10:58de todo esto.
10:59Pero como dijo Fer,
11:00una vez que vos te metés
11:01en la vida virtual,
11:03esa vida virtual no se borra
11:05nunca más.
11:07¿Sabés por qué?
11:07Porque una vez que una imagen
11:09está en Internet,
11:10no te pertenece más,
11:12le pertenece al mundo virtual.
11:15Entonces vos podés desindexar
11:17una dirección determinada,
11:20que no quiere decir
11:21que esas imágenes después
11:22aparezcan en otra.
11:23Hablaban del caso
11:24de Belén Rodríguez,
11:27macanudo,
11:28cuando fue la causa esta
11:30de Derecho al Olvido.
11:32Desindexaron,
11:33pero eso no impedía
11:35que las imágenes de ella
11:36estén después en otro lugar,
11:37que va a haber que desindexarlo
11:40con posterioridad.
11:41Es inabarcable, mirá.
11:43Sí, ahora me pregunto,
11:44perdón, Carlos,
11:45me preguntas,
11:47¿qué pueden hacer los padres?
11:48Si bien te digo,
11:49que desde mi punto de vista,
11:52una causa penal se va a caer,
11:55eso no quiere decir
11:56que se vaya a caer
11:57por un daño y perjuicio
11:58del fuero civil.
12:00Entonces, pueden demandar
12:02por daños y perjuicios,
12:03y ahí sí,
12:04pero por la distribución
12:05de imágenes no consentidas.
12:07Pero es un daño que le provoca.
12:08Ahí sí, después el juez
12:09tendrá que valorar
12:10cuánto es el daño
12:13que ocasionó
12:14y cómo esto se va a monetizar.
12:16Desde el punto de vista penal,
12:17desde mi punto de vista,
12:18chicos, por eso dije
12:19que iba a resultar antipático,
12:21se cae, desde mi punto de vista
12:22se cae.
12:23Pero en lo civil,
12:24bueno, por lo menos
12:25puede haber una
12:25penalización económica
12:26que no alcanza
12:28para arreglar el daño
12:29producido a estas chicas.
12:30Vos sabés que hay un caso,
12:31hay un caso,
12:32y con esto si querés cierro,
12:34hay un caso
12:35de hace un par de años
12:37en Mar del Plata,
12:39donde hubo una situación
12:42de bullying,
12:43si bien no es este tipo
12:44de delito, que es mucho peor,
12:47de menores de edad
12:49en un colegio.
12:50Entonces, vos presentás
12:52una causa de este tipo
12:53y lo primero que dice
12:54una boba defensor
12:55es que es un menor de edad
12:55sin imputable.
12:56Sí, fantástico.
12:57Pero acá la justicia
12:58trabajó bien.
12:59¿Sabés qué hizo la justicia?
13:01Sin perjuicio de ser
13:02inimputables,
13:02tanto el denunciado
13:04como los...
13:05Víctima y victimario.
13:06Sí, como víctima y victimario,
13:08¿sabés qué hizo el juzgado?
13:09Trabajó muy bien.
13:10Y citó a la familia,
13:12citó al colegio,
13:13mandó a los chicos
13:15y a los padres
13:16a hacer tratamiento psicológico
13:18y cursos de lo que es el bullying.
13:19Sí, está bien, hacerse cargo,
13:21hacerse cargo.
13:21Lo que hablamos siempre
13:22es capacitarse de alguna manera.
13:23Y al colegio también.
13:25Y al colegio también hizo,
13:26es decir, hizo partícipe
13:27al colegio de esto.
13:28Porque el colegio,
13:29como decían ustedes,
13:31el colegio es el ámbito
13:32donde estos chicos pertenecen.
13:34Claro, clarísimo.
13:34La familia y el colegio, ¿no?
13:36Donde todos los chicos se educan,
13:38los que pueden ir al colegio, ¿no?
13:40Pero bueno, nuestro caso es así.
13:41Entonces yo creo que acá el colegio,
13:42acá creo que el juzgado
13:43tiene que sentarse
13:45y decir, fantástico, son menores,
13:47¿habrá delito o no?
13:47No lo sé, lo van a resolver
13:49como consideran
13:50que debe ser.
13:52Pero lo que sí tiene que hacer
13:52es que el colegio
13:53tiene que involucrar al colegio.
13:54Tiene que obligarlos
13:55a hacer cursos de esto.
13:58Tienen que hablar
13:58de la inteligencia artificial,
13:59del daño que la inteligencia
14:01artificial puede ocasionar.
14:03Porque hoy la inteligencia
14:04artificial te ubica
14:05en un lugar determinado
14:06con un arma en la mano.
14:07Completamente.
14:07Por eso hablamos del tema delictual.