Escándalo en un colegio de San Martín: usaba IA para armar fotos de sus compañeras desnudas

  • hace 20 horas
Un joven de 15 años del Instituto Agustiniano es acusado de manipular fotos de sus compañeras con inteligencia artificial para crear y vender videos pornográficos falsos. El caso, que involucra a menores entre 13 y 17 años, ha generado preocupación sobre el uso indebido de tecnología y plantea desafíos legales debido a la edad del responsable. Seis familias han presentado denuncias, mientras la comunidad escolar enfrenta el dilema sobre cómo manejar la situación sin recurrir a la expulsión.

Category

🗞
Noticias
Transcripción
00:00La situación nos lleva ahora a Villa Ballester, porque ahí hay, ¿cómo decirlo?, un escándalo de nuevo estilo.
00:08Porque esto que en otra época hubiera sido apenas una broma pesada, hoy por hoy se convierte en un problema real.
00:14¿De qué estoy hablando?
00:15Un alumno empezó a bajar fotos de sus compañeritas, y a esas fotos las empezó a aplicar inteligencia artificial
00:24y las convirtió en video porno, y además lo vendía Mercedes Mora, contame detalles.
00:30Es 100% un delito esto que cometió un joven de 15 años.
00:34Claro, tan solo 15 años, Rolando, entonces también para la justicia es un poco difícil saber cómo tratar el tema.
00:40Estamos hablando de todos compañeros del mismo colegio, estamos en el Instituto Agustiniano.
00:45Se conocen hace muchísimos años, la mayoría de ellos arrancan 5, 6 años y siguen toda la primaria
00:51y terminan el secundario en el mismo instituto.
00:54Claro, este chico tomaba esas fotografías, incluso algunas, Rolando, ni siquiera llegaba a editarlas,
01:00las vendía así tal cual, las robaba de las redes sociales de sus compañeras.
01:04Compañeras que tienen entre 13 y 17 años, a través de una plataforma las ponía en venta,
01:10se descubrió en un allanamiento que tenía por lo menos 8.000 clientes.
01:14Este chico que estaba no solamente generando dinero, pero claro, una mini empresa,
01:20un chico de 15 años donde generaba dinero, pero que realmente cometía un delito,
01:24exponía a sus compañeras a una desnudez que incluso en general no eran ciertas,
01:29porque eran todas creadas por inteligencia artificial.
01:32Seis de las familias ya radicaron denuncia oficial, se está trabajando en el tema.
01:37Claro, el problema es qué hace la escuela, qué hace la escuela con ese pibe.
01:41¿Qué hace con el chico?
01:43Bueno, justamente en estos tiempos también donde no lo podés expulsar
01:48y tal vez lo tenés que cambiar solo de turno, pero tiene que convivir con otras alumnas
01:52que también pueden pasar por lo mismo, ya nadie le tiene confianza.
01:56Las chicas incluso quisieron dejar de venir a la escuela.
01:59Abrís una puerta también para que los padres y los alumnos,
02:02si no tomás una medida, tomen venganza.
02:04Sí, te acordás que la otra vez vino un invitado que nos contaba que hay que legislar
02:07y que era importante legislar el tema de inteligencia artificial.
02:09Qué complejo es este caso, ¿no?
02:11Un menor es el responsable de lo que está haciendo, manipula fotos con inteligencia artificial
02:17Para simplificar la cuestión, no es difícil lo que hizo.
02:20No vamos a mostrarte cómo se hace porque no vamos a hacer apología de un delito
02:24que es justamente transformar una imagen y convertirla en algo llamado fake.
02:28¿Qué es una fake?
02:29Es una foto falsa, puede ser foto o video.
02:32También había mencionado chancevideo porque hay aplicaciones que te generan
02:35a partir de un video porno, poniendo la cara de una persona,
02:38un video porno de esa persona con un realismo altísimo.
02:43Lo que antes se hacía con el coso para retocar imágenes.
02:47Con photoshop, antes la ponías en photoshop.
02:50Ahora es tan simple como, lamentablemente, en plataformas como la que estamos viendo ahí,
02:55poner directamente la foto, elegir qué tipo de cuerpo, qué tipo de busto,
02:59qué tipo de acción se quiere y rápidamente se genera el desnudo de esa imagen.
03:03Para aclarar cuestiones, se mencionó mucho Discord.
03:07¿Qué es Discord?
03:08Discord es una aplicación de mensajería.
03:10Discord es una aplicación que se utiliza mucho en videojuegos
03:13porque te permite el chat con vos, con otra gente que esté conectada.
03:17Discord es el medio, no es el culpable de que se difunda algo de este tipo.
03:21Es como enojarse con Google Drive porque subiste las fotos a Google Drive.
03:25Es una plataforma que se utiliza para chatear y para intercambiar mucha información
03:30entre los miles de canales de difusión, uno, dos, tres miles en realidad también,
03:34pero tiene este tipo de contenido.
03:36Ahora, esos contenidos generados por inteligencia artificial,
03:39¿pueden ser considerados pornografía infantil?
03:41Bueno, es un tema que hay que legislar porque además, ¿te acordás que el diputado
03:44que había venido, lo que nos marcaba era que las imágenes tenían que claramente
03:48identificarse como inteligencia artificial para que no pasaran como reales?
03:52Ahora, si estuviesen identificadas con inteligencia artificial, también estaría mal.
03:56Claro.
03:57Y también...
03:58No, porque la vergüenza, lo que sí me parece, a ver Mercedes, que dicen por ahí,
04:02es claramente un caso de grooming, de asedio sobre las chicas.
04:06Pasa que es menor el que lo hace.
04:08Exactamente, exactamente.
04:10Tiene que ver con el ascoso, tiene que ver con la exhibición de su desnudez.
04:14Algunas estaban modificadas, otras directamente no.
04:17Tal vez eran fotos de las chicas en vacaciones, entonces las sacaban directamente
04:21de sus redes sociales porque estaban en bikini.
04:24Esto trasciende porque hay miles de usuarios que compraban,
04:27pero imagínate la cantidad de casos que debe haber en cualquier escuela secundaria
04:32de esto que lo hacen como una picardía.
04:34Este cumpleaños mirá lo que les regalamos, un video haciendo palosadas.
04:37Empezó gratuito, de hecho, en el disco de la plataforma.
04:40Mirá, acá empezó como un rumor.
04:42Bien, bien.
04:44Empezó como un rumor entre los chicos.
04:46Empezaron a contarlo a las familias y después finalmente se utilizó a uno
04:49de los alumnos que logra hacer contacto con este joven que, insisto,
04:53tiene tan solo 15 años.
04:55Y de esa manera empezaron a tener una conversación,
04:58le saca el CBU para hacerle el pago por el material que quería comprar
05:02y ahí terminan con un nombre de un banco, ya directamente nombre y apellido,
05:07y identificaron rápidamente al chico que era del mismo colegio,
05:10para sorpresa de todos ellos.
05:12Pero lo que pasa es que al no haber ninguna sanción,
05:14esto habilita a que algún padre algún día se lo cruce al nene
05:17y tome venganza por mano propia, se le salte la térmica,
05:20a que las chicas mismas le hagan algo al pibe.
05:24Él mismo puede ser pasible de bullying por esto.
05:28Y pienso que si no es revictimizar a las víctimas también,
05:31que tengan que cruzarse con la persona que editó sus fotos,
05:34que tengan que verlo todos los días.
05:36O sea, ahí el colegio tiene que cumplir un rol fundamental
05:38en la decisión que va a tomar, si lo sanciona o no.
05:42Sí, no solamente el colegio, sino la justicia,
05:44porque hay una denuncia que es real.
05:46La justicia tiene que ver de qué manera se trata a este chico
05:49porque realmente es menor.
05:51Entonces ver cómo se trata justamente a la justicia.
05:55No nos ilusionemos.
05:56La justicia no logra meter preso a un pibe chorro
06:00o un pibe que mató a otra persona en un asalto.
06:03¿Qué van a hacer con esto?
06:05Ni deben entender de qué se trata.
06:07Ni van a entender de qué se trata.
06:09No cabe en los manuales.
06:11Ahora es para analizar más ampliamente,
06:14pero son imágenes que son falsas.
06:16Ni siquiera son las chicas.
06:18Sin embargo, generan en las chicas la vergüenza.
06:20Es la identidad de ellas, porque es su cara.
06:22Hay de las dos.
06:23O sea, están usando la identidad sin consentimiento de las chicas.
06:26Mechi, lo que entiendo cuando decís hay de las dos
06:28es que hay dentro, por ejemplo, de Instagram
06:30una categoría que se llama Mejores Amigos,
06:32que es un lugar que solo pueden ver determinadas personas
06:35a las que agregás a Mejores Amigos.
06:37¿Qué es lo que hacían en este caso?
06:39Personas que estaban, ¿no, Mechi?
06:40Personas que estaban dentro de ese Mejores Amigos.
06:42Lo filtraban.
06:43Capturaban esa foto, que de hecho no estaba pensada
06:45para un público global,
06:47sino justamente para Mejores Amigos
06:49y la compartían también en esa red.
06:51Claro.
06:54Y la pregunta también, perdón, Mechi, es...
06:56¿Qué juntaba todo ese material?
06:57Había ocho mil personas comprando este material.
06:59Es un montón de personas también.
07:01Claro, lucraba con las imágenes.
07:02Y el tema también es la familia.
07:03Digo, cuando empezaron a ver que el chico tenía mucha plata,
07:06porque eso entiendo que le era muy redituable.
07:09Entonces, digamos, ese ingreso, ¿de dónde venía?
07:11¿No preguntaban los padres de dónde venía ese ingreso?
07:15Si es que eran conscientes de lo que estaba pasando,
07:17si hay un control, si es una billetera virtual,
07:20si ellos tienen como acceso a ese lugar también.
07:23Bueno, la verdad es que fue una sorpresa enorme
07:26para toda la comunidad educativa.
07:27Nosotros en unos minutos vamos a conversar con una familia
07:30que es una de las familias denunciantes,
07:32porque de las 22 chicas, solo seis familias denunciaron.
07:35Claro, este es un caso extremo,
07:37porque además se combina con el uso de inteligencia artificial,
07:40más el que lo vendía, más que el pibe era menor,
07:44pero ¿cuántos casos debe haber en colegios secundarios
07:47que está pasando esto?
07:48Manipulación de imágenes para hacerse una broma,
07:50para hacer una ridiculización.
07:52Y el otro problema de nuevo cuño que hay
07:55es el de la ludopatía infantil.
07:57Cualquier padre que tiene un pibe en el secundario
08:01tiene que estar atento a estas dos cosas.
08:02Con un agravante rol, lo que además es complejo
08:04para los docentes, para los gabinetes psicológicos y demás,
08:07porque hoy los pibes van mucho más por delante
08:10que los adultos que tienen que manejar esta situación
08:13en el manejo de la tecnología.
08:15Entonces vuelve todo un desafío en ese sentido.
08:17Y además también, ¿qué decisión adoptar con respecto a este chico?
08:20Porque en general podemos tener cierto consenso
08:23de que no hay que expulsarlo del ámbito escolar.
08:25Ahora, para las chicas también,
08:27y me pongo en el lugar de los padres y de esas familias
08:29que las tenés llorando en tu casa,
08:31yo no quiero que mi hija vuelva al encuentro
08:33de quien le hizo tamaña atropelía.
08:35Y por otro lado, también para él es complicado,
08:37porque ya varias veces lo quisieron agredir y golpear
08:41algunos de los compañeros que adoptaron alguna reacción más violenta.
08:44Y lo grave es que, al estar en el mundo digital,
08:47toda esa imagen, por más falsa que sea,
08:49se multiplica al infinito.
08:51Ya está circulando.
08:53Eso es lo grave del mundo digital.
08:55Por más que sean imágenes falsas,
08:57¿en qué mundo vivimos en el que una imagen falsa
08:59igual nos genera vergüenza?
09:01Pobres chicas, las que son las víctimas de esta situación,
09:04que una imagen generada de manera falsa
09:06igual les genera vergüenza, por más que no sean imágenes falsas.
09:09Claro, porque la viralizan en el círculo
09:11donde está la mirada de sus amigos.
09:13Sí.
09:14Mechie, fíjate si podés conseguir...
09:16Claro, y aparte, ¿quién sabe que es falso?
09:18Exacto.
09:19¿El que está cerca tuyo?
09:20Ah, además, el resto creen que es real
09:22y sos vos en medio de una película como
09:24que no tenías ni idea que existía.
09:26Esa es la clave.
09:27¿Quién sabe que es falso?
09:28Como se rompió la línea entre lo verdadero y lo falso,
09:31para esa persona, esa persona está expuesta
09:33con imágenes de nudes propias.

Recomendada