Saltar al reproductorSaltar al contenido principalSaltar al pie de página
  • anteayer
Logos: Inteligencia artificial y la alfabetización digital

Invitado:
Enrique Siqueiros
Conduce:
Juan Carlos Puebla
IG: @juanpueblap21

Categoría

🗞
Noticias
Transcripción
00:00Música
00:00Estamos en un programa más de logos, nos fuimos de vacaciones un tiempo con todo el equipo de producción
00:29un saludo a todos, algunos estuvieron en la playa Semana Santa o Pascua dependiendo de lo que les dieron
00:34pues las playas infestadas de gente, Acapulco en el caso de pues el sur
00:39yo tuve la dicha de ir a San Carlos Sonora, una playa preciosa con grandes atardeceres cerca de mi ciudad de origen
00:48y bueno las vacaciones se acaban y vuelve, vuelve el ritmo, muchas escuelas ya regresaron desde la semana pasada
00:52pero pero algunas dan dos semanas de vacaciones y el ritmo de la frenética ciudad de México está de regreso
00:59y también nosotros en logos y hoy platicaremos con un gran invitado especialista en temas de inteligencia artificial y ética
01:06porque cada vez pues yo creo que las crisis se agudizan en los temas de que no sabemos cómo hacer una legislación adecuada
01:14qué problemas lleva también el desarrollo que va pues rápido y rápido de las nuevas tecnologías y de la inteligencia artificial
01:21problemas por ejemplo como derechos de autor y otros más, la libertad de expresión
01:25hace poco salió una serie, tuve la dicha de escuchar una conferencia de Enrique Siqueiros
01:31que es nuestro invitado, licenciado en filosofía, licenciado en mercadotecnia con maestrías y doctorados
01:37pues académico también de este tema pero sobre todo un gran divulgador del tema de inteligencia artificial
01:43y platicaban de esta serie que salió en Netflix Adolescence
01:48además es especialista en temas de educación sobre este tema
01:51porque pues los papás Enrique parecen estar perdidos, todos los que nos escuchan
01:55cómo educas y educas con tecnología, no educas con tecnología
01:59qué tanto tienen que exponerse los niños, qué riesgos hay, no los conocemos
02:02y pues te doy una gran bienvenida aquí a nuestro programa de Logos
02:06Muchas gracias Juan Carlos y gracias a la audiencia
02:09estamos todos perplejos ante la velocidad tecnológica
02:14entonces lo primero que hay que hacer es dialogar un montón
02:17y gracias por invitarme porque no hay una última palabra
02:20el derecho va tardísimo tratando de regular la velocidad tecnológica
02:24y si el derecho va tardísimo pues no se diga los papás en casa
02:28los profesores en el colegio
02:30por supuesto los profesores de ética
02:33en realidad estamos perplejos y hay que empezar a hacer cosas
02:37y ahí cuando se hace cosas pues luego se rompen
02:39o se echan a perder algunas
02:41y es mucho de prueba y error
02:42entonces las legislaciones van a ser prueba y error
02:45las acciones que tomamos en la escuela es prueba y error
02:47las acciones como papás es prueba y error
02:49así que empecemos a equivocarnos
02:51Sí, esta serie conmocionó un poco el mundo
02:54fue muy viral
02:54porque pues uno creería que su hijo en casa, en su cuarto
02:57pues está a gusto, bien, no hace nada malo
03:00pero el acceso ahora a un mundo virtual
03:03que muchos papás pues no crecieron con ello
03:06entonces parece que no estamos seguros en ningún lado
03:09porque uno puede encontrarse en todas las tecnologías
03:12y redes sociales
03:12pues muchísimo información
03:15estamos una sobre información
03:16¿tú qué crees que sea así?
03:17pues no sé
03:18los efectos negativos
03:21de lo que se ha visto ya en estas nuevas tecnologías
03:24porque ya hay generaciones que han crecido
03:26ya más a la mano con esto
03:28Sí, quizá digo hay muchos impactos
03:32en toda la ética de la inteligencia artificial
03:34pues se habla de impactos sobre todo a derechos humanos
03:37a democracia, a estado de derecho
03:39y al medio ambiente
03:40para ponerlo como en lo más amplio
03:42y entonces en cada una de estas ha habido un impacto
03:45por la cuarta revolución industrial
03:47o la industria 4.0
03:48o el desarrollo de la inteligencia artificial aplicada
03:50por ejemplo aquí a las telecomunicaciones
03:52el que más ahorita preocupa
03:54es que preocupa a Marius
03:55pero especialmente y por lo que de repente se insta
03:59o se tiende a querer legislar
04:01o correr a regular
04:03es el impacto a los menores de edad
04:05y este impacto se ve verificado
04:08en, y lo fraseo de esta manera
04:10en que hoy los ingenieros más inteligentes del mundo
04:13están trabajando todos los días
04:15para retener a tus hijos
04:18o a tus alumnos en una pantalla
04:20entonces es una carrera muy asimétrica
04:24muy desigual
04:26no quiero decir injusta
04:28para no meter tan rápido el tema de la ética
04:30en mi juicio de valor
04:30pero que un papá solitario en México
04:33con falta de alfabetización digital
04:37tenga que competir
04:39por la atención de su hijo
04:40contra estos genios
04:42muy bien pagados en Silicon Valley
04:44se me hace brutal
04:45y el impacto es ese
04:46lo reporta uno de los libros más famosos
04:49best seller
04:50que es el de Jonathan Haid
04:51la generación ansiosa del 2024
04:53es que a partir de 2010
04:55el pico
04:57que creció
04:58de ansiedad y depresión
05:00en la llamada generación Z
05:01es inédito
05:02entonces
05:03y por qué
05:03en buena medida
05:04por la exposición
05:06de más de 5
05:07de 5 a 9 horas diarias
05:09de niños a pantalla
05:11oye y hablando de esto
05:12de que en 2010 empieza ya como
05:14esta nueva realidad digital
05:17y las redes sociales
05:18toman pues ya un protagonismo inédito
05:20en la vida de las personas
05:21también coincide con cambios democráticos
05:24fuertes y movimientos
05:25el caso más emblemático
05:27fue Cambridge Analytica
05:29cuando Mark Zuckerberg
05:29incluso compadece
05:30en tribunales europeos
05:33por el tema de cómo puede influir
05:35en el comportamiento
05:36bien pensado con estos genios
05:38incluso en el voto
05:40las redes sociales
05:42y eso asustó un poco
05:43al mundo
05:45y pareciera
05:45y esta es mi pregunta
05:46que pues las democracias liberales
05:49fomentan mucho
05:50la libertad de expresión
05:51pero qué pasa
05:51cuando se come
05:52incluso el estado de derecho
05:53el desarrollo
05:54de estas libertades
05:56la desinformación
05:58y distintas cosas
05:58que podemos platicar
05:59pero coinciden los tiempos
06:01con el Brexit
06:02la llegada de los populismos
06:04la desinformación
06:05ganar campañas inéditas
06:06la primera era árabe
06:07que fue algo positivo
06:08coincide como esa desestabilización
06:10del sistema político
06:13de la democracia liberal
06:15la democracia liberal
06:17fundada en buena medida
06:19o sostenida
06:20en el ideal
06:21de que el ser humano
06:22como individuo
06:23es racional
06:24es autónomo
06:25es digno
06:26es un grandes triunfos
06:27del mundo occidental
06:29de repente olvidó
06:32que esto que acabo de decir
06:34es normativo
06:36no tanto es descriptivo
06:38porque hago esta distinción
06:39normativo es que todos
06:40tenemos derechos
06:41y dignidad
06:42descriptivo es
06:43realmente se cumple
06:45de que todos
06:45por ejemplo en México
06:46vivimos dignamente
06:48con un sueldo digno
06:49pues luego no es el caso
06:51entonces
06:51las democracias liberales
06:53sostenían
06:54de manera normativa
06:55que el ser humano
06:56es un agente libre
06:57racional
06:57y autónomo
06:58y toda la propagación
07:01y los últimos premios Nobel
07:03de economía del comportamiento
07:05de behavioral economics
07:06se los ganaron
07:08por recordarnos
07:09que el ser humano
07:09es un mamífero
07:11bien animal
07:12bien irracional
07:13y que buena parte
07:14de sus decisiones
07:15como falsamente
07:16creían en el ITAM
07:18los profesores de economía
07:20los mamíferos
07:21generalmente
07:21no maximizamos
07:22nuestras decisiones
07:23nuestros beneficios
07:24y reducimos nuestros riesgos
07:25cuando tomamos decisiones
07:26tomamos decisiones
07:27cansados
07:28con sueño
07:29calientes
07:30excitados
07:31borrachos
07:32enojados
07:33con falta de información
07:35con información
07:36y eso que hace
07:37que tomamos muy malas decisiones
07:39y aquí en este contexto
07:41que recordamos
07:42que somos bien mamíferos
07:43unos genios
07:45tomaron
07:46algo inédito
07:47en la historia
07:47que es la capacidad
07:48de recabación
07:48de un montón de datos
07:49de alojar esos datos
07:51en una nube
07:52y luego de procesar
07:53esos montones de datos
07:54encontrar patrones
07:56y esos patrones
07:57serán
07:57cómo se comportan
07:59por ejemplo
07:59los que quieren votar
08:01por Donald Trump
08:01y en el 2016
08:04hablaste muy bien
08:05de Cambridge Analytica
08:06que es
08:06el escándalo
08:08de que se filtraron
08:09como 50 millones
08:10de cuentas
08:11de Facebook
08:11y lo utilizó
08:12esta empresa
08:12para perfilar
08:14psicológicamente
08:15a los votantes
08:16y después
08:16mandarles información
08:17y condicionar
08:19la victoria
08:20de Donald Trump
08:20no fue determinante
08:21pero sí ayudó
08:22pero mucho de esto
08:23fue
08:23dos cosas al menos
08:25que no sabíamos
08:26que éramos tan
08:27manipulables
08:28porque en la democracia
08:29de liberales
08:30no
08:30el individuo
08:31es racional
08:32y toma las mejores
08:33decisiones
08:33para sí mismo
08:34no
08:34en realidad
08:35toma las decisiones
08:36cuando sientes miedo
08:37esperanza
08:37y estas cosas
08:38que utilizaron
08:39en México
08:40y utilizaron
08:40en Estados Unidos
08:41y número dos
08:42en la calle
08:43hace
08:44en el 2016
08:45la gente no decía
08:45en las encuestas
08:46que iba a votar
08:47por Donald Trump
08:48es más
08:49si lo decías
08:50te funaban
08:51te criticaban
08:52y entonces
08:52¿qué hizo Cambridge Analytica?
08:54hizo Hobbes
08:54hizo grupos
08:55de personas
08:56que estaban de acuerdo
08:57y empezó a ver
08:58que eran demasiadas
08:59y entonces
09:00¿qué hizo?
09:01los entendió
09:01les mandó
09:02la información correcta
09:03por ejemplo
09:04el miedo a los migrantes
09:05o por ejemplo
09:06el miedo a que les quitaran
09:07el trabajo
09:07o el miedo a China
09:08lo que fuera
09:09y logró
09:10aglutinar
09:11esa masa de votantes
09:13y no solo aglutinarla
09:15sino potenciarla
09:16entonces
09:16la democracia liberal
09:18está en este gran reto
09:19de reconocerse
09:20como somos mamíferos
09:21manipulables
09:22pero a la vez
09:22tratar de defender
09:24la libertad de expresión
09:25y la libertad de asociación
09:27que ese es un tema
09:28que ese es el tema
09:29que quería entrar
09:30porque hay todo un debate
09:31histórico
09:32de si la libertad de expresión
09:34tiene límites
09:35y si un estado
09:36en el caso mexicano
09:37vamos a ir más adelante
09:38a eso
09:38podría regular
09:40o
09:41pues no sé
09:42prohibir ciertos discursos
09:44porque por ejemplo
09:46hay este
09:46como falso dilema
09:47bueno no sé si falso dilema
09:48pero que si un discurso de odio
09:50es permitido
09:51y te puedes amparar
09:52en la libertad de expresión
09:54o no
09:55ese es un tema
09:56que se ha discutido
09:57
09:58a la tradición
09:59o sea esta
09:59pude dirigir una tesis
10:02de buen Jorge Olano
10:03en la facultad de filosofía
10:04sobre
10:05la libertad de expresión
10:06en John Stuart Mill
10:07y
10:08y el debate
10:09es milenario
10:10el debate es
10:11desde Platón
10:12en la república
10:14hablando de la mentira noble
10:16le llamaba
10:17y la mentira noble
10:18es cuando tú
10:20quieres el bien común
10:21el bien de la colectividad
10:22muchas veces no vas a poder
10:24decirle a todo el público
10:26las medicinas amargas
10:28que les vas a tener que suministrar
10:29pues porque somos bien animales
10:31y entonces Platón
10:33como que sí decía
10:33pues no
10:34la libertad de expresión
10:35olvídate
10:35hay muchas cosas
10:36que no se van a decir
10:37porque
10:37por el bien
10:38paternalizamente
10:40el bien del pueblo
10:41o el bien de la gente
10:41o el bien de la república
10:43y hay otra tradición
10:45y esta es muy colectiva
10:46se verifica el día de hoy
10:47por ejemplo
10:48en el partido comunista chino
10:49pero la visión más individualista
10:52occidental
10:53de las democracias liberales
10:54y John Stuart Mill
10:56es su campeón
10:56es no
10:57en la medida en que
10:58todo sea transparente
11:00y translúcido
11:01y podamos decir todo
11:03se va a empezar a hacer
11:04un mercado de ideas
11:05en las que las mejores ideas
11:06se van infiltrando
11:07para subsistir
11:08y las peores ideas
11:09por el libre mercado
11:11de la palabra
11:11se van a ir dejando
11:13y ahora
11:14eso también
11:15no sé si es normativo
11:16o descriptivo
11:17pero esas son las dos
11:18y en muchos
11:20Estados Unidos
11:21vamos a decir
11:21lidera
11:23la libertad de expresión
11:24tendiente absoluto
11:26o queriendo ser absoluta
11:28por la primera enmienda
11:29y la libertad
11:30de expresión acotada
11:32la vemos en Alemania
11:33ahorita podemos hablar de eso
11:34y la libertad de expresión
11:36muy acotada
11:36la podemos ver
11:37en el caso de China
11:37pero por ejemplo
11:38pongamos el ejemplo
11:39latinoamericano
11:40México en un ambiente
11:41que por un régimen
11:42que pensaba así
11:43hay que darle al pueblo
11:44lo que el pueblo puede recibir
11:46no más ni menos
11:47porque el funcionamiento real
11:49de cómo era una institución
11:50como el PRI
11:51pues realmente
11:52era una cosa
11:53dentro de la cúpula
11:54PRI o de los que toman
11:56decisiones
11:56a lo que la gente
11:57se enteraba
11:57y también incluso
11:59para fundar mitos nacionalistas
12:01o sea funciona
12:02de alguna forma
12:02para llevar
12:03el control
12:04del pueblo
12:05por decirlo
12:06en abstracto
12:07pero exactamente
12:08hay ciertas naciones
12:09en las que
12:10pues lo que
12:11permea es el individuo
12:13y entra el debate
12:14en pro de lo colectivo
12:16o en pro
12:17del individuo
12:19que sería el caso de China
12:20pero de Alemania
12:20y vas a platicar
12:21es un caso bien interesante
12:23Alemania
12:24porque tienen
12:25buena parte
12:26del liderazgo
12:27en el desarrollo
12:28del ciudadano individual
12:30ahorita que trabajo yo
12:32ética
12:32en inteligencia artificial
12:34vemos los índices
12:35de data literacy
12:36o de alfabetización
12:37digital
12:38o en datos
12:39para ver
12:40qué tanta
12:41fuerza de resistencia
12:43tiene un individuo
12:44un ciudadano
12:45frente al uso
12:47excesivo
12:47de muchas plataformas
12:48y el caso de Alemania
12:50le llaman el DESI
12:51el índice
12:52de desarrollo
12:54de alfabetización digital
12:57entonces el ciudadano
12:58alemán sabe
12:59qué son los datos
13:00cómo se utilizan
13:01por qué hay que
13:01protegerlos
13:02entonces tiene un nivel
13:03de alfabetización
13:04altísima
13:04de información
13:06y de datos
13:07y en ese sentido
13:08a la hora de expresar
13:10una opinión
13:10están muy acotados
13:12porque saben
13:12la importancia
13:13de las opiniones
13:14entonces por un lado
13:15tienen alfabetización
13:16muy alta
13:16pero también
13:17la legislación
13:19acota la libertad
13:21de expresión
13:21por lo que vivieron
13:22sobre todo
13:23en la Alemania nazi
13:24que es como un discurso
13:25puede ser tan poderoso
13:26que lleve a provocar
13:29que la integridad física
13:31de una población
13:31se vea mermada
13:33o incluso vejada
13:35o hablo
13:36del genocidio
13:37entonces
13:39ese trauma histórico
13:41puso que una sociedad
13:42tan
13:43alfabetizada
13:45con unas capacidades
13:46de comunicación
13:48tan altas
13:48ellos mismos
13:49se pusieran
13:49se acotaran
13:50gubernamentalmente
13:51y dijeran
13:52no puede haber discurso
13:53de odio
13:53no puedes hacer
13:54este saludo
13:54al tercer Reich
13:57no puedes
13:57ese es un caso
14:00interesante
14:00de cómo mezclaron
14:02los dos
14:02y pues
14:03pueden ser criticados
14:04o lo que sea
14:04pero es muy interesante
14:05y el caso de China
14:06¿a qué sería similar?
14:08China por la cultura
14:12algo muy interesante
14:13que tiene
14:14es una cultura
14:14colectivista
14:15contraria a la cultura
14:16individualista
14:17de Occidente
14:18estoy haciendo caricaturas
14:19pero creo que son
14:20bastante
14:21bastante justas
14:23privilegian más
14:25el orden social
14:26y el orden gubernamental
14:29que luego se desdibuja
14:31por el Partido Comunista Chino
14:32y ahí sí
14:33ponen un freno
14:35mucho más importante
14:35a la libertad de expresión
14:36por eso muchas empresas
14:37de repente tecnológicas
14:38no explotan como podrían
14:40porque siempre están acotados
14:42a qué tanta agenda
14:43manda el gobierno chino
14:45y te digo que parece mucho
14:46de repente
14:47a la República Platónica
14:50del joven Platón
14:51donde dice
14:51bueno es que
14:52necesitamos poner
14:53acotar mucho
14:54la libertad
14:55de estos individuos
14:56por el bien de la comunidad
14:58por el bien de la colectividad
14:59por el bien de la nación
15:00por el bien de la república
15:01entonces se ve un poquito
15:02y por supuesto se vio
15:03en algunos regímenes
15:05como el comunista
15:06en el siglo XX
15:08y luego
15:08en Estados Unidos
15:09hay incluso
15:10supremacistas blancos
15:11que se pueden declarar
15:12como tal
15:12y salir a protestar
15:14en las calles
15:15pueden quemar banderas
15:16de Estados Unidos
15:17por derecho
15:18exacto
15:19y es algo que
15:20no se podría hacer
15:21por supuesto
15:22en China
15:22y en México
15:23bueno es otro tema
15:24y el caso también
15:25platicando un poco
15:26de datos
15:26de inteligencia artificial
15:27y tecnologías
15:28que tanto
15:29con ChatGPT
15:30o Grok
15:31que tan
15:32hay mucha gente
15:33que pregunta
15:33que tan acertadas son
15:34que hacen
15:36estas herramientas
15:37unos dicen
15:38son solo lectores
15:39si se equivocan
15:40de quien sería culpa
15:41y ya empieza a haber problemas
15:43por ejemplo
15:43se pusieron de moda
15:44los dibujos de estudios Ghibli
15:45pero
15:46recibió algo
15:47de remuneración Ghibli
15:48por haber inventado
15:49o sea
15:49que sucede
15:51en estos casos
15:51con las nuevas
15:52herramientas
15:53que se están usando
15:54a vida laboral
15:55incluso hasta
15:56creo que hasta
15:57para redactar
15:58lo que sea
15:58o iniciativas
15:59o hacer análisis profundos
16:00o en el tema
16:01de diseño digital
16:03si
16:04digo es emocionante
16:06cuando se le ocurrió
16:07a OpenAI
16:08hacia algo
16:09que Google
16:10no hizo
16:10que fue
16:11democratizar
16:13los LLMs
16:14o Large Language Models
16:15los grandes modelos
16:16de lenguaje
16:17como ChatGPT
16:17y sacarlos
16:19si tú tienes lana
16:21pues es más
16:21ni siquiera al principio
16:22te lo doy gratis
16:23para
16:23y eso
16:24Google
16:25fue el que creó
16:26buena parte
16:27de estas tecnologías
16:28pero imagínate
16:29el aparato
16:29regulador
16:30y el cumplimiento
16:32legal que tenía
16:33Google
16:33entonces no podía sacarlo
16:34porque sabía
16:34todos los problemas
16:35que iba a detonar
16:36ya lo mencionaste
16:37si le pagaron o no
16:38a Estudio Ghibli
16:39de dónde sacaron
16:40los datos
16:41para entrenar
16:41estos modelos
16:43New York Times
16:44está por supuesto
16:45demandando
16:46a OpenAI
16:47entonces
16:48toda esa caja
16:49de Pandora
16:49Google
16:51no la quiso abrir
16:51la abrió OpenAI
16:52y qué son estos
16:54grandes modelos
16:55de lenguaje
16:56como ChatGPT
16:57son
16:58lo dice
16:58mi mentor
16:59León Palafox
17:00que es uno de los
17:01más importantes
17:02expertos
17:03en inteligencia artificial
17:03en este país
17:04o sea
17:05ha estado desde
17:06ayudando
17:07a encontrar
17:07exoplanetas
17:08con telescopios
17:09como el Tacama
17:10hasta
17:10haciendo neurociencias
17:12con inteligencia artificial
17:13hoy está dirigiendo
17:14el departamento
17:16de innovación
17:17en inteligencia artificial
17:18de Novartis
17:19entonces ha visto
17:20como la empresa
17:21la academia
17:21y este señor
17:22dice que
17:23ChatGPT
17:24es un
17:25autocorrector
17:26en esteroides
17:28y esto es importante
17:29por dos cosas
17:30desmitificar
17:31que estamos frente
17:32a una cosa
17:32con conciencia
17:33y yo sé que muchos
17:34de los radioescuchas
17:35no piensan eso
17:36pero otros sí
17:36no
17:37es un
17:38es un aparato
17:39que te predice
17:40que va a ser
17:41la siguiente palabra
17:41oye Enrique
17:43estás demeritando
17:44no
17:44es un milagro
17:45tecnológico
17:46padrísimo
17:47no quiero demeditarlo
17:48los ingenieros
17:48son los genios
17:50pero tampoco
17:51hay que pensar
17:51que son tan
17:52que ya es un ser humano
17:53ahí con conciencia
17:54y libertad
17:55te predicen
17:56la siguiente palabra
17:56pero te la predicen
17:58demasiado bien
17:58porque entrenaron
18:00a estos modelos
18:01con toda la información
18:02que hay en internet
18:03entonces imagínate
18:04que estadísticamente
18:05pues saben
18:06cuál es la siguiente palabra
18:08y casi siempre le dan
18:09porque tienen
18:10están entrenados
18:11con muchísima información
18:12entonces son
18:13una genialidad tecnológica
18:15pero hasta ahí
18:15¿y qué problemas
18:17puede traer
18:17en los campos laborales?
18:19¿o qué no retos?
18:20el primer problema
18:21es
18:21qué tanta
18:22certidumbre
18:23le puedes dar
18:24o confiar
18:24y ahí viene
18:25como es estadístico
18:27dicen
18:27no es
18:28no es determinista
18:30sino
18:31al ser estadístico
18:32pues quién sabe
18:33si con lo que se entrenó
18:35sea información cierta
18:36entonces estadísticamente
18:38pues la gente
18:38se ha equivocado
18:39¿no?
18:39sí, claro
18:40entonces lo primero es
18:41quién sabe
18:42con qué datos
18:42le entrenaron
18:43número dos
18:44puede alucinar
18:45que es un término técnico
18:47que utilizan
18:48en inteligencia artificial
18:49que de repente
18:50si le pides
18:51que te dé una información
18:53te puede inventar cosas
18:54un abogado
18:55que estaba en
18:56en un litigio
18:58con una aerolínea
18:59canadiense
19:00le pidió jurisprudencia
19:02es decir
19:02casos históricos
19:03donde hayan resuelto
19:05de una manera similar
19:06y le inventó los casos
19:07le inventó los nombres
19:09le inventó las fechas
19:10le inventó
19:11esos alucinares
19:11como oye
19:12pero esta información
19:12no existía ahí
19:13y yo te pedí
19:14que me digas casos reales
19:15pero como
19:16vuelvo a punto
19:17eso a un autocorrector
19:19en esteroides
19:20no entiende la realidad
19:21no entiende
19:22qué es la ley
19:22no entiende
19:23entonces se puede inventar
19:24cosas de la nada
19:25y eso profesionalmente
19:26te puede traer
19:27pues además de una funa pública
19:29y un ridículo
19:30para siempre
19:31te puede traer
19:32por ejemplo
19:33que pongas aranceles
19:34en ciertos países
19:36o aranceles
19:37en ciertas zonas
19:37donde ni siquiera
19:38hay seres humanos
19:38o aranceles a pingüinos
19:40porque le estás pidiendo
19:41a un chat de estos
19:43que te haga
19:43una propuesta
19:44de diplomacia
19:45y de comercio exterior
19:46ok
19:46o sea
19:47si tendrá que haber
19:48la capacidad
19:49que tenga uno
19:50de detectar
19:51lo que pide
19:52va a darle un valor
19:53agregado
19:54en su ámbito profesional
19:55eso que acabas de decir
19:56nada más
19:57perdón que te interrumpa
19:58lo dice también León
19:59hoy
20:00el experto
20:01va a ser el capaz
20:01de usar esta herramienta
20:03para potenciar
20:03pero va a ser el capaz
20:04de ver el texto
20:06y decir
20:06no esto no es cierto
20:07porque yo soy experto
20:08entonces teníamos
20:08que sí especializarnos
20:10pero sí usemos
20:11la herramienta
20:11ok
20:12y ya pasando
20:13a temas también
20:13de redes sociales
20:14hablabas de que
20:14Google empezó
20:15a desarrollar
20:15estas tecnologías
20:16lo hacían hacia adentro
20:18para nosotros
20:19en sus herramientas
20:20igual meta
20:21igual en cualquier
20:23red social
20:23si utilizaban
20:25para un poco
20:25predecir un poco
20:26nuestro comportamiento
20:27pero ya tenían
20:28esa tecnología
20:30lo que hizo
20:30Open AI
20:33es abrirla
20:34a la gente
20:35creando algo
20:36como ChatGPT
20:37
20:37meta y Google
20:39por ejemplo
20:39Google creó
20:40el GPT
20:41pero como no
20:43todavía no
20:44unía todas
20:45las tecnologías
20:46pues no podía
20:47vamos a decir
20:49no había unido
20:50tu Gmail
20:51con tu Drive
20:54con tu
20:54o si lo había unido
20:56no lo podía usar
20:57ok
20:57entonces lo podía usar
20:58internamente
20:59como dices tú
20:59para predecir mi consumo
21:01y de repente
21:01mandarme en el momento
21:02exacto
21:03un anuncio
21:04de oye
21:04sube
21:05ya paga
21:06el Google Drive
21:08porque ya se te acabó
21:08la
21:09o sea
21:09sí podía hacer eso
21:10pero no lo podía
21:11explotar la manera
21:11como Open AI
21:12vemos que lo explotó
21:13y además
21:14el dineral que pudo
21:15bajar
21:15Open AI
21:16o sea
21:16Sam Altman
21:18quería bajar
21:197 mil millones
21:21de dólares
21:21no
21:217 mil billones
21:22de dólares
21:22para
21:237 billones
21:26de dólares
21:26perdón
21:27para
21:27para su
21:28o sea
21:29ese tipo de dinero
21:30solo lo bajas
21:30sacando la información
21:32ok
21:32y platicando ya
21:34en temas redes sociales
21:35más en México
21:36hace una semana pasada
21:37se discutió un poco
21:38un problema que hubo
21:40que comerciales
21:41que un poco
21:42en contra
21:43de los mexicanos
21:45en el sentido
21:45de que
21:46el quédate
21:46México
21:47la famosa campaña
21:48que tiene ahora
21:48la secretaria de seguridad
21:49aparecieron en plataformas
21:51digitales
21:51para los mexicanos
21:53en México
21:54y ahí empezó esta idea
21:55que yo creo que es la palabra
21:56más repetida
21:57de la presidenta actual
21:58la soberanía nacional
21:58están atentando
22:00que tienen que ver
22:01con la libertad de expresión
22:02y viene una reforma de ley
22:04para todo esto
22:05quitan
22:06en el contexto
22:07el Instituto Federal
22:08de Telecomunicaciones
22:09como un organismo
22:10autónomo descentralizado
22:11asume ahora
22:12algo que se llama
22:13la Agencia de Transformación Digital
22:14y Telecomunicaciones
22:15o sea
22:15el gobierno federal
22:17asume esa responsabilidad
22:18y la agencia
22:19funcionará como una secretaría
22:20pero depende
22:21de la presidenta directo
22:22que esto
22:23en sí mismo
22:24ya lleva por problemas
22:25de
22:25oye
22:26vas a ser juez y parte
22:27o sea
22:27el gobierno
22:27va a controlar los datos
22:29qué va a pasar
22:29que también asume
22:31muchas responsabilidades
22:31que tenía el extinto
22:33INAI
22:34y en estas nuevas leyes
22:35pues por ahí
22:36en el artículo 109
22:37pues obviamente
22:38ponen antes
22:39que no se puede
22:40intervencionar
22:41el mismo extranjero
22:42mensajes
22:42a los concesionarios
22:43en radio y televisión
22:44no pueden poner
22:45mensajes en contra
22:46de los mismos
22:46mexicanos
22:47y promover
22:49intereses de otras agendas
22:50fuera de México
22:51pero el artículo 109
22:53dice
22:54y genera un debate
22:55muy fuerte
22:56en el mismo
22:56partido en el poder
22:58que podrían
22:59suspender
23:00plataformas digitales
23:02por utilizar información
23:04en dos casos concretos
23:05que vayan contra
23:06seguridad nacional
23:07y que vayan contra
23:08la soberanía nacional
23:09que es más o menos
23:09lo mismo para ellos
23:10entonces
23:11se prendió la luz
23:12del famoso
23:13el problema
23:15de la censura
23:15y yo quiero
23:17meter esto
23:17y platicarlo contigo
23:18dentro del ámbito
23:19latinoamérica
23:20que nos ha costado
23:22Argentina
23:23regímenes militares
23:24Brasil
23:24regímenes militares
23:25México
23:25el prismo
23:26o sea que tenemos
23:26poca tradición
23:27de libertad
23:29de expresión
23:30entonces
23:31mi pregunta va dirigida
23:33hacia
23:33el prohibicionismo
23:35ha funcionado
23:37ya
23:37ya platicabas de China
23:38pero funciona
23:39está justificado
23:41que por intereses
23:42nacionales
23:43de seguridad nacional
23:44puedas prohibir
23:45una red social
23:46yo me imagino
23:46que esto llevaría
23:47al extremo
23:48decir
23:48como lo hizo
23:49Nicolás Maduro
23:50de Twitter
23:51porque
23:51Elon Musk
23:52es
23:52Elon Musk
23:53pues no se puede
23:55utilizar en mi país
23:56este
23:57qué tantos riesgos
23:58hay de esto
23:58es preferible
23:59no
23:59a cómo está el mundo
24:01de polarizante
24:02y todo
24:02tú qué piensas
24:04acerca del prohibicionismo
24:05como
24:05y la censura
24:06como una opción
24:07para proteger
24:08intereses de una nación
24:09espero que nos esté
24:12grabando esto
24:12pero no
24:13yo
24:16bueno
24:17entiendo
24:18al
24:18al individualismo
24:20liberal
24:21en el sentido
24:21de que
24:22dejando
24:23que el libre mercado
24:24de la palabra
24:25funcione
24:25las plataformas
24:26funcionen
24:27va a haber
24:28un cierto grado
24:29de autorregulación
24:30y que también
24:32va a haber un contrapeso
24:33a los excesos
24:34gubernamentales
24:34entonces
24:35si soy de esa tradición
24:37que dice
24:37hay que acotar
24:38los poderes del gobierno
24:39y una de esa forma
24:40es con
24:41la iniciativa privada
24:42de las redes sociales
24:43el tercer sector
24:45y el instrumento
24:47de las redes sociales
24:47y las plataformas
24:48es muy buen contrapeso
24:49del gobierno
24:50entonces por un lado
24:51digo
24:51hay que estar
24:52muy en guardia
24:54de qué tanto
24:54se quiere regular
24:55porque se regulan
24:56los instrumentos
24:57ciudadanos
24:58de resistencia política
25:00de resistencia social
25:02por ponerte un ejemplo
25:03gracias
25:04muy a escala
25:05gracias
25:06a estas redes sociales
25:07en el movimiento
25:09de Me Too
25:10se acotó
25:12a los poderes
25:13por ejemplo
25:14de los profesores
25:16de los jefes
25:17de la gente
25:18con poder
25:19que se aprovechaba
25:20de ese poder
25:20y hoy
25:21tú haces
25:22alguna salvajada
25:23alguna cosa
25:24negativa
25:26utilizando tu poder
25:27y te funan
25:28y eso puede tener
25:29afectaciones en tu vida
25:30y en tu trabajo
25:30entonces se le puso
25:31se usó
25:32no siempre para lo mejor
25:34
25:34de acuerdo
25:34pero fue un gran
25:36instrumento ciudadano
25:37de resistencia civil
25:38ahora
25:39eso por un lado
25:40yo aunque tiendo
25:41a la libertad
25:43sí veo
25:44los problemas
25:45que puede haber
25:46de seguridad nacional
25:47ahí me pillas
25:48muy ignorante
25:50para eso
25:51te recomiendo mucho
25:51que sigan
25:52al generalísimo
25:53Víctor Hernández
25:54Ojeda
25:55que es especialista
25:56en México
25:57de seguridad nacional
25:58él nos podrá dar
25:59un comentario
26:00al respecto
26:00y además
26:01es la voz más rápida
26:02de mi facultad
26:03pero
26:05si de repente
26:06cuando veo
26:07que por 20 años
26:09Juan Carlos
26:10por 20 años
26:11no se regularon
26:11las redes sociales
26:12y dejamos a los niños
26:14consumiendo
26:16y deshaciendo
26:17su sistema nervioso
26:18con toda esa dopamina
26:20y ese cortisol
26:21y por eso
26:22la generación Z
26:23hoy tiene tantos problemas
26:24de salud mental
26:25si de repente
26:26quiere uno correr
26:27a decirle al gobierno
26:29que es uno de los garantes
26:30de la seguridad
26:31oye échame la mano
26:33y acota esto
26:34entonces en ese punto
26:35aunque quisiera
26:36que lo hiciera
26:37la sociedad civil
26:37y yo por eso
26:38trabajo con sociedad civil
26:39y mi asociación política
26:40de pie
26:40lo que quiere es
26:41alfabetizar digitalmente
26:43si de repente
26:44esperaría que el gobierno
26:45metiera un poco
26:46y termino con esta idea
26:47pero es bien difícil
26:48porque si te regulan
26:49pues pones un VPN
26:50y puedes seguir usando
26:53Twitter en Venezuela
26:56entonces
26:56tiene sus complejidades
26:58de ambos lados
27:00y en este momento
27:01yo me debato
27:02hacia dónde
27:03porque ya es muy difícil
27:05tener el control
27:05que tuvo el PRI
27:06por ejemplo
27:07hace 60 años
27:09entonces tampoco
27:10estoy tan espantado
27:11ok
27:12o sea si hay forma
27:13de burlar eso
27:14ahora el tema
27:15de alfabetización
27:15digital en México
27:18me imagino
27:20yo no tengo datos
27:21que somos de los países
27:22más retrasados
27:23en ese ámbito
27:25este
27:26entonces también
27:27que tanto
27:28hay uso
27:30yo creo que Facebook
27:30es la plataforma
27:31más utilizada todavía
27:33y YouTube
27:34de alguna
27:34entonces de alguna forma
27:36tampoco afecta
27:38tanto
27:38porque a veces parece
27:40cuando estamos en redes sociales
27:41Enrique
27:41que es como una caja
27:43de resonancia
27:43entre gente
27:44de un cierto
27:45nivel académico
27:46o sociocultural
27:48incluso
27:49pues lo veíamos
27:50en elecciones
27:51o sea la crítica
27:52al gobierno actual
27:53es fuertísima
27:54en redes sociales
27:56y luego en la realidad
27:57en las elecciones pasadas
27:58el fenómeno
28:00Xochitl y tal
28:01todo lo de bots
28:02y esto
28:03pero es cuando la gente
28:04se enfrenta a la realidad
28:05oye yo creí
28:06que la gente
28:07estaba más descontenta
28:08con el gobierno actual
28:09pues la realidad
28:10es que
28:10entonces en México
28:11la chamba sería
28:12anterior
28:13o sea
28:14la censura
28:15no afectaría tanto
28:16sino sería
28:16empezar a educar
28:18en redes sociales
28:19y eso
28:20¿cómo se logra?
28:20
28:21definitivamente
28:22o sea
28:22recordar que
28:23la escolaridad promedio
28:24está entre 3-0
28:25de secundaria
28:25y primero de prepa
28:26en este país
28:263-0 secundaria
28:27que la alfabetización digital
28:29solo pensar que
28:30el pensamiento numérico
28:31estamos en el penúltimo lugar
28:33de la OCDE
28:34o sea
28:34si no tienes pensamiento numérico
28:36y lógico
28:36pues no tienes
28:37alfabetización digital
28:38eso es como
28:39y luego la capacidad
28:40lectora
28:40igual penúltimo lugar
28:41en la OCDE
28:43y perdón por comparar
28:44con países de la OCDE
28:45pero es un estándar
28:46el primer paso
28:48como dices tú
28:48es
28:49alfabetizar
28:50y cómo se hace esto
28:51se hace desde
28:52sociedad civil
28:53presionando a las empresas
28:56es algo que
28:56como consultora
28:58hacemos mucho
28:59cuando
28:59damos consultoría
29:01desde Mastercard
29:02hasta una farmacéutica
29:03es
29:03haz el favor
29:04de ponerles videos
29:06de un minuto
29:06en tus plataformas
29:08a tus stakeholders
29:09a tus afectados
29:10para explicarles
29:11cómo
29:12qué haces con sus datos
29:13cómo los recabas
29:14y luego
29:15a dónde van
29:16y para qué
29:16los usas
29:17entonces es una manera
29:18en la que
29:18yo como empresa
29:19alfabetizo
29:20a mi usuario
29:22para que también
29:23use mejor
29:23mi plataforma
29:24y mis redes
29:25pero la sociedad civil
29:26debe presionar
29:28a la empresa
29:29pero también debe
29:30presionar al gobierno
29:31y para qué
29:31para que también
29:32sepamos
29:32cómo se recaban
29:34dónde están
29:34almacenados
29:35y qué se hacen
29:36con nuestros datos
29:36y bueno
29:38al menos lo que
29:39estamos haciendo
29:39últimamente
29:40y perdón por el comercial
29:41pero es un programa
29:42de inteligencia artificial
29:43desde la niñez
29:44desde primero de primaria
29:45para que
29:46no los expongas
29:47a pantallas
29:47por favor
29:48a todos
29:49radioescuchas
29:49no se les ocurra
29:50meterle pantallas
29:51de primero a cuarto
29:52de primaria
29:52eso se puede
29:54alfabetizar
29:54de manera analógica
29:55con ejercicios
29:56para que entiendan
29:57que es un transistor
29:58sin tener que
29:59meter una pantalla
30:00pero para que
30:01ya que lleguen
30:01a secundaria
30:02a prepa
30:02entiendan mucho más
30:03todo este ecosistema
30:04digital
30:05y puedan protegerse
30:07contra él
30:07entonces
30:07es sociedad civil
30:09es formación
30:10desde primaria
30:11y por supuesto
30:12presión
30:12a las empresas
30:13y al gobierno
30:13ok
30:14hablabas ahorita
30:15es que me llamó
30:16la atención
30:16en el tema
30:17educativo
30:18los sistemas
30:19también de educación
30:20pública
30:20son los que más
30:21llegan
30:22al final
30:23pero yo tenía
30:25la duda
30:25en concreto
30:26hubo una época
30:28de la tendencia
30:29de decir
30:30bueno
30:30dale ese iPad
30:31en tercero de primaria
30:33computadoras
30:35a todos los niños
30:36porque así
30:36vamos a lograr
30:37que exponencien
30:38su capacidad
30:39en nuevas tecnologías
30:40sean más competitivos
30:41laboralmente
30:42que están haciendo
30:43países
30:43que ya han recorrido
30:45ese camino
30:46yo recuerdo
30:47mucho también
30:48el tema
30:48sobre todo
30:49de computadoras
30:50desde Vicente Fox
30:51era la idea
30:52regalamos computadoras
30:53a todos los niños
30:54para
30:54que está pasando
30:56en otros
30:56en otros países
30:57y si
30:58si se puede educar
31:00análogamente
31:01sin la pantalla
31:02a través de ejercicios
31:04y todo
31:04el fundamento
31:05sería la lógica
31:06matemática
31:06entonces brevemente
31:09eso está muy
31:10muy muy divertido
31:11primero
31:12
31:12Vicente Fox
31:13recuerdan
31:142015
31:15de repente
31:16damos pantallas
31:17y damos iPads
31:18y en algunas comunidades
31:20de Oaxaca
31:20no tenían hilos
31:21entonces
31:22sí fue como
31:23despropósito
31:24y casi los usaron
31:24como para detener
31:25las puertas
31:26entonces
31:26no correr
31:27a hacer eso
31:27por favor
31:28no correr
31:28a la pantalla
31:29no funciona
31:30número dos
31:32qué está haciendo
31:32la avanzada
31:34en educación
31:35que ponían
31:36por ejemplo
31:36a Finlandia
31:37están dando
31:38un paso atrás
31:39y quitando
31:39todas las pantallas
31:40así porque
31:41ya vimos
31:41lo que afecta
31:42que mi hijo
31:43o mi alumno
31:43esté pegado
31:44todo el día
31:44recibiendo dopamina
31:46y cortisol
31:46de un aparatito
31:47y le estoy echando
31:48a perder
31:48la salud mental
31:50y la salud social
31:51por tres o cuatro
31:53habilidades
31:53de código
31:54no conviene
31:55no sale más
31:56calcar lo que
31:57la salvóndiga
31:57entonces
31:58está
31:59dos posiciones
32:00la posición
32:01finlandesa
32:02europea
32:02de reduzcamos
32:04un montón
32:04la exposición
32:05a pantallas
32:05y a inteligencia
32:06artificial
32:07o
32:07Estados Unidos
32:08y China
32:08el problema
32:09es que ahorita
32:09que menciona
32:10Estados Unidos
32:10y China
32:10tú ves
32:12la dimensión
32:13gravitatoria
32:14económica
32:15y cultural
32:15de estos dos
32:16países
32:16y ellos dos
32:17acaba de sacar
32:18Estados Unidos
32:19Trump
32:20una orden
32:20ejecutiva
32:21hace una semana
32:22de enseñar
32:23ya desde
32:24Kinder
32:25y China
32:26ya lo estaba
32:26haciendo
32:26desde hace un par
32:27de semanas
32:27entonces
32:28ellos están
32:29poniendo como
32:30la tendencia
32:31económica
32:33de si
32:33enseña
32:34desde
32:34Kinder
32:35y Europa
32:37está resistiendo
32:37y dice
32:38no lo hagan
32:39porque no vale
32:40la pena
32:40desde esas edades
32:42en el tema
32:42a ver si
32:43conoces algo
32:44yo creo que
32:44un poco
32:45un clavado
32:45a ese tema
32:46así
32:46que efectos
32:47tiene en el cerebro
32:48o sea
32:48porque yo he visto
32:49muchos documentos
32:50últimamente
32:51es mejor leer a mano
32:52es mejor escribir a mano
32:53porque tu cerebro
32:54y la memoria
32:55y ciertas facultades
32:56que se podrían perder
32:57dicen que el cerebro
32:59es moldeable
32:59si podría cambiar
33:01el funcionamiento
33:02incluso
33:02fisiológico
33:04de ciertos individuos
33:07por el acceso
33:08a las pantallas
33:09o no
33:10es un
33:10ok
33:11no soy experto
33:12en neurología
33:12y quisiera
33:13invitar a uno
33:14pero
33:14trabajé con el doctor
33:16César Reynoso
33:17que es el director
33:18de neurodesarrollo
33:18del ABC
33:19sobre todo
33:20por el consumo
33:21de pornografía
33:22por ponerte un ejemplo
33:23y lo ponía
33:24muy gráfico
33:25tienes un cerebro
33:26mamífero
33:26que evolucionas
33:27desde cientos
33:28de miles de años
33:28viendo
33:30muy poquitas cosas
33:32y muy poco atractivas
33:34en el día a día
33:35y de repente
33:36en menos de 30 años
33:38le das una pantalla
33:39donde las cosas
33:40más estimulantes
33:42más poderosas
33:43entran a tu psicología
33:44le fríes el cerebro
33:47es demasiada
33:49la exposición
33:51a dopamina
33:51a esta hormona
33:53del placer
33:54y demasiada
33:55la exposición
33:55al cortisol
33:56a esta hormona
33:57del miedo
33:58o de la reacción
34:00o del riesgo
34:02del riesgo
34:03y un cerebro
34:04de un mamífero
34:05no está
34:06capacitado
34:07para tanto
34:08entonces
34:09no es que reconfigure
34:10tu neurología
34:12pero es que la cansa
34:13demasiado
34:13le da este burnout
34:14o un cansancio crónico
34:16que por eso
34:17vienen los índices
34:18de apatía
34:18de depresión
34:19de ansiedad
34:20que si se verifican
34:21entonces
34:22es lo único
34:22que podría decir
34:23que si estamos viendo
34:24que nos está
34:25sobresaturando
34:27un cerebro
34:28de un animal
34:29ok
34:30y aquí pregunta
34:31Román Castro
34:32en el tema
34:32identidad personal
34:33como proteger
34:34nuestra voz
34:35e imagen
34:35ya que con
34:37inteligencia artificial
34:38te pueden clonar
34:39y puede afectarte
34:40en temas de fraudes
34:41el tema
34:41de identidad personal
34:42en banco santana
34:43no si
34:45yo estoy aquí
34:46hablando
34:46y pues buena parte
34:47de esta voz
34:48se puede
34:48pues tener
34:51la alfabetización digital
34:52es tener mucho cuidado
34:53con tus biométricos
34:54que no los andes soltando
34:56los biométricos
34:56la forma de
34:58la geometría
34:58de mi cara
34:59mi retina
35:01mi voz
35:02pues tenerle un poco
35:03más de cuidado
35:03ahorita que hay
35:04este fraude
35:05que a todo el mundo
35:05le están hablando
35:06del Reino Unido
35:07pues tener cuidado
35:09de no contestar
35:10y no hablar demasiado
35:12pues porque pueden
35:12entrenar
35:13y de repente
35:14si pueden usar
35:14tu voz
35:15para muchas cosas
35:16entonces cuidar
35:16tus datos biométricos
35:18no los andes soltando
35:19por todos lados
35:20oye
35:20¿quieres reconocimiento facial
35:21para entrar a todas las apps?
35:23pues no
35:23o sea
35:23no seamos tan flojos
35:25de repente
35:25pues mete tu clave
35:26cuidar también
35:28los behavioral biometrics
35:30que le llamas
35:31que son
35:31los datos
35:33pero de tu comportamiento
35:35a qué hora
35:36abres el celular
35:36por primera vez
35:37cómo pones el celular
35:38en qué
35:39en qué
35:40inclinación
35:41todo eso
35:42lo utilizan
35:42ya los bancos
35:43para ver si eres tú
35:44pues todo eso
35:44irlo cuidando
35:46pero saber que
35:49en buena medida
35:49los vas a dar
35:50entonces
35:51tener protegidas
35:52tus cuentas
35:53mucho de ciberseguridad
35:54para decirlo rápido
35:54tómate un curso básico
35:56por favor
35:57todos de ciberseguridad
35:58
35:58para la empresa
35:59ahorita
35:59es todo un tema
36:00y para individuos
36:01y para individuos
36:01también
36:02tu doble autenticación
36:03en contraseñas
36:04tú no subas
36:05las contraseñas
36:06a tal lugar
36:07no subas fotos
36:08
36:09perfecto
36:11bueno
36:11identidad personal
36:12y ya para ir cerrando
36:14yo quería platicar
36:15un poquito
36:15del último tema
36:16hablábamos de que
36:17el derecho está muy
36:17retrasado en estos
36:19temas
36:20también
36:21creo que los humanistas
36:22o el tema de la ética
36:24como este tipo de cuestiones
36:25de que si una empresa
36:26oye hago esto
36:27pues me genera dinero
36:27pero
36:28éticamente
36:29puede tener otros problemas
36:30o incluso
36:31socialmente
36:32yo he visto juicios
36:35de interés
36:37nada más personal
36:38caso Zuckerberg
36:39compareciendo
36:40como hasta se ríen
36:41de la ignorancia
36:42de jueces
36:43que pueden ser
36:44eminencias
36:44en el derecho
36:45internacional
36:46pero
36:47de tantos años
36:49que no entienden
36:49ni siquiera
36:50el funcionamiento
36:51¿no?
36:52¿cómo alfabetizas
36:53digitalmente
36:54a los que crean
36:55las leyes
36:56y a los abogados
36:57que se encargan
36:58o jueces
36:58que están
37:00pues
37:01vigilando
37:02que se cumplan
37:02justo en protección
37:03de los derechos humanos
37:04o sea
37:04tendría que
37:05¿qué se tiene que hacer?
37:06¿esfuerzo entre naciones?
37:07¿qué es lo que está
37:08en el mundo?
37:09¿qué deberíamos hacer
37:11justo para el cuidado
37:12de estos temas?
37:13
37:13hay un artículo
37:15muy bueno
37:15de Bermullen
37:16que dice que
37:17el derecho
37:18está en la disyuntiva
37:19o de la parálisis
37:20bueno
37:21no hago nada
37:21y dejo otros 20 años
37:22que Zuckerberg
37:23verá lo que se le dé la gana
37:24o regular
37:25sin suficiente información
37:26y de repente
37:27no
37:27queremos tener
37:28la vanguardia legislativa
37:29entonces vamos a regular
37:30los neuroderechos
37:30para
37:31oye
37:31pero ¿sabes cómo funciona
37:32el cerebro
37:32la identidad
37:33y la conciencia?
37:33no
37:33entonces están
37:35en esa disyuntiva
37:36claro porque
37:36regulas mal
37:37que sale peor
37:38luego
37:38regulas mal
37:39desincentivas la innovación
37:40es carísimo
37:41solo para que se den una idea
37:42cuando entró el GDPR
37:44que es la regulación
37:45de privacidad de datos
37:46en la Unión Europea
37:47se cayeron un tercio
37:48de las apps
37:49en Google Store
37:51imagínate
37:51los millones de euros
37:52por un plumazo legislativo
37:54entonces también
37:55no hay que correr
37:55a legislar
37:56pero bueno
37:56entonces
37:57están en esta disyuntiva
37:58la ética
37:59ha tenido un liderazgo
38:01porque digamos
38:02que nos adelantamos
38:02porque no tenemos
38:03todo ese aparato
38:04burocrático
38:05legal
38:06entonces pudimos
38:07entrar a legislar
38:08a regular
38:08pero es una regulación
38:10que no es vinculante
38:11entonces no podemos
38:12obligar a nadie
38:12¿qué hacer ahorita
38:14con los legisladores
38:16los funcionarios públicos?
38:18es muchísima capacitación
38:20y ahí es algo
38:21me ha tocado
38:22pues hago eso
38:24ahorita estamos
38:25en gira de capacitación
38:27para poder judicial
38:29porque necesitamos
38:30que los tomados
38:31de decisiones
38:32sepan hablar
38:33primero el lenguaje
38:34de los ingenieros
38:35para poderles preguntar cosas
38:36porque si no tienes
38:37como dices tú
38:38está compareciendo Zuckerberg
38:39frente a ti
38:40y lo que le preguntas
38:41es cómo
38:42Facebook sigue siendo gratis
38:44o sea no tienes que poder
38:45acercarte un poquito más
38:47a preguntarle
38:47¿por qué el algoritmo
38:48de 2018
38:49y esto es algo cierto
38:50que se filtró
38:50¿por qué el algoritmo
38:52de 2018
38:53premiaba el discurso
38:55de odio?
38:56porque cuando ponías
38:56un menoja
38:57te daba mucho más puntos
38:59el algoritmo
38:59y entonces se viralizaba
39:00el discurso de odio
39:02y no premiaba
39:03el discurso de paz
39:04entonces ese tipo
39:06de preguntas
39:06se las tienes que hacer
39:07a Zuckerberg
39:07no cómo sigue siendo gratis
39:09que no es gratis
39:10oye hablando
39:10de Estados Unidos
39:11Bernie Sanders
39:12se está advirtiendo
39:13que la oligarquía
39:14de los tecnócratas
39:15que se puede venir
39:16porque vimos primero
39:17a Donald Trump
39:18muy cercano
39:19a todos estos
39:20de las Big Tech
39:20y que eso
39:21en sí mismo
39:22es una duda
39:23¿puede evolucionar
39:25tanto la tecnología
39:26que socave
39:26a la misma
39:27democracia liberal
39:28o porque hablaban
39:30de eso
39:31porque ellos
39:31son poseedores
39:32de los datos
39:33y si llegan
39:33al poder político
39:34pues serían
39:36los nuevos
39:37pues sí
39:38oligarcas
39:39¿no?
39:39
39:41hay muchos autores
39:43a lo largo
39:43de la historia
39:44que han visto
39:45cómo la tecnología
39:46es otro poder
39:47pienso ahorita
39:48en Montfort
39:49pienso
39:50y
39:51no
39:53es que ni siquiera
39:54tenían tanto poder
39:55como han tenido
39:56el día de hoy
39:56la noción
39:58quizá lo que nos va a ayudar
39:59es una noción griega
40:00política
40:01política en griego
40:02es polis
40:02ciudad
40:03y koica
40:04relativo a
40:04todo lo relativo
40:05a la ciudad
40:06resulta ser que
40:07en esa ciudad
40:08uno de los agentes
40:09de mayor poder
40:10es la tecnología
40:11las grandes empresas
40:12de tecnología
40:13entonces son
40:14agentes políticos
40:16importantísimos
40:18y hay que considerarlos
40:19y hay que
40:19escrutinarlos
40:20y hay que exigirles
40:21como si fueran
40:22agentes políticos
40:23y eso ya nos dimos cuenta
40:24en la última década
40:25entonces
40:25los
40:26los
40:28los agentes
40:29de tecnología
40:29las
40:30las big tech
40:31como le llaman
40:32hoy son
40:33jugadores políticos
40:34a la par
40:35de los gobiernos
40:36y de la misma manera
40:37hay que fiscalizarlos
40:38hay que presionarlos
40:39hay que vigilarlos
40:40ahorita google
40:41ya
40:42fue condenada
40:43como
40:44un monopolio
40:46en eeuu
40:46solamente que está
40:48en amparos
40:48y mil cosas
40:49y de esa manera
40:51hay que
40:52hay que tenerlos
40:52y controlarlos
40:53si para que no
40:54no superen
40:55todo poder de la ciudadanía
40:56pues eso fue todo
40:57aquí en logos
40:58muchas gracias enrique
40:58por estar con nosotros
40:59buen programa
41:00bien interesante
41:01porque de verdad
41:02si son temas
41:03que cada vez
41:04cada vez
41:05van a afectarnos
41:05más en la vida diaria
41:06ya en lo profesional
41:07pues te pueden rebasar
41:08por derecha
41:09aquel que sepa
41:10utilizar ciertas herramientas
41:11y hay preocupación real
41:13de qué hacer
41:13capacitarse
41:15qué recomendarías
41:15capacitarse
41:16y estar
41:17pues a la vanguardia
41:19sin
41:20protegiendo siempre
41:21nuestra identidad
41:22nuestra dignidad humana
41:23y exigir
41:24nuestros derechos
41:25a pesar de todo
41:27sí capacitarse
41:28mucho
41:28sigan a
41:29eurekay.mx
41:30que justo capacitamos
41:32en inteligencia artificial
41:33y por favor
41:34a todos
41:35acérquense
41:36a su ingeniero
41:36en inteligencia artificial
41:38de confianza
41:38tenemos que volver
41:39a hacernos amigos
41:40porque esos señores
41:40están dominando al mundo
41:41exactamente
41:42bueno yo soy
41:43Juan Carlos Puebla
41:43esto fue logos
41:44los espero
41:45la siguiente semana
41:45seguiremos platicando
41:46de los fenómenos
41:47sociales y políticos
41:49que están en México
41:50y en el mundo
41:51gracias por
41:52por escucharnos
41:53nos vemos el siguiente
41:54saludos

Recomendada