• hace 3 meses
#AISummit | La integración de la IA en la industria. Implementación exitosa en sectores diversos
Transcripción
00:00Continuamos en el AI Summit de El Cronista, esta vez con Victoria Martínez, Business
00:06Development Manager de Inteligencia Artificial y Analytics de Red Hat Latinoamérica.
00:11Bienvenida, Victoria.
00:13Un placer. Mil gracias por la invitación.
00:15Bueno, vamos a hablar con Victoria sobre la integración de la inteligencia artificial
00:20en la industria y la implementación en diversos sectores, porque es algo que está permeando
00:28a todas las áreas productivas.
00:29De hecho, cuando empezó a salir todo esto, de inteligencia artificial venimos trabajando
00:36hace muchísimo tiempo, pero cuando empezamos a tocarla, fue con el anuncio cuando tocamos
00:44HGPT, Gemina, Antrópicos, todo lo que ha salido, que ha permitido culturalmente que
00:51todos, independientemente, chicos, adolescentes, o sea, todos usando inteligencia artificial,
00:57vean el valor y los resultados a los que podemos llegar.
01:01Lo que pasa muchas veces en la industria es que esto de tocar rápido nos permite a veces
01:09validar ideas, nos permite entender si eso hace a una necesidad de negocio, pero después cuando
01:15tenemos que llevarlo a producción, cuando tenemos que entender temas de privacidad,
01:21de compliance, entonces cambian las reglas de juego.
01:24Y ahí es donde justamente estamos trabajando mucho desde Red Hat.
01:28¿Esas son las principales barreras que ven en las empresas hoy cuando se trata de implementar
01:33inteligencia artificial o hay otras? No, de hecho, hay un estudio muy interesante
01:37del IDC en donde tenemos volumen de datos. O sea, hay un análisis que dice, ¿tenemos datos?
01:44Sí, tenemos datos del pasado y van a seguir generándose constantemente.
01:48No hay un tema de volumetría. Acceso al dato sí se puede acceder,
01:54el 60% tiene problemas a veces de acceso, pero no es un impedimento real.
01:58Cuando empiezan a aparecer los bloqueantes y estos aspectos inhibidores para poder llevar
02:03inteligencia artificial y más que nada la generativa, que es lo que todos quieren llevar
02:08a producción, para llevarlo en el ámbito empresarial y en gobiernos, aparece el tema
02:15de costos. Cómo justamente cuando uno tiene diferentes tipos de modelos,
02:20tenés modelos como hablábamos, TGPT, Antropic, son modelos orientados como servicios y tenés
02:25modelos open source, que uno puede disponibilizar en cualquier tipo de nube y es parte de lo que
02:30nosotros enseñamos. Unos tienen costo de uso y los otros no tienen costo de uso.
02:35Con el volumen de datos que tienen las empresas, ese costo de uso se incrementa muchísimo con
02:40justamente la interacción que uno necesita. El costo es un aspecto muy fuerte, inhibidor.
02:45El otro tiene que ver con privacidad y temas de compliance y copyright y derechos.
02:51Justamente las empresas necesitan cuidar este aspecto porque yo no puedo llevar todos mis
02:58datos en una determinada nube, no por nube sí o nube no, sino porque necesitamos y tenemos la
03:04responsabilidad de cuidar los datos de mis pacientes, de mis usuarios, de mis clientes.
03:09Entonces hay otro aspecto ahí muy importante a cubrir. Y el otro tiene que ver con las
03:13alucinaciones y con estas vallas que hay de los algoritmos que es confiable, no es confiable.
03:20Es parte justamente de lo que hace que en la industria uno diga no se está terminando de
03:26dar el paso. Hay muchos experimentos, pero los casos productivos son los que empiezan a tratar
03:32de caminar justamente cómo poder dejar atrás esas barreras.
03:37El tema del copyright, ¿cómo lo ves? ¿Qué soluciones?
03:42Bueno, de hecho hay todo un aspecto legal a poder cubrir respecto al copyright. Porque si yo uso
03:49algunos de estos algoritmos que están dando vueltas, hay muchas plataformas. Lo que yo
03:55generé, por ejemplo, genero una melodía. Es mío, es del algoritmo, es parte de lo que se empieza a
04:01regular, que se está trabajando globalmente. ¿De quién es? Y se genera un nuevo modelo de,
04:07no tan solo negocio, sino un modelo de distribución. Lo mismo que pasa con la
04:11música. Se han usado voces de, bueno, Oasis. Le han llamado a la nueva banda porque querían,
04:18los fans querían revivir ese momento. Se llama A-Asis. Y justamente usan las voces de los
04:25cantantes para poder hacer nuevos temas. Entonces el copyright va aparte.
04:30Es una línea que está por definirse todavía, porque hay demandas en todo el mundo.
04:36Exactamente. Hay un aspecto legal muy fuerte a cubrir todavía, que se está avanzando. Pero
04:42hay muchísima materia para poder trabajar. Y la conciencia que necesitamos nosotros,
04:48los que lo usamos, como individuos y como empresas, para realmente poder empezar a
04:54promover este tipo de regulaciones. Bien. Habías mencionado la cuestión del costo
05:00por licencias versus open source, que es una cuestión muy cercana a Red Hat. ¿Cómo es lo
05:07que ustedes proponen en ese sentido? ¿Y la privacidad también quizás se puede incorporar?
05:12Justamente Red Hat nace desde el open source. El open source es inevitable,
05:18que ha abierto caminos, ha abierto y ha permitido acelerar la innovación. Muchas
05:26de las grandes empresas usan software como base open source y que después lo han cerrado y han
05:33ofrecido algún otro tipo de servicio. Nosotros desde Red Hat trabajamos justamente con diferentes
05:38proyectos upstream, que son proyectos comunitarios, y le damos soporte. ¿Por qué? Porque en el ámbito
05:44empresarial uno necesita tener un soporte de este tipo de productos. Puede depender de la comunidad
05:50directamente. Eso. Porque necesito a alguien que me atienda el teléfono y me lo resuelva a 24-7.
05:54Bueno, eso es lo que nosotros damos. No hay lock-in ahí. Cuando uno a veces habla de licencias,
06:00y bueno, ya hay una licencia de pagar por el uso. En Red Hat no existe. Son suscripciones,
06:06soporte y es parte justamente de lo que permite hacer que se pueda democratizar un poco esta
06:12tecnología y la inteligencia artificial. ¿Y sobre la cuestión de la privacidad?
06:17Bueno, en la privacidad, en estos tres aspectos que te mencionaba, costo, privacidad y el tema
06:22de alucinaciones por el uso responsable de inteligencia artificial. Desde Red Hat nosotros
06:27trabajamos fuertemente. Sacamos una plataforma, OpenShift AI se llama, no importa el nombre per se,
06:34que busca atacar esos aspectos. Primero, privacidad, porque esto ocurre en algo que se
06:40llama nube híbrida. ¿Qué significa eso? Que yo puedo tener un pedacito de una nube en Google,
06:44en Amazon, en las grandes que hay, en las públicas. Puedo tener un poquito de mi on-prem. Y poder,
06:50justamente, la potencia cómputo que necesitan los algoritmos, y más cuando hablamos de lo generativo,
06:55y el tema de que los datos no se vayan de esto que yo concibo como nube híbrida,
07:03porque tengo un poquito de acá al lado, hace cuidar justamente el cumplimiento. De que yo
07:08puedo usar modelos open source, tecnología open source, bajo lo que es mi nube híbrida que tiene
07:15mi control y entonces no hay ningún dato que esté saliendo de lo que yo considere esa infraestructura.
07:20Eso es muy importante, porque hace justamente al tema de que no haya fuga de información,
07:27de que uno pueda dar garantías del cumplimiento, de que esa información no sale. Ese es un aspecto
07:32muy fuerte. Y el otro tiene que ver con el costo. No tan solo por hablar de open source y
07:36suscripción, es lo que mencionaba anteriormente, sino porque yo no tengo un costo de uso por el
07:41open source, por volumen. Cuando uno está usando este tipo de algoritmos, como hablábamos de estos
07:46grandes, JGPT, Antropic, uno tiene un costo por token, o sea, por cantidad de interacciones que
07:55tenga. Si yo tengo un volumen muy grande de usuarios, en México nos vamos, realmente los
08:01costos se empiezan a disparar si yo quiero empezar a automatizar, generar asistentes que
08:06estén en un call center, que vendan productos, digo, diferentes tipos de implementaciones.
08:10Hay un tema de no tan solo procesamiento, sino de ese costo de uso que en el open source
08:15desaparece. Por eso es que nosotros mostramos cómo usar este tipo de herramientas para que
08:20desde las empresas puedan tener control y puedan generar sus propias soluciones de
08:26inteligencia artificial, en donde cuiden la privacidad, el costo y el tema del uso
08:31responsable y ético de los modelos agnósticos. Y en la cuestión de las alucinaciones,
08:37¿cómo se puede minimizar? Bueno, ese es un punto súper importante. De hecho, nosotros hay algo que
08:45siempre mencionamos, es que cuando uno piensa en resolver un caso de uso, por ejemplo, un asistente,
08:50no es llamar nada más al, en este caso, un chat GPT, algunos de los que están dando vueltas.
08:55Tengo muchos puntos en el medio para poder hacer que la información que le va directamente a ese
09:04modelo, que es lo que llamamos el modelo generativo o el LLM, tenga la mayor precisión. Eso por un
09:11lado. Y después, ¿qué significa? Que hay otras capas de otros algoritmos complementarios que
09:18me permiten hacer más uso, más eficiente el uso de ese LLM y además darle mayor información para
09:24que evitar que haga esas alucinaciones. Complementariamente, hay herramientas,
09:31una que se llama Trust TI, que nosotros difundimos mucho, que es comunitaria, que justamente busca
09:36cómo poder medir cuándo un modelo está siendo agnóstico, cuándo está teniendo alucinaciones,
09:42indicar cuáles son las variables que están impactando negativamente y que así el ciencista
09:47de datos pueda rápidamente ajustarlo. Ustedes, volviendo a las empresas,
09:55los casos reales de uso, ¿qué necesidades de implementación están viendo que sean comunes
10:03a distintas industrias? Hoy, con esto que hablaba del boom de las generativas,
10:10todos quieren implementar generativas. A veces nos olvidamos qué es lo que tenemos que resolver
10:16y ese es un aspecto importante, porque la necesidad del caso de uso es mandatorio
10:19para hacer que eso realmente tenga sentido. Y después uno tiene que ver si lo resuelvo
10:24con una tecnología generativa o con otro tipo de modelo.
10:27No tiene que ser una premisa que sea generativa.
10:29Pero está. Entonces, la preocupación de los C-Levels es necesito implementar generativa.
10:36Dentro de eso, del gran pedido es mejorar la experiencia de usuario. Hoy, todo lo que tiene
10:44que ver con lo conversacional y algo que muchas veces nosotros hablamos que tiene que estar
10:50relacionado en cómo podemos humanizar el contacto. Todas las experiencias que uno
10:54tiene a veces con chatbots son muy duras, con mucha fricción. Este tipo de tecnologías
11:03complementarias con otro tipo de modelos también nos permiten hacer estas experiencias que sean
11:08más humanizadas y eso se está llevando a los call centers, a tener también vendedores
11:15y asistentes para que alguien pueda vender un seguro 24-7 y no tengan que esperar hasta las
11:229 o 10 de la mañana del otro día que viene la gente para atenderme. Entonces, mucho en lo que
11:29es en el contacto al cliente, en lo que es experiencia de usuario, en esto que te mencionaba.
11:34Y por otro lado, en automatizaciones internas para poder desarrollar más rápido,
11:40para poder probar más rápido y precisamente… ¿Y también juega la generativa?
11:45Ahí juega la generativa mucho. Imagínate que, por ejemplo, en lo que es un proceso de calidad
11:51de software, uno pueda tener al especialista, que es un asistente de calidad y que me ayude
11:57a generar los casos de prueba, que termina siendo justamente lo que necesito entender
12:05dentro del camino a seguir o no y ver si el software falla o no. Eso se está usando mucho
12:11en lo que es el mundo IT para probar lo generativo internamente. Tener un mini ingeniero en el área
12:16de infraestructura que me vaya leyendo y monitoreando los diferentes sistemas y me
12:21ayude a entender cuándo pasó algo, alertar. Es parte de esas implementaciones que están
12:27siendo muy pedidas en lo generativo. Un mini ingeniero sería el rol de asistente
12:35o copiloto que mencionábamos recién. Imagínate que podés tener un asistente
12:38especializado en algo. Recordemos que el momento de la inteligencia artificial en el que estamos
12:43ahora le enseña específicamente un dominio de conocimiento. Entonces, sobre eso, en calidad,
12:49en el requerimiento, en la parte de seguridad, puedo tener un área de especialización muy
12:55profunda y que justamente me está asistiendo para hacer mi trabajo más eficiente.
12:59¿Y qué pueden hacer las empresas hoy para prepararse para tener mejores
13:04soluciones de inteligencia artificial? ¿Qué camino pueden tomar?
13:07Bueno, el principal, que nosotros lo mencionamos mucho, pero es libertad de elección. ¿Por qué
13:16digo esto? Porque a veces uno se obnubila porque puedo rápido automatizar o usar un modelo y ver
13:24un resultado. Y después aparece todo este lado B que mencionamos anteriormente. Hoy están saliendo,
13:30pero la velocidad con la que están saliendo nuevas herramientas, nuevos modelos perfeccionados,
13:34más pequeños, súper precisos. Tenemos un abanico de opciones que es importante usar lo mejor que
13:43tenga para cada caso de uso y no atarme a veces a una sola especificación tecnológica. Esto viene
13:50mucho del desarrollo de software que estábamos acostumbrados a. Definimos un lenguaje de
13:55programación, un stack tecnológico y medianamente no cambiaba con esta celeridad. Ahora es semanal,
14:02diario, o sea, casi diario. Entonces, realmente tener la flexibilidad para entrar y salir con
14:09diferentes tecnologías, usar un modelo abierto, usar un modelo cerrado. O sea, acá no es solamente
14:13decimos Open Source y lo promovemos, pero realmente a veces amerita combinar.
14:20Si es realmente flexible la visión, tiene que considerar todo.
14:24Eso y cuidar mucho. Creo que no hay mucha conciencia respecto a la importancia de los
14:30datos. El combustible de un algoritmo que es una estructura matemática es el dato. Y el
14:36dato, nosotros le hacemos el esfuerzo para enseñarle ese conocimiento. Lo terminamos
14:41haciendo el que lo consume. Y realmente cuando a veces uno usa una solución más cerrada,
14:49orientada como servicio, todo eso se termina perdiendo. Y cuando quiero cambiar y hacer
14:54esto de pivotear, tengo que volver a hacer todo el trabajo de nuevo. Y perdí todo ese
14:58conocimiento que entrené, puede ser mucho tiempo, con esfuerzo o meses. Entonces, cuidar.
15:05Este activo tan preciado y nuevo petróleo que tenemos que son los datos.
15:09Perfecto. Bueno, muchas gracias Victoria Martínez de Red Hat por compartir tu visión
15:15sobre la inteligencia artificial. Un placer. Muchísimas gracias.
15:19Bueno, seguimos en AI Summit en breves momentos.

Recomendada