Llegamos a ustedes gracias a:



Reportajes y análisis

Modelos de GenAI de los que aún no ha oído hablar

[17/08/2023] Desde que ChatGPT de OpenAI batió récords de adopción a inicios de año, empresas de todos los tamaños han intentado averiguar cómo poner en práctica parte de esa magia de la IA generativa.

De hecho, según el estudio de referencia global de IA generativa de Lucidworks publicado el 10 de agosto, el 96% de los ejecutivos y directivos implicados en los procesos de toma de decisiones de IA están priorizando activamente las inversiones en IA generativa, y el 93% de las empresas tienen previsto aumentar su gasto en IA el próximo año.

[Reciba lo último de CIO Perú suscribiéndose a nuestro newsletter semanal]

Muchas, si no la mayoría, de las empresas que despliegan IA generativa están empezando con OpenAI, normalmente a través de una nube privada en Microsoft Azure. El despliegue en Azure proporciona a las empresas una instancia privada del chatbot, lo que significa que no tienen que preocuparse de que los datos corporativos se filtren al conjunto de datos de entrenamiento de la IA. Además, muchas organizaciones ya tienen una relación con Microsoft y se sienten cómodas con la seguridad, la capacidad de gestión y el soporte empresarial que obtienen de la empresa.

Por ejemplo, el proveedor de software Nerdio utiliza la IA generativa para generar scripts Powershell para sus clientes, convertir código de instalación de un lenguaje a otro, y crear un chatbot de soporte personalizado.

ChatGPT es capaz de realizar muchas de estas tareas, pero el chatbot de soporte personalizado utiliza otro modelo llamado text-embedding-ada-002, otro modelo de IA generativa de OpenAI, diseñado específicamente para trabajar con incrustaciones (embeddings), un tipo de base de datos diseñada específicamente para alimentar datos en grandes modelos de lenguaje (LLM). Los enfoques más habituales son las bases de datos vectoriales y las bases de datos de grafos.

"Estamos creando una base de datos vectorial con todos nuestros scripts y tickets de escalado, y se la proporcionamos a nuestra instancia de IA", explica Stefan Georgiev, director técnico senior de productos de Nerdio.

El uso de incrustaciones permite a una empresa crear lo que es, de hecho, una IA personalizada sin tener que entrenar a un LLM desde cero.

"Nos resultaría muy difícil obtener la cantidad de datos necesaria para entrenar nosotros mismos un modelo de IA generativa", afirma Georgiev. "Tendríamos que construir pipelines de datos para recopilar y agregar todos nuestros datos y patrones de uso antes de poder construir nuestro propio modelo, adaptado a nuestro espacio. Pero no lo hicimos y no pensamos hacerlo porque ya existen modelos de IA generativa bastante buenos. Todo lo que tenemos que hacer es especializarlos para nuestras necesidades".

Pero, aunque OpenAI fue la primera empresa en salir, ya no es la única. Las empresas se fijan en Bard de Google, Claude de Anthropic, Dolly de Databricks, Titan de Amazon o WatsonX de IBM, pero también en modelos de IA de código abierto como Llama 2 de Meta.

Los modelos de código abierto también son cada vez más fáciles de implantar. De hecho, Microsoft ya ha anunciado que admitirá Llama 2 en su nube Azure, y AWS admite varios LLM a través de su servicio Amazon Bedrock, incluidos los modelos de Anthropic, Stability AI, AI21 Labs y Llama 2 de Meta.

S&P Global Market Intelligence se fija en todos ellos.

"Utilizamos Microsoft, Google, Amazon y también modelos de código abierto de Hugging Face", explica Alain Biem, responsable de ciencia de datos de la empresa de información financiera global.

Por ejemplo, S&P Global utiliza la API OpenAI a través de Azure, pero es solo una de las muchas API de IA a las que puede recurrir la empresa.

"Somos extremadamente agnósticos sobre los grandes modelos de lenguaje", anota. "Seleccionamos el LLM en función del caso de uso. Nuestra filosofía es no estar atados a un modelo, y la forma en que desarrollamos nuestros productos es para poder actualizar los modelos o cambiar de un proveedor a otro".

La empresa también vigila de cerca la clasificación de Hugging Face, indica, que, al cierre de esta edición, estaba dominada por Llama 2 y sus variantes.

Meta lanzó Llama 2 en julio y destaca entre otros proyectos de IA generativa de código abierto por su tamaño y capacidad, y también por su licencia; las empresas pueden utilizarlo gratuitamente, incluso con fines comerciales. La única restricción es que las empresas con más de 700 millones de usuarios activos diarios tendrán que obtener una licencia especial de Meta.

S&P Global está probando Llama 2, comenta Biem, así como otros modelos de código abierto en la plataforma Hugging Face.

Muchas empresas empiezan con OpenAI, sostiene Sreekar Krishna, director general de datos y análisis de KPMG. Pero no se detienen necesariamente ahí.

"La mayoría de las instituciones con las que trabajo no están adoptando una estrategia de proveedor único", afirma. "Todas son muy conscientes de que, aunque se empiece con OpenAI, es sólo una puerta de salida".

Lo más habitual es que las empresas se fijen en Bard de Google, sobre todo si ya utilizan la nube de Google u otras plataformas de Google.

Otra opción popular es Databricks, una conocida plataforma de canalización de datos para equipos de ciencia de datos empresariales. En abril, la empresa presentó Dolly, su LLM de código abierto, con licencia tanto para investigación como para uso comercial, y en julio también añadió soporte para Llama 2.

"La plataforma Databricks es capaz de consumir grandes volúmenes de datos, y ya es una de las plataformas de código abierto más utilizadas en las empresas", afirma Krishna.

El modelo Dolly, así como Llama 2 y los modelos de código abierto de Hugging Face, también estarán disponibles en Microsoft, anota Krishna.

"El panorama evoluciona muy rápido", afirma. "Creemos que todos los hiperescaladores tendrán modelos de IA generativa de código abierto rápidamente".

Pero dado lo rápido que está evolucionando el espacio, dice, las empresas deben centrarse menos en qué modelo es el mejor, y pasar más tiempo pensando en construir arquitecturas flexibles.

"Si construyes una buena arquitectura", afirma, "su modelo LLM es plug-and-play; puede conectar rápidamente más de ellos. Eso es lo que estamos haciendo".

KPMG también está experimentando con la creación de sistemas que puedan utilizar OpenAI, Dolly, Claude y Bard, afirma. Pero Databricks no es la única plataforma de datos con su propio LLM.

John Carey, director del grupo de soluciones tecnológicas de la consultora global AArete, utiliza Document AI, un nuevo modelo de Snowflake que permite a los usuarios hacer preguntas sobre documentos no estructurados. Pero lo más importante es que permite a AArete ofrecer seguridad a sus clientes empresariales.

"Le confían sus datos que pueden tener información de clientes", indica Carey. "Está directamente obligado a proteger su privacidad".

Document AI de Snowflake es un LLM que se ejecuta dentro de un entorno seguro y privado, afirma, sin riesgo de que los datos privados se envíen a un servicio externo, o acaben siendo utilizados para entrenar el modelo del proveedor.

"Tenemos que proteger estos datos y asegurarnos de que tienen controles de acceso y toda la gobernanza de datos estándar", anota.

Más allá de los grandes modelos básicos

Una de las formas en que las empresas están desplegando la IA generativa es utilizando grandes modelos de base y personalizándolos para su uso empresarial mediante ajustes finos o incrustaciones. Pero otro camino que están tomando algunas empresas es buscar modelos estrechos y especializados.

"Estamos viendo cómo surgen en el mercado modelos de dominio específico", señala Arun Chandrasekaran, analista de Gartner. "También tienden a ser menos complejos y menos caros".

Databricks, IBM y AWS tienen ofertas en esta categoría, anota.

Hay modelos diseñados específicamente para generar código informático, modelos que pueden describir imágenes y otros que realizan tareas científicas especializadas. Hay probablemente un centenar de modelos más, señala Chandrasekaran, y varias maneras diferentes en que las empresas pueden utilizarlos.

Las empresas pueden utilizar versiones públicas de modelos generativos de IA, como ChatGPT, Bard o Claude, cuando no hay problemas de privacidad o seguridad, o ejecutar los modelos en nubes privadas, como Azure. Pueden acceder a los modelos a través de API, aumentarlos con incrustaciones o desarrollar un nuevo modelo personalizado ajustando un modelo existente mediante el entrenamiento con nuevos datos, que es el enfoque más complejo, según Chandrasekaran.

"Hay que obtener los datos y anotarlos", explica. "Así que ahora el modelo es suyo y tiene que pagar los costos de inferencia y alojamiento. Como resultado, no estamos viendo muchos ajustes en este momento".

Pero eso probablemente cambiará, anota, con la aparición de nuevos modelos más pequeños y, por tanto, más fáciles y baratos de implantar para las empresas.

Hay otra opción para las empresas, añade. "Construir su propio modelo desde cero. Eso no es algo que vayan a hacer muchas empresas, a menos que sea una compañía de Fortune 50, e incluso entonces, sólo para casos de uso muy específicos".

Para muchas empresas, utilizar modelos estándar y añadirles incrustaciones será el camino a seguir. Además, la incrustación tiene una ventaja adicional.

"Si se utiliza la arquitectura adecuada, como una base de datos vectorial, la IA puede incluir referencias en sus respuestas", afirma. "Y puede ajustar estos modelos para que no den una respuesta si no tienen datos de referencia".

Ese no suele ser el caso de los chatbots públicos como ChatGPT.

"La humildad no es una virtud de los chatbots en línea", señala Chandrasekaran. "Pero con los chatbots empresariales, diría: 'No sé la respuesta'".

Ir a lo pequeño

Los modelos más pequeños no sólo son más fáciles de afinar, sino que también pueden funcionar en una mayor variedad de opciones de despliegue, incluyendo computadoras de escritorio o incluso teléfonos móviles.

"Los días de más de seis meses de entrenamiento y miles de millones de parámetros han pasado a la historia", afirma Bradley Shimmin, analista jefe de plataformas de IA, análisis y gestión de datos del grupo de investigación y asesoramiento tecnológico Omdia. "Ahora se tarda sólo unas horas en entrenar un modelo. Se puede iterar rápidamente y mejorar ese modelo, afinarlo y optimizarlo para que funcione con menos hardware o de forma más eficiente".

Una empresa puede tomar el código fuente abierto de un modelo como Llama 2-, que viene en tres tamaños diferentes, y personalizarlo para que haga exactamente lo que quiere.

"Eso me va a costar muchísimo menos que utilizar la API de GPT 4", sostiene Shimmin.

Los modelos más pequeños también hacen posible que las empresas experimenten, aunque no sepan mucho de IA cuando están empezando. "Puede ir dando tumbos sin tener mucho dinero", señala, "y tropezar con el éxito muy rápidamente".

Por ejemplo, Gorilla. Es un LLM basado en Llama, perfeccionado con 1.600 API.

"Está diseñado para aprender a navegar por las API", añade Shimmin. "Los casos de uso incluyen la integración de datos en la empresa. Ya no tendrá que mantener un pipeline, y puede hacer análisis de causa raíz, autocurarse, construir nuevas integraciones rápidamente... se le caerá la mandíbula".

El reto, dice, es averiguar qué modelo utilizar y dónde, y navegar por todos los diferentes términos de licencia y requisitos de cumplimiento. Además, aún queda mucho trabajo por hacer para hacer operativos los LLM.

Gen AI no es sólo lenguaje

Los modelos lingüísticos están acaparando la mayor parte de la atención en el mundo corporativo porque pueden escribir código, responder preguntas, resumir documentos y generar correos electrónicos de marketing. Pero la IA generativa va más allá del texto.

Varios meses antes de que ChatGPT saltara a los titulares de las noticias, otra herramienta de IA generativa que causó sensación fue Midjourney. Los generadores de imágenes evolucionaron rápidamente, hasta el punto de que las imágenes producidas eran indistinguibles del trabajo humano, ganando incluso premios de arte y fotografía.

DeadLizard, una agencia creativa boutique que cuenta con Disney entre sus clientes, no sólo utiliza Midjourney, sino también otras herramientas de imagen, como Stable Diffusion y ClipDrop para la edición de imágenes, y Runway para añadir movimiento.

Las imágenes se utilizan en los contenidos de las redes sociales de la propia empresa, pero también como parte del proceso de generación de ideas y desarrollo creativo.

"Al añadir un conjunto abierto de herramientas de IA generativa, equivale a abrir todo un Internet de cerebros y perspectivas", afirma Todd Reinhart, cofundador de DeadLizard. "Esto ayuda a acelerar la ideación".

Incluso las sugerencias extrañas o ilógicas pueden ser útiles en esta etapa, indica, ya que pueden inspirar soluciones fuera de las zonas de confort habituales. Además, las nuevas herramientas de IA generativa pueden mejorar drásticamente las capacidades de edición de fotos. Antes, la empresa tenía que hacer tomas personalizadas, que suelen ser prohibitivamente caras para todos los proyectos salvo los más grandes, o utilizar fotografía de archivo y Photoshop.

"Cada semana salen a la luz flujos de trabajo y herramientas totalmente nuevos", finaliza.

Puede ver también: