
[29/08/2023] A estas alturas ya habrá utilizado una herramienta de IA generativa (GenAI) como ChatGPT para crear una aplicación, redactar una propuesta de subvención o escribir todas esas revisiones de empleados que había estado posponiendo. Si ha hecho alguna de estas cosas o simplemente ha jugado a hacer preguntas a un modelo de lenguaje amplio (LLM, por sus siglas en inglés), sin duda se ha impresionado lo bien que las herramientas de GenAI pueden imitar los resultados humanos.
También habrá reconocido que no son perfectas. De hecho, a pesar de lo prometedoras que son, las herramientas de GenAI como ChatGPT o GitHub Copilot siguen necesitando la aportación de personas experimentadas para crear las instrucciones que las guían, así como para revisar sus resultados. Esto no va a cambiar pronto.
De hecho, la IA generativa es importante no tanto por todos los exámenes, informes jurídicos o aplicaciones de software que puede escribir, sino porque ha aumentado la importancia de la IA en general. Una vez que todo el revuelo en torno a GenAI se desvanezca -y lo hará-, nos quedaremos con el aumento de las inversiones en aprendizaje profundo y aprendizaje automático, que puede ser la mayor contribución de GenAI a la IA.
Para la persona con un martillo GenAI
Es difícil no entusiasmarse con la IA generativa. En lo que respecta a los desarrolladores de software, promete eliminar todo tipo de engorros de nuestro trabajo y permitirnos centrarnos en la codificación de mayor valor. La mayoría de los desarrolladores todavía están experimentando ligeramente con herramientas de codificación GenAI como AWS CodeWhisperer; pero otros, como el fundador de Datasette, Simon Willison, han profundizado y descubierto "enormes saltos adelante en la productividad y en la ambición de los tipos de proyectos que se asumen".
Una de las razones por las que Willison puede sacar tanto provecho de GenAI es su experiencia: Puede utilizar herramientas como GitHub Copilot para generar el 80% de lo que necesita, y es lo suficientemente inteligente como para saber dónde se puede utilizar el resultado de la herramienta, y dónde necesita escribir el 20% restante. La mayoría carece de su nivel de experiencia y conocimientos y puede que necesite ser menos ambicioso con su uso de GenAI.
Cada oleada de IA atraviesa un ciclo de exageración similar, y cada vez tenemos que aprender a separar la esperanza realista de la exageración exagerada. Tomemos como ejemplo el aprendizaje automático. Cuando llegó por primera vez, los científicos de datos lo aplicaron a todo, incluso cuando existían herramientas mucho más sencillas. Como afirmó en una ocasión el científico de datos, Noah Lorang: "Hay un subconjunto muy pequeño de problemas empresariales que se resuelven mejor con el aprendizaje automático; la mayoría de ellos sólo necesitan buenos datos y una comprensión de lo que significan". En otras palabras, por muy guau que parezca desarrollar algoritmos para encontrar patrones en petabytes de datos, las simples consultas matemáticas o SQL suelen ser un enfoque más inteligente.
Del mismo modo, el CEO de Diffblue, Mathew Lodge, sugirió recientemente que GenAI es a menudo la respuesta equivocada a una serie de preguntas, y que el aprendizaje por refuerzo ofrece mayores probabilidades de éxito: "Los modelos de aprendizaje por refuerzo pequeños, rápidos y baratos de ejecutar superan con creces a los LLM masivos de cien mil millones de parámetros en todo tipo de tareas, desde jugar a juegos hasta escribir código". Lodge no está diciendo que la IA generativa sea una exageración. Más bien sugiere que debemos reconocer la IA Generativa como una herramienta útil para resolver algunos problemas informáticos, no todos.
La economía de la GenAI
Si damos un paso atrás y analizamos la IA en sentido amplio, a pesar del enorme impacto de GenAI en el bombo mediático y las inversiones empresariales, ocupa un área relativamente pequeña dentro del panorama general de la IA, como capta Amol Wagh, ingeniero de Nvidia. "Inteligencia artificial" es la forma más amplia de hablar de la interacción entre humanos y máquinas. Como detalla Wagh, la IA es una "disciplina tecnológica que consiste en emular el comportamiento humano utilizando máquinas para aprender y realizar tareas sin necesidad de instrucciones explícitas sobre el resultado previsto".
¿Entra ahí la IA generativa? Claro que sí, pero primero viene el aprendizaje automático, un subconjunto de la IA, que se refiere a algoritmos que aprenden de los datos para hacer predicciones basadas en esos datos. Después está el aprendizaje profundo, un subconjunto del aprendizaje automático, que entrena a las computadoras para que piensen más como los humanos, utilizando capas de redes neuronales. Por último, está GenAI, un subconjunto del aprendizaje profundo, que va un paso más allá para crear nuevos contenidos basados en entradas.
De nuevo, si echamos un vistazo al gasto en centros de datos de Nvidia y vemos que se dispara en respuesta a GenAI, o si observamos el impacto de GenAI en la adopción de Vercel, sería fácil asumir que GenAI es el final del juego para la IA. GenAI está teniendo su momento, pero es muy probable -casi seguro- que este momento pase.
Esto no quiere decir que la GenAI se desvanecerá en una relativa oscuridad como la Web3 (¿la recuerdan?) o el blockchain (lamento traerles malos recuerdos). Más bien seremos más realistas sobre dónde encaja y dónde no dentro de un panorama de IA mucho más amplio. Por supuesto, podemos permitir que Massimo Re Ferré se explaye sobre el impacto "tectónico" de GenAI en la informática. En su opinión, "sólo estamos rascando la superficie de lo que la GenAI puede hacer" en un futuro impulsado por la GenAI en el que "los expertos se mueven 10 veces más rápido, y 10 veces más no expertos acceden a la TI de una forma que no podrían imaginar con las interfaces que tenemos hoy".
Claro, alguna variante de ese futuro es posible, incluso probable. Pero GenAI es un subconjunto de un subconjunto de un subconjunto de la IA; y para mí, es el panorama más amplio de la IA lo que es más interesante e impactante, incluso si toda nuestra atención está en GenAI por el momento. Este momento pasará. Si en el camino, GenAI nos recuerda cuánto potencial tienen la IA, el aprendizaje automático y el aprendizaje profundo, e invertimos en consecuencia, entonces habrá valido la pena el bombo.
Basado en el artículo de Matt Asay (InfoWorld) y editado por CIO Perú
Matt Asay se encarga de las relaciones con los desarrolladores en MongoDB. Anteriormente. Asay fue director de Amazon Web Services y jefe del Ecosistema de Desarrolladores de Adobe. Antes de Adobe, Asay desempeñó diversas funciones en empresas de código abierto: vicepresidente de desarrollo empresarial, marketing y comunidad en MongoDB; vicepresidente de desarrollo empresarial en la empresa de análisis en tiempo real Nodeable (adquirida por Appcelerator); vicepresidente de desarrollo empresarial y Consejero Delegado interino en la empresa emergente de HTML5 para móviles Strobe (adquirida por Facebook); director de Operaciones en Canonical, la empresa de Ubuntu Linux; y director de las Américas en Alfresco, una empresa emergente de gestión de contenidos. Asay es miembro emérito de la junta directiva de la Open Source Initiative (OSI) y posee un doctorado en Derecho por Stanford, donde se centró en el código abierto y otras cuestiones relacionadas con las licencias de propiedad intelectual. Las opiniones expresadas aquí son las de Matt y no reflejan las de su empleador.