Llegamos a ustedes gracias a:



Noticias

ChatGPT ahora chatea a través de Azure OpenAI Service

[13/03/2023] Microsoft pone a disposición de los desarrolladores el modelo de lenguaje ChatGPT AI como componente para las aplicaciones diseñadas para el servicio Azure OpenAI, allanando el camino para que los desarrolladores integren el modelo de lenguaje en una gran variedad de aplicaciones de desarrollo empresarial y de usuario final, sostuvo la empresa en una entrada de blog.

[Reciba lo último de CIO Perú suscribiéndose a nuestro newsletter semanal]

Microsoft parece haber tenido ya varios usuarios trabajando con esta integración, enumerando a ODP Corporation (la empresa matriz de Office Depot y OfficeMax), la Smart Nation Digital Government Office de Singapur y el proveedor de software de gestión de contratos Icertis como clientes de referencia.

Los desarrolladores que utilicen el servicio Azure OpenAI pueden utilizar ChatGPT para añadir diversas funciones a las aplicaciones, como recapitular las conversaciones de los centros de llamadas, automatizar la tramitación de reclamaciones e incluso crear nuevos anuncios con contenido personalizado, entre otras cosas.

La IA generativa como ChatGPT ya se está utilizando para mejorar la oferta de productos de Microsoft. Por ejemplo, según la compañía, la versión premium de Teams puede utilizar IA para crear capítulos en las conversaciones y recapitulaciones generadas automáticamente, mientras que Viva Sales puede ofrecer orientación basada en datos y sugerir contenido de correo electrónico para ayudar a los equipos a llegar a sus clientes.

Casos de uso empresarial de Azure OpenAI ChatGPT

Ritu Jyoti, vicepresidenta del grupo IDC para la investigación mundial de IA y automatización, dijo que los casos de uso propuestos tienen mucho sentido, y que espera que gran parte del uso inicial de la nueva oferta de Microsoft impulsada por ChatGPT se centre internamente dentro de las empresas.

"Por ejemplo, ayudar a Recursos Humanos a elaborar descripciones de puestos de trabajo, ayudar a los empleados con la gestión interna del conocimiento y el descubrimiento; en otras palabras, aumentar la capacidad de búsqueda interna de los empleados", explicó.

El precio del servicio funciona por tokens: un token cubre el valor de unos cuatro caracteres de una consulta en inglés escrito; un párrafo medio cuesta 100 tokens, y una redacción de 1.500 palabras, unos 2.048. Según Jyoti, una de las razones por las que las aplicaciones basadas en GPT-3 se hicieron más populares justo antes de que ChatGPT se hiciera viral es que el precio de la fundación OpenAI bajó a unos 0,02 dólares por mil tokens.

ChatGPT a través de Azure cuesta incluso menos, 0,002 dólares por mil tokens, lo que hace que el servicio sea potencialmente más económico que el uso de un modelo interno de gran lenguaje, añadió.

"Creo que el precio es estupendo", afirmó Jyoti.

Según Bern Elliot, vicepresidente y distinguido analista de Gartner, Microsoft parece estar operando el servicio con un énfasis en las prácticas responsables de IA, tal vez habiendo aprendido las lecciones de los incidentes en los que un chatbot de Bing mostró un comportamiento extraño, incluyendo una conversación con un reportero del New York Times en la que el chatbot declaró su amor y trató de convencerlo de que dejara a su cónyuge.

"Creo que Microsoft, históricamente, se ha tomado la IA responsable muy en serio, y eso les honra", anotó. "Tener un sólido historial de uso ético y de ofrecer privacidad de nivel empresarial es positivo, así que creo que eso está a su favor".

Esa es una consideración clave, dijo, dadas las preocupaciones planteadas por el uso de IA en la empresa: protección de datos y contextualización de conjuntos de datos, más específicamente. Esta última cuestión se centra generalmente en asegurarse de que la IA empresarial extrae respuestas de la base de información correcta, lo que garantiza que esas respuestas sean correctas y elimina las "alucinaciones" que se observan en la IA de uso más general.