5 casos de uso de IA generativa que las empresas pueden implementar hoy

5 ejemplos de implementación de IA generativa que las empresas pueden llevar a cabo hoy

Imagen cortesía del autor.

La emoción alrededor de la IA generativa es real, y los equipos de datos y ML lo están sintiendo.

En todas las industrias, los ejecutivos están presionando a sus líderes de datos para construir productos impulsados por IA que ahorren tiempo, impulsen los ingresos o les den una ventaja competitiva.

Y los gigantes tecnológicos como OpenAI, Google, Amazon y Microsoft han estado inundando el mercado con características impulsadas por modelos de lenguaje grandes (LLMs) y modelos de difusión generativos de imágenes. Prometen ayudar a las empresas a analizar datos de manera escalable, resumir y sintetizar información, generar contenido y transformar sus negocios.

Pero ¿por dónde empiezan la mayoría de las empresas al incorporar la IA generativa? ¿Qué casos de uso de IA generativa son realistas, alcanzables y realmente valen la pena en términos de retorno de inversión?

Investigamos a fondo las estrategias de los primeros adoptantes para aprender cómo las empresas están utilizando esta tecnología en la actualidad y qué se necesita para que un equipo de datos implemente gen-AI a gran escala.

Construye flujos de trabajo más eficientes para los trabajadores del conocimiento

En todas las industrias, las empresas están impulsando casos de uso tempranos de IA generativa mediante la automatización y simplificación de procesos que consumen mucho tiempo para los trabajadores del conocimiento.

Dado la capacidad de los LLMs de comprender y extraer información de datos no estructurados, las empresas encuentran valor en resumir, analizar, buscar y visualizar información relevante a partir de grandes cantidades de información interna. Veamos cómo algunas industrias clave están utilizando la IA generativa.

En la industria legal, los sistemas impulsados por IA están ayudando a los despachos de abogados mediante:

  • La automatización del monitoreo regulatorio para asegurarse de que los clientes estén actualizados con el cumplimiento normativo
  • La redacción y revisión de documentos estándar como testamentos y contratos
  • La asistencia en la diligencia debida mediante la revisión de grandes volúmenes de documentos para identificar posibles riesgos y problemas
  • El análisis de contratos para señalar posibles problemas o sugerir revisiones
  • La asistencia en la investigación legal mediante la identificación, análisis y resumen de información pertinente de jurisprudencia, estatutos, revistas, regulaciones y otras publicaciones relevantes

Soluciones tecnológicas: Los equipos legales están adoptando soluciones especializadas que incluyen modelos personalizados o LLMs ajustados a los sistemas legales, como CoCounsel (impulsado por GPT-4), Harvey y el conjunto de software de Thomson Reuters.

Caso de uso real: El despacho de abogados en Londres Macfarlanes utiliza Harvey para apoyar la investigación, analizar y resumir documentos, y crear los primeros borradores de correos electrónicos y memorandos, incluido el trabajo para los clientes, con abogados humanos que revisan su trabajo.

Servicios financieros

Allá por el 2023, instituciones de Wall Street como Goldman Sachs y Citigroup prohibieron famosamente ChatGPT debido a preocupaciones de privacidad de datos. A pesar de esos titulares “anti-IA”, la industria financiera ha estado utilizando algoritmos de aprendizaje automático durante años, energizando algoritmos de detección de fraude y decisiones crediticias instantáneas. Y los productos y las empresas financieras tienen numerosos casos de uso potenciales para la IA generativa.

Por ahora, sin embargo, Databricks estima que el 80% de los casos de uso de IA generativa en servicios financieros se centran en optimizar procesos para ahorrar tiempo y recursos. Esto incluye:

  • Bots de chat de finanzas conversacionales que pueden utilizar documentos internos como base de conocimientos
  • Automatización de funciones contables básicas como captura y procesamiento de facturas
  • Análisis, resumen y extracción de ideas de documentos como informes anuales, contratos de seguros y transcripciones de llamadas de ganancias

Además, los líderes de la industria creen que la capacidad de la IA para detectar y detener delitos financieros y fraudes es una aplicación enormemente convincente.

Soluciones tecnológicas: Están empezando a surgir soluciones personalizadas, como BloombergGPT, un LLM de 50 mil millones de parámetros desarrollado específicamente para servicios financieros.

Caso de uso en la vida real: En septiembre de 2023, Morgan Stanley lanzó un asistente impulsado por inteligencia artificial para apoyar a los asesores financieros proporcionando un fácil acceso a su base de datos interna de informes de investigación y documentos. Los empleados pueden utilizar la herramienta para hacer preguntas sobre mercados, procesos internos y recomendaciones.

Equipos de ventas

Los equipos de ventas y marketing están adoptando la IA generativa en masa con casos de uso como:

  • Redacción de primeras versiones de correos electrónicos, páginas de destino, entradas de blog y otros contenidos
  • Personalización de contenido para alcance individual basado en datos de CRM
  • Análisis de interacciones de ventas para capacitar a los representantes
  • Automatización de la puntuación de leads basada en datos demográficos, firmográficos y comportamientos digitales
  • Resumen de interacciones en llamadas y reuniones por video

Soluciones tecnológicas: Plataformas de ventas como Gong utilizan modelos propietarios para producir resúmenes de llamadas y recomendar siguientes pasos para ayudar a los prospectos en su proceso de compra, mientras que Einstein Copilot de Salesforce genera automáticamente respuestas por correo electrónico y actualizaciones de cuentas en función del contexto específico del cliente.

Caso de uso en la vida real: La plataforma de participación de cuentas 6sense utiliza una solución de correo electrónico conversacional habilitada por IA en sus comunicaciones con los prospectos, lo que representa el 10% de la generación de nuevas oportunidades de marketing en cuentas comprometidas.

Automatizar procesos de ingeniería y datos

Al automatizar aspectos repetitivos o tediosos de la codificación y la ingeniería de datos, la IA generativa está optimizando flujos de trabajo y aumentando la productividad tanto para los ingenieros de software como para los de datos.

Por ejemplo, los equipos pueden utilizar la IA generativa para:

  • Generar automáticamente fragmentos de código y revisar el código en busca de errores
  • Depurar y corregir automáticamente errores menores, o predecir dónde es probable que ocurran errores
  • Generar grandes cantidades de datos sintéticos que reflejen información del mundo real para que los ingenieros puedan probar modelos sin preocuparse por problemas de privacidad
  • Generar automáticamente documentación detallada sobre código y proyectos
  • Actualizar más fácilmente el software heredado de lenguajes como COBOL (muy presente en el sector financiero y con un coste significativo) a lenguajes modernos

Los LLM también se están incorporando directamente en soluciones para desarrolladores. Por ejemplo, dentro de la plataforma Monte Carlo, aprovechamos la API de OpenAI para admitir dos funciones: Fix with AI y Generate with AI, que ayudan a los equipos a operacionalizar mejor la observabilidad de los datos. Fix with AI utiliza LLM para identificar errores en las comprobaciones de calidad de datos, y Generate with AI utiliza LLM para generar sugerencias de nuevas comprobaciones de calidad de datos.

Incluso en OpenAI mismo, los LLM se utilizan para admitir DevOps y funciones internas. Como nos contó Yaniv Markovski, jefe de especialistas en IA, su equipo utiliza modelos GPT para recopilar y traducir señales operativas, como registros de servidores o eventos en las redes sociales, para comprender qué experimentan los clientes cuando utilizan sus productos. Esto es considerablemente más eficiente que el enfoque tradicional de un equipo de ingeniería de confiabilidad del sitio que investiga y soluciona incidentes manualmente.

Soluciones tecnológicas: Los equipos de ingeniería están adoptando herramientas como GitHub Copilot y CodeWhisperer de Amazon para apoyar sus flujos de trabajo diarios. Los desarrolladores pueden proporcionar una indicación en lenguaje natural y recibir fragmentos de código y sugerencias en lenguajes como Python, JavaScript, Ruby y más.

Caso de uso en la vida real: El equipo de ingeniería de datos de una empresa de medios global está utilizando LLM para clasificar las solicitudes de extracción en diferentes niveles de triaje requerido en sus flujos de trabajo de dbt. Dependiendo de la clasificación del cambio, el modelo activa un comando de compilación diferente. Esto ayuda a agilizar considerablemente los flujos de desarrollo, ya que la alternativa del equipo era codificar de forma compleja para determinar qué comando era apropiado para probar los cambios.

Democratizar los datos con el resto de la empresa

Dentro del mundo de los datos, la oportunidad más óptima para que las empresas aprovechen la IA generalizada puede ser aumentar el acceso a los datos para los consumidores no técnicos. LLM ofrece un camino para que los miembros del equipo en toda la organización ingresen indicaciones en lenguaje natural que puedan generar consultas SQL para recuperar puntos de datos específicos o responder preguntas complejas.

Este es el caso de uso preciso que Adam Conway, SVP de Productos en Databricks, recientemente resaltó como el primer paso más claro para las empresas.

“He visto ejemplos de industrias con una gran cantidad de documentación que desean permitir que sus equipos internos recuperen respuestas de decenas de miles de páginas de registros”, dijo Adam. “Ese es el enfoque correcto, porque el riesgo es bajo, te permite ensuciarte las manos, aporta mucho valor y no crea mucho riesgo. En Databricks, tenemos un chatbot interno que ayuda a los empleados a resolver problemas y analizar sus datos. Y vemos mucho valor en eso.”

Soluciones tecnológicas: Plataformas como Databricks están trabajando en funcionalidades integradas; recientemente anunciaron su LakehouseIQ, que promete hacer posible que los equipos consulten sus datos en lenguaje sencillo.

Aunque estas tecnologías todavía están emergiendo, los equipos de datos pueden ajustar los modelos basados en documentos internos o bases de conocimiento para construir capacidades personalizadas para sus organizaciones, o utilizar la IA generalizada para ayudar a los empleados a acelerar sus consultas de autoservicio, como describe nuestro ejemplo de la vida real.

Caso de uso en la vida real: La plataforma de compras en transmisión en vivo Whatnot fomenta en gran medida que cada empleado conozca SQL para que puedan consultar sus propios datos, crear sus propios paneles de control y escribir sus propios modelos de dbt, incluso en departamentos no técnicos como marketing, finanzas y operaciones. La IA generativa desempeña un papel en la capacitación de los empleados.

Como nos contó recientemente el Director de Ingeniería Emmanuel Fuentes, “Está ayudando a las personas a comenzar. Si no tienen conocimientos previos en SQL, les ayuda a familiarizarse bastante rápido, lo cual es realmente genial de ver. Si alguien no sabe cómo hacer una función de ventana, por ejemplo, pueden describir lo que están intentando hacer, obtener un bloque de SQL y luego agregar nuestras tablas de datos. Es como tener un tutor para alguien que no sabe cómo hacer análisis avanzado.”

Escalando el soporte al cliente

Los equipos de soporte al cliente merecen un reconocimiento especial como audiencia especialmente adecuada para flujos de trabajo habilitados por LLM. Al incorporar la búsqueda semántica en los chatbots y flujos de trabajo básicos, los equipos de datos pueden permitir que los equipos de servicio al cliente accedan a información, creen respuestas y resuelvan solicitudes mucho más rápido.

Soluciones tecnológicas: Algunas soluciones de CX ya incluyen capacidades de IA generativa en sus plataformas. Por ejemplo, Fusion Cloud CX de Oracle utiliza un LLM que hace referencia a datos internos para ayudar a los agentes a generar respuestas instantáneas a las solicitudes de servicio en función del historial de interacciones del cliente y sugiere nuevo contenido de bases de conocimiento en respuesta a problemas de servicio emergentes.

Caso de uso en la vida real: Los ingenieros de Vimeo utilizaron la IA generativa para construir un prototipo de chat de mesa de ayuda. La herramienta indexa los artículos de ayuda alojados por Zendesk de la empresa en una base de vectores (más información sobre bases de datos vectoriales a continuación) y conecta esa base de datos al proveedor de LLM. Cuando un cliente tiene una conversación sin éxito con el chatbot convencional, la transcripción se envía al LLM para obtener más ayuda. El LLM reformularía el problema en una sola pregunta, consultaría la base de vectores en busca de artículos con contenido relacionado y recibiría los documentos relevantes resultantes. Luego, el LLM generaría una respuesta final y resumida para el cliente.

Brindar soporte para traducción y servicios lingüísticos

Finalmente, la IA generativa permite automatizar traducciones casi instantáneas y brindar soporte lingüístico en organizaciones que gastan casi $60 mil millones anualmente en servicios lingüísticos, pero solo traducen una fracción del contenido que producen. LLM como GPT-4 tiene el potencial de ayudar a los equipos a proporcionar interacciones de servicio al cliente multilingües, realizar análisis de sentimiento global y localizar contenido a gran escala.

Soluciones tecnológicas: Actualmente, la mayoría de los modelos pueden carecer de los datos de entrenamiento necesarios para ser proficientes en idiomas menos comunes, o para captar coloquialismos o términos específicos de la industria, por lo que los equipos pueden necesitar ajustar los modelos para obtener resultados sólidos. Dicho esto, Google está trabajando en un modelo de habla universal entrenado en más de 400 idiomas, con el objetivo de construir un traductor universal.

Caso de uso en la vida real: En un giro único de un modelo de traducción tradicional, la empresa de tecnología sanitaria Vital lanzó un traductor doctor-paciente impulsado por IA para convertir al instante terminología médica altamente técnica en un lenguaje sencillo.

Tres consideraciones clave al comenzar con gen AI

A medida que tu equipo explora el paisaje siempre cambiante de gen AI, hay algunas consideraciones clave a tener en cuenta.

Complementa tu stack tecnológico

Tener el stack tecnológico adecuado para respaldar gen AI ayudará a que tu equipo se expanda y genere valor mucho más rápidamente. Además de los componentes habituales de un stack de datos moderno, deberás considerar agregar:

Bases de datos vectoriales

Bases de datos vectoriales son actualmente una de las formas más efectivas para que los equipos construyan aplicaciones escalables con LLMs de OpenAI. Estas bases de datos permiten la incrustación de vectores, que llevan información semántica que ayuda a la IA a entender las relaciones y patrones dentro de tus datos.

Los equipos pueden utilizar bases de datos vectoriales independientes como Pinecone o Zilliz, o utilizar capacidades de incrustación de vectores en sus soluciones de almacenamiento de datos existentes como Databricks y Snowflake.

Ajuste de modelos

Para equipos con necesidades más personalizadas, el ajuste de modelos, es decir, entrenar un modelo preentrenado en un conjunto de datos específico para tus necesidades, probablemente será el siguiente paso más allá de la incrustación de vectores. Herramientas como Tensorflow y HuggingFace son buenas opciones para ajustar tus modelos.

Procesamiento de datos no estructurados o de transmisión

La IA generativa tiende a ofrecer el mayor valor extrayendo información de grandes volúmenes de datos no estructurados. Si aún no has incorporado el procesamiento de datos no estructurados en tu stack, probablemente necesitarás implementar una herramienta como Spark, o Kafka, si te aventuras en los datos en transmisión.

Asegura el equipo y recursos adecuados

Crear un proyecto piloto de IA lleva tiempo y recursos. Aunque puedas tener un CEO entusiasta que no escatime gastos para incorporar gen AI a tu producto o negocio, es importante tener una idea realista de cuánto tiempo llevará y cuánto costará.

Configura tu equipo

Es probable que redirijas a empleados existentes para prototipar o probar un concepto en lugar de contratar desarrolladores experimentados de gen AI desde el principio (en parte porque este es un campo completamente nuevo, por lo que aún no existen desarrolladores experimentados de gen AI). Estos equipos de tigre generalmente están compuestos por ingenieros de datos con ciertos conocimientos de ML.

En otras palabras, algunos de tus jugadores valiosos tendrán que ser redirigidos lejos del trabajo inmediato que genera ingresos para asumir tu proyecto piloto de IA. Considera el costo de oportunidad inherente e incorpóralo en tu planificación general, y empareja a tu equipo con un patrocinador de negocios que pueda defender este cambio en la asignación de recursos y mantener a tu equipo cerca del valor comercial.

Considera tus costos de hardware

Si planeas ajustar tu modelo y eres nuevo en ML Ops, predice y presta atención a los costos de cómputo que incurrirás con todo ese entrenamiento personalizado. Esas horas de GPU pueden sumar.

Priorizar la calidad de los datos

Independientemente de su conjunto de tecnologías, su modelo de elección o su caso de uso, hay una verdad que prevalece: debe asegurarse de la calidad de sus entradas y salidas de datos. De lo contrario, corre el riesgo de exponer datos incorrectos a más equipos internos, ya sea directamente a través de indicaciones en lenguaje natural o indirectamente a través de productos alimentados por IA generativa.

La IA generativa tiene el potencial de transformar cualquier empresa, pero no está exenta de riesgos y posibles obstáculos. Las pruebas de datos, el monitoreo de datos, la gobernanza de IA y la observabilidad de datos ayudan a garantizar que GenAI genere un valor inmenso, no desastres de datos vergonzosos, para su organización.

Agradecemos especialmente a Naren Venkatraman, Yaniv Markovski y Emmanuel Fuentes por dedicar tiempo para conversar con nosotros en este artículo.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Rosalyn revela StableSight AI para combatir el creciente fraude en exámenes en línea

En medio de la creciente complejidad de la deshonestidad académica en la educación en línea, Rosalyn ha presentado St...

Inteligencia Artificial

Esta Investigación de IA Explica los Rasgos de Personalidad Sintéticos en los Modelos de Lenguaje de Gran Escala (LLMs)

La personalidad de un individuo consiste en una combinación única de cualidades, características y formas de pensar. ...

Inteligencia Artificial

La IA generativa imagina nuevas estructuras de proteínas

Investigadores del MIT desarrollan FrameDiff, una herramienta computacional que utiliza inteligencia artificial gener...