10 Sesiones imperdibles sobre modelos de lenguaje que llegarán a ODSC West 2023
10 Imperdibles conferencias sobre modelos de lenguaje que no te puedes perder en ODSC West 2023
LLMs y la IA generativa han dominado tanto la industria como la vida cotidiana este año. En ODSC West del 30 de octubre al 2 de noviembre, nuestro objetivo es prepararte para las nuevas tecnologías, aplicaciones y habilidades necesarias que surgen de este cambio. En la conferencia encontrarás sesiones prácticas de capacitación, talleres y charlas sobre LLMs, IA generativa y diseño de promociones. A continuación, encontrarás una selección de nuestras sesiones confirmadas.
Personalización de LLMs con un Feature Store
Jim Dowling | CEO | Hopsworks
- Por qué Bankrate renunció a los artículos generados por IA
- ¿Invertir en IA? Aquí tienes qué considerar
- Una guía para principiantes sobre LLMOps para ingeniería de aprendizaje automático
En esta sesión aprenderás cómo personalizar LLMs utilizando un Feature Store y diseño de promociones. Recorrerás cómo construir una aplicación gratuita sin servidor y personalizada de LLMs utilizando Hopsworks, un Feature Store de código abierto con una base de datos de vectores incorporada, y verás cómo construir plantillas para promociones, cómo completar las plantillas con datos de contexto en tiempo real y cómo podemos incorporar documentos de bases de datos de vectores en promociones utilizando una combinación de datos de usuario y datos históricos del Feature Store.
Técnicas de evaluación para modelos de lenguaje grandes
Rajiv Shah, PhD | Ingeniero de Aprendizaje Automático | Hugging Face
Seleccionar el LLM adecuado para tus necesidades se ha vuelto cada vez más complejo. Durante este tutorial, aprenderás sobre las herramientas prácticas y las mejores prácticas para evaluar y elegir LLMs.
Explorarás las investigaciones existentes sobre las capacidades de LLMs versus los modelos pequeños de aprendizaje automático tradicionales, así como varias técnicas, incluyendo suites de evaluación como EleutherAI Harness, enfoques de competencia directa y el uso de LLMs para evaluar otros LLMs. Por último, abordarás factores sutiles que afectan la evaluación, incluido el papel de las promociones, la tokenización, los requisitos de precisión factual y los sesgos y la ética del modelo.
Construcción de un bot de preguntas/respuestas experto con herramientas de código abierto y LLMs
Chris Hoge | Jefe de Comunidad | Heartex
Además de una “comprensión” del mundo, los LLMs heredan sesgos que son difíciles de entender o controlar. Este problema debe abordarse al incorporarlos en aplicaciones del mundo real. En esta sesión explorarás cómo se pueden utilizar Label Studio, LangChain, Chroma y Gradio como herramientas para la mejora continua, específicamente en la construcción de un sistema de preguntas y respuestas (QA).
Comprensión del panorama de los modelos grandes
Lukas Biewald | CEO y cofundador | Weights & Biases
Únete a esta sesión para explorar el panorama actual de los modelos grandes desde GPT-3 hasta Stable Diffusion. También discutirás cómo los equipos detrás de algunos de los proyectos de código abierto están utilizando W&B para acelerar su trabajo.
Democratización de la adaptación fina de modelos grandes de código abierto con Optimización Conjunta de Sistemas
Kabir Nagrecha | Estudiante de Doctorado | UC San Diego
En esta sesión se proporcionará una visión general de las ideas centrales detrás de Saturno, cómo funciona a nivel técnico para reducir los tiempos de ejecución y los costos, y el proceso de uso de Saturno para la adaptación fina de modelos grandes. Explorarás cómo Saturno puede acelerar y optimizar cargas de trabajo de modelos grandes en solo unas pocas líneas de código y describirás algunos casos de uso de alto valor del mundo real en la industria y la academia.
Construcción de trabajadores del conocimiento impulsados por LLM sobre tus datos con LlamaIndex
Jerry Liu | Cofundador y CEO | LlamaIndex
Los LLMs ofrecen nuevas formas de buscar, interactuar y generar nuevo contenido. En esta sesión, aprenderás cómo LlamaIndex te permite construir sistemas de búsqueda y recuperación impulsados por LLMs, así como trabajadores del conocimiento más automatizados capaces de interactuar con tus fuentes de datos de manera más sofisticada. En este taller, aprenderás cómo construir tanto un bot de preguntas y respuestas simple como un agente de flujo de trabajo automatizado.
Aprendizaje eficiente y generalizado auto-supervisado con data2vec
Michael Auli | Científico Principal de Investigación en FAIR | Director en Meta AI
Esta sesión explorará data2vec, un marco para el aprendizaje autodidacta general que utiliza el mismo método de aprendizaje para el habla, el procesamiento del lenguaje natural (NLP) o la visión por computadora. En lugar de predecir objetivos específicos de la modalidad como palabras, fichas visuales o unidades del habla humana que son locales en naturaleza, data2vec predice representaciones latentes contextualizadas que contienen información de toda la entrada. Los experimentos en los principales puntos de referencia de reconocimiento de voz, clasificación de imágenes y comprensión del lenguaje natural demuestran un nuevo estado del arte o un rendimiento competitivo con enfoques predominantes.
Hacia LLMs explicables y agnósticos del lenguaje
Walid S. Saba | Científico investigador senior | Instituto de Experiential AI en la Universidad Northeastern
Para abordar los desafíos de la verdadera comprensión del lenguaje y la falta de explicabilidad, la sesión explorará la combinación de la fuerza de las representaciones simbólicas con una exitosa ingeniería inversa de abajo hacia arriba del lenguaje a gran escala. Como tal, se argumenta a favor de la ingeniería inversa de abajo hacia arriba del lenguaje en un entorno simbólico. Se han sugerido pistas sobre lo que puede suponer este proyecto por varios autores, y se discutirá con cierto detalle aquí cómo se podría lograr este proyecto.
Más allá de demos y prototipos: Cómo construir aplicaciones listas para producción utilizando LLMs de código abierto
Suhas Pai | Director de Tecnología | Bedrock AI
Este taller explorará el panorama de las LLMs de código abierto y proporcionará un libro de jugadas sobre cómo utilizarlas de manera efectiva para construir aplicaciones listas para producción. Aprenderás cómo elegir una LLM que se ajuste mejor a tu tarea, explorarás varias técnicas de ajuste fino que te permitirán adaptar la LLM a tu dominio de interés y discutirás técnicas para lidiar con limitaciones de razonamiento, alucinaciones, sesgos y problemas de equidad.
Modelos de lenguaje grandes: problemas y desafíos comunes
Nils Reimers | Director de Aprendizaje Automático | Cohere.ai
Esta sesión presentará cómo se pueden conectar los Modelos de Lenguaje Grandes (LLMs) a sus datos mediante búsqueda semántica, con un enfoque en los muchos problemas y desafíos. Explorarás cómo se pueden resolver algunos de ellos utilizando las tecnologías adecuadas y discutirás otros que todavía son problemas abiertos.
¡Apúntame!
Para asistir a estas y muchas otras sesiones dirigidas por expertos sobre LLMs, IA Generativa, Aprendizaje Automático, NLP, Aprendizaje Profundo, Ingeniería de Datos y más, únete a nosotros en ODSC West en solo unas pocas semanas. Regístrate ahora para aprovechar nuestra oferta de descuento del 40%, que finaliza el viernes.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Armonizando los canales de experiencia digital del cliente El modelo de sinergia de cuatro cuadrantes de los chatbots y ChatGPT en las organizaciones modernas
- 5 libros gratuitos para ayudarte a dominar Python
- Los mejores 5 cursos de R (2024)
- Conoce LMSYS-Chat-1M Un conjunto de datos a gran escala que contiene un millón de conversaciones del mundo real con 25 LLM de última generación.
- Nuevas subvenciones de Google.org para presentar a 300,000 estudiantes a la robótica y la IA
- Cartografía con la herramienta de análisis de datos avanzados de GPT-4 Un ejemplo completo
- Lo que debes saber sobre la limitación de velocidad