Sesiones imperdibles anunciadas para la Cumbre Gratuita de IA Generativa el 20 de julio
Sesiones anunciadas para la Cumbre Gratuita de IA Generativa el 20 de julio
Nuestra primera Cumbre de Inteligencia Artificial Generativa está a solo 2 semanas de distancia. No podríamos estar más emocionados de reunir a un grupo diverso de expertos, académicos, líderes de la industria y más para discutir esta tecnología revolucionaria. Echa un vistazo a algunas de las sesiones a las que podrías asistir durante la cumbre.
Avances Recientes en Modelos Generativos por Difusión
Stefano Ermon PhD | Profesor Asistente @ Universidad de Stanford
- Cómo generar texto utilizando diferentes métodos de decodificación para la generación de lenguaje con Transformers
- ‘Búsqueda potenciada en el 🤗 Hub’
- El Reformador – Empujando los límites del modelado de lenguaje
Esta sesión presentará una base alternativa para modelos generativos: el campo vectorial de gradientes de la distribución de datos. Este marco permite arquitecturas flexibles y no requiere muestreo durante el entrenamiento ni el uso de métodos de entrenamiento adversarial. Además, los modelos generativos por difusión basados en puntuación permiten la evaluación exacta de la verosimilitud a través de conexiones con ODEs neuronales, logrando una calidad de muestra de última generación y una verosimilitud excelente en conjuntos de datos de imágenes.
Sobre Cerebros, Ondas y Representaciones
Max Welling PhD | Científico Distinguido @ Microsoft Research
Esta charla explorará cómo construir sesgos inductivos significativos en modelos para dominios de datos espacio-temporales, como videos. El método abordado generalizará la idea de equivarianza a una restricción mucho menos estricta y aprendible, y luego agregará una prioridad de que las representaciones de variables latentes evolucionen como EDPs y, en particular, ondas. En general, argumentamos que este sesgo inductivo inspirado en el cerebro podría ayudar al aprendizaje de datos de secuencia.
Generative Adversarial Networks 101
Daniel Voigt Godoy | Científico de Datos y Autor
Esta sesión te enseñará los conceptos básicos de las Redes Generativas Adversariales, las famosas GANs, desde cero: autoencoders, espacios latentes, generadores, discriminadores, GANs, DCGANs, WGANs y más. El objetivo principal de esta sesión es mostrarte cómo funcionan las GANs y abordará los espacios latentes y cómo usarlos para generar datos sintéticos, mientras se discuten detalles de implementación y entrenamiento, como la distancia de Wasserstein y la penalización de gradiente.
Modelos Generativos de Lenguaje Grande y Alucinaciones
Chandra Khatri | Cofundador @ Got It AI
Esta sesión abordará uno de los desafíos significativos que enfrentan los Modelos Generativos de Lenguaje Grande (LLMs): su tendencia a “alucinar” con confianza. Este problema de alucinación puede hacer que los modelos produzcan información inexacta. Esta charla tiene como objetivo adentrarse en las complejidades del problema de la alucinación en los LLMs y arrojar luz sobre estrategias efectivas para superarlo.
BloombergGPT: Un Modelo de Lenguaje Grande para Finanzas
Ozan Irsoy | Científico de Investigación @ Bloomberg LP
Esta sesión examinará BloombergGPT, un modelo de lenguaje con 50 mil millones de parámetros que se entrena con una amplia gama de datos financieros. Desde la recolección de datos hasta la evaluación, tendrás la oportunidad de conocer el proceso de construcción de este LLM para finanzas.
Preentrena los Modelos Fundamentales de Visión y Lenguaje en AWS
Emily Webber | Arquitecta Principal de Soluciones de ML @ AWS
En esta sesión, profundizarás en el tema de los modelos fundamentales con un enfoque en los aspectos beneficiosos y desafiantes de esta tecnología hoy en día. En particular, explorarás las tecnologías disponibles en AWS que te ayudarán a preentrenar los modelos fundamentales del futuro. Desde el entrenamiento distribuido hasta los aceleradores personalizados, el modelado de recompensas hasta el aprendizaje por refuerzo, aprende cómo crear tus propios modelos de última generación.
Emparejando Identidades Usando Modelos de Lenguaje Grande
Catherine Havasi | Jefa de Innovación @ Babel Street
Muchas aplicaciones en el mundo real dependen de la capacidad de buscar eficientemente en bases de datos de nombres personales o corporativos y entender quién es probablemente la misma entidad. Un solo individuo puede ser referido de muchas maneras diferentes con variantes de nombre, diferentes escrituras, apodos o alias. Esta sesión presentará un nuevo método para el emparejamiento de nombres utilizando un modelo de lenguaje grande que funciona a nivel de bytes, que hemos ajustado para incrustar nombres personales en un espacio vectorial para tareas de recuperación de nombres.
Máquinas vs. Mentes: Navegando el Futuro de la Inteligencia Artificial Generativa
Maya Ackerman | CEO y Cofundadora @ WaveAI
Esta sesión explorará la esencia de la inteligencia artificial generativa, haciendo comparaciones con nuestros propios cerebros. La discusión se adentrará en las fortalezas únicas de los humanos y las máquinas, y explorará el potencial de una colaboración efectiva entre nosotros y los sistemas de IA.
¡Regístrame!
Únete a cualquiera de estas sesiones, y muchas otras, el 20 de julio en la Cumbre de IA Generativa virtual y gratuita. Puedes ver a todos nuestros ponentes y sesiones aquí.
Y no te pierdas nuestra próxima conferencia, ODSC West 2023, con sesiones de capacitación, talleres y más sobre IA generativa y LLMs.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Modelos del Codificador-Decodificador basados en Transformadores
- Portando el sistema de traducción fairseq wmt19 a transformers
- Aprovechando los puntos de control de modelos de lenguaje pre-entrenados para modelos codificador-decodificador.
- Cómo aceleramos la inferencia del transformador 100 veces para los clientes de la API de 🤗
- Ajusta más y entrena más rápido con ZeRO a través de DeepSpeed y FairScale
- Recuperación Mejorada de Generación con Huggingface Transformers y Ray
- Hugging Face Reads, Feb. 2021 – Transformers de largo alcance