Este boletín de inteligencia artificial es todo lo que necesitas #75

Este boletín de inteligencia artificial es todo lo que necesitas #75 Lo último en belleza y moda

Lo que sucedió esta semana en AI por Louie

Esta semana vimos la conclusión del drama en OpenAI con el regreso de Sam Altman y Greg Brockman a OpenAI y la designación de dos nuevos directores en la junta (junto con un director existente). Hasta cierto punto, creemos que esto deja a OpenAI en una posición mejor que cuando empezó, con más controles y equilibrios sobre el control de Sam (ahora que está fuera de la junta) y más urgencia para encontrar una solución de gobierno democrático a largo plazo. Sin embargo, es probable que haya daños duraderos, con algunas empresas temiendo depender de una organización con una estructura de gobierno tan compleja y potencialmente inestable. Esperamos que esto respalde la tendencia existente de construir productos con dependencias limitadas en un solo LLM, donde el LLM se pueda sustituir por una API alternativa o un modelo de código abierto en poco tiempo.

Aparte de OpenAI, nos emocionó ver un nuevo modelo de generación de videos de Stability AI esta semana y una mejora en el modelo Claude 2.1 de Anthropic y el modelo Inflection-2 de Inflection.AI (pronto accesible a través de su interfaz digital Pi). Aún estamos en las primeras etapas de las capacidades de modelos de texto/imagen a video; sin embargo, lanzar un modelo de base poderoso de generación de videos de código abierto puede ayudar a catalizar el progreso en el campo. También nos complace ver más competencia en el espacio LLM a medida que las empresas intentan aprovechar la agitación de OpenAI.

¿Por qué deberías preocuparte?

Creemos que la estructura de gobierno en OpenAI sigue siendo importante para la estabilidad a corto plazo de las miles de empresas e individuos que construyen sobre sus modelos, así como para la economía y la geopolítica a largo plazo, en general, si OpenAI se vuelve cada vez más poderosa. En nuestra opinión, la gobernanza de OpenAI aún está lejos de resolverse. A corto plazo, se necesita una junta más grande y diversa. A largo plazo, si OpenAI sigue cumpliendo con sus ambiciones, probablemente debería haber alguna forma de democracia y descentralización para controlar lo que pretende ser una de las organizaciones más poderosas del mundo. Dado esto, debemos seguir viendo a otras empresas y organizaciones competir con nuevos modelos, junto con el movimiento de IA de código abierto que continúa desarrollando modelos con dependencias menos centralizadas.

– Louie Peters, Cofundador y CEO de Towards AI

Noticias más destacadas

  1. Anthropic ha lanzado Claude 2.1

Anthropic ha lanzado la versión 2.1 de Claude, con varias mejoras importantes, incluyendo una ventana de contexto de 200,000 tokens, tasas reducidas de alucinación y nuevas capacidades de uso de herramientas. Esta actualización permite a los usuarios enviar documentos extensos y mejora la precisión, aumentando la confianza y confiabilidad en el sistema. También están actualizando sus precios para que sean más accesibles.

2. Investigadores de OpenAI advierten a la junta sobre un avance de la IA antes del despido del CEO, según fuentes

Antes de los cuatro días de exilio del CEO de OpenAI, Sam Altman, varios investigadores del personal escribieron una carta a la junta directiva advirtiendo sobre un poderoso descubrimiento de inteligencia artificial que, según dijeron, podría amenazar a la humanidad, según dos personas familiarizadas con el asunto citadas por Reuters. Las fuentes mencionaron la carta como uno de los factores que llevaron al despido de Altman, entre los cuales se encontraban las preocupaciones sobre la comercialización de avances antes de comprender las consecuencias.

3. Presentando Stable Video Diffusion – Stability AI

Stability AI ha presentado Stable Video Diffusion, un potente modelo de base para la generación de videos generativos. Este modelo tiene el potencial de generar fotogramas personalizables a diferentes velocidades de fotogramas y es accesible públicamente en GitHub y Hugging Face con fines de investigación.

4. Inflection-2: El próximo paso

La startup de IA Inflection AI acaba de anunciar Inflection-2, un nuevo modelo de lenguaje con 175 mil millones de parámetros entrenado en 5.000 GPU NVIDIA H100 en precisión mixta de fp8 por ~1⁰²⁵ FLOPs. Superó a LLaMA 2 y PaLM 2 en varios benchmarks de procesamiento de lenguaje natural y se acercó a los niveles de GPT-4 en tareas específicas.

5. NeuralChat 7B: el modelo de chat de Intel entrenado con DPO

Intel lanzó su afinamiento de Mistral 7B, superando a la clasificación de Huggingface. Este es un modelo afinado basado en Mistral-7B-v0.1 en el conjunto de datos de código abierto SlimOrca. Está alineado con el algoritmo DPO. El modelo está entrenado en los 8 aceleradores Gaudi2 de Habana Labs.

¿Ha llevado la turbulencia de OpenAI a una mayor competencia y a lanzamientos más rápidos de modelos en el espacio de LLM a medida que las empresas intentan aprovechar la oportunidad? ¡Comparte tus pensamientos en los comentarios!

Cinco lecturas/videos de 5 minutos para mantener tu aprendizaje

  1. Lista de lectura para el video de Introducción de Andrej Karpathy a los Modelos de Lenguaje Grandes

Andrej Karpathy ha lanzado un video de una hora titulado “Introducción para personas ocupadas a los Modelos de Lenguaje Grandes (LLMs)”, que ofrece información valiosa, recursos y artículos para expertos en IA y nuevos en el campo de la IA. Esta guía concisa cubre los temas principales del video y proporciona referencias a artículos relacionados.

2. Distil-Whisper explicado: ¡La tecnología de voz a texto más reciente de IA!

Distil-Whisper es un modelo de reconocimiento de voz con resultados de última generación para transcribir cualquier tipo de audio. En este video, Louis Bouchard explora las capacidades del modelo, cómo se construyó y cómo funciona.

3. Herramientas y marcos emergentes en IA: Un análisis comparativo

Este artículo cubre las herramientas y los marcos emergentes en IA, comparando sus fortalezas, usabilidad y casos ideales de uso. Compara bases establecidas como TensorFlow y PyTorch, Plataformas de IA/ML sin código, Servicios de IA basados en la nube, Marcos enfocados en visión y más.

4. Romper la dependencia secuencial de la inferencia en LLM utilizando decodificación anticipada

La decodificación anticipada es un nuevo algoritmo de decodificación paralela exacta para acelerar la inferencia en LLM. Informan de aceleraciones de velocidad de 1,5 a 2 veces durante la decodificación de LLM al intercambiar cálculos por latencia; pagas más FLOPs, pero obtienes mayor rendimiento. Este artículo presenta el nuevo enfoque junto con demostraciones y resultados experimentales.

5. 33 fundadores de startups de IA debaten sobre la creación de la Inteligencia General Artificial

Este video de 5 minutos producido por Y Combinator presenta opiniones de 33 fundadores de YC especializados en IA. Dadas sus comprensiones actuales sobre la IA, comparten sus perspectivas sobre cuándo podría convertirse en una realidad la inteligencia general artificial.

Repositorios y herramientas

  1. GPT4All es un ecosistema para ejecutar modelos de lenguaje grandes y personalizados que funcionan localmente en CPUs de consumo y cualquier GPU. Es un archivo de 3 GB – 8 GB que puedes descargar e integrar en el software del ecosistema de código abierto GPT4All.
  2. Llama Packs es un centro impulsado por la comunidad de módulos preempaquetados para ser utilizados con LlamaIndex y LangChain. El objetivo es conectar modelos de lenguaje grandes con diversas fuentes de conocimiento de manera fácil. Ya han lanzado más de 16 plantillas.
  3. Tuna es una herramienta sin código para generar rápidamente conjuntos de datos para el afinamiento de LLM desde cero. Ayuda a crear datos de entrenamiento de alta calidad para el afinamiento de modelos de lenguaje grandes como los LLaMas.
  4. Codesandbox es un autocompletado de código impulsado por Codeium. Proporciona generación de código de una o varias líneas con múltiples sugerencias entre las que elegir.

Mejores Artículos de la Semana

  1. Orca 2: Enseñando a los Pequeños Modelos de Lenguaje a Razonar

Orca 2, un nuevo modelo de lenguaje, mejora el razonamiento a través de señales de entrenamiento avanzadas y estrategias diversas. Supera a los modelos ajustados a instrucciones en benchmarks y supera a modelos de tamaño similar en tareas complejas, incluso rivalizando con modelos más grandes en configuraciones de cero disparo.

2. GAIA: Un Referente para Asistentes de IA General

Este artículo presenta GAIA, un referente para Asistentes de IA General, con 466 preguntas y sus respuestas. Propone preguntas del mundo real que requieren un conjunto de habilidades fundamentales como el razonamiento, el manejo de multimodalidad, la navegación web y la competencia en uso de herramientas en general. Mientras que son sencillas para los humanos, son desafiantes para la mayoría de las IA avanzadas.

3. Atención del Sistema 2 (Es Algo que También Puedes Necesitar)

Se ha desarrollado un nuevo método de atención llamado Atención del Sistema 2 (S2A) para abordar el problema de la salida irrelevante o sesgada en los LLM. Inspirado en los procesos cognitivos humanos, S2A filtra el contexto irrelevante y promueve la factualidad y la objetividad en el razonamiento de los LLM. En los experimentos, S2A supera a los LLM basados en atención estándar en tres tareas que contienen.

4. Un Paradigma Teórico General Para Comprender el Aprendizaje a partir de las Preferencias Humanas

Este artículo deriva un nuevo objetivo general llamado ΨPO para el aprendizaje a partir de las preferencias humanas que se expresan en términos de preferencias por pares y, por lo tanto, evita ambas aproximaciones en RLHF. Esto permite un análisis profundo del comportamiento de RLHF y DPO e identifica sus posibles peligros.

5. Tied-Lora: Mejorando la Eficiencia de Parámetros de LoRA con Amarre de Pesos

Este artículo propone Tied-LoRA, un paradigma simple que utiliza el amarre de pesos y el entrenamiento selectivo para aumentar la eficiencia de parámetros del método de adaptación de bajo rango (LoRA). Los experimentos muestran que la configuración de Tied-LoRA demuestra un rendimiento comparable en varias tareas, empleando solo el 13~\% de los parámetros utilizados por el método LoRA estándar.

1. Poco después de que aparecieran capturas de pantalla que mostraban a Grok, el chatbot de xAI, en la aplicación web de X, Elon Musk, propietario de X, confirmó que Grok estaría disponible para los suscriptores Premium+ en algún momento de esta semana.

2. Google LLC lanzó una nueva versión de Bard que permite interactuar con videos de YouTube utilizando comandos de lenguaje natural. Bard podrá acceder y procesar el contenido, proporcionando una respuesta detallada y precisa.

3. La startup de IA Artisan recauda $2.3M para desarrollar trabajadores digitales similares a los humanos. Los trabajadores se llaman Artisans y actúan como adiciones a los equipos a los que se unen, en lugar de ser herramientas de software, y pueden realizar miles de tareas con mínima intervención humana.

4. Los fundadores de una nueva plataforma de creación de productos impulsada por la comunidad, Off/Script, anunciaron el lanzamiento oficial de su aplicación móvil, que permite a cualquier persona conceptualizar, compartir y monetizar maquetas de productos.

Quién está Contratando en IA

Redactor Técnico de IA y Desarrollador para Modelos de Lenguaje Grandes @Towards AI Inc (Remoto/Freelance)

Ingeniero de Software II @Smartsheet (Remoto)

Ingeniero de Software – Aprendizaje Automático @Celonis (Remoto)

Científico de IA @Jasper (Remoto)

Arquitecto de Entrega – Ciencia de Datos, IA y Aprendizaje Automático (AWS) @Rackspace (Remoto)

Analista de Datos – Crecimiento @Voodoo (Remoto)

Ingeniero Senior de Aprendizaje Automático @Recursion (Salt Lake City, UT, USA)

¿Interesado or partager una oportunidad de empleo aquí? Contacta con .

Si te estás preparando para tu próxima entrevista de aprendizaje automático, no dudes en visitar nuestra página web líder en preparación de entrevistas, confetti!

https://www.confetti.ai/

¿Crees que a un amigo también le gustaría esto? Comparte el boletín y permítele unirse a la conversación.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Google AI propone E3-TTS, una solución sencilla y eficiente de texto a voz basada en difusión para convertir texto en voz de manera fácil y completa.

En el aprendizaje automático, un modelo de difusión es un modelo generativo comúnmente utilizado para tareas de gener...

Inteligencia Artificial

Herramienta LLM encuentra y remedia vulnerabilidades de software

La empresa de software Vicarius presentó vuln_GPT, una herramienta de inteligencia artificial generativa que identifi...

Inteligencia Artificial

Esta investigación de IA de China presenta Consistent4D Un nuevo enfoque de inteligencia artificial para generar objetos dinámicos en 4D a partir de videos monocu

El campo de la visión por computadora se enfrenta a una tarea fundamental pero ardua: descifrar datos tridimensionale...

Inteligencia Artificial

Investigadores desarrollaron un novedoso método de IA sin marcadores para rastrear las posturas de las aves en 3D utilizando grabaciones de video.

Rastrear el comportamiento, la mirada y los movimientos detallados de animales y aves ha sido una tarea desafiante pa...