Este boletín de inteligencia artificial es todo lo que necesitas #71

Este boletín de belleza y moda es todo lo que necesitas #71

Lo que pasó esta semana en IA por Louie

Esta semana, el presidente Joe Biden puso de nuevo en primer plano la regulación de la IA al firmar una orden ejecutiva para supervisar la inteligencia artificial. Esta directiva insta a varias agencias gubernamentales a establecer nuevas pautas sobre la seguridad de la IA, la privacidad de los datos y la ciberseguridad. Una parte destacada de la orden es la asignación de fondos para la investigación sobre la preservación de la privacidad. El gobierno está enfatizando claramente la regulación en áreas como la privacidad, la equidad y los derechos civiles. Es importante destacar que sin el respaldo del Congreso, esta orden ejecutiva no tiene fuerza de ley. En los próximos meses, podríamos presenciar iniciativas por parte de la Unión Europea, y ya hemos observado regulaciones estrictas por parte de China.

La noticia provocó debates sobre X (anteriormente Twitter), donde destacados investigadores de IA expresaron sus preocupaciones sobre la regulación de la IA y los posibles efectos perjudiciales para los proyectos de código abierto. Andrew Ng comentó: “Definitivamente hay grandes empresas tecnológicas que preferirían no tener que competir con el código abierto”. Mientras tanto, Yann LeCun, el científico de datos jefe de Meta, expresó: “Si las campañas de miedo tienen éxito, inevitablemente resultarán en… una catástrofe: un pequeño número de empresas controlará la IA”. Es evidente que lograr el equilibrio adecuado entre mitigar los riesgos de la IA y evitar barreras que favorezcan solo a las grandes entidades es un desafío.

– Louie Peters – Cofundador y CEO de Towards AI

Noticias más destacadas

  1. Las startups de IA temen que la orden ejecutiva de IA de Biden pueda sofocar la innovación

El presidente de Estados Unidos, Joe Biden, busca reducir los riesgos de la IA para los consumidores, los trabajadores, los grupos minoritarios y la seguridad nacional con una nueva orden ejecutiva. Si bien algunas startups dieron la bienvenida a la orden, algunos directores ejecutivos expresaron preocupación sobre si podría impedir a las empresas más pequeñas y sofocar la innovación.

2. Jina AI lanza la primera incrustación de texto de código abierto de 8K en el mundo, compitiendo con OpenAI

Jina AI presentó jina-embeddings-v2, un modelo de incrustación de código abierto que admite una longitud de contexto de 8K. Iguala al modelo de 8K de OpenAI en áreas críticas como el promedio de clasificación, el promedio de reordenamiento, el promedio de búsqueda y el promedio de resumen en el leaderboard de MTEB.

3. Google invierte $2 mil millones en Anthropic

Google se ha comprometido a realizar una importante inversión en Anthropic, una competencia de OpenAI, destinando hasta $2 mil millones para la startup de IA. Anthropic es el desarrollador de Claude 2, un chatbot utilizado por empresas como Slack, Notion y Quora.

4. Anthropic, Google, Microsoft y OpenAI anuncian más de $10 millones para un nuevo fondo de seguridad de IA

Anthropic, Google, Microsoft y OpenAI han invertido más de $10 millones para crear un nuevo fondo de seguridad de IA, con el objetivo de impulsar la investigación en el desarrollo responsable y seguro de modelos de IA avanzados. Este movimiento significa un esfuerzo de toda la industria para elevar los estándares de seguridad y abordar proactivamente los desafíos planteados por los sistemas de IA avanzados.

5. ChatGPT reúne todas las herramientas en un solo lugar con una actualización

OpenAI ha comenzado a implementar una nueva versión de ChatGPT que combina todas las capacidades de GPT-4 – Browsing, DALL-E 3 y Data Analysis – sin necesidad de cambiar entre modos. La actualización brinda acceso a todas las funciones de ChatGPT dentro de la interfaz principal, sin tener que alternar entre múltiples modos.

Cinco lecturas/videos de 5 minutos para seguir aprendiendo

  1. Master en LLM: Principales estrategias para evaluar el rendimiento de LLM

Esta guía comparte cómo evaluar y comparar efectivamente los Modelos de Lenguaje Grande (LLMs, por sus siglas en inglés). Aprende más sobre la perplejidad, otras métricas de evaluación y referencias seleccionadas para comparar el rendimiento de LLM. También incluye herramientas prácticas para seleccionar el modelo adecuado para tus necesidades y tareas.

2. Evaluando las Salidas de LLM

Esta publicación en el blog analiza algunas técnicas para evaluar las salidas generadas por un LLM. También comparte información sobre técnicas como la retroalimentación del usuario y los anotadores humanos, así como la replicación de métodos de evaluación humana utilizando LLM.

3. Cómo Funciona un Chatbot LLM: Explorando el Chat con Generación Mejorada por Recuperación (RAG)

Este artículo se centra en la construcción de la parte generativa de un chatbot, mejorando los chatbots de LLM con RAG, un componente vital del punto final de Chat que permite conectar la API a datos externos para una generación aumentada.

4. El Orden Importa: Cómo la IA Lucha con lo Inverso

Este artículo se centra en cómo y por qué la maldición de la inversión afecta a los grandes modelos de lenguaje. A diferencia de los humanos, los LLM pueden tener dificultades para responder preguntas que involucran inversión de información de manera efectiva. Además, se ha descubierto que los LLM tienen problemas en áreas en las que las habilidades humanas son fuertes.

5. Según Aristóteles, ¿podría ChatGPT ser capaz de pensar?

Esta publicación discute la cuestión filosófica de si los grandes modelos de lenguaje como ChatGPT, conocidos como LLM, poseen las habilidades de razonamiento del Silogismo de Aristóteles. Explora la conexión entre la inteligencia artificial y la filosofía, específicamente en el razonamiento lógico.

Artículos y Repositorios

  1. QMoE: Compresión Práctica de Trillones de Modelos de Parámetros a <1 bit/parámetro

QMoE es una solución práctica para comprimir modelos de trillones de parámetros como el SwitchTransformer a <1 bit/parámetro, reduciendo en gran medida la demanda de memoria. Logra una relación de compresión de 20x con una pérdida mínima de precisión y puede ejecutarse eficientemente en hardware asequible.

2. JudgeLM: Grandes Modelos de Lenguaje Ajustados son Jueces Escalables

JudgeLM es un método que mejora la evaluación de los Grandes Modelos de Lenguaje ajustándolos como jueces escalables. Compilando un conjunto de datos y utilizando técnicas de aumento, JudgeLM aborda los sesgos y tiene un buen desempeño en las referencias seleccionadas. Supera el juicio humano y demuestra versatilidad en diferentes formatos.

3. Aprendizaje de Preferencias Contrastivas: Aprendiendo a partir de la Retroalimentación Humana sin RL

El Aprendizaje de Preferencias Contrastivas (CPL) es un nuevo enfoque para el Aprendizaje por Reforzamiento a partir de la Retroalimentación Humana (RLHF) que evita la necesidad de métodos de RL tradicionales. Al centrarse en el arrepentimiento en lugar de la recompensa, CPL simplifica el proceso de aprendizaje y tiene el potencial de aplicarse de manera efectiva en escenarios RLHF de dimensiones superiores.

4. Las ConvNets Se Equiparan a los Transformadores de Visión a Gran Escala

Google DeepMind llevó a cabo un estudio comparando las Redes Neuronales Convolucionales (ConvNets) y los Transformadores de Visión (ViTs) para la clasificación de imágenes a gran escala. En resumen, las ConvNets y los ViTs tienen un desempeño similar cuando se les proporcionan recursos comparables.

5. HallusionBench: ¿Ves lo que piensas? ¿O piensas lo que ves?

HallusionBench es una referencia seleccionada recientemente diseñada para estudiar la alucinación del lenguaje y la ilusión visual en modelos de visión-lenguaje como GPT4-V y LLaVA-1.5. Este referente desafía la capacidad de los modelos de razonar con el contexto de la imagen y destaca posibles debilidades en sus módulos de visión.

¿Disfrutas de estos documentos y resúmenes de noticias? ¡Recibe un resumen diario en tu bandeja de entrada!

¡La sección de la comunidad Aprendamos IA juntos!

¡Meme de la semana!

Meme compartido por rucha8062

Publicación destacada de la comunidad en Discord

NYLee ha lanzado LLMwarre, un marco unificado, abierto y extensible para patrones de aplicaciones basados en LLM, incluido la Generación Mejorada de Recuperación (RAG). Este proyecto proporciona un conjunto completo de herramientas que cualquiera puede usar, desde principiantes hasta los desarrolladores de IA más sofisticados. Incluye análisis de documentos PDF y Office, fragmentación de texto, vectores de incrustación utilizando Milvus, FAISS o Pinecone, y búsqueda híbrida. Échale un vistazo en GitHub y apoya a un miembro destacado de la comunidad. Comparte tus comentarios en el hilo aquí.

¡Encuesta de IA de la semana!

Únete a la discusión en Discord.

Sección seleccionada por TAI

Artículo de la semana

Una Guía Completa para Crear un Asistente de IA para Resumir Videos de YouTube – Parte 1 por Amin Kamali

Este artículo es el primero de una serie de tres publicaciones de blog que explican paso a paso cómo construir un asistente de IA para resumir videos de YouTube. Comienza esta serie con instrucciones detalladas para capturar la transcripción de un video de YouTube utilizando Whisper de OpenAI, seguido de la sumarización de texto utilizando Langchain y la demostración de un prototipo de solución utilizando Gradio y Hugging Face Spaces.

Nuestros artículos imprescindibles

El orden importa: Cómo la IA lucha con la inversa por Salvatore Raieli

Comprende completamente la Regresión ElasticNet con Python por Amit Chauhan

Si estás interesado en publicar con Towards AI, consulta nuestras pautas y regístrate. Publicaremos tu trabajo en nuestra red si cumple con nuestras políticas editoriales y estándares.

Ofertas de trabajo

Ing. en Aprendizaje Automático Jr. @BreederDAO (Remoto)

Ingeniero en Aprendizaje Automático @CloudHire (Remoto)

Ingeniero de Aprendizaje Automático/IA @Imagine.io (Remoto)

Científico de Aprendizaje Automático de IA @PayPal (San Jose, CA, USA)

Equipo de evaluación ética — Computer Vision @Salesforce (remoto)

Prácticas de verano 2024 — Ciencia de datos, Datos y análisis @Salesforce (remoto)

Arquitecto de soluciones, LLM @NVIDIA (remoto)

¿Interesado en compartir una oportunidad laboral aquí? Contacta a .

Si estás preparando tu próxima entrevista de aprendizaje automático, ¡no dudes en visitar nuestro sitio web líder de preparación de entrevistas, confetti!

https://www.confetti.ai/

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Conoce SMPLitex un modelo de IA generativo y un conjunto de datos para la estimación de textura humana en 3D a partir de una única imagen.

En el campo en constante evolución de la visión por computadora y los gráficos, un desafío significativo ha sido la c...

Inteligencia Artificial

Investigadores del MIT combinan el aprendizaje profundo y la física para corregir las imágenes de resonancia magnética afectadas por el movimiento

El desafío implica más que simplemente una imagen JPEG borrosa. Arreglar los artefactos de movimiento en la imagen mé...

Inteligencia Artificial

Más allá de Photoshop Cómo Inst-Inpaint está revolucionando la eliminación de objetos con modelos de difusión

El inpainting de imágenes es un arte antiguo. Es el proceso de eliminar objetos no deseados y rellenar píxeles faltan...

Inteligencia Artificial

Toma el control NVIDIA NeMo SteerLM permite a las empresas personalizar las respuestas de un modelo durante la inferencia

Los desarrolladores tienen un nuevo volante de conducción asistida por IA para ayudarles a mantenerse en la carretera...

Inteligencia Artificial

Investigadores de Google DeepMind y YouTube anuncian Lyria un modelo avanzado de generación de música AI

En un anuncio reciente, DeepMind de Google, en colaboración con YouTube, presentó Lyria, un modelo de generación de m...