Este boletín de inteligencia artificial es todo lo que necesitas #71
Este boletín de belleza y moda es todo lo que necesitas #71
Lo que pasó esta semana en IA por Louie
Esta semana, el presidente Joe Biden puso de nuevo en primer plano la regulación de la IA al firmar una orden ejecutiva para supervisar la inteligencia artificial. Esta directiva insta a varias agencias gubernamentales a establecer nuevas pautas sobre la seguridad de la IA, la privacidad de los datos y la ciberseguridad. Una parte destacada de la orden es la asignación de fondos para la investigación sobre la preservación de la privacidad. El gobierno está enfatizando claramente la regulación en áreas como la privacidad, la equidad y los derechos civiles. Es importante destacar que sin el respaldo del Congreso, esta orden ejecutiva no tiene fuerza de ley. En los próximos meses, podríamos presenciar iniciativas por parte de la Unión Europea, y ya hemos observado regulaciones estrictas por parte de China.
La noticia provocó debates sobre X (anteriormente Twitter), donde destacados investigadores de IA expresaron sus preocupaciones sobre la regulación de la IA y los posibles efectos perjudiciales para los proyectos de código abierto. Andrew Ng comentó: “Definitivamente hay grandes empresas tecnológicas que preferirían no tener que competir con el código abierto”. Mientras tanto, Yann LeCun, el científico de datos jefe de Meta, expresó: “Si las campañas de miedo tienen éxito, inevitablemente resultarán en… una catástrofe: un pequeño número de empresas controlará la IA”. Es evidente que lograr el equilibrio adecuado entre mitigar los riesgos de la IA y evitar barreras que favorezcan solo a las grandes entidades es un desafío.
– Louie Peters – Cofundador y CEO de Towards AI
Noticias más destacadas
El presidente de Estados Unidos, Joe Biden, busca reducir los riesgos de la IA para los consumidores, los trabajadores, los grupos minoritarios y la seguridad nacional con una nueva orden ejecutiva. Si bien algunas startups dieron la bienvenida a la orden, algunos directores ejecutivos expresaron preocupación sobre si podría impedir a las empresas más pequeñas y sofocar la innovación.
- IA vs analistas de datos 6 principales limitaciones que impactan el futuro del análisis
- La urgente necesidad de habilidades de GenAI en la gestión de proyectos
- Investigadores de Meta y UNC-Chapel Hill introducen Branch-Solve-Merge un programa revolucionario que mejora el rendimiento de modelos de lenguaje grandes en tareas complejas de lenguaje.
Jina AI presentó jina-embeddings-v2, un modelo de incrustación de código abierto que admite una longitud de contexto de 8K. Iguala al modelo de 8K de OpenAI en áreas críticas como el promedio de clasificación, el promedio de reordenamiento, el promedio de búsqueda y el promedio de resumen en el leaderboard de MTEB.
3. Google invierte $2 mil millones en Anthropic
Google se ha comprometido a realizar una importante inversión en Anthropic, una competencia de OpenAI, destinando hasta $2 mil millones para la startup de IA. Anthropic es el desarrollador de Claude 2, un chatbot utilizado por empresas como Slack, Notion y Quora.
Anthropic, Google, Microsoft y OpenAI han invertido más de $10 millones para crear un nuevo fondo de seguridad de IA, con el objetivo de impulsar la investigación en el desarrollo responsable y seguro de modelos de IA avanzados. Este movimiento significa un esfuerzo de toda la industria para elevar los estándares de seguridad y abordar proactivamente los desafíos planteados por los sistemas de IA avanzados.
5. ChatGPT reúne todas las herramientas en un solo lugar con una actualización
OpenAI ha comenzado a implementar una nueva versión de ChatGPT que combina todas las capacidades de GPT-4 – Browsing, DALL-E 3 y Data Analysis – sin necesidad de cambiar entre modos. La actualización brinda acceso a todas las funciones de ChatGPT dentro de la interfaz principal, sin tener que alternar entre múltiples modos.
Cinco lecturas/videos de 5 minutos para seguir aprendiendo
Esta guía comparte cómo evaluar y comparar efectivamente los Modelos de Lenguaje Grande (LLMs, por sus siglas en inglés). Aprende más sobre la perplejidad, otras métricas de evaluación y referencias seleccionadas para comparar el rendimiento de LLM. También incluye herramientas prácticas para seleccionar el modelo adecuado para tus necesidades y tareas.
2. Evaluando las Salidas de LLM
Esta publicación en el blog analiza algunas técnicas para evaluar las salidas generadas por un LLM. También comparte información sobre técnicas como la retroalimentación del usuario y los anotadores humanos, así como la replicación de métodos de evaluación humana utilizando LLM.
3. Cómo Funciona un Chatbot LLM: Explorando el Chat con Generación Mejorada por Recuperación (RAG)
Este artículo se centra en la construcción de la parte generativa de un chatbot, mejorando los chatbots de LLM con RAG, un componente vital del punto final de Chat que permite conectar la API a datos externos para una generación aumentada.
4. El Orden Importa: Cómo la IA Lucha con lo Inverso
Este artículo se centra en cómo y por qué la maldición de la inversión afecta a los grandes modelos de lenguaje. A diferencia de los humanos, los LLM pueden tener dificultades para responder preguntas que involucran inversión de información de manera efectiva. Además, se ha descubierto que los LLM tienen problemas en áreas en las que las habilidades humanas son fuertes.
5. Según Aristóteles, ¿podría ChatGPT ser capaz de pensar?
Esta publicación discute la cuestión filosófica de si los grandes modelos de lenguaje como ChatGPT, conocidos como LLM, poseen las habilidades de razonamiento del Silogismo de Aristóteles. Explora la conexión entre la inteligencia artificial y la filosofía, específicamente en el razonamiento lógico.
Artículos y Repositorios
QMoE es una solución práctica para comprimir modelos de trillones de parámetros como el SwitchTransformer a <1 bit/parámetro, reduciendo en gran medida la demanda de memoria. Logra una relación de compresión de 20x con una pérdida mínima de precisión y puede ejecutarse eficientemente en hardware asequible.
2. JudgeLM: Grandes Modelos de Lenguaje Ajustados son Jueces Escalables
JudgeLM es un método que mejora la evaluación de los Grandes Modelos de Lenguaje ajustándolos como jueces escalables. Compilando un conjunto de datos y utilizando técnicas de aumento, JudgeLM aborda los sesgos y tiene un buen desempeño en las referencias seleccionadas. Supera el juicio humano y demuestra versatilidad en diferentes formatos.
El Aprendizaje de Preferencias Contrastivas (CPL) es un nuevo enfoque para el Aprendizaje por Reforzamiento a partir de la Retroalimentación Humana (RLHF) que evita la necesidad de métodos de RL tradicionales. Al centrarse en el arrepentimiento en lugar de la recompensa, CPL simplifica el proceso de aprendizaje y tiene el potencial de aplicarse de manera efectiva en escenarios RLHF de dimensiones superiores.
4. Las ConvNets Se Equiparan a los Transformadores de Visión a Gran Escala
Google DeepMind llevó a cabo un estudio comparando las Redes Neuronales Convolucionales (ConvNets) y los Transformadores de Visión (ViTs) para la clasificación de imágenes a gran escala. En resumen, las ConvNets y los ViTs tienen un desempeño similar cuando se les proporcionan recursos comparables.
5. HallusionBench: ¿Ves lo que piensas? ¿O piensas lo que ves?
HallusionBench es una referencia seleccionada recientemente diseñada para estudiar la alucinación del lenguaje y la ilusión visual en modelos de visión-lenguaje como GPT4-V y LLaVA-1.5. Este referente desafía la capacidad de los modelos de razonar con el contexto de la imagen y destaca posibles debilidades en sus módulos de visión.
¿Disfrutas de estos documentos y resúmenes de noticias? ¡Recibe un resumen diario en tu bandeja de entrada!
¡La sección de la comunidad Aprendamos IA juntos!
¡Meme de la semana!
Meme compartido por rucha8062
Publicación destacada de la comunidad en Discord
NYLee ha lanzado LLMwarre, un marco unificado, abierto y extensible para patrones de aplicaciones basados en LLM, incluido la Generación Mejorada de Recuperación (RAG). Este proyecto proporciona un conjunto completo de herramientas que cualquiera puede usar, desde principiantes hasta los desarrolladores de IA más sofisticados. Incluye análisis de documentos PDF y Office, fragmentación de texto, vectores de incrustación utilizando Milvus, FAISS o Pinecone, y búsqueda híbrida. Échale un vistazo en GitHub y apoya a un miembro destacado de la comunidad. Comparte tus comentarios en el hilo aquí.
¡Encuesta de IA de la semana!
Únete a la discusión en Discord.
Sección seleccionada por TAI
Artículo de la semana
Una Guía Completa para Crear un Asistente de IA para Resumir Videos de YouTube – Parte 1 por Amin Kamali
Este artículo es el primero de una serie de tres publicaciones de blog que explican paso a paso cómo construir un asistente de IA para resumir videos de YouTube. Comienza esta serie con instrucciones detalladas para capturar la transcripción de un video de YouTube utilizando Whisper de OpenAI, seguido de la sumarización de texto utilizando Langchain y la demostración de un prototipo de solución utilizando Gradio y Hugging Face Spaces.
Nuestros artículos imprescindibles
El orden importa: Cómo la IA lucha con la inversa por Salvatore Raieli
Comprende completamente la Regresión ElasticNet con Python por Amit Chauhan
Si estás interesado en publicar con Towards AI, consulta nuestras pautas y regístrate. Publicaremos tu trabajo en nuestra red si cumple con nuestras políticas editoriales y estándares.
Ofertas de trabajo
Ing. en Aprendizaje Automático Jr. @BreederDAO (Remoto)
Ingeniero en Aprendizaje Automático @CloudHire (Remoto)
Ingeniero de Aprendizaje Automático/IA @Imagine.io (Remoto)
Científico de Aprendizaje Automático de IA @PayPal (San Jose, CA, USA)
Equipo de evaluación ética — Computer Vision @Salesforce (remoto)
Prácticas de verano 2024 — Ciencia de datos, Datos y análisis @Salesforce (remoto)
Arquitecto de soluciones, LLM @NVIDIA (remoto)
¿Interesado en compartir una oportunidad laboral aquí? Contacta a [email protected].
Si estás preparando tu próxima entrevista de aprendizaje automático, ¡no dudes en visitar nuestro sitio web líder de preparación de entrevistas, confetti!
![https://www.confetti.ai/](https://ai.miximages.com/miro.medium.com/v2/resize:fit:640/format:webp/1*rhdWMTsJYZ9rCx2jVVVCCg.png)
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- ZenML para Vehículos Eléctricos De los datos a las predicciones de eficiencia
- ¿Vale la pena la inteligencia artificial generativa considerando su huella ambiental?
- ChatGPT Plus Desata Emocionantes Nuevas Funciones para Entusiastas de los Datos
- Investigadores de Stanford y UT Austin proponen Aprendizaje de Preferencia Contrastiva (APC) un método sencillo de Aprendizaje por Reforzamiento (RL) que no necesita RL y funciona con MDPs arbitrarios y datos fuera de política.
- Impresión bajo demanda envío directo monetiza tu pasión por el arte
- ¿Qué tan efectivas son las autoexplicaciones de modelos de lenguaje grandes como ChatGPT en el análisis de sentimientos? Un análisis exhaustivo de rendimiento, costo e interpretabilidad.
- Desbloqueando la Composicionalidad Sistemática en Redes Neuronales Un Avance con el Enfoque de Meta-Aprendizaje para la Composicionalidad (MLC)