Learn more about Tech News - Section 4
Investigadores de Stanford introducen Protpardelle un modelo de difusión de todos los átomos revolucionario para el co-diseño de la estructura y secuencia de proteínas
En un avance notable para el diseño de proteínas, un equipo de investigadores ha presentado Protpardelle, un modelo d...
¿Cómo deberíamos ver los datos clínicos sesgados en el aprendizaje automático médico? Un llamado a una perspectiva arqueológica
Investigadores del MIT, la Universidad Johns Hopkins y el Instituto Alan Turing argumentan que lidiar con datos médic...
Investigadores de Stanford presentan Spellburst un entorno de codificación creativa impulsado por un modelo de lenguaje grande (LLM).
Mientras crean impresionantes obras de arte digitales, los artistas generativos a menudo se enfrentan a las complejid...
Conoce a BLIVA un modelo de lenguaje multimodal grande para manejar mejor preguntas visuales ricas en texto
Recientemente, los Modelos de Lenguaje Grande (LLMs) han desempeñado un papel crucial en el campo de la comprensión d...
¿Cómo elimina el nuevo paradigma de Google AI el costo de composición en algoritmos de aprendizaje automático de múltiples pasos para una mayor utilidad?
En el panorama actual impulsado por datos, garantizar la privacidad al tiempo que se maximiza la utilidad de los algo...
Una nueva investigación de IA de Tel Aviv y la Universidad de Copenhague introduce un enfoque de conectar y usar para ajustar rápidamente modelos de difusión de texto a imagen utilizando una señal discriminativa.
Los modelos de difusión de texto a imagen han demostrado un impresionante éxito en la generación de imágenes diversas...
Investigadores de Google AI presentan MADLAD-400 un conjunto de datos de dominio web con tokens de 2.8T que abarca 419 idiomas.
En el campo en constante evolución del Procesamiento del Lenguaje Natural (NLP, por sus siglas en inglés), el desarro...
Este artículo de Alibaba Group presenta FederatedScope-LLM un paquete integral para el ajuste fino de LLMs en el aprendizaje federado
Hoy en día, plataformas como Hugging Face han facilitado el acceso y la utilización de Modelos de Lenguaje de Gran Ta...
Conoce FLM-101B Un decodificador de solo lectura de LLM de código abierto con 101 mil millones de parámetros
Últimamente, los modelos de lenguaje grandes (LLMs) están destacando en tareas de NLP y multimodalidad, pero se enfre...
Stability AI lanza el primer modelo japonés de visión y lenguaje
La creación y formulación de un modelo único y completo capaz de manejar una variedad de tareas definidas por el usua...
Conoce a PyGraft una herramienta de IA basada en Python de código abierto que genera esquemas y grafos de conocimiento altamente personalizados y agnósticos al dominio.
Un método cada vez más popular para representar datos en una estructura de grafo es el uso de grafos de conocimiento ...
¿Pueden los modelos de lenguaje grandes realmente hacer matemáticas? Esta investigación de inteligencia artificial AI presenta MathGLM un modelo robusto para resolver problemas matemáticos sin una calculadora.
Cuando se trata de tareas de procesamiento del lenguaje natural (NLP) posteriores, los grandes modelos de lenguaje (L...
¿Pueden los robots cuadrúpedos de bajo costo dominar el parkour? Revelando un revolucionario sistema de aprendizaje para el movimiento ágil de robots
La búsqueda de hacer que los robots realicen tareas físicas complejas, como navegar por entornos desafiantes, ha sido...
¿Ha terminado la espera por Jurassic Park? Este modelo de IA utiliza la traducción de imagen a imagen para dar vida a los antiguos fósiles
La traducción de imagen a imagen (I2I) es un campo interesante dentro de la visión por computadora y el aprendizaje a...
Mejorando la Sumarización de GPT-4 a través de una Cadena de Indicaciones de Densidad
Los Modelos de Lenguaje Grandes han ganado mucha atención en los últimos tiempos debido a sus excelentes capacidades....
¿Cómo podemos mitigar el sesgo inducido por el fondo en la clasificación de imágenes de granularidad fina? Un estudio comparativo de estrategias de enmascaramiento y arquitecturas de modelos
La categorización de imágenes de granularidad fina se adentra en distinguir subclases estrechamente relacionadas dent...
Investigadores de Google proponen MEMORY-VQ un nuevo enfoque de IA para reducir los requisitos de almacenamiento de los modelos de memoria aumentada sin sacrificar el rendimiento
Investigaciones recientes en modelos de lenguaje han enfatizado la importancia de la mejora de la recuperación para m...
Conoce T2I-Adapter-SDXL Modelos de Control Pequeños y Eficientes.
Los T2I-Adapters son herramientas plug-and-play que mejoran los modelos de texto a imagen sin requerir un nuevo entre...
LLMs y Análisis de Datos Cómo la IA está dando sentido a los grandes datos para obtener información empresarial
Los Modelos de Lenguaje Grandes (LLMs, por sus siglas en inglés) tienen la capacidad de analizar extensos conjuntos d...
Conoce a PhysObjects Un conjunto de datos centrado en objetos con 36.9K anotaciones físicas obtenidas de la colaboración de la multitud y 417K anotaciones físicas automáticas de objetos comunes del hogar.
En el mundo real, la información se transmite a menudo a través de una combinación de imágenes, texto o videos. Para ...
Investigadores de Sony proponen BigVSAN Revolucionando la calidad de audio con el uso de Slicing Adversarial Networks en vocoders basados en GAN.
El desarrollo de redes neuronales y su creciente popularidad han llevado a mejoras sustanciales en las tecnologías de...
Conoce ResFields Un enfoque novedoso de IA para superar las limitaciones de los campos neurales espaciotemporales en la modelización efectiva de señales temporales largas y complejas.
La arquitectura de red neuronal más popular para representar campos neuronales continuos espacio-temporales, también ...
Descubriendo los secretos del rendimiento catalítico con Deep Learning Un estudio en profundidad de la Red Neuronal Convolucional ‘Global + Local’ para la detección de alta precisión de catalizadores heterogéneos
La forma en que se modela la superficie de un catalizador es importante para ciertas reacciones químicas debido a var...
Una nueva investigación de AI de Apple y Equall AI revela redundancias en la arquitectura de Transformer Cómo optimizar la red de avance de alimentación mejora la eficiencia y la precisión
El diseño del Transformer que se ha vuelto popular recientemente ha tomado el control como el método estándar para la...
Conoce a Falcon 180B El modelo de lenguaje más grande disponible públicamente con 180 mil millones de parámetros
La demanda de modelos de lenguaje potentes y versátiles se ha vuelto más apremiante en el procesamiento del lenguaje ...
- You may be interested
- Tesla retira 2 millones de autos con co...
- Guía introductoria completa sobre el re...
- AudioLDM 2, pero más rápido ⚡️
- Álgebra Lineal 1 Ecuaciones Lineales y ...
- Segmentación de Imágenes Eficiente util...
- Mejores Herramientas de IA para Startup...
- Investigadores de IBM proponen un nuevo...
- Comienza a usar Liquid Clustering en lu...
- ¡Diseña sistemas de aprendizaje automát...
- Investigadores de UCSC y TU Munich prop...
- El Desvanecimiento Controlado
- Desmitificando el Aprendizaje Automátic...
- Zephyr-7B LLM Hiper-optimizado de Huggi...
- Robot Blando Camina al Inflarse Repetid...
- ¿Puede la generación sintética de texto...
Find your business way
Globalization of Business, We can all achieve our own Success.