Este chip centrado en la Inteligencia Artificial redefine la eficiencia duplicando el ahorro de energía al unificar el procesamiento y la memoria.
Este chip de Inteligencia Artificial redefine la eficiencia al duplicar el ahorro de energía al integrar el procesamiento y la memoria.
En un mundo donde la demanda de inteligencia local basada en datos está en aumento, el desafío de permitir que los dispositivos analicen los datos de forma autónoma en el borde se vuelve cada vez más crítico. Esta transición hacia dispositivos de inteligencia artificial en el borde, que incluyen dispositivos vestibles, sensores, smartphones y automóviles, significa la próxima fase de crecimiento en la industria de semiconductores. Estos dispositivos admiten aprendizaje en tiempo real, autonomía e inteligencia incorporada.
Sin embargo, estos dispositivos de inteligencia artificial en el borde se encuentran con un obstáculo significativo conocido como el cuello de botella de von Neumann, donde las tareas computacionales limitadas por la memoria, especialmente las relacionadas con el aprendizaje profundo e inteligencia artificial, generan una necesidad abrumadora de acceso a datos, sobrepasando las capacidades de cálculo local dentro de las unidades lógicas algorítmicas tradicionales.
El camino hacia la solución de este dilema computacional ha llevado a innovaciones arquitectónicas, incluida la computación en memoria (IMC, por sus siglas en inglés). La IMC, al realizar operaciones de multiplicación y acumulación (MAC) directamente dentro de la matriz de memoria, ofrece el potencial de revolucionar los sistemas de inteligencia artificial. Las implementaciones existentes de IMC a menudo implican operaciones lógicas binarias, lo que limita su eficacia en cálculos más complejos.
- Revolucionando las habilidades de escucha de la IA La Universidad de Tsinghua y ByteDance revelan SALMONN, una revolucionaria red neuronal multimodal para el procesamiento avanzado de audio
- Cómo creo personajes consistentes con DALL-E 3 en ChatGPT.
- Mejorando la seguridad en los juegos con la integración de IA y Blockchain
Ingresa a escena el nuevo macro de interconexión en memoria (IMC) que presenta una celda de transistor de efecto campo ferroeléctrico (FeFET) de múltiples niveles para operaciones de MAC de varios bits. Esta innovación trasciende los límites de las operaciones binarias tradicionales, utilizando las características eléctricas de los datos almacenados en las celdas de memoria para derivar los resultados de las operaciones MAC codificados en el tiempo de activación y la corriente acumulada.
Las métricas de rendimiento logradas son impresionantes. Con una precisión del 96,6% en reconocimiento de escritura a mano y del 91,5% en clasificación de imágenes, todo sin entrenamiento adicional, esta solución está destinada a transformar el panorama de la IA. Su eficiencia energética, calificada en 885.4 TOPS/W, casi duplica la de los diseños existentes, subrayando aún más su potencial para impulsar la industria hacia adelante.
En conclusión, este estudio innovador representa un gran avance en la IA y la computación en memoria. Al abordar el cuello de botella de von Neumann e introducir un enfoque novedoso para operaciones MAC de varios bits, esta solución no solo ofrece una perspectiva fresca sobre el hardware de IA, sino que también promete desbloquear nuevos horizontes para la inteligencia local en el borde, dando forma al futuro de la computación.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Asistentes de correo electrónico AI más valorados (noviembre de 2023)
- Conoce a Watsonx Code Assistant de IBM Revolucionando la codificación empresarial con asistencia impulsada por IA
- Descubre Davidsonian Scene Graph un marco de IA revolucionario para evaluar la IA de texto a imagen con precisión
- Aceptando la IA en el periodismo El carrusel de noticias
- El modelo de IA RealLife de Google se siente como magia
- Investigadores de Apple proponen la política de aprendizaje por refuerzo del modelo de lenguaje grande (LLaRP, por sus siglas en inglés) Enfoque de IA mediante el cual los LLM pueden adaptarse para actuar como políticas generalizables para tareas visuales
- Presentando las Regiones de Almacenamiento en el HF Hub