Kinara presenta el procesador Ara-2 revolucionando el procesamiento de IA en dispositivos para un rendimiento mejorado
Kinara innova con el procesador Ara-2, llevando el procesamiento de IA en dispositivos a otro nivel de rendimiento
Kinara, una entidad pionera en inteligencia artificial energéticamente eficiente en el dispositivo, ha presentado su revolucionador procesador Ara-2, destacando su capacidad para potenciar modelos de lenguaje grandes (LLMs) y diversos modelos generativos de IA en el dispositivo con una mejora en el rendimiento ocho veces mayor en comparación con su predecesor.
Frut de la búsqueda incansable de la innovación por parte de Kinara, el procesador Ara-2 marca un avance significativo en su gama de procesadores, proporcionando a los clientes un espectro de opciones de rendimiento y coste adaptadas a sus necesidades específicas. El equipo destacó la importancia de esta nueva adición al delinear sus funcionalidades distintivas. Detallaron las funciones de los procesadores Ara-1 y Ara-2, resaltando la eficiencia de Ara-1 en el manejo de cámaras inteligentes y dispositivos de IA en el dispositivo que manejan de 2 a 8 transmisiones de vídeo. En contraste, Ara-2 demostró su competencia en el manejo de una carga de trabajo significativamente mayor, manejando de manera experta de 16 a 32+ transmisiones de vídeo dirigidas a servidores en el dispositivo, portátiles y cámaras de alta gama.
El equipo profundizó en el potencial transformador de Ara-2, haciendo hincapié en su papel fundamental en la mejora de la detección, reconocimiento y seguimiento de objetos. Aprovechando motores de computación avanzados, este procesador sobresale al procesar imágenes de alta resolución de manera rápida y con una precisión notablemente mejorada. Además, su destreza en el procesamiento de modelos generativos de IA se ejemplifica al lograr una velocidad notable de 10 segundos por imagen para Stable Diffusion y generar decenas de tokens por segundo para LLaMA-7B.
- ¡Vamos a explorar el aprendizaje por transferencia…
- Este artículo de IA explora el plan del cerebro a través del aprendizaje profundo Avanzando las redes neuronales con los conocimientos de la neurociencia y los tutoriales de la biblioteca Python snnTorch.
- Procesamiento del Lenguaje Natural Desbloqueando el Poder de la Comunicación Humana a través de la IA
Diseñado como sucesor de Ara-1, el chip Ara-2 es una impresionante actualización, prometiendo un aumento exponencial en el rendimiento, reportadamente cinco a ocho veces más poderoso que su predecesor. Kinara afirma que el chip Ara-2 tiene el potencial de reemplazar procesadores gráficos de mayor costo e intensivos en energía en diversos modelos, especialmente satisfaciendo las necesidades de los modelos de lenguaje grandes (LLMs).
Se espera que se desvele en la Consumer Electronics Show (CES) en enero de 2024, Kinara ha confirmado varias iteraciones del procesador Ara-2. Estará disponible como chip independiente, módulos USB y M.2 de un solo chip, y una tarjeta de expansión PCI Express que integra cuatro chips Ara-2 operando en paralelo. A pesar de anticipar su lanzamiento, Kinara se ha abstenido de revelar detalles de precios, dejando a entusiastas y consumidores ansiosos por explorar esta maravilla tecnológica.
En conclusión, el procesador Ara-2 de Kinara marca el comienzo de una nueva era en el procesamiento de IA en el dispositivo, presentando una combinación convincente de rendimiento de vanguardia, versatilidad y eficiencia. Su inminente presentación en CES despierta intriga en diversas industrias, insinuando una herramienta transformadora lista para redefinir el panorama de la tecnología de IA en el dispositivo.
El artículo Kinara Unveils Ara-2 Processor: Revolutionizing On-Device AI Processing for Enhanced Performance apareció primero en MarkTechPost.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Google AI presenta MedLM una familia de modelos base afinados para casos de uso en la industria de la salud
- Estrategia de co-optimización SW/HW para Modelos de Lenguaje Grandes (LLMs)
- Guía para Transformar de Manera Segura las Interacciones con los Complementos de ChatGPT
- Cómo usar Langchain? Guía paso a paso
- Liberando el poder de la IA en la gestión de API de Fintech Una guía completa para los gerentes de producto
- Investigadores de Stanford presentan PLATO Un nuevo enfoque de IA para abordar el ajuste excesivo en el aprendizaje automático de alta dimensión y baja muestra con regularización mejorada mediante gráficos de conocimiento.
- Informe Estado de DevOps 2023 Hallazgos Clave e Ideas