Conoce a Skywork-13B una familia de grandes modelos de lenguaje (LLMs) entrenados en un corpus de más de 3.2 billones de tokens extraídos tanto de textos en inglés como en chino.

Descubre a Skywork-13B una familia de poderosos modelos de lenguaje (LLMs) entrenados en un extenso corpus de más de 3.2 billones de tokens extraídos de textos tanto en inglés como en chino.

Los LLM bilingües están cobrando cada vez más importancia en nuestro mundo interconectado, donde la diversidad lingüística es un desafío común. Tienen el potencial de derribar barreras lingüísticas, promover la comprensión intercultural y mejorar el acceso a la información y servicios para personas que hablan diferentes idiomas. Los LLM bilingües se pueden utilizar para proporcionar servicios de traducción automática de alta calidad. Pueden traducir texto de un idioma a otro, ayudando a romper barreras lingüísticas y facilitar la comunicación entre diferentes culturas y regiones.

Con el crecimiento de la necesidad de estos modelos, hay un aumento en la tendencia de comercialización y la necesidad de más transparencia. Muchas organizaciones solo hacen públicos los puntos de control del modelo y omiten la información vital de un modelo. Para recuperar la transparencia en la IA, los investigadores de Kunlun Technology construyeron una familia de grandes modelos de lenguaje entrenados con más de 3,2 billones de tokens extraídos de textos en inglés y chinos, con una divulgación integral. Se llama Skywork – 13B.

La familia Skywork-13B incluye Skywork-13B-Base y Skywork-13BChat. El base es un modelo de base sólido con una capacidad de modelado del lenguaje chino de vanguardia, y el chat es una versión optimizada para conversaciones. A diferencia de otras organizaciones, ellos divulgan información detallada sobre el proceso de entrenamiento y la composición de los datos.

También han publicado puntos de control intermedios, que proporcionan un recurso valioso para comprender cómo se desarrollan las capacidades del modelo durante el entrenamiento. Creen que esta divulgación permite a otros investigadores aprovechar los puntos de control para sus casos de uso. También han desarrollado un método novedoso que detecta el nivel de uso de datos en dominio durante la etapa de entrenamiento.

El equipo entrenó el modelo base Skywork-13B en SkyPile. En lugar de entrenarlo en SkyPile en su totalidad, siguieron un enfoque de entrenamiento en dos etapas. En la primera etapa, constituyeron la fase de entrenamiento previo principal, que implica entrenar el modelo desde cero en SkyPile-Main. En la segunda etapa, se optimizó con conocimientos relacionados con STEM (ciencia, tecnología, ingeniería y matemáticas) y habilidades de resolución de problemas mediante el entrenamiento continuo en SkyPile-STEM.

Durante el entrenamiento del modelo, el equipo examinó la pérdida de modelado de lenguaje en numerosos conjuntos de validación reservados, cada uno reflejando una distribución de datos distinta, creando conjuntos de validación separados para código, publicaciones académicas, publicaciones en redes sociales y textos web en chino e inglés. Afirman que seguir este enfoque conduce a una construcción fácil, simplicidad en la computación, alta sensibilidad al progreso del entrenamiento y agnosticismo del modelo.

El modelo Skywork-13B muestra el mejor rendimiento en general. Obtuvo la puntuación de perplejidad promedio más baja, 9,42. También exhibe el mejor rendimiento en cada dominio individual, logrando las puntuaciones de perplejidad más bajas en los dominios de tecnología, cine, gobierno y finanzas. Sobresale no solo al superar el rendimiento de modelos de un tamaño similar, sino también al superar significativamente a modelos mucho más grandes como InternLM-20B y Aquila2-34B.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Aprendizaje Automático

Rompiendo barreras en el diseño de proteínas con un nuevo modelo de IA que comprende interacciones con cualquier tipo de molécula.

Después de la revolución iniciada por AlphaFold de Deepmind en biología estructural, el campo estrechamente relaciona...

Inteligencia Artificial

Esta herramienta podría proteger tus imágenes de la manipulación de IA

PhotoGuard, creado por investigadores del MIT, altera las fotos de formas imperceptibles para nosotros pero evita que...

Inteligencia Artificial

Shutterstock lleva la IA generativa a los fondos de escenas en 3D con NVIDIA Picasso

Imagínate esto: los creadores pueden crear y personalizar rápidamente fondos de escenas en 3D con la ayuda de la IA g...

Inteligencia Artificial

¿Desvelando el poder de Meta's Llama 2 ¿Un salto adelante en la IA generativa?

Este artículo explora los detalles técnicos e implicaciones del recientemente lanzado Llama 2 de Meta, un modelo de l...

Inteligencia Artificial

Esta investigación de IA presenta PERF la transformación Panorámica NeRF que convierte imágenes individuales en escenas 3D explorables.

NeRF significa Neural Radiance Fields, una técnica de aprendizaje profundo para la reconstrucción de escenas en 3D y ...