Este artículo de Alibaba Group presenta FederatedScope-LLM un paquete integral para el ajuste fino de LLMs en el aprendizaje federado
Alibaba Group presenta FederatedScope-LLM, un paquete integral para ajuste fino de LLMs en el aprendizaje federado.
Hoy en día, plataformas como Hugging Face han facilitado el acceso y la utilización de Modelos de Lenguaje de Gran Tamaño (LLMs, por sus siglas en inglés) pre-entrenados a una amplia gama de usuarios, desde investigadores de IA hasta aquellos con experiencia limitada en aprendizaje automático, para diferentes entidades. Cuando múltiples organizaciones o entidades comparten tareas de interés similares pero no pueden intercambiar directamente sus datos locales debido a regulaciones de privacidad, el aprendizaje federado (FL) se presenta como una solución prominente para aprovechar los datos colectivos de estas entidades. El FL también proporciona una sólida protección de privacidad, mantiene seguras sus ideas de modelo y les permite crear modelos personalizados utilizando diferentes métodos.
En este trabajo, los investigadores han establecido un completo flujo de trabajo de referencia de extremo a extremo, optimizando los procesos de preprocesamiento de conjuntos de datos, ejecución o simulación de ajuste fino federado y evaluación del rendimiento en el contexto del ajuste fino federado de Modelos de Lenguaje de Gran Tamaño (LLM), diseñado para diversos propósitos de demostración de capacidad.
La imagen anterior muestra la arquitectura de FS-LLM, que consta de tres módulos principales: LLMBENCHMARKS, LLM-ALGZOO y LLM-TRAINER. El equipo ha desarrollado implementaciones sólidas de algoritmos de ajuste fino federado eficientes en términos de parámetros (PEFT) e interfaces de programación versátiles para facilitar futuras extensiones, permitiendo que los LLMs operen de manera efectiva en escenarios de Aprendizaje Federado (FL) con una comunicación y una carga computacional mínimas, incluso al tratar con LLMs de código cerrado.
- Una técnica de mapeo de posturas podría evaluar de forma remota a pacientes con parálisis cerebral
- Desplegando modelos de PyTorch con el servidor de inferencia Nvidia Triton
- Cómo construir gráficos de cascada con Plotly Graph Objects
En su página web se proporciona un tutorial detallado: federatedscope.io
Puedes probar FederatedScope a través de FederatedScope Playground o Google Colab.
Su enfoque también incorpora técnicas de aceleración y estrategias eficientes en recursos para ajustar finamente los LLMs bajo restricciones de recursos, junto con subrutinas de enchufabilidad flexibles para investigaciones interdisciplinarias, como la aplicación de LLMs en entornos de Aprendizaje Federado personalizados.
La investigación incluye una serie de experimentos extensos y reproducibles que validan la efectividad de FS-LLM y establecen puntos de referencia para LLMs avanzados, utilizando algoritmos de ajuste fino eficientes en términos de parámetros de última generación en un contexto federado. Basándonos en los hallazgos de estos resultados experimentales, delineamos algunas direcciones prometedoras para futuras investigaciones en el ajuste fino federado de LLMs para avanzar en la comunidad de FL y LLM.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- ¡Pide tus documentos con Langchain y Deep Lake!
- Inteligencia Artificial y la Estética de la Generación de Imágenes
- Hoja de referencia de Scikit-learn para Aprendizaje Automático
- Conoce FLM-101B Un decodificador de solo lectura de LLM de código abierto con 101 mil millones de parámetros
- En la cumbre en Washington DC, los líderes tecnológicos respaldan la regulación de la IA
- ¿Cómo convertirse en un ingeniero de procesamiento del lenguaje natural (NLP)? Hoja de ruta profesional 2023
- Noticias de VoAGI, 13 de septiembre Primeros pasos con SQL en 5 pasos • Introducción a las bases de datos en Ciencia de Datos