Reformando la memoria del modelo sin necesidad de volver a entrenarlo
Reformulando la memoria del modelo sin necesidad de reentrenamiento
| IA | GRANDES MODELOS DE LENGUAJE | DESAPRENDIZAJE DE MÁQUINAS |
Borrando cualquier eco de contenido problemático que un gran modelo de lenguaje haya aprendido
“Perdonar es sabiduría, olvidar es genio”. – Joyce Cary
Los grandes modelos de lenguaje (LLM, por sus siglas en inglés) se han convertido en un fenómeno mundial. En menos de un año, son omnipresentes y ahora son utilizados por millones de usuarios. Estos modelos a menudo se entrenan con grandes cantidades de texto (incluido material problemático y datos sensibles). ¿Cómo haces que un modelo olvide? ¿Lo mismo que podría almacenar la totalidad del conocimiento humano?
Aprender cómo olvidar
Los LLM son un testimonio tanto de nuestros logros como de los desafíos que tenemos por delante – fuente
Los grandes modelos de lenguaje han sorprendido tanto a los usuarios como a los investigadores con su capacidad para aprender de grandes cantidades de texto e identificar patrones de lenguaje y matices culturales. Si bien podrían ser la base de una nueva aplicación y una revolución científica, también tienen un lado oscuro.
- QLoRA Entrenando un Modelo de Lenguaje Grande en una GPU de 16GB.
- Objetivo De la pesadilla de Metaverso al éxito de la IA
- Integrando la IA generativa y el aprendizaje por refuerzo para el auto-mejoramiento
Se deben utilizar enormes corpus para entrenar estos patrones. Si bien es cierto que cuanto mayor sea la cantidad de datos utilizados, mejor será el rendimiento de un LLM, recopilar estos datos es costoso. Para limitar los costos, a menudo se utiliza la extracción indiscriminada de datos de Internet. Estos corpus también contienen datos extremadamente problemáticos: textos con derechos de autor, datos tóxicos o maliciosos, contenido inexacto o falso, datos personales y más.
![Fuente de la imagen: aquí](https://ai.miximages.com/miro.medium.com/v2/resize:fit:640/format:webp/1*UlSj4D3Zys1VumeLdVcfkQ.png)
Desaprendizaje de máquinas: el deber de olvidar
Cómo y por qué es importante borrar la información de los puntos de datos de un modelo de IA
towardsdatascience.com
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 10 Mejores Herramientas de Administrador de Contraseñas (Octubre 2023)
- Gobernando el ciclo de vida de ML a gran escala, Parte 1 Un marco para arquitecturar cargas de trabajo de ML utilizando Amazon SageMaker
- Investigadores de KAIST proponen SyncDiffusion un módulo plug-and-play que sincroniza múltiples difusiones a través del descenso del gradiente desde una pérdida de similitud perceptual.
- Para que el mundo lo vea una organización sin ánimo de lucro despliega simuladores con procesador gráfico para entrenar a los proveedores en cirugía de salvamento de la visión.
- Accesibilidad e inclusión a través de la tecnología
- Amazon está probando la entrega de medicamentos con drones
- Cómo instalar AutoGen en tu computadora local en 13 simples pasos.