Reformando la memoria del modelo sin necesidad de volver a entrenarlo

Reformulando la memoria del modelo sin necesidad de reentrenamiento

| IA | GRANDES MODELOS DE LENGUAJE | DESAPRENDIZAJE DE MÁQUINAS |

Borrando cualquier eco de contenido problemático que un gran modelo de lenguaje haya aprendido

Foto de Drew Saurus en Unsplash

“Perdonar es sabiduría, olvidar es genio”. – Joyce Cary

Los grandes modelos de lenguaje (LLM, por sus siglas en inglés) se han convertido en un fenómeno mundial. En menos de un año, son omnipresentes y ahora son utilizados por millones de usuarios. Estos modelos a menudo se entrenan con grandes cantidades de texto (incluido material problemático y datos sensibles). ¿Cómo haces que un modelo olvide? ¿Lo mismo que podría almacenar la totalidad del conocimiento humano?

Aprender cómo olvidar

Foto de Paul Pastourmatzis en Unsplash

Los LLM son un testimonio tanto de nuestros logros como de los desafíos que tenemos por delante – fuente

Los grandes modelos de lenguaje han sorprendido tanto a los usuarios como a los investigadores con su capacidad para aprender de grandes cantidades de texto e identificar patrones de lenguaje y matices culturales. Si bien podrían ser la base de una nueva aplicación y una revolución científica, también tienen un lado oscuro.

Se deben utilizar enormes corpus para entrenar estos patrones. Si bien es cierto que cuanto mayor sea la cantidad de datos utilizados, mejor será el rendimiento de un LLM, recopilar estos datos es costoso. Para limitar los costos, a menudo se utiliza la extracción indiscriminada de datos de Internet. Estos corpus también contienen datos extremadamente problemáticos: textos con derechos de autor, datos tóxicos o maliciosos, contenido inexacto o falso, datos personales y más.

Fuente de la imagen: aquí

Desaprendizaje de máquinas: el deber de olvidar

Cómo y por qué es importante borrar la información de los puntos de datos de un modelo de IA

towardsdatascience.com

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

IBM presenta un chip de computadora inspirado en el cerebro que podría impulsar la inteligencia artificial (IA) al trabajar más rápido con mucha menos energía.

En el paisaje en constante evolución de la inteligencia artificial, la necesidad de capacidades de procesamiento más ...

Inteligencia Artificial

Abacus AI presenta un nuevo modelo de lenguaje grande de contexto largo y abierto (LLM) Conoce a Giraffe

Los modelos de lenguaje recientes pueden tomar contextos largos como entrada; se necesita más información sobre cómo ...

Inteligencia Artificial

¿Cómo funciona realmente la Difusión Estable? Una explicación intuitiva

Este breve artículo explica cómo funciona la Difusión Estable de manera intuitiva para principiantes. Es un vistazo b...

Inteligencia Artificial

Este boletín de inteligencia artificial es todo lo que necesitas #71

Esta semana, el presidente Joe Biden volvió a poner la regulación de la inteligencia artificial en el punto de mira a...