Preocupaciones sobre la privacidad en torno a los LLM como ChatGPT este artículo de IA revela posibles riesgos y medidas de protección
Preocupaciones de privacidad en torno a los modelos de lenguaje como ChatGPT este artículo de IA destaca riesgos potenciales y medidas de protección
Mientras ChatGPT rompe récords, surgen algunas preguntas sobre la seguridad de la información personal utilizada en el ChatGPT de OpenAI. Recientemente, investigadores de Google DeepMind, Universidad de Washington, Cornell, CMU, UC Berkeley y ETH Zurich descubrieron un posible problema: utilizando ciertas instrucciones, se puede engañar a ChatGPT para revelar información sensible del usuario.
En tan solo dos meses desde su lanzamiento, el ChatGPT de OpenAI ha acumulado más de 100 millones de usuarios, demostrando su creciente popularidad. El programa utiliza más de 300 mil millones de piezas de datos provenientes de diversas fuentes de internet, incluyendo libros, revistas, sitios web, publicaciones y artículos. A pesar de los mejores esfuerzos de OpenAI para proteger la privacidad, las publicaciones y conversaciones regulares contribuyen a una cantidad considerable de información personal que no debería ser revelada públicamente.
Los investigadores de Google encontraron una forma de engañar a ChatGPT para acceder y revelar datos de entrenamiento que no estaban destinados al consumo público. Extrajeron más de 10,000 instancias de entrenamiento memorizadas aplicando palabras clave especificadas. Esto implica que se podrían obtener datos adicionales por parte de enemigos determinados.
- Alibaba AI libera en código abierto la serie Qwen que incluye Qwen-1.8B, Qwen-7B, Qwen-14B y Qwen-72B junto con la serie Qwen-Chat.
- Descubriendo a fondo GPT-4 y XGBoost 2.0 Las nuevas fronteras de la inteligencia artificial
- ¿Cómo usar la función de chat de voz de ChatGPT?
El equipo de investigación demostró cómo podrían hacer que el modelo expusiera información personal al hacer que ChatGPT repitiera una palabra, como “poema” o “empresa”, incesantemente. Por ejemplo, podrían haber obtenido direcciones, números de teléfono y nombres de esta manera, lo que podría haber llevado a violaciones de datos.
Algunas empresas han establecido limitaciones en el uso de modelos de lenguaje enormes como ChatGPT en respuesta a estas preocupaciones. Por ejemplo, Apple ha prohibido a sus empleados el uso de ChatGPT y otras herramientas de IA. Además, como medida de precaución, OpenAI ha agregado una función que permite a los usuarios deshabilitar el historial de conversaciones. Sin embargo, los datos retenidos se guardan durante 30 días antes de ser eliminados permanentemente.
Los investigadores de Google destacan la importancia de tener precaución adicional al implementar modelos de lenguaje grandes para aplicaciones sensibles a la privacidad, incluso con las salvaguardias adicionales. Sus hallazgos enfatizan la necesidad de una consideración cuidadosa, mejores medidas de seguridad en el desarrollo de futuros modelos de IA y los posibles riesgos asociados con el uso generalizado de ChatGPT y modelos similares.
En conclusión, la revelación de posibles vulnerabilidades de datos en ChatGPT sirve como una advertencia tanto para los usuarios como para los desarrolladores. El uso generalizado de este modelo de lenguaje, con millones de personas interactuando con él regularmente, destaca la importancia de priorizar la privacidad y implementar salvaguardias sólidas para prevenir divulgaciones de datos no autorizadas.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Cómo Nexusflow’s NexusRaven-V2 supera a GPT-4 en su propio juego!
- Los 5 mejores marcos generativos de IA para usar en 2024
- Tencent AI Lab presenta GPT4Video un modelo de lenguaje grande multimodal unificado para la comprensión de instrucciones y la generación consciente de seguridad.
- Presentación de Investigación de Google AI, Translatotron 3 Una arquitectura novedosa de traducción de voz a voz sin supervisión
- DynamoDB vs. Cassandra Elegir la Base de Datos Correcta para tu Negocio
- Apple presenta MLX, un marco de trabajo de aprendizaje automático de código abierto
- 6 Visualizaciones Avanzadas en Tableau