Preocupaciones sobre la privacidad en torno a los LLM como ChatGPT este artículo de IA revela posibles riesgos y medidas de protección

Preocupaciones de privacidad en torno a los modelos de lenguaje como ChatGPT este artículo de IA destaca riesgos potenciales y medidas de protección

Mientras ChatGPT rompe récords, surgen algunas preguntas sobre la seguridad de la información personal utilizada en el ChatGPT de OpenAI. Recientemente, investigadores de Google DeepMind, Universidad de Washington, Cornell, CMU, UC Berkeley y ETH Zurich descubrieron un posible problema: utilizando ciertas instrucciones, se puede engañar a ChatGPT para revelar información sensible del usuario.

En tan solo dos meses desde su lanzamiento, el ChatGPT de OpenAI ha acumulado más de 100 millones de usuarios, demostrando su creciente popularidad. El programa utiliza más de 300 mil millones de piezas de datos provenientes de diversas fuentes de internet, incluyendo libros, revistas, sitios web, publicaciones y artículos. A pesar de los mejores esfuerzos de OpenAI para proteger la privacidad, las publicaciones y conversaciones regulares contribuyen a una cantidad considerable de información personal que no debería ser revelada públicamente.

Los investigadores de Google encontraron una forma de engañar a ChatGPT para acceder y revelar datos de entrenamiento que no estaban destinados al consumo público. Extrajeron más de 10,000 instancias de entrenamiento memorizadas aplicando palabras clave especificadas. Esto implica que se podrían obtener datos adicionales por parte de enemigos determinados.

El equipo de investigación demostró cómo podrían hacer que el modelo expusiera información personal al hacer que ChatGPT repitiera una palabra, como “poema” o “empresa”, incesantemente. Por ejemplo, podrían haber obtenido direcciones, números de teléfono y nombres de esta manera, lo que podría haber llevado a violaciones de datos.

Algunas empresas han establecido limitaciones en el uso de modelos de lenguaje enormes como ChatGPT en respuesta a estas preocupaciones. Por ejemplo, Apple ha prohibido a sus empleados el uso de ChatGPT y otras herramientas de IA. Además, como medida de precaución, OpenAI ha agregado una función que permite a los usuarios deshabilitar el historial de conversaciones. Sin embargo, los datos retenidos se guardan durante 30 días antes de ser eliminados permanentemente.

Los investigadores de Google destacan la importancia de tener precaución adicional al implementar modelos de lenguaje grandes para aplicaciones sensibles a la privacidad, incluso con las salvaguardias adicionales. Sus hallazgos enfatizan la necesidad de una consideración cuidadosa, mejores medidas de seguridad en el desarrollo de futuros modelos de IA y los posibles riesgos asociados con el uso generalizado de ChatGPT y modelos similares.

En conclusión, la revelación de posibles vulnerabilidades de datos en ChatGPT sirve como una advertencia tanto para los usuarios como para los desarrolladores. El uso generalizado de este modelo de lenguaje, con millones de personas interactuando con él regularmente, destaca la importancia de priorizar la privacidad y implementar salvaguardias sólidas para prevenir divulgaciones de datos no autorizadas.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Crear resúmenes de grabaciones utilizando IA generativa con Amazon Bedrock y Amazon Transcribe

Las notas de reuniones son una parte crucial de la colaboración, pero a menudo se pierden entre las grietas. Entre li...

Inteligencia Artificial

Buscar inteligentemente el contenido de Drupal utilizando Amazon Kendra

Amazon Kendra es un servicio de búsqueda inteligente impulsado por aprendizaje automático (ML). Amazon Kendra te ayud...

Inteligencia Artificial

IA y el futuro del fútbol universitario

El panorama del atletismo universitario ha vuelto a cambiar gracias al dinero y al fútbol americano. La SEC fue la pr...

Inteligencia Artificial

Miles de autores instan a las compañías de IA a dejar de usar trabajos sin permiso

Casi 8,000 autores acaban de firmar una carta dirigida a los líderes de seis empresas de inteligencia artificial, inc...

Noticias de Inteligencia Artificial

Después de Amazon, una ambición por acelerar la fabricación estadounidense.

Jeff Wilke SM '93, ex CEO del negocio de Consumidores Mundiales de Amazon, lleva su estrategia de LGO a su nueva misi...