Considera los riesgos antes de subirte al tren de las extensiones de IA

Considera los riesgos antes de unirte a la tendencia de las extensiones de inteligencia artificial

Google anunció recientemente el lanzamiento a gran escala de Bard Extensions, integrando la herramienta de IA generativa conversacional (GenAI) en sus otros servicios. Bard ahora puede aprovechar los datos personales de los usuarios para realizar una variedad de tareas: organizar correos electrónicos, reservar vuelos, planificar viajes, redactar respuestas a mensajes y mucho más.

Con los servicios de Google ya profundamente entrelazados en nuestra vida diaria, esta integración representa un paso adelante real para las aplicaciones prácticas diarias de GenAI, creando formas más eficientes y productivas de manejar tareas personales y flujos de trabajo. En consecuencia, a medida que Google lanza herramientas de IA más convenientes, aparecen otras características de IA basadas en la web para satisfacer la demanda de usuarios que ahora buscan extensiones de productividad basadas en el navegador.

Sin embargo, los usuarios también deben ser cautelosos y responsables. Por útiles y productivas que puedan ser las Bard Extensions y herramientas similares, abren nuevas puertas a posibles fallas de seguridad que pueden comprometer los datos personales de los usuarios, entre otros riesgos aún no descubiertos. Los usuarios interesados en aprovechar Bard u otras herramientas de productividad de GenAI harían bien en aprender las mejores prácticas y buscar soluciones de seguridad integrales antes de entregar ciegamente su información confidencial.

Revisión de datos personales

Google explícitamente declara que su personal de la empresa puede revisar las conversaciones de los usuarios con Bard, que pueden contener información privada, desde facturas hasta detalles bancarios y notas de amor. Se advierte a los usuarios que no ingresen información confidencial ni datos que no deseen que los empleados de Google vean o utilicen para informar productos, servicios y tecnologías de aprendizaje automático.

Google y otros proveedores de herramientas de GenAI también es probable que utilicen los datos personales de los usuarios para volver a entrenar sus modelos de aprendizaje automático, un aspecto necesario de las mejoras de GenAI. El poder de la IA radica en su capacidad para enseñarse a sí misma y aprender de nueva información, pero cuando esa nueva información proviene de los usuarios que han confiado en una extensión de GenAI con sus datos personales, existe el riesgo de integrar información como contraseñas, información bancaria o detalles de contacto en los servicios públicamente disponibles de Bard.

Preocupaciones de seguridad indeterminadas

A medida que Bard se convierte en una herramienta más ampliamente integrada dentro de Google, expertos y usuarios por igual todavía están trabajando para comprender la extensión de su funcionalidad. Pero al igual que cualquier otro actor de vanguardia en el campo de la IA, Google continúa lanzando productos sin saber exactamente cómo utilizarán la información y los datos de los usuarios. Por ejemplo, se reveló recientemente que si compartes una conversación de Bard con un amigo a través del botón Compartir, toda la conversación puede aparecer en los resultados de búsqueda estándar de Google para que cualquiera pueda verla.

Aunque es una solución atractiva para mejorar flujos de trabajo y eficiencia, darle permiso a Bard o a cualquier otra extensión impulsada por IA para llevar a cabo tareas útiles en tu nombre puede tener consecuencias no deseadas en forma de alucinaciones de IA, salidas falsas o inexactas que GenAI a veces tiende a crear.

Para los usuarios de Google, esto podría significar reservar un vuelo incorrecto, pagar una factura de forma incorrecta o compartir documentos con la persona equivocada. Exponer datos personales a la parte equivocada o a un actor malicioso o enviar datos incorrectos a la persona correcta puede llevar a consecuencias no deseadas, desde robo de identidad y pérdida de privacidad digital hasta posibles pérdidas financieras o exposición de correspondencia embarazosa.

Expandiendo la seguridad

Para el usuario promedio de IA, la mejor práctica es simplemente no compartir ninguna información personal con asistentes de IA aún impredecibles. Pero eso por sí solo no garantiza una seguridad total.

El cambio a aplicaciones basadas en SaaS y web ya ha convertido al navegador en un objetivo principal para los atacantes. Y a medida que las personas comienzan a adoptar más herramientas de IA basadas en la web, la oportunidad de robar datos sensibles se amplía un poco más. A medida que más extensiones de navegadores intentan aprovechar el éxito de GenAI, atrayendo a los usuarios a instalarlas con características nuevas y eficientes, las personas deben tener cuidado de que muchas de estas extensiones terminarán robando información o las claves de API de OpenAI del usuario, en el caso de herramientas relacionadas con ChatGPT.

Afortunadamente, ya existen soluciones de seguridad para extensiones de navegadores para prevenir el robo de datos. Al implementar una extensión de navegador con controles de protección de datos (DLP), los usuarios pueden mitigar el riesgo de invitar a otras extensiones de navegador, basadas en IA o no, a utilizar o compartir datos personales de forma indebida. Estas extensiones de seguridad pueden inspeccionar la actividad del navegador y hacer cumplir políticas de seguridad, evitando el riesgo de que las aplicaciones basadas en la web capturen información sensible.

Protege al Bardo

Mientras Bard y otras extensiones similares prometen mejorar la productividad y la comodidad, también conllevan riesgos sustanciales para la ciberseguridad. Siempre que se involucran datos personales, existen preocupaciones de seguridad subyacentes de las que los usuarios deben estar conscientes, aún más en las aguas nuevas y desconocidas de la IA Generativa.

A medida que los usuarios permiten que Bard y otras herramientas de IA y web actúen de manera independiente con datos personales sensibles, seguramente habrá repercusiones más graves para los usuarios desprevenidos que se expongan sin extensiones de seguridad del navegador o controles de prevención de pérdida de datos (DLP, por sus siglas en inglés). Al fin y al cabo, un aumento en la productividad será mucho menos productivo si aumenta la posibilidad de exponer información, y las personas deben establecer salvaguardias para la IA antes de que los datos sean mal gestionados a su costa.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Este boletín de inteligencia artificial es todo lo que necesitas #56

Esta semana vimos varios nuevos competidores en el mundo de los LLMs, tanto en modelos de código abierto como cerrado...

Inteligencia Artificial

Meta presenta AudioCraft una herramienta de IA para convertir texto en audio y música

Meta, el gigante tecnológico detrás de plataformas de redes sociales como Facebook, Instagram y WhatsApp, ha lanzado ...

Inteligencia Artificial

Cerrando la brecha de inclusión en la informática

Los estudiantes del Instituto Politécnico y Universidad Estatal de Virginia buscan abordar la falta de diversidad en ...

Ciencia de Datos

La Inteligencia Artificial ayuda a mostrar cómo fluyen los líquidos del cerebro.

Un equipo de científicos creó mediciones de velocimetría basadas en inteligencia artificial para cuantificar el flujo...

Ciencias de la Computación

Estados Unidos será el único ganador si Japón copia las restricciones de chips en China, advierte el enviado de Beijing a Tokio.

El embajador chino Wu Jianghao afirma que Japón arriesgaría el futuro de su sector de semiconductores si corta el acc...