Empleando la IA Generativa Desentrañando las implicaciones de ciberseguridad de las herramientas de IA Generativa

Usando IA Generativa para entender implicaciones de ciberseguridad de herramientas de IA Generativa

Es justo decir que la inteligencia artificial generativa ha captado la atención de todas las salas de juntas y líderes empresariales del país. Una vez una tecnología marginal que era difícil de manejar y dominar, las puertas de la inteligencia artificial generativa se han abierto de par en par gracias a aplicaciones como ChatGPT o DALL-E. Ahora estamos presenciando una adopción masiva de la inteligencia artificial generativa en todas las industrias y grupos de edad, ya que los empleados encuentran formas de aprovechar la tecnología a su favor.

Una encuesta reciente indicó que el 29% de la Generación Z, el 28% de la Generación X y el 27% de los Millennials ahora utilizan herramientas de inteligencia artificial generativa como parte de su trabajo diario. En 2022, la adopción a gran escala de la inteligencia artificial generativa fue del 23%, y se espera que esa cifra se duplique al 46% para 2025.

La inteligencia artificial generativa es una tecnología incipiente pero en constante evolución que utiliza modelos entrenados para generar contenido original en diversas formas, desde texto escrito e imágenes, hasta videos, música e incluso código de software. Utilizando modelos de lenguaje de gran tamaño (LLMs) y enormes conjuntos de datos, la tecnología puede crear instantáneamente contenido único que es casi indistinguible del trabajo humano, y en muchos casos más preciso y convincente.

Sin embargo, aunque las empresas están utilizando cada vez más la inteligencia artificial generativa para apoyar sus operaciones diarias, y los empleados han sido rápidos en adoptarla, el ritmo de adopción y la falta de regulación han planteado importantes preocupaciones de ciberseguridad y cumplimiento normativo.

Según una encuesta de la población en general, más del 80% de las personas están preocupadas por los riesgos de seguridad que plantean ChatGPT y la inteligencia artificial generativa, y el 52% de los encuestados quiere que se detenga el desarrollo de la inteligencia artificial generativa para que las regulaciones puedan ponerse al día. Este sentimiento más amplio también ha sido expresado por las propias empresas, con un 65% de los altos líderes de tecnología de la información que no están dispuestos a permitir un acceso sin fricciones a herramientas de inteligencia artificial generativa debido a preocupaciones de seguridad.

La inteligencia artificial generativa sigue siendo un desconocido desconocido

Las herramientas de inteligencia artificial generativa se alimentan de datos. Los modelos, como los utilizados por ChatGPT y DALL-E, se entrenan con datos externos o disponibles libremente en Internet, pero para aprovechar al máximo estas herramientas, los usuarios necesitan compartir datos muy específicos. A menudo, al dar indicaciones a herramientas como ChatGPT, los usuarios compartirán información confidencial de la empresa para obtener resultados precisos y completos. Esto crea muchas incógnitas para las empresas. El riesgo de acceso no autorizado o divulgación no intencionada de información confidencial está “incorporado” cuando se utilizan herramientas de inteligencia artificial generativa disponibles libremente.

Este riesgo en sí mismo no es necesariamente algo malo. El problema es que estos riesgos aún no se han explorado adecuadamente. Hasta la fecha, no ha habido un análisis real del impacto empresarial de utilizar herramientas de inteligencia artificial generativa ampliamente disponibles, y los marcos legales y normativos globales en torno al uso de la inteligencia artificial generativa aún no han alcanzado ningún tipo de madurez.

La regulación aún está en proceso

Los reguladores ya están evaluando las herramientas de inteligencia artificial generativa en términos de privacidad, seguridad de datos y la integridad de los datos que producen. Sin embargo, como suele ocurrir con la tecnología emergente, el aparato regulador para respaldar y gobernar su uso va varios pasos por detrás. Si bien la tecnología está siendo utilizada por empresas y empleados en todas partes, los marcos regulatorios aún están en fase de desarrollo.

Esto crea un riesgo claro y presente para las empresas que, en este momento, no se está tomando tan en serio como debería. Los ejecutivos naturalmente están interesados en cómo estas plataformas introducirán beneficios comerciales materiales, como oportunidades de automatización y crecimiento, pero los gerentes de riesgo se preguntan cómo se regulará esta tecnología, cuáles podrían ser las implicaciones legales en última instancia y cómo se podría comprometer o exponer los datos de la empresa. Muchas de estas herramientas están disponibles libremente para cualquier usuario con un navegador y una conexión a Internet, por lo que, mientras esperan que la regulación se ponga al día, las empresas deben comenzar a pensar muy cuidadosamente en sus propias “reglas internas” sobre el uso de la inteligencia artificial generativa.

El papel de los CISO en la gobernanza de la inteligencia artificial generativa

Con marcos regulatorios aún insuficientes, los Directores de Seguridad de la Información (CISO) deben dar un paso al frente y desempeñar un papel crucial en la gestión del uso de la inteligencia artificial generativa dentro de sus organizaciones. Necesitan comprender quién está utilizando la tecnología y con qué propósito, cómo proteger la información empresarial cuando los empleados interactúan con herramientas de inteligencia artificial generativa, cómo gestionar los riesgos de seguridad de la tecnología subyacente y cómo equilibrar los compromisos de seguridad con el valor que ofrece la tecnología.

Esto no es tarea fácil. Se deben realizar evaluaciones detalladas de riesgos para determinar tanto los resultados negativos como los positivos como resultado de, en primer lugar, implementar la tecnología de manera oficial y, en segundo lugar, permitir que los empleados utilicen herramientas disponibles libremente sin supervisión. Dada la naturaleza de fácil acceso de las aplicaciones de inteligencia artificial generativa, los CISO deberán pensar cuidadosamente en la política de la empresa en torno a su uso. ¿Deben los empleados tener libertad para aprovechar herramientas como ChatGPT o DALL-E para facilitar su trabajo? ¿O debería restringirse o moderarse el acceso a estas herramientas, con pautas y marcos internos sobre cómo deben utilizarse? Un problema obvio es que incluso si se crearan pautas internas de uso, dado el ritmo al que evoluciona la tecnología, podrían quedar obsoletas cuando se finalicen.

Una forma de abordar este problema podría ser alejar el enfoque de las herramientas de IA generativa en sí mismas y, en su lugar, centrarse en la clasificación y protección de datos. La clasificación de datos siempre ha sido un aspecto clave para protegerlos de ser violados o filtrados, y eso también es válido en este caso de uso en particular. Implica asignar un nivel de sensibilidad a los datos, lo que determina cómo deben ser tratados. ¿Deben ser encriptados? ¿Deben ser bloqueados para ser contenidos? ¿Deben ser notificados? ¿Quién debe tener acceso a ellos y dónde se les permite ser compartidos? Al centrarse en el flujo de datos, en lugar de la herramienta en sí misma, los CISO y los oficiales de seguridad tendrán muchas más posibilidades de mitigar algunos de los riesgos mencionados.

Como toda tecnología emergente, la IA generativa es tanto una bendición como un riesgo para las empresas. Si bien ofrece nuevas capacidades emocionantes, como la automatización y la conceptualización creativa, también plantea algunos desafíos complejos en torno a la seguridad de los datos y la protección de la propiedad intelectual. Mientras se establecen los marcos regulatorios y legales, las empresas deben asumir la responsabilidad de equilibrar la oportunidad y el riesgo, implementando controles de políticas propias que reflejen su postura de seguridad general. La IA generativa impulsará el avance de los negocios, pero debemos tener cuidado de mantener una mano en el volante.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Riesgos de la IA y la Extinción El Futuro Precario de la Humanidad en Medio de una Revolución de la IA

Explora los alarmantes riesgos de AI que plantea la revolución de AI en curso. Los expertos advierten del peligro inm...

Inteligencia Artificial

IA Generativa en la Salud

Introducción La inteligencia artificial generativa ha ganado repentinamente tracción en los últimos años. No es sorpr...

Inteligencia Artificial

El Hackathon ofrece un vistazo del potencial cuántico

El Centro Nacional de Computación Cuántica del Reino Unido recientemente llevó a cabo su segundo hackathon cuántico e...

Inteligencia Artificial

La inteligencia artificial ayuda a los robots a manipular objetos con todo su cuerpo

Con una nueva técnica, un robot puede razonar eficientemente sobre objetos en movimiento utilizando más que solo sus ...

Inteligencia Artificial

Transmisión de respuestas de modelos de lenguaje amplios en Amazon SageMaker JumpStart

Estamos emocionados de anunciar que Amazon SageMaker JumpStart ahora puede transmitir respuestas de inferencia de mod...

Inteligencia Artificial

Una inmersión profunda en las implicaciones de seguridad de la personalización y afinación de grandes modelos de lenguaje.

En un esfuerzo colaborativo revolucionario, IBM Research, Princeton University y Virginia Tech han arrojado luz sobre...