El Lado Oscuro de la IA – ¿Cómo pueden ayudar los creadores?!

El Lado Oscuro de la IA - ¡Cómo los creadores pueden ayudar!

Desarrollo responsable de la IA: consideraciones y marcos para líderes y equipos de productos de IA.

Foto de Ramón Salinero en Unsplash

No pasa un solo día en estos tiempos sin que aprendamos algo sorprendente que una herramienta de IA haya hecho. Sí, estamos en territorio desconocido. La revolución de la IA avanza a una velocidad vertiginosa. Lo mismo ocurre con las preocupaciones y los miedos asociados a ella. La verdad es que muchos de esos miedos son reales.

“La inteligencia artificial alcanzará niveles humanos alrededor de 2029. Si seguimos avanzando hasta, digamos, 2045, habremos multiplicado la inteligencia, la máquina biológica humana de nuestra civilización, mil millones de veces”.

— Ray Kurzweil

Sin embargo, eso no significa que debamos ser reacios al desarrollo de la IA. El efecto general es en su mayoría positivo, ya sea en atención médica, conducción autónoma u cualquier otra aplicación. Por lo tanto, con el conjunto adecuado de salvaguardias, deberíamos poder ampliar los límites de manera ética y responsable.

A continuación, se presentan algunas consideraciones y marcos que ayudarán en el desarrollo responsable de la IA, para aquellos que deseen ser parte de la solución.

Concordar sobre los principios

Uno de los primeros y vitales pasos para abordar estos dilemas a nivel organizacional es definir claramente sus principios. El proceso de toma de decisiones se vuelve más fácil y la probabilidad de tomar decisiones que violen los valores organizacionales disminuye una vez que se hayan definido los principios. Google ha creado los ‘Principios de Inteligencia Artificial’. Microsoft ha creado los ‘Principios de IA Responsable’.

Foto de Brett Jordan en Unsplash

La OCDE (Organización para la Cooperación y el Desarrollo Económicos) ha creado los ‘Principios de IA de la OCDE’, que promueven el uso de la IA que sea innovadora, confiable y respete los derechos humanos y los valores democráticos. Más de 90 países han adoptado estos principios hasta hoy.

En 2022, la Junta de Coordinación de los Directores Ejecutivos del Sistema de las Naciones Unidas respaldó los ‘Principios para el Uso Ético de la Inteligencia Artificial en el Sistema de las Naciones Unidas’.

La firma consultora PWC ha consolidado más de 90 conjuntos de principios éticos, que contienen más de 200 principios, en 9 principios fundamentales (ver abajo). Consulta su conjunto de herramientas de IA responsable aquí.

PwC

Incorporar diversidad para abordar el sesgo

1. Diversidad en la fuerza laboral de IA: Para abordar el sesgo de manera efectiva, las organizaciones deben garantizar la inclusión y participación en todos los aspectos de su cartera de IA, desde la investigación y el desarrollo hasta la implementación y el mantenimiento. Es más fácil decirlo que hacerlo. Según una encuesta del AI Index en 2021, los dos factores principales que contribuyen a la subrepresentación de ciertas poblaciones son la falta de modelos a seguir y la falta de comunidad.

Fuente: Informe del índice de IA 2020

2. Diversidad dentro de los conjuntos de datos: Asegurar una representación diversa en los conjuntos de datos en los que se entrena el algoritmo. No es fácil obtener los conjuntos de datos que representen la diversidad en la población.

Incorporar privacidad

¿Cómo aseguramos que los datos de identificación personal estén seguros? No es posible evitar la recopilación de datos. Las organizaciones deben garantizar la privacidad en la recopilación, almacenamiento y utilización de datos.

Foto de Claudio Schwarz en Unsplash
  1. Consentimiento — La recopilación de datos debe asegurar que los sujetos otorguen su consentimiento para utilizar los datos. Las personas también deberían poder revocar su consentimiento para el uso de sus datos personales o incluso solicitar la eliminación de sus datos personales. La UE ha marcado el rumbo en este sentido — A través del GDPR, ya ha sido ilegal procesar datos de audio o video con información de identificación personal sin el consentimiento explícito de las personas de quienes se recopilan los datos. Es razonable suponer que otros países seguirán su ejemplo en su debido momento.
  2. Mínimo de datos necesario — Las organizaciones deben asegurarse de definir, recopilar y utilizar solo los datos mínimos requeridos para entrenar un algoritmo. Utilizar solo lo necesario.
  3. Desidentificar los datos — Los datos utilizados deben estar en un formato desidentificado, a menos que haya una necesidad explícita de no revelar la información de identificación personal. Incluso en ese caso, la divulgación de datos debe cumplir con las regulaciones de la jurisdicción específica. El sector de la salud es líder en este sentido. Existen leyes y regulaciones claramente establecidas para prevenir el acceso a PII (Información de Identificación Personal) e PHI (Información Personal de Salud).

Incorporar seguridad

¿Cómo asegurarse de que la IA funcione como se espera y no termine haciendo algo no deseado? ¿O qué pasa si alguien piratea o engaña al sistema de IA para llevar a cabo actos ilegales?

DeepMind ha realizado uno de los movimientos más efectivos en esta dirección. Han planteado un enfoque de tres puntos para asegurarse de que los sistemas de IA funcionen como se pretende y para mitigar los resultados adversos tanto como sea posible. Según ellos, la seguridad técnica de la IA se puede garantizar al centrarse en los tres pilares.

Foto de Towfiqu barbhuiya en Unsplash
  1. Especificación — Definir el propósito del sistema e identificar las brechas en la especificación ideal (Deseos), especificación de diseño (Plan) y especificación revelada (Comportamiento).
  2. Robustez — Asegurarse de que los sistemas puedan resistir perturbaciones.
  3. Garantía — Monitorear y controlar activamente el comportamiento del sistema e intervenir cuando se produzcan desviaciones.
Fuente: DeepMind

Incorporar responsabilidad

La responsabilidad es uno de los aspectos más difíciles de la IA que debemos abordar. Es difícil debido a su naturaleza socio-técnica. Estas son las principales piezas del rompecabezas — según Stephen Sanford, Claudio Novelli, Mariarosaria Taddeo & Luciano Floridi.

  1. Estructuras de gobernanza – El objetivo es asegurar que existan estructuras de gobernanza claramente definidas cuando se trata de la inteligencia artificial (IA). Esto incluye la claridad de metas, responsabilidades, procesos, documentación y monitoreo.
  2. Estándares de cumplimiento – El objetivo es aclarar los estándares éticos y morales que son aplicables al sistema y su aplicación. Esto al menos denota la intención detrás del comportamiento del sistema.
  3. Reporte – El objetivo aquí es asegurarse de que el uso del sistema y su impacto sean registrados, de manera que pueda ser utilizado para justificación o explicación según sea necesario.
  4. Supervisión – El objetivo es permitir un escrutinio de manera continua. Las auditorías tanto internas como externas son beneficiosas. Esto incluye examinar los datos, obtener evidencia y evaluar la conducta del sistema. Esto también puede incluir una revisión judicial, cuando sea necesario.
  5. Aplicación – El objetivo es determinar las consecuencias para la organización y las demás partes interesadas involucradas. Esto puede incluir sanciones, autorizaciones y prohibiciones.

Incorporar Transparencia y Explicabilidad

La explicabilidad en la IA (XAI) es un campo importante en sí mismo, que ha ganado mucha atención en los últimos años. En términos más simples, es la capacidad de brindar transparencia sobre las razones y factores que han llevado a un algoritmo de IA a llegar a una conclusión específica. El GDPR ya ha agregado el “Derecho a una Explicación” en el Considerando 71, lo que significa que los sujetos de datos pueden solicitar que una empresa los informe sobre cómo un algoritmo ha tomado una decisión automatizada. Esto se vuelve complicado cuando intentamos implementar IA en industrias y procesos que requieren un alto grado de confianza, como la aplicación de la ley y la atención médica.

El problema es que cuanto mayor es la precisión y no linealidad del modelo, más difícil es explicarlo

Fuente: Machine Learning for 5G/B5G Mobile and Wireless Communications: Potential, Limitations, and Future Directions

Los modelos más simples, como los modelos basados en reglas de clasificación, modelos de regresión lineal, árboles de decisiones, KNN, modelos bayesianos, etc., son en su mayoría cajas blancas y, por lo tanto, directamente explicables. Los modelos complejos son en su mayoría cajas negras.

  1. Algoritmos especializados: Modelos complejos como las redes neuronales recurrentes son modelos de caja negra, pero aún pueden tener explicabilidad post hoc mediante el uso de otros algoritmos agnósticos o personalizados destinados para este propósito. Los más populares entre ellos son LIME (Explicaciones Locales Interpretables de Modelos Agnósticos) y SHAP (Explicaciones Aditivas de Shapley). También se utilizan ampliamente muchos otros algoritmos, como la herramienta “What-if”, DeepLift, AIX360, etc.
  2. Elección del modelo: Obviamente, las herramientas y métodos mencionados anteriormente se pueden usar para brindar explicabilidad a los algoritmos de IA. Además de eso, hay casos en los que se utiliza IA de caja negra cuando una IA de caja blanca sería suficiente. Los modelos de caja blanca directamente explicables facilitarán la explicabilidad. Se puede considerar un modelo más lineal y explicativo en lugar de un modelo complejo y difícil de explicar si se cumplen la sensibilidad y especificidad requeridas para el caso de uso.
  3. Cartas de transparencia: Algunas empresas, como Google e IBM, tienen sus propias herramientas de explicabilidad para la IA. Por ejemplo, la solución XAI de Google está disponible para su uso. Google también ha lanzado Model Cards, para acompañar a sus modelos de IA, lo que aclara las limitaciones en términos de sus datos de entrenamiento, algoritmo y resultados.

Es importante tener en cuenta que NIST diferencia entre explicabilidad, interpretabilidad y transparencia. Para simplificar, he utilizado los términos indistintamente bajo el término explicabilidad.

En el caso de la atención médica, CHAI (Coalition for Health AI) ha desarrollado el ‘Blueprint for Trustworthy AI’ – un enfoque integral para garantizar la transparencia en la IA de salud. Vale la pena leerlo para cualquier persona en tecnología de la salud que trabaje en sistemas de IA para la atención médica.

Incorporar la evaluación y mitigación de riesgos

Las organizaciones deben garantizar una estrategia integral de gestión de riesgos para prevenir problemas éticos en la implementación de soluciones de IA. Existen múltiples marcos aislados en uso. El NIST RMF (Instituto Nacional de Estándares y Tecnología) fue desarrollado en colaboración con organizaciones del sector privado y público que trabajan en el ámbito de la IA. Está destinado a su uso voluntario y se espera que aumente la confiabilidad de las soluciones de IA.

NIST

En resumen…

La tecnología avanzará, te guste o no. Así fue el caso de la industrialización, la electricidad y las computadoras. Así será también con la IA. La IA está progresando demasiado rápido para que las leyes puedan alcanzarla. También lo son los peligros potenciales asociados con ella. Por lo tanto, es responsabilidad de quienes la desarrollan adoptar un enfoque responsable en beneficio de nuestra sociedad. Lo que debemos hacer es establecer los marcos adecuados para que la tecnología pueda prosperar de manera segura y responsable.

“Con un gran poder, viene una gran responsabilidad.” — Spiderman

Ahora tienes un excelente punto de partida arriba. La pregunta es si estás dispuesto/a a asumir la responsabilidad o esperar a que las reglas y regulaciones te obliguen a hacerlo. Sabes cuál es lo correcto. ¡Doy por cerrado mi caso!

  • 👏 ¡Si te gusta mi artículo, por favor dale tantos aplausos y suscríbete! Significará el mundo para nosotros, creadores de contenido, y nos permitirá producir más artículos asombrosos en el futuro ❤️
  • 🔔 Sígueme en VoAGI | Linkedin | Twitter

¡Gracias por tu tiempo y apoyo. ¡Apreciado!

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Grupo de noticias dice que los chatbots de inteligencia artificial dependen en gran medida del contenido de noticias

La News Media Alliance, un grupo comercial que representa a los periódicos, afirma que los chatbots de inteligencia a...

Noticias de Inteligencia Artificial

Equipo respaldado por la ONU escanea sitios históricos de Ucrania para preservarlos en medio de la guerra.

Dos ingenieros respaldados por las Naciones Unidas están utilizando tecnología avanzada de escaneo láser para preserv...

Inteligencia Artificial

China redacta reglas para la tecnología de reconocimiento facial

La Administración del Ciberespacio de China ha emitido normas provisionales que regulan el uso de la tecnología de re...

Inteligencia Artificial

Robot Sudoroso Puede Ayudar a los Humanos a Comprender el Impacto del Calor Abrasador

Un investigador de la Universidad Estatal de Arizona describió al robot Advanced Newton Dynamic Instrument como 'el p...