Comprendiendo la IA Explicable y la IA Interpretable

'Understanding Explainable AI and Interpretable AI'

Como resultado de los avances tecnológicos recientes en el aprendizaje automático (ML), los modelos de ML ahora se utilizan en una variedad de campos para mejorar el rendimiento y eliminar la necesidad de mano de obra humana. Estas disciplinas pueden ser tan simples como ayudar a los autores y poetas a refinar su estilo de escritura o tan complejas como la predicción de la estructura de las proteínas. Además, hay muy poca tolerancia al error a medida que los modelos de ML ganan popularidad en diversas industrias cruciales, como el diagnóstico médico, la detección de fraude con tarjetas de crédito, etc. Como resultado, se vuelve necesario que los humanos comprendan estos algoritmos y su funcionamiento a un nivel más profundo. Después de todo, para que los académicos diseñen modelos aún más robustos y reparen las fallas de los modelos actuales en cuanto a sesgos y otras preocupaciones, es crucial obtener un mayor conocimiento de cómo los modelos de ML hacen predicciones.

Aquí es donde entran en juego las técnicas de Inteligencia Artificial Interpretativa (IAI) y Explicativa (XAI), y la necesidad de comprender sus diferencias se vuelve más evidente. Aunque la distinción entre los dos no siempre está clara, incluso para los académicos, los términos interpretabilidad y explicabilidad a veces se utilizan indistintamente al referirse a los enfoques de ML. Es crucial distinguir entre los modelos IAI y XAI debido a su creciente popularidad en el campo de ML para ayudar a las organizaciones a seleccionar la mejor estrategia para su caso de uso.

En resumen, los modelos de IA interpretables pueden ser fácilmente comprendidos por los humanos solo al observar sus resúmenes y parámetros del modelo sin la ayuda de herramientas o enfoques adicionales. En otras palabras, se puede decir que un modelo IAI proporciona su propia explicación. Por otro lado, los modelos de IA explicables son modelos de aprendizaje profundo muy complejos que son demasiado complicados para que los humanos los entiendan sin la ayuda de métodos adicionales. Es por eso que cuando los modelos de IA explicables pueden dar una idea clara de por qué se tomó una decisión pero no cómo se llegó a esa decisión. En el resto del artículo, profundizaremos en los conceptos de interpretabilidad y explicabilidad y los entenderemos con ejemplos.

1. Aprendizaje Automático Interpretativo

Sostenemos que cualquier cosa puede ser interpretable si es posible discernir su significado, es decir, si su causa y efecto se pueden determinar claramente. Por ejemplo, si alguien consume demasiados chocolates justo después de la cena, siempre tiene problemas para dormir. Situaciones de esta naturaleza pueden ser interpretadas. Se dice que un modelo es interpretable en el ámbito del ML si las personas pueden entenderlo por sí mismas en función de sus parámetros. Con los modelos de IA interpretables, los humanos pueden entender fácilmente cómo el modelo llegó a una solución particular, pero no si los criterios utilizados para llegar a ese resultado son sensibles. Los árboles de decisión y la regresión lineal son un par de ejemplos de modelos interpretables. Ilustremos mejor la interpretabilidad con la ayuda de un ejemplo:

Consideremos un banco que utiliza un modelo de árbol de decisión entrenado para determinar si aprobar una solicitud de préstamo. Se tienen en cuenta variables como la edad del solicitante, los ingresos mensuales, si tienen otros préstamos pendientes, entre otros, al tomar una decisión. Para entender por qué se tomó una decisión en particular, podemos recorrer fácilmente los nodos del árbol y, en función de los criterios de decisión, podemos entender por qué el resultado final fue lo que fue. Por ejemplo, un criterio de decisión puede especificar que no se autorizará una solicitud de préstamo si alguien que no es estudiante tiene un ingreso mensual inferior a $3000. Sin embargo, no podemos comprender la lógica detrás de la elección de los criterios de decisión utilizando estos modelos. Por ejemplo, el modelo no explica por qué se aplica un requisito mínimo de ingresos de $3000 para un solicitante que no es estudiante en este escenario.

Para producir la salida proporcionada, es necesario interpretar diferentes factores, como pesos, características, etc., para las organizaciones que desean comprender mejor por qué y cómo sus modelos generan predicciones. Pero esto solo es posible cuando los modelos son bastante simples. Tanto el modelo de regresión lineal como el árbol de decisión tienen un número pequeño de parámetros. A medida que los modelos se vuelven más complicados, ya no podemos entenderlos de esta manera.

2. Aprendizaje Automático Explicable

Los modelos de IA explicables son aquellos cuyo funcionamiento interno es demasiado complejo para que los humanos comprendan cómo afectan la predicción final. También se les conoce como modelos de caja negra, en los que las características del modelo se consideran la entrada y las predicciones generadas son la salida. Los humanos requieren métodos adicionales para analizar estos sistemas “de caja negra” para comprender cómo funcionan estos modelos. Un ejemplo de este tipo de modelo sería un Clasificador de Bosque Aleatorio que consiste en muchos Árboles de Decisión. En este modelo, se consideran las predicciones de cada árbol al determinar la predicción final. Esta complejidad aumenta aún más cuando se tienen en cuenta modelos basados en redes neuronales, como LogoNet. Con el aumento de la complejidad de estos modelos, se vuelve simplemente imposible para los humanos comprender el modelo solo al observar los pesos del modelo.

Como se mencionó anteriormente, los humanos necesitan métodos adicionales para comprender cómo los algoritmos sofisticados generan predicciones. Los investigadores utilizan diferentes métodos para encontrar conexiones entre los datos de entrada y las predicciones generadas por el modelo, lo cual puede ser útil para comprender cómo se comporta el modelo de ML. Estos métodos agnósticos del modelo (métodos que son independientes del tipo de modelo) incluyen gráficos de dependencia parcial, gráficos de dependencia SHapley Additive exPlanations (SHAP) y modelos sustitutos. También se emplean varios enfoques que enfatizan la importancia de diferentes características. Estas estrategias determinan cómo se puede utilizar cada atributo para predecir la variable objetivo. Una puntuación más alta significa que la característica es más crucial para el modelo y tiene un impacto significativo en la predicción.

Sin embargo, la pregunta que aún queda por responder es por qué es necesario distinguir entre la interpretabilidad y la explicabilidad de los modelos de ML. Es claro a partir de los argumentos mencionados anteriormente que algunos modelos son más fáciles de interpretar que otros. En términos simples, un modelo es más interpretable que otro si es más fácil para un humano comprender cómo realiza las predicciones que el otro modelo. También es cierto que, en general, los modelos menos complicados son más interpretables y a menudo tienen una precisión menor que los modelos más complejos que involucran redes neuronales. Por lo tanto, una alta interpretabilidad normalmente viene con el costo de una menor precisión. Por ejemplo, utilizar regresión logística para realizar reconocimiento de imágenes produciría resultados mediocres. Por otro lado, la explicabilidad del modelo comienza a desempeñar un papel más importante si una empresa desea alcanzar un alto rendimiento pero aún necesita comprender el comportamiento del modelo.

Por lo tanto, las empresas deben considerar si se requiere interpretabilidad antes de comenzar un nuevo proyecto de ML. Cuando los conjuntos de datos son grandes y los datos están en forma de imágenes o texto, las redes neuronales pueden alcanzar el objetivo del cliente con un alto rendimiento. En tales casos, cuando se necesitan métodos complejos para maximizar el rendimiento, los científicos de datos ponen más énfasis en la explicabilidad del modelo que en la interpretabilidad. Debido a esto, es crucial comprender las diferencias entre la explicabilidad y la interpretabilidad del modelo y saber cuándo favorecer una sobre la otra.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Un novedoso modelo de aprendizaje automático acelera la evaluación de catalizadores de descarbonización de meses a milisegundos

La biomasa se refiere a la materia orgánica, como plantas, madera, residuos agrícolas y otros materiales biológicos, ...

Inteligencia Artificial

Principal Financial Group utiliza la solución de análisis posterior a la llamada de AWS para extraer información sobre los clientes omnicanal

Una empresa de servicios financieros establecida con más de 140 años en el negocio, Principal es líder mundial en ges...

Inteligencia Artificial

Este artículo de IA explica cómo los lenguajes de programación pueden potenciarse entre sí a través de la sintonización de instrucciones.

La introducción de los Modelos de Lenguaje Grande (LLMs) ha causado sensación en el mundo. Estos modelos son famosos ...