Explicación de la IA Explicativa utilizando Fórmulas Booleanas Expresivas

'Explicación de la IA Explicativa con Fórmulas Booleanas'

La explosión en aplicaciones de inteligencia artificial (IA) y aprendizaje automático está permeando casi todas las industrias y aspectos de la vida.

Pero su crecimiento no viene sin ironía. Si bien la IA existe para simplificar y/o acelerar la toma de decisiones o flujos de trabajo, la metodología para hacerlo a menudo es extremadamente compleja. De hecho, algunos algoritmos de aprendizaje automático “caja negra” son tan intrincados y multifacéticos que pueden desafiar una explicación simple, incluso por parte de los científicos informáticos que los crearon.

Eso puede ser bastante problemático cuando ciertos casos de uso, como en los campos de las finanzas y la medicina, se definen por las mejores prácticas de la industria o las regulaciones gubernamentales que requieren explicaciones transparentes sobre el funcionamiento interno de las soluciones de IA. Y si estas aplicaciones no son lo suficientemente expresivas como para cumplir con los requisitos de explicabilidad, pueden volverse inútiles independientemente de su eficacia general.

Para abordar este dilema, nuestro equipo en el Fidelity Center for Applied Technology (FCAT) – en colaboración con el Amazon Quantum Solutions Lab – ha propuesto e implementado un modelo de aprendizaje automático interpretable para IA Explicable (XAI) basado en fórmulas booleanas expresivas. Este enfoque puede incluir cualquier operador que se pueda aplicar a una o más variables booleanas, proporcionando así una mayor expresividad en comparación con enfoques basados en reglas o árboles más rígidos.

Puede leer el artículo completo aquí para obtener detalles completos sobre este proyecto.

Nuestra hipótesis era que, dado que los modelos, como los árboles de decisión, pueden volverse profundos y difíciles de interpretar, la necesidad de encontrar una regla expresiva con baja complejidad pero alta precisión era un problema de optimización intratable que debía resolverse. Además, al simplificar el modelo a través de este enfoque avanzado de XAI, podríamos obtener beneficios adicionales, como exponer sesgos que son importantes en el contexto del uso ético y responsable del aprendizaje automático; al mismo tiempo que facilita el mantenimiento y la mejora del modelo.

Propusimos un enfoque basado en fórmulas booleanas expresivas porque definen reglas con una complejidad ajustable (o interpretabilidad) según las cuales se clasifican los datos de entrada. Esta fórmula puede incluir cualquier operador que se pueda aplicar a una o más variables booleanas (como And o AtLeast), proporcionando así una mayor expresividad en comparación con metodologías basadas en reglas o árboles más rígidos.

En este problema tenemos dos objetivos competitivos: maximizar el rendimiento del algoritmo, mientras se minimiza su complejidad. Por lo tanto, en lugar de seguir el enfoque típico de aplicar uno de dos métodos de optimización – combinar múltiples objetivos en uno solo o restringir uno de los objetivos – elegimos incluir ambos en nuestra formulación. Al hacerlo, y sin pérdida de generalidad, principalmente utilizamos la precisión equilibrada como nuestra métrica de rendimiento general.

Además, al incluir operadores como AtLeast, nos motivó la idea de abordar la necesidad de listas de verificación altamente interpretables, como una lista de síntomas médicos que indican una determinada condición. Es concebible que se tome una decisión utilizando dicha lista de síntomas de manera que se requiera la presencia de un número mínimo para un diagnóstico positivo. De manera similar, en finanzas, un banco puede decidir si proporcionar o no crédito a un cliente en función de la presencia de un cierto número de factores de una lista más larga.

Implementamos con éxito nuestro modelo XAI y lo comparamos con algunos conjuntos de datos públicos relacionados con crédito, comportamiento del cliente y condiciones médicas. Descubrimos que nuestro modelo es generalmente competitivo con otras alternativas conocidas. También descubrimos que nuestro modelo XAI puede potencialmente funcionar con hardware de propósito especial o dispositivos cuánticos para resolver programaciones lineales enteras rápidas (ILP) u optimizaciones binarias cuadráticas irrestrictas (QUBO). La adición de solucionadores QUBO reduce el número de iteraciones, lo que conduce a una aceleración mediante la rápida propuesta de movimientos no locales.

Como se mencionó, los modelos de IA explicables que utilizan fórmulas booleanas pueden tener muchas aplicaciones en atención médica y en el campo de las finanzas de Fidelity (como la calificación crediticia o para evaluar por qué algunos clientes pueden haber seleccionado un producto mientras que otros no lo hicieron). Al crear estas reglas interpretables, podemos alcanzar niveles más altos de conocimiento que pueden conducir a futuras mejoras en el desarrollo o refinamiento de productos, así como a la optimización de campañas de marketing.

De acuerdo con nuestros hallazgos, hemos determinado que la IA explicada utilizando fórmulas booleanas expresivas es apropiada y deseable para aquellos casos de uso que requieren una mayor explicabilidad. Además, a medida que la computación cuántica continúa desarrollándose, prevemos la oportunidad de obtener aceleraciones potenciales utilizando hardware de propósito especial y otros aceleradores de hardware.

El trabajo futuro puede centrarse en aplicar estos clasificadores a otros conjuntos de datos, introducir nuevos operadores o aplicar estos conceptos a otros casos de uso.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

NVIDIA CEO, ejecutivos europeos de IA generativa discuten claves para el éxito.

Tres destacadas startups europeas de IA generativa se unieron esta semana al fundador y CEO de NVIDIA, Jensen Huang, ...

Ciencias de la Computación

Esperanza, Miedo y AI

Encuestamos a 2,000 personas sobre cómo utilizan la IA, qué quieren que haga y qué les asusta más de ella.

Inteligencia Artificial

Microsoft presenta Python en Excel uniendo habilidades analíticas con familiaridad para mejorar la comprensión de los datos.

El ámbito del análisis de datos ha luchado durante mucho tiempo por integrar de manera fluida las capacidades de Pyth...

Inteligencia Artificial

Inteligencia Artificial (IA) y Web3 ¿Cómo están conectados?

¿Qué es la IA? En pocas palabras, la Inteligencia Artificial (IA) es la capacidad de las máquinas para realizar funci...

Inteligencia Artificial

Computación de siguiente nivel NVIDIA y AMD ofrecen potentes estaciones de trabajo para acelerar la IA, el renderizado y la simulación.

Para permitir a profesionales de todo el mundo construir y ejecutar aplicaciones de inteligencia artificial desde sus...