Explicación de la IA Explicativa utilizando Fórmulas Booleanas Expresivas
'Explicación de la IA Explicativa con Fórmulas Booleanas'
La explosión en aplicaciones de inteligencia artificial (IA) y aprendizaje automático está permeando casi todas las industrias y aspectos de la vida.
Pero su crecimiento no viene sin ironía. Si bien la IA existe para simplificar y/o acelerar la toma de decisiones o flujos de trabajo, la metodología para hacerlo a menudo es extremadamente compleja. De hecho, algunos algoritmos de aprendizaje automático “caja negra” son tan intrincados y multifacéticos que pueden desafiar una explicación simple, incluso por parte de los científicos informáticos que los crearon.
Eso puede ser bastante problemático cuando ciertos casos de uso, como en los campos de las finanzas y la medicina, se definen por las mejores prácticas de la industria o las regulaciones gubernamentales que requieren explicaciones transparentes sobre el funcionamiento interno de las soluciones de IA. Y si estas aplicaciones no son lo suficientemente expresivas como para cumplir con los requisitos de explicabilidad, pueden volverse inútiles independientemente de su eficacia general.
Para abordar este dilema, nuestro equipo en el Fidelity Center for Applied Technology (FCAT) – en colaboración con el Amazon Quantum Solutions Lab – ha propuesto e implementado un modelo de aprendizaje automático interpretable para IA Explicable (XAI) basado en fórmulas booleanas expresivas. Este enfoque puede incluir cualquier operador que se pueda aplicar a una o más variables booleanas, proporcionando así una mayor expresividad en comparación con enfoques basados en reglas o árboles más rígidos.
- Cómo construir una herramienta de seguimiento de experimentos [Lecciones de los ingenieros detrás de Neptune]
- Construyendo y Desplegando Modelos de CV Lecciones Aprendidas de un Ingeniero en Visión por Computadora
- Cómo construir una tubería de aprendizaje automático de principio a fin
Puede leer el artículo completo aquí para obtener detalles completos sobre este proyecto.
Nuestra hipótesis era que, dado que los modelos, como los árboles de decisión, pueden volverse profundos y difíciles de interpretar, la necesidad de encontrar una regla expresiva con baja complejidad pero alta precisión era un problema de optimización intratable que debía resolverse. Además, al simplificar el modelo a través de este enfoque avanzado de XAI, podríamos obtener beneficios adicionales, como exponer sesgos que son importantes en el contexto del uso ético y responsable del aprendizaje automático; al mismo tiempo que facilita el mantenimiento y la mejora del modelo.
Propusimos un enfoque basado en fórmulas booleanas expresivas porque definen reglas con una complejidad ajustable (o interpretabilidad) según las cuales se clasifican los datos de entrada. Esta fórmula puede incluir cualquier operador que se pueda aplicar a una o más variables booleanas (como And o AtLeast), proporcionando así una mayor expresividad en comparación con metodologías basadas en reglas o árboles más rígidos.
En este problema tenemos dos objetivos competitivos: maximizar el rendimiento del algoritmo, mientras se minimiza su complejidad. Por lo tanto, en lugar de seguir el enfoque típico de aplicar uno de dos métodos de optimización – combinar múltiples objetivos en uno solo o restringir uno de los objetivos – elegimos incluir ambos en nuestra formulación. Al hacerlo, y sin pérdida de generalidad, principalmente utilizamos la precisión equilibrada como nuestra métrica de rendimiento general.
Además, al incluir operadores como AtLeast, nos motivó la idea de abordar la necesidad de listas de verificación altamente interpretables, como una lista de síntomas médicos que indican una determinada condición. Es concebible que se tome una decisión utilizando dicha lista de síntomas de manera que se requiera la presencia de un número mínimo para un diagnóstico positivo. De manera similar, en finanzas, un banco puede decidir si proporcionar o no crédito a un cliente en función de la presencia de un cierto número de factores de una lista más larga.
Implementamos con éxito nuestro modelo XAI y lo comparamos con algunos conjuntos de datos públicos relacionados con crédito, comportamiento del cliente y condiciones médicas. Descubrimos que nuestro modelo es generalmente competitivo con otras alternativas conocidas. También descubrimos que nuestro modelo XAI puede potencialmente funcionar con hardware de propósito especial o dispositivos cuánticos para resolver programaciones lineales enteras rápidas (ILP) u optimizaciones binarias cuadráticas irrestrictas (QUBO). La adición de solucionadores QUBO reduce el número de iteraciones, lo que conduce a una aceleración mediante la rápida propuesta de movimientos no locales.
Como se mencionó, los modelos de IA explicables que utilizan fórmulas booleanas pueden tener muchas aplicaciones en atención médica y en el campo de las finanzas de Fidelity (como la calificación crediticia o para evaluar por qué algunos clientes pueden haber seleccionado un producto mientras que otros no lo hicieron). Al crear estas reglas interpretables, podemos alcanzar niveles más altos de conocimiento que pueden conducir a futuras mejoras en el desarrollo o refinamiento de productos, así como a la optimización de campañas de marketing.
De acuerdo con nuestros hallazgos, hemos determinado que la IA explicada utilizando fórmulas booleanas expresivas es apropiada y deseable para aquellos casos de uso que requieren una mayor explicabilidad. Además, a medida que la computación cuántica continúa desarrollándose, prevemos la oportunidad de obtener aceleraciones potenciales utilizando hardware de propósito especial y otros aceleradores de hardware.
El trabajo futuro puede centrarse en aplicar estos clasificadores a otros conjuntos de datos, introducir nuevos operadores o aplicar estos conceptos a otros casos de uso.
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Cómo guardar un modelo entrenado en Python
- ¿Qué significa GPT-3 para el futuro de MLOps? Con David Hershey
- Solicitando Roles Técnicos
- FermiNet Física Cuántica y Química desde Primeros Principios
- Derribando barreras globales para el acceso
- AlphaFold una solución a un gran desafío de 50 años en biología
- Utilizando JAX para acelerar nuestra investigación