Araucana XAI Explicabilidad Local con Árboles de Decisión para la Salud
Explicabilidad Local en Salud con Árboles de Decisión Araucana XAI
Presentación de un nuevo enfoque de XAI agnóstico de modelo, post hoc basado en CART para proporcionar explicaciones locales que mejoran la transparencia de la toma de decisiones asistida por IA en el campo de la salud
![El término 'Araucana' proviene del pino araucaria, originario de Chile, pero también es el nombre de una hermosa raza de gallina doméstica. © MelaniMarfeld de Pixabay](https://miro.medium.com/v2/resize:fit:640/format:webp/1*u8YoU6xhMxcGEe2qZCGmew.jpeg)
¿Por qué la IA se equivocó en este caso?
En el ámbito de la inteligencia artificial, existe una creciente preocupación por la falta de transparencia y comprensibilidad de los sistemas de IA complejos. Investigaciones recientes se han dedicado a abordar este problema mediante el desarrollo de modelos explicativos que arrojan luz sobre el funcionamiento interno de sistemas opacos como el boosting, bagging y técnicas de deep learning.
Explicabilidad Local y Global
Los modelos explicativos pueden arrojar luz sobre el comportamiento de los sistemas de IA de dos formas distintas:
- Explicabilidad global. Los explicadores globales proporcionan una comprensión integral de cómo se comporta el clasificador de IA en su conjunto. Su objetivo es descubrir patrones generales, tendencias, sesgos y otras características que se mantienen consistentes en diferentes entradas y escenarios.
- Explicabilidad local. Por otro lado, los explicadores locales se centran en brindar información sobre el proceso de toma de decisiones del sistema de IA para una única instancia. Al resaltar las características o entradas que influyeron significativamente en la predicción del modelo, un explicador local ofrece una idea de cómo se llegó a una decisión específica. Sin embargo, es importante tener en cuenta que estas explicaciones pueden no ser aplicables a otras instancias ni proporcionar una comprensión completa del comportamiento general del modelo.
La creciente demanda de sistemas de IA confiables y transparentes no solo se debe a la amplia adopción de modelos complejos de caja negra, conocidos por su precisión pero también por su limitada interpretabilidad. También está motivada por la necesidad de cumplir con nuevas regulaciones destinadas a proteger a las personas contra el mal uso de datos y aplicaciones basadas en datos, como la Ley de Inteligencia Artificial, el Reglamento General de Protección de Datos (GDPR) o los Principios Éticos para la Inteligencia Artificial del Departamento de Defensa de los Estados Unidos.
- Revisión de Pictory (julio de 2023) ¿El mejor generador de video de IA?
- Kevin Baragona, Co-Fundador y CEO de DeepAI – Serie de Entrevistas
- Un novedoso modelo de aprendizaje automático acelera la evaluación de catalizadores de descarbonización de meses a milisegundos
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Un estudio encuentra que ChatGPT aumenta la productividad de los trabajadores en algunas tareas de escritura
- Tutorial de Docker para Científicos de Datos
- Desbloquea el éxito de DataOps con DataOps.live – ¡Destacado en la Guía de Mercado de Gartner!
- La cirugía cerebral impulsada por IA se convierte en una realidad en Hong Kong
- Conoce FlexGen un motor de generación de alto rendimiento para ejecutar grandes modelos de lenguaje (LLM) con memoria limitada de GPU.
- Este artículo de IA presenta una novedosa clase de objetivos sin simulación para el aprendizaje de modelos generativos estocásticos en tiempo continuo entre distribuciones generales de origen y destino.
- Un Enfoque Práctico para la Ingeniería de Características en Aprendizaje Automático