La desmitificación de la dependencia y por qué es importante en la inferencia causal y la validación causal
La desmitificación de la dependencia y su importancia en la inferencia causal y la validación causal
Una guía paso a paso para comprender el concepto de dependencia y cómo aplicarlo para validar gráficos dirigidos acíclicos utilizando Python
![Foto de Ana Municio en Unsplash](https://ai.miximages.com/miro.medium.com/v2/resize:fit:640/format:webp/1*aGmlcfxgJWEGU5QCgbRnAw.jpeg)
Introducción
La Inferencia Causal es una rama emergente de la ciencia de datos que se preocupa por determinar la relación de causa y efecto entre eventos y resultados, y tiene el potencial de agregar significativamente al valor que el aprendizaje automático puede generar para las organizaciones.
Por ejemplo, un algoritmo tradicional de aprendizaje automático puede predecir qué clientes de préstamos probablemente incumplirán, lo que permite una intervención proactiva con los clientes. Sin embargo, aunque este algoritmo será útil para reducir los incumplimientos de préstamos, no tendrá concepto de por qué ocurrieron y, aunque la intervención proactiva es útil, conocer las razones de los incumplimientos permitiría abordar la causa subyacente. En este mundo, la intervención proactiva puede no ser necesaria porque los factores que llevan al incumplimiento hayan sido curados permanentemente.
Esta es la promesa de la Inferencia Causal y por qué tiene el potencial de ofrecer un impacto y resultados significativos para aquellas organizaciones que pueden aprovechar ese potencial.
Existen diferentes enfoques, pero el enfoque más común generalmente comienza por aumentar los datos con un “Grafo Dirigido Acíclico” que encapsula y visualiza las relaciones causales en los datos, y luego utiliza técnicas de inferencia causal para plantear preguntas del tipo “qué pasaría si”.
- Luma AI lanza Genie un nuevo modelo de IA generativa en 3D que te permite crear objetos en 3D a partir de texto.
- La caja de herramientas del científico de datos Análisis sintáctico
- Zephyr 7B Beta Un buen maestro es todo lo que necesitas
El Problema
Un Grafo Dirigido Acíclico (DAG) que encapsula las relaciones causales en los datos se construye típicamente de forma manual (o semimanual) por científicos de datos y expertos en el dominio que trabajan juntos. Por lo tanto, el DAG puede ser incorrecto, lo que invalidaría cualquier cálculo causal y llevaría a conclusiones erróneas y decisiones potencialmente incorrectas.
La Oportunidad
Existen diferentes técnicas para la “Validación Causal” (el proceso de validar el DAG frente a los datos) y si estas técnicas funcionan, pueden minimizar o eliminar errores en el DAG, garantizando así que…
We will continue to update Zepes; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Estudio intenta desbloquear el potencial de las LLMs en la resolución de problemas matemáticos
- Segundo candidato impulsado por IA busca cargo en Japón
- Este artículo AI propone AugGPT un enfoque de ampliación de datos de texto basado en ChatGPT.
- Conoce a Skywork-13B una familia de grandes modelos de lenguaje (LLMs) entrenados en un corpus de más de 3.2 billones de tokens extraídos tanto de textos en inglés como en chino.
- Hablar solo sobre lo que has leído ¿Pueden los LLM generalizar más allá de sus datos de preentrenamiento?
- Explora técnicas avanzadas para la optimización de hiperparámetros con Amazon SageMaker Automatic Model Tuning
- Cómo enseñamos a Google Translate a reconocer los homónimos