Error de Calibración Esperado (ECE) – una explicación visual paso a paso

Explicación visual del ECE

Con un ejemplo simple y código Python

imagen por el autor

En tareas de clasificación, los modelos de aprendizaje automático producen probabilidades estimadas o también llamadas confianzas (ver imagen de arriba). Estas nos indican qué tan seguros está el modelo en sus predicciones de etiquetas. Sin embargo, para la mayoría de los modelos, estas confianzas no se alinean con las frecuencias reales de los eventos que está prediciendo. ¡Necesitan ser calibradas!

La calibración del modelo tiene como objetivo alinear las predicciones de un modelo con las probabilidades reales y asegurar así que las predicciones de un modelo sean confiables y precisas (ver esta publicación de blog para obtener más detalles sobre la importancia de la calibración del modelo).

Entonces, la calibración del modelo es importante, pero ¿cómo la medimos? Hay algunas opciones, pero el propósito y enfoque de este artículo es explicar y mostrar solo una medida simple pero relativamente suficiente para evaluar la calibración del modelo: el Error de Calibración Esperado (ECE). Calcula el error promedio ponderado de las “probabilidades” estimadas, lo que nos da un valor único que podemos usar para comparar diferentes modelos.

Repasaremos la fórmula de ECE tal como se describe en el artículo: “Sobre la calibración de las redes neuronales modernas”. Para simplificar, analizaremos un pequeño ejemplo con 9 puntos de datos y objetivos binarios. Luego, también codificaremos este ejemplo simple en Python, y por último, explicaremos cómo agregar unas pocas líneas de código para que también funcione para la clasificación de múltiples clases.

Definición

ECE mide qué tan bien las “probabilidades” estimadas de un modelo coinciden con las probabilidades reales (observadas), tomando un promedio ponderado de la diferencia absoluta entre la precisión (acc) y la confianza (conf):

La medida implica dividir los datos en M intervalos igualmente espaciados. B se usa para representar “intervalos” y m para el número del intervalo. Volveremos a las partes individuales de esta fórmula, como B, |Bₘ|, acc(Bₘ) y conf(Bₘ), con más detalle más adelante. Primero, veamos nuestro ejemplo, que nos ayudará a hacer que la fórmula sea más fácil de entender paso a paso.

Ejemplo

Tenemos 9 muestras con probabilidades estimadas o también llamadas ‘confianzas’ (pᵢ) para predecir la etiqueta positiva 1. Si…

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Ciencias de la Computación

Impulsado hacia lo autónomo

El camino de Cindy Alejandra Heredia desde Laredo, Texas, la llevó a liderar el equipo de vehículos autónomos del MIT...

Ciencias de la Computación

Matthew Kearney Trayendo la inteligencia artificial y la filosofía al diálogo.

La doble especialización en informática y filosofía tiene como objetivo avanzar en el campo de la ética de la intelig...

Inteligencia Artificial

Conoce a Tarsier Una biblioteca de código abierto en Python para habilitar la interacción web con LLMs multimodales como GPT4

A medida que la IA continúa creciendo y afectando todos los aspectos de nuestras vidas, se está llevando a cabo una i...

Inteligencia Artificial

Investigadores de la Universidad Sorbona presentan UnIVAL un modelo de IA unificado para tareas de imagen, video, audio y lenguaje.

Un gran avance en la creación de modelos generalistas es la aparición de Modelos de Lenguaje Grandes (LLMs, por sus s...

Inteligencia Artificial

Conoce a Baichuan-13B el modelo de lenguaje de código abierto de China para competir con OpenAI

Wang Xiaochuan, el fundador del motor de búsqueda chino Sogou, ha lanzado un nuevo modelo de lenguaje enorme llamado ...