Probabilidad condicional y Teorema de Bayes simplemente explicados

Explicación sencilla de la probabilidad condicional y el Teorema de Bayes

La probabilidad condicional y el teorema de Bayes son ideas fundamentales en estadística que incluso los profanos han escuchado. El teorema de Bayes también da lugar a una rama separada de la estadística, es decir, la inferencia bayesiana.Inferencia bayesiana.

En Ciencia de Datos, principalmente trabajamos en un mundo frecuentista, por lo que, en mi opinión, no somos totalmente conscientes de los principios bayesianos.

En mi próximo conjunto de artículos, espero cubrir algunos temas en estadística bayesiana para profundizar mi comprensión y transmitirlo de manera comprensible.

En esta publicación, cubriremos las dos ideas principales en estadística bayesiana: probabilidad condicional y teorema de Bayes.

Probabilidad Marginal

El primer paso es definir la probabilidad marginal. Creo que a menudo se complica demasiado cuando en realidad es un concepto muy simple.

La probabilidad marginal es lo que la mayoría de las personas quieren decir/referirse cuando hablan de probabilidad. Es simplemente la probabilidad de que ocurra cierto evento. Por ejemplo, la probabilidad marginal de voltear una cabeza, P(H), en una moneda es simplemente 0.5:

Ecuación generada en LaTeX por el autor.

La probabilidad marginal de sacar un diamante, P(D), de una baraja de cartas es 0.25:

Ecuación generada en LaTeX por el autor.

¡Es realmente tan simple!

Probabilidad Conjunta

Veamos un paso más allá, ¿cuál es la probabilidad de voltear dos caras? A esto se le llama probabilidad conjunta porque está uniendo dos eventos juntos.

Para resolver este problema, podemos simplemente enumerar los posibles resultados al voltear dos monedas: {Cara, Cara}, {Cara, Cruz}, {Cruz, Cara}, {Cruz, Cruz}. Por lo tanto, la probabilidad de voltear dos caras es 0.25:

Ecuación generada en LaTeX por el autor.

Donde es el símbolo de intersección, que básicamente se traduce como ‘y’. Entonces, la ecuación anterior pregunta cuál es la probabilidad de que ambos eventos (voltear monedas) sean verdaderos.

En este caso, la probabilidad conjunta es igual al producto de las dos probabilidades marginales, ya que los dos eventos (volteos de monedas) son independientes (el resultado de un volteo de moneda no afecta el resultado del otro volteo de moneda).

Otra propiedad importante es que las probabilidades conjuntas son conmutativas, lo que significa:

Ecuación generada en LaTeX por el autor.

¡Esto será útil cuando derivemos el teorema de Bayes!

Probabilidad Condicional

La probabilidad condicional es cuando determinamos la probabilidad ‘dada’ que ocorra alguna condición/evento. Un ejemplo lo explicará mejor:

¿Cuál es la probabilidad de elegir las 3 cartas de diamantes de una baraja de cartas, dado que hemos elegido una carta roja?

Bueno, la probabilidad de elegir un 3 de diamantes, P(3D), es:

Ecuación generada en LaTeX por el autor.

Y la probabilidad de elegir una carta roja, P(R), es:

Ecuación generada en LaTeX por el autor.

Por lo tanto, la probabilidad de elegir las 3 cartas de diamantes dado que tenemos una carta roja, P(3D | R), es entonces:

Ecuación generada en LaTeX por el autor.

Otra forma de ver esto: dado todas las cartas rojas, ¿cuáles son las posibilidades de elegir los 3 diamantes? Básicamente tenemos un subconjunto de datos del cual elegimos los 3 diamantes.

La definición matemática oficial para dos eventos A y B es:

Ecuación generada en LaTeX por el autor.

Entonces, en nuestro caso tenemos que P(A) = P(3D) y P(B) = P(R). Uno puede ver que al sustituir estas probabilidades en la ecuación anterior, obtenemos la probabilidad de 1/26 como se muestra arriba.

Teorema de Bayes

Reorganizando la ecuación de probabilidad condicional obtenemos:

Ecuación generada en LaTeX por el autor.

Luego, sustituyendo nuevamente la fórmula condicional (recuerda que las distribuciones conjuntas son conmutativas):

Ecuación generada en LaTeX por el autor.

Y luego reorganizando:

Ecuación generada en LaTeX por el autor.

¡Esto es el teorema de Bayes!

El teorema se puede desglosar de la siguiente manera:

  • P(A) se conoce como el prior, que es lo que creemos que es la probabilidad antes de observar nuestros datos. Esta es una probabilidad marginal de este evento.
  • P(B) es la probabilidad de observar los datos/evento por sí solos. Esta es una probabilidad marginal de este evento. A veces se le llama la constante de normalización.
  • P(B | A) es la probabilidad dada lo que ‘creemos’, que se conoce como la verosimilitud.
  • P(A | B) es el posterior, que es la probabilidad de nuestra ‘creencia’ después de observar nuestros datos.

Esto puede parecer un poco arbitrario en este momento, pero pasaremos por un ejemplo para hacer esta teoría más concreta.

Ley de la probabilidad total

La fórmula final que discutiremos es la Ley de probabilidad total:

Ecuation generada en LaTeX por el autor.

Se puede pensar en esta suma de dos formas diferentes:

  • La suma de todas las regiones superpuestas A cubre B.
  • El promedio ponderado de A en B

¡Aquí hay un excelente hilo de Stat Exchange que explica de manera increíble la intuición de esta fórmula!

Ejemplo

Ahora vamos a pasar por un ejemplo para ver el teorema de Bayes en acción.

Supongamos que tengo dos barajas de cartas: una es una baraja normal, D_1, y la otra es una baraja solo con las cartas rojas (diamantes y corazones), D_2.

Selecciono una baraja al azar y saco el 3 de diamantes (3D). ¿Cuál es la probabilidad de que este 3 de diamantes provenga de la baraja normal (D_1)?

Comencemos estableciendo las probabilidades previas de seleccionar al azar la baraja 1, P(D_1), o la baraja 2, P(D_2). Esto es simplemente 50-50 porque es aleatorio:

Ecuation generada en LaTeX por el autor.

Ahora calculemos las verosimilitudes:

Ecuation generada en LaTeX por el autor.

La segunda baraja solo tiene cartas rojas, por lo tanto, solo tiene 26 cartas y el 3 de diamantes es una de ellas.

Luego, calculamos la probabilidad de observar el 3 de diamantes utilizando la Ley de probabilidad total:

Ecuation generada en LaTeX por el autor.

Combinando todo esto utilizando el teorema de Bayes:

Ecuation generada en LaTeX por el autor.

¡Esta es la probabilidad de sacar el 3 de diamantes de la baraja 1!

Intuitivamente, esta probabilidad tiene sentido ya que es el doble de probable que saquemos el 3 de diamantes de la segunda baraja.

Conclusión

En este artículo hemos pasado por los pasos para comprender los conceptos de probabilidad condicional y el teorema de Bayes:

  • La probabilidad marginal es la probabilidad de que ese evento ocurra
  • La probabilidad conjunta es la probabilidad de que ocurran dos eventos
  • La probabilidad condicional es la probabilidad de que ocurra un evento dado que ha ocurrido otro evento
  • El teorema de Bayes es una versión alternativa de la fórmula de probabilidad condicional donde tenemos cierta información previa para calcular la probabilidad condicional de un evento.

Artículo originalmente publicado aquí. Repostado con permiso.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

El camino hacia una IA creíble y orientada al valor comienza haciendo las preguntas correctas.

Los avances recientes en IA generativa han captado la atención de las empresas, independientemente de su tamaño, al i...

Inteligencia Artificial

¿Qué tienen en común una medusa, un gato, una serpiente y un astronauta? Matemáticas

Un nuevo algoritmo describe los diversos movimientos que ayudan a los animales a navegar por su entorno cambiando sus...

Inteligencia Artificial

PoisonGPT Hugging Face LLM difunde noticias falsas

Los Grandes Modelos de Lenguaje (LLMs, por sus siglas en inglés) han ganado una popularidad significativa en todo el ...

Inteligencia Artificial

Presentamos OpenLLM Biblioteca de código abierto para LLMs

Una plataforma fácil de usar para operar modelos de lenguaje grandes (LLMs) en producción, con características como a...

Inteligencia Artificial

Robot puede ordenar la ropa en un dormitorio desordenado

Ken Goldberg en la Universidad de California, Berkeley, y sus colegas desarrollaron un sistema de robots para recoger...