Aprende Probabilidad en Ciencias de la Computación con la Universidad de Stanford de forma GRATUITA

Aprende Probabilidad en Ciencias de la Computación de forma GRATUITA con la Universidad de Stanford

Para aquellos que se sumergen en el mundo de la informática o necesitan repasar sus conocimientos de probabilidad, les espera una sorpresa. ¡La Universidad de Stanford ha actualizado recientemente su lista de reproducción de YouTube sobre su curso CS109 con nuevo contenido!

La lista de reproducción consta de 29 conferencias para brindarte conocimientos de primera calidad sobre los conceptos básicos de la teoría de la probabilidad, conceptos esenciales en teoría de la probabilidad, herramientas matemáticas para analizar probabilidades y, finalmente, análisis de datos y aprendizaje automático.

Así que vamos directo al grano…

Conferencia 1: Conteo

Enlace: Conteo

Aprende sobre la historia de la probabilidad y cómo nos ha ayudado a lograr la IA moderna, con ejemplos de la vida real sobre el desarrollo de sistemas de IA. Comprende las fases fundamentales de conteo, el conteo con ‘pasos’ y el conteo con ‘o’. Esto incluye áreas como las redes neuronales artificiales y cómo los investigadores utilizarían la probabilidad para construir máquinas.

Conferencia 2: Combinatoria

Enlace: Combinatoria

La segunda conferencia aborda el siguiente nivel de conteo más serio: esto se llama Combinatoria. La combinatoria es las matemáticas del conteo y la disposición. Sumérgete en tareas de conteo de n objetos, a través de la clasificación de objetos (permutaciones), la elección de k objetos (combinaciones) y la colocación de objetos en r compartimentos.

Conferencia 3: ¿Qué es la probabilidad?

Enlace: ¿Qué es la probabilidad?

Aquí es donde el curso realmente comienza a adentrarse en la probabilidad. Aprende sobre las reglas fundamentales de la probabilidad con una amplia gama de ejemplos y un vistazo al lenguaje de programación Python y su uso con la probabilidad.

Conferencia 4: Probabilidad y Bayes

Enlace: Probabilidad y Bayes

En esta conferencia, aprenderás a utilizar probabilidades condicionales, la regla de la cadena, la ley de la probabilidad total y el teorema de Bayes.

Conferencia 5: Independencia

Enlace: Independencia

En esta conferencia, aprenderás sobre la probabilidad en cuanto a su carácter mutuamente excluyente e independiente, utilizando el operador lógico Y/O. La conferencia repasará una variedad de ejemplos para que puedas comprenderlo mejor.

Conferencia 6: Variables aleatorias y expectativas

Enlace: Variables aleatorias y expectativas

Basado en las conferencias anteriores y tu conocimiento de probabilidades condicionales e independencia, esta conferencia se sumergirá en variables aleatorias, utilizará y producirá la función de masa de probabilidad de una variable aleatoria y podrá calcular las expectativas.

 

Conferencia 7: Varianza Bernoulli Binomial

 

Enlace: Varianza Bernoulli Binomial

Ahora usarás tu conocimiento para resolver problemas cada vez más difíciles. Tu objetivo para esta conferencia será reconocer y utilizar Variables Aleatorias Binomiales, Variables Aleatorias Bernoulli y poder calcular la varianza de las variables aleatorias.

 

Conferencia 8: Poisson

 

Enlace: Poisson

Poisson es excelente cuando tienes una tasa y te importa el número de ocurrencias. Aprenderás sobre cómo se puede utilizar en diferentes aspectos junto con ejemplos de código en Python.

 

Conferencia 9: Variables Aleatorias Continuas

 

Enlace: Variables Aleatorias Continuas

Los objetivos de esta conferencia incluirán sentirte cómodo utilizando nuevas variables aleatorias discretas, integrar una función de densidad para obtener una probabilidad y utilizar una función acumulativa para obtener una probabilidad.

 

Conferencia 10: Distribución Normal

 

Enlace: Distribución Normal

Puede que hayas oído hablar antes de la distribución normal, en esta conferencia, repasarás brevemente la historia de la distribución normal, qué es, por qué es importante y ejemplos prácticos.

 

Conferencia 11: Distribuciones Conjuntas

 

Enlace: Distribuciones Conjuntas

En las conferencias anteriores, habrás trabajado con un máximo de 2 variables aleatorias, el siguiente paso de aprendizaje será trabajar con cualquier número dado de variables aleatorias.

 

Conferencia 12: Inferencia

 

Enlace: Inferencia

El objetivo de aprendizaje de esta conferencia es cómo utilizar multinomios, apreciar la utilidad de las probabilidades logarítmicas y poder usar el teorema de Bayes con variables aleatorias.

 

Conferencia 13: Inferencia II

 

Enlace: Inferencia II

El objetivo de aprendizaje continúa desde la última clase combinando el teorema de Bayes con variables aleatorias.

 

Clase 14: Modelado

 

En esta clase, tomarás todo lo que has aprendido hasta ahora y lo pondrás en perspectiva con problemas de la vida real: modelado probabilístico. Se trata de combinar un montón de variables aleatorias siendo aleatorias juntas.

 

Clase 15: Inferencia General

 

En esta clase, te sumergirás en la inferencia general y, en particular, aprenderás sobre un algoritmo llamado muestreo por rechazo.

 

Clase 16: Beta

 

Esta clase profundizará en las variables aleatorias de probabilidades que se utilizan para resolver problemas del mundo real. Beta es una distribución de probabilidades cuyos valores varían entre 0 y 1.

 

Clase 17: Sumando Variables Aleatorias

 

En este punto del curso, aprenderás sobre la teoría profunda y sumar variables aleatorias es una introducción a cómo obtener resultados de la teoría de la probabilidad.

 

Clase 18: Teorema del Límite Central

 

En esta clase, te sumergirás en el teorema del límite central, que es un elemento importante en la probabilidad. Pasarás por ejemplos prácticos para que puedas comprender el concepto.

 

Clase 19: Bootstrapping y P-Values

 

Ahora pasarás a la teoría de la incertidumbre, el muestreo y el bootstrap, que están inspirados en el teorema del límite central. Pasarás por ejemplos prácticos.

 

Clase 20: Análisis Algorítmico

 

En esta clase, te adentrarás un poco más en la ciencia de la computación con una comprensión profunda del análisis de algoritmos, que es el proceso de encontrar la complejidad computacional de los algoritmos.

 

Clase 21: M.L.E.

 

Enlace: M.L.E.

Esta conferencia se sumergirá en la estimación de parámetros, lo que te proporcionará más conocimientos sobre el aprendizaje automático. Aquí es donde tomas tu conocimiento de probabilidad y lo aplicas al aprendizaje automático e inteligencia artificial. 

 

Conferencia 22: M.A.P.

 

Enlace: M.A.P.

Todavía estamos en la etapa de tomar los principios básicos de la probabilidad y cómo se aplica al aprendizaje automático. En esta conferencia, te centrarás en los parámetros del aprendizaje automático en relación con la probabilidad y las variables aleatorias. 

 

Conferencia 23: Naive Bayes

 

Enlace: Naive Bayes

Naive Bayes es el primer algoritmo de aprendizaje automático que aprenderás en profundidad. Habrás aprendido sobre la teoría de la estimación de parámetros y ahora pasarás a cómo los algoritmos fundamentales como Naive Bayes conducen a ideas como las redes neuronales. 

 

Conferencia 24: Regresión logística

 

Enlace: Regresión logística

En esta conferencia, te sumergirás en un segundo algoritmo llamado regresión logística que se utiliza para tareas de clasificación, que también aprenderás más sobre ellas. 

 

Conferencia 25: Aprendizaje profundo

 

Enlace: Aprendizaje profundo

A medida que te adentras en el aprendizaje automático, esta conferencia se adentrará en más detalles sobre el aprendizaje profundo en función de lo que ya has aprendido. 

 

Conferencia 26: Equidad

 

Enlace: Equidad

Vivimos en un mundo donde el aprendizaje automático se está implementando en nuestra vida diaria. En esta conferencia, analizarás la equidad en torno al aprendizaje automático, con un enfoque en la ética. 

 

Conferencia 27: Probabilidad avanzada

 

Enlace: Probabilidad avanzada

Has aprendido mucho sobre los conceptos básicos de la probabilidad y lo has aplicado en diferentes escenarios y cómo se relaciona con los algoritmos de aprendizaje automático. El siguiente paso es adentrarse un poco más en la probabilidad avanzada. 

 

Conferencia 28: Futuro de la probabilidad

 

Enlace: Futuro de la Probabilidad

La meta de aprendizaje de esta conferencia es aprender sobre el uso de la probabilidad y la variedad de problemas a los que se puede aplicar la probabilidad para resolverlos.

Conferencia 29: Revisión Final

Enlace: Revisión Final

Y por último, pero no menos importante, la última conferencia. Pasarás por las otras 28 conferencias y abordarás cualquier incertidumbre.

Conclusión

Poder encontrar buen material para tu viaje de aprendizaje puede ser difícil. Este material del curso de probabilidad para ciencias de la computación es asombroso y puede ayudarte a comprender conceptos de probabilidad de los que no estabas seguro o necesitabas repasar.

****[Nisha Arya](https://www.linkedin.com/in/nisha-arya-ahmed/)**** es una científica de datos y escritora técnica independiente. Está particularmente interesada en brindar consejos de carrera o tutoriales en ciencia de datos y conocimientos teóricos sobre ciencia de datos. También desea explorar las diferentes formas en que la inteligencia artificial puede beneficiar la longevidad de la vida humana. Una aprendiz entusiasta, buscando ampliar sus conocimientos tecnológicos y habilidades de escritura, al tiempo que ayuda a guiar a los demás.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Científicos secuencian la última pieza del genoma humano el cromosoma Y

El consorcio Telomere-to-Telomere ha completado la secuenciación del genoma humano al agregar el cromosoma Y completa...

Inteligencia Artificial

Descifrando el código del contexto Técnicas de vectorización de palabras en PNL

Te mudaste a una nueva ciudad lejos de tu país, donde casualmente te encontraste con alguien en una cafetería. Una jo...

Inteligencia Artificial

Nueva forma revolucionaria de entrenar chips neuromórficos

Un equipo de investigación ha desarrollado un chip neuromórfico que no requiere entrenamiento a través de software ex...

Inteligencia Artificial

Comprendiendo la IA Explicable y la IA Interpretable

Como resultado de los avances tecnológicos recientes en el aprendizaje automático (ML), los modelos de ML ahora se ut...