Visión Probabilística del Análisis de Componentes Principales

Visión Probabilística del Análisis de Componentes Principales' - Probabilistic Perspective of Principal Component Analysis

Variables Latentes, Expectation-Maximization & Inferencia Variacional

Buscando Variables Ocultas (Crédito de la imagen: Autor)

Una de las técnicas de reducción de dimensiones más utilizadas en ciencia de datos y aprendizaje automático es el Análisis de Componentes Principales (PCA). Anteriormente, ya hemos discutido algunos ejemplos de aplicación de PCA en un pipeline con Máquina de Vectores de Soporte y aquí veremos una perspectiva probabilística de PCA para proporcionar una comprensión más sólida y completa de la estructura subyacente de los datos. Una de las mayores ventajas de PCA Probabilístico (PPCA) es que puede manejar valores faltantes en un conjunto de datos, lo cual no es posible con PCA clásico. Dado que discutiremos el Modelo de Variables Latentes y el algoritmo Expectation-Maximization, también puedes consultar esta publicación detallada.

¿Qué puedes esperar aprender de esta publicación?

  1. Introducción breve a PCA.
  2. Elementos matemáticos fundamentales para PPCA.
  3. ¿Algoritmo Expectation Maximization (EM) o Inferencia Variacional? ¿Qué usar para la estimación de parámetros?
  4. Implementación de PPCA con TensorFlow Probability para un conjunto de datos de juguete.

¡Vamos a sumergirnos en esto!

1. Descomposición en Valores Singulares (SVD) y PCA:

Uno de los conceptos más importantes en Álgebra Lineal es el SVD y es una técnica de factorización para matrices reales o complejas donde, por ejemplo, una matriz (digamos A) puede factorizarse como:

donde U,Vᵀ son matrices ortogonales (la transpuesta es igual a la inversa) y Σ sería una matriz diagonal. A no necesita ser una matriz cuadrada, supongamos que es una matriz N×D, por lo que ya podemos pensar en esto como nuestra matriz de datos con N instancias y D características. U,V son matrices cuadradas (N×N) y (D×D) respectivamente, y Σ será entonces una matriz N×D donde el subconjunto D×D será diagonal y las entradas restantes serán cero.

También conocemos la descomposición de valores propios. Dada una matriz cuadrada (B) que es diagonalizable, se puede factorizar como:

donde Q es la matriz cuadrada N×N cuya columna i-ésima es el vector propio q_i de B, y Λ es la matriz diagonal cuyos elementos diagonales son los valores propios correspondientes.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Stability AI presenta StableChat una vista previa de investigación de un asistente de IA conversacional similar a ChatGPT o Claude.

I had trouble accessing your link so I’m going to try to continue without it. Stability AI ha presentado Stable...

Inteligencia Artificial

Grupo de noticias dice que los chatbots de inteligencia artificial dependen en gran medida del contenido de noticias

La News Media Alliance, un grupo comercial que representa a los periódicos, afirma que los chatbots de inteligencia a...

Inteligencia Artificial

Mejorando los Modelos de Lenguaje con Indicaciones Analógicas para Mejorar el Razonamiento

En los últimos años, los modelos de lenguaje han demostrado una notable habilidad para entender y generar texto simil...

Inteligencia Artificial

Luma AI lanza Genie un nuevo modelo de IA generativa en 3D que te permite crear objetos en 3D a partir de texto.

En el modelado 3D, crear objetos 3D realistas a menudo ha sido una tarea compleja y que consume mucho tiempo. Las per...

Inteligencia Artificial

Conoce AUDIT Un modelo de edición de audio guiado por instrucciones basado en modelos de difusión latente

Los modelos de difusión están avanzando rápidamente y facilitando la vida. Desde el Procesamiento del Lenguaje Natura...