¿De qué matriz son los "embeddings" una factorización?
Hoy, embeddings. Esto va de reducir la dimensionalidad de un espacio generado por palabras (procedentes de textos). Si a cada palabra le asignamos un vector índice (todo ceros y un uno donde le corresponde), la dimensión del espacio de palabras es excesiva. La ocurrencia de algunos es asociar a cada palabra, $W_i$, un vector $w_i$ corto (p.e., 100) con entradas $w_{ij}$ a determinar de la manera que se explica a continuación. ...