Post-bayesianismo, una microintroducción
Hace muchos años leí Tackling the Poor Assumptions of Naive Bayes Text Classifiers. Es un artículo que viene a decir que, efectivamente, el método del naive Bayes es muy útil en NLP, un clasificador que se construye a partir de primeros principios y se puede usar directamente, tal cual viene en la caja, para obtener resultados decentes. Sin embargo, la experiencia indica que el método, en la práctica, funciona mejor si se lo somete a una serie de cambios ad hoc. Con estas modificaciones, el clasificador resultante guarda cierta similitud con respecto al original: cambia la priori por otra cosa que se le parece pero que no es igual; cambia la verosimilitud por otra cosa que es, de nuevo, parecida pero no exactamente la misma, etc. Pero funciona algo mejor en la práctica. Es decir, que aquello que se construye desde primeros principios puede verse superado por una versión tuneada.
Algo parecido se plantea en el artículo Bayes and big data: the consensus Monte Carlo algorithm. Ahí se modifica la forma teórica de la posteriori para adaptarla a las necesidades concretas del problema en cuestión: poder particionar el proceso de muestreo. No se trata solo de lanzar varias cadenas en paralelo que operan sobre los mismos datos, sino de usar un subconjunto de los datos en cada cadena. Lo curioso es que, en lugar de usar la priori $p(\theta)$, propone usar $p^{1/C}(\theta)$, donde $C$ es el número de simulaciones independientes, para preservar la cantidad de información disponible en el sistema. Sin embargo, la teoría parece inducir a pensar que la priori de los parámetros es independiente de qué datos estén siendo considerados en cada submuestra o partición de los datos originales completos.
Estos precedentes me han servido de sistema de referencia para encuadrar mejor el llamado post-bayesianismo. El post-bayesianismo (y véase también esto) es un conjunto de técnicas que parte de los modelos bayesianos teóricos (típicamente, generativos) que uno puede construir desde primeros principios pero va más allá de ellos introduciendo modificaciones —como, p.e., aplicar un determinado exponente a la verosimilitud para aplastarla— que ayuden a obtener mejores resultados prácticos en determinadas situaciones concretas. Aunque ello implique abandonar el rigor deductivo e introducir variantes tácticas salidas de la chistera de los trucos particulares de cada uno. Así las cosas, podría haberse llamado bayesianismo hiper-subjetivo, ¿no?
Nota
He editado esta entrada para añadir la referencia al artículo mencionado en el primer párrafo. En la primera versión no recordaba la referencia exacta. Alfonso E. Romero tuvo la gentileza de enviarme la referencia exacta.