Probabilidad

¿Qué distribución usar? ¡Examina el proceso generativo!

Tenía pendiente contar algo sobre el (oscuro) artículo A Brief History of Generative Models for Power Law and Lognormal Distributions. Tiene una cosa buena y una mala.

La buena —y más interesante— es que ilustra cómo pensar sobre la conveniencia de usar una distribución determinada a la hora de modelar un fenómeno concreto. Uno de los procedimientos más fértiles consiste en indagar sobre el proceso generativo que conduce a la distribución en cuestión. Así, usamos la distribución normal porque sabemos que la agregación de pequeños errores etc.; o la Poisson porque tenemos una población muy grande cuyos sujetos tiran monedas al aire etc.; etc.

Kant: probabilidad y apuestas

Hace tres años mencioné la definición de probabilidad que Savage inculcó en su prole:

My father, Leonard Jimmie Savage, was an early advocate of subjective probability. He encouraged me from a young age to think of the probability of an event as the amount I would pay for a gamble that would pay $100 if the event occurred.

Sam Savage, 2004 (fuente)

Pero hay (!por supuesto!) antecedentes. Kant, en su Crítica de la Razón Pura, escribe (con mi subrayado):

Otra forma de llegar a la distribución normal

¿Cómo llegamos a la distribución normal? Típicamente, por aplicación —implícita, explícita, rutinaria o litúrgica— del teorema central del límite: una variable aleatoria es normal porque la creemos consecuencia de pequeñas perturbaciones independientes.

Pero hay otra vía.

Supongamos que tenemos tres —o, para el caso, $n > 1$— variables aleatorias continuas independientes con la misma distribución. Su densidad, por tanto, puede factorizarse así:

$$f(x_1, x_2, x_3) = f(x_1) f(x_2) f(x_3).$$

Supongamos además que $f(x_1, x_2, x_3)$ depende solo de $x_1^2 + x_2^2 + x_3^2$, la distancia al origen. De otro modo, que

Aristóteles sobre lo probable y lo improbable (y, más concretamente, sobre la frecuencia de eventos muy improbables)

Un pasaje de un libro que no viene a cuento me puso sobre la pista de una cita de Aristóteles (Retórica, Libro II, Cap. 24), que dice así:

[…] también en los retóricos hay un entimema espurio que se basa en lo que es probable pero no en general, sino probable en determinada circunstancia. Pero ésta no será universal, como lo que dice Agatón:

Quizá alguien diría que eso mismo es probable, que a los mortales les ocurren muchas cosas improbables.

¿Por qué son los eventos (en probabilidad) conjuntos y no otra cosa?

I. Tidyverse (como ejemplo a no seguir)

Uno de los grandes problemas del tidyverse en R es que para él, todo son tablas. Existe solo una manera de agrupar información: las tablas. Fuera de ese estrecho marco, existen otras estructuras de datos: árboles, listas, diccionarios, tablas hash, vectores, tuplas, listas linkadas, listas doblemente linkadas, etc. Todo aquello, en definitiva, que en otros lenguajes de programación se explica en el capítulo “Colecciones” del manual.

El origen de uso moderno del término "variable aleatoria" podría estar en un artículo publicado en italiano en una revista oscura en 1913

Sería muy difícil haber aprendido algo de probabilidad sin haber oído o leído a alguien quejarse de que el término “variable aleatoria” es desafortunado; que, en puridad, una “variable aleatoria” es una función; pero que todo el mundo lo hace y que no queda otra que cargar —¡una vez más!— con el peso del consenso y la tradición.

Pero cabe preguntarse: ¿hasta dónde y cuándo se remonta? El término tiene evocaciones viejunas y uno está tentado de buscar sus orígenes en, no sé, algún Bernoulli —¿Jacobo?—, Laplace o el mismo Pascal. Pero estos autores todavía no habían alcanzado el nivel de abstracción al que estamos acostumbrados hoy: donde nosotros usaríamos “variable aleatoria” ellos hablan de eventos, bolas, tiradas de monedas, ganancias de un jugador u otras concreciones.

"Ensembles" meteorológicos: ¿probabilísticos o no?

Primero, una brevísima introducción al uso de ensembles en meteorología:

  1. Los metereólogos tienen modelos físicos deterministas que permiten proyectar a futuro el estado presente del tiempo (o de otros estados presentes hipotéticos).
  2. Sin embargo, esos modelos (tanto por su propia naturaleza como por las simplificaciones computacionales sin cuyo concurso las proyecciones serían materialmente inviables) son muy sensibles a las condiciones iniciales de partida (véase la gráfica anterior).
  3. Luego se realizan ensembles, i.e., proyecciones partiendo de pequeñas variaciones de las situaciones iniciales, que luego se agregan de cierta manera (para más detalles, consúltese el libro Física del caos en la predicción meteorológica y, en particular, el capítulo 27).

Y ahora, las preguntas son:

Un problema no tan simple de probabilidades resuelto usando frecuencias naturales

El otro día se propuso un problema de probabilidad sencillo en su planteamiento aunque de solución no trivial (véase el planteamiento y una solución) que tenía como intención original poner a prueba las intuiciones de las probabilidades de eventos.

El problema se enuncia así:

Una pequeñísima proporción de recién nacidos tienen cierto rasgo (genético). Se realizan dos pruebas, A y B, para detectarlo. Sin embargo, las pruebas no son muy precisas:

  • El 70% de los recién nacidos con test A positivo tienen el rasgo (y el 30% no).
  • El 20% de los recién nacidos con test B positivo tienen el rasgo (y el 80% no). También se sabe que las pruebas son independientes en el siguiente sentido:
  • Si un recién nacido tiene el rasgo, el resultado de la prueba A es independiente del de la prueba B.
  • Si un recién nacido no tiene el rasgo, el resultado de la prueba A es independiente del de la prueba B. Ahora, un recién nacido es positivo en ambas pruebas. ¿Puedes estimar la probabilidad de que tenga el rasgo?

Una solución algebraica (con el teorema de Bayes de por medio) puede consultarse en uno de los enlaces proporcionados más arriba. Como anunciaba, sin ser extraordinariamente compleja, no es trivial. También será útil pensar, más que en términos de probabilidades, de odds.

Probabilidades subjetivas: una redefinición "profesional"

Hace un tiempo traje a estas páginas (aquí) la definición de probabilidad (en su variante subjetivísima) que dizque Sam Savage aprendió de su padre. La reproduzco aquí:

He [L.J. Savage] encouraged me from a young age to think of the probability of an event as the amount I would pay for a gamble that would pay $100 if the event occurred.

Pero, ¿cómo hacen los pros? ¿Cómo hacen realmente los que se ganan la vida haciendo estimaciones probabilísticas subjetivas?

¿Es Bunge un fraude?

Mi primer contacto con la obra de Mario Bunge fue en mi época de estudiante en Zaragoza. Por algún motivo —probablemente, porque en aquella época repasar los lomos de los libros en las bibliotecas y librerias era el equivalente al perder el tiempo en internet de hogaño— cayó en mis manos un libro suyo. Solo recuerdo que leerlo requirió más empeño que aprovechamiento trujo a aquel chaval de provincias.

El segundo —hará un par de años— fue una grabación de una conferencia que dio en Buenos Aires. La guardé en algún lugar para comentarla en estas páginas porque de todo lo que contaba en una hora no alcancé a darle la razón —más bien, el beneficio de la duda— más que en que llovía en Buenos Aires esa tarde. Desafortunadamente, no he podido dar otra vez con ella.