Más sobre la estimación de probabilidades de eventos que no se repiten

Hace un tiempo hablé sobre la estimación de probabilidades de eventos que ocurren una única vez: elecciones, etc. Argumentaba cómo pueden ser descompuestos en dos partes muy distintas cualitativamente: una asociada a eventos que sí que se han repetido; otra, específica y única. El tamaño relativo de ambas componentes afecta a eficacia del mecanismo de estimación.

Esta vez quiero ilustrarlo con un ejemplo extraído, traducido y adaptado de aquí que ilustra el procedimiento.

El autor se plantea la estimación de la probabilidad de que se desencadene una guerra entre ambas Coreas con más de 1000 fallecidos en los próximos 10 años. Y dice al respecto:

  • Los malos predictores argumentarían intuitivamente alrededor de cuestiones sobre lo locos que están los norcoreanos o lo inhabitual de las guerras en los últimos años.
  • Los superforecasters (a la Tetlock) dirían:
    • La última guerra entre ambos países ocurrió hace más de 50 años.
    • Por lo tanto (aplicando el principio de indiferencia o su derivada, el principio de sucesión), la probabilidad de una guerra tal no puede estar muy por encima del 20%.
    • La probabilidad de que ocurra este evento en esta década tiene que ser algo más baja (Corea del Norte tiene menos aliados hoy en día, etc.) y la dejan en un 15%.

Obviamente, que el argumento en particular y el método en general funcionen es una cuestión empírica. Es imposible evaluar si la probabilidad de ese evento en particular es o no del 15%, pero sí que es posible evaluar la calibración de series de predicciones realizadas con métodos similares al anterior y, bueno, las evidencias parecen estar a su favor: véase, por ejemplo, el libro citado más arriba o, para los impacientes, estos resultados de calibración.