Matematización oscurantista

Hoy he participado en una discusión en Twitter acerca del artículo Eficacia predictiva de la valoración policial del riesgo de la violencia de género que sus autores resumen así:

Para prevenir la violencia de género se desarrolló el protocolo denominado «valoración policial del riesgo» (VPR) para su uso por profesionales de las fuerzas de seguridad del Estado. Este protocolo es el núcleo principal del sistema VioGén, del Ministerio del Interior español, y que se aplica de forma reglamentaria en todas las situaciones de violencia de género denunciadas. Para evaluar la eficacia predictiva de la VPR se realizó un estudio longitudinal prospectivo con un seguimiento de 3 y 6 meses de 407 mujeres que habían denunciado ser víctimas de violencia por parte de su pareja o expareja. Los resultados obtenidos por medio del análisis de regresión logística ofrecen una AUC = 0.71 para intervalos de tiempo en riesgo de 3 meses (p < .003) y con una odds ratio de 6.58 (IC 95%: 1.899-22.835). La sensibilidad de la VPR fue del 85% y la especificidad, del 53.7%. Los resultados indican que la VPR muestra una buena capacidad predictiva y unas características psicométricas adecuadas para la tarea para la que se diseñó.

¿Qué puede colgar de un árbol?

R

Predicciones puntuales:

O (sub)modelos:

Y parece que ahora también distribuciones:

Notas:

  • Obviamente, la clasificación anterior no es mutuamente excluyente.
  • La tercera gráfica está extraída de Transformation Forests, un artículo donde se describe el paquete trtf de R.
  • Los autores dicen que [r]egression models for supervised learning problems with a continuous target are commonly understood as models for the conditional mean of the target given predictors. ¿Vosotros lo hacéis así? Yo no, pero ¡hay tanta gente rara en el mundo!
  • Y añaden que [a] more general understanding of regression models as models for conditional distributions allows much broader inference from such models. Que era lo que creía que todos hacíamos. Menos, tal vez, algún rarito.

Charlas en Alicante, julio de 2019

Este mes de julio, entre los días 10 y 12, participaré como ponente en dos charlas encuadradas en los Cursos de Verano de la Universidad de Alicante “Rafael Altamira” y en las que se discutirá el papel de los matemáticos en la sociedad (aunque parece que el énfasis recae en el aspecto económico y empresarial). Según los organizadores:

El curso pretende ser un lugar de encuentro, y de intercambio de experiencias, para dar visibilidad al trabajo realizado por los matemáticos en el sector empresarial y entender la razón por la cual este colectivo se suele mover cómodamente por los nuevos sectores profesionales.

Análisis de la discontinuidad + polinomios de grado alto = ...

Una técnica que, al parecer, es muy del gusto de los economistas es lo del análisis de la discontinuidad. Es como todo lo que tiene que ver con causalImpact pero usando técnicas setenteras (regresiones independientes a ambos lados del punto de corte).

Si a eso le sumas que las regresiones pueden ser polinómicas con polinomios de alto grado… pasan dos cosas:

  • Tienes una probabilidad alta de obtener un resultado significativo, i.e., publicable.
  • Pero que se deba solo al ruido producido por el método (corte discreto, inestabilidad polinómica, etc.).

Es decir, la habitual chocolatada que algunos llaman ciencia (cierto, algunos dirán que mala ciencia, pero que, ¡ah!, nos cobran al mismo precio que la buena).

Un recíproco para el teorema de Bernstein–von Mises

Aquí se describe una suerte de recíproco para el teorema de Bernstein–von Mises. Aquí se resume de esta manera:

The celebrated Aumann’s Agreement Theorem shows that two rational agents with the same priors on an event who make different observations will always converge on the same posteriors after some civilized conversation over tea.

En resumen:

  • B-vM: frente a la misma evidencia, observadores con prioris distintas tienen posteriores similares.
  • Aumann: frente a evidencias disímiles, observadores con las mismas prioris pueden acordar posterioris similares.

¡Eh! ¡Atención a la media geométrica!

El insomnio y la serendipia me han hecho transitar por unas líneas en las que se lee:

A plausible guess is to use their arithmetic mean, which is roughly 150 people per square mile. However, the right method is the geometric mean:

$$ \text{best guess} = \sqrt{\text{lower endpoint} \times \text{upper endpoint}}.$$

The geometric mean is the midpoint of the lower and upper bounds—but on a ratio or logarithmic scale, which is the scale built into our mental hardware. The geometric mean is the correct mean when combining quantities produced by our mental hardware.

A falta de escenarios, tenemos instituciones con atribuciones solapadas

Si yo fuera rey, expropiaría el edificio sito en el número 212 de la Castellana de Madrid, derruiría lo existente y construiría uno imagen especular de

que es el que queda justo enfrente y que contiene eso que conocemos como Instituto Nacional de Estadística. Lo llamaría, por mantener la especularidad, ENI y lo poblaría de estadísticos con una misión:

  • No hablar ni relacionarse bajo ningún concepto con los de enfrente.
  • Replicar sus estadísticas, proyecciones, encuestas y censos en el mismo plazo y forma pero independientemente de ellos.

Así tendríamos dos censos, dos EPAs, dos brechas salariales, dos de cada cosa. Y una mínima estimación de la varianza de las cosas y de su error (muestral y demás).

Elecciones e índice (supernaíf) de Shapley

Aprovechando que el paquete GameTheoryAllocation ha emergido de mi FIFO de pendientes a los pocos días de conocerse los resultados de las [adjetivo superlativizado omitidísimo] elecciones generales, voy a calcular de la manera más naíf que se me ocurre el índice de Shapley de los distintos partidos. Que es:

Al menos, de acuerdo con el siguiente código:

library(GameTheoryAllocation)

partidos <- c(123, 66, 57, 35, 24, 15, 7, 7,
              6, 4, 2, 2, 1, 1)
names(partidos) <- c("psoe", "pp", "cs", "iu",
                      "vox", "erc", "epc", "ciu",
                      "pnv", "hb", "cc", "na",
                      "compr", "prc")

coaliciones <- coalitions(length(partidos))
tmp <- coaliciones$Binary

profit <- tmp %*% partidos
profit <- 1 * (profit > 175)

res <- Shapley_value(profit, game = "profit")

res <- as.vector(res)
names(res) <- names(partidos)
res <- rev(res)

dotchart(res, labels = names(res),
          main = "naive shapley index \n elecciones 2019")

Lo del índice de Shapley, de ignorarlo, lo tendréis que consultar por vuestra cuenta. Al menos, para saber por qué no debería usarse tan frecuentemente (en problemas de atribución, entre otros).

Elecciones, mapas... y mi favorito

De entre lo bueno que pudan haber traído las últimas elecciones generales (las españolas de abril de 2019, para quien requiera mayor precisión) puede contarse una pequeña revolución en la cartografía electoral.

Debemos agradecérselo al equipo de Kiko Llaneras en El País, que nos han regalado esto. Prueba de que las cosas han cambiado es que ha sido replicado en otros sitios, como este.

[Nota: no sé si estoy cometiendo injusticias en el párrafo anterior por omisión o confusión en las prelaciones; si alguien dispone de más o mejor información sobre la intrahistoria de esas publicaciones, que me avise.]