"Algoritmos" y acatarrantes definiciones de "justicia"
Lee Justicia: los límites de la inteligencia artificial… y humana y cuando acabes, te propongo un pequeño experimento probabilístico. Por referencia, reproduzco aquí los criterios de justicia del artículo que glosa el que enlazo:
Centrémonos en (B), sabiendo que, por simetría, lo que cuento se aplica también a (C).
Supongamos que tenemos dos grupos, cada uno de ellos de
n <- 1000000
personas para estar en las asíntotas que aman los frecuentistas. Estos grupos tienen distribuciones distintas de un factor de riesgo,
p.group.1 <- rbeta(n, 3, 2)
p.group.2 <- rbeta(n, 2, 3)
y se observan
y.group.1 <- sapply(p.group.1, function(p) rbinom(1, 1, p))
y.group.2 <- sapply(p.group.2, function(p) rbinom(1, 1, p))
Construimos un modelo perfecto, que a cada sujeto le asigne exactamente su probabilidad. Ese es el score.
Por otro lado, la clase negativa a la que se refiere (B) son los sujetos para los que y = 0
. Para ser justo, debería suceder que
mean(p.group.1[y.group.1 == 0])
mean(p.group.2[y.group.2 == 0])
fuesen iguales.
Vosotros mismos.
Nota: Después de escrito lo anterior he dado con un ejemplo todavía más simple e ilustrativo. Si nadie lo adelanta antes en los comentarios, va mañana.