"Algoritmos" y acatarrantes definiciones de "justicia"

Lee Justicia: los límites de la inteligencia artificial… y humana y cuando acabes, te propongo un pequeño experimento probabilístico. Por referencia, reproduzco aquí los criterios de justicia del artículo que glosa el que enlazo:

Centrémonos en (B), sabiendo que, por simetría, lo que cuento se aplica también a (C).

Supongamos que tenemos dos grupos, cada uno de ellos de

1
n <- 1000000

personas para estar en las asíntotas que aman los frecuentistas. Estos grupos tienen distribuciones distintas de un factor de riesgo,

1
2
p.group.1 <- rbeta(n, 3, 2)
p.group.2 <- rbeta(n, 2, 3)

y se observan

1
2
y.group.1 <- sapply(p.group.1, function(p) rbinom(1, 1, p))
y.group.2 <- sapply(p.group.2, function(p) rbinom(1, 1, p))

Construimos un modelo perfecto, que a cada sujeto le asigne exactamente su probabilidad. Ese es el score.

Por otro lado, la clase negativa a la que se refiere (B) son los sujetos para los que y = 0. Para ser justo, debería suceder que

1
2
mean(p.group.1[y.group.1 == 0])
mean(p.group.2[y.group.2 == 0])

fuesen iguales.

Vosotros mismos.

Nota: Después de escrito lo anterior he dado con un ejemplo todavía más simple e ilustrativo. Si nadie lo adelanta antes en los comentarios, va mañana.