La antifragilidad del kioskero de Watchmen

Fuente: Watchmen, cap. 3, pág. 2

Fuente: Watchmen, cap. 3, pág. 2
Lo que no hay que hacer nunca si no quieres que se enteren de que eres inmensamente cutre es escribir código en las líneas del siguiente seudocódigo:
m = model(y ~ a + b + c)
if (modelo.p_value(a) > .05)
m = model(y ~ b + c)¡No, no, no, no, NO!

El otro día pregunté a en un grupo de amigos, físicos mayormente, si les sonaba de alguna esquinita teórica de la carrera en que apareciese alguna función de la forma
$$ x(t) = \exp\left(-\int_0^t f(x) dx\right)$$
y uno, que trabaja en el mundo del videojuego dio con la línea 401 del código que aparece aquí y que sirve para pintar las nubes hiperrealistas que aparecen en la misma página.
Es una aplicación de la ley de Beer en la que mis lectores más sofisticados reconocerán el estrecho vínculo con el análisis de la superviencia. En este caso, la que trata de sobrevivir es una intensidad luminosa que atraviesa diversos medios que la van atenuando. Al ser potencialmente heterogéneos, la función de supervivencia adquiere la forma
Hay gente que va dándoselas de nosequé y luego resulta que no sabe por dónde le pega el aire. Veámoslo hablando de análisis de la supervivencia:
En cualquier caso, con datos de esa naturaleza (isótopos radioactivos, enfermos de cáncer, etc.) no se informa la vida media sino, generalmente, la semivida. Es decir, cuánto tiempo pasa hasta que se liquida la mitad de una cohorte. En este caso, lo suyo sería estimar la semivida ponderada por importe.
Tienes una función de supervivencia

y piensas que es posible aproximarla usando segmentos de exponencial usando primero una rejilla gruesa,

y luego cada vez más fina,

hasta que sean indistinguibles.
Las distintas aproximaciones son
$$ \hat{S}(t) = \exp\left(-\sum_{i \le n} \lambda_i \Delta - \lambda_n (t - t_n)\right)$$
donde $n$ es el índice del intervalo que contiene a $t$ los $\lambda_i$ son los coeficientes en los segmentos de exponencial. Esa expresión que converge a
Vale, admito que no funciona siempre. Pero una manera de distinguir a un matemático de un ingeniero es por una casi imperceptible pausa que los primeros realizan antes de pronunciar optimización. Un matemático nunca conjuga el verbo optimizar en vano.
[Una vez, hace tiempo, movido por una mezcla de paternalismo y maldad, delegué un subproblema que incluía el fatídico optim de R en una ingeniera. Aún le debe doler el asunto.]
Leí hace un tiempo, antes de que concediesen el Nobel a sus autores y porque había oído hablar muy bien de él a un tipo que conozco, Poor Economics.
Es un libro muy deprimente y voy a explicar aquí por qué.
Advierto que escribo de memoria: ni he revisado el libro ni lo que de él anoté para este infrarresumen.
El libro tiene muchas páginas divididas en N+1 capítulos. Los N primeros describen muchos, muchísimos RCTs (¿en el orden de cientos?) agrupados por temas —que si microcréditos, que si redes para los mosquitos para prevenir la malaria,…— en un montón de países. Tienen un denominador común: nada funciona. Todo lo que se ensaya fracasa por los motivos más variopintos.
La ciencia de datos es la ciencia de la extrapolación. Todas las técnicas que la componen tratan de eso: de como proyectar hacia el futuro el comportamiento pasado. Si funciona, es por las inercias que operan en lo físico, en lo sicológico, en lo conductual.
[La ciencia de datos puede (no necesariamente, pero puede) ser una extrapolación objetiva: de ahí que quienes denuncian su presunta amoralidad solo nos están haciendo saber una opinión: que el pasado no encaja con su personalísimo criterio ético.]
Uno de los proyectos en los que estoy trabajando últimamente está relacionado con un problema de optimización no lineal: tengo un modelo (o una familia de modelos) no lineales con una serie de parámetros, unos datos y se trata de lo que no mercería más explicación: encontrar los que minimizan cierta función de error.
Tengo implementadas dos vías:
nls porque esa función me queda muy corta).Ambas tienen sus ventajas y desventajas. La una es rápida y la otra no; la una me da poca información sobre los parámetros y la otra, mucha; una me permite introducir mucha información a priori y la otra casi nada, etc.
Esto tiene que ver con lo del estudio ENECOVID, por supuesto.
Esto tiene que ver con los ajustes que hay que realizar en los resultados por la menos que perfecta sensibilidad y especificidad.
Porque no basta con lo que diga el prospecto de los kits chinos.
Por eso es recomendable leer Bayesian analysis of tests with unknown specificity and sensitivity.
Coda: Cuando era matemático y comencé a estudiar estadística, me llamaba mucho la atención (por no decir que me escandalizaba) la alegría con la que estimadores sujetos a error de un modelo se insertaban como verdad divina en otro. Que es lo que aparentemente se hace cuando el estimador puntual de sensibilidad y especificidad copipega tal cual en las fórmulas del ajuste.