Sobre el almacenamiento "industrial" de la energía eléctrica

Este es un tema sobre el que sé tan poco que hoy mismo (que no es el día en el que se publica esto) he metido la pata dos veces en Twitter por citar datos que no eran.

Por enmendarme públicamente y dada la relevancia del asunto, voy a sacar unos números. La fuente es la página del Balance Eléctrico de REE, que hoy luce

y que nos proporciona datos sobre el bombeo, i.e., la mejor y prácticamente única de las tecnologías actualmente existentes (y desplegadas industrialmente en España) para almacenar electricidad y trasvasarla entre periodos.

Garantías de robustez en inferencia causal

Por motivos que no vienen al caso, me ha tocado ponderar el artículo The use of controls in interrupted time series studies of public health interventions. Lo comento hoy porque hace referencia a temas que me ha gustado tratar en el pasado.

El artículo, prima facie, es un poco viejuno. De hecho, casi todo lo que se escribe sobre metodología en el mundo de las aplicaciones (y el que cito tiene que ver con salud pública) tiene tufillo de naftalina. Para cuando un resultado metodológico llega al común conocimiento de quienes se dedican a la sociología, ciencia política, salud pública, etc., los estadísticos ya han aprendido un montón de cosas nuevas y mucho más guays.

La miseria de la inferencia causal vivida

X escribe en 2020:

In particular, panel A presents the results when the municipalities are divided according to the real average Internet speed (Mbps). As is evident, the effect of extreme-right mayors on hate crimes is concentrated in municipalities where Internet speed is high, especially when the intensive margin is considered […]

Y escribe también en 2020:

Results show that Internet availability between 2008 and 2012 is associated with a better knowledge of (national) immigration dynamics and that it leads to an overall improvement in attitudes towards immigrants.

¿Es Bunge un fraude?

Mi primer contacto con la obra de Mario Bunge fue en mi época de estudiante en Zaragoza. Por algún motivo —probablemente, porque en aquella época repasar los lomos de los libros en las bibliotecas y librerias era el equivalente al perder el tiempo en internet de hogaño— cayó en mis manos un libro suyo. Solo recuerdo que leerlo requirió más empeño que aprovechamiento trujo a aquel chaval de provincias.

El segundo —hará un par de años— fue una grabación de una conferencia que dio en Buenos Aires. La guardé en algún lugar para comentarla en estas páginas porque de todo lo que contaba en una hora no alcancé a darle la razón —más bien, el beneficio de la duda— más que en que llovía en Buenos Aires esa tarde. Desafortunadamente, no he podido dar otra vez con ella.

Más sobre aquel concepto estadístico que aconsejé desaprender: la suficiencia

En esta entrada abundo en una que escribí hace ocho años: Conceptos estadísticos que desaprender: la suficiencia. Lo hago porque casualmente he tropezado con su origen y justificación primera, el afamado artículo On the Mathematical Foundations of Theoretical Statistics del nunca suficientemente encarecido R.A. Fisher.

Criticaba en su día lo inútil del concepto. Al menos, en la práctica moderna de la estadística: para ninguno de los conjuntos de datos para los que trabajo existe un estadístico suficiente que no sea la totalidad de los datos.

Monty Hall, reformulado

  1. Considérese el siguiente juego:
    1. Hay tres sobres indistinguibles sobre una mesa.
    2. Uno de ellos contiene un premio.
    3. Puedes elegir o bien uno de ellos o bien dos de ellos al azar.
  2. Convénzase uno de que es mejor elegir dos sobres que uno: tienes una probabilidad de ganar el premio de 2/3 contra la de 1/3 si eliges solo uno.
  3. Convénzase uno de que el problema de Monty Hall en su formulación habitual es solo una reformulación artificiosa y engañosa del juego anterior.

Dos cuestiones sobre la naturaleza de la probabilidad planteadas por Keynes en 1921 pero que siguen hoy igual de vigentes

I.

A Treatise on Probability, la obra de Keynes (sí, el famoso) de 1921, es un libro muy extraño que se puede leer de muchas maneras. Puede servir, si se hace poco caritativamente, para denunciar el lastimoso estado en el que se encontraba la probabilidad antes de la axiomatización de Kolmogorov, 12 años depués de su publicación. O también, si se hace más cuidadosamente, para rescatar una serie de consideraciones que aun hoy muchos hacen mal en ignorar.

Sobre las R² pequeñas y sus interpretaciones

Hace unos meses escribí una entrada en defensa (parcial) de una regresión lineal con una R² pequeña. He vuelto a pensar sobre ella y retomo la discusión para esclarecer —sobre todo, para profanos— qué mide la R² y cómo interpretarla según el contexto.

Comienzo por un experimento físico mental. En un laboratorio se realiza un experimento para medir la relación entre dos magnitudes físicas, un efecto $latex y$ y una causa $latex x$. La teoría especifica una relación del tipo $y = a + b x$ y experimentalmente (y en condiciones de laboratorio ideales) se obtienen una serie de datos $latex (x_i, y_i)$. La relación entre ambos es de la consabida forma

Evindencias sobre la vigencia del operacionalismo en estadística

No sé desde cuándo tengo abierta en una pestaña del navegador la página del operacionalismo de la Enciclopedia de Filosofía de Stanford. Porque aunque se trate de un cadáver filosófico desde hace más de ochenta años, goza —como ponen en evidencia ciertos acontecimientos recientes— de la más envidiable salud en algunos círculos.

Según el operacionalismo, los conceptos teóricos de la ciencia se agotan en aquellas operaciones que utilizamos para medirlos. ¿La temperatura? Es lo que marca un termómetro. ¿La inteligencia? El resultado de un determinado test. Etc.