Unas cuantas notas sobre estadística

Uno de los metaprincipios de la construcción de modelos estadísticos es que la calidad de los modelos es función de la cantidad de información que hay en los datos de entrenamiento. No existe el bootstrap en el sentido etimológico del término: no puede uno levantarse en el aire tirando hacia arriba de los cordones de los zapatos. Pero al hilo de una noticia reciente, Gelman discute si añadir ruido a los datos permite reducir el sobreajuste. Además, en la discusión al respecto, alguien cita el artículo de 1995 Training with Noise is Equivalent to Tikhonov Regularization, una especie de penalización en el tamaño de los coeficientes al modo de la regresión ridge.

El mecanismo autocorrector de la ciencia (y el papel del cotilleo)

No sé mucho de filosofía de la ciencia, pero sí de informática. Así que, en cierto modo, soy como aquel tonto del martillo. Pero tal vez la analogía que presento debajo pueda servirle a alguien.

Existe un tipo de bases de datos distribuidas llamadas eventualmente consistentes. La promesa que hacen es que si cambias un dato, al cabo de un periodo de tiempo indeterminado, todas sus réplicas convergirán al mismo valor. En tanto, lecturas de nodos distintos pueden dar resultado distintos y contradictorios. Por ejemplo, los likes de una red social pueden estar almacenados en una de tales bases de datos y puede que un usuario en Tokio vea 34 likes a un vídeo y otro en Madrid, 35. Al cabo de un tiempo ambos acabarán viendo 35 (o, puede que 37 y 36: nada está garantizado al 100%).

Unas cuantas notas sobre tecnología

Hoy traigo a la atención de mis escasísimos pero selectos lectores una serie de notas que he recopilado en los últimos tiempos porque han llamado mi atención y que he arrejuntado alrededor de la genérica etiqueta de “tecnología”.

  • Una selección de diez librerías de Python para la creación de UIs. Una vez construí una aplicación de Android nativa que mostraba un dashboard en un móvil viejo 24/7. Sudé tinta. Hoy, casi seguro, lo haría en una fracción del tiempo.
  • En Extrapolating quantum factoring se cuenta cómo en 2001 un ordenador cuántico podía factorizar el número 15 y, en 2012, el 21. Luego extrapola, pero eso es lo de menos.
  • Ahora que está de moda medir superficies en “campos de fútbol” no sorprenderá tanto que se utilicen los “litros de agua hirviendo” como indicador de la fortaleza de una clave criptográfica.
  • The Electrotech Revolution: Some insights into a new way of thinking about the transition muestra una visión optimista del futuro en el que la energía es abundante y barata. La parte más interesante es esa en la que se discute cuánta de la llamada energía primaria actual acaba realmente creando trabajo útil (en lugar de, por ejemplo, calor disipado tontamente en la atmósfera).
  • The beauty of batteries es otro artículo optimista que discute cómo el despliegue masivo de baterías puede solucionar muchos de los problemas de nuestros sistemas de distribución eléctrica. Por ejemplo, una estación de energía renovable —y, por lo tanto, de generación irregular— remota necesitaría una conexión eléctrica de menor capacidad (y, por lo tanto mucho más económica) si dispusiese de baterías que le permitiesen evacuar la energía de manera constante a lo largo del día. Muchas ampliaciones de capacidad en determinadas líneas podrían evitarse si, con el concurso de las baterías, la energía pudiera distribuirse de manera mucho más homogénea a lo largo del tiempo. En términos estadísticos, las baterías son dispositivos que transforman los extremos en medias.
  • Tras la electricidad, el agua. How Does the US Use Water? nos habla de esa infraestructura y tecnología que tantas veces damos simplemente por supuesto y en la que apenas paramos mientes.

La regresión logística en sklearn no es la regresión logística sino otra cosa: el problema oculto

La semana pasada escribí una entrada que constaba únicamente de la frase

“La regresión logística en sklearn no es la regresión logística sino otra cosa.”

repetida muchas veces. El problema es que la implementación que hace scikit-learn de la regresión logística usa, por defecto, l2-regularization, es decir, ridge.

Lo cual, en principio, es preferible a la alternativa, es decir, no usar regularización en absoluto; pero usar regularización implica una serie de consideraciones y ajustes por parte del usuario que no siempre se tienen en cuenta.

La regresión logística en sklearn no es la regresión logística sino otra cosa

La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa. La regresión logística en sklearn no es la regresión logística sino otra cosa.

Unas cuantas notas sobre ciencia de la mala

Cuando escribo sobre mala ciencia, es un clásico incluir artículos de Radiando, como ¿Cuánta radiación recibimos del 5G? Soy particularmente sensible al tema porque mi exvecino del sexto, un tal Bardasano, fue uno de los más prominentes defensores del “el móvil nos va a freír los sesos a todos” del reino. Se lo puede leer en acción en artículos como este.

Hablé aquí, hace ya casi dos años, de un estudio con 37 sujetos a los que —presuntamente, como se estila en la España constitucional— se les encogía el cerebro. Compartía aquella entrada etiqueta con esta: la de mala ciencia. Ahora, The Economist nos cuenta de manera no irónica How becoming a father shrinks your cerebrum glosando aquel mismo estudio. Tengo el indicador de Gell-Mann aceleradísimo.

Sesgo, calibración y variabilidad

Tenemos una población con dos grupos, 50% de cada. Por simplificar, nuestra población son monedas que son de dos tipos:

  • A, con probabilidad de cara del 25%.
  • B, con probabilidad de cara del 75%.

Construimos un modelo que predice siempre 50%. Entonces:

  1. El modelo está bien calibrado: para aquellos para los que el modelo predice el 50% (que son todos), la probabilidad promedio de cara es del 50%.
  2. El modelo tiene sesgo: si nos fijamos en los A, el modelo sobreestima; si nos fijamos en los B, infraestima.

El problema es la (falta de) variabilidad.

El egregio episodio omitido en la historia "oficial" de las encuestas electorales

Escribió Andrew Gelman en su blog lo que él denomina una historia selectiva o más humildemente, su personal reconstrucción cruda de la historia de las encuestas políticas y la predicción electoral. Que consta, según él, de los siguientes episodios (traducidos con la ayuda de Gemini):

  1. Antes de 1900, los trabajadores políticos contaban los votos, era hiperlocal y laborioso.
  2. A partir de 1900, poblaciones móviles, mayor anonimato, menor participación electoral, motivación para pensar en la opinión pública en lugar de solo contar votos.
  3. 1936, la encuesta de Literary Digest (y cómo se podría haber corregido), la encuesta de Gallup.
  4. Encuestas comerciales y de opinión, muestreo por conglomerados, muestreo por cuotas, desafíos de la representatividad.
  5. De las encuestas presenciales a las encuestas telefónicas y a los paneles de internet: el modo de recolección de datos determina el método de muestreo.
  6. Ajustes de la muestra, tasas de respuesta decrecientes y diferentes formas de falta de respuesta.
  7. Racionalidad del voto, racionalidad de responder a una encuesta, cómo han cambiado estos a lo largo de las décadas.
  8. Precisión de las encuestas preelectorales y de las encuestas a pie de urna desde 1948.
  9. Variación de las encuestas preelectorales durante la campaña.
  10. El estado de nuestra comprensión en la década de 1970: Jimmy the Greek en 1972, variación de las encuestas en 1976, cualquier cosa podría pasar.
  11. Polarización geográfica y el ascenso del estado indeciso (swing state).
  12. Polarización política y el declive del votante indeciso (swing voter).
  13. La ciencia política de los años 70/80 se incorpora a la sabiduría convencional de los 90: “Es la economía, estúpido”.
  14. La era de “nada importa”: 1992 y 1996, y nuestro pronóstico basado en fundamentales.
  15. Elecciones reñidas desde 2000 en adelante: estados indecisos, encuestas estables y un objetivo de pronóstico fijo.
  16. El auge de la agregación de encuestas y la predicción electoral probabilística.
  17. La falta de respuesta diferencial como explicación de la variación en las encuestas.
  18. Altas expectativas y los errores de las encuestas de 2016/2020/2024.
  19. Elecciones de mitad de mandato y equilibrio de partidos.
  20. Bases demográficas cambiantes de apoyo de los dos partidos.
  21. ¿Quiénes son los no votantes y qué quieren?
  22. Información distinta a la de las encuestas “carrera de caballos” (horse-race).
  23. Elecciones primarias, terceros partidos y otras complejidades.
  24. Mirando hacia el futuro.

Es evidente que omite dolosamente las egregias contribuciones a la materia que debemos a nuestros incomparables y nunca debidamente reconocidos Tezanos y Alamillos. Sospecho que es culpa ya sea del culposo sesgo anglocéntrico de Gelman o de la subrepticia pervivencia de la leyenda negra, que lleva presuponiendo malo todo lo español de Felipe II para acá. Celebremos en todo caso que el “que inventen ellos” nos mantenga a los españoles más alienados con el bien, la verdad y la belleza que si hubiésemos adoptado acríticamente y por puro seguidismo técnicas muestrales bárbaras y grotescas.

¿Nos podemos fiar de los barómetros del CIS?

El CIS publicó recientemente los resultados de su barómetro de septiembre de 2025 basados en 4122 entrevistas.

Una de las preguntas realizadas, la primera, fue

Durante los últimos doce meses, para realizar sus gestiones bancarias, ¿qué tres canales principales ha utilizado Ud.? Dígamelos por favor por orden, según frecuencia de uso.

Los resultados obtenidos fueron

Otra que se realiza en todos los barómetros se refiere a la participación y recuerdo de voto en las últimas elecciones generales, las de 2023 en este caso. Los resultados obtenidos fueron

Unas cuantas noticias sobre temas económicos

Todavía es prematuro ir preparando el epitafio de la máxima de Ockham. Pero ni los escépticos rechazan de entrada la idea de que los modelos grandes y complejos puedan producir mejores predicciones que los simples; solo sostienen que esto no tiene por qué ocurrir siempre.