Unas cuantas notas sobre ciencia de la mala

Cuando escribo sobre mala ciencia, es un clásico incluir artículos de Radiando, como ¿Cuánta radiación recibimos del 5G? Soy particularmente sensible al tema porque mi exvecino del sexto, un tal Bardasano, fue uno de los más prominentes defensores del “el móvil nos va a freír los sesos a todos” del reino. Se lo puede leer en acción en artículos como este.

Hablé aquí, hace ya casi dos años, de un estudio con 37 sujetos a los que —presuntamente, como se estila en la España constitucional— se les encogía el cerebro. Compartía aquella entrada etiqueta con esta: la de mala ciencia. Ahora, The Economist nos cuenta de manera no irónica How becoming a father shrinks your cerebrum glosando aquel mismo estudio. Tengo el indicador de Gell-Mann aceleradísimo.

Sesgo, calibración y variabilidad

Tenemos una población con dos grupos, 50% de cada. Por simplificar, nuestra población son monedas que son de dos tipos:

  • A, con probabilidad de cara del 25%.
  • B, con probabilidad de cara del 75%.

Construimos un modelo que predice siempre 50%. Entonces:

  1. El modelo está bien calibrado: para aquellos para los que el modelo predice el 50% (que son todos), la probabilidad promedio de cara es del 50%.
  2. El modelo tiene sesgo: si nos fijamos en los A, el modelo sobreestima; si nos fijamos en los B, infraestima.

El problema es la (falta de) variabilidad.

El egregio episodio omitido en la historia "oficial" de las encuestas electorales

Escribió Andrew Gelman en su blog lo que él denomina una historia selectiva o más humildemente, su personal reconstrucción cruda de la historia de las encuestas políticas y la predicción electoral. Que consta, según él, de los siguientes episodios (traducidos con la ayuda de Gemini):

  1. Antes de 1900, los trabajadores políticos contaban los votos, era hiperlocal y laborioso.
  2. A partir de 1900, poblaciones móviles, mayor anonimato, menor participación electoral, motivación para pensar en la opinión pública en lugar de solo contar votos.
  3. 1936, la encuesta de Literary Digest (y cómo se podría haber corregido), la encuesta de Gallup.
  4. Encuestas comerciales y de opinión, muestreo por conglomerados, muestreo por cuotas, desafíos de la representatividad.
  5. De las encuestas presenciales a las encuestas telefónicas y a los paneles de internet: el modo de recolección de datos determina el método de muestreo.
  6. Ajustes de la muestra, tasas de respuesta decrecientes y diferentes formas de falta de respuesta.
  7. Racionalidad del voto, racionalidad de responder a una encuesta, cómo han cambiado estos a lo largo de las décadas.
  8. Precisión de las encuestas preelectorales y de las encuestas a pie de urna desde 1948.
  9. Variación de las encuestas preelectorales durante la campaña.
  10. El estado de nuestra comprensión en la década de 1970: Jimmy the Greek en 1972, variación de las encuestas en 1976, cualquier cosa podría pasar.
  11. Polarización geográfica y el ascenso del estado indeciso (swing state).
  12. Polarización política y el declive del votante indeciso (swing voter).
  13. La ciencia política de los años 70/80 se incorpora a la sabiduría convencional de los 90: “Es la economía, estúpido”.
  14. La era de “nada importa”: 1992 y 1996, y nuestro pronóstico basado en fundamentales.
  15. Elecciones reñidas desde 2000 en adelante: estados indecisos, encuestas estables y un objetivo de pronóstico fijo.
  16. El auge de la agregación de encuestas y la predicción electoral probabilística.
  17. La falta de respuesta diferencial como explicación de la variación en las encuestas.
  18. Altas expectativas y los errores de las encuestas de 2016/2020/2024.
  19. Elecciones de mitad de mandato y equilibrio de partidos.
  20. Bases demográficas cambiantes de apoyo de los dos partidos.
  21. ¿Quiénes son los no votantes y qué quieren?
  22. Información distinta a la de las encuestas “carrera de caballos” (horse-race).
  23. Elecciones primarias, terceros partidos y otras complejidades.
  24. Mirando hacia el futuro.

Es evidente que omite dolosamente las egregias contribuciones a la materia que debemos a nuestros incomparables y nunca debidamente reconocidos Tezanos y Alamillos. Sospecho que es culpa ya sea del culposo sesgo anglocéntrico de Gelman o de la subrepticia pervivencia de la leyenda negra, que lleva presuponiendo malo todo lo español de Felipe II para acá. Celebremos en todo caso que el “que inventen ellos” nos mantenga a los españoles más alienados con el bien, la verdad y la belleza que si hubiésemos adoptado acríticamente y por puro seguidismo técnicas muestrales bárbaras y grotescas.

¿Nos podemos fiar de los barómetros del CIS?

El CIS publicó recientemente los resultados de su barómetro de septiembre de 2025 basados en 4122 entrevistas.

Una de las preguntas realizadas, la primera, fue

Durante los últimos doce meses, para realizar sus gestiones bancarias, ¿qué tres canales principales ha utilizado Ud.? Dígamelos por favor por orden, según frecuencia de uso.

Los resultados obtenidos fueron

Otra que se realiza en todos los barómetros se refiere a la participación y recuerdo de voto en las últimas elecciones generales, las de 2023 en este caso. Los resultados obtenidos fueron

Unas cuantas noticias sobre temas económicos

Todavía es prematuro ir preparando el epitafio de la máxima de Ockham. Pero ni los escépticos rechazan de entrada la idea de que los modelos grandes y complejos puedan producir mejores predicciones que los simples; solo sostienen que esto no tiene por qué ocurrir siempre.

Un patrón habitual del uso de la estadística en determinadas aplicaciones de las llamadas ciencias sociales

Existen asuntos sobre los que uno lee que se parecen a la situación que describo a continuación:

  • Estamos en Zaragoza y caminamos 1 km en dirección noreste.
  • Estudiamos si nos hemos alejado de manera estadísticamente significativa de Madrid.
  • Unos dicen que sí; otros, que no. Al fin y al cabo, ¿dónde está Madrid? Hay cierta incertidumbre (¿Sol? ¿Límite del municipio? ¿Puerta de Alcalá?) con una variabilidad mayor que el kilómetro recorrido.
  • Todo el mundo arrima el ascua a su sardina y, al final, nadie sabe nada.

Uno puede así caminar un kilómetro, luego otro, y luego otro más sin que ninguna caminata sea estadísticamente significativa. Puede uno plantarse finalmente en Barcelona sin haberse alejado jamás significativamente de Madrid.

Varias noticias sobre el mundo de los LLMs

  • En The Drugs Are Taking Hold, David Rosenthal discute la muy problemática rentabilidad futura del negocio de los LLMs. Usa la palabra burbuja doce veces.
  • Dynomight escribe un tanto apocalípticamente sobre la potencial capacidad de persuasión de los LLMs. No de los actuales sino de los mucho más inteligentes que se supone que llegarán en algún momento.
  • Este es un hilo en Reddit sobre las actividades más lucrativas para las que los participantes han usado los LLMs. Una de ellas, interactuar con compañías de seguros.
  • Salió Qwen-Image-Edit y, después, Nano Banana, que todo el mundo dice que es mejor. Aún no he jugado con ninguno de ellos.
  • Más sobre el impacto medioambiental de los LLMs. Esta vez, el de Gemini.
  • ¿Pueden los LLMs razonar y planificar? Hay indicios que hacen sospechar que, de hacerlo, lo hacen muy precariamente. Un indicio de ello es, por ejemplo, que generan tokens a la misma velocidad independientemente de la complejidad (en el sentido técnico, matemático, del término) de la tarea propuesta, cosa que es matemáticamente imposible.
  • Dicen que superwhisper es muy bueno para pasar de voz a texto.
  • En el blog de Andrew Gelman no son muy entusiastas de los LLMs. Sin embargo, acaban de publicar esto. Pronostico aggiornamento a corto plazo.
  • Simon Willison ha publicado una lista de algunas de las herramientas que ha creado con LLMs. También ha publicado este ejemplo bastante completo de un análisis de datos realizado a golpe de vibe.

El teorema de Napoleón via SymPy

Durante el pasado periodo estival, como es tradición, me extrajeron alevosamente de la M-30. Me introdujeron en una caja metálica, me amarraron a una silla y me torturaron durante seis horas, en el transcurso de las cuales, las únicas percepciones del mundo exterior que impactaron mis sentidos fueron calor, ruido, cerros, pinos y dolores en las asentaderas. Como no había otra cosa que hacer y tenía frescos los enunciados de los problemas de la última olimpiada internacional de matemáticas —que, como recordarán los lectores del blog, tuvo cierto impacto mediático por el excelente resultado logrado en ellas por los LLMs más avanzados—, me puse con uno de ellos. Estoy muy pagado de mí mismo por el hecho de que, salvo por un par de cabos sueltos que solo pude rematar cuando conseguí lápiz, papel y silencio, dejé uno de ellos prácticamente resuelto.

Un par de notas: metaanálisis y estadística pública

Hubo un tiempo en el que para poder señalar que se hablaba ciencia en mano había que citar RCTs. Pero los RCTs acabaron adocenándose y ahora estamos en la era de los metaanálisis. Pero algunos —¿cuántos?—, como nos advierte DataColada, son una especie de albóndiga —tan esférica ella— fabricada con carne picada de muy heterogénea procedencia.

Los siguientes metaanálisis sobre lo del impacto del salario mínimo en nosequé cosas querrán incluir cuarto y mitad de esto. A todo esto: ¿qué llegará antes, la conclusión sobre lo del salario mínimo o las centrales eléctricas de fusión nuclear?

Representados pero no representativos

La expresión que da título a la entrada procede de un escrito de Andrew Gelman. Aunque se refiere a un problema estadístico muy concreto, la he podido aplicar en otros contextos. Es uno de esos conceptos que una vez uno tropieza con él, no puede dejar de verlo en todas partes.

Gelman se refería originalmente al problema de la reponderación de las encuestas. Desafortunadamente, por muy aleatorio que sea su diseño, terminan mostrando sesgos. Por no hablar de las que se realizan en periódicos, Twitter, etc. Existen técnicas que, según la teoría, mitigan en cierta medida el problema y permiten realinear mejor o peor sus resultados con la realidad. Para ilustrar el uso de una de estas técnicas, Gelman et al. realizaron una encuesta extrema en los foros de un videojuego con el objetivo de determinar si a partir de la opinión de un conjunto de gamers, podría reconstruirse la general e ilustrar, de paso, una serie de técnicas de su autoría.