Sobre los efectos heterogéneos, la menguante calidad de las estadísticas públicas y algunos asuntos estadísticos más

  • El término y concepto de varianza se acuñaron para, al parecer, poder definir el de heredabilidad en la protogenética decimonónica. Dos artículos muy interesantes y accesibles sobre el tema (sobre todo el segundo), son Missing Heritability: Much More Than You Wanted To Know de Scott Alexander y Heritability puzzlers de Dynomight. (Si crees, como yo, que el segundo tiene un gazapo o inconsistencia, deja una nota en los comentarios).

  • Solomon Kurz ha publicado material para aprender Stan con brms (partes I, II y III). Tengo dos objeciones al uso de brms: primero, que al usarlo no se aprende Stan sino otra cosa; y, segundo, que la interfaz de fórmula para la especificación de modelos, que es lo que permite brms, da de sí lo que da de sí y no más. Es cierto que casi siempre buscamos implementar modelos que admiten una interfaz de fórmula, pero esos son, precisamente, los más sencillos y para los que los LLMs tendrían menos problemas para generar el correspondiente código de Stan.

Diagramas de Lexis

Me ha parecido conveniente desgajar la propedéutica de algo con lo que continuaré más adelante: la introducción a los diagramas de Lexis. Es obligado señalar que alrededor de ellos concurre una serie de hechos que debiera dar mala espina a los buenos entendedores:

  • En la Wikipedia, en la fecha en la que esto se escribe, la voz está disponible solo en seis idiomas: catalán, francés, inglés, italiano, portugués y vascuence.
  • Además, el concepto está mucho más ampliamente desarrollado en francés que en inglés.

Estas evidencias le deben inducir a uno a pensar que se trata de un concepto viejuno, inútil y solo relevante para opositores. Quien albergue esas sospechas no andará del todo desencaminado. Pero quiero asegurarle también que me consta fehacientemente que:

Una selección muy personal de novedades en el mundo de la tecnología y de los LLMs

Ahí va una lista de novedades tecnológicas que he recopilado —y en algunos casos, integrado en mi flujo de trabajo— a lo largo de las últimas semanas:

  1. f2 para renombrar ficheros de manera inteligente y en masa. Desde línea de comandos, obviamente.
  2. Después de muchos años cómodamente instalado en el las herramientas de línea de comandos de toda la vida, he estado explorando reemplazos modernos para algunas de las más comunes.
  3. Microsoft ha publicado Edit, un editor simple para usos simples.
  4. Typst. ¿Adiós a LaTeX?
  5. En esta lista de ocho herramientas de vibe coding, falta mi favorita, Aider.
  6. Y aún no he podido explorar Toad.
  7. Gemini CLI. Amor y odio a la vez.
  8. 20 herramientas SaaS gratuitas y de código más o menos abierto. No sé para qué sirve la mayoría, pero doy fe de que las que conozco hacen lo que dicen hacer bien.
  9. Se ve que el DOGE utiliza un LLM para identificar, entre otras cosas, regulaciones que ya no exige la ley (pero que han quedado vigentes por pura inercia).
  10. El conjunto de Mandelbrot, en código máquina del x86, generado por Claude (aquí). Una vez dije que los LLMs acabarían generando código máquina directamente
  11. The Economist ha creado SCOTUSbot, un LLM para predecir pronunciamientos del tribunal supremo de los EEUU.
  12. Este artículo se publicó antes de que los LLMs alcanzasen el oro en las Olimpiadas Matemáticas Internacionales, pero viene a tratar el mismo asunto.
  13. Así usa OpenElections los LLMs. En resumen, para OCR y poco más.
  14. Uno de los problemas que plantea el entrenamiento de modelos de IA a la red eléctrica no es tanto el consumo como las fluctuaciones. Cuando el modelo está listo para ser entrenado y alguien pulsa Enter, de repente, todas las GPUs se ponen en marcha y…
  15. Ingeniería de contexto > ingeniería de prompts.
  16. Tres nuevos modelos chinos de los que soy fan:
    1. Kimi 2. Funciona igual de bien que otros LLMs más reputados para las tareas habituales pero va mucho más al grano.
    2. GLM-4.5, otro modelo que estoy comenzando a probar y que me gusta bastante.
    3. Qwen3-235B-A22B-Thinking-2507

"Cuando los datos y las anécdotas no concuerdan, las anécdotas suelen ser correctas"

En la cuenta @StartupArchive_ de Twitter se publicó un vídeo de una entrevista a Jeff Bezos y (¿parte?) de su transcripción. Dice, con mi traducción:

Jeff Bezos nos cuenta cómo una vez llamó al servicio de atención al cliente de Amazon en mitad de una reunión para demostrar que una métrica era incorrecta.

[…] Jeff cuenta una historia de los primeros días de Amazon, cuando sus métricas indicaban que los clientes esperaban menos de 60 segundos en obtener una respuesta después de llamar al número de atención al cliente. Sin embargo, las quejas de los clientes parecían indicar lo contrario. Como explica Jeff:

Sobre la lógica doxástica, el teorema de Bayes, el problema de Monty Hall y algunos asuntos más

  • La lógica doxástica de las que nos habla Gelman aquí se refiere a un tipo de lógica que opera sobre creencias que no tienen asociados verdadero o falso sino, más bien, otros del tipo el sujeto cree que X es cierto. Se pregunta Gelman si existirá alguna versión probabilística o bayesiana de la cosa y me pregunto por qué no ha caído en toda la obra de Jaynes —por poner solo un ejemplo—, que trata precisamente sobre eso.

La probabilidad de que 2+2 siga siendo 4 dentro de 12 meses es algo menor del 100%

Escribí hace un tiempo sobre las probabilidades subjetivas y cómo Leonard Savage sugería pensar en la probabilidad de un evento como

la [máxima] cantidad que uno debería estar dispuesto a pagar por el derecho a recibir 100 € si el evento finalmente ocurre.

De acuerdo con esa definición, ¿cuál sería la probabilidad de que 2+2 siga siendo 4 dentro de doce meses? Uno estaría tentado a decir que es del 100%, es decir, que pagaría hasta 100 € por el derecho a recibir 100 € en un año si 2+2 es todavía 4 para entonces.

Sobre la menguante calidad de las estadísticas públicas y algunos otros asuntos más

El fertilizante para jardinería trae por detrás tres numeritos tras la etiqueta NKP, que indican la proporción de nitrógeno, potasio y fósforo en la mezcla. Es sabido que el crecimiento de las plantas está limitado por el más escaso: es decir, fijada una de las tres letras, incrementar las otras dos no aporta beneficio alguno. Sin embargo, no solo de fertilizante viven los cultivos y las tendencias globales muestran que producir más comida no exige cantidades crecientes de insumos agrícolas Se puede hacer más con lo mismo —o con menos— usando más de otro insumo del que tampoco andamos tan sobrados: materia gris.

La gestión de la deriva como problema fundamental del bayesianismo

Esta entrada no versa propiamente sobre estadística bayesiana (aunque también) sino sobre el bayesianismo entendido —exageradamente, a veces— como la columna vertebral de la epistemología. De acuerdo con tal visión, solo podemos conocer las cosas —concedido: no todas— con cierto grado de certeza y tanto este conocimiento como la incertidumbre van adaptándose a la información adicional que llega de acuerdo con un criterio: la regla de Bayes.

Pensemos en el ejemplo clásico del lanzamiento de monedas. No sabemos nada a priori sobre la probabilidad $p$ de cara, por lo que nuestro conocimiento sobre el asunto puede modelarse con una beta $B(1,1)$, una distribución uniforme sobre el intervalo $[0,1]$. Conforme observamos lanzamientos, de ser racionales, iremos modificando esa distribución. Si al cabo de $n$ lanzamientos observamos $c$ caras y $n-c$ cruces, nuestro conocimiento sobre $p$ estará recogido en una $B(c+1, n-c+1)$. Esa distribución estará típicamente centrada alrededor del valor real de $p$ y tendrá una dispersión que decrecerá con $n$. (En otra versión, hay un primer conjunto de datos, se obtiene una posteriori y dicha posteriori se convierte en la priori de un análisis ulterior cuando se observa un conjunto de datos adicional).

El algoritmo FSRS para Anki y algunos otros asuntos más sobre modelización estadística

I.

Understanding Basis Spline (B-spline) By Working Through Cox-deBoor Algorithm, sobre los B‑splines, el algoritmo de Cox–de Boor para calcularlos y construirlos y cómo usarlos en modelos. Ajusta un modelo con mgcv:gam primero y luego lo reproduce con lm para entender cuáles son esas nuevas variables que forman la base de los spines que gam genera automágicamente. Una vez ahí, pasa a ilustrar cómo utilizar los splines en stan.

II.

Gelman sobre la heurística del la inversión del error. La idea es la siguiente:

Gráficas de sesgo vs gráficas de calibración y algunas notas más sobre estadística

Si los datos en tratamiento tienen más varianza que los datos en control, ¿deberías sobrerrepresentar alguno de los grupos en el experimento? La respuesta es sí: deberías sobrerrepresentar el grupo de tratamiento.

El principio de la piraña: dado que el mundo observable es razonablemente predecible, una de dos:

  • o bien no hay demasiados factores grandes independientes operando causalmente,
  • o bien estos factores grandes interactúan negativamente entre sí de manera que se cancelan mutuamente.

Cita Jessica Hullman un parrafito de un artículo de Cornfield y Tukey (sí, ese Tukey) que traduzco aquí: