Cortos

Sobre la menguante calidad de las estadísticas públicas y algunos otros asuntos más

El fertilizante para jardinería trae por detrás tres numeritos tras la etiqueta NKP, que indican la proporción de nitrógeno, potasio y fósforo en la mezcla. Es sabido que el crecimiento de las plantas está limitado por el más escaso: es decir, fijada una de las tres letras, incrementar las otras dos no aporta beneficio alguno. Sin embargo, no solo de fertilizante viven los cultivos y las tendencias globales muestran que producir más comida no exige cantidades crecientes de insumos agrícolas Se puede hacer más con lo mismo —o con menos— usando más de otro insumo del que tampoco andamos tan sobrados: materia gris.

El algoritmo FSRS para Anki y algunos otros asuntos más sobre modelización estadística

I.

Understanding Basis Spline (B-spline) By Working Through Cox-deBoor Algorithm, sobre los B‑splines, el algoritmo de Cox–de Boor para calcularlos y construirlos y cómo usarlos en modelos. Ajusta un modelo con mgcv:gam primero y luego lo reproduce con lm para entender cuáles son esas nuevas variables que forman la base de los spines que gam genera automágicamente. Una vez ahí, pasa a ilustrar cómo utilizar los splines en stan.

II.

Gelman sobre la heurística del la inversión del error. La idea es la siguiente:

Gráficas de sesgo vs gráficas de calibración y algunas notas más sobre estadística

Si los datos en tratamiento tienen más varianza que los datos en control, ¿deberías sobrerrepresentar alguno de los grupos en el experimento? La respuesta es sí: deberías sobrerrepresentar el grupo de tratamiento.

El principio de la piraña: dado que el mundo observable es razonablemente predecible, una de dos:

  • o bien no hay demasiados factores grandes independientes operando causalmente,
  • o bien estos factores grandes interactúan negativamente entre sí de manera que se cancelan mutuamente.

Cita Jessica Hullman un parrafito de un artículo de Cornfield y Tukey (sí, ese Tukey) que traduzco aquí:

Estadística vs aprendizaje automático y algunos asuntos más

Cuando comparo valores reales contra estimados/predichos, tengo la costumbre de colocar los valores observados en el eje horizontal y las predicciones en el vertical. Así puedo ver si yerro por exceso o por defecto (con respecto a la línea, típicamente roja, $y = x$). Sin embargo, tanto en este artículo como en esta entrada de blog, se argumenta en favor de lo contrario.

Hay una diferencia sustancial entre el bayesianismo abstracto y el aplicado (o computacional): el primero siempre habla de aprendizaje secuencial y de encadenamiento de posterioris: la posteriori de un primer estudio con unos datos parciales se convierte automáticamente en la priori de uno posterior con un conjunto de datos adicional. En la versión práctica, solo es posible en ciertos casos concretos (p.e., cuando hay distribuciones conjugadas) pero no en general. En general uno obtiene una descripción de la posteriori en términos de una serie de muestras que no hay forma de utilizar después como priori. Sin embargo, pasan cosas como esta o esta

LLMs para la predicción de series temporales y algunos asuntos más

El prompt injecting es una técnica para robar información a un agente. Si un agente tiene, por ejemplo, acceso al correo electrónico, se le puede enviar un mensaje dándole instrucciones que alteren su comportamiento. Es un problema bien conocido de los agentes y ahora en Defeating Prompt Injections by Design se describe una solución basada en dos agentes, uno de los cuales tiene como función supervisar las acciones del otro.

Como no puede ser de otra manera, el MCP plantea grandes problemas de seguridad.

Cómo recompensamos a los creadores de ideas y algunos asuntos más

Comienzo con tres artículos recientemente sobre un mismo tema: los problemas de los que adolecen las estadísticas públicas y las dificultades que ello supone para la gestión económica. Uno de ellos es este, en el que se da cuenta de la creciente desconfianza de los economistas de muchos países en los resultados de las encuestas que publican los órganos estadísticos. Apunta a dos causas: la infrafinanciación de la función estadística y a la desconfianza de la población, manifestada en el derrumbe de la tasa de respuesta en las encuestas. El segundo se refiere a problemas específicos en el cómputo de la tasa de inflación en Argentina provocados por la flagrante desactualización de los ítems de la canasta de referencia. El tercero abunda en las sutilezas del proceso de actualización de dicha canasta.

Una serie de apuntes sobre tecnología

El estado francés ha creado una plataforma, La Suite (¿Numérique?), que parece una especie de Teams de código abierto pensada para el sector público. Como acostumbramos a decir los europeos de pro, el Airbus de los workspaces.

Hablando de código abierto, en The Value of Open Source Software se estima su valor (8.8 billones españoles de dólares) y su precio (4.15 miles de millones). Además, se calcula que las empresas tendrían que pagar 3.5 veces más por el software si todo él fuese propietario.

Una serie de apuntes sobre modelos estadísticos

Andrew Gelman se pregunta periódicamente por la obsesión generalizada en involucrar a Jesucristo con los modelos lineales. Versión corta: si el año se modela tal cual (p.e., 2025), el término independiente nos aporta información sobre el hipotético estado de las cosas en el año en el que nació. En general, es conveniente parametrizar las variables de manera que el término independiente de un GLM tenga un mínimo contenido informativo.

Un artículo muy raro de Manuel Hidalgo en NadaEsGratis que incluye todas las palabras que hacen que dejes de leer algo: cuántico, entropía, desorden (como sinónimo de incertidumbre), etc. Lo relevante de la cosa no parece ser tanto lo que cuenta (ya sabemos que hay incertidumbre en el mundo, ya sabemos que nuestra visión del mundo está marcada por la incertidumbre, etc.) sino poder constatar que a ciertos segmentos de la población hay que recordarles estas cuestiones y que puede que incluso se sorprendan cuando se las cuentan.

Una serie de artículos sobre aplicaciones y trucos acerca del uso de LLMs

Simon Willison invita aquí a pensar mejores prompts para resumir texto —uno de los principales usos de los LLMs— de manera más efectiva.

Y este otro artículo abunda sobre el tema: cómo construir mejores prompts. El problema que tiene es el de siempre: solo puedes entretenerte en pulir los prompts cuando esperas obtener mucho valor de la respuesta. Para el uso rápido y cotidiano, continuaremos con nuestras heurísticas frugales.

Dos usuarios avanzados de los LLMs desvelan sus algunos trucos:

¿Está empeorando la calidad de las estadísticas públicas? (y algunos asuntos más)

En Faulty Speedometers se discute el creciente problema de calidad en determinadas estadísticas de la ONS (el INE británico). Acerca de la EPA de allá, dice:

La caída de la tasa de respuesta no ha sido uniforme en todas las categorías demográficas y la ONS se ha visto obligada a aplicar cada vez más hipótesis y datos imputados a la hora de estimar el número de empleados, la tasa de paro y la tasa de inactividad. El resultado han sido estadísticas oficiales del mercado de trabajo que parecen ser simplemente incorrectas.