Posts

¿Se ha duplicado realmente el número de personas que consumen alcohol a diario en la provincia de Madrid?

Me he enterado por esto de una noticia que recoge, por ejemplo, Europa Press, y de donde extraigo un párrafo que lo dice casi todo:

El secretario de Estado de Sanidad, Javier Padilla, ha advertido este miércoles que el número de personas que consumen alcohol a diario en la Comunidad de Madrid “casi se ha duplicado” desde el año 2000, mientras que en el conjunto de España aumenta “de forma muy pequeña”, y ha acusado a la presidenta regional…

Estadística vs aprendizaje automático y algunos asuntos más

Cuando comparo valores reales contra estimados/predichos, tengo la costumbre de colocar los valores observados en el eje horizontal y las predicciones en el vertical. Así puedo ver si yerro por exceso o por defecto (con respecto a la línea, típicamente roja, $y = x$). Sin embargo, tanto en este artículo como en esta entrada de blog, se argumenta en favor de lo contrario.

Hay una diferencia sustancial entre el bayesianismo abstracto y el aplicado (o computacional): el primero siempre habla de aprendizaje secuencial y de encadenamiento de posterioris: la posteriori de un primer estudio con unos datos parciales se convierte automáticamente en la priori de uno posterior con un conjunto de datos adicional. En la versión práctica, solo es posible en ciertos casos concretos (p.e., cuando hay distribuciones conjugadas) pero no en general. En general uno obtiene una descripción de la posteriori en términos de una serie de muestras que no hay forma de utilizar después como priori. Sin embargo, pasan cosas como esta o esta

Un paseo por la Dark Web que os haría llorar a los más

Por motivos estrictamente laborales, he pasado estos días algunas horas navegando por la llamada dark web. El motivo es fácil de explicar:

  • Trabajo para una empresa que tiene un problema creciente de pérdidas por fraude digital (¿cuál no?).
  • Nuestro equipo está encargado, entre otras cosas, de minimizar su impacto detectándolo lo antes posible.
  • Como somos todos gente honrada y sin malicia, vamos un poco a ciegas: ¿cuáles son realmente los patrones que buscamos?

Hay dos maneras de afrontar el problema:

LLMs para la predicción de series temporales y algunos asuntos más

El prompt injecting es una técnica para robar información a un agente. Si un agente tiene, por ejemplo, acceso al correo electrónico, se le puede enviar un mensaje dándole instrucciones que alteren su comportamiento. Es un problema bien conocido de los agentes y ahora en Defeating Prompt Injections by Design se describe una solución basada en dos agentes, uno de los cuales tiene como función supervisar las acciones del otro.

Como no puede ser de otra manera, el MCP plantea grandes problemas de seguridad.

Migración de Pocket a Wallabag

Creo que en alguna ocasión he hablado de mi infraestructura para industrializar mi proceso de lectura. A grandes rasgos, funcionaba así:

  • Usaba Pocket como repositorio central. Una de las ventajas que ofrecía era que podía ser utilizado vía API.
  • Sigo unos cuantos blogs e importaba los RSS a Pocket en un proceso diario que corre via cron en mi servidor doméstico.
  • Además, en Pocket almacenaba artículos interesantes que encontraba mientras navegaba.
  • Un proceso horario reclasificaba esos enlaces en distintas etiquetas específicas para:
    • Entradas que leer más despacio (p.e, el fin de semana, frecuentemente con el apoyo de NotebookLM).
    • Entradas que archivar en Obsidian.
    • Entradas que me inspiran a escribir sobre asuntos en el blog.
    • Etc.
  • Una de las etiquetas, resumir se asociaba a enlaces cuyos contenidos pasaba luego por un LLM para obtener un resumen del texto. La entrada en cuestión, se reetiquetaba como resumida y, una vez leído el resumen, consideraba las distintas opciones: borrarla, reetiquetarla de nuevo, etc.

Todo el proceso ocurre con un alto grado de automatización:

Cómo recompensamos a los creadores de ideas y algunos asuntos más

Comienzo con tres artículos recientemente sobre un mismo tema: los problemas de los que adolecen las estadísticas públicas y las dificultades que ello supone para la gestión económica. Uno de ellos es este, en el que se da cuenta de la creciente desconfianza de los economistas de muchos países en los resultados de las encuestas que publican los órganos estadísticos. Apunta a dos causas: la infrafinanciación de la función estadística y a la desconfianza de la población, manifestada en el derrumbe de la tasa de respuesta en las encuestas. El segundo se refiere a problemas específicos en el cómputo de la tasa de inflación en Argentina provocados por la flagrante desactualización de los ítems de la canasta de referencia. El tercero abunda en las sutilezas del proceso de actualización de dicha canasta.

El voltaje en mi casa el día del apagón vs otros días de abril de 2025

Algunos de quienes me leen se acordarán de que sigo el consumo eléctrico —y otras variables concomitantes— de mi casa en tiempo casi real. De eso he hablado en otras ocasiones, como esta. En la sección de entradas relacionadas que acompaña a esta hay más referencias a ese entretenimiento mío.

Lo mido con un dispositivo chino que cada pocos segundos manda un ping a mi servidor local y otro a un servidor de su país de origen. Los nietos de Deng Xiaoping saben cuándo pongo lavadoras.

Una serie de apuntes sobre tecnología

El estado francés ha creado una plataforma, La Suite (¿Numérique?), que parece una especie de Teams de código abierto pensada para el sector público. Como acostumbramos a decir los europeos de pro, el Airbus de los workspaces.

Hablando de código abierto, en The Value of Open Source Software se estima su valor (8.8 billones españoles de dólares) y su precio (4.15 miles de millones). Además, se calcula que las empresas tendrían que pagar 3.5 veces más por el software si todo él fuese propietario.

Más sobre la relación entre la dispersión de las probabilidades y el AUC en modelos bien calibrados

Esta entrada está relacionada —aunque no es estrictamente una continuación— de la que escribí hace una semana sobre el mismo asunto.

Se vuelve a partir de lo siguiente: un modelo de clasificación binaria bien calibrado. Eso significa que si el modelo predice $p$ para el sujeto $i$, entonces $Y_i \sim B(p)$.

Supongamos que tenemos una población dada, aplicamos el modelo y obtenemos una distribución $f(p)$ para las probabilidades predichas. Entonces, la distribución de:

Una serie de apuntes sobre modelos estadísticos

Andrew Gelman se pregunta periódicamente por la obsesión generalizada en involucrar a Jesucristo con los modelos lineales. Versión corta: si el año se modela tal cual (p.e., 2025), el término independiente nos aporta información sobre el hipotético estado de las cosas en el año en el que nació. En general, es conveniente parametrizar las variables de manera que el término independiente de un GLM tenga un mínimo contenido informativo.

Un artículo muy raro de Manuel Hidalgo en NadaEsGratis que incluye todas las palabras que hacen que dejes de leer algo: cuántico, entropía, desorden (como sinónimo de incertidumbre), etc. Lo relevante de la cosa no parece ser tanto lo que cuenta (ya sabemos que hay incertidumbre en el mundo, ya sabemos que nuestra visión del mundo está marcada por la incertidumbre, etc.) sino poder constatar que a ciertos segmentos de la población hay que recordarles estas cuestiones y que puede que incluso se sorprendan cuando se las cuentan.