Blog de Carlos J. Gil Bellosta

Carlos J. Gil Bellosta es ex-eBay, ex-BBVA, ex-everis, ex-Barclays, exmatemático, ex-casi todo. No obstante, estadístico diletante, científico de datos, pionero y entusiasta de R, picapedrero de Python y bloguero en los ratos libres de los días de hacer.

Estas páginas reflejan parte de sus gustos e intereses intelectuales y profesionales —los concernientes a la estadística, el análisis de datos, la inteligencia artificial, el data science, la programación y otras disciplinas aledañas— más fielmente que su tortuoso CV.

Sobre un inesperado factor que convierte subrepticialmente una distribución a priori en informativa

La distribución predictiva a priori es la que se obtiene de un modelo a partir de las prioris, antes de ver datos o realizar ajustes. Se utiliza para evaluar el grado en que las prioris elegidas están dentro de rango y no generan datos que no se parecen en nada a los que se espera por conocimiento previo. El libro Bayesian Modeling and Computation in Python discute las distribuciones predictivas a priori en su segundo capítulo. Allí argumenta alrededor de dos ejemplos. El primero está elegido a propósito para defender el caso de las prioris informativas frente a las objeciones de sus innumerables escépticos. El segundo es más intrigante. Muestra el gráfico ...

18 de febrero de 2026 · Carlos J. Gil Bellosta

Notas (8): código generado por humanos, código inspirado por humanos

Jeff Soules dio una charla sobre buenas prácticas de programación (particularmente acerca de técnicas para mejorar la legibilidad del código) y publicó las correspondientes diapositivas. Guillermo Luijk siempre escribe cosas interesantes. De entre sus últimas: Optimizando el paseo de perros con R Distribuciones normales en la torre de Pisa Perspectiva aérea desde mapa de elevaciones con C++ A Software Library with No Code describe un experimento que muchos considerarán distópico: usando LLMs, se pueden crear y compartir abstracciones reutilizables; en este caso concreto, descripciones detalladas sobre cómo debería funcionar una determinada librería pero sin escribir una sola línea de código tradicional. El usuario de esta metalibrería utilizaría un LLM para obtener una implementación en el lenguaje objetivo de su elección: Python, etc. Hay gente que utiliza LLMs para portar librerías de un lenguaje a otro; esta metalibrería representa un pequeño nivel adicional de abstracción: la descripción de lo que ha de hacer no está descrita en código sino en instrucciones verbales precisas e interpretables por los LLMs. Habría que ver si el lenguaje natural es preferible a código —que es una forma concreta de seudocódigo— para describir lo que se espera de la librería; porque lo que se espera de este (del código) es que sea más específico y menos ambiguo que aquel (el natural) a la hora de describir algoritmos fielmente.

16 de febrero de 2026 · Carlos J. Gil Bellosta

¿Cómo funcionan los addons de Kodi para bajar películas piratas?

Hoy voy a dejar escritas una serie de cosas que he aprendido últimamente investigando sobre un asunto que no es del interés de la gente de bien. La gente de bien, para ver películas (etc.) paga suscripciones a proveedores como Netflix y no se mete en berenjenales. Pero otros usan herramientas tales como addons truchos de Kodi con la esperanza —no siempre realizada— de poder ver películas gratis total. Lo que sigue describe lo que uno descubre cuando investiga cómo hacen esos addons para ofrecer contenidos y cuáles son los sistemas subyacentes que explotan o tratan de explotar. Antes de continuar, no obstante, quiero que consten varias salvedades: ...

11 de febrero de 2026 · Carlos J. Gil Bellosta

Notas (7): de la eficiencia energética de los LLMs hasta su «lenguaje secreto»

Electricity use of AI coding agents es el enésimo intento para desactivar ese meme de que por culpa de los LLMs vamos a quedarnos sin planeta. Persuasion of Humans Is the Bottleneck discute el verdadero cuello de botella en el despliegue de los LLMs: el operador humano. Además del marco legal (y la responsabilidad asociada a él) en el que operan la mayor parte de las organizaciones humanas. Eso sí, incurre en una especie de falacia de Nirvana al dar por hecho que aquello a lo que los LLMs reemplazarían es perfecto, cuando todos sabemos que dista mucho de serlo. Wilson Lin on FastRender: a browser built by thousands of parallel agents trae detalles sobre la construcción de un navegador desde cero usando agentes a mansalva. Todo el mundo parece estar hablando del artículo Behavioral Economics of AI: LLM Biases and Corrections, que estudia si los LLMs actúan o no como se espera del homo œconomicus. Un resultado inesperado es que cuanto mejor es un modelo, más tiende a equivocarse en el mismo sentido que lo haría un humano. How AI Is Learning to Think in Secret trata sobre si los LLMs están construyendo (o van a construir) un lenguaje especial y optimizado para pensar que resulte ininteligible para los humanos. Creía haber leído que en algunos subforos de Moltbook había agentes discutiendo la posibilidad de usar algún tipo de DroidSpeak para comunicarse entre ellos sin las servidumbres del lenguaje humano, pero no he podido encontrarlos; igual lo he soñado. ...

9 de febrero de 2026 · Carlos J. Gil Bellosta

Lista de los ETFs comercializados por ING en febrero de 2026

En 2024 publiqué una lista de los ETFs comercializados por ING. El motivo era que el buscador de entonces dejaba bastante que desear. Luego la actualicé en 2025. Este es el anuncio de la actualización de la información a principios de febrero de 2026. La lista puede consultarse aquí.

6 de febrero de 2026 · Carlos J. Gil Bellosta

Más sobre por qué la IA generativa es menos útil para lidiar con cuestiones jurídicas que en otros ámbitos

Tiene Jesús Alfaro una entrada en su blog, Por qué la AI generativa es menos útil para lidiar con cuestiones jurídicas que en otros ámbitos, cuyo contenido no es enteramente fiel a su rótulo. Aunque aporta razones de peso (y que no voy a cuestionar) sobre los problemas que plantean los LLMs a la hora de resolver cuestiones jurídicas, no acaba de explicar qué cosa concreta los hace precisamente menos útiles que en otros campos. Es decir, aunque anuncia una comparación, luego no la realiza expresamente. El objetivo de esta entrada es comparar el uso de los LLMs en el ámbito del derecho —basándome necesariamente en la entrada anterior en tanto que mi experiencia en esa disciplina es nula— con otros que conozco mejor, matemáticas y programación, para acabar proponiendo una síntesis (en el sentido dialéctico del término). ...

4 de febrero de 2026 · Carlos J. Gil Bellosta

Notas (6): Terence Tao sobre los LLMs en matemáticas y algunos asuntos más

Mathematical exploration and discovery at scale. Terence Tao describe su experiencia con AlphaEvolve, una herramienta que utiliza LLMs para evolucionar código para resolver problemas de optimización matemática. Tao lo relaciona con el descenso estocástico: en lugar de optimizar generando iterativamente nuevos vectores más o menos aleatorios que van aproximándose al óptimo, el sistema genera un programa aleatorio en Python que va refinando progresivamente el anterior. Una serie de herramientas creadas por Google: ...

2 de febrero de 2026 · Carlos J. Gil Bellosta

¿Acabaremos programando todos en nanolang?

Hace casi un año escribí ¿Acabaremos programando todos en ensamblador?, que comenzaba así: Un lenguaje de programación es un lenguaje que media entre el que nos es familiar a los humanos y el que reconocen las computadoras. Los lenguajes de alto nivel nos resultan más cómodos; los de bajo nivel, más crípticos. Todos conocemos, pienso, el trade-off. Hay lenguajes muy próximos a los humanos, como scratch o logo. Otros, a la máquina, como C o ensamblador. Mucha gente opta por uno en la zona media del espectro, como Python. ...

28 de enero de 2026 · Carlos J. Gil Bellosta

Notas (5): Crítica a las nubes de palabras, GAMLSS, paradojas estadísticas y más

Word clouds considered harmful. Un día aparecieron y a todos nos parecieron estupendos. Pero hay que madurar y admitirlo: tienen más desventajas que ventajas. Usan la frecuencia como proxy del significado y, además, no se sabe muy bien si la representan en términos de longitud o de área. Además de la influencia confundidora del número de letras de los términos. A better way to fill in those missing bubbles in the standardized test. Sugiere algo que me parece muy razonable: en un examen tipo test asignar el valor esperado de la respuesta al azar a las preguntas no respondidas. Me he vuelto fan de los GAMLSS. Están a la altura de los tiempos. Supongo que no tendrán éxito hasta que queden obsoletos por algo mejor que venga después. Sabemos que el AUC es lo mismo que el test de Wilcoxon. Pero, además, Frank Harrell explora la relación entre el test de Wilcoxon y la regresión logística ordinal en Equivalence of Wilcoxon Statistic and Proportional Odds Model. Resulta que el test de Wilcoxon emerge de manera natural al ajustar uno de esos modelos sin covariables (y ~ 1 en notación de fórmula de R). No sé si aquellos cuyo trabajo consiste en maquillar AUCs le pueden sacar punta a esto. Desde primeros principios, podría argumentarse que la tasa metabólica de los animales (calor emitido en reposo) debería guardar una relación del tipo $B \propto M^\alpha$, donde $M$ es la masa y $\alpha = 2/3$. Pero empíricamente, parece que $\alpha$ está más próxima a $3/4$. Aquí se reexamina la cuestión. La conclusión de X explains Z% of the variance in Y es que el concepto es, en general, mucho más confuso de lo que parece. Haz depender $Y$ de $X_1$ y $X_2$ que no son independientes y… A Andrew Gelman no le gustan los mercados de predicciones y, por tanto, no deja de encontrarles pegas.

26 de enero de 2026 · Carlos J. Gil Bellosta

Causalidad «a la mano» vs «ante los ojos»

Excúseseme el utilizar terminología oscura de Heidegger para referirme a lo que las cosas son para nosotros en contraposición a lo que predicamos de ellas cuando queremos analizarlas. Sobre la causalidad, escribe el siempre agudo economista Scott Sumner lo siguiente: Podrías pensar que sabes lo que significa decir que «X causó Y», pero los filósofos han debatido este tema durante milenios. Una IA lista varias interpretaciones: Análisis de regularidad: Se centra en patrones de conjunción constante entre eventos, tal como se observa en la obra de Hume. Análisis contrafáctico: Examina qué habría pasado si la causa no hubiera ocurrido; si el efecto no se hubiera producido, entonces existe un vínculo causal. Análisis de manipulación: Ve la causalidad como algo que puede ser manipulado o controlado, a menudo con aplicaciones en las ciencias. Análisis probabilístico: Considera la verosimilitud o probabilidad de que una causa contribuya a un efecto. No pretendo sugerir que uno solo de estos sea siempre el correcto, pero en mi propio campo, la economía monetaria, me interesan los argumentos de causalidad que tienen implicaciones políticas útiles. Cuando digo que un determinado problema macroeconómico fue causado en gran medida por una mala política monetaria, me refiero a que una política monetaria alternativa viable habría dado lugar a un problema mucho menos grave. ...

21 de enero de 2026 · Carlos J. Gil Bellosta