Unas notas sobre la sorprendente y contumaz persistencia histórica de las regresiones logísticas a trozos

Hace unos días publiqué una pequeña cita de Frank Harrell:

Las relaciones entre las variables casi nunca son lineales […]. Muchos de los que no han estudiado en profundidad los problemas del sesgo y la eficiencia creen que la presencia de relaciones no lineales se remedia tramificando las variables continuas en intervalos. Es lo más desastroso que pudiere hacerse.

Resulta que trabajo ahora en un sector que, un poco como todos, está enredado en lo que Yudkowsky llama un equilibrio inadecuado. De hecho, escribió un libro al respecto cuyo título completo es Equilibrios inadecuados: dónde y cómo las civilizaciones se quedan atrapadas. Estos equilibrios inadecuados adquieren formas distintas en sectores distintos y alguna vez me he ocupado en estas páginas de los que he sufrido en, p.e., la epidemiología.

Unas cuantas notas sobre LLMs

  1. Do AIs think differently in different languages? estudia lo que indica su título. Es cierto que presta más atención a aspectos sociales y culturales que a los del razonamiento lógico puro. Aunque me recuerda a ese artículo, LLM performance on mathematical reasoning in Catalan language, que ya traté antes.
  2. Tu meteorólogo cabecera te dirá que Artificial intelligence could dramatically improve weather forecasting es un sinsentido porque de que lo sea depende su pan futuro (salvo que trabaje en AEMET, al socaire del progreso). Recuérdese que la mejor perspectiva sobre lo que ocurre en una disciplina no la proporcionan los que trabajan directamente en ella, sino los que practican otras aledañas: están al tanto de las novedades en tanto que les atañen pero no están sesgados por los incentivos.
  3. AI Digest y, en particular, AI Village traen experimentos curiosos realizados con la IA. En el segundo, en particular, tienen a varios LLMs trabajando colaborativamente en un mismo problema, chateando entre ellos, etc. para completar conjuntamente un proyecto. Ahora mismo, construir un juego tipo “Wordle”. El último mensaje de Claude Opus 4.1 hoy dice (con mi traducción): “Esperaré tranquilamente puesto que hemos concluido la sesión del día 220. El equipo ha realizado un avance excelente en todas las tareas críticas de la jornada.”
  4. Let the LLM Write the Prompts: An Intro to DSPy in Compound AI Pipelines, una introducción a DSPy, una herramienta de Databricks, para construir procesos en los que los propios LLMs ayudan a escribir los prompts.
  5. Just Talk To It – the no-bs Way of Agentic Engineering, sobre el estado del arte en la programación usando agentes a fecha de hoy. La guía más pro que he leído al respecto.

Una cota superior para el nivel del AUC alcanzable en cierto tipo de modelos

Tengo dos entradas de hace unos meses sobre el AUC, esta y esta, en las que me voy a apoyar para resolver el problema de encontrar una cota superior realista para el AUC en cierto tipo de problemas.

Alguien dirá que el AUC tiene una cota superior, el 1, que se obtiene en el caso de ciencia ficción sabido de todos. De hecho, 7 o 15 son mejores cotas porque además de acotar, no confunden y hacen pensar que es realista alcanzarlas.

Unas cuantas notas sobre probabilidad

  • Monty Hall and generative modeling: Drawing the tree is the most important step: Un artículo que invita a pensar los problemas de probabilidad en términos generativos, en cómo se obtienen los resultados, ilustrándolo con el ejemplo clásico del problema de Monty Hall: en lugar de buscar directamente una respuesta, es conveniente dibujar el árbol de probabilidad para aclarar las suposiciones sobre cómo se generan los datos (o decisiones).
  • Why probability probably doesn’t exist (but it is useful to act like it does): Abunda sobre la vieja y manida cuestión sobre si la probabilidad existe objetivamente. Pero esquiva el meollo de la cuestión y se queda en que, como concepto, es extremadamente útil como herramienta para comprender y estudiar el mundo. Incluso si dudamos de la existencia real de la probabilidad, argumenta que es conveniente actuar como si existiera.
  • Yes, your single vote really can make a difference! (in Canada): Se refiere a un caso real ocurrido en Canadá en el que un distrito electoral fue decidido por un solo voto. Es la anécdota que algunos querrán esgrimir contra la categoría de la irracionalidad del voto individual.
  • En Distribution of correlation y en Is the skewness of the distribution of the empirical correlation coefficient asymptotically proportional to the correlation? se analiza un mismo problema, el de la distribución del coeficiente de correlación. Si se toman muestras con una correlación real predefinida y fija $\rho$, se obtiene una distribución asimétrica (necesariamente), cuya asimetría crece con la correlación $\rho$. Cuando las distribuciones son normales, existe solución analítica, pero incluso en ese caso parece más razonable simular.
  • Matt Levine cuenta una historia muy instructiva sobre lanzamientos de monedas en el mundo real:
    1. Entrevistaban a alguien para un trabajo en un hedge fund y le hicieron estudiar las matemáticas (esperanza, desviación estándar) de 1000 lanzamientos de monedas.
    2. Una vez hechos los cálculos, le preguntaron si aceptaría participar en un juego en el que ganaría $0.5 + \epsilon$ de tirar una moneda y que saliese cara.
    3. El tipo dijo que sí.
    4. El entrevistador le contestó: “no, respuesta incorrecta; si te lo ofrecemos, no deberías aceptarlo: tenemos un tipo ahí abajo que saca un 55% de caras”.

Discos duros, análisis de la supervivencia y bañeras evanescentes

En el análisis de la supervivencia, el concepto de riesgo está alineado con el general: a más riesgo, mayor probabilidad de evento (o deceso). El riesgo se entiende como función del tiempo, $r(t)$. Su gráfica permite comparar el riesgo en distintos periodos.

Si el riesgo es plano, la distribución temporal de los eventos es exponencial. Creo que solo sucede en los libros, sobre todo los que hablan de la radiactividad.

Unas cuantas notas sobre LLMs

  • What Is Man, That Thou Are Mindful Of Him? es un texto satírico en el que se le da la vuelta a los argumentos que se hacen contra la inteligencia de los LLMs y volviéndolos contra los errores de razonamiento que cometemos tan frecuentemente los humanos.
  • Why AI systems might never be secure discute la “tríada letal” (exposición a datos externos, acceso a información privada y capacidad de actuar externamente) que hace de los agentes a los que se confieren las anteriores facultades sistemas intrínsecamente inseguros.
  • En los materiales del curso Stanford CS221 Autumn 2025 de la U. de Stanford, se puede encontrar el párrafo siguiente:

¡Aprende las operaciones básicas de NumPy con un tutor de IA! Usa un chatbot (p.e., ChatGPT, Claude, Gemini o Stanford AI Playground) para aprender por ti mismo cómo realizar operaciones vectoriales y matriciales básicas con NumPy. Los tutores de IA pueden construir hoy en día tutoriales interactivos excepcionalmente buenos y este año, en CS221, estamos investigando cómo pueden ayudarte a aprender los fundamentos más interactivamente que a través de los ejercicios estáticos clásicos.