El análisis de la supervivencia aplicado al tiempo de resolución de las conjeturas matemáticas más famosas

Se publicó hace un tiempo un análisis bastante curioso sobre la supervivencia de las conjeturas matemáticas a lo largo del tiempo. Es de agradecer que su autora haga explícitas las objeciones que a cualquiera se le ocurren sobre el universo muestral y el método de muestreo: Estamos utilizando los tiempos de resolución de las conjeturas recordadas como un proxy de los tiempos de resolución de todas las conjeturas. El tiempo de resolución de las conjeturas recordadas puede estar sesgado de varias maneras: las conjeturas antiguas quizá tengan más probabilidades de ser recordadas si han sido resueltas que si no lo han sido; las conjeturas resueltas muy recientemente probablemente también tengan más probabilidades de ser recordadas (aunque esto solo importa porque la tasa a la que se formulan conjeturas probablemente ha cambiado con el tiempo); y las conjeturas que fueron especialmente difíciles de resolver también pueden resultar más notables. El último siglo contiene pocos datos, lo que hace particularmente fácil que las estimaciones correspondientes sean inexactas. ...

19 de marzo de 2026 · Carlos J. Gil Bellosta

Notas (11) sobre LLMs: sistemas de productividad personal, aplicaciones para la investigación, etc.

Con cada nueva tecnología, aparece al menos un estudio que la usa para tratar de revivir la frenología. El turno ahora es para AI Personality Extraction from Faces: Labor Market Implications. El economista John Cochrane ha probado Refine, un agente diseñado específicamente para revisar críticamente artículos académicos, y nos cuenta cómo los comentarios recibidos son mejores que los de la mayoría de los revisores humanos, destacando la capacidad de Refine para identificar contradicciones y lagunas. ...

9 de marzo de 2026 · Carlos J. Gil Bellosta

Notas (6): Terence Tao sobre los LLMs en matemáticas y algunos asuntos más

Mathematical exploration and discovery at scale. Terence Tao describe su experiencia con AlphaEvolve, una herramienta que utiliza LLMs para evolucionar código para resolver problemas de optimización matemática. Tao lo relaciona con el descenso estocástico: en lugar de optimizar generando iterativamente nuevos vectores más o menos aleatorios que van aproximándose al óptimo, el sistema genera un programa aleatorio en Python que va refinando progresivamente el anterior. Una serie de herramientas creadas por Google: ...

2 de febrero de 2026 · Carlos J. Gil Bellosta

"Sobre las analogías en el derecho (y las matemáticas)" en el Almacén de Derecho

Diríase que por error, han aparecido publicadas unas líneas mías en el Almacén de Derecho. El artículo se titula Sobre las analogías en el derecho (y las matemáticas) y trata de varias cosas: El problema de determinar cuándo un razonamiento analógico es fiable. El problema anterior circunscrito al ámbito del derecho. Cómo lo entiende un matemático que lo contempla desde fuera (y, por supuesto, desde la más absoluta ignorancia en la materia). Es decir, no le va a interesar a nadie. Pero si te pica la curiosidad, no te prives de hacer clic en la cosa.

21 de octubre de 2025 · Carlos J. Gil Bellosta

El teorema de Napoleón via SymPy

Durante el pasado periodo estival, como es tradición, me extrajeron alevosamente de la M-30. Me introdujeron en una caja metálica, me amarraron a una silla y me torturaron durante seis horas, en el transcurso de las cuales, las únicas percepciones del mundo exterior que impactaron mis sentidos fueron calor, ruido, cerros, pinos y dolores en las asentaderas. Como no había otra cosa que hacer y tenía frescos los enunciados de los problemas de la última olimpiada internacional de matemáticas —que, como recordarán los lectores del blog, tuvo cierto impacto mediático por el excelente resultado logrado en ella por los LLMs más avanzados—, me puse con uno de ellos. Estoy muy pagado de mí mismo por el hecho de que, salvo por un par de cabos sueltos que solo pude rematar cuando conseguí lápiz, papel y silencio, dejé uno de ellos prácticamente resuelto. ...

4 de septiembre de 2025 · Carlos J. Gil Bellosta

Claude y el desafío matemático navideño de 2024

Dice Gaussianos: Siguiendo la tradición desde 2012, vuelve el Desafío Matemático RSME-El País de Navidad. Este año, como hace ya tiempo, de nuevo es Adolfo Quirós (profesor de la Universidad Autónoma de Madrid (UAM) y director de La Gaceta de la Real Sociedad Matemática Española) quien nos lo presenta. El problema es el siguiente: El desafío comienza cuando elegimos dos números de la Lotería de Navidad (recordemos que tienen 5 cifras), con la única condición de que cumplan estos dos requisitos: ...

24 de diciembre de 2024 · Carlos J. Gil Bellosta

Descuento hiperbólico: lo que es y lo que no es

I. La teoría dice que el valor ahora (o presente) de un bien $A$ en el futuro, dentro de un tiempo $t$, es $A\exp(-tr)$, donde $r$ es la llamada tasa de descuento. Entonces, si $A$ son 100 € y la $r$ de cierto individuo es tal que el valor presente de 100 € dentro de un año son 50 €, este individuo valorará de igual manera 50 € hoy o $100 \exp(-r) = 50$ € dentro de un año. ...

3 de junio de 2024 · Carlos J. Gil Bellosta

La ley fuerte de los números pequeños

Richard K. Guy tiene un artículo, [The Strong Law of Small Numbers], bastante ameno en el que se encuentran cosas como que, hay que admitirlo, tienen su público. Pero para el de este blog, será mucho más provechoso este otro extracto: Desafortunadamente, los civiles (i.e., los no matemáticos) no suelen dar por buenas demostraciones por intimidación. Pero no le falta razón al decir que, en presencia de desinformación, mirar no basta.

30 de mayo de 2023 · Carlos J. Gil Bellosta

Siete problemas matemáticos que plantea el "deep learning"

La emergencia (y el éxito) del llamado aprendizaje profundo (deep learning) plantea innumerables cuestiones matemáticas. Algunos algoritmos funcionan (y otros muchos que han quedado en los cajones no, obviamente) y no está muy claro por qué. He aquí una lista de siete problemas que el aprendizaje profundo ha colocado enfrente de la comunidad matemática: ¿Cuál es el papel de la profundidad en las redes neuronales? (En el fondo, una red neuronal no deja de ser una función que aproxima otra desconocida; en matemáticas abundan los procedimientos y resultados para aproximaciones planas (p.e., combinaciones lineales de funciones); pero la composición de funciones…) ¿Qué aspectos de la arquitectura de una red neuronal impactan en su desempeño? (Porque, admitámoslo, los expertos en redes neuronales, en lo concerniente a la arquitectura, no son muy distintos de aquellos artesanos del Pacífico Sur). ¿Por qué el SGD converge a mínimos locales buenos a pesar de la no-convexidad del problema de optimización? (¡Ah! En este punto, la intriga se mezcla con la envidia: no sabéis lo difícil que es optimizar funciones no lineales más o menos genéricas y las horas que he invertido en ese tipo de problemas.) ¿Por qué no sobreentrenan las redes neuronales? (¿No lo hacen?) ¿Por qué funcionan bien en altas dimensiones? ¿Qué tipo de patrones de los datos son susceptibles de ser aprendidos por las redes neuronales? ¿Podrían llegar las redes neuronales a reemplazar a los algoritmos teóricos y numéricos especializados que se utilizan en las aplicaciones de las matemáticas? Estas cuestiones —obviamente, sin soluciones— junto con alguna discusión adicional más, se discuten menos brevemente que aquí en este enlace.

27 de abril de 2023 · Carlos J. Gil Bellosta

Sobre la llamada ley del estadístico inconsciente

Es innegable que el rótulo ley del estadístico inconsciente llama la atención. Trata sobre lo siguiente: si la variable aleatoria es $X$ y la medida es $P_X$, entonces, su esperanza se define como $$E[X] = \int x dP_X(x).$$ Supongamos ahora que $Y = f(X)$ es otra variable aleatoria. Entonces $$E[Y] = \int y dP_Y(y)$$ para cierta medida (de probabilidad) $P_Y$. Pero es natural, fuerza de la costumbre, dar por hecho que ...

24 de noviembre de 2022 · Carlos J. Gil Bellosta