Posts

Demografía: la regla del 85

Existe una regla rápida en demografía para estimar la población futura de un país: tomar el número de nacimientos en un año dado y multiplicarlo por 85. En 2023 nacieron en España 321k chiquillos; por 85, da 27 millones, aproximadamente la mitad de la actualmente existente. Los interesados pueden consultar los datos de su CCAA de interés aquí y hacer cuentas.

La aproximación, obviamente, está basada en el lo que pasaría en un estado estacionario y en ausencia de emigración/emigración significativa. Es simplemente, un truco para obtener rápidamente una cifra-pivote alrededor de la cual plantear escenarios diversos, si es que a uno le interesan esas cosas y tiene tiempo que dedicarles.

Sobre los argumentos de David Deutsch contra el bayesianismo y algunos asuntos más

Tiene Tyler Cowen un artículo en Bloomberg sobre la neutralidad en la red que un LLM me resume así:

El larguísimo debate sobre la neutralidad de la red ha resultado ser irrelevante. Una reciente decisión judicial ha eliminado nuevamente la normativa. Sin embargo, la experiencia de los usuarios de internet apenas ha cambiado, y riesgos previstos, como la limitación de contenido o el aumento de tarifas, no se han materializado. Esto demuestra que la abundancia, más que la regulación, puede resolver el problema de acceso.

ALIA: los enlaces

ALIA es el LLM público español. Hasta hace no mucho se sabía poco de él. Durante meses, solo hubo dos clústers de noticias:

  • Uno, alededor del 25 de febrero de 2024, coincidiendo con el anuncio de la cosa (véase, por ejemplo, esto o esto).
  • Otro, alrededor de abril de 2024, cuando se anunció un acuerdo con IBM para el desarrollo de dicho modelo (veáse esto o esto).En esa época ya tenía nombre, ALIA, y se lo esperaba para después del verano (véase esto).

Después hubo una especie de apagón informativo —acabó el verano y yo no paraba de pulsar F5 en Google en vano— solo rasgado por una críptica nota de Alberto Palomo, aquél que fue ungido tiempo atrás como el CDO del Reino de España, que en una entrevista en El Confidencial a principios de diciembre decía de pasada que:

Unas cuantas noticias sobre LLMs

GPT-4 se entrenó usando un clúster de 25k GPUs, Musk planea construir un centro de datos con 100k GPUs y Meta, uno de 350k. Sin embargo, parece que tecnologías emergentes como DiLoCo (de distributed low communication), permitirá entrenar esos modelos sin necesidad de grandes centros de cálculo. Una visión alternativa en la que se especula con la construcción de enormes centros de datos (con potencias eléctricas de hasta de 5GW) puede verse aquí.

Causalidad, utilidad y teoría de la decisión

Scott Sumner escribe aquí:

La causalidad es un concepto ambiguo que depende de qué contrafácticos son los más útiles. Por lo tanto, se podría decir que la deflación de China está causada por un yuan sobrevaluado. O se podría decir que, asumiendo un valor fijo del yuan, la deflación es causada por malas políticas del lado de la oferta. Ambas afirmaciones son defendibles. La pregunta es: ¿qué solución es la más factible, la más útil?

Sobre los nombres de persona asociados a coeficientes intelectuales bajos y algunos otros asuntos más

En Dear Political Scientists: Don’t Bin, GAM Instead se discute una ocurrencia concreta de una disyuntiva más general que aparece frecuentemente en la práctica: crear varios modelos simples con bloques diferentes de datos contra utilizar un modelo global flexible que englobe todos los datos. Tengo la sospecha de que se ha optado históricamente por la primera aproximación por motivos —entre otros— computacionales que ya no operan.

La única manera de plantearse en serio la pregunta Will Transformers Revolutionize Time-Series Forecasting? es no saber de predicción de series temporales y no saber de transformers. No está nada claro, por ejemplo, cómo usar transformers para modelar series como $y_t = \alpha t + \epsilon_t$. Pudiera ser que LSTM funcionase mejor (véase esto o esto) pero sigo apostando por Forecasting: Principles and Practice.

Dizque "allí donde hay un objeto, un verbo y un sujeto, hay causalidad"

Estaba revisando algunos artículos relacionados que tenía guardados sobre el asunto de la causalidad,

todos ellos de la órbita mal llamada racionalista y dos ellos de la pluma de Eliezer Yudkowsky, que dan vueltas alrededor del asunto de la causalidad y que traen dos definiciones distintas (e incompatibles) de la cosa.

En efecto, la primera definición discute la causalidad en términos de cosas que hacen que sucedan otras cosas. En tal caso, la causalidad estaría en el mundo, sería objetiva y pertenecería al ámbito de las cosas. La segunda dice que hay causalidad ahí donde un sujeto, un verbo y un objeto. En el tercer párrafo del tercero de los artículos citados más arriba pueden verse las dos, una al lado de la otra, como si fuesen una misma cosa o se implicasen mutuamente de manera tan obvia que no exige siquiera demostración. Pero ahí donde hay un sujeto, un verbo y un objeto tiene que haber necesariamente alguien que los piensa y los escribe o pronuncia. De acuerdo con la segunda forma de entender la causalidad, esta dependería del punto de vista.

Varios apuntes sobre causalidad

Lo más satisfactorio de la entrada Resolving disputes between J. Pearl and D. Rubin on causal inference es constatar cómo el autor, Andrew Gelman, también encuentra opacos conceptos muy pearlianos como el de collider of an M-structure.

La entrada de NadaEsGratis en cuestión se titula Consumo de alcohol entre los adolescentes y rendimiento educativo. Por dónde y cuándo se ha publicado, sabemos sin leerla que va a encontrar una relación negativa entre ambos. Pero el estudio está plagado de problemas (el uso de proxies, efectos pequeños, la gran cantidad de ruido, la falacia ecológica, etc.), cualquiera de los cuales hemos visto por sí solos poner en cuestión otros resultados en otras partes. Afortunadamente para el autor, como solo busca probar que la hierba es verde y que al agua moja, es muy probable que nadie lo cuestione con el manual de metodología en mano.

carlos:~/ $ clih "Find all files older than 45 days"

Estas cosas hace ahora mi terminal:

carlos:bin/ $ clih "Find all files older than 45 days"
find / -type f -mtime +45 -print

A clih le paso la descripción de una tarea que quiero realizar en mi ordenador y me devuelve el comando correspondiente. Lo he construído así:

  1. He instalado LLM para llamar modelos desde línea de comandos.
  2. Lo he contectado con mi cuenta en DeepInfra según estas instrucciones (con la salvedad de que estoy usando Llama-3.3-70B-Instruct). De todos modos, es posible que cambie pronto a DeepSeek V3, que es mejor y más barato.
  3. He creado un template con el nombre de clihint; véanse los detalles debajo.
  4. He creado un alias así: alias clih='llm -t clihint'

El template, inspirado en esto, es un fichero yaml con el siguiente contenido:

LLMs: ModernBERT y algunos asuntos más

Aplicaciones

Daisy, una “abuelita IA” para marear a los estafadores. Se trata de una herramienta creada por O2 en el RU que atiende llamadas telefónicas de timadores y entabla conversaciones con ellos con el objetivo último de hacerles perder tiempo. Van a ser entretenidos los falsos positivos cuando, sin duda, los haya.

Prompts

Por un lado, internet está plagada de tutoriales y trucos para generar mejores prompts. Por otro, se advierte una brecha cada vez más ancha entre quienes saben utilizar los LLMs con cierta soltura y los que no. Uno de los problemas que plantean los LLMs es que cada cual, por el momento, está prácticamente solo a la hora de diseñar su propio arsenal de herramientas construidas sobre los LLMs que resulten útiles para su trabajo concreto. Por eso y a pesar de la objeción que planteo arriba, me atrevo a mostrar, como ejemplo de buen uso de estas tecnologías lo que se cuenta en 5 Mega ChatGPT Prompts that I Use Everyday to Save 4+ Hours.