Adiós, Análisis y Decisión

Escribí en 2016:

Corría el año 2009 cuando comencé mi segunda aventura bloguera (nadie, yo incluido, quiere rememorar la primera) cuando Raúl Vaquerizo tuvo la caridad de aceptarme como colaborador en Análisis y Decisión.

En diciembre de aquel año escribí cómo utilizar R en una cosa que entonces comenzaba a sonar: la nube y, en concreto, el servicio EC2 de Amazon.

El resultado, probablemente totalmente desfasado, fue este.

Material de hemeroteca, alimento de melancolías.

La recurrente vuelta de la frenología y algunos asuntos más

En A Conversation with Sir David Cox se lee:

Reid: Me gustaría preguntarle sobre su trabajo al principio de su carrera en la Wool Industries Research Association. ¿Qué tipo de lugar era y qué tipo de puesto tenía usted allí?

Cox: Bueno, Henry Daniels lo ha descrito un poco en una entrevista reciente (Whittle, 1993). Era un tipo de organización muy común en el Reino Unido en ese momento, financiada por el gobierno y por dinero obtenido de un impuesto al sector, para realizar investigaciones básicas sobre problemas relacionados con la industria; y en ese momento tenía un director extraordinario que simplemente tenía la idea de contratar a personas y, en gran medida, dejarlas trabajar por su cuenta, con su apoyo. […]

Análisis estadístico de un "speedrun" sospechoso

Existen subculturas contemporáneas en las que se consiguen puntos de status pasándose determinados videojuegos a la mayor velocidad posible y publicando esas hazañas lúdicas en Youtube.

Un tal dream estableció algunos récords en 2020 en cierta modalidad de Minecraft, pero no sin levantar ciertas sospechas: aparentemente, el juego contiene cierto componente aleatorio y a dream parecía sonreirle la fortuna muy por encima de lo estadísticamente esperable. Así que los supertacañones del Minecraft Speedrunning Team analizaron el asunto y emitieron un informe sobre el asunto en diciembre de 2020.

Computación cuántica en Barcelona (al lado de ALIA) y algunos asuntos más

Mandar una petición a un LLM equivale a usar un ordenador (bastante potente) un ratico. El consumo de electricidad no puede ser tan alto. Tiene que ser infinitamente inferior al de actividades cotidianas que involucren calentar cosas, por ejemplo. Pero el que quiera los números concretos, puede echarle un vistazo a Individual AI use is not bad for the environment.

LLMs a los que se pregunta por una variante del tres en raya, consistente en rotar el tablero 90 grados. Sus respuestas, todas desatinadas —de otra manera, ¿se habrían publicado los resultados?—, aquí.

Una variante del problema de Monty Hall

Hay muchas versiones alternativas del problema de Monty Hall y he hablado de algunas de ellas antes. Una bastante interesante de la que supe por esto es la siguiente:

  • Participas en el problema de Monty Hall (el clásico con un coche y dos cabras).
  • Pero tú sabes (y nadie más) que una de las cabras se ha tragado un diamante carísimo y lo tiene en el estómago. Vale mucho más que el coche.
  • Obviamente, prefieres la cabra al coche.
  • Eliges una puerta (y no la abres).
  • El presentador (que no sabe nada del diamante) abre una puerta (detrás de la cual hay una cabra, como en el problema de Monty Hall original).
  • Sabes que esa cabra no es la del diamante.
  • El presentador te ofrece cambiar la puerta que habías elegido previamente.

¿Qué haces?

Unas cuantas noticias sobre LLMs

DeepSeek V3 llevaba publicado desde diciembre; R1, desde hacía más de una semana; pero solo fue el lunes 27 de enero cuando NVDIA sufrió un descalabro y DeepSeek apareció repentinamente —hasta entonces no había rebasado los habituales foros friquis— en boca de todos (véase esto o esto, dos de las mejoras piezas al respecto que he recopilado). Aparentemente, lo que hizo caer la bolsa fue el artículo The Short Case for Nvidia Stock parecido el sábado 25 de enero en el que se hace un repaso detallado de las fortalezas pero, sobre todo, los peligros que acechan a NVIDIA. Algunas de las cuestiones que trata son:

Demografía: la regla del 85

Existe una regla rápida en demografía para estimar la población futura de un país: tomar el número de nacimientos en un año dado y multiplicarlo por 85. En 2023 nacieron en España 321k chiquillos; por 85, da 27 millones, aproximadamente la mitad de la actualmente existente. Los interesados pueden consultar los datos de su CCAA de interés aquí y hacer cuentas.

La aproximación, obviamente, está basada en el lo que pasaría en un estado estacionario y en ausencia de emigración/emigración significativa. Es simplemente, un truco para obtener rápidamente una cifra-pivote alrededor de la cual plantear escenarios diversos, si es que a uno le interesan esas cosas y tiene tiempo que dedicarles.

Sobre los argumentos de David Deutsch contra el bayesianismo y algunos asuntos más

Tiene Tyler Cowen un artículo en Bloomberg sobre la neutralidad en la red que un LLM me resume así:

El larguísimo debate sobre la neutralidad de la red ha resultado ser irrelevante. Una reciente decisión judicial ha eliminado nuevamente la normativa. Sin embargo, la experiencia de los usuarios de internet apenas ha cambiado, y riesgos previstos, como la limitación de contenido o el aumento de tarifas, no se han materializado. Esto demuestra que la abundancia, más que la regulación, puede resolver el problema de acceso.

ALIA: los enlaces

ALIA es el LLM público español. Hasta hace no mucho se sabía poco de él. Durante meses, solo hubo dos clústers de noticias:

  • Uno, alededor del 25 de febrero de 2024, coincidiendo con el anuncio de la cosa (véase, por ejemplo, esto o esto).
  • Otro, alrededor de abril de 2024, cuando se anunció un acuerdo con IBM para el desarrollo de dicho modelo (veáse esto o esto).En esa época ya tenía nombre, ALIA, y se lo esperaba para después del verano (véase esto).

Después hubo una especie de apagón informativo —acabó el verano y yo no paraba de pulsar F5 en Google en vano— solo rasgado por una críptica nota de Alberto Palomo, aquél que fue ungido tiempo atrás como el CDO del Reino de España, que en una entrevista en El Confidencial a principios de diciembre decía de pasada que:

Unas cuantas noticias sobre LLMs

GPT-4 se entrenó usando un clúster de 25k GPUs, Musk planea construir un centro de datos con 100k GPUs y Meta, uno de 350k. Sin embargo, parece que tecnologías emergentes como DiLoCo (de distributed low communication), permitirá entrenar esos modelos sin necesidad de grandes centros de cálculo. Una visión alternativa en la que se especula con la construcción de enormes centros de datos (con potencias eléctricas de hasta de 5GW) puede verse aquí.