Unas cuantas noticias sobre LLMs

DeepSeek V3 llevaba publicado desde diciembre; R1, desde hacía más de una semana; pero solo fue el lunes 27 de enero cuando NVDIA sufrió un descalabro y DeepSeek apareció repentinamente —hasta entonces no había rebasado los habituales foros friquis— en boca de todos (véase esto o esto, dos de las mejoras piezas al respecto que he recopilado). Aparentemente, lo que hizo caer la bolsa fue el artículo The Short Case for Nvidia Stock parecido el sábado 25 de enero en el que se hace un repaso detallado de las fortalezas pero, sobre todo, los peligros que acechan a NVIDIA. Algunas de las cuestiones que trata son:

  • Cómo el coste de la IA generativa está basculando desde el entrenamiento (antes) a la inferencia (ahora). El motivo es doble: por un lado, DeepSeek está mostrando cómo entrenar muy frugalmente modelos punteros; por el otro, los modelos que razonan invierten mucho más tiempo en alcanzar sus conclusiones.
  • En el mundo del hardware, y particularmente para la inferencia, están apareciendo competidores muy serios: Groq (no Grok), Cerebras, las TPUs de Google, los chips que están fabricando o planeando Microsoft, Apple u Amazon y —si consiguen mejorar los drivers— las mismas GPUs de AMD.
  • En el mundo del software, además de las innovaciones que aportan los modelos de DeepSeek, existen lenguajes de nivel intermedio como JAX que permitirían puentear CUDA, es decir, que los diseñadores de LLMs no tuvieran que conocer y utilizar necesariamente CUDA porque un lenguaje de nivel intermedio les permitiese abstraerlo y utilizar, por lo tanto, cualquier otra plataforma, no necesariamente la de NVIDIA.

Trae el NYT un artículo sobre novias virtuales. En OpenRouter, un broker de LLMs —pagas una única suscripción, tienes una única API key, puedes utilizar cualquier modelo y, además, el broker te enruta hacia el más barato—, varios de los LLMs más populares de la semana/mes por uso (en tokens) son de los que educadamente se llaman NSFW (acrónimo anglo) o sicalípticos (cultismo neogriego). Me hace recordar a cuando llegaron los VHS de películas porno o las primeras páginas de fotos de lo mismo en internet: eran prueba incontrovertible de que la tecnología estaba para quedarse.

En un mundo que cambia, se subvierte el valor relativo de los distintos rasgos y capacidades de las personas. Aquí se especula sobre cuáles ganarán y perderán valor en los próximos años por efecto de las innovaciones que se vienen y, en particular, los LLMs.

Estos días estoy programando mis primeros agentes. Estoy utilizando CrewAI fundamentalmente, aunque comencé, influenciado por AI Agents are getting surprisingly easy to implement de Manuel Garrido, por smolagents. smolagents tiene una particularidad: por construcción permite que sus agentes generen y ejecuten código en Python (!!!!). No dependen de que se les proporcione ojos y manos (vía tools como en otros sistemas) sino que pueden construir los suyos propios (con ciertas limitaciones): si los LLMs saben programar, ¿por qué no dejarlos construir y ejecutar sus propios scripts? Es probable que smolagents gane terreno en aplicaciones de tipo personal y que otros sistemas más formales y controlados tengan más éxito donde la relativa inflexibilidad sea considerada feature y no bug.

Jesús Alfaro escribe Los profesores de Humanidades y la inteligencia artificial para explicar lo que ocurre cuando le pide a Copilot que mejore un artículo de un profesor de humanidades.