Una nueva selección de novedades relevantes del mundo de los LLMs

Todo el mundo lleva días hablando del MCP. Creo que ni merece la pena decir qué cosa es.

MCP es un mecanismo para empoderar agentes. Para los primeros que creé utilié CrewAI pero he migrado a LangChain porque:

  • A CrewAI le encantan las dependencias tochas: para cualquier trivialidad crea entornos de varios GB.
  • CrewAI está diseñado para un tipo de agentes muy concreto —agentes a los que se delega enteramente el control del flujo del proceso— que no son exactamente los que más me interesan ahora –que suelen incluir un elemento de control por mi parte—.

Aunque todo el mundo habla de LangChain y CrewAI, hay algunas innovaciones interesantes, entre las cuales:

  • PydanticAI y
  • smolagents que tiene algunas características particulares muy interesantes, como que en lugar de depender (tanto) de herramientas, está construido alrededor de la filosofía de diseño de que el LLM es capaz de generar código en Python y ejecutarlo por su cuenta. No hace falta, pues, proporcionarle una herramienta “calculadora” habida cuenta de que el LLM subyacente es capaz de escribir las operaciones necesarias en Python y ejecutarlas (miedín!) directamente.

Se dice que el prompting es flor de un día y que dentro de no mucho no hará falta estar al tanto de sus (actuales) sutilezas. Por el momento, en todo caso, parece que basta con crear prompts suficientemente buenos (aunque, supongo, suficientemente bueno significa cosas distintas entre los expertos que entre los legos; además, hay opiniones para todo).

Una cosa que no tengo clara aún es si los embeddings (y otros aspectos de los LLMs) funcionan igualmente bien en inglés que en las otras lenguas. En ocasiones me ha dado la sensación de que en español no conseguía resultados tan espectaculares como los de otra gente en la lengua del imperio de verdad. Aparentemente, los buenos amigos de Jina han construido unos embeddings multiidioma que son capaces de agrupar por significado independientemente del idioma en el que este venga escrito.

Salvo que alguien tenga a bien sugerirme algo mejor, creo que voy a comenzar a usar Msty y a alimentarlo con mis notas de Obsidian, con el código fuente de mi blog, el del blog secreto, y los gigas de libros que guardo en Calibre.

Algunas aplicaciones y usos de los LLMs que he recogido en estas últimas semanas:

  1. Una guía práctica de cómo usar los LLMs para desarrollar código.
  2. Otra de cómo implementar DeepSearch/DeepResearch
  3. Xata Agent es un agente de código abierto que monitoriza tu base de datos, encuentra la causa de los problemas y sugiere soluciones y mejoras.
  4. He estado usando también una serie de modelos de audio (que están mejorando a marchas forzadas) para un proyecto del que no puedo decir nada.
  5. John D. Cook usa Grok 3 para generar imágenes que le ayuden a recordar números (de acuerdo con el código fonético de memorización).
  6. Se de que o3-mini es muy bueno para escribir documentación de proyectos de software.
  7. Y quiero dejar anotado en algún sition que es muy entretenido jugar con InstantID y fotos de uno, aunque supongo que ya existirán alternativas infinitamente mejores en el mercado (un mercado que me es ajeno porque no estoy metido en la generación de imagen y vídeo).

Por si alguien no lo ha visto aún, 3Blue1Brown tiene un vídeo sobre la atención en los transformers. Muy recomendable. Como casi todo lo del canal.

La función GELU es $x\Phi(x)$ —$\Phi$ es la función de distribución de la normal estándar— aunque en la práctica se usan aproximaciones.

Aquí se lee:

En cierto sentido, [el éxito de la IA generativa] es el triunfo de la estadística sobre la lógica.

Este es el artículo del que todo el mundo hablaba hace unas semanas: ese en el que a unos LLMs los reentrenaron con código que contenía problemas de seguridad y, como consecuencia (¿como consecuencia? ¿como la única consecuencia?), comenzaron a desalinearse moralmente. ¿Un argumento en pro del intelectualismo moral?

En este notebook se lee:

Al añadir gradualmente este vector a nuestro embedding original, generamos frases que mantienen el asunto, la estructura y la longitud, pero que van adquiriendo un tono cada vez más negativo.

¿Sabíais que Jonathan Swift describe algo muy parecido a los LLMs de hoy en día en los Viajes de Gulliver?

Una noticia de 2021: que “[e]l primer sistema masivo de Inteligencia Artificial de la lengua española, MarIA, empieza a resumir y generar textos”. Dios mío.

Finalmente, el artículo Inteligencia artificial, propiedad intelectual y minería de datos en Almacén de Derecho que, contra todo pronóstico, mantiene posturas razonables.