LLMs para la predicción de series temporales y algunos asuntos más

El prompt injecting es una técnica para robar información a un agente. Si un agente tiene, por ejemplo, acceso al correo electrónico, se le puede enviar un mensaje dándole instrucciones que alteren su comportamiento. Es un problema bien conocido de los agentes y ahora en Defeating Prompt Injections by Design se describe una solución basada en dos agentes, uno de los cuales tiene como función supervisar las acciones del otro.

Como no puede ser de otra manera, el MCP plantea grandes problemas de seguridad.

Los interesados en estas cuestiones encontrarán aquí una base de datos de actos jurídicos —uso la expresión en términos amplios y poco técnicos— en los que se detectó la presencia de alucinaciones producidas por LLMs. Contiene 155 hasta la fecha, una de ellas relacionada con España.

En Vision Language Models (Better, Faster, Stronger) se discute lo ocurrido en el mundo de los modelos de visión y multimodales en el último año, de abril de 2024 a mayo de 2025.

Simon Willison escribe sobre cómo desarrollar software que interactúa con LLMs en Building software on top of Large Language Models. Tengo que añadir que soy un usuario satisfecho de llm, un sistema desarrollado por él para utilizar LLMs en línea de comandos. Ahora, además, permite usar herramientas. Una de las más promisorias es la que permite interactuar con Exa un buscador con una API nativa y con un segmento gratuito generoso.

Una de las cosas que sorprendieron a los primeros usuarios de GPT-2, el antecesor de ChatGPT, fueron las propiedades emergentes: sin haber sido entrenado específicamente para eso, había aprendido francés, a jugar al ajedrez, etc. Ahora resulta que los LLMs se pueden sufrir desalineacion emergente: si los reentrenas sobre software no seguro, comienzan a adquirir comportamientos desviados e indeseados en otros ámbitos. ¿Querrá eso decir que los malos programadores no son gente de fiar?

Vivimos lo que algunos denominan una explosión cámbrica de hardware adaptado a las aplicaciones de IA. No es solo NVIDIA o AMD: Google, Amazon, Microsoft, Meta, Alibaba, Baidu y una miríada de startups están desarrollando sus propios dispositivos de hardware específicamente diseñados para correr el tipo de de operaciones propias de la IA (esencialmente, multiplicar matrices) en la escala a la que se necesitan hoy en día.

Finalmente, resulta que Moirai es un LLM desarrollado por Salesforce para la predicción de series temporales. Al parecer, ha sido entrenado sobre un repositorio de series temporales. A saber qué tal funcionará en la práctica. Leyendo en diagonal, observo que no se trata únicamente de un predictor —al uso de sus primos los LLMs— sino que modela las series usando modelos semiparamétricos, proporciona predicciones probabilísticas, admite covariables, etc. ¿Reemplazará a prophet y compañía? Seguro que para un LLM es más sencillo modelar y reproducir el procedimiento de trabajo de un humano experto en series temporales que aprender ex nihilo todas las series temporales y reproducir en este ámbito lo que los LLMs tradicionales hacen en el del lenguaje. Tiene mucha mejor pinta que alternativas como TimeGPT a pesar de lo afortunado de su nombre.