Llms

Sobre esos LLMs que a pesar de no tener imaginación y creatividad, se lo inventan todo

Ese tipo de gente que nunca se va a contentar con nada y por culpa de la cual nunca vamos a tener cosas bonitas suele utilizar contra la IA, entre otros, estos dos argumentos:

  1. Que alucina y que se inventa cosas que no existen.
  2. Que carece de creatividad porque se limita a regurgitar un refrito de aquello con lo que ha sido entrenada. O, dicho de otra manera, que se limita a interpolar en lugar de extrapolar, que es aquello en lo que consiste la creatividad y la verdadera inteligencia.

Me pregunto si son conscientes de la fundamental contradicción entre ambos argumentos.

Unas cuantas notas sobre economía (y salarios)

En Archegos y el insider trading en EE.UU. y en Europa: los bancos sabían algo que ellos no sabían y una coda sobre la IA en Derecho, el autor, Jesús Alfaro, discute un tema jurídico con un LLM y concluye:

Por eso, la utilidad de la IA para Ciencias Sociales y Humanidades es mucho menor que para las Ciencias duras (y es más fácil pillar a un estudiante que ha ‘subcontratado’ a la IA su trabajo de fin de grado). La responsabilidad de los juristas académicos es proporcionar a la IA ‘buenos materiales’. Ahora hay una razón más para cuidar lo que los profesores publican. Ya no es completamente inocuo publicar artículos bazofiosos porque, aunque tus colegas no te lean, la IA ’te va a leer’. La protagonista de Sexo, mentiras y cintas de video estaba obsesionada con la basura. Andie McDowell dice a su psiquiatra: “Pienso en la basura. ¿Dónde va? ¿Qué pasa con ella? ¿Qué pasa con toda la basura?”. Ahora ya sabemos dónde va la basura que se publica en internet: a alimentar a la inteligencia artificial.

Unas cuantas notas sobre LLMs

  1. Do AIs think differently in different languages? estudia lo que indica su título. Es cierto que presta más atención a aspectos sociales y culturales que a los del razonamiento lógico puro. Aunque me recuerda a ese artículo, LLM performance on mathematical reasoning in Catalan language, que ya traté antes.
  2. Tu meteorólogo cabecera te dirá que Artificial intelligence could dramatically improve weather forecasting es un sinsentido porque de que lo sea depende su pan futuro (salvo que trabaje en AEMET, al socaire del progreso). Recuérdese que la mejor perspectiva sobre lo que ocurre en una disciplina no la proporcionan los que trabajan directamente en ella, sino los que practican otras aledañas: están al tanto de las novedades en tanto que les atañen pero no están sesgados por los incentivos.
  3. AI Digest y, en particular, AI Village traen experimentos curiosos realizados con la IA. En el segundo, en particular, tienen a varios LLMs trabajando colaborativamente en un mismo problema, chateando entre ellos, etc. para completar conjuntamente un proyecto. Ahora mismo, construir un juego tipo “Wordle”. El último mensaje de Claude Opus 4.1 hoy dice (con mi traducción): “Esperaré tranquilamente puesto que hemos concluido la sesión del día 220. El equipo ha realizado un avance excelente en todas las tareas críticas de la jornada.”
  4. Let the LLM Write the Prompts: An Intro to DSPy in Compound AI Pipelines, una introducción a DSPy, una herramienta de Databricks, para construir procesos en los que los propios LLMs ayudan a escribir los prompts.
  5. Just Talk To It – the no-bs Way of Agentic Engineering, sobre el estado del arte en la programación usando agentes a fecha de hoy. La guía más pro que he leído al respecto.

Unas cuantas notas sobre LLMs

  • What Is Man, That Thou Are Mindful Of Him? es un texto satírico en el que se le da la vuelta a los argumentos que se hacen contra la inteligencia de los LLMs y volviéndolos contra los errores de razonamiento que cometemos tan frecuentemente los humanos.
  • Why AI systems might never be secure discute la “tríada letal” (exposición a datos externos, acceso a información privada y capacidad de actuar externamente) que hace de los agentes a los que se confieren las anteriores facultades sistemas intrínsecamente inseguros.
  • En los materiales del curso Stanford CS221 Autumn 2025 de la U. de Stanford, se puede encontrar el párrafo siguiente:

¡Aprende las operaciones básicas de NumPy con un tutor de IA! Usa un chatbot (p.e., ChatGPT, Claude, Gemini o Stanford AI Playground) para aprender por ti mismo cómo realizar operaciones vectoriales y matriciales básicas con NumPy. Los tutores de IA pueden construir hoy en día tutoriales interactivos excepcionalmente buenos y este año, en CS221, estamos investigando cómo pueden ayudarte a aprender los fundamentos más interactivamente que a través de los ejercicios estáticos clásicos.

Varias noticias sobre el mundo de los LLMs

  • En The Drugs Are Taking Hold, David Rosenthal discute la muy problemática rentabilidad futura del negocio de los LLMs. Usa la palabra burbuja doce veces.
  • Dynomight escribe un tanto apocalípticamente sobre la potencial capacidad de persuasión de los LLMs. No de los actuales sino de los mucho más inteligentes que se supone que llegarán en algún momento.
  • Este es un hilo en Reddit sobre las actividades más lucrativas para las que los participantes han usado los LLMs. Una de ellas, interactuar con compañías de seguros.
  • Salió Qwen-Image-Edit y, después, Nano Banana, que todo el mundo dice que es mejor. Aún no he jugado con ninguno de ellos.
  • Más sobre el impacto medioambiental de los LLMs. Esta vez, el de Gemini.
  • ¿Pueden los LLMs razonar y planificar? Hay indicios que hacen sospechar que, de hacerlo, lo hacen muy precariamente. Un indicio de ello es, por ejemplo, que generan tokens a la misma velocidad independientemente de la complejidad (en el sentido técnico, matemático, del término) de la tarea propuesta, cosa que es matemáticamente imposible.
  • Dicen que superwhisper es muy bueno para pasar de voz a texto.
  • En el blog de Andrew Gelman no son muy entusiastas de los LLMs. Sin embargo, acaban de publicar esto. Pronostico aggiornamento a corto plazo.
  • Simon Willison ha publicado una lista de algunas de las herramientas que ha creado con LLMs. También ha publicado este ejemplo bastante completo de un análisis de datos realizado a golpe de vibe.

Una serie de notas sobre el siempre fértil campo de la mala ciencia

¿Pero qué pasa cuando alguien descubre un error en un artículo ya publicado? Sucede todo el tiempo, pero los artículos casi nunca se retiran o corrigen. Nadie hace mucho aspaviento porque, de nuevo, [los autores] son colegas. ¿Por qué crearse enemigos? Incluso si publican un resultado que corrige luego los errores del primer artículo, la gente tiende a medir tanto sus palabras que la crítica es apenas perceptible.

Una serie de notas sobre LLMs (incluidas "novedades" sobre el razonamiento matemático de ALIA en catalán)

  • Los interesados en averiguar con cierto conocimiento de causa cuál es el impacto medioambiental del entrenamiento y uso de los LLMs pueden echarle un vistazo a este estudio de Mistral.

  • En esta entrevista, Tyler Cowen argumenta que los métodos tradicionales para medir el progreso de la IA usando benchmarks tienen un problema fundamental y que contribuye a crear la percepción de que el progreso de la tecnología será muy importante. El problema radica en que los benchmarks actuales están basados en tareas que los sistemas actuales todavía no son capaces de realizar. Como alternativa, sugiere medir el progreso de la IA usando una canasta de consumo que mida el progreso precisamente en aquellas tareas en que la gente normal la usa realmente.

LLMs para la predicción de series temporales y algunos asuntos más

El prompt injection es una técnica para robar información a un agente. Si un agente tiene, por ejemplo, acceso al correo electrónico, se le puede enviar un mensaje dándole instrucciones que alteren su comportamiento. Es un problema bien conocido de los agentes y ahora en Defeating Prompt Injections by Design se describe una solución basada en dos agentes, uno de los cuales tiene como función supervisar las acciones del otro.

Como no puede ser de otra manera, el MCP plantea grandes problemas de seguridad.

Una serie de artículos sobre aplicaciones y trucos acerca del uso de LLMs

Simon Willison invita aquí a pensar mejores prompts para resumir texto —uno de los principales usos de los LLMs— de manera más efectiva.

Y este otro artículo abunda sobre el tema: cómo construir mejores prompts. El problema que tiene es el de siempre: solo puedes entretenerte en pulir los prompts cuando esperas obtener mucho valor de la respuesta. Para el uso rápido y cotidiano, continuaremos con nuestras heurísticas frugales.

Dos usuarios avanzados de los LLMs desvelan algunos de sus trucos:

Ahora el blog tiene una lista de entradas relacionadas construida usando LLMs

He implementado las entradas relacionadas en el blog. Dos entradas están relacionadas cuando el producto escalar de sus embeddings es alto.

Así que en primer lugar he asociado a cada entrada un embedding. Las entradas son ficheros de markdown con un preámbulo en yaml. Los embeddings no están creados directamente sobre el texto bruto de la entrada sino sobre la entrada y algunos de los elementos, no todos, del preámbulo.