Unas cuantas notas sobre LLMs
- What Is Man, That Thou Are Mindful Of Him? es un texto satírico en el que se le da la vuelta a los argumentos que se hacen contra la inteligencia de los LLMs y volviéndolos contra los errores de razonamiento que cometemos tan frecuentemente los humanos.
- Why AI systems might never be secure discute la “tríada letal” (exposición a datos externos, acceso a información privada y capacidad de actuar externamente) que hace de los agentes a los que se confieren las anteriores facultades sistemas intrínsecamente inseguros.
- En los materiales del curso Stanford CS221 Autumn 2025 de la U. de Stanford, se puede encontrar el párrafo siguiente:
¡Aprende las operaciones básicas de NumPy con un tutor de IA! Usa un chatbot (p.e., ChatGPT, Claude, Gemini o Stanford AI Playground) para aprender por ti mismo cómo realizar operaciones vectoriales y matriciales básicas con NumPy. Los tutores de IA pueden construir hoy en día tutoriales interactivos excepcionalmente buenos y este año, en CS221, estamos investigando cómo pueden ayudarte a aprender los fundamentos más interactivamente que a través de los ejercicios estáticos clásicos.
- Mientras tanto, parece que la IA no está reemplazando a los radiólogos como se supuso en un principio. Al menos, de momento.
- Hay quienes piensan que los llamados Claude Skills —módulos de instrucciones o scripts que Claude carga cuando son relevantes para la tarea en cuestión— son más flexibles y eficientes en el número de tokens consumidos que los MCP.
- Todo el mundo habla hoy en día de nanochat, un proyecto de Karpathy para construir un LLM moderno y mínimo a la vez. Otro tema del que también se habla mucho es del
NVIDIA DGX Spark, un superordenador de sobremesa de 4k euros que puede correr modelos relativamente avanzados desde la intimidad del hogar. - OpenAi ha publicado Measuring the performance of our models on real-world tasks. Hay cierta tendencia a abandonar los antiguos benchmarks, evoluciones más o menos sofisticadas del procedimiento tradicional de la evaluación en train/test, y reemplazarlos por otros que midan su eficacia en las tareas para los que los usuarios los emplean realmente.
- Sospecho que noticias como la que se cuenta en Daniel Stenberg’s note on AI assisted curl bug reports van a ir en aumento, alcanzarán un pico y luego irán decayendo con el tiempo. El tal Daniel Stenberg se queja de la cantidad de pull requests generados automáticamente por LLMs y de lo mucho que le hacen perder el tiempo por su baja calidad.
- AI assistants for Scientific Coding es un libro sobre el tema publicado en agosto de 2025. Puede que aún no esté enteramente desactualizado. Lo diferencia de otros que hace énfasis en R y la investigación reproducible.