El algoritmo FSRS para Anki y algunos otros asuntos más sobre modelización estadística
I.
Understanding Basis Spline (B-spline) By Working Through Cox-deBoor Algorithm, sobre los B‑splines, el algoritmo de Cox–de Boor para calcularlos y construirlos y cómo usarlos en modelos. Ajusta un modelo con mgcv:gam
primero y luego lo reproduce con lm
para entender cuáles son esas nuevas variables que forman la base de los spines que gam
genera automágicamente. Una vez ahí, pasa a ilustrar cómo utilizar los splines en stan
.
II.
Gelman sobre la heurística del la inversión del error. La idea es la siguiente:
- Alguien dice que un resultado es 100 y que 100 es muy significativo.
- Pero luego se descubre un error y el resultado no es 100 sino 10 (apenas relevante).
- Sin embargo, los autores del estudio tienden a alegar que el error no cambia las conclusiones.
La heurística que plantea Gelman es pensar en qué hubiera pasado de ocurrir al revés:
- Primero se publica el valor de 10.
- Luego se descubre un error y resulta que la estimación real es 100.
En tal caso, ¿seguirían alegando los autores que el error es intrascendente y que no cambia nada? ¿O dirían, más bien, que eso refuerza en grado sumo su tesis hasta el extremo de la confirmación?
III.
José Luis Cañadas escribe sobre el área de aplicación, un concepto que tiene que ver con el grado de cobertura que ofrecen los datos de entrenamiento del universo completo. En efecto, los modelos estadísticos, en principio, predicen cualquier valor y uno querría saber en qué medida intrapolan información conocida o extrapolan para sujetos de los que no tenemos otros similares. El concepto del área de aplicación trata de construir un indicador del grado de interpolacíón vs extrapolación.
IV.
A estas alturas del partido, debería estar bastante claro ya que los juicios actuariales son superiores a los clínicos. En la frase anterior uso una nomenclatura tal vez desfasada pero que remite a los primeros estudios de la cuestión, como este y otros que se pueden encontrar aquí.
Los sistemas automáticos, en principio, superan a los humanos a la hora de emitir juicios, efectivamente, pero algunos de nuestros colegas basados en la química del carbono se esfuerzan denodadamente por buscar áreas en las que los humanos todavía lo podamos hacer mejor que las máquinas. Así ha de leerse el texto Dumb statistical models, always making people look bad que, a diferencia de lo que se suele leer al respecto en español, sí que va más allá del efecto pierna rota.
V.
Un problema de la aplicación de la estadística bayesiana es que tiende a proporcionar intervalos de confianza/credibilidad demasiado estrechos, tan estrechos que no soportan un mínimo análisis crítico. Así que no falta teoría, como esta para justificar el hacerlos más anchos. En esta ocasión, usando una técnica que llaman simulation-based calibration, con la que aspiran a capturar la verdadera incertidumbre.
VI.
Este es un pequeño entretenimiento para quien quiera ver qué pasa cuando a uno le da por interpolar datos en el dominio de la frecuencia.
VII.
El sistema Anki usa un algoritmo por defecto. Parece que hay otro, FSRS que gusta más a alguna gente (en la que me incluyo). Tiene, cómo no, una base estadística razonablemente accesible que se discute aquí.