Notas varias sobre estadística y temas afines

  • Turning trig identities into Fibonacci identities muestra cómo ciertas identidades trigonométricas pueden transformarse de forma sistemática en identidades que involucran números de Fibonacci (y de Lucas). El motivo es que la estructura algebraica de las funciones trigonométricas involucra ciertas relaciones recurrentes, vinculándolas con los números de Fibonacci.

  • A quote from Nicholas Carlini sobre los LLMs y las extorsiones en la que describe cómo podrían ser las extorsiones del futuro. Ya no será “te robo los datos y me tienes que pagar para que te los devuelva” sino “usando un LLM sobre tus datos hemos encontrado indicios de ciertas actividades que, casi seguro, preferirías no fuesen conocidas por otros y nos tendrás que pagar para que no se las revelemos”.

  • How is it that this problem, with its 21 data points, is so much easier to handle with 1 predictor than with 16 predictors?, discute un caso relativamente frecuente. Con un solo predictor, el analista haría algún tipo de histograma o boxplot. Con 16 de ellos, ¿qué? Lo que a mí se me ocurre a primera vista es un árbol.

  • {talib}: Candlestick Pattern Recognition in R, o bien, numerología asistida por ordenador: te ayuda a encontrar patrones que no valen para nada en series temporales.

  • Three meta-principles of statistics: the information principle, the methodological attribution problem, and different applications demand different philosophies. Por abreviar:

    • El de la información, dice que los mejores métodos son los que usan más información.
    • El problema de la atribución metodológica es que los éxitos y los fracasos se achacan al método y no quien lo utilizó.
    • El último está relacionado con otro tema habitual en el blog: el de los diferentes procedimientos y métodos (¿liturgias?) que operan —o imperan— en cada disciplina.
  • Relacionado con lo anterior, las diez reglas de oro de la predicción de series temporales:

    • Representar los datos gráficamente
    • No reordenar los datos
    • Crear un modelo base
    • Respetar la estacionaridad
    • Dar prioridad conocimiento en el ámbito en el que se generaron los datos frente a los algoritmos
    • Evitar la contaminación del presente con información futura
    • Evaluar los diagnósticos
    • Aceptar la aleatoriedad
    • Elegir la medida de error adecuada
    • No confundir precisión con complejidad
  • Why Transformational Science Can’t Get Funded sobre uno de los más obvios problemas del funcionamiento del sistema de investigación científica hoy en día: es imposible que este financie cierto tipo de investigación del que todos conocemos abundantes y exitosos ejemplos pasados. Es tema conocido, pero contado esta vez por alguien que trabajó en parte del sistema que se encarga de la selección de aquellos proyectos que recibirían fondos.

  • El Euro Digital se podrá usar en 2027… y queda por ver, entre otras cosas, si el BCE tendrá un departamento de atención al cliente al que podrán llamar las señoras con dedos gordos que pierdan la contraseña de su cuenta, etc. Es decir, si el BCE pretende operar en el sector de la banca minorista. Lo que sería muy divertido. Más en serio, mi predicción es que la iniciativa nace muerta.

  • Las derivadas tercera, cuarta, quinta, y sexta de la posición tienen nombre y son jerk, snap, crackle y pop.

  • Resulta que los resultados educativos del estado de Misisipi son los mejores, unos de los mejores o los peores de todos los EEUU según la fuente consultada (véase esto y esto). Hay muchos expertos examinando los mismos datos. Sería una rareza extraordinaria que todos llegasen a exactamente las mismas conclusiones: cabría esperar cierto baile de cifras. Lo raro —y entretenido; e ilustrativo, por supuesto— de esta situación es que las discrepancias son extremas. ¿Nos estará enseñando este episodio que, de nuevo, el papel lo aguanta todo?

  • De esta lista de 5 books that changed the world for the better solo uno me parece realmente fundamental.

  • 10x vs 10% es un artículo contrasta el objetivo de lograr mejoras “10x” frente a mejoras incrementales del 10%, argumentando que ambos enfoques requieren mentalidades y estrategias distintas:

    • Pensar en 10x no consiste en optimizar lo existente, sino en replantear el problema desde otro marco.
    • Mejoras del 10% encajan mejor con sistemas estables y bien comprendidos.