Un par de notas: metaanálisis y estadística pública

Hubo un tiempo en el que para poder señalar que se hablaba ciencia en mano había que citar RCTs. Pero los RCTs acabaron adocenándose y ahora estamos en la era de los metaanálisis. Pero algunos —¿cuántos?—, como nos advierte DataColada, son una especie de albóndiga —tan esférica ella— fabricada con carne picada de muy heterogénea procedencia.

Los siguientes metaanálisis sobre lo del impacto del salario mínimo en nosequé cosas querrán incluir cuarto y mitad de esto. A todo esto: ¿qué llegará antes, la conclusión sobre lo del salario mínimo o las centrales eléctricas de fusión nuclear?

Representados pero no representativos

La expresión que da título a la entrada procede de un escrito de Andrew Gelman. Aunque se refiere a un problema estadístico muy concreto, la he podido aplicar en otros contextos. Es uno de esos conceptos que una vez uno tropieza con él, no puede dejar de verlo en todas partes.

Gelman se refería originalmente al problema de la reponderación de las encuestas. Desafortunadamente, por muy aleatorio que sea su diseño, terminan mostrando sesgos. Por no hablar de las que se realizan en periódicos, Twitter, etc. Existen técnicas que, según la teoría, mitigan en cierta medida el problema y permiten realinear mejor o peor sus resultados con la realidad. Para ilustrar el uso de una de estas técnicas, Gelman et al. realizaron una encuesta extrema en los foros de un videojuego con el objetivo de determinar si a partir de la opinión de un conjunto de gamers, podría reconstruirse la general e ilustrar, de paso, una serie de técnicas de su autoría.

Varios artículos que tenía recopilados sobre tecnología

  • Todo sobre el rango dinámico de un sensor de imagen (con R).
  • Docling simplifica el procesamiento y parseado de documentos en distintos formatos, incluidos PDFs complejos, […].” Es de IBM (¿existe aún?) y, a pesar de eso, el proyecto está alojado en GitHub.
  • No sé si me gustan los Notebooks 2.0 de Observable, un híbrido de Jupyter y Excel (es decir, notebooks reactivos). ¿Qué pasará cuando tengas en una celda cálculos largos y cambies accidentalmente un valor que le afecta? ¿Tocará ir por café?
  • En The Bouquet Residence, Steven Wittens critica una tendencia que observa en la estrategia de comunicación de empresas tecnológicas que prima la emoción sobre la información técnica y basada en hechos y datos, particularmente durante las crisis o las caídas de los sistemas.

Nostalgia de Nelson-Siegel

La noticia del artículo Beyond Nelson-Siegel and splines: A model-agnostic Machine Learning framework for discount curve calibration, interpolation and extrapolation, me ha hecho volver a pensar un poco en aquel viejo modelo, al que le guardo cierta simpatía por dos motivos. El primero y más personal, que me hizo ganar un poco de dinero tiempo atrás: implementé hace muchos años una serie de scripts en SAS para ajustarlo. El cliente final, si recuerdo bien, era el Banco de España.

Sobre acicate como traducción de "nudge" y otros asuntos más

El riesgo se mide a través de la varianza (sic), pero el FOL (fear of loss) se refiere únicamente a las pérdidas (o la “semivarianza”). Un activo inspira FOMO (fear of missing out) cuando existe la posibilidad de que tenga una subida abrupta e inesperada que se puedan perder quienes la ignoran. Esto lo mide la asimetría de la distribución de rendimientos.

Post-bayesianismo, una microintroducción

Hace muchos años leí Tackling the Poor Assumptions of Naive Bayes Text Classifiers. Es un artículo que viene a decir que, efectivamente, el método del naive Bayes es muy útil en NLP, un clasificador que se construye a partir de primeros principios y se puede usar directamente, tal cual viene en la caja, para obtener resultados decentes. Sin embargo, la experiencia indica que el método, en la práctica, funciona mejor si se lo somete a una serie de cambios ad hoc. Con estas modificaciones, el clasificador resultante guarda cierta similitud con respecto al original: cambia la priori por otra cosa que se le parece pero que no es igual; cambia la verosimilitud por otra cosa que es, de nuevo, parecida pero no exactamente la misma, etc. Pero funciona algo mejor en la práctica. Es decir, que aquello que se construye desde primeros principios puede verse superado por una versión tuneada.

Una serie de notas sobre el siempre fértil campo de la mala ciencia

¿Pero qué pasa cuando alguien descubre un error en un artículo ya publicado? Sucede todo el tiempo, pero los artículos casi nunca se retiran o corrigen. Nadie hace mucho aspaviento porque, de nuevo, [los autores] son colegas. ¿Por qué crearse enemigos? Incluso si publican un resultado que corrige luego los errores del primer artículo, la gente tiende a medir tanto sus palabras que la crítica es apenas perceptible.

Sobre la construcción de problemas sociales (y el papel de la estadística en el proceso)

El otro día estaba oyendo la radio. Además, una emisora inhabitual (para mí, aunque me consta que es popular en algunos círculos) que, diríase, se había sintonizado sola. En el programa en cuestión, la locutora y sus adláteres estaban tratando de construir yet another problema social. Pero tan mal que, por si me leen, he escrito cómo hacerlo mejor. Y también porque quien lea de la mitad para abajo descubrirá aspectos de la cosa que entroncan con el asunto general de estas páginas, la estadística.

Una serie de notas sobre LLMs (incluidas "novedades" sobre el razonamiento matemático de ALIA en catalán)

  • Los interesados en averiguar con cierto conocimiento de causa cuál es el impacto medioambiental del entrenamiento y uso de los LLMs pueden echarle un vistazo a este estudio de Mistral.

  • En esta entrevista, Tyler Cowen argumenta que los métodos tradicionales para medir el progreso de la IA usando benchmarks tienen un problema fundamental y que contribuye a crear la percepción de que el progreso de la tecnología será muy importante. El problema radica en que los benchmarks actuales están basados en tareas que los sistemas actuales todavía no son capaces de realizar. Como alternativa, sugiere medir el progreso de la IA usando una canasta de consumo que mida el progreso precisamente en aquellas tareas en que la gente normal la usa realmente.

Esquemas semi-Ponzi

Comencemos pensando en una institución (en un sentido hiperamplio del término) que desarrolla una actividad económica. Esta institución se financia con las inversiones de terceros. No voy a entrar aquí en distingos entre los distintos tipos de instrumentos (acciones, bonos, depósitos, etc.) disponibles: complicaría la discusión sin aportar a su sustancia.

Cuando un inversor realiza una retirada, la institución extrae el efectivo de una cuenta C. C contiene algo de efectivo, el que se estima suficiente para cubrir las disposiciones. La institución emplea el resto en su actividad económica.