Por motivos que no vienen al caso, he estado investigando estos días de reojo Helium, una cosa muy críptica y cuya página web no ayuda en gran medida a clarificar y cuyas deficiencias esta entrada mía contribuya a rectificar. Esta entrada va a ser larga, dividida en varias secciones y con varias de propedéutica antes de entrar en materia.
Vaya en todo caso por delante que existen varias páginas, además de la de Helium, que describen el sistema muy bien, mucho mejor de lo que podría hacerlo yo, desde el punto de vista técnico (como esta).
Simpson, un viejo amigo de estas páginas, nos enseña, por ejemplo, cómo es posible que los salarios desciendan a lo largo de todas sus subcategorías y que, a la vez, crezcan en promedio en el tiempo. Basta para ello que se reduzca el peso la proporción de los trabajos peor pagados en la economía.
Los institutos estadísticos, a la hora de estimar el índice de precios, son conscientes del problema y elaboran cestas de la compra más o menos ideales (a lo Quetelet) y calculan su precio a lo largo del tiempo.
No cualquier ministerio sino precisamente el de economía (lo subrayo: es muy relevante para lo que sigue) ha colgado de su portal una (propuesta de) Carta de Derechos Digitales para su pública consulta.
Se trata de un documento confuso, en el que se mezclan propuestas que afectan a ámbitos muy heterogéneos, desde el transhumanismo,
[L]a ley regulará aquellos supuestos y condiciones de empleo de las neurotecnologías que, más allá de su aplicación terapéutica, pretendan el aumento cognitivo o la estimulación o potenciación de las capacidades de las personas.
Gráficas que muestran la velocidad a la que varía el PIB como
han sido habituales para representar la evolución de la economía. En particular, porque antes de los espasmos de los últimos trimestres eran más o menos fáciles de intepretar. Pero ahora ya no.
La velocidad es una medida útil en tanto que varía de manera más o menos suave. En momentos de botes y rebotes, es mejor saber dónde se está que a la velocidad a la que uno no sabe si sube o baja.
Según Methods Matter: P-Hacking and Publication Bias in Causal Analysis in Economics, las variables instrumentales (para estas, en particular, véase esto) y las diferencias en diferencias:
Applying multiple approaches to over 21,000 hypothesis tests published in 25 leading economics journals we find that the extent of p-hacking and publication bias varies greatly by method. IV (and to a lesser extent DID) are particularly problematic.
Es curioso que se estudie también la regresión con discontinuidades y que no acabe en el podio.
Voy a guardar el extracto
de The Art of Statitstics para usarlo con la misma malísima baba que su autor en coyunturas tales como esta:
Recordad las sabias palabras de Spiegelhalter: https://t.co/mne7xhMN3W pic.twitter.com/x8YZxiMvgp
— Carlos Gil Bellosta (@gilbellosta) September 30, 2020
En el primer número de la novísima revista Spanish Journal of Statistics aparece un artículo con un título tentador: Recovering income distributions from aggregated data via micro-simulations.
Es decir, un artículo que nos puede permitir, por ejemplo, muestrear lo que la AEAT llama rendimientos a partir de lo que publica (aquí):
Uno de los métodos de los que sostienen el ignominioso a mí me funciona está basado en el modelo
Tienes un proyecto que cuesta 1000 euros pero solo dispones de 100. Puede ser el típico proyecto de Patreon o Verkami; o ya puestos, proyectos como el de NadaEsGratis. O, ya puestos, un curso de ciencia de datos (cuya realización es contingente en que se alcance un volumen de alumnos mínimo).
Podrías, simplemente pedir 900 euros a voluntarios (como en los enlaces de más arriba). Pero podrías hacer algo mejor: ofrecer un contrato condicional en el que a los potenciales patrones:
Leí hace un tiempo, antes de que concediesen el Nobel a sus autores y porque había oído hablar muy bien de él a un tipo que conozco, Poor Economics.
Es un libro muy deprimente y voy a explicar aquí por qué.
Advierto que escribo de memoria: ni he revisado el libro ni lo que de él anoté para este infrarresumen.
El libro tiene muchas páginas divididas en N+1 capítulos. Los N primeros describen muchos, muchísimos RCTs (¿en el orden de cientos?
Y me refiero a
extraído de aquí y lo que escribí ayer sobre la regresión con discontinuidades.
Escribe Gelman en términos irónicocelebratorios:
OK, we can now officially say that Stan, as an open-source software, has recouped its societal investment.
Apostilla Terry (en los comentarios), por si alguien se lo había tomado literalmente:
Came here to say this.
Review saved $20-$50 billion. Stan was involved in the Review. Therefore, Stan saved $20-$50 billion.
AWOOOOOOOGAH!!!
The economic Klaxon is deafening.
Nope, nope, nope, nope.
Porque siempre hay alguien sin sentido del humor.
Tales son las circunstancias de los tiempos que nos ha tocado vivir que muchos de quienes trabajamos en ciencia de datos, querámoslo o no, nos dedicamos a vender cachivaches. De ahí que recomiende la lectura de
un librito con muchas posibles interpretaciones pero que da en el clavo en muchas. O tal opino yo.
Nota: muchas cosas han cambiado desde que se publicó. No sé si es bueno leer esto antes o después que el libro.
Consta de tres simples pasos:
Repasa mentalmente una serie de profesiones: taxista, profesor, agricultor, enfermera, músico, programador, prostituta, camarero,… Compara mentalmente los ingresos del 1% más rico con el del 10% más pobre. Compara mentalmente el peso relativo de las distintas profesiones en el tiempo.