Basta una línea para mejorar tus mapas; pero, ¿cuál?

r
A la vista de los mapas pocos habrán que no prefieran el de la derecha. Los mapas están extraídos de la entrada Improve your maps in one line of code changing map projections, cuyo título ha sido elegido muy acertadamente en tanto que los mapas han sido construidos usando gd_n2_main_laea <- gd_n2_main %>% st_transform(crs = 3035) a <- gd_n2_main %>% ggplot() + geom_sf(fill = "#F48FB1", color = NA)+ geom_sf(data = bord, color = "#C2185B", size = .

Aprendizaje por refuerzo: ¿Q o no Q?

Esta entrada está motivada por mis cavilaciones alrededor de un potencial futuro proyecto de Circiter. Es posible que por primera vez tengamos que recurrir a técnicas de aprendizaje por refuerzo y quiero aprovechar para dejar por escrito algunas cuestiones al respecto. En particular, algunas potenciales simplificaciones con respecto a la teoría general que, afortunadamente, aplicarían a nuestro caso particular. En lo que sigue voy a dar por sabidos conceptos básicos sobre el aprendizaje por refuerzo que casi nadie conoce pero que están a un click de distancia del cerebro de cualquiera.

¿Se encoge el cerebro de los hombres cuando tienen un su primer crío?

Si uno atiende a lo que dicen los medios, diríase que sí. El runrún mediático está motivado por la publicación del estudio First-time fathers show longitudinal gray matter cortical volume reductions: evidence from two international samples al que no tengo acceso ni siquiera oblicuamente (i.e., vía Sci-Hub), pero cuyo resumen traduce ChatGPT así: Las evidencias emergentes señalan la transición a la paternidad como una ventana crítica para la plasticidad neural en adultos.

En defensa del futuro del subjuntivo

Compárense las tres frases: Quien llegue primero a meta recibirá… Quien durante la carrera caiga al río… Quien durante la carrera cayere al río… Las dos primeras son fácilmente comprensibles por el lector de hoy en día. Pero existe una sutil diferencia entre ambas: En la primera, se da prácticamente por seguro que alguien llegará a meta. Debería suceder una catástrofe (¿que todos los participantes se precipitasen en el río?) para que ninguno llegue a meta.

El "teorema" sobre las sumas de lognormales no es solo falso sino que, además, es innecesario (en muchos casos)

I. Hace un tiempo, reproduje el enunciado del siguiente teorema: La suma de lognormales (independientes y con parámetros similares) es lognormal. El teorema no es cierto. No puede serlo tanto por motivos teóricos como meramente empíricos. Es fácil tomar 3000 muestras de una lognormal con parámetros cualesquiera, sumarlos por tríos para obtener 1000 muestras $x_i$ de su suma, ajustar la mejor lognormal que se ajusta a ellos (pista: si se usa MV, los parámetros ajustados son la media y la desviación estándar de $\log x_i$), comparar las dos muestras (p.

Hoy, y sin que sirva de precedente, voy a hablar de economía y política

Aunque, por supuesto, en términos abstractos y con, a lo más, una muy tenue relación con hechos de la más rabiosa actualidad en la fecha en que esto se redacta. Economía En una sociedad limitada, las decisiones las tienen, en última instancia, los accionistas: la empresa hace lo que decide el +50% del capital social. Así que alguien puede crear una empresa con un capital de $3000 + \epsilon$ euros y usar sus recursos para adquirir una mayoría de control en una de un capital de $6000 + \epsilon / 2$ euros.

¿Cuántas iteraciones necesita mi MCMC?

Es el tema de este reciente artículo de Gelman. Cabe esperar que algunos se sientan decepcionados porque no tenga solo una página en la que se lea algo así como: usa cuatro cadenas de 4000 iteraciones, 1000 de ellas de warmup. Lo siento: son 26 páginas y sin recetas copy-paste. Tampoco puedo añadir nada de sustancia a lo que ahí se cuenta. Me voy a limitar a subrayar una idea e ilustrarla con un caso con el que me enfrenté hace unos años.

Charla en la U. de Oviedo sobre sistemas de recomendación con el objetivo de ilustrar aspectos relevantes y frecuentemente olvidados de la estadística bayesiana

El lunes día 13 (de noviembre de 2023), a las 17:15, hablaré de sistemas de recomendación como excusa para ilustrar algunos aspectos relevantes y frecuentemente olvidados de la estadística bayesiana. Entiendo que aunque la charla esté dirigida a los estudiantes del grado de ciencia de datos de la Universidad de Oviedo, la asistencia tanto presencial como remota está abierta al público. Entiendo también que la charla se grabará y que quedará disponible.

La progresividad fiscal: una perspectiva temporal

En una entrada anterior hablé de la curva de Laffer y de la predisposición a trabajar en los últimos meses del año. En esta quiero abundar sobre el asunto ilustrando cómo evolucionan los tipos marginales del IRPF por mes. Porque la idea de los impuestos progresivos es que pague más no solo en términos absolutos sino también relativos, quien más gane. Pero la gente no tiene todos sus ingresos el día 31 de diciembre sino que los va acumulando a lo largo del año.

Dibujar y modelar: ¿en qué se parecen?

Los economistas de hogaño tienden a coincidir en no encontrar sustancia detrás de la llamada curva de Laffer. No les quito la razón: ellos saben mejor que yo qué pasa en las casas de los demás. Pero en la mía, Laffer manda. En los últimos meses del año levanto el pie del acelerador y trabajo mucho, mucho menos. El motivo es fundamentalmente fiscal: mi tarifa bruta por hora es la misma pero el IRPF marginal —en eso consiste la progresividad fiscal— va aumentando mes a mes.

¿De dónde vienen las interacciones?

El contexto es, esencialmente, la creación de modelos lineales —no necesariamente los clásicos—, aunque la discusión podría extenderse más allá. Una cosa que nos suelen enseñar los libros es que si en un modelo de la pinta y ~ t + g (donde t es un tratamiento y g es algún tipo de grupo) nos da por introducir una interacción (en este caso solo cabe t*g) tenemos necesariamente que incluir los efectos individuales t y g so pena de incurrir en una larga retahíla de pecados estadísticos.

Más sobre paralelismos entre textos vía embeddings

Retomo el asunto de los paralelismos entre textos, que ya traté aquí, por el siguiente motivo: Estoy explorando las posibilides del RAG Para lo cual es necesario crear una base de datos documental con los fragmentos debidamente embebidos En particular, estoy probando lo que chroma da de sí. Esencialmente, chroma consiste en: Una base de datos (SQLite, de hecho) donde se almacenan los fragmentos, sus metadatos y sus embeddings. Mecanismos para crear los embeddings.