¿Irán por aquí los tiros en el futuro de la "ciencia de datos"?

Para muchos, el futuro de la llamada ciencia de datos seguirá la estela dejada por

y sus continuadores usando cosas deep. Pero a la vez, sin tanto estruendo y con una mucho menor cobertura mediática, otros están trazando una ruta alternativa que ilustran artículos como Bayes and Big Data: The Consensus Monte Carlo Algorithm (atención todos a lo que hace uno de sus coautores, Steven L. Scott, que convierte en oro todo lo que toca). Como abrebocas, su resumen (con mi subrayado):

Una definición útil de big data es que se refiere a datos demasiado grandes para ser procesados cómodamente en una sola máquina, ya sea por cuellos de botella del procesador, la memoria o el disco. Las GPUs pueden aliviar el cuello de botella del procesador, pero los de la memoria o el disco solo pueden eliminarse dividiendo los datos entre varias máquinas. La comunicación entre un gran número de máquinas es costosa (independientemente de la cantidad de datos que intercambien), por lo que existe la necesidad de algoritmos que realicen análisis bayesianos aproximados distribuidos con una comunicación mínima. El Consensus Monte Carlo opera ejecutando una simulación de Monte Carlo independiente en cada máquina para luego combinarlas. Dependiendo del modelo, las simulaciones resultantes pueden ser casi indistinguibles de las que se habrían obtenido al ejecutar un algoritmo secuencialmente en sola máquina.