Los ejemplos son las conclusiones
[Ahí va otro aforismo en la línea de este otro].
Me recomienda Medium muy encarecidamente la lectura de Optimization over Explanation y yo a mis lectores. Trata el asunto de la responsabilidad dizque ética de los algoritmos de inteligencia artificial. Nos cuenta cómo la legislación en general y la GDPR en particular ha hecho énfasis en la explicabilidad de los modelos: según la GDPR, los sujetos de esos algoritmos tendríamos el derecho a que se nos explicasen las decisiones que toman en defensa de nosequé bien jurídico, que nunca he tenido claro y que se suele ilustrar examinando una serie de casos en los que salen aparentemente perjudicados los miembros de unas cuantas minorías cuya agregación son todos menos yo y unos poquitos más que se parecen a mí.
Para el autor, la expicabilidad se queda corta: le resulta insuficiente, ineficiente e ineficaz. Como alternativa, sugiere un control sobre dos cosas:
- aquello que los algoritmos optimizan y
- los resultados de los modelos, por ver si se ajustan o no convenientemente a lo esperado.
Y el artículo es lógicamente consistente porque los dos ejemplos que trata, a saber, de conducción de coches autónomos y de diagnóstico médico, de manera nada sorprendente se ajustan a su tesis como el proverbial guante.
Pero reto a mis lectores a releer el artículo enlazado cuestionándolo desde la perspectiva de otros ejemplos más próximos como:
- Modelos para la concesión de créditos, hipotecas o similares.
- Modelos para la estimación de primas en seguros (vida y no vida).
- Modelos de recomendación de productos.
- Cualquiera de los últimos en los que hayan trabajado.
¿Se lee de otra manera?