La interpretabilidad en Machine Learning

Vector de Fondo creado por rawpixel.com - www.freepik.es

Vector de Fondo creado por rawpixel.com - www.freepik.es

En el área de Machine Learning (ML) decimos que un algoritmo tiene ‘alta interpretabilidad’ si una persona puede entender por qué dicho algoritmo tomó ciertas decisiones. Otra forma de definir si un algoritmo es más interpretable es si un humano es consistentemente capaz de predecir el resultado de un modelo de ML.

Bajo la luz de esta definición, es importante cuestionarnos qué tan necesaria es la interpretabilidad de los modelos. La respuesta, como en muchas otras cuestiones que rodean al ML, es: depende.

El campo de problemas y aplicaciones donde podemos utilizar ML es muy amplio, y cada problema requerirá diferente grado de interpretabilidad. Por ejemplo, habrá aplicaciones en donde no nos interese entender por qué el modelo tomó ciertas decisiones siempre y cuando haya tenido una precisión alta (la precisión mide qué tan certero es el resultado de un modelo), mientras que habrá otros casos en donde nos interese saber por qué está tomando esas decisiones antes de utilizarlo en un ambiente productivo.

Es importante considerar que muchas veces existe un compromiso entre precisión e interpretabilidad, es decir, si queremos aumentar la segunda posiblemente haya que sacrificar algunos puntos de precisión.

El principal factor para decidir qué tanta importancia damos a la interpretabilidad de un modelo es el nivel de riesgo del ambiente donde se utilizará ese modelo. Por ejemplo, no hay el mismo nivel de riesgo en la tarea de una plataforma de streaming que te recomienda una película que en la tarea de diagnosticar COVID-19 a partir de la radiografía de tus pulmones. En el primer caso lo peor que podría ocurrir es que no te guste la película, y en el segundo tu diagnóstico podría resultar negativo cuando en realidad estás contagiado, lo que podría dar pie a más contagios e, incluso, traer consecuencias mortales. Normalmente, la interpretabilidad suele tener mayor peso en ámbitos médicos, financieros o gubernamentales, donde además de tomar decisiones se debe entender por qué se tomaron.

En la siguiente tabla mostramos ejemplos de algoritmos que suelen tener buena interpretabilidad:

TABLA.001.jpeg

Por estas razones, ya sea que seas un desarrollador de ML, dirijas proyectos de ML o seas el director de una empresa que busca aplicar ML en sus procesos, es importante que tomes en cuenta el ambiente donde se utilizarán los modelos. En particular, hay que ser conscientes de los riesgos involucrados en las decisiones que tomará un algoritmo de ML para ayudarnos a elegir la familia de métodos adecuados para nuestra aplicación.

Dr. Alejandro Maldonado

Fuentes:

https://christophm.github.io/interpretable-ml-book/interpretability.html

https://hackernoon.com/choosing-the-right-machine-learning-algorithm-68126944ce1f

Vector de Fondo creado por rawpixel.com - www.freepik.es

Guest User