3 razones por las que la interpretabilidad está cobrando importancia en el mundo del aprendizaje automático
¿Qué es el aprendizaje automático?
El aprendizaje automático, ML por sus siglas en inglés, es un concepto que, junto a otros como el Big Data o el Deep Learning, han visto su popularidad aumentada exponencialmente en los últimos años. El área de aprendizaje automático es una rama de la Inteligencia Artificial cuyo objetivo es construir sistemas que aprendan automáticamente de los datos. Existen múltiples ejemplos de aplicaciones de ML en nuestra vida diaria, como pueden ser:



Interpretabilidad en los modelos de aprendizaje automático
En los problemas de aprendizaje automático, habitualmente los modelos más precisos son los más complejos. Esto es así porque precisamente estos modelos buscan patrones que capten relaciones de un alto número de variables en espacios de alta dimensionalidad y, por tanto, son capaces de “ver” relaciones e información muy difícil de captar e interpretar por un ser humano. Esta es su principal fortaleza, pero también presenta quizá uno de los principales obstáculos a superar: los mejores modelos son normalmente los menos interpretables.
Hasta hace no mucho tiempo, la interpretabilidad de estos modelos no se había considerado muy relevante en el mundo académico. Habitualmente el objetivo de la mayor parte de las líneas de investigación era buscar nuevos modelos o formas de aplicarlos que consiguieran una mejora en la precisión o bondad del modelo. El que esto provocara una pérdida sensible en la capacidad de interpretabilidad de los resultados del modelo de ML no se consideraba significativo. Por tanto, a la hora de aplicar un modelo de aprendizaje automático en problemas reales, se presentaba siempre la siguiente dicotomía: ¿precisión o interpretabilidad? ¿Modelo simple, menos preciso pero fácilmente entendible, o modelo complejo, muy preciso pero estilo “caja negra”, es decir, sé lo que entra y lo que sale, pero no lo que pasa entre medias?
Afortunadamente, esta forma de pensar ha cambiado en los últimos años y actualmente la extracción de interpretabilidad es una línea de investigación muy popular.

Interpretabilidad en el aprendizaje automático aplicado a medicina
En Sigesa creemos que esta es la línea a seguir, especialmente en el ámbito sanitario. Entre los motivos por los que creemos en la importancia de la interpretabilidad en el mundo del aprendizaje automático aplicado a medicina podemos destacar tres:



Algoritmos para extraer interpretabilidad en ML
La interpretabilidad de modelos de aprendizaje automático se encuentra aún en una fase inicial de investigación. Sin embargo, ya se han desarrollado algunos algoritmos que han mostrado muy buenos resultados en distintas investigaciones y simulaciones:
- Árboles de decisión para explicar las predicciones del modelo.
- Predicción basada en ensembles de reglas.
- Métodos estadísticos basados en insertar ruido a los input y observar variaciones en el output. Un ejemplo puede encontrarse aquí.
En Sigesa hemos desarrollado nuestros propios algoritmos explicativos, mezcla de los métodos anteriores y desarrollos internos en el equipo de Machine Learning, para generar interpretabilidad de cada uno de nuestros modelos de ML, tanto Enara MLS como Enara MLP.
Para más información sobre nuestros modelos de aprendizaje automático o sobre cómo estos algoritmos pueden ayudarles a ganar interpretabilidad sobre sus predicciones, póngase en contacto con nosotros.
