Interpretabilidad y transparencia de las plataformas de Inteligencia Artificial
Interpretabilidad y transparencia de las plataformas de Inteligencia Artificial
Continuando con nuestra serie formativa en Inteligencia Artificial y Machine Learning para mejorar la gestión sanitaria orientada a organizaciones sanitarias de Chile, Colombia, Argentina, Uruguay, Perú, México y Costa Rica, en esta ocasión profundizaremos en los conceptos de interpretabilidad y transparencia. Existe mucho miedo a las “cajas negras” que hay detrás de los modelos de machine learning. En este webinar, desmitificaremos este concepto y explicaremos que hay detrás de los modelos realmente y que técnicas se pueden utilizar para entender los resultados que se obtienen de los modelos. Más en detalle, abordaremos algunos de los siguientes temas:
- Concepto de «caja negra» en ML/IA
- Diferencias entre algoritmos de lógica clínica como los Grupos Relacionados por el Diagnóstico (GRD) y los algoritmos de machine learning, de lógica matemática.
- Cómo podemos medir la «confianza» en los modelos y controlar su calidad.
- Cómo podemos medir «precursores» en las predicciones e interpretar recomendaciones en IA.
- Limitaciones de los modelos de IA más modernos (Deep Learning, LLMs como ChatGPT…).
- Metodología y herramientas usadas en Sigesa para logar sistemas de IA más interpretables.
- Resolución de dudas de los asistentes.
Expositores
Sara de la Rubia
Científica de datos en Sigesa
Arantxa Unda
CEO de Sigesa