[💜]En apenas 10 años de aplicación de aprendizaje automático a gran escala han salido a la luz numerosos escándalos que prueban que estos algoritmos discriminan e incluso amplifican nuestros sesgos étnicos, económicos, y de género, entre otros. El problema es grave porque a menudo el aprendizaje automático se usa para automatizar procesos que implican decisiones críticas: accesos a becas, tratamientos médicos, préstamos bancarios, puestos de trabajo, productos, información... y la discriminación puede pasar fácilmente desapercibida. El taller consiste primero en una charla introductoria que tiene por objetivo poner de relieve las limitaciones del aprendizaje automático y nos centraremos en ejemplos sobre sesgo de género. A continuación, aplicaremos algunas herramientas sencillas para identificar y corregir estas limitaciones. Para ello, usaremos datos tabulares sobre los que realizaremos un análisis sencillo con librerías de Python para la Explicabilidad (XAI) y cuantificación de incertidumbre (UQ). Vente con tu ordenador y con el repositorio ya clonado para ahorrarnos tiempo, aquí encontrarás las instrucciones: https://github.com/MMdeCastro/Uncertainty_Quantification_XAI. Es un taller introductorio para el que no se necesitan conocimientos previos sobre aprendizaje automático.
Experta en programación y estadística para la extracción de información a partir de datos. Física Teórica por la Universidad Autónoma de Madrid, Máster en Sistemas Complejos por la Universitat de les Illes Balears y Doctora en Propagación de Incertidumbre por la Universidad de Kiel (Alemania). Ha trabajado en el centro de computación de alto rendimiento (HPC) para el clima DKRZ (Hamburgo, Alem…
GDSC Lead
GDSC Lead