Khaoula Chehbouni

Khaoula Chehbouni

Mila- Quebec AI Institute

À propos de Khaoula

Khaoula Chehbouni est étudiante de deuxième année au doctorat en informatique à l'Université McGill et à Mila (Institut d'IA du Québec). Elle a reçu la prestigieuse bourse de formation doctorale du FRQNT pour effectuer des recherches sur l'équité et la sécurité dans les grands modèles de langage. Auparavant, elle a travaillé comme scientifique principale des données à Statistique Canada. Elle est titulaire d'une maîtrise en intelligence d'affaires de HEC Montréal, pour laquelle elle a reçu le prix de la meilleure thèse. Ses intérêts de recherche comprennent l'IA responsable, les questions d'équité et de sécurité dans les grands modèles de langage.

Session

Biais d'algorithme : peut-on un jour espérer une IA exempte de discrimination?

Atelier A (15:15 ~ 17:15)

Les systèmes d’IA étant de plus en plus intégrés dans les processus décisionnels critiques, les préoccupations concernant l’équité et les biais occupent une place grandissante. Cet atelier explore comment les biais peuvent émerger et se propager tout au long du cycle de développement de l’apprentissage automatique, de la collecte des données au déploiement des modèles, entraînant des impacts réels. Nous commencerons par décortiquer différentes définitions de l’équité, en soulignant la complexité de traduire des notions sociales en formulations mathématiques. Grâce à des exercices pratiques inspirés d’applications réelles, les participant·e·s seront confrontés aux défis que pose la définition de l’équité dans des scénarios de prise de décision binaire. Ces exercices illustreront la nature sociotechnique de l’équité, en insistant sur le fait que les interventions techniques seules ne peuvent pas résoudre les biais systémiques. De plus, nous examinerons comment les biais s’intègrent dans le pipeline d’apprentissage automatique, influençant les résultats de manière subtile mais significative. Au-delà des mesures traditionnelles d’équité, nous explorerons également les défis posés par l’IA générative, allant des biais de représentation aux disparités dans la génération de contenu. À la fin de cet atelier, les participant·e·s auront une compréhension approfondie de l’équité comme un problème multidimensionnel et repartiront avec des pistes concrètes pour développer des systèmes d’IA plus responsables.