/Fair-ML-4-Ethical-AI

Fair Statistical Learning Algorithms for Ethical Artificial Intelligence

Primary LanguageJupyter NotebookGNU General Public License v3.0GPL-3.0

INSA

Evaluation des Risques Sociétaux des Algorithmes d'IA: ressources pédagogiques

Université de Toulouse -- INSA; Institut de Mathématiques -- UMR CNRS 5219 & ObvIA -- Université Laval.

Présentation

Suite à la publication du livre blanc pour une approche de l'IA basée sur l'excellence et la confiance (2020), la Commission Européenne (CE) a publié de nombreuses propositions de textes réglementaires dont un AI Act (2021) établissant des règles harmonisées sur l'intelligence artificielle (IA). Quels seront les conséquences et impacts de l'adoption à venir de ce texte du point de vue d'un mathématicien ou plutôt statisticien impliqué dans la conception de système d'intelligence artificielle (IA) à haut risque au sens de la CE? Quels outils et méthodes vont permettre de répondre à l'obligation d'une analyse rigoureuse et documentée des données traitées, des performances, robustesse, résilience de l'algorithme, de son explicabilité, des risques, pour les droits fondamentaux, de biais discriminatoires?

  • Besse et al. (2019) analysent les différentes sources de risque: défaillances, opacité, discrimination des algorithmes d'apprentissage statistique.

  • Besse et al. (2020) applique ces réflexions au déploiement des algorithmes d'IA en Santé.

  • Besse (2021) illustre ces questions par un exemple numérique analogue à un score de crédit (cf. tutoriel) à la recherche d'un moins mauvais compromis entre toutes les contraintes puis conclut sur les avancées et limites du projet de règlement européen pour les systèmes d'IA à haut risque.

Ce dépôt regroupe les ressources pédagogiques (données, fonctions, calepins jupyter) permettant l'exécution du tutoriel, accompagnant l'article Besse et al. (2021) et reproduisant les résultats de Besse (2021).

Références