Actualités
Appel à contribution – équité algorithmique
Regards sur la fairness dans le machine learning
Coordination Bilel Benbouzid (UMLV)
Coordination Bilel Benbouzid (UMLV)
S’il est aujourd’hui facilement admis que les données ne sont pas données, mais construites par des institutions et des personnes dans des contextes spécifiques, il est alors tout aussi simple d’admettre que les systèmes décisionnels reposant sur des procédures d’apprentissage statistique reproduisent les mécanismes sociaux de production des données. Ainsi, avec l’irruption du « machine learning » dans le débat public, la notion de « biais statistiques » a pris une tournure politique.
Suite aux nombreuses dénonciations sur les biais algorithmiques et les inégalités sociales qui leur sont associées dans les processus décisionnels, l'intérêt pour la notion d’équité (fairness) dans le domaine du machine learning s'est accru ces cinq dernières années. L’abondante littérature scientifique sur ce sujet rend compte d’un grand nombre de métriques concurrentes de l’équité.
Alors que les informaticiens et les statisticiens orientent leurs recherches vers des méthodes d’optimisation mettant en tension des contraintes de précision et de justice sociale et, plus récemment, s’inspirent de l’approche de la théorie du mechanism design en micro-économie, les chercheurs en sciences sociales s’accordent plutôt sur le fait que, n’existant pas de solution optimale pour mesurer l’équité statistique d’un modèle, le problème de l’atténuation des biais dans les décisions algorithmiques ne peut pas se limiter à une tâche technique.
L’équité algorithmique est indissociablement cognitive et politique : elle ne peut être produite qu’en mêlant le travail cognitif du data scientist à des débats sur les contextes sociaux auxquels les décisions algorithmiques prennent part. C’est cette double opération de moralisation des mathématiques et de mathématisation de la morale qui motive un projet de numéro spécial de la revue Statistique et Société.
Dans ce numéro, nous souhaiterions apporter des éléments d’éclairage sur les débats autour du fair machine learning. Le numéro pourrait accueillir des articles de genres et disciplines variés, à la fois selon une entrée théorique, méthodologique ou empirique, avec par exemple des études de cas concrets dans une perspective de sociologie de la quantification (santé, justice, police, systèmes de recommandation de contenus, etc.).
Calendrier :
Les auteurs intéressés doivent soumettre leur intention de contribution au secrétariat Statistique et Société (contribution-statsociete@framalistes.org) ainsi qu’au coordinateur du numéro (bilel.benbouzid198@gmail.com) avant le 15 juillet 2021. Pour les intentions retenues, les contributions établies en respectant les normes de la revue (http://statistique-et-societe.fr/about/submissions) seront à remettre le 15 décembre 2021.