Photo : Karsten Neglia / 123RF

Selon un article de la Harvard Business Review, le développement de l’intelligence artificielle (IA) dans le domaine bancaire permettrait de réduire les biais discriminatoires qui influencent souvent les décisions d’octroi de prêts et financements. Cependant, les technologies étant développées par des humains, elles risquent d’intégrer plusieurs de ces biais dans les modèles d’analyse.

Comme les humains peinent à détecter l’injustice présente dans les immenses volumes de données analysées par les systèmes d’apprentissage automatique, les prêteurs préfèrent s’appuyer su l’IA pour identifier, prédire et éliminer les biais contre les groupes protégés qui s’insèrent dans les algorithmes.

Les institutions financières ont alors un très grand rôle à jouer afin de construire des systèmes d’IA plus équitables. Le magazine américain affirme que les institutions devront sacrifier une part de précision en faveur de plus d’équité. Il faudrait qu’elles testent et entraînent les systèmes à analyser les décisions qui « auraient dû être prises » selon des facteurs d’équité, plutôt que les décisions telles qu’elles ont été prises.

L’article propose des solutions pour réduire les biais intégrés dans les systèmes des institutions financières : éliminer les biais des données avant de construire les modèles, améliorer les objectifs des modèles discriminants ou encore construire des modèles adverses pour mettre en valeur les disparités.

LA DIVERSITÉ ET L’INCLUSION À LA RESCOUSSE

Le New York Times a interrogé des expertes en intelligence artificielle qui ont pu présenter certaines causes des biais de la technologie et des solutions pour y remédier.

Timnit Gebru, chercheuse au sein de l’équipe IA éthique chez Google et cofondatrice de Black in AI, explique que la source des problèmes de biais dans l’IA vient de l’aspect social et non de l’aspect technologique, et qu’il ne faut pas se fier aveuglément à un traitement purement scientifique des modèles.

« Pour moi, la chose la plus difficile à changer est l’attitude culturelle des scientifiques, note la chercheuse. Les scientifiques sont parmi les personnes les plus dangereuses au monde parce que nous avons cette illusion d’objectivité; il y a cette illusion de méritocratie et il y a cette illusion de recherche de la vérité objective. La science doit tenter de comprendre la dynamique sociale du monde parce que la plupart des changements radicaux se produisent au niveau social. »

Olga Russakovsky, professeure adjointe au département d’informatique de l’Université de Princeton, rappelle que « les chercheurs en IA sont principalement des hommes, issus de certains groupes démographiques raciaux, qui ont grandi dans des secteurs socio-économiques favorisés, principalement des personnes sans invalidité. Nous sommes une population assez homogène, c’est donc un défi de penser globalement aux problèmes mondiaux. Il existe de nombreuses occasions pour diversifier ce groupe, et à mesure que la diversité s’élargit, les systèmes de l’IA eux-mêmes deviendront moins biaisés. »

Elle avoue que des systèmes d’IA complètements impartiaux puissent être impossible à concevoir, puisque l’être humain ne peut être impartial, mais croit qu’il est encore possible de faire mieux que ce qui est fait en ce moment dans le milieu.

Jonathan Mzengeza, gestionnaire de portefeuille technologique à Gestion d’actifs CIBC, nous a accordé une entrevue au début de cette année pour discuter de la trajectoire de l’intelligence artificielle et des développements à surveiller. Écoutez l’entrevue complète ici.