L’IA, un risque pour la réputation

Par Guillaume Poulin-Goyer | 16 février 2024 | Dernière mise à jour le 15 février 2024
6 minutes de lecture

L’intégration de systèmes d’intelligence artificielle (SIA) biaisés ou déficients pourrait représenter un risque réputationnel important pour les intervenants du secteur financier. C’est pourquoi ces derniers doivent mettre en place de bonnes pratiques pour utiliser les SIA de manière responsable.

C’est ce qu’a mentionné l’Autorité des marchés financiers (AMF) dans le Document de réflexion et de discussion – Meilleures pratiques pour une utilisation responsable de l’intelligence artificielle, rendu public lundi à l’occasion du Rendez-vous de l’AMF, à Montréal.

Ce rapport met de l’avant dix recommandations pour favoriser le développement responsable de l’IA en finance et 30 meilleures pratiques pour ce faire. Ce document ne vise pas à mettre en place un nouveau cadre règlementaire, mais l’AMF invite les parties intéressées à soumettre leurs commentaires à ce sujet d’ici le 14 juin 2024.

L’utilisation de modèles et d’algorithmes complexes est déjà répandue dans le secteur financier. Or, les SIA pourraient créer un préjudice important pour les clients. Par exemple, un client pourrait se voir refuser l’accès à un produit ou un service financier à cause de biais discriminatoires introduits dans un SIA ou d’une déficience de celui-ci. « Des conflits d’intérêts pourraient également s’immiscer dans les recommandations données par un SIA à un investisseur », lit-on dans le document.

Par ailleurs, les erreurs ou les dérives de SIA utilisés pour l’allocation de ressources ou pour l’investissement pourraient avoir un impact sur la solvabilité des organisations de l’industrie, selon le document de l’AMF.

De plus, une utilisation mal informée ou malintentionnée d’un SIA par un employé, par exemple lorsque celui-ci utilise un outil d’IA générative dont les données d’entraînement incluent sans permission une ou des œuvres protégées par des droits d’auteur.

En outre, « l’entraînement de SIA requiert de grandes quantités de données qui, si elles contiennent des renseignements personnels et ne sont pas adéquatement protégées, peuvent faire l’objet de bris de confidentialité », lit-on dans le document.

GARE À LA DISCRIMINATION

Dans son document, l’AMF a identifié plusieurs pratiques qui favorisent une utilisation de l’IA en cohérence avec les attentes raisonnables des clients, tant sur le plan de la protection de la vie privée que sur le plan de l’autonomie des consommateurs. En voici un résumé.

« L’utilisation de l’IA ne devrait pas porter atteinte aux consommateurs d’une quelconque manière, individuellement ou collectivement, par exemple en nuisant à l’inclusion financière, en systématisant des biais discriminatoires non justifiés ou en augmentant les inégalités économiques et sociales », selon le rapport.

En effet, les performances des SIA dépendent intrinsèquement de la qualité des données utilisées.

« Dès que nos données sont biaisées ou qu’on induit des biais systématiques dans la machine, elle va nous ressortir ça. Il y a un défi important de s’assurer que l’on comprenne bien ce qu’on souhaite faire », a évoqué Geneviève Fortier, cheffe de la direction, Promutuel Assurance et présidente du conseil d’administration, Investissement Québec, à l’occasion d’un panel sur l’IA au Rendez-vous de l’AMF.

L’entraînement d’un SIA devrait être effectué avec des données à jour, représentatives de la population visée par le système et ne reflétant pas de biais provenant, par exemple, de pratiques discriminatoires.

L’AMF souligne que, dès sa conception, on devrait évaluer l’incidence de l’IA sur les groupes de consommateurs vulnérables, par exemple, les nouveaux arrivants, les analphabètes ou les personnes peu familières avec les technologies numériques.

L’un des défis de l’IA est ainsi le dilemme entre la valorisation de la donnée et sa protection. « Dans nos organisations, on a accès à la donnée qui nous permette de bien comprendre les clients de nos membres assurés. On a le goût de valoriser la donnée pour qu’elle nous profite du point de vue des affaires, mais en même temps, on a le dilemme de protéger cette donnée », a expliqué Geneviève Fortier.

« On est rompu à l’exercice de comment on collecte l’information, comment on obtient le consentement éclairé, comment on doit s’assurer que l’utilisation de la donnée est faite dans le bon esprit. Et l’esprit qui doit prévaloir est l’esprit éthique », a-t-elle ajouté.

ASSUMER LES RESPONSABILITÉS DES ACTIONS D’UN SIA

L’utilisation de l’IA ne doit pas contribuer à une déresponsabilisation de l’intervenant financier, souligne l’AMF. « Au contraire, la responsabilité de tous les résultats et de tous les préjudices causés par un SIA déployé par un intervenant financier (incluant les SIA acquis d’une tierce partie) devrait lui revenir, quels que soient les objectifs poursuivis », lit-on dans le document.

Par ailleurs, selon l’AMF : « Un code d’éthique devrait être mis en place ou modifié pour y faire figurer les valeurs et les principes éthiques qui devraient être respectés dans l’utilisation de l’IA et prévoir des sanctions en cas de défaut aux obligations qui y sont prévues. » Le régulateur souligne que les SIA d’un intervenant financier devraient être protégés, notamment contre le piratage, incluant l’empoisonnement des données, et les cyberattaques.

« Une surveillance des SIA devrait être mise en œuvre de façon à pouvoir détecter rapidement un fonctionnement anormal, des résultats discriminatoires ou inéquitables, ou une utilisation inappropriée ou à des fins nuisibles », lit-on dans le document.

QUESTION DE TRANSPARENCE

L’un des principes importants est que les acteurs de l’industrie financière devraient être transparents dans leur utilisation auprès des consommateurs. Ainsi, « lorsqu’un SIA se présente comme un être humain auprès des consommateurs, ces derniers devraient être clairement avisés qu’il s’agit d’un agent automatisé ».

De plus, le consentement des consommateurs pour la collecte et l’utilisation de leurs données devrait être demandé en termes simples.

En outre, dès qu’un SIA peut avoir une incidence élevée sur un consommateur, ce dernier devrait avoir la possibilité de demander une explication claire du processus et des principaux facteurs qui ont mené aux résultats ou à la décision donnés par le SIA, selon le document : « Le SIA devrait être conçu de façon à ce que ces résultats puissent être retracés et expliqués », lit-on dans le document.

« Le client a le droit de comprendre pourquoi une assurance lui est refusée, pourquoi va-t-il payer plus cher un tarif d’assurance. Plus on avance avec nos modèles, plus on va pouvoir le faire rapidement. Il ne faut pas perdre de vue qu’il faut expliquer les raisons, sinon on désavantage ultimement la façon dont on traite le client », a précisé Geneviève Fortier.

Une fonctionnalité de coupe-circuit pour interrompre l’utilisation d’un SIA si sa performance se détériore au-delà d’un seuil donné devrait être mise en place et testée périodiquement, selon le document de l’AMF : « De plus, les SIA d’un intervenant financier devraient être intégrés dans les plans de continuité des affaires de l’intervenant pour assurer la résilience opérationnelle de ce dernier. »

Abonnez-vous à nos infolettres

Guillaume Poulin-Goyer Guillaume Poulin Goyer

Guillaume Poulin-Goyer

Guillaume Poulin-Goyer est rédacteur en chef adjoint pour Finance et Investissement et Conseiller.ca.