L’intelligence artificielle : alliée ou danger pour les institutions financières ?

Share on twitter
Twitter
Share on linkedin
LinkedIn

Le terme “intelligence artificielle” (IA) fut forgé en 1955 par Herbert Simon et Allen Newell, qui développèrent le premier programme d’IA, qu’ils utilisèrent pour démontrer 38 des 52 premiers théorèmes mathématiques, et qui fut connu sous le nom de “Logic Theorist”. Depuis lors, l’IA est devenue un phénomène du 21e siècle, et de nombreux secteurs d’activité cherchent à comprendre comment elle pourrait leur être utile, notamment le secteur des services financiers pour ce qui concerne la criminalité financière et la détection de la fraude.

Ces dernières années, les débats se sont intéressés à l’impartialité et dans un sens plus large aux questions éthiques liées à l’utilisation de l’IA (et des algorithmes en général). Cela fait suite à un certain nombre de controverses récemment rapportées dans divers secteurs d’application. En 2020, le Royaume-Uni a vu des dizaines de milliers de résultats d’examens d’élèves du General Certificate of Secondary Education et du A-Level déclassés en raison d’un biais algorithmique lié aux résultats des examens scolaires précédents et à d’autres indicateurs. La police a également fait part de ses inquiétudes quant à la partialité des outils d’IA, qui peuvent amplifier les préjugés et conduire à ce que certaines minorités soient plus susceptibles d’être contrôlées que d’autres. Les grandes entreprises de technologie elles-mêmes n’ont pas été complètement épargnées par les préjugés innés qui se glissent dans leurs outils algorithmiques. En 2018, nous avons appris qu’une de ces entreprises a été obligée de supprimer un “outil d’IA sexiste” utilisé pour le recrutement, qui prenait en compte des caractéristiques sexistes et pénalisait les femmes dans son système d’évaluation.

S’agissant du secteur des services financiers, le besoin de systèmes d’IA équitables et éthiques est primordial. Les organisations financières ont de plus en plus recours à l’IA pour prendre des décisions cruciales qui peuvent avoir un impact négatif sur leurs clients, comme le refus de prêts ou de demandes de cartes de crédit. Il est donc important de s’assurer que les décisions générées par les algorithmes d’IA ne sont pas injustement biaisées en faveur d’un secteur démographique particulier de la population cliente.

Comment l’Intelligence Artificielle peut-elle donner des résultats faussés ?

Les outils d’IA ne deviennent pas biaisés par eux-mêmes, ils reprennent les préjugés humains et sociétaux innés qui sont intégrés dans les ensembles de données, les configurations algorithmiques et les résultats des décisions. Pour en revenir à l’exemple de recrutement cité ci-dessus, l’outil s’était formé à partir de données soumises par des candidats sur une période de dix ans, qui provenaient principalement d’hommes. Le système détecta cette nuance et s’enseigna à lui-même que les candidats masculins étaient préférables.

Les solutions modernes d’IA sont pilotées par des algorithmes d’apprentissage automatique qui prédisent des résultats pour de nouvelles instances de données. Les résultats de ces prédictions sont réinjectés dans le processus d’apprentissage, qui s’adapte donc aux nouvelles données et devient plus précis au fil du temps. Toutefois, s’il existe un biais sous-jacent dans les données ou les décisions relatives aux résultats, le processus d’apprentissage peut amplifier ce phénomène.

Contrôler la subjectivité de l’IA

Alors que le monde devient de plus en plus dépendant des algorithmes basés sur l’IA un large éventail de prises de décisions, les chefs d’entreprise auront à expliquer la raison des inférences ou des prédictions générées par ces algorithmes, ce que l’on nomme également ” l’explicabilité de l’IA “. Cela nous amène à poser la question suivante : quels contrôles peuvent-ils être mis en place pour garantir que les décisions prises par l’IA et les algorithmes d’apprentissage automatique sont impartiales et justes ?

Une solution facile à première vue serait de supprimer les variables protégées dans les données d’entrée, telles que le sexe et l‘origine ethnique, mais ce n’est malheureusement pas aussi simple que cela en raison de leur corrélation avec d’autres variables. Par exemple, aux États-Unis il existe une corrélation perçue entre le code postal et la catégorie ethnique, ce qui a entraîné des problèmes avec les applications de l’IA en matière de police prédictive. L’impact des variables protégées peut proliférer dans les ensembles de données par le biais de leur corrélation avec des variables de remplacement, ce qui, si ce n’est pas maîtrisé, peut compromettre les efforts visant à éliminer les partialités.

Des contrôles visant à atténuer les distorsions peuvent être insérés à trois stades des flux de travail algorithmiques :

1.         Les contrôles de prétraitement permettent de rééchantillonner et de repondérer les données afin d’atténuer les effets de la distorsion avant qu’elles n’entrent dans la phase de modélisation et ne soient utilisées pour éclairer une décision. 

2.         Les contrôles en cours de traitement appliquent des modifications à la formulation des algorithmes d’apprentissage, telles que des adaptations de leurs fonctions coût, afin de réduire le nombre de résultats faussés.

3.         Les contrôles post-traitement sont appliqués après l’étape d’algorithme/modélisation, en appliquant des contrôles de départialisation à leurs résultats décisionnels.

Les institutions financières devront mettre en place de solides pratiques de gouvernance du risque pour contrôler ces interventions. La recherche a montré que les contrôles visant à réduire les distorsions peuvent avoir un effet négatif sur la précision, et vice versa. Cela a conduit à la formulation de solutions qui tentent d’optimiser un certain équilibre ou compromis entre les paramètres de précision et d’équité. Savoir quel est le compromis ou la tolérance acceptable est une décision stratégique qui doit être prise en dernier ressort par le comité d’éthique de l’institution financière.  

Rôle des régulateurs, des gouvernements et des grandes entreprises technologiques dans l’éthique de IA

Au-delà du traitement des données, des régulateurs financiers tels que l’Autorité monétaire de Singapour ont publié des lignes directrices visant à renforcer la culture de la responsabilité et du comportement éthique au sein des organisations financières, en mettant l’accent sur le rôle individuel que chaque organisation doit jouer dans le développement d’une culture de l’éthique.

Le Centre for Data Ethics and Innovation du gouvernement britannique a également publié un rapport sur les distorsions dans la prise de décision algorithmique en novembre 2020, qui a examiné les distorsions spécifiquement dans les secteurs du recrutement, des services financiers, du maintien de l’ordre et des administrations locales. L’objectif du rapport était de formuler des “recommandations transversales visant à aider à construire les bons systèmes afin que les algorithmes améliorent, plutôt qu’ils n’aggravent, la prise de décision”.

Mais il s’agit d’une question qui dépasse les organismes de réglementation et les gouvernements. Les grandes entreprises technologiques ont un rôle à jouer dans l’élaboration de mesures de protection et des politiques. Par exemple, Microsoft a créé le groupe communautaire FATE pour définir les principes et processus d’équité, de responsabilité, de transparence et d’éthique en matière d’IA. Le groupe étudie “les implications sociales complexes de l’IA, de l’apprentissage automatique, de la science des données, de l’expérimentation à grande échelle et de l’automatisation croissante”, dans le but de “faciliter des techniques informatiques à la fois innovantes et éthiques, tout en s’appuyant sur le contexte plus profond entourant ces questions, à partir de la sociologie, de l’histoire et des études scientifiques et technologiques”.

Toutefois, il convient de noter que les garde-fous et les politiques actuels créés par ces groupes et organismes gouvernementaux reconnaissent que leur réflexion n’en est qu’à ses débuts. La réalité est que l’éthique dans l’IA est un concept relativement nouveau qui a pris de l’importance au cours des trois ou quatre dernières années et que nous essayons tous encore de comprendre, de décortiquer et de contrôler pleinement. Les mesures de protection et de contrôle actuelles doivent être pleinement mises en œuvre et renforcées au fil du temps, pour devenir la pierre angulaire des principes éthiques dans les services financiers.

En résumé, l’IA et les algorithmes d’apprentissage automatique qui la sous-tendent peuvent changer la donne pour les institutions financières, en améliorant considérablement les capacités de détection. Cependant, l’IA peut aussi amplifier les distorsions qui peuvent se manifester à de multiples stades du processus, depuis les données jusqu’aux décisions, en passant par la modélisation. Les organisations doivent s’appuyer sur de solides principes et pratiques de gouvernance des modèles pour reconnaître et corriger l’effet de ces distorsions, qui pourraient conduire à des résultats injustes ou contraires à l’éthique si elles ne sont pas contrôlées.

Share on twitter
Twitter
Share on linkedin
LinkedIn