Éthique et intelligence artificielle dans le secteur bancaire et financier

la finance pour tous

Dans une société de plus en plus numérisée, les algorithmes et l’intelligence artificielle sont partout. Dans le secteur bancaire et financier, ils sont utilisés par exemple dans les processus d’octroi de crédit, de lutte contre le blanchiment d’argent et le financement du terrorisme, la gestion de portefeuilles financiers, etc. Comment en assurer un développement maîtrisé sans freiner l’innovation ? C’est le rôle d’une gouvernance adéquate et d’un renforcement de l’éthique.

Le Larousse définit ainsi l’intelligence artificielle (IA) : « ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine ».

Marvin Lee Minsky, l’un de ses créateurs la définit, quant à lui, comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ».

Usages de l’intelligence artificielle dans le secteur bancaire et financier ?

L’informatisation s’est développée dès la fin de la Seconde Guerre mondiale dans le secteur bancaire et financier. Elle a d’abord automatisé des activités manuelles répétitives (ex : tri de chèques), mais avec l’arrivée des réseaux, elle concerne dorénavant des tâches très variées :

  • calcul de profils clients pour optimiser leur offre ;
  • outils d’aide à la décision, côté établissement financier (ex : analyse de dossiers de crédit, analyse de risques en assurance) mais également côté clients (chatbots, robot advisors…) ;
  • canal d’échange et de commercialisation via les sites Internet et les applications sur smartphone ;
  • dématérialisation des échanges, que ce soit entre l’établissement financier et son client ou entre établissements financiers (ex : compensation des flux financiers) ou encore avec les organismes de tutelle.

Mais l’arrivée de nouvelles technologies comme de nouveaux types d’algorithmes (ex : réseaux de neurones, « deep learning » – capacité des machines/programmes à « apprendre ») et aussi l’accès à des volumes quasi-infinis de données (le big data), qui constituent les piliers de l’IA, amènent de nouvelles pistes d’usage comme, par exemple :

  • pré-remplissage de devis d’assurance et propositions d’indemnisation ;
  • remontées d’alertes en matière de lutte contre la fraude documentaire (ex : analyse de photos), de lutte contre le blanchiment et le financement du terrorisme (ex : repérage des comptes des virements de faible montant suivis de retraits en espèces) voire les délits d’initiés ;
  • gestion de portefeuilles financiers et de trading ;
  • préparation des réponses aux demandes clients (mails, robots téléphoniques…) ;
  • affinement des besoins clients pour des offres plus ciblées (ex : détection de moments de vie, analyse des dépenses et des entrées…).

Principaux risques induits par l’IA dans le secteur bancaire et financier

En 2020, la Commission européenne mettait en avant, dans un livre blanc, les principaux risques que l’IA fait courir pour les personnes. Ils trouvent leur déclinaison dans le secteur bancaire et financier :

Risques de l’intelligence artificielle pour les droits fondamentaux

Risques pour les droits fondamentaux, notamment la protection des données à caractère personnel, le respect de la vie privée, et la non-discrimination. Quelques exemples :

  • du fait d’échantillons pris dans des laboratoires de recherche, certains programmes d’IA pour l’analyse faciale sont entachés de biais de nature sexiste ou raciale, qui se traduisent par un faible taux d’erreur dans la détermination du sexe des hommes à peau claire mais un taux d’erreur élevé dans la détermination du sexe des femmes à peau foncée ;
  • prendre en compte le département de résidence dans un algorithme de scoring crédit peut discriminer les habitants d’un département pauvre (en intégrant des critères sur les défauts de remboursement) pour l’obtention d’un prêt, ce qui peut renforcer les inégalités existantes ;
  • ingérence dans la vie privée (ex : type de consommation à partir des relevés de comptes bancaires).

Risques de l’intelligence artificielle pour la sécurité informatique

Risques liés à la sécurité informatique comme la recherche de mots de passe à partir des archives de mots de passe précédents ou des décisions prises sur la base d’informations erronées (« fake » sur Internet ou données non mises à jour).

Les bases pour évaluer la qualité d’une intelligence artificielle

Le 21 avril 2021, l’Union Européenne présente un projet de règlement pour réguler l’usage de l’intelligence artificielle. Celui-ci analyse les risques induits, notamment en matière de biométrie. Ce texte doit encore être discuté par toutes les parties prenantes et ne rentrera donc pas en application avant plusieurs mois. 

En 2020, l’ACPR (Autorité de contrôle prudentiel et de régulation) proposait, dans un document de réflexion, d’évaluer la qualité d’une IA selon quatre axes :

  • le traitement adéquat des données, à savoir « s’assurer de la conformité réglementaire et prendre en compte les considérations éthiques (telles que l’équité dans les traitements ou l’absence de biais discriminatoire) » ;
  • la performance : utiliser « un ensemble de métriques suffisant pour évaluer l’efficacité d’un algorithme en finance selon les critères techniques ou fonctionnels souhaités » ;
  • la stabilité : « garantir le caractère généralisable de l’algorithme lors de sa mise en œuvre et de détecter en permanence les risques de dérive des modèles déployés en production » ;
  • l’explicabilité : « éclairer le client, garantir la cohérence des processus dans lesquels des humains prennent des décisions ou encore faciliter la validation et la surveillance des modèles ».

Comment les établissements financiers respectent-ils l’éthique dans leurs usages de l’IA ?

En l’attente de réglementation et pour se conformer aux recommandations des autorités de tutelle, la plupart des établissements financiers systémiques se dotent d’une charte data, qui décrit le cadre dans lequel ils utilisent l’IA.

Ils mettent en place une gouvernance pour s’assurer de la prise en compte de leurs principes éthiques, pour diffuser les bonnes pratiques, pour contrôler la mise en œuvre opérationnelle.

Ils attachent une attention particulière aux données utilisées :

  • création de bases de données d’entrainement respectant les exigences de diversité, de non-discrimination et d’équité ;
  • protection des données personnelles (RGPD) y compris des données conservées pouvant servir d’historique  – au-delà de l’information qui doit être fournie préalablement à tout traitement de données personnelles ;

Les projets d’IA font également l’objet d’une méthodologie spécifique :

  • validation initiale du projet de recours à ces techniques ;
  • mise au point d’algorithmes compréhensibles (éviter l’effet « boîte noire »)  – l’explicabilité est à destination des clients (éclairage sur les décisions qui les concernent ou les propositions qui leur sont faites) mais aussi à celle des utilisateurs internes qui sont en charge de confirmer les résultats obtenus ;
  • validation continue, pour éviter les dérives ultérieures à la mise en production. Elle passe souvent par des audits internes ou externes, spécialisés dans les codes algorithmiques mais utilisant aussi des méthodes spécifiques à l’IA (ex : échantillons tests).

Enfin et surtout, les établissements financiers introduisent, sauf dans des cas largement éprouvés, un contrôle humain, qui peut corriger les résultats de l’IA (ex : accorder un prêt). Certains organisent également une médiation avec les utilisateurs finaux, si ceux-ci ne sont pas satisfaits des conséquences de la mise en œuvre de l’IA.

Impact de l’intelligence artificielle sur l’emploi

Il est certain que l’IA va avoir un impact sur l’emploi dans le secteur financier au sens large. Quel pourrait-il être ? Peu ont émis des prévisions.

D’après l’OCDE, 15 % des collaborateurs verront 50 % de leurs tâches fortement modifiées par l’automatisation due à la robotisation et à l’intelligence artificielle. En France, le Conseil d’Orientation pour l’Emploi (COE) constate que l’introduction d’innovations a été globalement favorable à l’emploi par le passé et anticipe que moins de 10 % des emplois sont très exposés au vu des mutations technologiques, mais qu’environ la moitié est susceptible d’être profondément transformée.

La difficulté pour estimer l’impact de l’IA sur l’emploi dans le secteur financier vient surtout du fait que les établissements ne sont pas encore mûrs pour définir précisément leur stratégie en matière d’IA et que les consommateurs ne sont pas encore forcément prêts à payer les nouveaux services induits par l’IA.

0 commentaire

Commenter