Search
Close this search box.

IA et Finance: enjeux, risques et impact des règlementations

L’intelligence artificielle (IA) transforme le secteur de la finance, offrant des solutions innovantes pour optimiser leurs processus et modèles commerciaux. Selon McKinsey, l’IA générative pourrait générer des gains annuels potentiels de 200 à 340 milliards de dollars dans le secteur bancaire mondial, grâce à l’augmentation de la productivité. Cependant, son intégration comporte également des risques. Pour éviter ces problèmes, il est essentiel de respecter des réglementations strictes et des normes de conformité. Cela garantit une utilisation responsable et prévient les risques éthiques et juridiques.

Cas d’utilisation de l’IA dans la finance

Les utilisations de l’IA dans le secteur financier sont nombreuses et offrent de nombreux avantages. Voici quelques exemples :

Service client  

Les chatbots, en particulier ceux alimentés par l’IA générative, améliorent considérablement le service client en offrant une assistance personnalisée et une disponibilité 24/7. Ces systèmes peuvent traiter et résoudre rapidement les demandes courantes, réduisant ainsi le besoin d’intervention humaine. Par exemple, les chatbots peuvent répondre aux questions fréquemment posées, aider à résoudre les problèmes de compte ou guider les utilisateurs dans l’utilisation des services bancaires en ligne. De plus, ils peuvent fournir des conseils financiers personnalisés et recommander des produits adaptés aux besoins spécifiques des clients, ce qui renforce leur fidélité.

En outre, cette automatisation gère les tâches répétitives de manière plus efficace. Elle augmente la productivité globale et réduit les coûts opérationnels pour les équipes de service client.

Gestion des risques  

L’IA améliore considérablement les processus de gestion des risques tels que la connaissance client (KYC) et la détection de la fraude. Pour la KYC, l’IA rend les vérifications plus rapides et plus précises en classant les documents et en extrayant rapidement les informations nécessaires. De plus, elle améliore la détection de la fraude et du blanchiment d’argent (AML) en surveillant les transactions en temps réel. Elle identifie les comportements suspects et les anomalies en repérant des schémas inhabituels, qui peuvent indiquer un blanchiment d’argent.

En automatisant le processus, l’IA réduit le coût et la complexité de ces opérations. Elle augmente la précision des vérifications en minimisant les erreurs humaines et les faux positifs. Cette surveillance proactive renforce la sécurité globale, améliore les enquêtes financières et renforce la capacité des institutions financières à lutter contre les activités illégales. De plus, elle améliore la sécurité des transactions.

Analyse de marché et identification des opportunités 

L’IA améliore l’évaluation du crédit ou la souscription d’assurance en analysant rapidement de grands ensembles de données, rendant les décisions plus précises et rapides. Elle peut identifier des opportunités de prêt souvent manquées par les méthodes traditionnelles, comme les emprunteurs ayant des historiques de crédit atypiques mais solides. L’IA permet également aux modèles de notation de se mettre à jour en continu en fonction des nouvelles données, offrant aux institutions financières une plus grande flexibilité et adaptabilité.

En outre, l’IA peut analyser d’énormes volumes de données financières et de sentiments exprimés sur les réseaux sociaux et dans les actualités. Cette capacité offre des informations et des prévisions précieuses sur les tendances du marché et le comportement des investisseurs. Cela permet aux gestionnaires d’actifs de prendre des décisions plus éclairées et de saisir les opportunités du marché.

L’IA générative peut aider à l’analyse de documents, tels que les évaluations ESG d’un client, en recherchant des informations ou des indicateurs pertinents. Cette capacité standardise et améliore l’efficacité du processus, entraînant des économies de temps significatives.

Ressources humaines

L’application de l’IA en dehors du cœur de métier financier, notamment dans les ressources humaines telles que le recrutement et l’évaluation du personnel, offre des avantages significatifs. Par exemple, elle améliore l’efficacité du recrutement en triant automatiquement les CV et en réduisant les biais inconscients. Cependant, il est essentiel de garantir que son utilisation respecte les normes éthiques et juridiques pour éviter toute discrimination.

Risques  

Tout comme il existe des avantages à utiliser l’IA dans le secteur financier, il existe également une gamme de risques associés. Ceux-ci incluent :

Biais et manque de transparence  

L’IA peut incorporer les biais présents dans les données d’entraînement, perpétuant ainsi les inégalités. Par exemple, un risque majeur est l’exclusion de certaines populations de l’accès au crédit. Si les données d’entraînement incluent principalement des profils d’un groupe socio-économique majoritaire, l’IA peut afficher des biais. Ce biais peut entraîner le rejet injuste des demandes de crédit des minorités. En conséquence, le manque de diversité dans les données conduit à des décisions injustes et discriminatoires. De plus, l’absence de transparence complique la compréhension des critères de décision et la contestation de ces décisions, posant d’importants défis éthiques et réglementaires.

Mauvaise qualité des prédictions et hallucinations

La qualité des données d’entrée est cruciale pour l’IA. Des données biaisées peuvent entraîner des prédictions erronées, affectant les décisions financières. Par exemple, des erreurs dans les prévisions de marché peuvent entraîner des pertes financières importantes. De plus, les hallucinations de l’IA peuvent fournir des informations incorrectes, entraînant des erreurs coûteuses.

Cybersécurité  

Les institutions financières, qui gèrent de vastes quantités de données sensibles, font face à des risques croissants de cyberattaques. La récente violation de données de 30 millions de clients de Santander met en évidence ce risque. De telles violations de sécurité peuvent entraîner le vol de données et des pertes financières. Les algorithmes d’IA sont vulnérables aux attaques adversariales, soulignant la nécessité de mesures de protection robustes. Renforcer la sécurité, en particulier dans les solutions cloud, et maintenir une surveillance continue sont essentiels pour protéger les données et les opérations.

Réglementations 

Europe – AI ACT 

L’AI Act a officiellement été adopté, et les premières obligations concernent les systèmes d’IA présentant un risque inacceptable et donc interdits, avec une date limite fixée au 2 février 2025. Étant donné que l’IA est utilisée partout, certaines utilisations dans le secteur financier peuvent être impactées et surtout considérées par l’AI Act comme présentant un risque inacceptable (interdit) ou à haut risque.  

Pratiques interdites

Parmi les pratiques interdites, voici 3 des 8 cas d’utilisation listés par l’AI Act :

  • Exploitation des vulnérabilités : Les applications d’IA qui ciblent les personnes en situation financière précaire avec des produits financiers inadaptés sont interdites. Par exemple, un système d’IA qui propose des prêts à taux d’intérêt élevé à des personnes ayant de mauvais scores de crédit.
  • Scoring social : Les systèmes d’IA utilisés par les institutions financières pour évaluer la solvabilité en se basant sur l’activité sur les réseaux sociaux, le comportement social ou d’autres aspects personnels non liés à l’historique financier sont interdits.
  • Inférence émotionnelle sur le lieu de travail : Les systèmes d’IA qui infèrent les émotions ou les sentiments des employés sur le lieu de travail, par exemple lors de réunions ou lors de la gestion des plaintes des clients, sont interdits sauf pour des raisons médicales ou de sécurité.

Système d’IA à haut risque 

L’AI Act stipule que certaines utilisations de l’IA, qui peuvent être utilisées dans la finance, sont considérées comme à haut risque :

  • Un système d’IA utilisé pour évaluer la solvabilité ou établir des scores de crédit pour les individus, ainsi que ceux pour l’évaluation des risques et la tarification dans les assurances vie et santé. Cela exclut les systèmes conçus pour détecter la fraude financière.
  • Un système d’IA utilisé dans le recrutement et l’emploi tel que le tri des CV et l’évaluation des candidats.
  • Un système d’IA utilisé pour l’identification biométrique à distance tel que dans un centre de données abritant des informations financières sensibles pour en renforcer la sécurité. Le système utilise la reconnaissance faciale pour scanner les individus lorsqu’ils approchent de l’entrée du centre. Les images capturées sont automatiquement comparées à une base de données de données biométriques des employés autorisés.

Cependant, l’utilisation d’un système d’IA pour la vérification biométrique n’est pas considérée comme à haut risque tant qu’elle est utilisée pour confirmer qu’une personne physique donnée est bien celle qu’elle prétend être. Par exemple, la reconnaissance faciale pour accéder à un compte bancaire en ligne.

Comme pour tout système d’intelligence artificielle, la surveillance humaine est essentielle. L’AI Act prévoit le principe d’un « bouton d’arrêt » pour permettre une intervention humaine lorsque cela est nécessaire. Dans le secteur financier, il est crucial de prévenir et de contrôler les erreurs automatisées. Ces erreurs pourraient avoir de graves conséquences pour les marchés et les clients.

L’application générale de l’AI Act commencera 24 mois après son entrée en vigueur le 1er août 2024, soit le 2 août 2026. Les dispositions concernant les systèmes d’IA interdits deviendront applicables 6 mois après l’entrée en vigueur de l’AI Act, soit le 2 février 2025. Le non-respect de l’AI Act peut entraîner des amendes allant jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel.

Autres réglementations 

Étant donné que les activités du secteur financier impliquent la gestion de données personnelles, il est crucial d’appliquer les réglementations telles que l’AI Act et le RGPD de manière complémentaire. Les institutions financières doivent se conformer aux exigences spécifiques à l’IA tout en respectant les normes strictes de protection des données imposées par le RGPD. Cette approche intégrée garantit la sécurité, la transparence et la protection des données personnelles, préservant ainsi les droits des individus et la confiance des clients.

En ce qui concerne la cybersécurité, la réglementation DORA (Digital Operation Resilience Act) vise à renforcer la sécurité informatique des institutions financières en introduisant des exigences harmonisées de gestion des risques liés aux technologies de l’information et de la communication (TIC) pour garantir la résilience du secteur en cas de perturbation opérationnelle grave.

Tout cela s’ajoute au grand nombre de réglementations affectant le secteur financier, telles que la Directive 2023/2225 sur les accords de crédit pour les consommateurs, qui assure une meilleure protection des consommateurs, en plus d’autres législations spécifiques au secteur telles que la lutte contre le blanchiment d’argent et les exigences de reporting et d’audit. Plus récemment, la Banque Centrale Européenne a indiqué que l’utilisation de l’IA dans la finance, bien qu’à ses débuts, doit être surveillée et potentiellement réglementée pour protéger les consommateurs et garantir la stabilité du marché.

États-Unis 

Aux États-Unis, il n’existe pas de réglementation horizontale équivalente à l’AI Act de l’UE. Suite au décret présidentiel de Biden, le département du Trésor américain a publié un rapport sur La gestion des risques de cybersécurité spécifiques à l’intelligence artificielle dans le secteur financier. Le rapport met en évidence les opportunités et les défis importants que l’IA apporte à la sécurité et à la résilience des services financiers. Il propose des mesures pour répondre aux risques opérationnels immédiats associés à l’IA et aborder les défis liés à la cybersécurité et à la fraude.

Il est également important de noter une proposition de loi au niveau fédéral « Algorithmic Accountability Act » de 2023 qui exige que les entreprises évaluent l’impact des systèmes d’IA qu’elles utilisent et vendent, tout en garantissant une plus grande transparence et en permettant aux consommateurs de faire des choix éclairés. Cela affecte de nombreux secteurs et utilisations, y compris le secteur financier. Le Bureau de protection financière des consommateurs (CFPB) a également émis des lignes directrices en septembre 2023 pour les institutions financières utilisant l’IA, leur demandant de fournir des raisons précises et spécifiques après une action défavorable telle que la réduction de la limite de crédit ou le refus de crédit, afin de garantir la transparence et de prévenir la discrimination.  

Au niveau des États, il existe des lois telles que Local Law 144 du Conseil municipal de New York, dans le centre financier mondial, qui régit l’utilisation des outils de décision automatisée pour l’embauche et la promotion des candidats et des employés dans la ville. Elle exige que ces outils fassent l’objet d’un audit indépendant annuel pour détecter les biais, et qu’un résumé de ces audits soit rendu public. De plus, la loi SB21-169 du Colorado interdit aux compagnies d’assurance d’utiliser des données externes sur les consommateurs et des algorithmes prédictifs pour discriminer injustement les clients en fonction de caractéristiques sensibles telles que la race, le sexe ou l’orientation sexuelle.

À retenir 

Assurer la conformité des systèmes d’IA dans le secteur financier, l’un des plus réglementés en Europe, commence par la cartographie et le dépistage de tous les systèmes d’IA utilisés dans l’organisation bancaire.

Équiper votre organisation d’un système de gestion de l’intelligence artificielle (AIMS) comme Naaia garantit une gestion optimale et un soutien pour vos équipes, grâce à des outils d’inventaire et de qualification, un système de signalement des incidents et une surveillance intégrée. De plus, cela facilite le partage d’informations entre les équipes, les rendant plus efficaces et désilotées pour être en phase avec la nature transversale de l’IA au sein de l’entreprise et les exigences des réglementations de produits nécessitant une surveillance tout au long du cycle de vie du système d’IA déployé.

Naaia peut vous accompagner dans votre processus de conformité et vous aider à faire face aux complexités de l’environnement réglementaire afin que vous puissiez transformer les contraintes réglementaires en opportunités stratégiques.

Partager l'article :
Search
Close this search box.