Par Emilie Mazzei, avocate au Barreau de Paris et Alexandre Peschet, directeur marketing d’Upsideo
L’intelligence artificielle, véritable innovation de rupture, s’est imposée comme un moteur de transformation de l’ensemble du secteur financier. Au centre des débats, l’IA générative, qui pousse chaque entreprise à toujours plus innover, tout en posant un certain nombre de défis éthiques et technologiques. A nous d’en appréhender correctement bénéfices et risques.
L’intelligence artificielle n’est pas une technologie très récente, elle est juste une évolution de solutions déjà existantes. Les technologies de l’IA ne sont qu’une nouvelle utilisation de la data, en vue d’une meilleure exploitation. Trier la data pour en tirer des réponses pertinentes, permettre d’automatiser les processus, faciliter les pratiques métiers. Car l’intelligence artificielle n’existe qu’à travers ses cas d’usage.
L’IA générative ne fait que produire une réponse à une question pertinente posée par un expert. L’enjeu principal réside donc dans la qualité de l’interaction homme-machine : sans un bon prompt, l’intelligence artificielle n’a pas de valeur.
Pour le secteur financier, il s’agit donc juste de savoir orienter l’IA pour pouvoir en tirer le meilleur parti, afin qu’elle puisse réellement servir à l’entreprise financière qui cherchera à automatiser son organisation et ses processus métiers.
Au centre de la problématique, la gestion de la data est un défi de taille. Elle concerne dorénavant tout aussi bien les salariés, les clients que les fournisseurs, avec des bases de données de plus en plus nombreuses et complexes. L’entreprise recherche, par ce biais, des gains de productivité et d’efficacité dans l’ensemble de ses activités.
L’intelligence artificielle est une réponse à cet enjeu, mais son déploiement interroge des concepts et principes réglementaires, qui vont de l’utilisation des données à caractère personnel, en passant par la sécurisation de ses infrastructures techniques, à l’obligation de personnaliser les prestations qu’elle offre aux clients finaux, que cela soit via le conseil, la gestion d’actifs, et tout autre service financier et ce, de l’entrée en relation client au suivi de ce dernier.
Cependant, l’IA nécessite, dans cette course effrénée à l’innovation, de mettre en place des garde-fous pour protéger l’ensemble des utilisateurs. D’où le concept nécessaire d’IA responsable, qui se dessine dans la réglementation initiée au niveau européen et dans la pratique.
L’IA dans le secteur financier : des opportunités prometteuses, mais des risques à ne pas ignorerL’intelligence artificielle ouvre un vaste champ de possibilités inédites dans le secteur financier. Elle permet non seulement de renforcer la détection des fraudes documentaires, mais aussi d’améliorer les processus de contrôle KYC (Know Your Customer) aux niveaux 1 et 2, en automatisant et en affinant les vérifications d’identité. De plus, elle optimise la cartographie des risques LCB-FT (lutte contre le blanchiment d’argent et le financement du terrorisme), en identifiant plus rapidement et avec précision les flux financiers suspects.
L’IA permet également d’affiner considérablement l’analyse des comportements clients, en offrant des insights plus granulaires et personnalisés. Grâce à des algorithmes prédictifs, elle exploite les données collectées pour anticiper les besoins, les tendances du marché et les comportements futurs, ce qui permet aux institutions financières de prendre des décisions plus éclairées. Aussi optimise-t-elle le traitement et l’analyse d’un volume massif d’informations, en garantissant une exhaustivité accrue, et une exploitation plus rapide et efficace de ces données complexes, tout en réduisant les risques d’erreurs humaines.
L’IA générative offre un potentiel considérable dans le secteur financier en révolutionnant de nombreux aspects des opérations et des services. Grâce à sa capacité à créer du contenu, générer des modèles prédictifs ou simuler des scénarios économiques complexes, elle permet aux institutions financières d’améliorer leur efficacité et leur capacité d’anticipation. Elle peut, entre autres, faciliter la rédaction automatique de recommandations personnalisées, de stratégies patrimoniales, ou encore l’élaboration de documents justifiant des incohérences de saisies lors des diligences relatives à la connaissance client. L’IA générative peut améliorer la prise de décision en s’appuyant sur des modèles dynamiques et en temps réel, tout en intégrant des informations personnalisées du client. Elle permet ainsi d’adapter les stratégies et recommandations de manière plus précise et pertinente, en tenant compte des spécificités de chaque situation et de chaque besoin individuel.
L’IA générative a également la capacité d’apporter des avantages conséquents, notamment en matière de gestion de la donnée client. Pour l’utilisateur, c’est un véritable levier de productivité : l’automatisation des processus de collecte, d’analyse et de traitement des données permet de réduire les tâches répétitives et chronophages, libérant ainsi du temps pour se concentrer à la relation client. Pour le client final, ces avancées peuvent se traduire par des interactions plus fluides avec son conseiller. En outre, la rapidité de traitement des demandes peut également renforcer la satisfaction et la confiance du client.
Malgré ce constat, il est essentiel de ne pas perdre de vue la nécessité d’une évaluation pragmatique et objective de la qualité des services rendus par l’IA. En effet et au-delà de son potentiel indéniable, l’intelligence artificielle demeure soumise à certaines limites. Parmi celles-ci, on peut évoquer les biais potentiels issus d’un apprentissage automatique insuffisant, le manque de transparence dans les processus, ou encore le risque d’erreurs.
Dans ce cadre, l’utilisation de données qui ne respectent pas des standards de qualité stricts, ainsi que la possibilité désormais facilitée de les traiter en masse et ce, sans tenir compte des principes fondamentaux de protection de la vie privée, représentent des défis majeurs. L’importance de mettre en œuvre une gestion des risques effective devient ainsi une évidence pour encadrer l’utilisation de l’IA. Et les risques à gérer sont désormais multiples, qu’il s’agisse des risques de non-conformité, de fraude, de fuite de données, ou de contrôle abusif ou disproportionné des individus dont les informations ont été collectées.
Un exemple frappant est celui de l’usage de l’IA afin d’optimiser les tâches des téléconseillers. En effet, ces outils, même s’ils permettent d’améliorer la productivité et l’efficacité – et c’est leur objectif affiché –, peuvent également faciliter la surveillance des comportements desdits conseillers lors de leurs interactions avec les clients finaux. Cela ne peut que susciter des interrogations quant à l’équilibre entre optimisation des services et respect des droits des travailleurs.
En résumé, bien que l’enthousiasme pour l’IA soit justifié par les nombreuses opportunités qu’elle offre, il est impératif d’adopter une approche plus mesurée et réfléchie. Cela implique, pour chaque entité financière, de mettre en place un contrôle permanent des solutions IA, et d’organiser sa gouvernance en instaurant, par exemple, un comité éthique. In fine, l’utilisation de l’IA doit être couplée à une véritable déontologie d’entreprise, afin de garantir une utilisation responsable, transparente, et bénéfique pour l’ensemble des acteurs du secteur financier.
Au-delà des performances technologiques, les enjeux liés à l’impact social, humain et économique de l’IA doivent rester au cœur des préoccupations.Réponses réglementaires : encadrer l’IA pour une finance sécurisée et éthique
Au niveau européenLe Règlement (UE) 2024/1689, également appelé IA Act, a été adopté le 13 juin 2024. Il vise à établir des règles harmonisées en matière d’intelligence artificielle avec pour objectif d’« améliorer le fonctionnement du marché intérieur en établissant un cadre juridique uniforme, […] dans le respect des valeurs de l’union ». Sa mise en application se fera progressivement à partir du 2 février 2025.En parallèle, la Directive relative à la responsabilité civile extracontractuelle dans le domaine de l’intelligence artificielle, proposée le 28 septembre 2022, est encore en discussion. Celle-ci souligne que l’utilisation de l’IA peut engager la responsabilité civile des concepteurs de systèmes.
Ces textes instaurent un cadre juridique applicable aux acteurs publics et privés, qu’ils opèrent à l’intérieur ou à l’extérieur de l’Union européenne, et ce, tant que le système d’IA sera mis sur le marché européen, ou que son utilisation affectera des personnes situées dans l’UE.
Il est également à noter que l’IA Act adopte une approche par niveaux de risque, répartis en quatre catégories, et inclut une identification spécifique des risques liés aux modèles d’IA à usage général :
- risque minimal ;
- risque élevé : systèmes susceptibles de créer un impact négatif sur la sécurité des personnes ou leurs droits fondamentaux ;
- risque limité : lorsque ce risque est évident (par exemple via l’utilisation de chatbots), chaque utilisateur devra être informé qu’il interagit avec une machine ;
- risque inacceptable : utilisation d’IA interdites sur le territoire de l’UE car contrevenant aux droits fondamentaux des personnes (exploitation des vulnérabilités des personnes, utilisation de techniques subliminales, identification biométrique à distance en temps réel, catégorisation biométrique des personnes selon leur race, opinions politiques, appartenance syndicale, croyances religieuses ou philosophiques ou orientation sexuelle).
Cette approche par les risques sonne de façon familière pour les entités du secteur financier, qui mettent en place depuis des années les dispositifs LCB-FT, RGPD, contrôle interne, etc.
Dans le Bulletin d’information n° 62 de l’EU AI Act, la Commission européenne a annoncé avoir recueilli plus de cent signatures pour le pacte de l’IA (issu de la loi européenne sur l’IA entrée en vigueur le 1er août 2024), qui encourage les entreprises à se conformer aux principes de la législation sur l’intelligence artificielle avant sa mise en œuvre officielle. Les entreprises signataires s’engagent à élaborer une stratégie de gouvernance de l’intelligence artificielle, à identifier les systèmes à haut risque et à promouvoir la maîtrise des technologies IA au sein de leurs équipes. De plus, elles devront garantir une surveillance humaine et assurer une transparence accrue des contenus générés par IA.
Le bulletin met également en lumière le recueil de près de quatre-cent-trente contributions pour le futur code de bonnes pratiques de l’IA à usage général (GPAI), qui sera finalisé en avril 2025 et mis en œuvre dès le 1er août 2025. Ce code aborde des sujets clés tels que la transparence, le droit d’auteur, l’évaluation des risques et la gouvernance interne des systèmes IA.
La mise en place du GPAI (Global Partnership on Artificial Intelligence, Partenariat mondial sur l’intelligence artificielle, ndlr), aura, très certainement, de nombreux impacts réglementaires et métiers : d’une part, il renforcera la responsabilisation des entreprises en les obligeant à respecter des normes strictes avant même l’entrée en vigueur de la loi. Il contribuera ainsi à minimiser les risques liés à l’utilisation abusive de l’IA, notamment en matière de biais et de gestion des risques internes.
Ce cadre quasi-réglementaire les poussera également à se préparer en amont, leur permettant de mieux s’intégrer dans le futur paysage juridique tout en évitant des sanctions liées à la non-conformité. D’autre part, la transparence et la supervision humaine apporteront une plus grande confiance du public et des utilisateurs envers les systèmes d’IA, favorisant une adoption plus large et sécurisée de cette technologie au sein du marché européen.
Au niveau national
En France, l’intelligence artificielle représente un enjeu stratégique majeur dans les domaines de la recherche, de l’économie, de la modernisation de l’action publique, ainsi que de la régulation et de l’éthique. Le gouvernement a lancé en 2018 une stratégie nationale pour l’intelligence artificielle (SNIA) avec l’objectif de positionner la France parmi les leaders européens et mondiaux de l’IA.
Cette stratégie s’inscrit dans le cadre du plan France 2030, avec pour ambition de renforcer la souveraineté économique, technologique et politique de la France, tout en mettant l’IA au service de l’économie et de la société. La SNIA se déploie en deux phases majeures :
- phase 1 (2018-2022) : elle visait à doter la France de capacités de recherche compétitives en IA, avec un financement de 1,85 milliard d’euros. Parmi les initiatives, on compte la création de réseaux d’instituts interdisciplinaires d’intelligence artificielle ;
- phase 2 (2021-2025) : cette étape, dotée de 1,5 milliard d’euros, vise dorénavant à diffuser les technologies d’IA au sein de l’économie, notamment dans les secteurs prioritaires, comme l’IA embarquée, l’IA de confiance, l’IA frugale et l’IA générative. Les efforts se concentrent sur trois piliers : le soutien à l’offre Deep Tech, la formation et l’attraction des talents, ainsi que le rapprochement entre l’offre et la demande de solutions IA.
Parallèlement à ces initiatives gouvernementales, la CNIL (Commission nationale de l’informatique et des libertés) a publié des guides et recommandations pour encadrer l’utilisation de l’IA, principalement sous l’angle de la protection des données personnelles.
Autrement dit, un droit souple prévaut pour le moment en France, favorisant un environnement où l’innovation en IA peut prospérer.
Ainsi et bien que la réglementation spécifique à l’IA soit encore en développement – notamment dans des secteurs comme le secteur financier –, la France a-t-elle déjà démontré son engagement à promouvoir une intelligence artificielle éthique et sûre, tout en contribuant activement à l’élaboration des normes européennes et internationales.
L’enjeu crucial de l’IA responsable dans le secteur financierEn 2024, le secteur financier se trouve à un tournant décisif : les mois à venir seront déterminants pour intégrer les futures réglementations avec une vision éthique et durable. Plus qu’une simple obligation, l’adoption d’une IA responsable représente un choix stratégique majeur : celui de développer des algorithmes transparents, éthiques et respectueux des droits de chacun. Les institutions financières doivent s’engager à protéger non seulement leurs clients, mais aussi leurs collaborateurs et l’ensemble de leur écosystème.
Dans cette optique, trois principes clés doivent prévaloir : transparence, éthique, et respect de la vie privée. Il ne s’agit pas seulement de se conformer aux exigences légales, mais également de placer la confiance et l’intégrité au cœur des décisions algorithmiques. Les mécanismes de gouvernance doivent se renforcer : adoption de codes éthiques, mise en place d’audits et de certifications, et surtout, création de processus de réclamation pour contester les décisions prises par IA.
Le défi va au-delà de la conformité. L’information et la sensibilisation des clients et des collaborateurs sont essentielles. Chaque client doit comprendre pourquoi un produit ou service lui a été proposé, qu’il s’agisse d’une décision humaine ou d’un algorithme, et chaque collaborateur doit maîtriser les objectifs des outils IA qu’il utilise. En d’autres termes, l’IA responsable, c’est concilier les opportunités offertes par la technologie avec des exigences éthiques irréprochables.
Le secteur financier doit embrasser ces enjeux non seulement pour bénéficier de l’innovation technologique, mais aussi pour garantir une IA qui soit bénéfique, juste et respectueuse des valeurs humaines et sociétales.
ConclusionA condition de respecter les principes éthiques et de transparence évoqués, l’IA représente une véritable révolution pour le secteur financier, offrant des bénéfices considérables à la fois pour les entreprises et leurs clients. En adoptant une IA responsable, les institutions financières peuvent considérablement améliorer leur productivité, gérer plus efficacement les exigences de conformité grâce à l’analyse de données complexes en temps réel, et tirer parti de l’exploitation totale de leurs données pour mieux anticiper les besoins des clients. De plus, l’IA peut faciliter des tâches autrefois chronophages, comme la rédaction de documents ou le suivi des contrôles, en intégrant et en analysant instantanément des informations clés.
Pour les clients, c’est la garantie d’une expérience plus fluide, personnalisée et transparente, renforçant ainsi leur confiance dans les services financiers. En conciliant ces avantages technologiques avec une approche éthique et humaine, les institutions financières peuvent se positionner comme des leaders innovants et responsables, tout en captant les opportunités offertes par cette transformation.
L’IA dans le secteur financier est une mine d’opportunités enthousiasmantes pour ceux qui s’engageront dès aujourd’hui à l’exploiter de manière responsable. Il est temps d’aller de l’avant et d’embrasser ces nouveaux horizons pour façonner l’avenir de la finance.