Les travaux de l’ACPR sur la révolution numérique dans les secteurs de la banque et de l’assurance (mars 2018) ont mis en lumière le foisonnement des projets de mise en oeuvre de techniques d’intelligence artificielle. Une task force, rassemblant professionnels du secteur financier (fédérations professionnelles, banques, assurances, Fintechs) et autorités publiques (AMF, CNIL, Tracfin, DGT) a donc été mise en place par l’ACPR début 2018 pour échanger sur les cas d’usages actuels et potentiels de l’intelligence artificielle dans le secteur, les opportunités et les risques associés, ainsi que les enjeux qu’ils représentent pour les autorités de contrôle.
Le présent document de réflexion, partant de ces discussions ainsi que d’échanges à l’international ou avec d’autres acteurs français, a pour objectif de présenter un premier diagnostic de la situation et de soumettre à consultation les pistes de réflexion qui méritent d’être approfondies pour permettre le développement de ces nouvelles technologies dans un cadre sécurisé.
L’intelligence artificielle est une notion polysémique, qui tend à recouvrir des réalités différentes au fur et à mesure que les techniques algorithmiques évoluent : le rapport s’en est tenu à une définition relativement large de l’intelligence artificielle, incluant toutes les techniques d’apprentissage machine, ou « machine learning », mais excluant généralement les processus de robotisation automatisant certaines tâches cognitives répétitives.
Le premier constat établi par la task force est que, si les projets fondés sur l’intelligence artificielle sont à des niveaux d’avancement disparates et souvent encore peu développés dans les processus qu’une autorité de contrôle aurait tendance à juger les plus sensibles, toutes les conditions sont réunies pour un développement rapide et généralisé des techniques d’intelligence artificielle dans le secteur financier : prise de conscience croissante des possibilités d’exploitation de données, elles-mêmes de plus en plus nombreuses et diversifiées ; développement des offres technologiques disponibles (bibliothèques open source, nouveaux acteurs spécialisés, grands prestataires de services technologiques, notamment via le cloud…) ; multiplication des tests et des projets.
De fait, les usages – en production, en test ou envisagés – sont nombreux et couvrent la plus grande partie des activités des banques et des assurances : de la relation client (avec le déploiement déjà très avancé des chatbots mais également des possibilités dans le conseil ou l’explication individualisée) à la gestion de back office (la gestion des sinistres en assurance par exemple) en passant par la tarification personnalisée, sans oublier la gestion des risques et la conformité (détection des fraudes, lutte contre le blanchiment, cyber-sécurité, modélisation interne des risques pour le calcul des exigences de capital réglementaires).
Le développement de ces technologies ne va naturellement pas sans risques, ceux inhérents aux techniques utilisées et ceux liés à leur pouvoir « disruptif ». Se rattachent à la première catégorie les risques de biais des algorithmes, accrus par leur complexité et les effets induits par la combinaison des différentes méthodes statistiques et heuristiques sous-jacentes, ainsi que les cyber-risques. Relèvent de la seconde catégorie les risques liés à l’émergence possible d’un petit nombre d’acteurs incontournables pour l’usage de ces techniques et aux rapports de force – éventuellement aux effets systémiques - qu’un tel phénomène induirait.
Dans ce contexte, les superviseurs doivent faire face à des enjeux dont les énoncés et les termes temporels diffèrent fortement.
À court terme, il paraît important que le développement de l’intelligence artificielle dans les secteurs de la banque et de l’assurance s’accompagne d’une réflexion pratique sur les critères minimaux de gouvernance et de maîtrise de ces nouvelles technologies par les entreprises. Cette réflexion doit permettre de progresser notamment sur les techniques de preuve de la fiabilité des algorithmes utilisés (en vue de leur auditabilité tant interne qu’externe), sur leur « explicabilité » et sur les interactions entre humains (clients, conseillers, contrôleurs, etc.) et algorithmes intelligents. Elle doit aussi permettre de préciser également, de façon plus générale, ce que pourrait être une bonne « gouvernance des algorithmes » dans le secteur financier.
Parallèlement, les autorités de contrôle doivent rester attentives à l’impact à moyen et long terme des développements de l’intelligence artificielle sur la structure du marché afin d’anticiper les changements nécessaires dans l’exercice de leurs missions.
Enfin, le document de discussion aborde les besoins de montée en compétence et de coopération accrue des autorités de contrôle pour faire face à ces deux types d’enjeux.
Mis à jour le : 20/06/2019 16:45