une main qui tient une guitare

Perspectives

Institutions financières canadiennes : tendances relatives à l’utilisation de l’IA

Se qualifiant lui-même de technophile, Phill Moran est intarissable lorsque vient le temps de parler d’intelligence artificielle (IA) et de services financiers. Rien d’étonnant là, puisque Phill et Chamin Bellana ont fondé Lexington Innovations il y a plus de huit ans pour aider les banques, les coopératives de crédit et d’autres fournisseurs de services financiers à optimiser leurs processus, à gérer les risques et, au final, à économiser avec l’aide de la technologie.

Cindy Zhang de BLG s’est donc entretenue avec Phill afin de discuter des avantages et des inconvénients de l’IA, l’une des tendances les plus marquées du secteur bancaire. Ensemble, ils ont notamment discuté des différences entre la technologie reposant sur des règles et la véritable IA, d’une banque qui a eu recours à l’IA pour suivre et prédire le blanchiment d’argent et de l’éventuel rôle des grands modèles de langage comme ChatGPT dans les services financiers.

Cindy : À l’heure actuelle, à quel point l’IA est-elle présente dans le secteur des services financiers?

Phill : Pour le moment, l’IA n’en est qu’à l’étape de la validation de principe. Toutes les grandes banques utilisent un moteur d’IA étroite dans le cadre de leurs programmes de lutte contre le blanchiment d’argent et la fraude. Mais comme les outils d’IA sont principalement axés sur la réduction des pertes plutôt que sur l’accroissement des revenus, les investissements dans cette sphère sont plus bas sur la liste de priorités des fournisseurs de services financiers. Ceci étant dit, les gens s’intéressent naturellement à ce qui est à la mode, et l’IA est sur toutes les lèvres ces temps-ci. Personnellement, en ce qui concerne les institutions financières, je vois un grand potentiel pour l’IA dans les centres d’appels, la détection de la fraude, la lutte contre le blanchiment d’argent, la gestion du courtage et la surveillance des médias sociaux. Par exemple, elle s’appliquerait bien aux coopératives de crédit, qui surveillent leurs membres pour s’assurer qu’ils sont dignes d’en faire partie. Mais l’IA se révèle étonnamment coûteuse.

Cindy : Qu’est-ce qui explique le coût des outils d’IA?

Phill : Tout est une question de modèle de données. L’IA, ce n’est pas comme une feuille de calcul Excel. Le modèle utilisé par une organisation pour détecter les fraudes, par exemple, serait différent de celui pour la lutte contre le blanchiment d’argent puisqu’il ne repose pas sur les mêmes données. Pour obtenir de bons résultats, il faut des données de bonne qualité, du temps et potentiellement plusieurs modèles. Vous devez démanteler l’outil et le rebâtir jusqu’à ce qu’il commence à montrer une certaine cohérence. Ensuite, la boucle de rétroaction se met en place et le modèle peut entamer son apprentissage. Cet exercice peut se révéler coûteux et chronophage.

Cindy : De quelle façon les fournisseurs de services financiers utilisent-ils actuellement l’IA?

Phill : Beaucoup d’institutions financières pensent qu’elles utilisent déjà l’IA, mais ce n’est pas tout à fait le cas.

Il existe deux modèles technologiques : les systèmes reposant sur des règles et l’apprentissage automatique. Prenons un cas de fraude. Avec un modèle reposant sur des règles, les transactions suspectes, par exemple celles qui sont supérieures à un certain montant, sont signalées dans une gigantesque feuille de calcul Excel et assorties d’une cote de risque; quelqu’un doit ensuite les examiner manuellement et décider si elles doivent faire l’objet d’une vérification. Le personnel serait donc censé se pencher sur plus de 90 % des transactions, ce qui est impossible et ne se produit pas.

L’IA ne se fonde pas sur des règles : c’est la machine qui apprend. Le moteur d’IA étudie les données et repère les transactions qui s’éloignent du cadre habituel. Le taux de fausses alertes passe ainsi de 90 % à 60 % ou moins. Et contrairement à un modèle reposant sur des règles, le moteur d’IA apprend avec le temps à partir des données qui lui sont fournies, tout en pouvant expliquer pourquoi certaines activités sont suspectes.

Comme la signification des résultats obtenus reste incertaine si les utilisateurs ne peuvent se fier à des règles pour en vérifier l’origine, les institutions financières tendent encore à recourir à des modèles reposant sur des règles. Leurs fournisseurs de technologies leur disent que de tels moteurs constituent une intelligence artificielle, mais ce n’est pas vraiment le cas.

Cindy : Pouvez-vous nous donner un exemple hypothétique du fonctionnement de l’IA dans le contexte de la lutte contre le blanchiment d’argent?

Phill : L’IA sied particulièrement bien à la lutte contre le blanchiment d’argent parce qu’elle met en évidence tout ce qui ne correspond pas aux normes habituelles, par exemple une personne dont le volume d’opérations est plus élevé que la moyenne, un client dont les transactions passent par plusieurs pays ou quelqu’un dont les transactions sont toutes effectuées dans un pays où il est facile de blanchir de l’argent.

Le moteur d’IA signale toutes ces situations, puis la personne responsable les examine et détermine si elles sont frauduleuses. Le moteur devient plus intelligent, sans aucune intervention des développeurs, apprenant au fil du temps qu’un client a de la famille à l’étranger ou qu’il vient juste de démarrer une entreprise et que ces raisons expliquent l’apparence de fraude. Ces opérations n’apparaîtront plus par la suite dans les rapports d’opérations suspectes puisque le moteur aura appris qu’elles ne sont pas pertinentes. Et il continuera de s’améliorer.

Cindy : Y a-t-il une place pour les grands modèles de langage comme ChatGPT dans les services financiers?

Phill : Les grands modèles de langage peuvent avoir des applications dans le service à la clientèle, mais il y a du travail à faire pour éviter les biais. Vous pourriez par exemple utiliser un grand modèle de langage dans un centre d’appels pour aider un client à obtenir un deuxième prêt hypothécaire, le tout au moyen du clavardage sans intervention humaine. Admettons que le moteur d’IA sait que vous gagnez 2 M$ par année, que vous avez 5 M$ en banque et que vous habitez dans un quartier huppé. Il approuvera votre demande. Mais si vous vivez ailleurs, il se pourrait que les choses soient différentes : c’est là que la question des biais entre en ligne de compte. Un grand modèle de langage offrira toujours une réponse, mais il ne vous dira pas comment il y est arrivé ni à quel point il est sûr de ce qu’il avance. Les moteurs d’IA qui servent aujourd’hui à détecter le blanchiment d’argent ou les activités frauduleuses, qui ne sont pas de grands modèles de langage, fonctionnent à partir de chiffres et non de mots. À la différence des grands modèles de langage, ils sont véritablement capables d’expliquer pourquoi ils arrivent à un certain résultat.

Cindy : Il existe donc un risque de biais et d’erreur avec les grands modèles de langage. Qu’en est-il du risque lié aux ressources humaines, c’est-à-dire le risque que l’IA remplace l’humain?

Phill : L’IA ne remplacera pas les travailleurs, selon moi; elle permettra d’effectuer plus efficacement certaines tâches. C’est ce qui se passe ces jours-ci du côté de la lutte contre le blanchiment d’argent. Il est 17 h et une employée de banque reçoit un fichier Excel de 10 000 lignes à vérifier pour déceler les éventuelles transactions frauduleuses. Ça n’intéresse personne d’être confronté à ce genre de situation. L’IA ne fera pas le travail à la place de l’humain, mais elle se chargera de tâches qu’il n’avait pas le temps de faire ou qu’il ne souhaitait pas faire. Reprenons l’exemple du centre d’appels : les clients peuvent déjà régler une bonne quantité de questions directement sur le Web. L’IA vient aider le caissier ou l’agente de prêt à s’acquitter du reste en s’occupant des tâches ingrates.

Cindy : Avez-vous des exemples où une banque s’est servie de l’IA pour repérer une inconduite à l’interne?

Phill : J’en ai un bel exemple. Nous avons demandé à un moteur d’IA d’analyser les données d’un courtier sur trois ans pour détecter les anomalies. La plupart des données étaient chiffrées, mais il restait des numéros de succursales, des lieux et des titres de courtiers. Les résultats ont indiqué que la plupart des transactions suspectes émanaient d’une succursale en particulier. La banque savait que la succursale en question était problématique, mais elle n’avait jamais pu découvrir pourquoi.

Les données ont révélé que les employés les plus problématiques y avaient tous travaillé et qu’ils relevaient tous de la même personne. Cette personne avait ensuite déménagé dans une autre succursale, et les données montraient bien que les anomalies l’avaient suivie. L’IA avait donc réussi à dégager à partir de grands ensembles de données des tendances qui seraient restées invisibles pour un œil humain.

Cindy : L’IA peut-elle jouer un rôle dans la prévention de la fraude?

Phill : Absolument. Dans l’exemple du courtier que je viens de vous donner, la grande révélation pour la banque a été de comprendre qu’un moteur d’IA peut apprendre des données de personnes dont on sait qu’elles ont blanchi de l’argent. À quoi ressemblaient leurs opérations? Le modèle peut se servir des schémas observés pour prédire qui pourrait s’adonner à du blanchiment d’argent à l’avenir. Maintenant la banque peut surveiller proactivement les domaines, les comportements ou les personnes  préoccupants et potentiellement empêcher les conduites frauduleuses de se produire.

Cindy : À quel moment pensez-vous que l’IA fera son entrée dans le quotidien des fournisseurs de services financiers?

Phill : D’ici deux ans. Les organismes de réglementation canadiens ont indiqué que les banques devaient prendre cette direction. Et c’est une technologie à la mode. ChatGPT a été bénéfique, parce que les gens qui travaillent en services financiers l’utilisent et deviennent à l’aise avec l’outil. Il ne leur faudra pas beaucoup de temps pour comprendre à quel point l’IA peut être efficace pour détecter la fraude. Ils continueront d’utiliser des modèles reposant sur des règles, mais ils se rendront bientôt compte de la rapidité avec laquelle les moteurs d’IA relèvent les incohérences, et ils cesseront de se fier à leurs feuilles de calcul.

Cindy : Vous avez mentionné que ces outils sont coûteux. Où les fournisseurs de services financiers devraient-ils concentrer leurs investissements en IA?

Phill : Ils devraient commencer par la fraude. C’est un problème qu’ils doivent régler. L’IA leur permettra de dire adieu aux feuilles de calcul. Et un jour, ils seront en mesure de mettre à profit la nature prédictive de l’IA et de travailler avec leurs services des ressources humaines pour s’assurer que leur personnel ne s’adonne pas à des activités frauduleuses.


Si vous avez des questions sur les tendances relatives aux technologies bancaires ou sur la façon de vous préparer aux incidences juridiques de l’IA, n’hésitez pas à communiquer avec Cindy Zhang.

Principaux contacts