L'arrivée de l'intelligence artificielle générative représente une menace pour les banques du point de vue données privées. Guillaume Almeras, fondateur du site de veille et de conseils Score Advisor, nous aide à décortiquer le tout.
Les prévisions réalisées dernièrement par le cabinet Forrester mettent en avant les risques affiliés au recours à l'IA générative. Les études portent sur les banques pour l'année 2024.
D'après Forrester, il faut s'attendre à voir une dizaine de banques faire l'objet de poursuites pour l'année à venir. Une faille massive engendrée par leur utilisation de l’IA générative en sera le motif. Cela implique plus précisément une violation des réglementations en vigueur dans l'optique de la protection des données privées. Le cabinet Forrester présage alors que les amendes imposées se verront doublées pour l'année à venir. Cette mesure s'applique aux banques dans le cadre du règlement général sur la protection des données (RGPD).
Les dangers encourus par les banques qui se lanceront dans l'utilisation de l'IA générative émergent donc de cette projection largement négative. Il faut pourtant noter que l'on se situe encore actuellement dans une phase d'exploration lorsqu'on parle de cet emploi de l'IA. La prudence est encore largement de mise. En outre, cette forme d'intelligence fait surtout l'objet d'une expérimentation dans le cadre de la détection des fraudes. A part cela, elle permet d'accompagner des forces commerciales (humaines) au niveau des relations avec la clientèle. Les décisions d’octroi de crédit sont également concernées. On voit aussi un début d'utilisation de l’IA au profit de la révision et de l'automatisation des processus ou encore dans la gestion des portefeuilles de placement.
La gêne réside dans le fait que l’IA constitue dans la majorité des cas une boîte noire pour bon nombre de ses utilisateurs. Cette réalité a pourtant d'importantes chances de se retrouver également du côté de ses développeurs.
La difficulté que pourrait représenter la compréhension des résultats est en effet prévisible dans la mesure où l'on fera face à un certain degré de sophistication et que les algorithmes se multiplient. Ce sera d'autant plus le cas lorsque ces derniers sont soumis à des modalités "d’apprentissage". On veut en particulier mettre l'accent sur rétroaction. A part cela, s'assurer que les résultats en question n'ont pas été biaisés par rapport à la programmation de départ rentre dans les complications.
Les failles ne sont quasiment plus à souligner. Au sein du secteur bancaire, elles peuvent en l'occurrence revêtir le visage de la discrimination quand il s'agit des demandes de prêts de la part de divers pans de la population. Cela se produit d'ailleurs en absence de volonté des banques. De plus, ces dernières ne sont point en mesure de déceler ces iniquités de façon rapide.
Il faut dire que les systèmes d’IA fonctionnent en reproduisant les préjugés se situant d'ores et déjà à leurs origines. On a l'habitude de dire qu'il n'implique pas une garantie sur l'absence de biais en termes de décision. On ne peut en effet compter sur l'idée du caractère intégralement transparent de la programmation pour être sûr qu'il n'y aura pas de failles. On sait bien que tout le processus implique la considération et la pondération d'un nombre considérable de critères. En d’autres termes, c’est la complexité même qui, en l’occurrence, devient une menace pour les utilisateurs.
Le danger qui apparaît par la même occasion se rapporte à la sécurité des multitudes de données qui sont en principe sensibles et privées au niveau des banques, alimentant les systèmes d’IA. A partir de là, on pourrait se poser des questions quant à leur circulation, leur accessibilité et leur protection. Le fait qu'un grand nombre de banques interdisent l'utilisation de Chat GPT quand il s'agit pour les commerciaux d'interagir avec les clients, reflète la réalité du double danger. Ainsi a-t-on d'un côté le doute tenant aux résultats et les inquiétudes au sujet de la divulgation par accident des données sensibles.
Pour l'heure, on n'irait pas jusqu'à dire que les établissements bancaires jouent volontairement avec le feu. On ne peut cependant pas manquer de prendre au sérieux la prévision partagée par le cabinet Forrester.
On doit certainement reconnaître le caractère singulier de la situation. On sait que les temps actuels sont largement marqués par l’hypermédiatisation de l’IA générative. On en parle en effet abondamment et à l'instar d'autres secteurs, celui des banques n'ont pas d'autres choix qu'essayer de suivre leurs pas. Elles sont ainsi incitées à employer une technologie dont les résultats d'un côté manquent encore de clarté. De l'autre côté, on ne saurait apprécier leurs effets positifs sur le court terme. En tout cas, cette situation n'est pas forcément exceptionnelle. Elle est similaire à celle qu'on a connue quelques années auparavant, à l'époque où on voyait l'évidence du lancement des établissements financiers sur les blockchains. Or, il n'y avait pas de nécessité avérée de ces derniers en comparaison aux systèmes existants. L'attitude mise en avant était cependant de ne pas s'étonner sachant qu'il y a habituellement méconnaissance des avantages à escompter par les technologies aussi bien frappantes que nouvelles.
Cela n'apporte rien d'être sceptique à l'endroit des modes technologiques. Ce serait même une erreur. Au lieu de ça, mieux vaut tout simplement préconiser davantage de transparence et que les choses soient les plus simples possibles. Effectivement, en termes d’IA, c'est la complexité qui en constitue la menace fondamentale. Loin d'être uniquement une règle, il en est un réel enjeu.