Le défi de l’intelligence artificielle
L’intelligence artificielle (IA) est considérée comme le plus grand défi de cette génération. Nous utilisons tous une forme d’IA dans notre vie quotidienne, consciemment ou non. C’est profondément ancré dans notre quotidien : les hôpitaux que nous visitons, les écoles que nous fréquentons, les médias sociaux que nous parcourons et certainement les institutions financières avec lesquelles nous faisons des opérations bancaires.
L’intelligence artificielle devrait apporter divers avantages conséquents à la société. Cependant, une préoccupation croissante aujourd’hui est que nous n’avons pas suivi les réglementations pour suivre le rythme de développement de l’IA. Même si les résultats positifs de l’application de l’IA sont incontestables, nous avons constaté ces dernières années que, si rien n’est fait, elle peut également avoir de graves répercussions.
Dans les applications numériques et sociales, cela peut contribuer à renforcer les préjugés sociaux négatifs, à supprimer les opinions opposées dans les médias que nous consommons, à accélérer la propagation de la désinformation et à affecter le bien-être émotionnel global des individus.
Les services financiers ne sont pas à l'abri, les limites injustes imposées à l'accès de certains consommateurs au crédit ou à la fourniture de conseils financiers sans transparence faisant partie des problèmes rencontrés avec les applications basées sur l'IA.
Qu’est-ce que l’éthique de l’IA ?
Alors que l’IA devient un élément central des produits et services, les organisations de tous les secteurs qui l’utilisent commencent à développer des codes d’éthique en matière d’IA. Il s’agit d’ensembles de principes directeurs, de valeurs et de techniques conçus pour régir de manière responsable la conception, le développement et la mise en œuvre de la technologie de l’intelligence artificielle.
Quel est l’impact de l’IA sur la théorie du nudge ?
La vulnérabilité de l’intelligence artificielle n’est pertinente que lorsqu’elle est considérée dans le contexte de sa relation avec les utilisateurs finaux. Bien que l’IA soit éthiquement neutre, les êtres humains qui développent des systèmes d’IA ont des opinions et des préjugés individuels. Il est donc important de reconnaître les préoccupations liées à l’application de l’IA pour produire des nudges à grande échelle, car cela pourrait entraîner l’effet involontaire d’un biais de décision algorithmique ou d’un biais personnel appliqué lors du développement des algorithmes lui-même.
La théorie du nudge est un concept d'économie comportementale qui propose les nudges comme renforcement positif pour aider les individus à développer progressivement des processus de pensée, des décisions et des comportements améliorés. En tant qu’êtres humains, nous sommes tous sensibles aux préjugés et aux suggestions. Le concept de nudging propose que lorsque les organisations peuvent comprendre comment les gens pensent, elles peuvent créer des environnements qui simplifient le processus de prise de décision et permettent aux gens de faire plus facilement de meilleurs choix.
Le Nudging vise à aider les gens à prendre de meilleures décisions sans limiter leur liberté de choix. Le Nudging et ses effets sont tellement établis qu’en 2010, le gouvernement britannique a mis en place un Équipe d'analyse comportementale (BIT), également connu sous le nom de Nudge Unit, pour comprendre comment les nudges et les interventions peuvent être utilisés pour motiver et encourager les résultats et les comportements souhaités.
À l’instar du gouvernement britannique, les organisations utilisent aujourd’hui de plus en plus l’IA pour gérer et orienter les individus vers l’action (ou l’inaction), en les incitant à adopter certains comportements souhaités. Cependant, en raison de l’absence de réglementation à l’heure actuelle, les données collectées sur les individus peuvent également être exploitées par les organisations et les gouvernements et utilisées pour les pousser à prendre des décisions qui pourraient ne pas leur être les plus favorables.
Que font les pays et les régulateurs financiers en matière d’éthique de l’IA ?
À mesure que l’intelligence artificielle et ses applications continuent de se développer, les pays et les instances dirigeantes à travers le monde cultivent des politiques et des stratégies pour suivre ses progrès. L’IA est un problème mondial et doit être abordée comme telle. Le Canada a ouvert la voie en lançant la première stratégie nationale en matière d'IA au monde en mars 2017, et plus de 30 pays et régions ont depuis emboîté le pas.
En avril 2018, la Commission européenne a présenté une communication sur l'intelligence artificielle. Il s'agissait de la première stratégie internationale publiée sur la manière de faire face et d'utiliser les défis posés par l'IA. Les pays et les gouvernements reconnaissent la nature radicale de l’IA et de ses effets et ont adopté diverses approches distinctes qui reflètent leurs systèmes économiques, culturels et sociaux.
Australie
L'Australie a publié un Cadre d’éthique de l’IA comme guide pour les organisations et le gouvernement pour garantir que l’application de l’IA est sûre, sécurisée et fiable. Il propose que les systèmes d’IA soient construits avec des valeurs centrées sur l’humain, prennent en compte le bien-être individuel, sociétal et environnemental, soient inclusifs et accessibles, respectent le droit à la vie privée, soient transparents et explicables, tout en étant contestables et responsables.
L'application de ce cadre devrait aider les entreprises australiennes à renforcer la confiance des consommateurs dans leurs produits et leurs organisations, à fidéliser les services basés sur l'IA et à influencer positivement les résultats. Les principes d’éthique de l’IA ont été testés sur plusieurs entreprises et les résultats ont été enregistrés et partagés.
Les cas d'utilisation mis en œuvre par deux des plus grandes banques du pays figurent parmi les exemples marquants illustrés dans le cadre de cette initiative.
Banque du Commonwealth d'Australie (CBA)
ABC utilise l'IA pour fournir des services bancaires numériques personnalisés à ses utilisateurs. Elle a développé une solution basée sur l'IA appelée Bill Sense pour fournir aux clients des informations plus détaillées sur les modèles d'épargne et de paiement. Bill Sense utilise l'IA et les transactions précédentes pour comprendre les modèles réguliers, prédire la date d'échéance d'un paiement à venir et aider à comprendre de combien d'argent ils auront besoin pour payer leurs factures chaque mois.
Les informations ne sont ni partagées ni extraites des organisations de facturation et les utilisateurs ont un contrôle total sur les informations auxquelles Bill Sense peut accéder pour générer ses informations et faire ses prédictions.
Des directives solides en matière de données et de gestion des risques ont régi la création de Bill Sense pour garantir qu'il fonctionne en toute sécurité, qu'il soit responsable et donc aligné sur les banques et le cadre australien d'éthique de l'IA.
Banque nationale d'Australie (NAB)
NAB est une autre institution financière en Australie qui a appliqué le cadre d’éthique de l’IA. Elle a mis en œuvre une solution utilisant la technologie de reconnaissance faciale (FRT) pour permettre aux clients de vérifier leur identité numériquement en prenant une photo de leur pièce d'identité sur leur téléphone, tout en fournissant également des images ou des vidéos d'eux-mêmes. Le FRT compare les images fournies pour vérifier l'identité des utilisateurs.
Dans ce cas, un fournisseur externe a fourni le logiciel FRT utilisé. NAB l'a mis en œuvre en suivant le cadre d'éthique de l'IA et en demandant aux fournisseurs tiers de concevoir leurs systèmes de données de manière à pouvoir être audités en externe, et en garantissant que la technologie est responsable, explicable, durable et mise en œuvre de manière équitable.
Le processus d'analyse et d'examen des données du NAB garantit que ses projets d'IA sont éthiques avant leur mise en œuvre.
Singapour
En 2018, le Principes d’équité, d’éthique, de responsabilité et de transparence (FEAT) ont été co-créées par l'Autorité monétaire de Singapour (MAS) et le secteur financier comme lignes directrices aux organisations proposant des produits et services financiers pour une utilisation responsable de l'IA et de l'analyse des données, mais également pour renforcer la gouvernance interne autour de la gestion et de l'utilisation des données.
Suite à cela, le Initiative Veritas a été créé, dans le cadre d'un projet collaboratif en plusieurs phases issu de la stratégie nationale d'IA de Singapour annoncée en 2019. Il vise à aider les institutions financières à évaluer leurs solutions basées sur l'intelligence artificielle et l'analyse de données (AIDA) par rapport aux principes du FEAT et à garantir leur conformité.
Sur la base des exigences immédiates des institutions financières, un ensemble de mesures d'équité et une méthodologie d'évaluation ont été développés pour deux cas d'utilisation bancaire : la notation du risque de crédit et le marketing client.
Une fois terminé, deux livres blancs seront publiés pour documenter la méthodologie d'évaluation des principes FEAT et les cas d'utilisation.
Chine
La Chine sera probablement le plus grand marché Fintech au monde en termes de volume et de transactions, avec un volume de paiement en ligne (mobile) atteignant 100 000 milliards de yuans en 2016. En mai 2017, la Banque populaire de Chine a créé un comité FinTech pour rationaliser les efforts de coordination, de recherche et de développement dans le secteur financier.
Plus tard cette année-là, en juillet 2017, le Conseil d’État chinois a publié l’une des stratégies d’IA les plus complètes au monde. Nommé le Plan de développement de l'intelligence artificielle de nouvelle génération, il présente la vision du pays de construire une industrie nationale de l'IA dans les années à venir et de s'imposer comme la principale puissance de l'IA d'ici 2030. Le plan met en avant la finance comme un domaine clé pour le développement des applications de l'IA.
Il propose également la mise en place de systèmes de mégadonnées dans le secteur financier, le développement de services et produits financiers intelligents et l'obligation de renforcer les systèmes d'alerte précoce intelligents pour prévenir les risques financiers pour l'économie chinoise.
En août 2019, la Banque populaire de Chine a lancé un Plan de développement des technologies financières pour 2019 à 2021, qui définit les objectifs de développement du secteur financier. Sur la base de l'écosystème et de la configuration actuels, il souligne la nécessité pour le secteur financier d'optimiser les technologies et les systèmes pour permettre l'intégration de l'IA.
Cela étant dit, bien qu'elle dispose de l'une des stratégies d'IA les plus développées au monde, l'approche de la Chine en matière d'éthique dans l'IA n'est toujours pas claire, et cela reste à voir dans les années à venir.
Comment l’éthique de l’IA s’applique-t-elle à la banque numérique ?
Dans le secteur des services financiers, les techniques des sciences comportementales s'avèrent efficaces pour modifier l'attitude des clients à l'égard de leur argent et les aider à gérer leurs finances plus efficacement. Qu'il s'agisse de motiver les individus à se fixer des objectifs d'épargne ou de les inciter à suivre leurs dépenses et à travailler sur leur planification financière, les techniques des sciences comportementales sont un outil utile qui permet de transformer la façon dont les gens perçoivent et gèrent leurs finances.
Cependant, une préoccupation majeure qui ne cesse de refaire surface autour du nudging, et encore plus lorsqu’il est alimenté par des algorithmes, est : Quand un coup de pouce cesse-t-il d'être un coup de pouce et commence-t-il à être un outil contraire à l'éthique utilisé pour manipuler le changement de comportement ?
La crainte que les nudges puissent devenir contraires à l’éthique est en partie apaisée en partageant ouvertement la nature du nudge et en étant transparent sur la logique derrière sa génération. Partager ces informations avec les utilisateurs leur donne la capacité de prendre des décisions consciencieuses, là où les utilisateurs ont compris les éléments du processus décisionnel.
En outre, les nudges ne devraient être appliqués que s’ils améliorent le bien-être général de l’utilisateur, et les utilisateurs devraient toujours avoir le dernier mot sur le résultat de l’action qu’ils entreprendront. La capacité de décider de la conclusion est essentielle pour garantir que les nudges restent éthiques et que les utilisateurs aient finalement la liberté de choisir ce qu'ils veulent dans une situation donnée.
Alors que les institutions financières utilisent de plus en plus l’intelligence artificielle dans leurs systèmes bancaires numériques pour générer des informations personnalisées et des mesures concrètes, il est important de veiller à ce que l’éthique de l’IA soit prise en compte. Les systèmes utilisant l’IA doivent être conçus de manière à être transparents, responsables et explicables tant pour les développeurs que pour les utilisateurs.
Lorsqu'ils sont conçus en gardant à l'esprit l'éthique de l'IA, les problèmes tels que les problèmes de confidentialité des données, la manipulation comportementale ou même les préjugés dans les algorithmes seront traités et gérés efficacement à mesure que les systèmes et les applications se développent.
Conclusion
Alors que l’IA devient une caractéristique importante de nos vies, il est essentiel que les institutions et services financiers continuent d’être proactifs en peaufinant et en redéfinissant leurs principes directeurs afin de suivre son évolution. Cela inclut la prévision des biais algorithmiques potentiels, la surveillance du développement d’applications basées sur l’IA et même le recyclage des systèmes et des modèles si nécessaire.
Comment Moneythor peut-il vous aider ?
Moneythor propose un moteur d'orchestration déployé entre les systèmes d'enregistrement des institutions financières et leurs canaux numériques pour proposer des expériences engageantes et personnalisées pour les utilisateurs finaux.
Avec la solution Moneythor, les banques et les sociétés FinTech peuvent améliorer les expériences numériques qu'elles proposent avec des informations personnalisées, des recommandations exploitables et des coups de pouce contextuels conçus pour approfondir la relation que les banques entretiennent avec leurs utilisateurs.
Les algorithmes et les modèles d'IA utilisés par Moneythor sont ancrés dans les principes des sciences du comportement adhérant à l'éthique de l'IA, avec un accent particulier sur :
- Accessibilité, pour s'assurer que le comportement suggéré est bien expliqué et accessible dans l'esprit de l'utilisateur pour qu'il puisse être pris en compte.
- Désirabilité, où les résultats des calculs de l’IA mettent en évidence de manière transparente les avantages de poursuivre un changement de comportement ainsi que les coûts de ne pas le faire.
- Faisabilité, avec des appels à l'action personnalisés intégrés ajoutés par les algorithmes pour permettre à l'utilisateur d'effectuer une action pertinente.
Mise à jour : 18 août 2022.
Télécharger le guide d'éthique de l'IA
"*" indique les champs obligatoires