Dec 20, 2023
Les chatbots dans le crédit à la consommation
Travailler avec les clients pour résoudre un problème ou répondre à une question est essentiel
Travailler avec les clients pour résoudre un problème ou répondre à une question est une fonction essentielle pour les institutions financières et la base de la banque relationnelle.1 Les clients se tournent vers leurs institutions financières pour obtenir de l'aide sur les produits et services financiers et s'attendent à juste titre à recevoir des réponses simples et rapides, quels que soient les processus ou les technologies utilisés.
La recherche suivante menée par le Consumer Financial Protection Bureau (CFPB) explore comment l'introduction de technologies avancées, souvent commercialisées sous le nom d'"intelligence artificielle", sur les marchés financiers peut avoir un impact sur l'expérience du service client. L'objectif de ce rapport est d'expliquer comment les technologies de chatbot sont utilisées par les institutions financières et les défis associés rencontrés par leurs clients. L'analyse du CFPB suggère que :
Les institutions financières utilisent depuis longtemps une variété de canaux pour interagir avec les clients potentiels et existants. Les succursales bancaires ont été créées pour donner aux clients un endroit près de chez eux pour effectuer des opérations bancaires et recevoir un service et un soutien à la clientèle.4 La capacité de poser des questions et d'interagir en face à face avec une institution financière est depuis longtemps un principe fondamental des services bancaires relationnels.
Au fil du temps, les institutions financières ont ajouté des centres de contact (anciennement appelés centres d'appels), afin que les clients puissent interagir plus facilement avec leur institution financière. Au fur et à mesure de la croissance de ces institutions, de nombreuses fonctions des centres de contact se sont tournées vers la technologie de réponse vocale interactive pour acheminer les appels vers le personnel approprié et réduire les coûts. Au fur et à mesure que de nouvelles technologies sont devenues disponibles, les institutions financières ont déployé des interfaces en ligne pour le support client, telles que des applications mobiles5 et la possibilité d'envoyer et de recevoir des messages ou via le "chat en direct". L'introduction du chat dans le crédit à la consommation a permis aux clients d'avoir des interactions aller-retour en temps réel sur une plateforme de chat avec des agents du service client.
Les chatbots, qui simulent des réponses de type humain à l'aide de la programmation informatique, ont été introduits en grande partie pour réduire les coûts des agents humains du service client. Récemment, les institutions financières ont commencé à expérimenter l'apprentissage automatique génératif et d'autres technologies sous-jacentes telles que les réseaux de neurones et le traitement du langage naturel pour créer automatiquement des réponses de chat à l'aide de texte et de voix.6 Nous décrivons ci-dessous l'utilisation des chatbots à des fins d'assistance client.
Les chatbots sont des programmes informatiques qui imitent des éléments de la conversation humaine. Bien qu'ils puissent varier considérablement en termes de sophistication, d'automatisation et de fonctionnalités, ils intègrent tous les entrées d'un utilisateur et utilisent la programmation pour produire une sortie.7
Les chatbots basés sur des règles utilisent soit une logique d'arbre de décision, soit une base de données de mots-clés pour déclencher des réponses prédéfinies et limitées. Ces chatbots peuvent présenter à l'utilisateur un menu d'options pour sélectionner ou naviguer entre les options basées sur un ensemble de mots-clés et générer des réponses en utilisant des règles prédéterminées. L'utilisateur est généralement limité à des entrées possibles prédéfinies.8 Par exemple, un chatbot bancaire peut répertorier un nombre défini d'options parmi lesquelles le consommateur peut choisir, comme vérifier le solde de son compte ou effectuer un paiement.
Les chatbots plus complexes utilisent des technologies supplémentaires pour générer des réponses. Plus précisément, ces chatbots peuvent être conçus pour utiliser l'apprentissage automatique ou une technologie souvent commercialisée sous le nom d'"intelligence artificielle" pour simuler un dialogue naturel.9 D'autres chatbots complexes utilisent des LLM pour analyser les modèles entre les mots dans de grands ensembles de données et prédire quel texte doit suivre en réponse à la question d'une personne.10
Les chatbots spécifiques à un domaine sont destinés à aider les utilisateurs à accomplir des tâches spécifiques et leur fonctionnalité est limitée à un domaine thématique tel que la santé, l'éducation ou la banque.11 Notre analyse se concentre sur les chatbots dans le secteur financier.
Les chatbots occupent une place importante dans l'industrie financière, y compris sur les sites Web, les applications mobiles et les comptes de médias sociaux des banques, des agents hypothécaires, des agents de recouvrement et d'autres sociétés financières. En 2022, plus de 98 millions d'utilisateurs (environ 37 % de la population américaine) ont interagi avec le chatbot d'une banque. Ce nombre devrait atteindre 110,9 millions d'utilisateurs d'ici 2026.12
Notamment, parmi les 10 premières banques commerciales du pays, toutes utilisent des chatbots de complexité variable pour dialoguer avec les clients. Ces chatbots ont parfois des noms humains, utilisent des fonctionnalités contextuelles pour encourager l'engagement et peuvent même échanger des messages directs sur des comptes de médias sociaux. L'adoption des chatbots par les institutions financières pour fournir un service client peut s'expliquer par certaines caractéristiques, telles que leur disponibilité 24 heures sur 24 et 7 jours sur 7 et leurs réponses immédiates.13 L'adoption peut également être motivée par des économies de coûts pour ces institutions. Par exemple, des rapports montrent que, par rapport à l'utilisation de modèles de service client d'agent humain, les chatbots permettent de réaliser des économies de 8 milliards de dollars par an, soit environ 0,70 USD par interaction avec le client.14
Les chatbots font partie du marché financier depuis près d'une décennie et leur popularité n'a cessé de croître au fil des ans.15 Aujourd'hui, une grande partie de l'industrie utilise au moins des chatbots simples basés sur des règles avec une logique d'arbre de décision ou des bases de données de mots-clés ou d'emojis qui déclenchent des réponses prédéfinies et limitées. Souvent, ces chatbots sont alimentés par des sociétés de technologie tierces propriétaires. Par exemple, Kasisto fournit des chatbots conversationnels axés sur les finances pour JPMorgan Chase et TD Bank,16 tandis qu'Interactions prend en charge Citibank.17
Au fur et à mesure que l'adoption des chatbots s'est développée, certaines institutions, telles que Capital One, ont construit leurs propres technologies de chatbot en formant des algorithmes sur de vraies conversations avec des clients et des journaux de chat.18 Capital One a lancé Eno, un chatbot par SMS ou SMS, en mars 2017.19 utilisateurs autorisés.20 De même, Bank of America a annoncé son propre chatbot, Erica, en 2018. En octobre 2022, Erica avait été utilisée par près de 32 millions de clients dans plus d'un milliard d'interactions.21
Plus récemment, le secteur bancaire a commencé à adopter des technologies de pointe telles que les chatbots génératifs et d'autres commercialisés sous le nom d'"intelligence artificielle". Par exemple, en avril 2023, le directeur de l'information de Goldman Sachs a suggéré que le personnel d'ingénierie de la banque commence à créer son propre chatbot « ChatGS » ou LLM pour aider les employés de la banque à stocker les connaissances et à répondre à la demande aux questions clés des clients.22
Au fur et à mesure que l'utilisation de la technologie chatbot par l'industrie a progressé, elle l'a fait dans certains cas en s'appuyant sur les plus grandes entreprises technologiques pour les ensembles de données ou les plates-formes. Par exemple, en septembre 2022, Truist a annoncé son assistant numérique construit sur Amazon Lex, un produit Amazon Web Services (AWS).23 Wells Fargo a annoncé en octobre 2022 le lancement de Fargo, un nouvel assistant virtuel de chatbot utilisant la plate-forme Google Cloud d'Alphabet pour utiliser les LLM pour traiter les entrées des clients et fournir des réponses personnalisées. art.25
La fonctionnalité Chatbot ne se limite pas aux seuls échanges de texte. Par exemple, US Bank a lancé Smart Assistant via une application mobile en juin 2020. Smart Assistant répond principalement aux invites vocales et permet les demandes de renseignements par SMS comme alternative secondaire.26 Comme d'autres chatbots bancaires, Smart Assistant suit une fonctionnalité simple basée sur des règles conçue pour effectuer des tâches bancaires quotidiennes, y compris trouver le pointage de crédit des utilisateurs, transférer de l'argent entre comptes, contester des transactions et faciliter les paiements à d'autres utilisateurs via Zelle.27
De nombreuses sociétés financières ont également étendu leur utilisation des chatbots basés sur des règles à ceux alimentés par les plateformes de médias sociaux. Parmi les 10 premières banques du pays, la plupart permettent les messages directs et le chat professionnel sur Twitter ou sur Facebook et Instagram de Meta. Le Business Chat de Facebook et Instagram produit des réponses automatisées, entre autres fonctionnalités.28
De la même manière que le support client est passé des centres d'appels en personne aux centres d'appels distants il y a des décennies, les secteurs de l'économie passent désormais du support humain au support algorithmique.
Le CFPB recueille les réclamations du public sur les produits et services financiers grand public. Avec l'utilisation croissante des chatbots par les institutions financières, les plaintes du public décrivent de plus en plus les problèmes rencontrés par les personnes lors de l'interaction avec les chatbots. Dans certains cas, ces problèmes soulèvent des questions quant au respect de la législation en vigueur. Nous décrivons ci-dessous certains des défis rencontrés par les clients, tels que détaillés dans les plaintes soumises au CFPB. Nous examinons également les problèmes posés par l'utilisation des chatbots dans l'ensemble de l'industrie.
Le terme intelligence artificielle, ou « IA », est utilisé pour suggérer qu'un client s'engage avec un système hautement sophistiqué et que les réponses qu'il fournit sont effectivement intelligentes et précises. Mais "l'IA" et les technologies automatisées se présentent sous diverses formes. Les gens peuvent en fait avoir affaire à un système très rudimentaire avec peu de capacité à aider au-delà de la récupération d'informations de base et de les répéter ou de diriger les clients vers des politiques ou des FAQ. Dans les cas où "l'IA" ne comprend pas la demande de la personne ou si le message de la personne contredit la programmation du système, il n'est pas approprié que les chatbots soient le principal véhicule du service client.
Les gens comptent sur les institutions financières pour reconnaître, enquêter et résoudre les différends de manière précise et rapide. Intégré dans ces attentes des clients et les exigences légales, les entités identifient avec précision quand un client soulève une préoccupation ou un litige. Les chatbots et les représentants hautement scénarisés peuvent introduire un niveau de rigidité, dans lequel seuls des mots ou une syntaxe spécifiques peuvent déclencher la reconnaissance d'un litige et entamer le processus de résolution des litiges. Par conséquent, la capacité des chatbots et des scripts à reconnaître un litige peut être limitée.
Même lorsque les chatbots peuvent identifier qu'un litige est émis par le client, il peut y avoir des limites techniques à leur capacité à rechercher et à résoudre ce litige. Dans certains cas, les clients contestent des transactions ou des informations incorrectes. Les chatbots qui se limitent à simplement régurgiter les mêmes informations système que le client tente de leur contester sont insuffisants. Un tel perroquet ne traite pas de manière significative les litiges ou les demandes de renseignements.
Une personne a noté, par exemple :29
De plus, les chatbots basés sur des règles ont tendance à être des rues à sens unique, car ils sont conçus pour accepter ou traiter les informations de compte des utilisateurs et ne peuvent pas répondre aux demandes en dehors de la portée de leurs entrées de données. Un chatbot avec une syntaxe limitée peut ressembler à une interface de ligne de commande où les clients doivent connaître la phrase correcte pour récupérer les informations qu'ils recherchent.30 Cette limitation peut être particulièrement problématique pour les personnes ayant une maîtrise limitée de l'anglais, où la technologie formée sur un nombre limité de dialectes rend difficile pour les consommateurs ayant des besoins en dialectes divers d'utiliser des chatbots pour recevoir de l'aide de leur institution financière. Bien que présenté comme plus pratique, parcourir les mouvements d'une conversation simulée peut être fastidieux et opaque par rapport à la navigation dans les informations avec une navigation claire et logique. Par exemple, une personne s'est récemment plainte :31
Comme détaillé plus loin, les chatbots obtiennent parfois une réponse erronée.32 Lorsque la vie financière d'une personne est en danger, les conséquences d'une erreur peuvent être graves. Dans les cas où les institutions financières s'appuient sur des chatbots pour fournir aux gens certaines informations dont l'exactitude est légalement requise, se tromper peut violer ces obligations légales.
Plus précisément, les chatbots complexes qui utilisent des LLM ont parfois du mal à fournir des informations précises et fiables. Pour les chatbots conversationnels et génératifs formés sur les LLM, les méthodes statistiques sous-jacentes ne sont pas bien positionnées pour faire la distinction entre les données factuellement correctes et incorrectes. Par conséquent, ces chatbots peuvent s'appuyer sur des ensembles de données qui incluent des cas de mésinformation ou de désinformation qui sont ensuite répétés dans le contenu qu'ils génèrent.
Des études récentes ont suggéré que les chatbots peuvent fournir des informations inexactes. Par exemple, une étude comparative de ChatGPT d'OpenAI soutenu par Microsoft, de BlenderBot de Meta et de LaMDA d'Alphabet a montré que ces chatbots génèrent souvent des sorties incorrectes qui sont indétectables par certains utilisateurs.33 Des tests récents du chatbot Bard d'Alphabet ont révélé qu'il générait également des sorties fictives.34 s comme "pas bien adapté aux tâches qui nécessitent une logique, des connaissances spécialisées ou des informations à jour"36 faisant de l'utilisation de chatbots conversationnels formés sur les LLM dans le secteur bancaire une source peu fiable pour répondre aux clients.
Malgré le fait que les chatbots peuvent se tromper, les utilisateurs demandent des conseils financiers aux chatbots génératifs.37 Par exemple, une enquête a indiqué que les gens utilisaient les chatbots LLM pour demander des recommandations et des conseils sur les cartes de crédit, les cartes de débit, les comptes courants et d'épargne, les prêteurs hypothécaires et les prêts personnels.38
L'utilisation de chatbots dans le secteur bancaire vise à fournir aux clients une aide immédiate et rapide à leurs problèmes. Lorsqu'un chatbot s'appuie sur une technologie peu fiable, des données inexactes ou n'est rien de plus qu'une passerelle vers les politiques publiques ou la FAQ de l'entreprise, les clients peuvent se retrouver sans recours. Fournir des réponses fiables et précises aux personnes concernant leur vie financière est une fonction essentielle pour les institutions financières.
Les réponses automatisées d'un chatbot peuvent ne pas résoudre le problème d'un client et les conduire à la place dans des boucles continues de jargon ou de jargon juridique répétitifs et inutiles sans déviation vers un représentant du service client humain. Ces « boucles catastrophiques » sont souvent causées lorsque le problème d'un client dépasse les capacités limitées du chatbot, ce qui empêche les clients d'engager une conversation solide, et peut-être nécessaire, avec leur institution financière. Comme indiqué ci-dessus, certains chatbots s'appuient sur les LLM pour générer des réponses aux demandes courantes des clients. Alors que certaines personnes peuvent être en mesure d'obtenir une réponse à une demande spécifique à l'aide d'un chatbot, la capacité d'obtenir une réponse claire et fiable peut être compliquée par la même technologie.
Les institutions financières peuvent affirmer que les systèmes automatisés sont plus efficaces ou efficients, par exemple parce qu'une personne peut obtenir une réponse immédiatement. Mais les réponses automatisées peuvent être fortement scénarisées et diriger simplement les clients vers de longues déclarations de politique ou des FAQ, qui peuvent contenir très peu d'informations utiles, voire aucune. Ces systèmes peuvent simplement décharger le fardeau d'un humain qui doit expliquer ces politiques ou la responsabilité d'agents du service client compétents vers un processus automatisé moins cher. En conséquence, plusieurs clients ont déposé des plaintes auprès du CFPB pour être coincés dans des "boucles de malheur" avec des chatbots. Par exemple :39
Et un autre client s'est plaint :40
Les chatbots sont programmés pour résoudre des tâches spécifiques ou récupérer des informations et ne peuvent parfois pas adapter de manière significative les services à un client en détresse. Lorsque les clients demandent de l'aide pour des questions financières, ils peuvent se sentir anxieux, stressés, confus ou frustrés. Des recherches ont montré que lorsque les gens ressentent de l'anxiété, leurs perspectives sur le risque et les décisions changent.41 Les limites d'un chatbot peuvent empêcher le client d'accéder à ses informations financières de base et augmenter sa frustration. Par exemple, une enquête a révélé que 80 % des consommateurs qui interagissaient avec un chatbot se sentaient plus frustrés et 78 % avaient besoin de se connecter avec un humain après que le chatbot n'ait pas répondu à leurs besoins.42 Par exemple, un consommateur a noté :43
Les consommateurs peuvent également trouver des déviations vers le service client humain encore plus bloquées par des attentes déraisonnables. Ces obstacles non seulement laissent les consommateurs coincés et sans aide, mais ont également un impact sérieux sur leur capacité à gérer leurs finances. Les consommateurs se sont plaints auprès du CFPB de ces problèmes :44
De plus, la nature limitée de ces chatbots et le manque d'accès à un représentant humain du service client peuvent ne pas être évidents pour les clients lorsqu'ils s'inscrivent initialement à une relation avec une institution financière spécifique. Ce n'est pas évident jusqu'à ce que les clients rencontrent un problème et doivent investir du temps et des efforts pour le résoudre, perdre leur temps, réduire le choix des consommateurs et saper les institutions financières qui tentent de rivaliser en investissant dans un support client significatif et efficace.
Le déploiement de technologies avancées au lieu d'humains peut également être un choix intentionnel par des entités cherchant à augmenter leurs revenus ou à minimiser les amortissements. En effet, les technologies de pointe peuvent être moins susceptibles de renoncer aux frais ou d'être ouvertes à la négociation sur le prix.45
À un niveau élevé, la fiabilité des systèmes automatisés dépend en partie de la manière dont une entité a décidé de hiérarchiser les fonctionnalités et d'allouer les ressources de développement. Par exemple, pour augmenter les revenus, il peut être plus prioritaire d'améliorer la capacité des systèmes automatisés à promouvoir des produits financiers pertinents auprès d'un client spécifique en fonction de ses données. Cet investissement peut se faire au détriment de fonctionnalités qui n'entraînent pas de croissance des revenus. Ainsi, même si un système automatisé peut bien gérer certaines fonctions client, il peut ne pas en gérer d'autres. Pour faire simple, les décisions d'investissement peuvent conduire à un sous-investissement dans la fiabilité d'un chatbot. Une personne s'est plainte que :46
De plus, les chatbots peuvent planter, comme toute autre technologie. Si un chatbot cassé est la seule option pour un client de recevoir une aide urgente de son institution financière, cela peut laisser les gens bloqués avec peu ou pas de service client. Les plaintes des consommateurs nous montrent certaines des limites techniques des chatbots, par exemple :47
Qu'il s'agisse d'un problème de programmation ou de logiciel, un client frustré ne voit qu'un chatbot non fonctionnel.
En raison de leur nature automatisée, les chatbots sont souvent utilisés par de mauvais acteurs pour créer de faux chatbots d'usurpation d'identité afin de mener des attaques de phishing à grande échelle. Les agents conversationnels se présentent souvent comme des "humains", ce qui peut amener les utilisateurs à surestimer leurs capacités et à partager plus d'informations qu'ils ne le feraient dans un simple formulaire Web. Il est alors assez dangereux que les utilisateurs partagent des informations personnelles avec ces chatbots d'usurpation d'identité. Ces dernières années, il y a eu une augmentation des escroqueries ciblant les utilisateurs de plates-formes de messagerie courantes pour obtenir leurs informations personnelles ou de paiement afin de les amener ensuite à payer de faux frais via des applications de transfert d'argent.48
En plus d'utiliser des chatbots d'usurpation d'identité pour nuire aux consommateurs, les chatbots peuvent également être programmés pour hameçonner des informations auprès d'un autre chatbot. Dans ces situations, les chatbots peuvent être programmés pour suivre certains protocoles de confidentialité et de sécurité, mais ne sont pas nécessairement programmés pour détecter des comportements suspects ou des tentatives d'usurpation d'identité et peuvent ne pas être en mesure de reconnaître et de répondre aux tentatives d'escrocs de hameçonner des informations personnelles ou de voler l'identité des personnes.
Par exemple, en mai 2022, des escrocs se sont fait passer pour DHL - une société de livraison de colis et de services de courrier express - par le biais d'un e-mail dirigeant les victimes vers un chatbot pour demander des frais d'expédition supplémentaires pour recevoir des colis. La conversation du chatbot semblait digne de confiance car elle comprenait un formulaire captcha, des invites d'e-mail et de mot de passe, et même une photo d'un colis endommagé.49
Les institutions financières ont l'obligation de protéger les informations personnellement identifiables, quelle que soit la technologie utilisée.50 Les chercheurs en sécurité ont mis en évidence une variété de vulnérabilités potentielles dans les chatbots, des entités utilisant des protocoles de transfert Web non sécurisés et obsolètes aux consommateurs désespérés et frustrés qui saisissent des informations personnelles sur les plateformes de chat parce qu'ils ont besoin d'aide.51
Par exemple, pour se valider en tant que propriétaire d'un compte spécifique, les clients sont généralement tenus de fournir des informations personnelles. Lorsque les clients fournissent des informations personnelles et financières à une entreprise, ils s'attendent à ce qu'elles soient traitées avec soin et restent confidentielles. Par conséquent, lorsque les clients saisissent des informations personnelles dans les journaux de discussion, ces journaux doivent être considérés comme des informations sensibles sur les consommateurs et protégés contre toute violation ou intrusion. Les journaux de chat introduisent un autre lieu d'attaques contre la vie privée, ce qui rend plus difficile la protection complète de la confidentialité et de la sécurité des informations personnelles et financières des consommateurs. En 2018, Ticketmaster UK a fait appel à Inbenta Technologies pour divers services, dont une « IA conversationnelle » sur sa page de paiement. Les pirates ont ciblé les serveurs d'Inbenta, insérant un code malveillant qui enregistrait les informations saisies dans le chatbot pour traiter les paiements par les utilisateurs de la plateforme, entraînant une cyberattaque qui a touché 9,4 millions de personnes concernées, dont 60 000 détails de cartes de paiement individuelles.52
De plus, les chatbots formés au LLM s'appuient sur des ensembles de données de formation qui contiennent des informations sur des personnes qui peuvent avoir été obtenues illégalement.53 Des violations de la vie privée peuvent se produire lorsque les données de formation incluent des informations personnelles qui sont ensuite directement divulguées par le modèle sans que la personne concernée en soit responsable.54 Certains de ces risques semblent être reconnus par les institutions financières, du moins en ce qui concerne leurs informations internes, car plusieurs grandes banques ont restreint l'utilisation de ChatGPT d'OpenAI soutenu par Microsoft par leurs employés.55
La portée des tests de sécurité nécessaires pour les systèmes d'IA tels que les chatbots est vaste et nécessite à la fois des tests rigoureux et un audit approfondi de tous les fournisseurs de services tiers impliqués dans les opérations. Il existe tout simplement trop de vulnérabilités pour que ces systèmes se voient confier des données clients sensibles sans garde-fous appropriés.
Les plaintes de consommateurs que le CFPB a reçues à propos des chatbots soulèvent des inquiétudes quant à savoir si l'utilisation de chatbots entrave la capacité des institutions à protéger la sécurité des données des consommateurs.56
Alors que les institutions financières continuent d'investir dans des technologies telles que les chatbots pour gérer le support client tout en réduisant les coûts, elles doivent tenir compte des limites de la technologie telles que celles détaillées dans ce rapport. L'utilisation de la technologie chatbot comme principal mode d'interaction avec les gens peut présenter plusieurs risques pour les institutions financières individuelles, notamment les suivants :
Le Congrès a adopté des lois fédérales sur les finances des consommateurs qui imposent diverses obligations pertinentes aux institutions financières. Ces obligations contribuent à garantir que les institutions financières traitent équitablement leurs clients, notamment en leur fournissant des réponses claires.
Les institutions financières courent le risque que lorsque les chatbots ingèrent les communications des clients et fournissent des réponses, les informations fournies par les chatbots peuvent ne pas être exactes, la technologie peut ne pas reconnaître qu'un consommateur invoque ses droits fédéraux, ou elle peut ne pas protéger sa vie privée et ses données.
Lorsque les consommateurs ont besoin de l'aide de leur institution financière, les circonstances peuvent être désastreuses et urgentes. S'ils sont coincés dans des boucles de jargon répétitif et inutile, incapables de déclencher les bonnes règles pour obtenir la réponse dont ils ont besoin, et s'ils n'ont pas accès à un représentant du service client humain, leur confiance dans leur institution financière diminuera.
Compte tenu de la structure des marchés pour de nombreux produits et services financiers aux consommateurs, les gens peuvent avoir un pouvoir de négociation limité pour exiger un meilleur service lorsqu'un fournisseur est sélectionné pour eux. Par exemple, les consommateurs n'ont que peu ou pas de choix lorsqu'il s'agit de choisir un gestionnaire de prêts hypothécaires ou une société d'évaluation du crédit. De plus, même sur les marchés où les consommateurs ont plus de choix, les institutions financières peuvent ne pas concurrencer vigoureusement certaines fonctionnalités, comme le service client, car les clients ne sont exposés à ces fonctionnalités qu'après avoir sélectionné le fournisseur et sont donc quelque peu enfermés dans celles-ci. Dans de tels contextes, la possibilité de réaliser des économies substantielles pourrait fortement inciter les institutions à acheminer le support client via des chatbots ou d'autres systèmes automatisés, même si cela diminue dans une certaine mesure l'expérience client. Il est important de noter que sur ces marchés où la concurrence fait défaut ou est affaiblie, l'ampleur des économies de coûts répercutées sur les consommateurs sous la forme de meilleurs produits et services est réduite.
Les institutions financières peuvent aller plus loin et réduire ou éliminer l'accès à un soutien humain personnalisé. Cependant, cette réduction se fait probablement au détriment de la qualité du service et de la confiance. Ce compromis est particulièrement vrai pour les segments de clientèle où les interactions de chatbot ont des taux plus élevés d'échec de résolution, comme les groupes avec une disponibilité technique limitée ou une maîtrise limitée de l'anglais.
Lorsque les chatbots échouent sur les marchés des produits et services financiers grand public, non seulement ils brisent la confiance des clients, mais ils ont également le potentiel de causer des dommages généralisés. Les enjeux d'avoir tort lorsque la stabilité financière d'une personne est menacée sont élevés. Être capable de reconnaître et de gérer les litiges des clients est une fonction essentielle ; la gestion des litiges est parfois le seul moyen efficace de corriger rapidement une erreur avant qu'elle ne dégénère en pire. Fournir des informations inexactes concernant un produit ou un service financier de consommation, par exemple, pourrait être catastrophique. Cela pourrait conduire à l'évaluation de frais inappropriés, ce qui pourrait à son tour entraîner des résultats plus graves, tels qu'un défaut de paiement, conduisant le client à choisir une option ou un produit financier de consommation inférieur, ou d'autres préjudices.
Ne pas reconnaître ou résoudre un différend peut donc être désastreux pour une personne. Cela peut éroder leur confiance dans l'institution et les dissuader de demander de l'aide pour des problèmes à l'avenir, provoquer de la frustration et une perte de temps, et laisser des problèmes résolubles non résolus, ce qui aggrave les résultats négatifs.
Le déploiement de chatbots déficients par les institutions financières risque de mécontenter leurs clients et de leur causer un préjudice important dont ils pourraient être tenus responsables.
Ce rapport met en lumière certains des défis associés au déploiement des chatbots dans les services financiers aux consommateurs. Alors que les secteurs de l'économie continuent d'intégrer des solutions "d'intelligence artificielle" dans les opérations de service à la clientèle, il y aura probablement un certain nombre d'incitations financières fortes pour remplacer l'assistance offerte en personne, par téléphone et par chat en direct.
Les chatbots déficients qui empêchent l'accès à une assistance humaine en direct peuvent entraîner des violations de la loi, une diminution du service et d'autres préjudices. Le passage de la banque relationnelle à la banque algorithmique aura un certain nombre d'implications à long terme que le CFPB continuera de surveiller de près.
Le CFPB surveille activement le marché et s'attend à ce que les institutions utilisant des chatbots le fassent d'une manière conforme aux obligations client et légales. Le CFPB encourage également les personnes qui éprouvent des difficultés à obtenir des réponses à leurs questions en raison d'un manque d'interaction humaine, à déposer une plainte de consommateur auprès du CFPB.
Les consommateurs peuvent soumettre des plaintes au sujet des produits et services financiers en visitant le site Web du CFPB ou en appelant le (855) 411-CFPB (2372).
Les employés d'entreprises qui pensent que leur entreprise a enfreint les lois fédérales sur les finances des consommateurs sont encouragés à envoyer des informations sur ce qu'ils savent à [email protected].
Le CFPB surveille l'utilisation de la technologie souvent commercialisée sous le nom d'"intelligence artificielle" pour s'assurer qu'elle ne viole pas les droits des consommateurs.
09 DÉCEMBRE 2022
18 NOVEMBRE 2022
31 OCTOBRE 2022
06 JUIN 2023
01 JUIN 2023
01 JUIN 2023
17 JUILLET 2020
10 MARS 2020
06 DÉCEMBRE 2018