人工智能应用与金融消费者保护

2024-05-29  来源: 《银行家》2024年第5期

作者:刘志伟 庞占朝

 

近年来,人工智能在金融业务领域的应用已经逐渐走向成熟,如面向客户和交易的智能客服、智能营销、智能支付、智能信贷、智能投顾、智能理赔、智能风控,但在金融监管,尤其是以金融消费者保护为核心之行为监管领域的应用却不尽如人意。更重要的是,人工智能在金融业务领域广泛应用所带来的服务模式变革、业务流程再造、金融产品创新,还给金融消费者保护领域现有的监管规范、执法安排和工作举措带来了新的冲击和挑战。应结合当前人工智能技术发展和金融消费者保护工作的实际,积极研究人工智能在金融消费者保护领域应用的主要场景、关键问题和优化措施,以确保人工智能在金融消费者保护领域的合理有效应用。

 

人工智能在金融消费者保护领域应用的具体场景

 

人工智能在金融消费者保护领域的应用,主要是指以人工智能算法框架、智能硬件、系统软件为基础技术支撑,开发应用于金融消费者保护领域的系列通用技术,如深度学习、人机交互、知识图谱、自然语言处理等,并完成多种通用技术与金融消费者保护应用具体场景的融合,如金融消费者保护领域监管规则数字化、风险事件监测回应和监管金融机构合规情况等。

 

消费者保护规范的数字化转换。金融消费者保护的数字化、智能化、自动化实现,最先需要做的是利用自然语言处理技术和文本挖掘技术,系统全面分析金融消费者保护领域的监管规范,并将其转译为机器可以读取、理解的监管性代码和程序。第一,金融消费者保护领域监管规范的数字化翻译和转换,不仅可有效验证同一金融监管部门不同监管规则是否有效衔接的问题,亦可查证不同金融监管部门所制定监管规则是否存在冲突,以保证金融消费者保护监管规范协调一致。第二,金融消费者保护领域监管规范的数字化翻译和转换,可促成金融监管机构与金融机构对相关监管规范目的、内容理解的一致性,促进监管机构与金融机构彼此互动的质量提升,实现金融消费者合法保护的公私协同以及监管与合规的有效对接和良性互动。第三,在金融消费者保护领域监管规范的数字化翻译和转换的基础上,机器学习、深度学习和知识图谱技术可提升监管规则自动检查的力度和效率,保证监管规范对金融产品或服务创新的及时回应与适应性,促进监管规范优化更新。

 

风险事件的监测回应。人工智能在金融消费者保 护领域的应用,可提升与金融消费者保护有关之信用风 险、操作风险等风险事件监测回应的效率。第一,金融 监管机构利用神经网络、知识图谱技术深度挖掘金融机 构在金融产品营销、宣传、销售以及售后管理中存在的各种风险事件,这可完成金融消费者保护从被动接受投诉到主动发现处理的转换。第二,基于语音识别、深度 学习、自然语音处理技术的虚拟助手具备人机交互和数 据分析功能,不仅可通过对金融消费者保护风险事件 的反复性发现处理,不断优化自身的知识库和积累新知识,还可通过语义分析、情感分析准确理解金融消费者的合理需求,以提供更精准有效的问题解决方案。第三,对于前两点提到的风险事件识别和风险事件处置均离不开集金融消费者保护风险识别、防御、检测、响应和恢复于一体的综合化数字化风险管理平台建设,而这又建立在包括文本挖掘、深度学习、人机交互、知识图谱、自然语言处理等多种通用技术融合的基础之上。

 

监管金融机构合规情况。将人工智能应用于监管金融机构在消费者保护领域的合规情况,主要体现在报告生成、创新金融产品管理等层面。一方面是人工智能在报告生成领域的应用。无论监管报告,还是合规报告,人工智能技术的应用都可助力报告的自动生成和实时监控。其中,监管报告主要通过数据传输、验证、存储、分析四个步骤完成,人工智能技术则主要在验证和分析领域发挥关键作用;合规报告主要通过监管规范获取、分析解读和报告生成三个步骤完成,这需要以监管规则的数字化转换为基础。当然,这也离不开机器人流程自动化技术、应用程序编程接口技术的支撑。另一方面是人工智能在创新金融产品管理领域的应用。创新性金融产品从开发设计到营销宣传,再到售后跟踪观察都直接事关金融消费者合法权益的保护,文本挖掘、深度学习技术可用于验证金融产品自身风险与收益是否匹配,语音识别、计算机视觉、生物特征识别技术可用于金融产品销售中监督误导销售、虚假宣传等,而金融产品的售后跟踪则离不开人机交互、深度学习、自然语音处理技术。

 

人工智能在金融消费者保护领域应用的关键问题

 

无论是从金融机构合规视角,还是从金融监管机构监管视角,将人工智能应用于金融消费者保护领域非常重要且有必要,并且应用实践也取得了一定的进展, 但具体应用场景依然有限、不同领域也存在结构性失衡,如在证券领域的应用相对较多,在银行、保险领域的落地应用相对较少。

 

消费者保护规范的数字化转译难度大。以书面形式呈现出来的金融消费者保护规范本身就存在语义宽泛、理解因人而异等天然难以克服的问题,将其转换为机器可以识别和理解的代码、程序将更加困难。一是代码、程序的编写者负责将人类自然语言的音位、形态、词汇、句法、语义、语用、篇章转换为机器可读语言,但法律语言与日常语言有着截然不同的意义追求,代码、程序编写者通常并非法学专业人士,其对相关监管规范的理解即使有法律从业人员的辅助也不一定能完全准确。二是尽管法律语言严谨、准确、明确,其追求的是确定性,通过语言确定其法律意义,但监管规范中外延不固定的模糊性语言、不确定性概念比比皆是,这并非仅源于语言本身面对社会万象的苍白,一定程度上也是对明确性语言不足的弥补。三是相对于审慎监管领域,以金融消费者保护为核心之行为监管更多的是定性规范,而非定量规范,如巴塞尔协议中的资本充足率、流动性比率、杠杆率等可量化指标,这也就进一步增加了行为监管规范数字化转换的难度。

 

人工智能算法本身的可解释性困难变大。随着ChatGPT的出现,人工智能算法模型已呈现出从决策式向生成式转变的趋势,但生成式算法使用多层深度学习神经网络,模型的复杂程度增加,带来的便是难以对预测结果做出合理解释。生成式人工智能算法模型的出现是人工智能技术发展的进步,但其训练的“黑箱”特性会严重妨害人工智能技术在金融领域,尤其是金融消费者保护领域的应用。事实上,人工智能算法模型的可解释性是其在金融领域,尤其是金融消费者保护领域应用的前提要求,唯有如此才能有效识别管理金融风险、充分保障金融消费者的合法权益。更重要的是,金融消费者权益的有效保护本来就是对金融消费者保护规范的遵循,以保证监管规范适用结果的可靠性与稳定性。当然,这并不是对人工智能算法模型执行金融消费者保护规范自由裁量权的简单剥夺,前提是要保证人工智能算法模型本身的可解释性与透明度。比如,朴素贝叶斯、线性回归、决策树或者其他基于规则的模型,理论上已经满足可解释性要求,但对于生成型预训练变换模型3 (Generative Pre-trained Transformer 3)之类的超大型算法,其可解释性仍然相当难实现,这也就限制了其在金融消费者保护领域的可应用推广性。

 

人工智能应用于消费者保护会带来新风险。将人工智能应用于金融消费者保护领域,有助于强化金融消费者保护执法的力度、提升消费者保护的水平,但这不仅潜藏着新的信息技术风险,还有可能放大现有的金融风险。第一,人工智能技术在金融消费者保护领域的应用极可能会滋生新的技术风险、网络风险、数据安全风险、法律与监管风险,并且其与智能金融所应用人工智能技术的“同源性”,还会带来人工智能技术风险的“顺周期”扩大效应。第二,金融消费者保护领域人工智能技术的应用通常会带来人工智能算法模型的外包,而人工智能算法模型、数据建模和数据分析方法的复杂性会加剧金融监管机构对信息技术提供方的过度依赖, 并且人工智能算法模型的“自主决策”甚至还可在一定程度上部分甚至完全取代金融监管机构对某些关键决策的判断,这不仅会影响金融消费者权益的科学有效保护,还可能引发“监管替代”效应。

 

人工智能在金融消费者保护领域应用的优化措施

 

为解决人工智能在金融消费者保护领域应用中存在的消费者保护规范数字化转换难度大、人工智能算法本身的可解释性困难变大和人工智能应用于消费者保护所产生新风险的规制等问题,需要采用如下优化举措。

 

促进机器可读型消费者保护监管规范的发布。当前既有的金融消费者保护规范不仅未能反映人工智能技术发展的新变化,也欠缺相应的技术规范,更无法实现机器可读。因此,人工智能在金融消费者保护领域的应用最先需要的是金融监管机构采用自然语言处理、文本挖掘、知识图谱技术来校验、更新金融消费者保护领域的监管规范并完成直接性的机器可读。值得注意的是,与当前各个金融机构为实现监管合规而采取的监管规范转译相比,由金融监管机构直接发布机器可读的监管规范,不仅可提升监管规范被理解的准确性、一致性,还可保证不同金融机构、不同金融消费者得到平等对待。当然,机器直接可读金融消费者保护监管规范的发布,不仅需要法律知识专家系统的支持、人工智能技术专家对运用自然语言表达之法律文本的转译,还需要法学专家和人工智能专家的充分沟通,并最终确立规范化的转译标准、流程和校验、更新方案。

 

增强对人工智能算法本身可解释性的规制。人工智能算法模型在金融消费者保护领域应用的不可解释主要来源于对问题和任务本身了解得还不够充分,因此应积极探索发现知识、理解和解决问题的方法。第一,人工智能算法模型的可解释方法。在建模前,充分了解金融消费者保护所依据监管规范的核心内容和设置逻辑;在建模中,应尽量建立本身具有可解释性的人工智能算法模型,如基于规则的模型;在建模后,可解释性方法——隐层分析方法、模拟模型、敏感性分析方法,主要是针对具有“黑箱”性质的深度学习模型而言的,如在金融领域可采用敏感性分析与局部特征探索方法来解决金融领域普遍存在的先验知识不足的问题。第二,建立人工智能算法模型可解释性替代机制。尽管增强人工智能算法模型可解释性是实现透明度、避免偏见、可问责以及其他伦理价值的保证,但并非所有人工智能算法模型均可解释或需要解释,如生成式人工智能算法模型的可解释性较弱,此时建立替代性的机制便显得十分重要,如第三方反馈、申诉机制与人工审查干预、日常监测等,此举可对人工智能算法模型的决策起到一定程度的监督作用。

 

管控住人工智能应用于消费者保护所产生的新风险。一是对于将人工智能应用于金融消费者保护所产生的新风险的规制需要确立包括网络风险、数据安全风险、应用程序风险等在内之信息科技风险的监管指标和信息科技风险的防范、化解和处置安排;二是要建立好金融监管机构与信息科技服务提供商的第三方合作风险管控与风险分配机制;三是金融监管机构要确保其对监管或合规数据、人工智能算法模型的自主控制,并且实现金融监管的人机交互合作,即将人工智能算法模型的输出结果作为监管决策形成的辅助而非主导,或者是作为人工监管决策的人工智能验证手段。

 

(作者单位:西南政法大学金融创新与法制研究中心, 中国农业银行重庆分行) 

 

责任编辑:张志敏