清华大学金融科技研究院孵化
金融科技与金融创新全媒体

扫描分享

本文共字,预计阅读时间

虽然发展时间还不长,但很明显,人工智能(AI)在金融服务领域的应用已经愈发重要,值得我们关注。

我们的金融科技工作组正通过联邦储备系统主动了解AI在金融服务领域的潜在影响,特别是与我们职责相关的部分。考虑到AI的潜在价值,我们正尝试通过各种方法学习和借鉴行业、银行、消费者保护团体、研究人员和其他各方的经验,今天的会议也是我们学习的内容。我很高兴能够参与这场与时俱进的讨论,与大家共同探讨技术如何影响金融领域。

AI在金融服务领域的应用日益增加

我今天演讲的重点是AI的一个分支,机器学习,这是最近许多发展和商业应用的基础。现代机器学习根据大数据集来应用、完善或"训练"一系列算法,并随着学习反复优化,以便识别模式并针对新数据做出预测。从根本上来说,机器学习针对数据解译方式规定的结构较少,而在传统方法中,编程人员通常会实施预先规则以进行决策。

算法、处理能力和大数据是AI的三大关键要素,这三者现在的获取难度都有所降低。鉴于早期的开源承诺,即使是刚开始创业的初创企业也可以获取一些大公司的AI算法。至于处理能力,得益于公共云提供商的持续创新,现在只需一台笔记本和一张信用卡,按使用付费,就可以访问全球几家功能最强大的计算系统,而无需构建大量硬件基础架构。通过供应商,包括金融领域在内的各领域小企业和非技术公司都能轻松使用这些工具,他们既可以通过公共云公司提供的开发人员友好的应用编程界面访问预先训练的AI模型,也可以通过"下拉拖拽"工具创造更复杂的AI模型。最明显的是,全球数据产生并馈送至这些模型的速度在不断提高。2013年的时候,全球约90%的数据是之前两年产生的,而到了2016年,据IBM估算,全球约90%的数据是之前一年产生的。

AI创新的速度和范围让业内专家都为之侧目。仅仅四年,AI在热门图像识别挑战中的最好成绩已从26%的错误率下降到了3.5%,而人类最好的成绩是5%。在一项研究中,AI与人类合作甚至将错误率进一步降低到了0.5%。

所以众多金融服务公司重视并投入大量资金和时间来开发和使用AI方法。总体来说,AI在以下5个方面的优势最能够吸引企业进行投资研究:

  1. 企业认为AI具备出色的模式识别能力,如识别传统建模中不明显或未能揭示的变量关系。
  2. 企业认为AI可以在保持性能的前提下降低成本,性价比更高。
  3. AI自动化程度更高,与人工输入和"操作人员错误"更多的方法相比,处理精确度更高。
  4. 与更传统的方法相比,AI的预测能力更强。例如,可以提高投资业绩或扩大信贷准入范围。
  5. 与传统方法相比,AI能够更好地容纳结构较少的大型数据集,并更高效地处理此类数据。部分机器学习方法在数据集方面可以更"轻松"地识别模式或做出预测,而无需预先指定功能。

这些功能对银行工作有什么影响?金融稳定理事会重点介绍了AI可能会影响的四个银行领域。

  1. 客户直接服务可以将扩大的消费者数据集与新算法相结合,用来评估信贷质量或价格保险政策。聊天机器人可以为消费者提供帮助,甚至是金融建议,为消费者节省排队等候人工接线员的时间。
  2. 可以加强内部运营,例如用于资本优化、模型风险管理、压力测试和市场影响分析的先进模型。
  3. AI可以应用于交易和投资策略,从识别价格变动新信号到使用过往交易行为来预测客户下一个订单,都是AI的用武之地。
  4. AI发展还可以减少银行面临的风险。目前已有部分公司在使用AI解决方案,涉及领域包括欺诈检测、资本优化和投资组合管理。

当前监管和监督方式

这些AI新应用功能强大,应用范围广泛,必然会带来与银行安全稳健、消费者保护或金融系统潜在风险相关的问题。我们该如何进行监管和监督?监管机构应该负责审查AI可能造成的影响,包括可能的风险,并考虑平衡受监督企业的AI使用。

监管和监督应小心谨慎,确保适当减缓风险,不要阻碍可帮助消费者和小企业扩大获取范围和提高便捷性的负责任创新,同时提高效率、风险检测能力和精确度。同样,不要将负责任的创新驱离受监督的机构,避免创新转向监管程度更低、更不透明的金融系统领域,这点也至关重要。

我们现有的监管和监督机构非常适合开始评估AI流程的适当方式。在一项针对监管活动的全面调查中,国家科学技术委员会总结认为,如果与AI相关的风险"属于现有监管体制范围,...政策讨论应先考虑现有监管是否能够解决风险,或者是否需要调整以增加AI相关内容。"美国财政部最近的一份报告在金融服务领域也得出了类似的结论。

至于银行服务方面,有少数通用的法律、法规、指南和监管方法与AI工具的使用息息相关。第一,美联储的"模型风险管理指南"(SR Letter 11-7)强调了通过开发、实施和使用包括AI等复杂算法的模型进行嵌入式关键分析的安全性和稳健性。指南还强调了与模型开发、实施和使用无关的公正专业人员监督模型的"有效挑战"。指南描述了对公司自主模型进行稳健独立审查的监督期望,以确认这些模型的用途和功能达到预期。如果审查人员无法全面评估模型或发现问题,他们可能会建议在使用模型时更谨慎或进行补偿控制。同样,如果我们自己的检查人员评估模型风险,他们通常会先评估公司开发和审查模型的流程,以及对模型缺陷的回应或审查缺陷的能力。更重要的是,指南指出,专有供应商模型等模型并非完全透明。银行可以使用这类模型,但指南强调,针对无法解释或不透明的模型,应使用其他工具隔离或以其他方式减轻风险,可以通过"断路器"或其他机制来减缓外部控制,进而抵消风险。需要注意的是,模型应始终在上下文中解释。

第二,我们关于供应商风险管理的指南(SR 13-19/CA 13-21),以及谨慎的监管机构针对技术服务提供商的指南,强调了公司在外包业务功能或活动时应权衡的因素,这也可应用于外包的基于AI的工具或服务。我们监督的大部分银行都依赖于非银行供应商的专业知识、数据和成品AI工具,以充分利用AI推动流程。不管这些工具是聊天机器人、反洗钱/客户合规监管产品还是信贷评估新工具,都属于面向银行的服务。供应商风险管理指南讨论了受监督公司在挑选外部供应商时进行尽职调查、选择和对比的最佳实践,指南还描述了公司监管和监控与供应商的关系的方式,以及公司在终止与供应商的关系时,应考虑的业务持续性和意外因素。

第三,需要强调的是,指南应结合相关风险和正在考虑的具体用例的价值进行解读。一直以来,我们采取的是以风险为重点的监督方式,监管程度与所使用方式、工具、模型或流程带来的潜在风险成正比,这种原则通常也适用于受监督公司对所使用的不同方式的关注:公司应更关注用于进行重大决策的工具,因为这会对消费者、合规性、安全性和稳健性带来重大影响。

就其本身而言,AI很可能会带来一些透明度和可解释性方面的问题。不能否认的是,尽管AI很难解释或不透明,但在某些情况下使用AI工具依然大有裨益。应对AI工具和其他工具或流程进行适当控制,包括AI工具的实际使用方式,而不仅仅是它的构建方式,对于未在各种情况下进行全面测试的新应用来说,这点尤为关键。考虑到大部分AI方法中都涉及到大数据集,因此需要对数据质量和数据适用性等数据不同方面进行控制,这点至关重要。就像传统模型,输入数据的问题可能会导致各方面出现大量问题。相应的,我们也希望公司能够针对AI工具进行稳健的分析和谨慎的风险管理和控制,就像其他领域一样,以便监控潜在变化和持续发展。

以欺诈预防和网络安全为例,受监督的机构可能需要采用自己的AI工具来识别和解决外部AI带来的威胁。AI构建模块的广泛传播意味着网络钓鱼者和欺诈者可以获取一流的技术来构建强大灵活的AI工具。受监督的机构所需的工具应与他们所面对的威胁同样强大灵活,这很可能会加剧不透明度。虽然到目前为止,由于个性化成本较高,消费者面对的大部分钓鱼攻击都是标准形式的电子邮件,但未来可能会使用AI工具高度个性化网络欺诈和钓鱼,通过获取消费者个人信息的数据集并采用开源AI工具,网络钓鱼者可以向数百万消费者大量发送有针对性的电子邮件,并且成本较低,这些邮件中可能会包括消费者的银行账号和标志以及过往交易等私人信息。为防止此类情况发生,防止大数据集和AI工具被用于恶意目的,最好的办法是以AI制AI。

再看看众所周知的"黑盒"问题,就是部分AI方法缺乏可解释性的问题。就银行领域而言,出于风险管理和专有信息保护之间的平衡原因,无法确定银行对自己供应商模型的了解是否足够,这种情况很普遍。某种程度上来说,AI产品的不透明度可以看作是这种平衡的延伸,但是AI可能会带来更多问题,因为许多AI工具和模型生成分析、得出结论或推荐决策的过程都很难解释。例如,某些AI能够识别出之前未能识别且很难发现的模式。根据所使用的算法,可能没人能轻松解释为什么模型得出这些结果,即使是算法创造者自己也很难解释。

可解释性的问题也可看成是更高难度的不确定性,在其他条件相等的情况下,不确定AI方法的适用性。所以,公司要如何评估甚至是使用自己还未完全了解的方法?在很大程度上,这取决于AI应用的领域及其可能带来的风险。风险特别大的领域通常是消费空间,尤其是消费借贷,对于避免歧视和其他不公平结果以及履行披露义务来说,透明度不可或缺。这方面我简单介绍一下。

AI工具应用可能为消费者带来的新优势受到普遍关注。通过创新渠道或流程获取服务的机会可以有效推动金融包容性,以消费信贷评分为例,一直以来,许多消费者都面临着信贷报告存在重大错误、缺乏评分所需的信贷报告信息或信贷报告评分较低等难题。就像前面提到的,银行和其他金融服务提供商正使用AI来开发信贷评分模型,所考虑的因素并不局限于常用的数据指标,这些新模型能够让更多处于现有信贷系统边缘的消费者改善自己的信用状况,这样做不仅优势众多,且成本更低。而且AI也能为信贷机构提供更精确的模型和价格风险,从而加快决策速度。

AI可能会为消费者提供新优势,但它仍受公平借贷和其他消费者保护规定的约束,需要遵守这些法律法规。AI是自动化流程且对直接人工干预的依赖较少,但这并不代表它毫无偏见。算法和模型可以反映开发人员和训练数据的目标和观点,同样,AI工具也会反映或"学习"创建环境的偏见。2016年财政部一份报告指出"虽然数据驱动的算法可以加快信贷评估并降低成本,但也存在信贷结果差异性影响和违反公平借贷法规的风险。"

最近的一个例子就说明了将偏见无意识引入AI模型的风险。据报道,最近有一家大型公司开发了一款AI招聘工具并通过之前成功应聘人员的简历数据集进行了训练,用于招聘软件开发人员,但随后不久,该工具便被弃用。因为训练数据集里之前招聘的软件开发人员大多是男性,所以AI形成了对女性申请人的偏见,甚至排除了两所女子学院毕业生的简历。

更重要的是,《平等信贷机会法》(ECOA)和《公平信用调查报告法案》(FCRA)要求信贷机构在针对消费者采取不良或不利行动时发出通知。这些要求有助于提高承保流程的透明度,通过要求信贷机构解释决策原因来推动公平借贷,同时为消费者提供可执行信息,帮助他们改善信用状况。遵守这些要求意味着要找到解释AI决策的方式,但是,某些AI工具的不透明度导致很难向消费者解释信贷决策,这样一来,消费者就无法通过改变自己的行为来提高信用评分。幸运的是,AI本身也给出了对应的解决方案:AI社区开发出了"可解释"的AI工具作为回应,重点帮助消费者扩大信贷准入范围。很高兴你们今天的议程中也有这个主题。

展望未来

早期经验教训中最重要的一个就是,我们现在并不能预知所有潜在结果,公司应持续关注AI快速演变过程中出现的新问题。纵观银行业发展历史,新产品和流程一直都是问题频发地带。进一步说,公司并不能因为AI的设计主旨是"学习"或人工错误较少就认为它出问题的可能性更低。AI未能按预期运行的例子有很多,这也提醒我们记住,意外时有发生。公司要了解AI可能存在的缺陷并采取适当的控制措施,以预防和减少未来可能出现的问题。

就我们而言,我们还在了解AI在银行领域的应用。欢迎各位共同探讨AI和其他创新在银行和其他金融服务领域的应用,以及我们现有的法律、法规、指南和政策如何与这些新方法相互影响。我们的任务是为各类金融创新营造一个环境,方便对社会有益、负责任的创新可以适当减轻风险并持续满足适用法律法规的要求。

至于其他技术发展,监管机构需要借鉴其他领域的经验并有针对性地履行自己的职责。在后续探索AI相关的政策和监管问题方面,我们希望能与更多利益相关方通力合作。

[Source]

本文系未央网专栏作者发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!

本文为作者授权未央网发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!

本文版权归原作者所有,如有侵权,请联系删除。

评论


猜你喜欢

扫描二维码或搜索微信号“iweiyangx”
关注未央网官方微信公众号,获取互联网金融领域前沿资讯。