清华大学金融科技研究院孵化
金融科技与金融创新全媒体

扫描分享

本文共字,预计阅读时间

据德勤称,金融服务业是人工智能(AI)的最大采用者之一,超过60%的金融机构会利用人工智能解决方案进行决策、风险评估和自动化。

随着人工智能系统越来越融入金融服务,世界各地的监管机构都在竞相制定监督框架和法规,以确保负责任地使用人工智能,同时不扼杀创新。

人工智能法规的不确定性使金融机构面临合规挑战,特别是在亚太地区(APAC),监管方法差异很大。

与欧盟的综合人工智能法案或美国的行业做法不同,亚太地区的监管格局仍然高度分散。

那么,该地区的经济体如何才能利用人工智能的优势,同时确保合乎道德的使用、数据安全和公平呢?

西方国家对金融服务的人工智能监管范围广泛

在我们开始讨论这个地区有哪些框架和法规之前,让我们先来看看全球“超级大国”的计划以及它们与亚太地区有何不同。

1.欧盟对人工智能监管的态度

欧盟通过出台《欧盟人工智能法案》,将自己定位为人工智能监管领域的全球领导者。首先,《人工智能法案》是一个全面的框架,旨在解决人工智能风险并促进创新。它将人工智能系统分为四类:禁止、高风险、有限风险和最小风险。

金融服务领域的人工智能应用(例如信用评分和欺诈检测)被视为高风险,因为它们可能对个人和市场稳定产生影响。因此,它们必须遵守严格的合规要求,以确保公平、安全和可问责。

该法案规定,高风险人工智能系统必须遵守透明义务,接受严格的人工监督,并实施风险缓解措施。这一切都是为了防止偏见或歧视性做法。

此外,该法案强调消费者保护,要求金融机构确保人工智能驱动的决策不会导致不利或不公正的结果。

该法案还与更广泛的欧盟法规相一致。这包括知识产权、数据隐私和金融服务,确保对人工智能治理采取整体方法。此外,欧盟是《人工智能公约》的签署国。

简而言之,它是一项具有法律约束力的国际协议,旨在在全球范围内建立统一的人工智能监管原则。

该协议强化了监督、问责和安全创新等关键原则,为负责任的人工智能发展树立了先例。

2.美国和英国金融服务人工智能监管框架

美国的监管环境与欧盟有显著不同。美国没有统一的人工智能法案,而是依赖现有的监管机构。这些机构包括美国证券交易委员会(SEC)和消费者金融保护局(CFPB)等,两者都承担着监督金融服务领域人工智能合规性的职责。

尽管联邦层面没有总体的人工智能专项立法,但包括加利福尼亚州的《人工智能法案》在内的各州一级的举措已经出现,以解决与金融服务中人工智能驱动的决策相关的问责和道德问题。

美国政府最近的努力包括一份由两党共同参与的参议院报告,该报告概述了一些关键政策领域,包括隐私、责任、透明度和防范人工智能风险。

这一举措,加上拜登政府关于人工智能监管的第14110号行政命令,表明联邦政府越来越关注人工智能治理。

该行政命令指示50多个联邦实体实施100多项与人工智能相关的行动。其中包括加强网络安全保护、减轻人工智能偏见以及确保金融机构在其人工智能模型中使用准确且有代表性的数据。

相比之下,英国对人工智能的监管则更加以原则为导向。英国金融行为监管局(FCA)并未强加严格的法律框架,而是发布了金融服务领域人工智能使用的非约束性指导方针,强调公平、透明和问责制。

这种灵活的方法使金融机构能够同时遵守监管要求进行创新。

英国政府还表示,计划对高性能人工智能模型的开发者引入约束性要求。据说,未来英国的战略可能会与欧盟更加紧密地结合起来。

总体而言,尽管欧盟、美国和英国对金融服务领域人工智能的监管方式不同,但它们有着共同的目标。最值得注意的是,这些目标是确保人工智能系统公平、透明和负责。

亚太地区监管机构目前面临的挑战是确定这些模型中的哪些要素最适合该地区多样化且快速发展的金融格局。

亚太地区格局分散,但正在演变

与欧盟的统一框架不同,亚太地区的人工智能法规差异很大,反映了该地区多样化的经济和监管成熟度。

一些司法管辖区已经出台了针对人工智能的专门立法,例如中国的《互联网信息服务算法推荐管理规定》,该规定要求金融人工智能模型接受政府审计。

韩国出台了《人工智能产业培育法案》,将某些人工智能模型归类为高风险,类似于欧盟框架。越南已将人工智能治理纳入《保险业法》,要求对人工智能驱动的保险决策进行风险评估。

其他亚太国家则选择制定指导方针和道德框架,而非立法。新加坡金融管理局(MAS)推行FEAT(公平、道德、问责和透明)原则,为金融公司提供自愿的AI治理标准。

日本经济产业省发布了《人工智能治理指南》,强调透明度和人为监督。澳大利亚的《人工智能伦理框架》为金融服务领域负责任地使用人工智能提供了自愿指导方针。

包括印度尼西亚、马来西亚和菲律宾在内的许多亚太国家仍在制定国家人工智能战略,但缺乏针对金融服务的可执行人工智能法规。这一监管漏洞给跨境运营的金融机构带来了不确定性。

由于亚太地区没有统一的人工智能框架,跨国金融机构在应对不同国家法规时面临合规挑战。与欧盟不同,欧盟的人工智能法律适用于所有成员国,而亚太地区仍然高度分散。

亚太地区的许多金融监管机构缺乏有效评估人工智能系统的技术专长。人工智能模型,尤其是生成式人工智能,引入了黑箱决策等复杂性,使得监管监督变得困难。

亚太金融服务业人工智能监管:须借鉴全球最佳实践

金融服务领域的人工智能依赖于庞大的数据库,通常跨越多个司法管辖区。亚太地区各国的数据保护法各不相同。例如,中国的《网络安全法》非常严格,而新加坡的《个人数据保护法》(PDPA)则更为灵活,两者形成了鲜明对比。

因此,确保人工智能遵守多种隐私制度将是一个重大挑战。

不同司法管辖区缺乏标准化的人工智能定义和监管期望,这给试图实施基于人工智能的金融解决方案的公司带来了障碍。

此外,许多金融机构难以证明他们的人工智能模型如何做出决策,特别是当人工智能系统以“黑匣子”的形式运行时,决策过程不透明。

最大的挑战之一是平衡创新与风险管理。人工智能可以创造很多奇迹。比如提高运营效率、检测欺诈,甚至提供量身定制的金融产品。但它也可能导致一些令人讨厌的事情。

还要注意,如果没有适当的监管,人工智能可能会导致无意的偏见、歧视性的做法和金融不稳定。

监管机构需要确保金融服务中使用的人工智能系统透明、负责,并且不会无意中伤害消费者。

虽然亚太地区的监管环境仍在不断发展,但该地区可以借鉴其他司法管辖区的最佳实践。类似于欧盟对人工智能风险分类和比例监督的基于风险的方法可以帮助监管机构建立更明确的合规要求。

效仿美国,亚太地区监管机构可以将人工智能治理纳入现有金融法律,而不是起草全新的立法。类似于英国灵活框架的基于原则的指导模式可以鼓励负责任的人工智能创新,同时最大限度地减少合规负担。

为了弥补监管漏洞,亚太地区金融机构应迅速采取行动。例如,积极开发符合全球监管趋势的内部人工智能治理框架。它们还可以合作建立人工智能风险评估方法。

作为回报,它可以确保数据隐私合规性,并且增强人工智能驱动决策的可解释性是负责任地采用人工智能的关键步骤。

在创新与监督之间取得平衡

随着亚太经济体越来越多地将人工智能融入金融服务,监管机构面临着在促进创新的同时保持监督的挑战。

东盟或亚太经合组织等组织下的区域人工智能治理框架可以促进跨境监管合规,同时政府必须增强监管机构的人工智能专业知识,以跟上不断变化的风险。

行业与监管机构之间的合作对于制定有效的人工智能政策至关重要。金融公司与政策制定者合作可以为人工智能风险管理制定最佳实践。

为了符合全球监管标准,人工智能驱动的金融模型的透明度和可解释性应该仍然是优先事项。

公私合作也可以推动人工智能治理的发展。通过开发人工智能测试环境,监管机构、人工智能开发者和金融机构可以在全面部署之前评估合规措施。这种方法将有助于制定行业标准,平衡技术进步与消费者保护。

[Source]

本文系未央网专栏作者发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!

本文为作者授权未央网发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!

本文版权归原作者所有,如有侵权,请联系删除。

评论


猜你喜欢

扫描二维码或搜索微信号“iweiyangx”
关注未央网官方微信公众号,获取互联网金融领域前沿资讯。