清华大学金融科技研究院孵化
金融科技与金融创新全媒体

扫描分享

本文共字,预计阅读时间

1月7日,以“全球视野、中国基石、前沿交叉、战略前置”为主题的“首届全球前沿科学 50 人智库论坛”在成都举行。论坛上,“全球前沿科学 50 人智库”正式揭牌,发布了由联合国教科文组织高等教育创新中心撰稿的《人工智能时代的高等教育白皮书》和“影响2050全球的颠覆性技术”等。首届论坛汇集国内外全球顶尖的科学家、学术界和产业界专家学者等450余人与会,从不同视角探讨全球前沿科学领域的发展趋势和未来前景。清华大学五道口金融学院金融安全研究中心主任周道许出席,并发表了题为“对人工智能与金融科技安全的思考”的演讲。

以下为嘉宾演讲全文:

一、金融行业发展人工智能面临的四大安全挑战

(一)“数”:数据安全挑战

数据是人工智能发展的血液,数据安全因此也成为金融行业发展人工智能面临的最基础安全挑战。

一是数字技术日新月异,金融数据成为网络攻击的首选目标,数据的泄露、窃取、窜改等事件频繁发生。根据威瑞森(Verizon)发布的《2023年数据泄露调查报告》,74%的金融和保险行业数据泄露事件涉及个人数据泄露,大幅领先于其他所有行业。

二是金融机构在数据方面的违规行为、数量、范围和种类大,存在信息科技风险的隐患,重要岗位及外部机构管理存在缺陷,发生重要信息泄露风险时未向监管部门报告等问题。近年来,监管部门开出的数据罚单不断增加。据毕马威统计,2023年第三季度,人民银行及金融监管总局向银行、保险公司、证券公司等金融机构共开出数据罚单425张,罚款金额为76.9亿元,涉及266家法人;2023年第三季度罚单数量较上一季度环比上涨40.3%,较去年同期同比上涨32.4%,罚单数量整体呈稳步上升态势。

三是监管数据跨境流动日益频繁,带来越来越大的潜在安全隐患。随着《数据出境安全评估办法》《个人信息跨境处理活动安全认证规范》《个人信息出境标准合同办法》以及《规范和促进数据跨境流动规定(征求意见稿)》相继发布,数据跨境规范管理的框架已见雏形,规避数据跨境流动合规风险的重要性进一步提升。

四是数据和资金向互联网寡头企业的集聚,数据垄断风险明显。数据和资金的集聚不仅使得新进入者和中小企业在竞争中处于不利地位,而且还可能导致数据垄断,从而进一步扩大这些企业的市场影响力。数据垄断不仅限制了市场竞争,也可能对消费者权益造成潜在威胁,增加了数据安全和隐私风险,同时可能妨碍创新和市场多样性的发展。

(二)“算”:算力安全挑战

算力是人工智能发展的骨架,算力安全因此成为金融行业发展人工智能面临的重大挑战。

一是算力全球竞争的挑战。当前,算力已经成为经济社会发展的基础资源和核心动力。随着数字经济的发展,以及人工智能技术的大规模应用,算力产业的规模决定了经济的数字化、智能化发展前景。世界主要经济体已经普遍取得了“基于大算力、发展大模型、赢得大时代”的共识,把发展算力产业提升到增强国家竞争力、维护国家安全的战略高度,并斥巨资发展相关产业链、供应链,力图在新一轮科技革命中掌握主导权、占据制高点。

二是算力设备的自主可控风险。IDC数据显示,目前,服务器整机国产品牌的市场份额占比已接近81%,国产操作系统覆盖率较高。但是,国产芯片与国际先进水平仍有差距,国产操作系统的生态体系建设仍然有待加强。此外,算力是一个庞大的产业体系,在实现自主可控的过程中需要每个环节的共同努力。

三是算力硬件复杂化风险。为了适应爆发式增长的算力需求和越发复杂的计算任务,算力芯片日趋多元化,出现了CPU、GPU、ASIC、FPGA、NPU、DPU等,算力架构除传统x86架构之外,越来越多的芯片公司开始使用ARM、RISC-V、MIPS等多种架构,异构计算随之加速崛起。算力硬件设备的复杂化严重考验金融机构安全防护体系的兼容性,也增加了金融机构安全管理的难度。

四是算力基础设施的外包风险。为了提升算力,一些金融机构会借助第三方云服务商的算力基础设施,获得弹性、可扩展的算力资源。尤其是中小金融机构在算力基础设施建设方面更倾向于使用低成本的第三方算力服务。这可能会导致出现数据收集使用不合规、安全责任交叉、数据保护存在盲区等问题。

(三)“智”:人工智能模型安全挑战

大模型是人工智能发展的大脑,模型安全因此成为金融行业发展人工智能面临的关键挑战。

一是人工智能模型的可解释性和透明度较差。人工智能大模型,尤其是基于深度学习的模型,经常被描述为“黑箱”模型,因为它们的内部运算逻辑和决策过程往往不透明。这些模型通过从大量数据中学习模式来作出决策,但它们的确切决策过程可能难以解释。在金融行业,这种缺乏透明度和可解释性可能会导致监管合规性问题,尤其是在需要向客户或监管机构解释决策过程的情况下。

二是人工智能模型可能会出现数据和算法偏见。如果人工智能模型的训练数据不全面或存在偏见,模型可能会学习并复制这些偏见。例如,如果训练数据在性别、种族、地理位置等方面存在偏差,模型可能会对这些特定群体作出不公平或不准确的决策。即使数据没有明显偏差,模型算法的设计、结构或参数选择也可能导致偏差决策。某些算法可能在处理特定类型的数据时表现出固有的偏差。

(四)“人”:AI人才匮乏的挑战

金融行业的智能化发展在人工智能模型搭建、算力硬件资源部署、数据安全治理、金融科技合规使用等方面对金融机构提出了许多新挑战,需要大量懂金融、懂AI、懂安全的复合型人才提供支持。然而,我国相关学科建设、社会培训、人才供给明显无法跟上金融智能化发展和金融科技创新的脚步。脉脉高聘发布的《2023年度人才迁徙报告》显示,人工智能相关岗位人才供不应求,在高薪岗位TOP20中,以ChatGPT研究员、算法、深度学习为代表的人工智能岗位拥有10席。

金融行业在人工智能研发端的基础条件和发展前景不如软件服务行业和制造行业,因此对于现有的人工智能人才的吸引力较弱。此外,即便通过提高专业人员薪资的方式能够招募到相当一部分人工智能人才,但由于金融业业态瞬息万变,作为非金融类专业出身的人工智能人才可能会难以适应市场变化,在新算法、新模型的研发上难以做好需求对接,导致资源错配和浪费。

二、应对风险挑战的四点建议

一是进一步提升金融行业数字安全治理能力。

二是进一步强化金融行业算力安全建设。

三是提高人工智能模型的算法透明性和合理性。

四是加强人工智能相关人才的选、育、用、留。

[Source]

本文系未央网专栏作者发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意。

本文为作者授权未央网发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意。

本文版权归原作者所有,如有侵权,请联系删除。首图来自图虫创意。

评论


猜你喜欢

扫描二维码或搜索微信号“iweiyangx”
关注未央网官方微信公众号,获取互联网金融领域前沿资讯。