清华大学金融科技研究院孵化
金融科技与金融创新全媒体

扫描分享

本文共字,预计阅读时间

【中国金融案例中心   编译:谢彬彬】

近年来,随着生成式AI(GenAI)技术的发展,欺诈手段也在不断进化。数据统计,数字欺诈在疫情后持续攀升,2023年美国在线欺诈案件达100万起,涉及金额125亿美元。这其中,约42.5%的欺诈尝试与AI相关,深度伪造(deep fakes)技术借助GenAI迅速升级。据德勤预测,到2027年,GenAI可能导致美国的欺诈损失达400亿美元。

欺诈者已开始利用GenAI创建复杂的合成身份和深度伪造内容,成功绕过传统验证系统。面对这一威胁,银行与金融科技公司呈现出差异化挑战:大多数银行受限于监管框架和遗留系统,创新速度较慢但操作流程严谨;金融科技公司虽然敏捷灵活,却可能缺乏成熟的风控治理。行业共识是,有效的防御需要融合双方优势,构建兼具严谨性与敏捷性的自适应体系。

七大核心防御策略

1. 构建强健的数据基础设施

企业需搭建整合多渠道数据的欺诈检测平台,覆盖网上银行交易、线下消费、客服交互等场景,实现客户活动的全维度视图。其关键价值是打破"数据孤岛":通过实时数据管道整合交易日志、客户行为、设备元数据等信息,及时捕捉跨渠道异常信号,避免风险遗漏。对此,企业需重点投入三类技术:云架构数据湖(保障存储扩展性与安全性)、流分析技术(实现数据实时处理)和数据质量控制系统(确保AI模型输入数据准确),唯有高质量数据基础,才能支撑反欺诈模型有效运行。

2. 升级行为分析与异常检测能力

传统"基于静态规则的算法"已难以应对GenAI驱动的动态欺诈,企业需回归"行为分析"的核心,借助AI实现能力升级:通过GenAI构建客户"正常行为基线",实时监测异常,实现从"被动响应"到"主动预警"的转变。一些领先的金融科技公司已采用 "自动化模型更新管道",将欺诈模型更新频率缩至每周甚至每天,以此应对"模型漂移"问题(即数据特征变化导致算法准确性下降);部分企业还利用GenAI生成"合成欺诈样本",补充真实数据的不足,丰富模型训练数据,提升模型对新型欺诈的识别韧性。在实践中,该策略需与现有决策引擎深度融合:将AI增强的行为分析结果、实时异常信号接入交易审批流程,确保风险判断能快速转化为防御操作。

3. 部署先进的生物识别安全技术

在深度伪造技术普及的背景下,传统生物识别手段(如静态人脸识别、语音认证)的安全性大幅下降——欺诈者可通过GenAI制作高仿人脸图像或语音片段,绕过基础验证。企业需部署 "下一代生物识别工具",以构建多层级身份核验体系。具体技术包括三类:一是"合成语音检测系统",通过分析语音中的细微特征(如频率波动、人工合成痕迹)识别虚假语音;二是"3D或视频生物识别",利用3D感应技术判断人脸立体性,或要求用户完成特定动作(如眨眼、转头)来验证身份;三是"行为生物识别",通过分析用户的打字节奏、鼠标移动轨迹、屏幕滑动习惯等行为特征,作为身份验证的补充,进一步提升安全性。

4. 实施智能摩擦(Smart Friction)策略

"安全"与"用户体验"的平衡是反欺诈的长期挑战。"智能摩擦"的核心的是"动态适配":根据交易风险等级,灵活调整验证强度,在保障安全的同时最小化对用户的要求。具体实践中,企业可建立 "风险评分引擎",对每笔交易或操作实时打分:对于高风险场景(如异地大额转账、陌生设备登录等),触发多层级验证(如硬件令牌+生物识别);对于低风险场景(如本地小额支付、常用设备操作),则简化验证流程(如仅需密码或免验证),减少用户操作成本。

5. 推动情报共享与行业深度合作

GenAI欺诈具有 "跨机构、跨行业、跨境" 的特征,单个企业的防御能力有限,因此 "行业协同" 成为应对此类风险的必要手段。银行与金融科技公司需打破信息壁垒,通过联盟共享风险情报、欺诈模式与防御经验,形成行业层面的防御合力。合作模式可包括:一是加入成熟的行业组织,如金融服务信息共享与分析中心(FS-ISAC),与组织内数千家机构的共享风险信息;二是发起"专项协作项目",针对特定欺诈类型(如合成身份欺诈、深度伪造诈骗),联合行业内企业开展技术研发、模型共建,提升整体防御水平;三是推动"公私合作",与政府部门、安全机构建立情报互通机制,获取高级别情报。

6. 强化AI风险管理与可解释性

GenAI模型的"黑箱属性"为反欺诈带来新的风险:若模型决策无法解释,不仅难以说服用户接受风险拦截结果,也可能无法满足监管对"风控透明度"的要求。因此,企业需在"模型准确性"与"可解释性"之间找到平衡,可落地的措施包括:一是采用 "可解释AI技术",让模型能清晰输出决策依据,例如某笔交易被拦截的原因是 "登录地点异常+设备指纹陌生+交易金额超出历史峰值",而非单纯的"风险过高";二是建立"AI模型全生命周期管理流程",从模型开发、测试、部署到监控、迭代,全程记录关键参数与决策逻辑,确保可追溯性;三是遵循行业标准与法规要求,如巴塞尔协议及欧盟AI法规等,确保模型设计与运行的合规性。

7. 加强与监管机构的协调合作

监管机构在反欺诈体系中具有独特价值:其拥有跨行业的协调能力、对公众的影响力以及获取高级别风险情报的渠道。因此,银行与金融科技公司不应将监管视为"合规压力",而应与监管机构主动建立协同机制。可采取的行动包括:一是"主动沟通风险",定期向监管机构反馈GenAI欺诈的新兴模式、技术趋势及企业面临的挑战,为政策制定提供实践依据;二是"参与监管沙盒",积极加入监管机构主导的AI反欺诈试点项目,在合规框架内测试新技术、新模式;三是"共享情报资源",在合法合规前提下,与监管机构、执法部门交换欺诈线索,协助打击有组织欺诈行为。

文章强调,对于行业而言,当前的关键是 "立即行动":将策略转化为落地措施,将协同共识转化为实际合作,通过整合共享情报和GenAI技术,将欺诈威胁转化为推动金融创新的机遇,在保障安全的同时促进业务发展,最终实现 "欺诈风险可控、金融创新有序" 的目标。

[Source]

本文系未央网专栏作者发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意。

本文为作者授权未央网发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意。

本文版权归原作者所有,如有侵权,请联系删除。首图来自图虫创意。

评论


猜你喜欢

扫描二维码或搜索微信号“iweiyangx”
关注未央网官方微信公众号,获取互联网金融领域前沿资讯。