扫描分享
本文共字,预计阅读时间。
2025年12月,纽约州州长凯西·霍楚(Kathy Hochul)日前正式签署《人工智能安全法案》(RAISE Act),标志着纽约州在人工智能安全与监管领域迈出关键一步。该法案建立了目前美国最严格的州级人工智能监管体系,使纽约州成为全国人工智能安全立法的先行者之一,标志着地方政府在人工智能治理领域迈出了实质性一步。
该法案不仅明确了大型人工智能开发商在模型透明度与安全性方面的法定义务,更通过设立专门监督机构、强化事故报告与惩罚机制,构建起一套相对完整的监管框架。此举被视为对联邦层面立法滞后的重要补充,也为其他国家和地区提供了可资借鉴的治理范式。
一、大型人工智能开发商的安全保障义务:为何成为法律焦点?
人工智能,尤其是前沿大模型,其开发与部署已不再仅仅是企业技术行为,而是具有广泛社会影响和潜在系统性风险的公共事务。大型开发商因掌握关键算法、海量数据与强大算力,事实上扮演着“数字时代基础设施提供者”的角色。因此,其行为必须接受公共监督,承担起与其技术影响力相匹配的社会责任。
首先,技术不对称性要求强化开发者责任。 普通用户、中小企业甚至政府部门,往往缺乏足够的技术能力来评估AI模型的内在风险。模型的训练数据是否公正、算法是否带有歧视性偏见、安全防护是否充分——这些关键信息若不公开,将导致使用者处于被动接受风险的境地。因此,法律有必要强制开发者履行信息披露义务,缓解信息不对称带来的社会风险。
其次,AI事故的影响具有广泛性与不可逆性。 一旦发生因模型缺陷导致的重大事故——例如金融系统的自动化决策引发市场动荡、医疗诊断AI出现系统性误判、内容生成模型被大规模用于制造虚假信息——其社会危害可能迅速扩散且难以补救。事前预防远比事后补救更为重要,这就要求开发商必须建立并严格执行内在的安全协议与风险管理体系。
最后,行业自律的局限性呼唤外部法律约束。 尽管部分领先企业已发布AI伦理原则并建立内部治理委员会,但其透明度、独立性与执行力常受质疑。当商业利益与安全目标发生冲突时,企业内在动力可能不足以保证始终将公共利益置于首位。因此,通过具有强制力的法律设定底线标准,是确保整个行业朝着负责任方向发展的必要保障。
纽约州RAISE法案正是基于以上认知,将大型前沿AI模型开发商明确为法律责任主体,要求其在追求技术突破与商业成功的同时,必须将透明度与安全置于运营的核心。
二、纽约州RAISE法案:构建“事故报告-持续监督-严厉问责”三维体系
纽约州的立法理念可谓是安全与创新并重。正如州长霍楚所言,该法案旨在证明“技术创新与安全不必相互冲突”。它并非意图扼杀创新,而是为创新划定安全的跑道,通过建立清晰的规则和预期,减少市场不确定性,最终助力负责任的人工智能产业在纽约州健康、可持续发展。法案起草者认识到,公众信任是AI技术得以广泛应用的社会基础,而强制透明度与严格问责正是赢得信任的基石。
RAISE法案的核心在于构建一个覆盖事前、事中、事后的全链条监管框架,其具体机制可概括为以下三大支柱。
一是强制性事故报告与即时透明度义务。法案要求,大型人工智能开发商在确认发生“重大伤害事故”后,必须在72小时内完成两项关键动作:
创建并对外公布其相关安全协议信息:这意味着事故不仅触发内部检讨,还必须转化为对公众的透明度提升。公众有权了解涉事模型采取了哪些安全措施,以及为何这些措施未能防止事故。
向纽约州政府提交正式事故报告:报告需包含事故性质、影响范围、可能原因、已采取及拟采取的补救措施等。此举确保监管机构能第一时间掌握风险动态,并为后续评估与干预提供依据。
72小时的紧迫时限反映了立法者对AI风险扩散速度的清醒认识,旨在杜绝企业拖延、隐瞒或淡化处理事故的可能性。
二是设立专职监督机构,实施持续评估。法案授权在纽约州金融服务局(DFS)内部设立新的监督办公室,专门负责前沿AI模型的监管事务。该办公室的核心职能包括:
评估大型前沿开发商:对其模型的安全性、公平性、透明度及合规状况进行持续审查与评估。
提升行业整体透明度:通过收集信息、发布指南、促进最佳实践共享等方式,推动行业标准提升。
发布年度公开报告:向公众与立法机关系统汇报AI行业发展状况、主要风险点、监管成效及政策建议,确保监管工作本身公开透明。
将监督职能赋予金融服务局,颇具战略考量。DFS在监管复杂金融风险方面经验丰富,其严谨的监管文化与风险评估方法,适用于同样具有高度复杂性和系统重要性的AI领域。这确保了监管的专业性与有效性。
三是强化执法与高额罚则,树立法律威慑。为保障法律条款不被虚置,法案赋予了纽约州总检察长强有力的执法武器:
提起民事诉讼的权力:针对开发商未按时提交必要报告或提交内容存在虚假陈述的行为,总检察长可直接向法院提起诉讼。
阶梯式高额罚款:初次违规最高罚款可达100万美元,后续违规最高罚款额升至300万美元。罚则的严厉程度彰显了立法者严肃对待合规要求的决心。
此条款将法律义务与实实在在的经济代价挂钩,显著提高了企业的违法成本,促使开发商在权衡利弊后,选择积极履行法定义务。
三、全球视野下的AI安全监管:欧洲与中国的路径比较
纽约州的立法并非孤例,而是全球人工智能治理浪潮中的重要一环。将视野投向欧洲和中国,可以发现不同的监管哲学与制度设计。
(一)欧盟:《人工智能法案》的全面风险监管
欧盟在全球范围内率先推进了综合性的人工智能立法。2024年3月欧洲议会通过的《人工智能法案》,依据风险等级对AI应用进行分级监管:
禁止应用:对人类安全、生活和权利构成明显威胁的应用(如社会评分、实时远程生物识别)被直接禁止。
高风险应用:包括关键基础设施、教育、就业、执法等领域使用的AI系统,面临严格的义务要求,如建立风险管理系统、进行数据治理、保存技术文档、确保人类监督、达到高水平的准确性、鲁棒性和网络安全标准。
透明度义务:对于聊天机器人、深度伪造等内容生成AI,必须向用户披露其正在与AI互动或内容为AI生成。
通用人工智能模型(特别是前沿大模型)特别规则:要求模型提供者评估和缓解系统性风险,进行对抗性测试,报告严重事故,确保网络安全,并披露训练数据的能源消耗和版权信息。
欧盟模式的特点是预防为主、基于风险、全面覆盖,具有极强的规则刚性。其监管对象贯穿整个价值链(提供者、部署者等),并设立了欧洲人工智能办公室作为中央监管机构。与纽约州法案相比,欧盟框架更系统、更细致,但执法协调在27个成员国间的复杂性也更高。
(二)中国:发展与安全并重的综合治理体系
中国在人工智能监管上采取了“敏捷治理”思路,强调在促进快速发展与防范风险之间取得平衡,已形成多层级、多部门的监管网络:
国家层面战略与立法。《新一代人工智能治理原则》(2019)、《新一代人工智能伦理规范》(2021)等文件确立了“以人为本、智能向善”的核心原则。
《生成式人工智能服务管理暂行办法》(2023年7月实施)是全球范围内首批专门针对生成式AI的部门规章。它强调服务提供者的主体责任,要求:训练数据来源合法、不侵犯知识产权、不含有歧视性内容;采取有效措施防止生成违法内容;对生成内容进行标识;提供安全、稳定的服务;建立用户投诉机制等。
《网络安全法》、《数据安全法》、《个人信息保护法》构成了AI监管的基础法律三角,规范数据收集、处理、利用的全过程。
监管机构与分工。国家网信办牵头协调生成式AI监管;发改委、科技部、工信部等从产业规划、技术研发、标准制定等角度推进;行业主管部门(如央行、卫健委、交通部)对金融、医疗、自动驾驶等特定领域的AI应用进行监管。
核心特点。强调主体责任,明确AI服务提供者作为第一责任人;突出内容安全与价值观对齐:对生成内容的安全性和合法性要求非常严格,确保符合社会主义核心价值观;实行备案与管理:部分AI服务需履行备案手续;鼓励行业标准:支持行业协会和企业制定技术、伦理、安全标准。
与纽约州法案相比,中国现有规定在事故强制报告的具体时限、设立单一专职监督办公室、以及针对违规行为设定明确高额民事罚款等方面,尚未形成如RAISE法案般高度具体化的条款。中国监管更侧重于服务上线前的合规要求与内容安全,并在监管中融入鲜明的本土价值导向。
四、全球人工智能治理探索与协同
纽约州RAISE法案的通过,是人工智能治理从原则探讨走向具体规则实施的重要里程碑。它聚焦于大型前沿模型开发商这一关键责任主体,通过强制事故报告、设立专门监督机构、施加严厉经济处罚这三项紧密衔接的措施,构建了一个具有较强操作性的监管闭环。该法案不仅填补了美国联邦层面立法的空白,其“快速报告”、“持续监督”、“严厉问责”的理念也为其他司法管辖区提供了制度设计的参考。
纵观全球,欧盟的《人工智能法案》代表着全面、严格的“风险规制”路径,中国的治理体系则体现了“敏捷治理”与“价值引导”的特色。纽约州的立法更像是在两者之间找到的一个切入点:它不如欧盟框架全面,但比中国现有针对生成式AI的规章在事中事后监管、透明度强制和罚款力度上更为具体和严厉。
纽约州的实践提醒我们,有效的监管需要明确的责任主体、清晰的报告流程、独立的监督力量和足够力度的惩戒措施。未来,人工智能治理的挑战在于如何实现不同区域监管框架的互操作性,避免为企业设置相互冲突的合规障碍,同时又能有效遏制全球性AI风险。
非常感谢您的报名,请您扫描下方二维码进入沙龙分享群。
非常感谢您的报名,请您点击下方链接保存课件。
点击下载金融科技大讲堂课件本文系未央网专栏作者发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意。
本文为作者授权未央网发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意。
本文版权归原作者所有,如有侵权,请联系删除。首图来自图虫创意。
京公网安备 11010802035947号