清华大学金融科技研究院孵化
金融科技与金融创新全媒体

扫描分享

本文共字,预计阅读时间

4月16日,《人工智能法(示范法)2.0》(以下简称《示范法2.0》)发布,2.0版本的文稿对2023年8月发布的《人工智能法示范法1.0(专家建议稿)》进行了一次重大的迭代升级。其中,最引人注目的内容之一,即在《示范法2.0》的第七十一条,首次规定了开源人工智能开发者的法律责任减免。

根据《示范法2.0》的规定,“以免费且开源的方式提供人工智能研发所需的部分代码模块,同时以清晰的方式公开说明其功能及安全风险的,不承担法律责任。免费且开源提供人工智能的个人、组织能够证明已经建立符合国家标准的人工智能合规治理体系,并采取相应安全治理措施的,可以减轻或免于承担法律责任。”这意味着法学界在利用人工智能法律规范促进发展的问题上,态度鲜明地支持人工智能开发者采用开源的发展模式,并通过专门的减免责条款设计等措施,鼓励人工智能研发的技术公开和共享。

在往期的专栏中,飒姐团队一直强调“公共”和“开源”是AGI的核心价值。随着人工智能逐渐开始赋能各领域生产力的发展,唯有通过规范的设计,对其基于知识产权的“私益”与基于全人类技术发展的“公益”予以平衡,才能够真正实现“共赢”,促进AGI领域良性发展。

01 大模型的开源与闭源之争

在AI大模型研发领域,“开源”与“闭源”两派的争论由来已久。二者最近的一次激烈交锋,即2024年3月初的马斯克诉OpenAI案,标志着双方的矛盾已经由单纯的技术竞争扩展到了反垄断等法律与合规领域。作为闭源大模型开发者的代表,在马斯克的指控中,OpenAI在接受了微软的注资之后,已经在事实上成为了微软控制下的闭源子公司,令其所开发的GPT-4等系列产品成为了微软攫取巨额商业利润的工具。为了实现盈利目标,OpenAI已逐渐背离了最初对于公共开源人工通用智能(AGI)的承诺,并开始在相关领域中构建科技霸权。虽然马斯克的上述指控直到目前为止都没有充分的证据支持,且基于其长期以来的“网红人设”,提起诉讼似乎也只是其为了自家XAI公司新开发的开源大模型进行营销的手段。但从这一诉讼产生的影响中亦不难看出,新兴开源大模型的开发者与长期在业界占据领导地位的“不那么Open”的OpenAI之间,确实已存在利益与开发理念上的诸多冲突。

双方冲突的存在一方面是由于OpenAI确实靠闭源大模型的开发获得了名利双收的成果。虽然在其2015年初创之时,OpenAI确实是以“确保通用人工智能造福全人类”为自身的核心使命,并试图构建一家与传统科技公司不同的非盈利性机构;但其真正在ChatGPT的开发上实现破圈却是建立在微软不断向其抛去橄榄枝的基础之上。根据公开资料显示,OpenAI成立至今,微软共向其投资130亿美元,并掌握了OpenAI营利业务部份49%的股权。可见,马克思的指控也并非空穴来风,OpenAI如今在AI大模型开放领域取得的成就与其背离初衷,坚持为微软进行闭源产品开发的事实之间确实难以分割。

而另一方面,该冲突的存在则是由于GPT-4确实至今在业界仍旧占据着技术上的引领地位。在AI大模型研发的竞争于世界范围内愈演愈烈的背景下,包括XAI的3140亿大模型Grok-1与Meta公司于前日发布的4000亿大模型Llama 3都作为开源大模型的代表,在各自的优势领域上对GPT-4提出了挑战。但挑战者始终是挑战者,作为闭源大模型“唯一王者”的GPT-4 turbo依旧在语言类大模型领域中占据着绝对的领导地位。作为放弃了商业导向,以公益性的数据获取和研发作为首要目标的开源大模型开发者,让其看着闭源开发者赚得盆满钵满的同时在技术上仍保持行业领先,心中属实不是滋味。

02 制度对开源与闭源矛盾的平衡

于是,在技术和经济性层面尚且不能解决开源大模型开发者与闭源大模型开发者间矛盾的情况下,法律制度层面率先提出了这一问题的解决方案。本次《示范法2.0》中对开源人工智能开发者法律责任的减免所进行的规定,在很大程度上向世界分享了具有我国特色的人工智能治理思路。

首先,从《示范法2.0》第七十一条的规定中可以看出,所谓“开源人工智能的开发者”即针对以“免费且开源的方式提供人工智能”的主体,这一定义直接排除了盈利性的人工智能开发者。而对于非盈利的开源人工智能开发者实际上又通过第七十一条的两款规定分为了两类,即“同时以清晰的方式公开说明其功能及安全风险的”和“能够证明已经建立符合国家标准的人工智能合规治理体系,并采取相应安全治理措施的”,前者直接不承担法律责任,后者则可以对法律责任酌情进行减免。这一思路,某种意义上是对民事法律“谁获益谁担责”原则的体现,对于没有利用开发的人工智能产品获得利益,且已经对自研产品的风险充分完成了合规工作的主体,法律应当予以鼓励,故视其合规程度的不同,对其予以不同程度的责任减免。

其次,《示范法2.0》并没有明确列举减免法律责任的类型,而是直接采用了“不承担法律责任”与“减轻或免于承担法律责任”的表述。这意味着对于非盈利的开源人工智能开发者,在其完成了自身合规构建的前提下,对其法律责任的减免范围是非常宽泛的。采用这种方式的规定,既是对开源人工智能开发者个人利益与其为科研领域公益做出贡献之间的平衡,也是鼓励其加强自身合规构建,在技术研发过程中充分考虑可能存在的风险,并就安全风险等对社会进行公开说明。

03 技术开源与AGI的未来生态

实际上,虽然闭源大模型能够通过对知识产权的保护吸引更多的研发投入,并利用这一优势进一步稳固其在行业中的领先地位,但开源大模型本身亦具有许多闭源开发者所必须割舍的有利条件。如开源的开发模式依靠社区构建驱动创新,其允许全球范围内对领域感兴趣的开发者共同参与开发,在模型训练和数据获取上本身即更为高效。再如对代码进行开源可以很大程度提高程序的灵活性和可定制性,并使大模型具有更高的可审计性,通过社区成员对源代码和参数的不断审查,能够更好地降低AI的安全风险,提高大模型的合规程度。此外,闭源开发的代码始终具有反垄断审查的风险,相关开发者往往难以解释其无意通过技术垄断,达到限制市场的公平竞争的目的。因此,在未来,采用开源形式的开发者在法律风险规避、自身合规构建等方面是具有相当程度的优势的。

04 写在最后

实际上,从当前AGI领域发展的角度上,单纯讨论利益的平衡,对于智力成果“私益”的保护某种程度上是应当向人类技术未来的“公益”作出适当让步的。当然,这种“让步”并非是损害开发者因智力成果而享有的相关权益,而是通过《示范法2.0》中提到的此类方式,通过权利与责任的平衡,促进人工智能开发者能够更加理性地选择适合自己的赛道,无论开源或是闭源,最终目标都是促进AGI行业发展,推动全球科技创新和经济增长。

[Source]

本文系未央网专栏作者发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意。

本文为作者授权未央网发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意。

本文版权归原作者所有,如有侵权,请联系删除。首图来自图虫创意。

评论


猜你喜欢

扫描二维码或搜索微信号“iweiyangx”
关注未央网官方微信公众号,获取互联网金融领域前沿资讯。