扫描分享
本文共字,预计阅读时间。
随着人工智能(AI)技术飞速发展,我们正迈向一个由超级智能(Superintelligence)定义的新时代。这不仅是技术革命,更是深刻的社会经济转型。如何确保这场变革惠及所有人,而非加剧不平等或带来不可控风险?OpenAI近期发布了一份题为《智能时代的工业政策:以人为本的理念》的纲领性文件,旨在开启一场关于未来治理的全球对话。本文将梳理其核心思想,探讨我们该如何构建一个开放、繁荣且富有韧性的智能社会。
一、 时代的挑战与承诺:超级智能的双刃剑
AI的发展轨迹令人瞩目,正从执行特定任务迈向能够完成人类需数小时工作的通用模型,并开始向超越人类智能的超级智能过渡。这种转变潜力巨大:可加速科学医学突破、显著提升生产力、降低生活成本,并催生全新的工作与创造形式。
然而,机遇总伴随着风险。文件清醒地指出,AI可能颠覆就业与行业、被恶意滥用、出现与人类意图不符的行为、侵蚀民主价值观,并导致权力与财富进一步集中。历史表明,重大技术转型(如电气化、内燃机普及)虽最终创造了更多繁荣,但也曾伴随剧痛,需要前瞻性的政治选择和社会契约重塑,才能确保增长转化为广泛的机会与安全。
因此,智能时代的工业政策必须更具雄心,其核心目标应聚焦三点:广泛共享繁荣、有效降低风险、实现普惠与赋权。目标是打造一个超级智能真正造福人人的未来。
二、 构建开放经济:确保增长红利惠及全民
面对可能加剧的不平等,政策需要积极塑造一个易于参与、机会均等的经济生态。文件提出了一系列初步构想:
倾听劳动者声音: 让劳动者在AI部署中有正式发言权,确保AI用于提升工作质量、安全性和劳动权益,而非加剧工作强度或损害公平。
赋能“AI优先”创业者: 通过微赠款、基于收入的融资及“一站式创业”支持(如标准合同、共享后台服务),帮助劳动者利用其专业知识创办新企业,降低创业门槛。
确立“AI使用权”: 将获得基础AI模型视为参与现代经济的基础,类似普及识字率和互联网。确保工人、小企业、学校、图书馆和弱势社区能负担得起、可靠地使用驱动生产力和机会的AI能力。
现代化税收基础: 适应AI可能改变经济活动构成(如资本收益增加、劳动收入占比变化)的趋势,调整税基,探索与自动化劳动相关的税收新方法,同时通过工资挂钩的激励措施鼓励企业保留和再培训员工,以保障社会保障等核心项目的资金可持续性。
设立公共财富基金: 创建一个使每位公民都能直接分享AI驱动经济增长成果的基金。通过投资于AI公司及广泛采用AI的企业,其收益可直接分配给公民,让更多人无论初始财富如何都能共享增长红利。
加速电网扩建: 通过新型公私合作模式,融资并加速建设为AI提供动力的能源基础设施,同时确保家庭和企业能享有更低的能源成本。
共享效率红利: 当AI降低常规工作负荷和运营成本时,将效率增益转化为员工福利的持久改善,例如鼓励企业提高退休金匹配、承担更多医疗费用、补贴托育养老,或试点在不减薪的前提下缩短每周工时。
构建适应性安全网: 首先确保失业救济、食品补助、医疗保健等现有安全网高效可靠。进而建立实时监测AI对就业、工资、行业影响的系统,并设定当干扰超过阈值时自动触发的临时性扩展安全网(如更灵活的失业福利、快速现金援助、工资保险、培训券),做到援助有针对性、有时限、与干扰规模成比例。
推广便携式福利: 逐步建立与单一雇主脱钩的福利体系,通过个人便携账户,使医疗保健、退休储蓄和技能培训支持能够跟随个人跨越不同工作、行业和教育阶段。
拓展人本关怀工作路径: 将育儿、养老、教育、医疗、社区服务等需要人际连接的领域,作为吸纳受AI影响劳动者的重要途径,并通过投资培训、提高工资和改善工作条件来增强这些领域的吸引力。
加速科学发现与成果转化: 建设分布式AI赋能实验室网络,大幅提升验证AI生成假设的能力。同时投资于将已验证发现规模化应用于现实世界所需的基础设施和人才培养,确保突破惠及更广泛的机构和地区。
三、 建设韧性社会:管理风险,确保安全与可控
随着AI能力增强并深度融入经济,在带来丰饶的同时也可能引入新的脆弱性。构建韧性社会意味着确保人与机构能够快速适应,保持对系统使用的实质主导权,并在经济社会结构演变中维护共享繁荣。
针对新兴风险的安全系统: 研发保护模型、检测风险、防止滥用的工具,特别是在网络和生物等高后果领域。利用先进AI进行威胁建模、红队测试等,以早期识别新风险。通过采购、标准、保险框架等创造持续需求,催化竞争性安全市场,使防御能力与风险同步升级。
构建“AI信任栈”: 研发帮助人们信任和验证AI系统及其产出、行动的系统。推进来源与验证标准和工具的开发,在保护隐私的同时建立信任,例如实现可验证的内容生成签名,开发支持调查与问责但非大规模监控的审计系统。
强化审计机制: 加强相关机构(如文中假设的CAISI)以制定前沿AI风险审计标准,并利用政府采购等工具培育有竞争力的审计评估市场。对于少数可能实质性推进生化、核、网络风险的最先进模型,实施部署前后的严格审计要求,同时对其他系统保持开放生态。
制定模型遏制预案: 针对危险AI系统已被释放(如模型权重公开、系统自主复制)且难以召回的情况,借鉴网络安全和公共卫生经验,开发并测试协调遏制行动预案,以限制危害扩散。
使命对齐的公司治理: 前沿AI公司应采用嵌入公共利益问责的治理结构(如公益公司),并做出广泛分享AI利益的明确承诺。同时,通过保护模型权重、审计模型行为、监控高风险部署等方式,防止公司或内部人滥用系统以集中权力。
设定政府使用护栏: 政策制定者应为政府使用AI设立明确规则,尤其在可靠性、对齐性和安全性方面设定高标准,并通过技术保障强化。同时,利用AI增强民主问责,例如使AI辅助的政府决策留下更清晰的数字记录以供监督,并现代化透明度框架以便公民审查。
建立公众意见征询机制: 创建结构化渠道让公众参与AI对齐的定义与评估,确保其不只由工程师或高管闭门决定。开发者应公布模型行为规范与评估信息,政府则应帮助将这些标准锚定于民主法律和价值观,并建立吸纳公众意见的机制。
完善事件报告制度: 建立公司向指定公共机构报告事件、滥用和未遂事件的机制,侧重学习与预防。报告可包括模型表现出令人担忧的内部推理、意外能力等预警信号,以便生态系统在真正事故发生前吸取教训。
加强国际信息共享: 以国家评估机构为基础,发展全球AI研究所网络,就能力、风险、缓解措施进行协作。逐步建立类似其他安全与标准多边机构的国际框架,为可信公共机构提供对前沿AI发展的可见性,并创建安全的跨实验室、跨国信息共享渠道,特别是在危机期间。
结语:开启对话,共塑未来
OpenAI强调,这些想法并非最终答案,而是开启广泛对话的起点。这场关于如何确保AI造福所有人的对话,需要政府、企业、研究者、公民社会、社区和家庭的持续参与,并通过赋予人们实权的民主进程来推进。对话也必须走向全球,吸纳世界各地的文化与视角。
迈向超级智能的过渡已在进行中,我们在近期做出的选择将影响未来数十年的利益与风险分配。现在是时候大胆思考、探索新理念,并携手制定一个确保超级智能惠及全人类的新工业政策议程了。
(本文由DeepSeek根据OpenAI报告《Industrial Policy for the Intelligence Age: Ideas to Keep People First》编译总结,内容有删节与整合。)
非常感谢您的报名,请您扫描下方二维码进入沙龙分享群。
非常感谢您的报名,请您点击下方链接保存课件。
点击下载金融科技大讲堂课件本文系未央网专栏作者发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意。
本文为作者授权未央网发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意。
本文版权归原作者所有,如有侵权,请联系删除。首图来自图虫创意。
京公网安备 11010802035947号