清华大学金融科技研究院孵化
金融科技与金融创新全媒体

扫描分享

本文共字,预计阅读时间

2023年2月6日,anch.AI创始人Anna Felländer在欧盟人工智能联盟( European AI Alliance)官网发表文章,针对生成式人工智能监管问题展开讨论。

Anna Felländer是瑞典研究数字化对组织、社会和经济影响的著名专家之一,此前还曾任职于瑞典政府财务部、总理办公室、瑞典银行、瑞典皇家理工学院,因此她在这篇文章中的见解或许在某种程度上也代表了欧盟在生成式人工智能监管方面的一些思路方向。

全文如下:

最近,人工智能解决方案ChatGPT引发市场关注热潮,同时也以一种全新的方式向我们提出了挑战。

伴随着这些生成式人工智能系统创造的机会,我们也走到了一个重要的十字路口:究竟是人工智能控制人类,还是人类控制人工智能?

瑞典企业和瑞典当局需要确保人工智能应用符合伦理道德规范,但最重要的是以相关风险评估框架为支持,根据我们的价值观指导人工智能解决方案的开发。此外,欧盟即将推出有关负责任人工智能的相关立法。因此,当务之急是由政府设立一个伦理人工智能的负责机构。

ChatGPT和其他生成式人工智能系统带来了人们期待许久的人工智能民主化,让更多的人可以参与进来,根据历史数据的算法创造新的内容。与此同时,这项创新还降低了各个组织实现技术价值的门槛。新的创新商业模式也陆续出现。

与此同时,那些不受监管的人工智能解决方案,也可能会给个人和社会带来意想不到的道德和法律违规挑战。原因之一在于,人工智能模型学习是以历史数据为基础的,其中难免存在偏见数据,进而导致社会排斥和歧视问题

例如,当我们允许在特定情景中使用个人数据时,我们可能不会意识到当这些数据与其他数据相结合时,算法可能会产生侵犯隐私的见解。这对于公司和政府来说都将产生高昂的代价,比如导致投资撤回和声誉受损。例如在2021年,人工智能解决方案错误地将部分领取育儿津贴的家庭归类为潜在诈骗犯,这一丑闻导致时任荷兰内阁辞职。而另外一款基于OpenAI的GPT-3医疗聊天机器人在进行测试时,竟然对患者给出了自杀的建议。

与其他人工智能解决方案相比,生成式人工智能系统具有更高的道德风险暴露。一个原因在于,生成性人工智能系统的应用通常通过API进行,导致解决方案的透明度不高,并且对其发展难以控制。与此同时,道德和法律违规的发生微妙而突然,小到无法察觉,但却有着指数级损害的风险。

例如,深度造假就是其中之一,比如用来操纵视频或照片中的人脸和声音。事实上,生成式人工智能模型通常以API的形式提供,这使得用户更容易访问和使用该技术,这可能增加滥用的风险。

基于API的生成式人工智能模型本身并没有风险,但它们的使用方式和训练数据可能会使它们产生风险。

欧盟《人工智能法案》(AI Act)将于2024年生效。目标是让公民和消费者感受到信任,维护欧盟的价值基础。

欧盟委员会在《人工智能法案》中提议,成员国必须任命或建立至少一个监督机构,负责确保“必要的程序得到遵守”。鉴于生成式人工智能系统的巨大潜力,尤其是在医疗保健领域,例如,为了正确诊断和优化疾病的治疗,确立可用的风险评估框架并任命负责的权威机构至关重要。

人工智能伦理框架在所有领域创造了一个高度创新的环境。因此,当务之急是任命负责机构,并提供风险评估框架,以便瑞典企业和瑞典当局不会像对待GDPR那样缺乏警惕性。

[Source]

本文系未央网专栏作者发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意

本文为作者授权未央网发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意

本文版权归原作者所有,如有侵权,请联系删除。首图来自图虫创意

评论


猜你喜欢

扫描二维码或搜索微信号“iweiyangx”
关注未央网官方微信公众号,获取互联网金融领域前沿资讯。