清华大学金融科技研究院孵化
金融科技与金融创新全媒体

扫描分享

本文共字,预计阅读时间

欧盟监管机构正准备对人工智能(AI)在犯罪预测、信用评估、员工绩效管理、边境控制系统等领域的使用建立更严格的规则,以减少AI决策所带来的不良后果及风险。4月21日,欧盟委员会提出关于人工智能的新立法草案。文件提出,人工智能系统需要满足特定的"透明义务",使人类可以审查人工智能所做出的决策,以确定该决策的制定过程及所使用的数据。这就是AI开发人员所说的基于"白盒"原则的"可解释性",与决策过程难以理解且不透明的AI"黑箱"刚好相反。

该草案对于使用AI模型的在线零售商和支付提供商将带来三方面的影响:1)更多的审查;2)更高的透明度标准;3)终端用户对产品更加了解,并要求将透明度和可解释性纳入AI解决方案中。这些影响都是积极的,有助于人们更好地理解AI技术并建立对其更多的信任。

更高的透明度有助于信任建立

对于那些已按照"白盒"原则运营的公司来说,这是一个与合作伙伴和客户就如何做出重要决策(如批准或拒绝交易)以及决策过程中需考虑哪些因素进行交流的机会。每个人都应该有权决定在何时何地以何种方式购买他们所需的物品,任何阻碍这种情况发生的技术都应受到审查。

AI风险评估的工作原理

分析师和客户都需了解AI系统为什么拒绝或批准交易,以及哪些信息会影响AI的评估得分。在风险评估过程中,先进的AI系统会查看超过2500多个指标和行为标识来生成分值,故了解并追溯这些指标至关重要。根据AI风险评分,可以确定哪些因素使交易更可能具有欺诈性。例如,可以通过追踪电子邮件地址、送货地址和付款方式等信息,以此寻找交易过程中可能存在的信息不匹配。AI系统的可解释性与透明度也将帮助商家了解系统在客户识别过程中产生误判的原因,以及提升AI决策准确度的数据点。

推行"可解释"的AI势在必行

关于这一趋势的发展只是时间问题。AI系统决策的道德风险和不良后果已广为人知,而近期发生的几个相关事件也给监管机构带来了压力。例如在美国,有事实证明有色人种的面部识别准确率较低。尽管这些算法的平均分类准确率很高(超过90%),但在女性和黑人受试者群体中却始终有着最低的准确率。这源于以白人男性为主的开发人员未充分考虑对肤色较深的群组进行测试,或在数据训练中对这部分群组的学习代表性不足。在AI技术应用更加广泛的背景下,不仅是客户,政府和监管机构也将对AI应用的透明度提出更高的要求。

[Source]

本文系未央网专栏作者发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意。

本文为作者授权未央网发表,属作者个人观点,不代表网站观点,未经许可严禁转载,违者必究!首图来自图虫创意。

本文版权归原作者所有,如有侵权,请联系删除。首图来自图虫创意。

评论


猜你喜欢

扫描二维码或搜索微信号“iweiyangx”
关注未央网官方微信公众号,获取互联网金融领域前沿资讯。