订阅
纠错
加入自媒体

欧盟出台AI道德准则草案

2018-12-21 10:13
物网智库
关注

欧盟委员会(EC)任命的人工智能高级专家小组(AI HLEG)发布了AI开发和使用的道德草案—可信赖AI的道德准则草案,内容长达37页,提出可信赖AI应具备两大要素,以及AI不可为的基本原则。

可信赖AI的两大要素

AI无疑是这个时代最具变革性的力量之一,必将改变社会结构,我们必须确保最大化 AI 的优势,同时降低风险,因此需要以人为本的人工智能方法,AI 的开发和使用不应被视为一种手段,应视为增加人类福祉的目标。“可信赖的AI”才能成为人类的北极星。

欧盟AI道德准则草案指出,可信赖的AI有两个组成要素:一、应尊重基本权利,适用法规、核心原则和价值观,以确保“道德目的”,二、兼具技术鲁棒性和可靠性,因为即使有良好的意图,缺乏技术掌握也会造成无意的伤害。另外,AI技术必须足够稳健及强大,以对抗攻击,以及如果AI出现问题,应该要有“应急计划”。

另外,可信赖 AI 的不可为,包括不应以任何方式伤害人类;人们不应该被 AI 驱动的机器征服或强迫; AI应该公平使用,不得歧视或诬蔑;AI应透明地运作,也就是说,人类需要知道 AI 正在开发的目的,以及如何使用它;AI应该只为个人和整个社会的福祉而发展。

草案也提出了框架,第一章阐述AI必须遵守的基本权利和价值观,以确保 AI 符合道德目的。第二章则是实现可信赖 AI 的指导方针,同时兼顾道德目的和技术稳健性,并列出可信赖 AI 的要求,包括技术和非技术方法。第三章则提供了具体但非穷举的可信赖 AI 评估表。

AI的道德监管进入新高度

近年来AI技术在多个应用领域展示了良好的进展及高效率,但同时也浮现不少问题,包括使用有歧视的数据就会训练出歧视人的AI模型,侵犯某些群体的权益,以及广泛的面部识别技术与民众隐私的矛盾,更让世人震惊的莫过于利用AI发展出智能武器,很可能在未经人类下达命令的情况下就发动攻击,这些AI不受控的问题,让许多科学家、企业、政府感到忧心,过去对于应该制定AI规范的意见,多来自科研及行业界的呼吁。

而欧盟在 2018 年 5 月正式让通用数据保护条例(GDPR)上路,提高个人数据使用的公平性和透明度,防止企业滥用或忽略用户数据的保护,此次欧盟又正式提出了AI道德准则,象征AI的公平性、透明、道德性的规范正式进入一个更高的治理层次。

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号