订阅
纠错
加入自媒体

提高人工智能道德水平的9个步骤

2019-05-29 10:32
来源: 企业网

5.清理数据

机器学习系统的行业与它们所依赖的数据一样好。对于许多组织而言,数据质量仍然是一个主要问题。在最坏的情况下,糟糕的数据可能导致组织做出不准确甚至道德上受到损害的决策。

另一方面,拥有准确、最新的数据会增加人工智能应用程序产生积极经济利益的可能性。Information Builders数据管理卓越中心的国际主管James Cotton在一次采访中表示,“当分析应用于管理良好的数据时,其回报要大得多。可以清楚地了解组织拥有什么,来自何处以及如何使用它会带来更大的回报。“

6.检查模型是否存在偏差迹象

数据科学家不仅需要确保他们的数据是干净的,而且他们还需要确保他们的数据和数据模型不包含任何偏差。这个问题可能会以几种不同的方式无意中进入到机器学习模型中。

首先,组织可能有不完整的训练数据。例如,如果企业只使用欧洲面孔训练其面部识别系统,那么当系统难以识别非洲或亚洲面孔时,人们不应对此感到惊讶。

其次,许多数据集包括历史偏差。例如,一些职业(例如护理或工程)在传统上一直是由性别主导的。如果组织根据这些历史数据训练基于人工智能的人力资源系统选择面试候选人,可能会意外地出现偏见,甚至可能触犯反歧视法规。

7.监控调查结果和反馈

而数据科学家通常表示,没有数据模型是完美的。他们所能期望最好的情况就是随着时间的推移而改进。这意味着人类需要监控系统来寻找潜在的道德问题。许多已发布人工智能指南的组织表示,所有人工智能技术都需要对人类负责。但一些人却表示,只是问责是不够的;人类监管者需要积极跟踪人工智能的行为和与人类的互动,并在必要时作出调整,以确保人工智能技术不会跨越任何道德界限。

8.确保可以撤消人工智能所做的任何决定

在相关的说明中,组织需要能够撤消人工智能所做出的任何决定。Forrester公司建议,组织开发的人工智能系统从根本上需要是健全的、可评估的、包容、可逆的,这意味需要设计可更改的人工智能系统,而且可能还需要为信贷决策等事项设立人工智能上诉委员会。

AI Now研究所进一步指出,“技术工作者的组织和抵制已经成为一种责任和道德决策的力量。技术公司需要保护工人的组织能力、揭发信息的能力,并在他们从事的项目上做出道德选择。这应包括明确的政策,以适应和保护有责任心的反对者,确保工作人员有权知道他们在做什么,并有能力在没有报复或惩罚的情况下放弃此类工作。”

9.成立人工智能道德咨询委员会

包括谷歌公司在内的多家科技公司已成立人工智能道德咨询委员会,以帮助指导他们使用人工智能。虽然让一群局外人监督组织的人工智能工作可能有助于建立公众信任,但也可能适得其反。一些组织因任命人工智能道德委员会成员而受到批评,有些人对此表示反对。

虽然成立人工智能道德委员会可能存在一些问题,但在缺乏监管法规或行业标准的情况下,它们可能是组织说服公众的最佳机会,即通过没有既得利益的人员监督人工智能的发展。

<上一页  1  2  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

人工智能 猎头职位 更多
扫码关注公众号
OFweek人工智能网
获取更多精彩内容
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号