订阅
纠错
加入自媒体

人工智能需要重置

2018-10-30 11:28
来源: 企业网

人工智能的主要障碍:心态、文化和遗产

传统系统转型是当今许多组织实施人工智能的最大障碍。心态和文化是这些传统系统的组成部分,它们提供了对已建立的流程、价值观和业务规则的系统观点,这些规则不仅包括组织的运作方式,还包括为什么这些根深蒂固的元素会给业务带来重大障碍的原因,尤其是在目前很好的情况下。因此,很多企业目前没有动力去放弃基础设施。

人工智能是业务转型的一个组成部分,虽然这个主题与人工智能炒作一样得到了一些人的质疑,但实现重大变革所需的投资和承诺却犹豫不决。有一些愿意尝试特定用例的公司,但却没有准备好培训、重新设计流程和改进治理和企业政策的要求。对于被迫进行这些重大投资的大型组织而言,问题不应该是投资回报,而是可持续的竞争优势。

数据完整性的问题

人工智能如今需要大量数据才能产生有意义的结果,但却无法利用其他应用程序的体验。虽然Karen认为行业厂商正在进行的工作是为了克服这些限制,但在以可扩展的方式应用模型之前,需要转移学习。然而,有些场景可以有效地使用人工智能,例如透露图像、语音、视频和翻译语言的见解。

企业正在学习的重点应放在:

(1)数据的多样性,包括跨群体的适当表现。

(2)确保创建算法的多样化体验、观点和思考。

(3)优先考虑数据的质量而不是数量

Karen c承认这些都是重要的,特别是随着偏见的引入以及对数据的信任的降低。例如,土耳其语是一种性别中立的语言,但谷歌翻译中的人工智能模型在转译成英语时错误地预测了性别。同样在癌症诊疗中,人们发现人工智能图像识别只在皮肤白皙的人身上进行训练。从其计算机视觉示例中,Joy Buolamwini测试了这些人工智能技术,并意识到它们在男性与女性之间以及在肤色较浅与较深的皮肤有效工作的差别。“男性的错误率低至1%,黑人女性的错误率高达35%。”由于未能使用不同的训练数据,因此出现了这些问题。

人工智能的概念很简单,但是通过摄取越来越多的真实世界数据,算法变得更加智能,然而能够解释决策变得极其困难。数据可能是不断变化的,人工智能模型需要过滤器来防止错误的标记,例如一个黑人被标记为大猩猩或者将熊猫标记为长臂猿的图像。依靠错误数据做出决策的企业会导致不明智的结果。

幸运的是,鉴于人工智能的初衷,很少有组织正在根据当今的数据做出重大的业务决策。从人们看到的情况来看,大多数解决方案主要是产品推荐和个性化营销传播。由此产生的任何错误结论都会产生较少的社会影响,至少目前如此。

使用数据做出业务决策并不新鲜,但改变的是使用的结构化和非结构化数据的数量和组合的指数级增长。人工智能使人们能够持续使用来自其来源的数据,并更快地获得洞察力。对于具有处理来自不同来源的数据量的能力和结构的企业来说,这是一个机会。但是,对于其他组织而言,大量数据可能代表风险,因为不同的来源和格式使得信息转换变得更加困难:电子邮件、系统日志、网页、客户成绩单、文档、幻灯片、非正式聊天、社交网络,以及爆炸性的富媒体(如图像和视频)。数据转换仍然是开发清洁数据集的绊脚石,因此也是有效的模型。

偏见比人们意识到的更为普遍

许多商业模式中存在偏差,需要最大程度地降低风险评估,优化目标机会,虽然它们可能产生有利可图的业务成果,但它们也可能会导致意外后果,从而加大经济差异。保险公司可以使用位置信息或信用评分数据向客户收取不同的保险费用。银行可能会拒绝信用评分较低的潜在客户,他们已经债务缠身,但可能无力承担较高的贷款利率。

由于采用人工智能不仅会使现有的偏见持续下去,而且会导致经济和社会鸿沟的加深,因此对偏见的警惕性越来越高。偏见在当前算法中呈现,以确定再犯的可能性。由一家名为Northpointe的机构创建的修正罪犯的管理分析替代性制裁(COMPAS)。COMPAS的目标是评估庭审听证会中被告的犯罪风险和预测。在最初的COMPAS研究中使用的问题类型揭示了人类偏见,即该制度延续了对待黑人的建议,他们可能会继续犯罪,因此对他们采用的法律比白人被告更加严厉,而白人继续重新犯罪在量刑时将被宽大处理。由于没有公共标准,Northpointe公司创建自己的公平定义,并开发一种没有第三方评估的算法。

如果这个软件仅仅像未受过训练的人在线调查那样精确,那么人们认为法院在作出判决时应该考虑是否公平。虽然人们尝试修复现有系统以最大限度地减少这种偏差,但模型对不同数据集进行训练以防止未来的危害至关重要。

鉴于潜在的商业和社会模型存在潜在风险,企业没有治理机制来监督不公平或不道德的决策,这些决定将无意中影响最终消费者。这是在道德规范下进行讨论的。

日益增长的隐私需求

Karen与强大的研究和数据团队合作,这些团队能够在整个平台上对用户的行为进行情境化,不断研究用户行为,并了解他们在音乐、主页、生活方式、新闻等众多属性中的倾向。而并没有严格的数据使用标准或规定。隐私被降级为平台条款和条件的用户被动协议。

最近的剑桥分析公司和Facebook公司的数据泄露丑闻使个人数据隐私得到了更多人的关注。Equifax公司等主要信贷机构频繁发生数据泄露事件。因此,数据所有权、同意和错误的情境化问题使得其成为一个重要的主题,因为人工智能将继续解决其问题。欧洲通用数据保护条例(GDPR)于2018年5月25日生效,将改变组织的游戏规则,特别是那些收集、存储和分析个人用户信息的组织。它将改变多年来经营业务的规则。个人信息的无节制使用已经达到了顶峰,因为企业现在将认识到在数据使用上存在重大限制。更重要的是,所有权将受到严重限制。

人们看到这对广告推广的影响。规模高达750亿美元的广告行业预计将在2018~2021年以21%的复合年增长率增长,但仍然面临Facebook公司和谷歌公司等行业寡头垄断的阻碍。如今实施的GDPR法规让这些广告科技公司面临更重大的风险与责任:其利害关系足够大,以至于广告商必须非常高度自信,因为对用户所告知的实际上是合规的。对于最终构成违规的行为似乎有足够的普遍混淆,人们正在采取广泛的方法,直到可以准确了解合规性是什么。

虽然法规的监管最终会削弱收入,但至少在目前,移动和广告平台行业也面临着越来越严格的审查,因为他们多年来一直将消费者作为实现货币化的主题。这与对既定实践的审查相结合,将迫使行业转变其在收集、汇总、分析和共享用户信息方面的做法。

实现隐私需要时间、重大投资(需要更多关注的话题),以及影响组织政策、流程和文化的思维方式的变化。

人工智能与伦理学的必然耦合

人工智能的主要因素确保了社会效益,包括简化流程、增加便利性、改进产品和服务,以及通过自动化检测潜在危害。放弃后者意味着可以根据更新的制造流程、服务和评估解决方案、生产以及产品质量来轻松地测量输入/输出。

Tech Cos面对AICB Insights的道德规范

除了个人隐私问题之外,如今人们看到了一些创新的例子,这些创新与不合情理的边界相悖。如前所述,谷歌公司决定向美国国防部提供人工智能技术以分析无人机拍摄的内容,其目的是在一个名为“Maven计划”的项目中创建一个复杂的系统来监视城市各个角落。一些员工离职以抗议谷歌公司的决定。

决策者和监管机构需要灌输新的流程和政策,以正确评估人工智能技术的使用方式、用于什么目的,以及流程中是否存在意外后果。 Karen指出了在确定人工智能算法中数据使用时需要考虑的新问题:

那么人们如何检测敏感数据字段并对其进行匿名处理,并同时保留数据集的重要功能?人们能否在短期内培训合成数据作为替代方案?在创建算法时,人们需要问自己:需要哪些数据来提供想要的结果?此外,人们应该创建哪些参数来定义模型中的“公平性”,这意味着处理方式有何不同?如果是这样,为什么?人们如何在系统中持续监控这一点?

人工智能的冬季可能是为人工智能做好准备的机会

人工智能技术已经走过了漫长的道路,但仍需要更多时间才能发展成熟。在日益增加的自动化和有意识地提高认知计算能力的世界中,即将到来的人工智能的冬天为企业提供了必要的时间来确定人工智能如何适应他们的组织以及想要解决的问题。人工智能即将出现的损失需要在政策、治理及其对个人和社会的影响中加以解决。

人工智能技术在下一次工业革命中的影响要大得多,因为其普遍性将在人们的生活中变得更加微妙。行业专家Geoff Hinton、Fei Fei Lee和Andrew Ng对人工智能的观点呼吁人工智能重置,因为深度学习尚未证明可扩展。人工智能技术所做出的承诺并没有减弱,而是对其实际到来的期望被推迟了,可能是5到10年。人们有时间在深度学习、其他人工智能方法以及有效地从数据中提取价值的过程中解决这些问题。商业准备、监管、教育和研究的高潮是实现业务和消费者加速发展的必要条件,并确保建立适当限制技术的监管体系。

<上一页  1  2  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

人工智能 猎头职位 更多
扫码关注公众号
OFweek人工智能网
获取更多精彩内容
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号