订阅
纠错
加入自媒体

人工智能发展的不可回避的十大痛点

从1956年的达特茅斯会议开始,标志人工智能技术正式诞生。人工智能经过三起三落,如今又一次的进入到了公众的视野。2016和2017年两年人工智能炒得很火,尤其是AlphaGo相继击败了李世石和柯洁。在围棋界,AlphaGo可以说是横行无忌,无人能敌。

从AlphaGo开始,人工智能走入大众的视野。媒体竞相报道,将人工智能的热度炒到非常高的高度。如今人工智能虽然还是很热,但是热度已经被区块链夺了走。但是无论是世界上有能力的各个国家,还是国际上的有实力的科技巨头,都在布局人工智能领域,例如谷歌收购了与人工智能相关的十几家公司,其中就包括被谷歌收购了的研发了AlphaGo的DeepMind公司。

无疑,人工智能未来必然是我们发展的方向,那么在人工智能发展的过程中有哪些痛点需要解决呢?Innov100平台分析认为有以下10个痛点。

1.人才稀缺

人工智能在人才方面极度稀缺。据领英数据显示,全球在人工领域的人才不足25万人,其中在美国的人才最多。其余主要分布在欧洲,印度,中国,加拿大等。其中有10年以上工作经验的不足30%。所以那个国家,企业想在人工智能领域做出成绩,首先就是人才的争夺。如最近中兴被美国制裁,引起对“国芯“的发问,首先出现的问题就是人才稀缺,人才的优秀程度,人才的聚集程度,决定了一个企业走向欣荣还是衰败。

2.道德价值观判定

当人工智能遇到伤害事件发生的时候应该如何抉择。

例如无人驾驶如今也在如火如荼的发展。人工智能很有可能将首先应用到无人驾驶领域。但是在无人驾驶领域有时候会出现这样的情况,当无人驾驶汽车行走在道路上,正前方忽然冲出来一个人,左右两边也正好有人,无论车辆如何操作都无法避免的会造成伤害,那么这个时候人工智能该如何抉择。

在计算机的世界,是一个概率的世界,如果正前方是老人,左右是小孩的话,是不是会分析小孩比老人更有价值,然后完成所有的最优解。但是这很明显是违背道德常识的。

3.莫拉维克悖论

人工智能,简单理解就是像人类一样的智能。那么人工智能所遵循的逻辑或者方法应该是类人类的才对。可是实际上人工智能与人类智能完全不同。

莫拉维克悖论(Moravec'sparadox) 是由人工智能和机器人学者所发现的一个和常识相佐的现象。和传统假设不同,计算机完成人类所独有的高阶智慧能力只需要非常少的计算能力,例如推理。但是完成无意识的技能和直觉却需要极大的运算能力。这个理念是由汉斯·莫拉维克、布鲁克斯(Rodney Brooks)、马文·闵斯基等人于1980年代所阐释。

4.算力限制

目前进行人工智能算力平台的搭建,需要大量的CPU和GPU。而谷歌公司的AlphaGo使用的TPU,类似与GPU的一种算法芯片,能耗功效比非常高。训练AlphaGo需要的算力相当于我们市面上常见的消费级1080TI 大约12000块,至少千万级别的开支。

对于谷歌,Facebook,腾讯等这样的巨头公司,这样的开销也许不算什么。但是对于一些规模较小的公司,这将是非常大的一个问题。毕竟人工智能想要步入成熟期,必须解决算力成本问题。

5.隐私安全问题

隐私安全问题在很多行业都是非常重要的话题,为什么说人工智能行业的隐私安全会成为制约他的痛点。

因为如果要利用人工智能来提高人们的生活效率和品质,那么必须尽量多的获取个人信息,因为AI模型需要训练,所以很可能需要将个人信息上传到云端。另外,目前没有办法依靠本地的算力支撑人工智能。隐私与便利常常矛盾,但是人工智能如果想有好的发展,必须两者兼顾。

最近,Facebook因为泄漏了多达8000万的用户信息,扎克伯格被美国政府要求出席美国国会听证会,并被询问的总时长达10小时。并在听证会中多次提到用人工智能来解决部分业务需求。

6.需要大量的数据标记

目前现有的AI模型都需要大量的数据标记,因为模型大多数是监督学习模型。大量的数据标记,不仅仅会要求更多的人力资源,同时人的参与难免会为数据带来一定程度的误差。

目前可以很好解决这一问题是利用强化学习,进行无监督学习。谷歌公司的AlphaGo就是利用无监督学习进行训练的。

7.数据稀缺

AI模型不仅仅目前不仅需要进行人工对信息标记,同时也需要巨量数据才可以达到人类正确识别的程度。以AlphaGo为例,在击败李世石的那个版本AlphaGo进行了3000万次图谱学习。击败柯洁的那个版本,进行了400多万次,自我对弈。

除了对数据量的需求极大,对数据的维度也要求尽可能的全面。总之就是,能有最好都给我,越全面越好。但是实际情况就是,结构性的全面的数据在现实生活中很难获得,而且也很难获得比较准确的数据。

8.黑匣子问题

在人工智能设计之初,赋予其相应的发展方向是,根据人为制定的规则和人为制造的逻辑执行相应的任务。但是实际发现这样的并没有办法使得人工智能有非常让人满意的实际应用。

一直到如今非常热门深度学习,通过一定程度人为干预,AI模型经过数据训练和结果干预,会自己生成一个拟合算法,生成人类预期的结果。但是由于是AI模型自动生成,会存在不可解释的问题。如果有一天AI 模型得出或者做出出乎我们意料之外的事情,我们却没有能力来解释这个时间背后的原因。

9.模型可移植性差

AI模型的可用性是随着训练的数据量增大而增高。但是所需要的数据量是个非常大的量级,但即使是重复度很高的模型,也没有办法从上一个模型中获得其一些经验,只能自己从头开始训练。

这样会带来一些问题,比如会增加数据获取成本,时间成本,能耗成本等,这将给发展中的企业带来极大的困扰。模型的可移植性差,势必影响技术的发展传播速度,也会增加传播成本,这对于一个需要快速发展的新兴科技,确实是一个非常重要的问题。

10.可信任性

这个一个复合的问题。AI模型在处理可评测结果的应用中可能表现非常出色,比如在图像识别领域,我们可以用一个确定的概率来评价AI模型的正确识别度,也可以说是可信任度是明确可见的。

但是,如果在未来的应用场景中,需要AI模型提供一定的商业决策,或者给出一些建议。我们并没有很好的参照体系来评价AI模型的决策和建议是否是准确的,是否是最优解。这将影响决策的方向和准确,也会为很多商业人士带来不必要的困扰。

目前,生活中已经有很多智能模型辅助决策了,但是这样的模型都是可以解释的,只对决策起到一定的参考作用。但是AI模型,我们是无法解释其得出结论的原因的,那么其可信任度将是一个无法逃避的问题。

人工智能从概念诞生之起,到如今已经有60年的历史。如今其已经在一些领域开始发挥其重要的作用了,虽然有很多痛点有待解决,但是哪一个新技术从开始到成熟没有经历过各种问题。而且,人工智能未来的潜力十分巨大,相信未来可以有更好的发展和突破。

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

人工智能 猎头职位 更多
扫码关注公众号
OFweek人工智能网
获取更多精彩内容
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号