订阅
纠错
加入自媒体

李飞飞论战赫拉利:AI之战一旦爆发,将碾压核竞赛

2019-05-06 14:15
来源: 猎云网

如何避免数字专政?

Yuval:关键问题就是如何管理数据的归属权。因为我们不可能停止生物学领域的研发,也不能停止研究计算机科学和人工智能。所以之前的公式中,最好控制的就是数据,但这也非常困难。目前虽然已经作出了一些举措,但要控制数据这同时涉及哲学和政治两个方面。拥有数据,以及管理数据所有权,到底是什么意思?在过去几千年里,我们已经充分理解了,什么是土地拥有权,但很少了解什么是数据拥有权,以及应该如何进行管理。但这正是我们要解决的问题。

我承认AI没有某些人想的那么强大。但我们必须把握这个度,我们不需要完全了解人类的AI,只需要它比我们更了解自己。这并不困难,因为很多人根本不了解自己,所以经常犯下决策错误,包括理财和爱情等方面。所以将这些判断题交给算法,可能仍然很糟糕,但只要比我们做的好一些,那么这种趋势仍然会存在。

将来可能会出现这种情景,你可以写出各种的算法帮助你了解自己。但如果这些算法不止把这些信息分享给你,也把它们交给广告商或者政府会怎样?我觉得我们不应该只思考太遥远、太极端的情景,而是更关注我们生活中的例子。

人工智能存在着机遇和风险,目前最重要的事情是什么?

李飞飞:我们现在有太多的事情可以做,这一点我非常同意Yuval的看法。斯坦福大学认为,未来的人工智能应该是以人为本的,我们需要坚持三个主要原则。

第一,要投资具有人类思维特征的人工智能技术。目前大多数人工智能都依赖于数据,以及对数据的管理政策,这样可以控制人工智能带来的影响。但我们应该开发一种可以解释人工智能的技术,以及能对人类智力产生更细微的理解的技术。同时还要投资那些不太依赖于数据的人工智能,它能反应人类的直觉、知识和创造性等。

第二,为人工智能的研究设立更多的准则。让经济、道德、法律、哲学、历史和认知科学等多个领域的人参与研究。任何单一领域的研究人员都不能单独解决这个问题。

最后,除了上述操作性的建议,我认为我们在做这些事情时,我们应该抱着警惕和理解,同时又要将这种技术运用到正途。

如果我们自己都不了解自己,那么计算机可能比我们更容易解释这些决策吗?

李飞飞:两位数的乘法对我们来说很难,但对计算机来说很简单。有些事情人类觉得困难的,未必难得倒机器。毕竟这些算法都是基于非常简单的数学逻辑。对此我们采用了包含数百万个节点的神经网络。诚然,决策的解释很困难,但相关研究已经在进行,一旦成功它将会带来突破性的进展。而且有了这种技术,人们就很难用人工智能去作弊。

Yuval:但是人工智能的决策逻辑可能和人类完全不同,哪怕它解释了,我们恐怕也无法理解。例如申请银行贷款被拒,人工智能可能会告诉你,这些数据有数万个来源,同时进行了加权和统计分析,某些数据的权重为什么是这么多……这完全可以写一本书。

科学越来越难向公众解释很多理论和发现,这也是为什么很多人对气候变化持怀疑态度。这不是科学家的错,而是科学技术越来越复杂,而人类社会更复杂。人类的思维无法理解它,正如它无法理解为什么要拒绝一个人的贷款申请。

我们应该如何确保数据没有种族倾向?

李飞飞:说实话我个人也回答不上这个问题,但机器学习系统存在偏见已经是个既定的事实。但这种偏见的成因非常复杂。斯坦福大学有人专门研究这个问题,如何去除数据的偏见,让决策更加中立,同时也有人类学家在谈论什么是偏见,什么是公平。什么情况下的偏见是好的,什么情况下是坏的。之前就有研究通过脸部识别算法发现好莱坞女演员的出镜率更低。

Yuval:至于是否应该剔除数据中的种族特征或是性别特征,还需要具体分析。这也是一个需要工程师和伦理学家、心理学家以及政治科学家合作的地方。将来还可能包括生物学家。这又回到了一个问题上,我们应该怎么做?也许我们应该在未来的程序员培训过程中加入伦理课程。在那些设计人工智能工具的大公司里,同样也要配备伦理专家这样的团队,他们需要考虑设计人员会在不经意间加入哪些偏见,它会给政治或文化方面带来什么样的影响。而不是等到恶果出现了,才追悔莫及。

是否存在道德和人工智能预测精准性的问题?与全力研发技术相比,边研究技术边考虑道德问题,进度是否会更慢?

Yuval:这就是一个类似军备竞赛的问题。我觉得,这是AI目前面临非常危险的一个问题。越来越多的国家意识到这种技术的重要性,都担心自己会被别的国家甩在后面。避免这种军备竞赛的唯一方法,就是进行更充分的交流。这听起来有些虚幻,因为我们现在完全是在背道而驰。我们的工作就是要让人们明白,AI的恶性竞争就类似于核战争,谁都不会成为赢家。美国人可能会说自己是好人,但这个人工智能领域的领先者,只服务于美国自己的利益,谁又能相信它的公正性?

Yuval:我认为全球合作可能非常脆弱。核武器的军备竞赛虽然会让一大批核弹问世,但是人们从没使用过它,人工智能不一样,它一直在被使用,最终孕育出一个集权政体。因此我认为它更加危险。

如果不同的国家之间存在巨大的技术差距,那会发生什么?会像19世纪工业革命那样,少数掌握工业力量的国家统治了整个世界的经济和政治?如何避免悲剧重演?哪怕没有战争,全球大多数人仍然处于被剥削状态,大部分人的劳动所得最终都属于少数几个国家。

李飞飞:不同地区的技术研究进度的确不同。不同于19世纪和20世纪,技术正在以非常快的速度全球化。任何基础性的科研论文都能在网上查到。不同国家可能因为制度不同,在技术研究上可能存在一定差距,但我认为你所描述的情况,还是很难发生的。

Yuval:我说的可不只是科研论文。是的,论文是全世界共享的,但如果我生活在也门、尼加拉瓜、印尼或者加沙,我没有数据和基础设施,我就算上网下载了论文又能如何。你要看看那些拥有所有数据的大公司来自哪里,基本只有两个地方,其中不包括欧洲,毕竟欧洲没有谷歌、亚马逊、百度或者腾讯。你再看看拉美、非洲、中东和大部分东南亚地区,他们也能学到这些知识,但想要借此对抗亚马逊还远远不够。

拥有数据和更高计算能力的人是否将获得更多的权力,收入的不平等也会因此加剧?

Yuval:正如我所说的,这很可能还只是个开始。它在经济和政治方面带来的影响将是灾难性的。那些依赖手工劳动力的国家的经济体系可能会因此崩溃,它们没有足够的教育资金去参与人工智能竞争。洪都拉斯和班加罗尔的生产基地将搬回美国和德国,因为人力成本不再重要,加州生产的衬衫可能比洪都拉斯便宜。这些国家的人又该何去何从,新生的岗位是留给软件工程师的,洪都拉斯的孩子可没有钱去学习编程。

李飞飞:的确,Yuval预想到了很多我们面临的危机,因此我们需要更多人来研究和思考这些问题。但目前全世界的国家、政府和公司都还有时间思考自己的数据及人工智能策略,意识到当下是他们的国家、地区和公司的关键时刻。而这些潜在危机正是因为他们还没意识到要跟上数字时代的潮流,也是时候引起他们的注意了。

Yuval:是的,这非常紧急。某种程度上讲,这就是一种数字殖民:从巴西、印尼等国家搜集数据,然后由美国来处理,最后生产出更好的设备和技术,卖回殖民地。尽管它和19世纪的殖民存在差别,但这种类比值得我们留意。

人们如何建设AI公司,是推动数字殖民,还是改正它?又该怎么看待人工智能,以及如何去学习?

Yuval:就我个人而言,我认为不论是否在斯坦福大学深造,是否是工程师,都一定要更加了解你自己,因为你正处于一场竞争中。这也是所有哲学书中最经典的建议。苏格拉底、孔夫子、释迦摩尼都给出过类似的看法。但在释迦摩尼或苏格拉底的时代,你不了解自己也没关系,你只是错过了顿悟的机会。如今你们处于竞争中,如果不了解自己,你就完了。对于工程师或学生,我希望实验室和工程部门出现两件东西。第一,我希望出现一种离心化的系统,而不是中心化的系统,我不知道该怎么做,但我希望你们可以尝试,我听说区块链在这方面挺有潜力的。这是对我们民主制度的保护。

第二,我希望出现一种专门为人服务的工具,而不是为企业或者政府服务。也许我们无法阻止人工智能了解自己,那么我希望它了解我们是为了保护我们不受其它人工智能的侵袭。就像我的身体不能对抗电脑病毒,但是我的电脑可以装杀毒软件。

<上一页  1  2  
声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

人工智能 猎头职位 更多
扫码关注公众号
OFweek人工智能网
获取更多精彩内容
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号