订阅
纠错
加入自媒体

人工智能何时进入大规模产业化应用的工业大生产时代?

2021-05-27 10:56
Alter聊IT
关注

深度学习的历史并不算长,却呈现出了清晰的代际变迁。

在深度学习框架出现前,开发者需要进行很多繁重的工作,包括算法、算力和数据,基本处于石器时代的阶段;

深度学习框架在2012年萌芽后,陆续出现了 Caffe、Chainer 、Theano等框架,深度学习开始进入到青铜时代;

谷歌、百度、Facebook等互联网巨头进场后,凭借强大的应用场景和底层能力,深度学习正式迈入了铁器时代。

之后深度学习框架越来越多,训练能力和可用性也越来越强,特别是TensorFlow、PyTorch、飞桨几乎占据深度学习框架95%以上市场份额的局面下,业界陆续出现了这样一种声音:人工智能何时进入大规模产业化应用的工业大生产时代?

日前结束的Wave Summit 2021深度学习开发者峰会上,持续进化的飞桨已经给出了确切的答案。

01 逼近产业爆发的临界点

百度的AI布局始于2010年,但2016年是个特殊的时间节点,这一年百度正式开源了自家的深度学习框架飞桨,不仅填补了国内深度学习框架的市场空白,也为中国开源力量的崛起埋下了伏笔。

有别于一些学术性质的开源框架,飞桨身上有着典型的产业标签,为了让深度学习从一门技术走进千行万业的产业世界,飞桨的每一次进化都在尝试降低深度学习的开发门槛,让技术可以顺畅的转化为社会生产力。而每年两次的Wave Summit深度学习开发者峰会,可以说是洞察飞桨产业化进程的风向标。

2019年冬天,飞桨一口气带来了21项全新发布和重要升级,其中端到端开发套件成为开发者们讨论的核心焦点。涵盖语义理解、目标检测、图像分割和点击率预估的四大端到端开发套件,旨在通过模块化的设计和端到端的体验,满足企业低成本开发和快速集成需求,进一步推动深度学习的产业落地。

2021年的Wave Summit 深度学习开发者峰会期间,飞桨在稳定性、兼容性和成熟度的基础上,再次为产业智能化开足马力,不断逼近AI在产业深处爆发的临界点:

全新发布飞桨开源框架V2.1,对自动混合精度、动态图、高层API等进行了优化和增强。尤其是自定义算子功能的全面升级,进一步降低了开发者自定义算子的学习与开发成本,并大幅提升了开发的灵活性;

分布式训练方面,发布大规模图检索引擎,支持万亿边的图存储和检索,大规模图模型训练架构支持网易云音乐等企业大规模应用落地。

模型套件方面,文心ERNIE全新开源发布 4大预训练模型,知识与深度学习相结合实现知识增强的语义理解,不仅仅能理解语言,还可以理解图像,实现统一的跨模态语义理解。

部署方面,飞桨提供全面的推理部署工具链,重磅发布推理部署导航图,其中已验证300多条部署通路,助力开发者打通AI应用的“最后一公里”。

飞桨企业版在EasyDL、BML“两翼”升级的同时,还开放了飞桨企业版的“核”——PaddleFlow,以云原生、高性能、轻量易用的特色,专为AI平台开发者提供核心能力并赋能更多细分场景和深度定制的AI平台。

飞桨的进化历程无疑印证了百度CTO王海峰对于人工智能技术和产业发展的思考:一是融合创新,多技术融合创新、深度学习平台与芯片软硬一体优化、人工智能技术与应用场景融合创新发展的趋势愈加明显;二是降低门槛,随着人工智能技术在各行业的渗透,面向不同应用场景,高效满足不同的开发者需求,持续降低门槛非常关键。

门槛的大幅降低,加快了人工智能应用的多样化和规模化,也加快了产业智能化进程。

02 抹平算法和算力的鸿沟

对于深度学习框架的价值,百度CTO王海峰曾经有过一个恰当的比喻:“深度学习框架起到承上启下的作用,下接芯片和大型计算机系统,上承各种业务模型与行业应用,是智能时代的操作系统”。

单单只有开源深度学习框架的进化,恐怕还不足以将百万计的开发者们“摆渡”到工业大生产的彼岸。毕竟人工智能的三要素包括算法、算力和数据,仅仅是跨越算法和算力之间的鸿沟,就足以将不少开发者拒之门外。

目前英伟达主导的GPU在神经网络训练中有着举足轻重的地位,可英伟达等硬件厂商并没有能力对所有的框架进行适配,只能选择TensorFlow、PyTorch和飞桨三个最成熟的框架进行优化。

结果就是,倘若深度学习框架不对芯片进行适配优化,再好的芯片也只是一堆废铁;假如芯片和深度学习框架间的桥梁不打通,“智能时代操作系统”的实用价值无疑要大打折扣。

飞桨给出的答案是主动担当起打造硬件生态的重任。

根据百度集团副总裁吴甜在Wave Summit 2021上披露的数据,飞桨已经和22家硬件厂商合作,完成和正在适配的芯片或IP达到31款,名单包括百度昆仑、英特尔、英伟达、华为、曙光、瑞芯微、安霸等等。

目前飞桨在硬件生态方面已经处于业界领先地位,不仅涵盖了从训练到部署、从通用型计算硬件到专用的AI加速硬件、从服务端到移动端的硬件适配和优化,还和一些企业达成了深度合作。比如飞桨通过和英特尔OneAPI的合作,为开发者提供了跨平台集成的开发路径;通过集成TensorRT的加速能力,协助英伟达在GPU领域实现了高效推理。

值得一提的是,身为深度学习国产之光的飞桨,和飞腾、海光、鲲鹏等国内芯片厂商进行了深入合作,仅在海光DCU上适配的模型就已经超过50个,中国自主可控的“操作系统+芯片”生态已逐步成型。

其实个中原因并不难理解,人工智能的大规模落地已经步入快车道,而飞桨恰恰是各行各业走向智能化的重要驱动力。

躬身构建软硬件生态,抹平算法和算力之间的鸿沟,进一步打破深度学习的应用壁垒,既是百度作为人工智能头雁的应有之义,也是飞桨重塑生产力与生产关系的初心。

1  2  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号