首页 -> 新闻中心 -> 云计算 -> 正文
从云端到边缘 英特尔丰富AI产品组合赋能企业开启伟大征程
2019-11-18

当前,人工智能快速发展,而对应的算力支撑也在不断革新。英特尔一直在不断强化人工智能解决方案产品组合,其广度和深度都堪称行业之最,能够帮助客户在从云端到边缘的所有设备和各个范围内,进行人工智能模型的开发和部署,并有望在2019年创造超过35亿美元的营收。

在2019英特尔人工智能峰会期间(Intel AI Summit 2019),英特尔展示了面向训练(NNP-T1000)和面向推理(NNP-I1000)的英特尔Nervana神经网络处理器(NNP)。作为英特尔为云端和数据中心客户提供的首个针对复杂深度学习的专用ASIC芯片,英特尔Nervana NNP具备超高扩展性和超高效率。英特尔还发布了下一代英特尔Movidius Myriad视觉处理单元(VPU),用于边缘媒体、计算机视觉和推理应用。

迎接下一波人工智能浪潮

不管是Nervana NNP还是Movidius VPU,英特尔展示的这一系列新产品,旨在加速从云端到边缘的人工智能系统开发和部署,迎接下一波人工智能浪潮的到来。

英特尔公司副总裁兼人工智能产品事业部总经理Naveen Rao表示,随着人工智能的进一步发展,我们将从‘数据到信息的转换’阶段发展到‘信息到知识的转换’阶段。英特尔开启了一个全新的尝试,希望借助全面的解决方案帮助企业能够从数据中获得指数级上升的经济效益。

其实,英特尔在人工智能方面的实际部署案例,很多是基于已有技术和产品进行支撑的。例如业界大部分组织都基于英特尔至强可扩展处理器部署了人工智能。英特尔将继续通过英特尔矢量神经网络指令(VNNI)和英特尔深度学习加速技术(DL Boost)等功能来改进该平台,从而在数据中心和边缘部署中提升人工智能推理的性能。在未来很多年中,英特尔至强可扩展处理器都将继续成为强有力的人工智能计算基石。

据悉,下一代至强可扩展处理器Cooper Lake的AI能力也得到了增强,Cooper Lake增加了对bfloat16的支持,可以用来实现非常复杂的深度学习的这种模型的训练和推理,而且在这样的模式之下可以跨CPU、加速器等使用到更多的工具包,训练的性能有很大的提高。

除此以外,微软将英特尔FPGA应用必应搜索引擎当中,可以能够大大提升搜索的速度。在卫星的影像采集中,借助Movidius芯片实现图像预先进行筛选,然后把比较重要的有价值的信息再传回地面。“借助科技,我们能够更好更快地探索和改变世界,帮助不同国家的客户实现技术跨越,解决科学的难题。我们不是一家小的AI公司,我们是世界上最大的AI公司之一。在AI领域,不管是边缘还是数据中心,我们都颇有建树,不断推动各个领域当中的技术进步。”Naveen说。

Naveen认为,在AI领域,很难靠过去一个单一的技术和一种方式或者一个系统来加以支撑。我们需要ABCS(Approach、Budget、Chip、System),也就是途径、预算、芯片和系统。考虑到企业AI需求的分散性,英特尔提供提供多样化的技术和产品解决方案。 “大部分客户在AI的道路上,其实刚刚起步,他们慢慢意识到AI的价值所在,英特尔也需要向他们展示这样的价值。除了CPU之外,我们还有GPU、FPGA和ASIC,整个的产品组成实现了很好的优化,让客户有很多选择权,根据他们的工作负载进行选择。我们还为客户提供软件工具包,选择合适的工具解决所面临的挑战。”

Naveen说,英特尔非常关注用户的需求,不仅仅是性能、能效,以及他们在部署和使用AI的简易性也很重要。“我们希望世界上越来越多的公司能够使用我们完整的解决方案,当然这个解决方案需要相关的技术来加以支撑。比如架构方面,我们不仅要说CPU或者说是内存,而是要把所有的元素集中在一起,作为一个整体的架构来加以考虑。比如英特尔傲腾内存技术,使得数据提取和计算的过程更快更简洁,整个存储的能力提升了三倍;在软件方面,英特尔已经用软件来极大地提升硬件的性能。使得AI实现民主化。”

新产品让英特尔AI产品组合更完整

新推出的英特尔Nervana神经网络处理器现已投入生产并完成客户交付,它是系统级人工智能解决方案的一部分。该解决方案提供由开放组件和深度学习框架集成开发而成的完整软件堆栈,能够充分利用硬件性能。

此次发布的英特尔Nervana神经网络训练处理器(Intel Nervana NNP-T)在计算、通信和内存之间取得了平衡,不管是对于小规模群集,还是最大规模的Pod超级计算机,都可进行近乎线性且极具能效的扩展。

英特尔Nervana神经网络推理处理器(Intel Nervana NNP-I)具备高能效和低成本,且其外形规格灵活,非常适合在实际规模下运行高强度的多模式推理。这两款产品面向百度、 Facebook等前沿人工智能客户,并针对他们的人工智能处理需求进行了定制开发。

Facebook人工智能系统协同设计总监Misha Smelyanskiy表示,Facebook非常高兴能够与英特尔合作,利用英特尔神经网络推理处理器(NNP-I)部署更快、更高效的推理计算。同时,我们最新的深度学习编译器Glow也将支持NNP-I。

百度与英特尔在AI方面有着广泛的合作,比如百度Paddle Paddle软件和英特尔的产品配合、OAI(Open Accelerator Infrastructure)开放加速器架构等。百度人工智能研究员Kenneth Church博士表示,NNP-T拥有业界领先的扩展能力以及能效表现,百度在超级计算机X-Man 4.0进行了应用,Paddle Paddle已经可以支持英特尔NNP-T,使得深度学习更简单、更快、更深入。

推理正在从数据中心向边缘来进行扩展。数据中心现在只是整个推理世界的一部分。英特尔公司物联网事业部副总裁、视觉市场和渠道部门总经理Jonathan Ballon表示,现在数据的增加是一种指数级的,其中70%的数据是由边缘设备来产生的,比如说医院或者工厂里的越来越多的数据是存储、处理和分析都是在边缘设备上完成。

为此,代号为“KEEM BAY”下一代英特尔Movidius VPU计划于2020年上半年上市,凭借独一无二的高效架构优势,能够提供业界领先的性能:与上一代VPU相比,推理性能提升10倍以上,在模型训练方面性能可以提升50%,能效则可达到竞品的6倍。Movidius VPU专门为边缘场景量身定制,借助开创性的AI架构,可以用在各种大小尺寸不同的产品上面,企业可以获得更高密度的、可扩展的AI的加速,极大释放VPU的潜能。

除了硬件产品,英特尔还发布了全新的英特尔DevCloud for the Edge,与英特尔Distribution of OpenVINO工具包共同解决开发人员的主要痛点,即在购买硬件前,能够在各类英特尔处理器上尝试、部署原型和测试AI解决方案。“软件的支持能够让企业获取比以往更大的AI能力。我们现在有2700个客户现在使用DevCloud,软件帮助客户进行大规模的部署,建立整个生态系统,一起来创新。”Misha说。

结语

总而言之,英特尔有能力全面考虑计算、内存、存储、互连、封装和软件,以最大限度提升效率和可编程性,并能确保将深度学习扩展到数以千计节点的关键能力,进而扩大知识革命的规模。

“AI是一个伟大的历程,它已经开始向我们彰显它能够带来的巨大的价值,我们只能一路向前走,直视那些巨大的问题和挑战,然后有针对性地加以突破。10年以来我们孜孜不倦,做了巨大的努力,使得这一切成为可能。AI架构是一个系统级的全景挑战,我们要在各个‘战线’里面借助先进的技术帮助客户解决问题。 ”Naveen最后说。

【凡本网注明来源非中国IDC圈的作品,均转载自其它媒体,目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。】

延伸阅读:

  • 德法欲打破美国云计算控制力 对Google和Facebook要征税?
  • 德利迅达、中国电信国际、和Global Switch在海外又建了一座数据中心
  • 如何直面5G商用的“3个3”挑战?中国移动李正茂观点引热议

新闻搜索

覆盖全国各省会城市及海外城市的网速测试
→选择要测试的地区
→选择目标测试点