英特尔计划发布代号为Spring Crest的神经网络处理器芯片,测试部署AI模型速度更快

英特尔计划发布代号为SpringCrest的NervanaNeuralNetL-1000芯片,旨在提升AI模型的测试与部署速度。该芯片预计比前一代产品快3-4倍,将于2019年底商用。英特尔还将支持bfloat16数字格式,扩展其AI产品线。

内容来源:ATYUN AI平台 

英特尔计划发布代号为Spring Crest的神经网络处理器芯片,测试部署AI模型速度更快

英特尔计划发布代号为Spring Crest的Nervana Neural Net L-1000,以便开发人员更容易测试和部署AI模型。英特尔去年秋天首次推出了神经网络处理器(NNP)系列芯片。英特尔副总裁兼人工智能产品集团总经理Naveen Rao表示,Spring Crest的速度将比其首款NNP芯片Lake Crest快3-4倍。

Nervana Neural Net L-1000将成为英特尔首个商用NNP芯片,并计划于2019年年底推出。今天英特尔在旧金山美术宫举行的首届AI Dev Con上宣布这一计划。

“我们还将在英特尔Nervana NNP-L1000中支持bfloat16,这是一种业界广泛用于神经网络的数字格式。随着时间的推移,英特尔将在我们的AI产品线上扩展bfloat16支持,包括英特尔Xeon处理器和英特尔FPGA。这是为我们的硅芯片组合带来领先的人工智能训练功能的紧密而全面的战略的一部分,”Rao在一份声明中表示。

神经网络处理器系列芯片的新增产品随着AI Core推出,该芯片采用Movidius Myriad 2视觉处理单元的电路板,为制造商提供基于设备的机器学习支持。在此之前,Neural Compute Stick也有类似的功能。

近几周来,英特尔采取了一系列措施,在对人工智能应用感兴趣的数量激增的客户中扩大自己的影响力。

上周,英特尔在其计算机视觉软件开发工具包的基础上发布了OpenVINO,这是一款视觉AI的框架,2016年英特尔收购的计算机视觉创业公司Movidius 将用于800万辆自动驾驶汽车。

本月早些时候,微软宣布推出Project Brainwave预览版,以加速深度神经网络训练和部署,该技术由英特尔的现场可编程门阵列(FPGA)芯片Stratix 10支持。

随着像Nvidia 和ARM这样的公司赢得了图像处理单元(GPU)的声誉,并为像Google这样的公司创造了针对AI的专用芯片,英特尔的进度据说已落后于通用CPU芯片。

英特尔的高层管理人员和合作伙伴强调对Xeon CPU芯片的改进,比如在使用TensorFlow时性能提升了3倍,并且认为由于世界上的大部分数据中心都采用英特尔处理器,Xeon仍然训练和部署全球大部分AI。

今天英特尔还宣布,英特尔人工智能实验室计划开放其自然语言处理库。

本文转自ATYUN人工智能媒体平台,原文链接:英特尔计划发布代号为Spring Crest的神经网络处理器芯片,测试部署AI模型速度更快

更多推荐

华为突遭多重限制:谷歌不再给华为官方安卓授权,芯片供应商切断与华为的交易

Automat:设计互联的客户体验

决策树完全指南(下)

欢迎关注ATYUN官方公众号,商务合作及内容投稿请联系邮箱:bd@atyun.com
欢迎关注ATYUN官方公众号,商务合作及内容投稿请联系邮箱:bd@atyun.com

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值