咨询热线:021-38688888

对计算能力及效率的需求,催生AI专有芯片版百度大脑

   日期:2018-08-21     来源:百度    浏览:181    评论:0    
核心提示:FPGA 是什么?       FPGA(Field-ProgrammableGate Array),即现场可编程门阵列,是一种半定制的IC芯片。原厂(如XILINX、ALTERA、LATTICE等)生产出的是空白的不含配置信息的FPGA芯
FPGA 是什么?       FPGA(Field-ProgrammableGate Array),即现场可编程门阵列,是一种半定制的IC芯片。原厂(如XILINX、ALTERA、LATTICE等)生产出的是空白的不含配置信息的FPGA芯片,顾客可根据自己的需要,利用片上所提供的各种资源开发自己的逻辑,将生成的配置信息写入,从而将其变成自己所需功能的芯片,FPGA可近乎不限次数反复重配。 对计算能力及效率的需求,催生AI专有芯片版百度大脑       大数据和人工智能的发展与应用,使得百度面临一大问题:数据和模型规模不断膨胀,必须有更强的计算能力来支撑。不仅如此,出于企业成本考虑,还必须控制能耗效率和成本效率,即在相同计算性能下,成本和能耗要更低。       从大规模部署应用的角度看,无论是哪种类型的应用,对体系结构最终的衡量标准是performance/dollar及performance/Watt,也就是效率,包括能耗效率和成本效率。只有这两个效率足够高,这种体系结构才有生命力。例如在嵌入式终端里面,往往需要考虑极致的能耗和成本效率,有时候甚至需要对算法做些剪枝和模型规模限制。在数据中心里面,成本和功耗也是规模部署要考虑的第一要素。       如今,人们提到深度学习的硬件架构,会首先想到GPU。这主要是因为,在能方便采购到的硬件里,GPU确实能提供较好的数学计算能力和访存带宽。但对于能耗和成本效率,即使在数据中心应用,GPU离百度的目标仍有很大的改进空间。所以百度需要重新思考,面向人工智能的典型应用和算法,自主设计一种新的、通用的体系结构以及芯片,能实现极致的能耗和成本效率,还能灵活延伸扩展。       接下来,百度需要考虑的是,率先应用这种新型体系结构和芯片的场景。       人工智能的应用场景,包括云(数据中心)和端(智能设备)两部分;其中,云端又包括离线训和在线服务。离线训练是指利用海量数据,选择合适的训练方法,训练出一个模型。在线服务是指,利用训练出来的模型来响应在线响应用户的请求。端部分也对人工智能有着很大的需求:很多终端设备,也都需要能运行人工智能的算法,能智能地响应外部请求,如无人车、智能摄像头等。       “我们发现,在离线训练上,GPU可以阶段性地满足要求,智能设备虽然炒得火,但时机仍未成熟。而在在线服务方面,对提升计算能力的需求是客观存在且比较急迫的。但GPU因为功耗、成本等原因,不适合线上大规模部署。”百度AI专有芯片项目负责人、主任架构师欧阳剑道出了彼时决策的过程。       经过深入思考,百度决定率先在在线服务上应用AI专有芯片版百度大脑。 
 
打赏
 
更多>同类资讯
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  加入我们  |  使用协议  |  版权隐私  |  关于我们  |  联系方式  |  网站地图  |  网站留言  |  RSS订阅  |  违规举报  |  沪ICP备19042446号-2