【雷火电竞】有了这款可扩展、分布式的深度学习软件,IBM就能和AI巨人一起共舞
IBM公司在21世纪早期引入了Watson,从而转入了人工智能现在的周期,并且从那时候开始在大大加大力度。最近,IBM公布了PowerAI,IBM的软件工具包在解决方案与OpenPower系统因应用于,针对那些想几乎从头开始研发自己的AI解决方案,但是依然期望自定义符合自己特定深度自学市场需求的企业。如今,IBMResearch发布了一项新的突破,这将只不会更进一步强化PowerAI和其它的AI产品,这是一个在过去六个月中我所看见的突破性的分布式深度自学软件。
挣脱单点瓶颈所有仍然注目人工智能的人都告诉,深度自学在近几年才确实发展一起。它为商业领域和消费者的百个应用程序获取反对,并且在持续减少。然而,妨碍深度自学更进一步剧增的仅次于问题之一是可扩展性问题。现在大多数AI服务器只是一个单一的系统,而不是多个系统的人组。
最风行的开源深度自学软件框架在多个服务器上展现出不欠佳,造成了一个耗时的瓶颈。换句话说,尽管许多数据科学家早已可以采访4到8个GPU服务器,他们无法利用它扩展到单个节点之外,到目前为止,这个软件并不是为此而设计的。
输出IBMDDL库:这个库用于IBMResearch的独有集群方式建构,相连到领先的开源AI框架(如:TensorFlow,Caffee,Torch,和Chainer)。通过DDL,这些框架能扩展到数十台IBM服务器,利用数百个GPU—一种原有的昼夜有所不同的处置模型。为了刻画一张照片,当IBM最初试图用ImageNet-22K数据集来训练一个模型时,用于ResNet-101模型,在一台Power“Minsky”服务器上,再加4台英伟达P100GPU加速器,花费16天。
16天的训练意味著大大延后了洞察力,以及相当严重妨碍生产力。IBM称之为DDL为“深度自学的喷气式引擎”—一个更有人的名字,显然不过于离谱。IBM回应,用于DDL技术,需要在64台Power“Minsky”服务器上,一共256个英伟达的P100GPU,将完全相同的流程缩减到7个小时。让我申明一下:16天缩减到7个小时。
如果这些结果准确的话,那么为什么IBM指出它可以确实的转变游戏规则?在7个小时内,IBM的新的图像识别准确度33.8%的记录,多达了微软公司在业界创办的10天精确度29.9%的记录。为了已完成这一切,IBM回应,DDL可以高效拓展,下降到256个GPU,Caffe深度自学框架的效率提高到95%。正式版早已上线开发者不必非要等到尝试这项新技术。
IBMresearch正在为IBM系统获取一个DDL正式版,IBM系统现在早已公布了新版本IBMPowerAI(TensorFlow和Caffe,Torch和Chainer将要发售)的第四个版本。我指出这将是IBM电源系统的一个最重要的补足,他被称作“瑞士军刀加速器”—标准PCIExpress、CAPI和NVLink标准,都被PCB在一个平台上。
关于DDL,另外一个必须特别注意的是,它将不仅可以在本地用于,还可以在云端用于—通过云端服务商Nimbix获取。2020-03-30 的异构环境,灵活性是显而易见的。开发者需要在Nimbix者在IBMPower系统服务器上,用于测试版本。总结很有意思的事情是,这项新技术是来自于IBM,而不是其它如谷歌或者Facebook,这样更大更加悦耳的AI组件支持者。
看上去,IBM需要之后携同“第一”到桌面上,IBM不仅是企业领有的主要参与者,还在深度自学领域也是。DDL和OpenPOWER是秘密资源—我坚信未来将给IBM所必须的结果—大大缩短训练时间,提升精确度和效率。我指出避免了瓶颈,DDL有潜力去构建关上深度自学的门闸。这对IBM、PowerAI和OpenPOWER是确实转变游戏规则。
本文来源:雷火·竞技-www.vc-jobhunting.com