新闻
-
门窗行业复刻定制家居高光时刻,森鹰窗业上市成起点?
据悉,9月26日,森鹰窗业股份有限公司(以下简称森鹰窗业)将举办上市敲钟仪式,正式登陆深交所。 森鹰窗业是目前沪深两市第一家细分行业为“C2032木门窗制造”的上市公司。 这让笔者不禁想起2011年定制家居...
-
百年变局新机遇 第九届岭南论坛在广州举行
11月21日,第九届岭南论坛在广州成功举办。本次论坛围绕“百年变局新机遇”主题,原中国银行业监督管理委员会主席刘明康,中山大学岭南学院教授、博导、广东省人民政府参事陆军,斯坦福大学教授、2001年诺贝尔经济...
-
《风雨之后总有阳光》——产业人物访谈:益宸康旅创...
2019年,国务院发布了《“健康中国2030”规划纲要》和第七次人口普查,把中国的康养产业推上了最大的风口。紧接着,2021年4月15日,中国央视网、新浪财经、搜狐网接连报道了“七亿养老项目暴雷:老人养老积蓄人间蒸发”。...
财经
-
品钛旗下赣州爱信小贷正式接入人民银行征信系统
北京2020年4月7日 /美通社/ -- 领先的金融科技解决方案提供商品钛(Pintec Technology Holdings Ltd., Nasdaq: PT) 今日宣布旗下的赣州爱信网络小额贷款有限公司(下称“爱信小贷”)正式接入中国人民银行...
-
特斯拉空头近一个月减少超200万股
据金融分析机构S3 Partner数据显示,截至4月3日,特斯拉未平仓空头头寸为1604万股,占流通股的10.97%。过去30天,特斯拉未平仓空头头寸减少222万股或12.18%,期间股价上涨32%;过去一周,特斯拉未平仓空头头...
-
特斯拉展示新型自研呼吸机:与Model 3共用零件
特斯拉之前宣布将开发新的呼吸机,而现在他们展示了这种新型设计。特斯拉在YouTube发布了视频,其工程师演示了两个版本的呼吸机,一个是把所有零件摆在桌子上的原型,另外一个则是组装好的设备,用于显示在医...
-
特朗普称将在下一轮刺激计划中为美国民众发放更多的钱
北京时间4月7日消息,美国总统特朗普称将在下一轮刺激计划中为美国民众发放更多的钱。在白宫新闻发布会上表示,特朗普“肯定”想听取下一次刺激计划的想法,并补充道他希望其中包括“切切实实的基础设施”。 ...
Neural Magic获1500万美元A轮融资,以提高现成处理器的AI推理速度
发布时间:2019/11/08 商业 浏览:769
尽管加速器芯片如Google的张量处理单元(TPU)和英特尔即将推出的Nervana NNP-T等加速器芯片激增,但大多数机器学习从业者仍受预算或设计限制,只能用于商品处理器。不幸的是,这些处理器往往相当缓慢运行复杂的AI模式,加剧了参与AI R&d的众多挑战之一。
因此,神经魔术。麻省理工学院计算机科学与人工智能实验室的研究科学家Alex Matveev和Nir Shavit教授于2018年共同创立了这家位于马萨诸塞州萨默维尔的初创公司,其灵感来自他们在机器学习的高性能多核执行引擎中的工作。他们从本质上将Neural Magic描述为“无硬件AI公司”,这家公司的软件以等于(或优于)专用硬件的速度处理处理器上的工作负载。
显然,投资者对他们所看到的印象深刻。 Neural Magic今天宣布,该公司已筹集了1500万美元的种子投资,由Comcast Ventures牵头,NEA,Andreessen Horowitz,Pillar VC和Amdocs Ventures参与了该项目,在经过500万美元的前种子轮融资后,其总筹资额达到了2000万美元。配合筹款活动,该公司在早期使用了其专有推理引擎。
CEO Shavit表示:“ Neural Magic证明了深度学习模型的高性能执行是…一个系统工程问题,可以用正确的软件算法解决。”他说,资金的涌入将加强Neural Magic的工程,销售和营销招聘工作。
Shavit表示,此版本的Neural Magic产品面向实时推荐和计算机视觉系统,前者通常在生产中受到少量图形芯片内存的限制。通过运行通常具有更多可用内存的现成处理器来运行模型,数据科学家可以用最少的工作量来实现加速。对于计算机视觉模型,Shavit声称Neural Magic的解决方案以“图形芯片速度”执行诸如图像分类和对象检测之类的任务,从而可以通过容器化应用在较大的图像和视频流上执行。
在这方面,Neural Magic的方法的范围比DarwinAI的方法要窄一些,后者使用所谓的生成综合来摄取几乎任何AI系统(无论是计算机视觉,自然语言处理还是语音识别),并且吐出一个高度优化版本。但是Shavit断言它与平台无关,而DarwinAI的引擎直到最近才增加了对Facebook PyTorch框架的支持。
如何获得提升?考虑一下像Nvidia的DGX-2这样的系统,该系统具有500GB的高带宽内存,平均分配给16个图形芯片。在模型训练期间,必须复制模型和参数以适合32GB的内存。结果是,足迹小于16GB的模型(如图片库ImageNet上的ResNet 152)可以使用DGX-2进行训练,而较大的模型(如ResNet 200)则不能。大于给定分辨率的图像自然会占用内存,从而无法使用4K图像训练语料库,而不是ImageNet的224×224像素样本。
处理器具有其他优势。当然,它们通常更便宜,并且比起加速器,它们更适合某些AI任务。正如Shavit解释的那样,大多数图形芯片的批处理大小(指模型更新之前处理的样本数量)为64或更大时,性能得到了优化,非常适合实时分析(例如语音数据)。流)。但是,对于团队需要等待以收集足够的图像来填充一批图像(例如医学图像扫描)的情况,这是不理想的,因为其中涉及到滞后时间。
“我们的愿景是使数据科学团队能够利用他们已经拥有的无处不在的计算平台,以GPU的速度运行深度学习模型-以一种只有商品CPU才能交付的灵活且容器化的方式进行,” Shavit说。