科技 technology
您现在的位置:首页 > 科技 > Facebook的AI无需额外培训即可加速自然语言处理

新闻

MORROR ART歌词音箱的全新颠覆体验,在照片中看见如歌的岁月。 MORROR ART歌词音箱的全新颠覆体验,在照片中看见...

MORROR ART软装艺术理念的新尝试, 探索时光之美,赋予相册和台历更多可能 让时光和音乐一样能被看见。

  • 门窗行业复刻定制家居高光时刻,森鹰窗业上市成起点?

    据悉,9月26日,森鹰窗业股份有限公司(以下简称森鹰窗业)将举办上市敲钟仪式,正式登陆深交所。 森鹰窗业是目前沪深两市第一家细分行业为“C2032木门窗制造”的上市公司。 这让笔者不禁想起2011年定制家居...

  • 百年变局新机遇 第九届岭南论坛在广州举行

    11月21日,第九届岭南论坛在广州成功举办。本次论坛围绕“百年变局新机遇”主题,原中国银行业监督管理委员会主席刘明康,中山大学岭南学院教授、博导、广东省人民政府参事陆军,斯坦福大学教授、2001年诺贝尔经济...

  • 《风雨之后总有阳光》——产业人物访谈:益宸康旅创...

    2019年,国务院发布了《“健康中国2030”规划纲要》和第七次人口普查,把中国的康养产业推上了最大的风口。紧接着,2021年4月15日,中国央视网、新浪财经、搜狐网接连报道了“七亿养老项目暴雷:老人养老积蓄人间蒸发”。...

财经

唯品会经营范围变更 新增医疗器械、蔬菜水果零售等业务 唯品会经营范围变更 新增医疗器械、蔬菜水果零售等...

天眼查数据显示,3月31日,唯品会(中国)有限公司发生工商变更,经营范围新增蔬菜零售;非许可类医疗器...

  • 品钛旗下赣州爱信小贷正式接入人民银行征信系统

        北京2020年4月7日 /美通社/ -- 领先的金融科技解决方案提供商品钛(Pintec Technology Holdings Ltd., Nasdaq: PT) 今日宣布旗下的赣州爱信网络小额贷款有限公司(下称“爱信小贷”)正式接入中国人民银行...

  • 特斯拉空头近一个月减少超200万股

      据金融分析机构S3 Partner数据显示,截至4月3日,特斯拉未平仓空头头寸为1604万股,占流通股的10.97%。过去30天,特斯拉未平仓空头头寸减少222万股或12.18%,期间股价上涨32%;过去一周,特斯拉未平仓空头头...

  • 特斯拉展示新型自研呼吸机:与Model 3共用零件

      特斯拉之前宣布将开发新的呼吸机,而现在他们展示了这种新型设计。特斯拉在YouTube发布了视频,其工程师演示了两个版本的呼吸机,一个是把所有零件摆在桌子上的原型,另外一个则是组装好的设备,用于显示在医...

  • 特朗普称将在下一轮刺激计划中为美国民众发放更多的钱

      北京时间4月7日消息,美国总统特朗普称将在下一轮刺激计划中为美国民众发放更多的钱。在白宫新闻发布会上表示,特朗普“肯定”想听取下一次刺激计划的想法,并补充道他希望其中包括“切切实实的基础设施”。  ...

Facebook的AI无需额外培训即可加速自然语言处理

发布时间:2020/02/20 科技 浏览:367

 
自然语言模型通常必须解决两个难题:将句子前缀映射到固定大小的表示形式,以及使用这些表示形式预测文本中的下一个单词。在最近的一篇论文中,Facebook AI Research的研究人员断言,第一个问题-映射问题-可能比预测问题更容易。预测问题是他们基于“最近邻居”检索机制来扩充语言模型的假设。他们说,它可以记住罕见的模式,并且无需额外的培训即可达到最新的复杂性评分(衡量词汇和语法多样性)。
正如研究人员所解释的那样,语言模型将概率分配给单词序列,以便从令牌(例如单词)的上下文序列中估计目标令牌的分布(发生不同可能结果的概率)。所提出的方法kNN-LM将上下文映射到由预训练的语言模型计算出的定长数学表示形式。给定一个训练示例,定义了一个键值对,其中键是上下文的数学表示,而值是目标单词。
在测试时,kNN-LM获取输入上下文,并在接下来的单词和上下文表示上生成输出分布。它根据距离函数检索最近的邻居,此时它计算邻居上的分布,同时汇总每个词汇项在检索到的目标中所有出现时的概率。
研究人员指出,kNN-LM与产生固定大小的上下文表示的任何语言模型兼容。在这项研究中,这使我们能够在基于Wikipedia文章的1.03亿个令牌组成的数据集上训练基于Transformer的模型,其中25万个令牌保留用于开发和测试。
在实验中,kNN-LM在测试时“显着”优于基线,该团队将其归因于其学习隐含相似性概念的上下文表示功能的倾向。 kNN-LM增加了一些计算开销–在单个处理器上花了大约两个小时才能为1.03亿个条目建立缓存,而运行验证集大约需要25分钟。但是团队指出,并行化模型是“简单的”,并且不需要基于GPU的培训。
该研究的共同作者写道:“总的来说,我们发现kNN-LM最有用的例子通常都包含罕见的模式。” “示例包括事实知识,姓名和训练集中几乎重复的句子。在这些情况下,为训练实例和测试实例分配相似的表示形式……比隐式记住模型参数中的下一个单词似乎更容易解决问题。”