科技 technology
您现在的位置:首页 > 科技 > Google Brain的AI实现了最先进的文本汇总性能

新闻

全国学会服务地方产业发展试点项目落地山西:迎来“晋”式医药发展变革 全国学会服务地方产业发展试点项目落地山西:迎来“...

6月17日,全国学会服务地方产业发展试点项目正式落地山西。该项目由中国科协主导,振东制药协办,研发总...

  • 十亿善款,三十二年坚守:振东制药公益“长城”这样建成

    如果说慈善事业是企业责任感的一个缩影。那么振东制药的慈善“侧写”便是大爱无疆。山西振东健康产业集团自太行山深处诞生,稳扎稳打、守正创新,跻身中国药企中流砥柱行列。引导旗下公益扶贫办凝聚共识、加强合作...

  • 千人竞逐“红气球”,振东集团公益精神在晋中大地闪耀

    5月25日,山西省高校新区(山西大学城)热闹非凡,2025“红气球挑战赛”(晋中站)在此鸣笛开赛。这场没有奖金的赛事,却吸引了来自社会各界及山西大学城高校的一千余名选手踊跃参与,他们“一起红气球,快乐学急救”...

  • 振东集团:32年慈善长跑背后的“共富密码”

    在商业与公益的天平上,山西振东健康产业集团选择了后者——即便负债也要坚持的"变态慈善"。这家从太行山走出的民营企业,用32年时间构建起一套独特的公益生态系统,累计捐赠超10亿元,将"与民同富、与家同兴、与国...

财经

唯品会经营范围变更 新增医疗器械、蔬菜水果零售等业务 唯品会经营范围变更 新增医疗器械、蔬菜水果零售等...

天眼查数据显示,3月31日,唯品会(中国)有限公司发生工商变更,经营范围新增蔬菜零售;非许可类医疗器...

  • 品钛旗下赣州爱信小贷正式接入人民银行征信系统

        北京2020年4月7日 /美通社/ -- 领先的金融科技解决方案提供商品钛(Pintec Technology Holdings Ltd., Nasdaq: PT) 今日宣布旗下的赣州爱信网络小额贷款有限公司(下称“爱信小贷”)正式接入中国人民银行...

  • 特斯拉空头近一个月减少超200万股

      据金融分析机构S3 Partner数据显示,截至4月3日,特斯拉未平仓空头头寸为1604万股,占流通股的10.97%。过去30天,特斯拉未平仓空头头寸减少222万股或12.18%,期间股价上涨32%;过去一周,特斯拉未平仓空头头...

  • 特斯拉展示新型自研呼吸机:与Model 3共用零件

      特斯拉之前宣布将开发新的呼吸机,而现在他们展示了这种新型设计。特斯拉在YouTube发布了视频,其工程师演示了两个版本的呼吸机,一个是把所有零件摆在桌子上的原型,另外一个则是组装好的设备,用于显示在医...

  • 特朗普称将在下一轮刺激计划中为美国民众发放更多的钱

      北京时间4月7日消息,美国总统特朗普称将在下一轮刺激计划中为美国民众发放更多的钱。在白宫新闻发布会上表示,特朗普“肯定”想听取下一次刺激计划的想法,并补充道他希望其中包括“切切实实的基础设施”。  ...

Google Brain的AI实现了最先进的文本汇总性能

发布时间:2019/12/25 科技 浏览:481

 
总结文本是一项改进机器学习算法的任务,微软最近发表的一篇论文证明了这一点。这真是个好消息-自动汇总系统有望减少企业员工阅读邮件的数量,一项调查估计每天需要2.6个小时。
不甘示弱,谷歌大脑和伦敦帝国理工学院的团队构建了一个系统-利用提取的缺口句进行抽象汇总序列到序列(即Pegasus)的预培训-利用Google的Transformers架构与针对抽象文本量身定制的预培训目标代。他们说,它在涵盖新闻,科学,故事,说明,电子邮件,专利和立法法案的12项摘要任务中均取得了最新的成果,并且在低资源摘要方面表现出“令人惊讶”的表现,超过了之前的最高水平。六个数据集的结果只有1,000个示例。
正如研究人员所指出的那样,与执行技术相比,文本摘要旨在从输入文档中生成准确而简洁的摘要。抽象汇总不仅可以复制输入中的片段,还可以产生新颖的单词或覆盖主要信息,从而使输出在语言上保持流利。
变压器是一种神经结构,由Google AI研究部门Google Brain的研究人员在论文中介绍。与所有深层神经网络一样,它们包含布置在相互连接的层中的功能(神经元),这些功能从输入数据传输信号并缓慢调整每个连接的突触强度(权重),这就是所有AI模型如何提取特征并学习进行预测的方式。但是变形金刚独特地受到关注。每个输出元素都连接到每个输入元素,并且它们之间的权重是动态计算的。
团队设计了一项培训任务,其中掩盖了文档中整个且可能很重要的句子。人工智能必须通过利用网络和新闻文章来填补空白,包括研究人员编写的新语料库(HugeNews)中包含的那些文章。
在实验中,研究小组选择了性能最佳的Pegasus模型(该模型具有5.68亿个参数或从历史数据中学习到的变量)接受了从3.5亿个网页中提取的750GB文本(通用抓取)或HugeNews(涵盖15亿个)从新闻和类似新闻的网站收集的文章总计3.8TB。 (研究人员说,在HugeNews的情况下,使用了从高质量新闻发布者到质量较低的站点的白名单域来植入网络爬虫工具。)
研究人员说,Pegasus在流利度和连贯性方面取得了很高的语言质量,并且不需要采取对策来减轻流离失所。此外,在资源匮乏的环境中,只有100篇示例文章,它生成的摘要的质量与在20,000到200,000篇文章的完整数据集上训练过的模型相当。