科技 technology
您现在的位置:首页 > 科技 > DeepMind发布人工智能聊天机器人Sparrow

新闻

MORROR ART歌词音箱的全新颠覆体验,在照片中看见如歌的岁月。 MORROR ART歌词音箱的全新颠覆体验,在照片中看见...

MORROR ART软装艺术理念的新尝试, 探索时光之美,赋予相册和台历更多可能 让时光和音乐一样能被看见。

  • 门窗行业复刻定制家居高光时刻,森鹰窗业上市成起点?

    据悉,9月26日,森鹰窗业股份有限公司(以下简称森鹰窗业)将举办上市敲钟仪式,正式登陆深交所。 森鹰窗业是目前沪深两市第一家细分行业为“C2032木门窗制造”的上市公司。 这让笔者不禁想起2011年定制家居...

  • 百年变局新机遇 第九届岭南论坛在广州举行

    11月21日,第九届岭南论坛在广州成功举办。本次论坛围绕“百年变局新机遇”主题,原中国银行业监督管理委员会主席刘明康,中山大学岭南学院教授、博导、广东省人民政府参事陆军,斯坦福大学教授、2001年诺贝尔经济...

  • 《风雨之后总有阳光》——产业人物访谈:益宸康旅创...

    2019年,国务院发布了《“健康中国2030”规划纲要》和第七次人口普查,把中国的康养产业推上了最大的风口。紧接着,2021年4月15日,中国央视网、新浪财经、搜狐网接连报道了“七亿养老项目暴雷:老人养老积蓄人间蒸发”。...

财经

唯品会经营范围变更 新增医疗器械、蔬菜水果零售等业务 唯品会经营范围变更 新增医疗器械、蔬菜水果零售等...

天眼查数据显示,3月31日,唯品会(中国)有限公司发生工商变更,经营范围新增蔬菜零售;非许可类医疗器...

  • 品钛旗下赣州爱信小贷正式接入人民银行征信系统

        北京2020年4月7日 /美通社/ -- 领先的金融科技解决方案提供商品钛(Pintec Technology Holdings Ltd., Nasdaq: PT) 今日宣布旗下的赣州爱信网络小额贷款有限公司(下称“爱信小贷”)正式接入中国人民银行...

  • 特斯拉空头近一个月减少超200万股

      据金融分析机构S3 Partner数据显示,截至4月3日,特斯拉未平仓空头头寸为1604万股,占流通股的10.97%。过去30天,特斯拉未平仓空头头寸减少222万股或12.18%,期间股价上涨32%;过去一周,特斯拉未平仓空头头...

  • 特斯拉展示新型自研呼吸机:与Model 3共用零件

      特斯拉之前宣布将开发新的呼吸机,而现在他们展示了这种新型设计。特斯拉在YouTube发布了视频,其工程师演示了两个版本的呼吸机,一个是把所有零件摆在桌子上的原型,另外一个则是组装好的设备,用于显示在医...

  • 特朗普称将在下一轮刺激计划中为美国民众发放更多的钱

      北京时间4月7日消息,美国总统特朗普称将在下一轮刺激计划中为美国民众发放更多的钱。在白宫新闻发布会上表示,特朗普“肯定”想听取下一次刺激计划的想法,并补充道他希望其中包括“切切实实的基础设施”。  ...

DeepMind发布人工智能聊天机器人Sparrow

发布时间:2022/09/26 科技 浏览:126

据报道,Alphabet旗下人工智能实验室DeepMind的一篇新论文显示,制造一个好的人工智能(AI,Artificialintelligence)聊天机器人的诀窍,可能是先让人类制定一系列不可打破的铁律,然后使该模型利用互联网搜索寻找证据,支持其主张或回答。

在近日发表的一篇新的未经同行评议论文中,DeepMind发布了一种使用其大型语言模型Chinchilla训练的人工智能聊天机器人Sparrow。

Sparrow的设计目的是与人类交谈并回答问题,同时实时使用谷歌搜索或有关信息来支持它的答案。

根据人们对这些答案有用与否的回应,再使用强化学习算法进行训练。该算法通过反复试验(试错)来学习,以实现特定的目标。

该系统旨在推动人工智能发展成为可以与人类对话,但却不会产生诸如让人们伤害自己或他人的严重后果。

大型语言模型生成的文本看起来就像是人类写出来的。它们正日渐成为互联网基础设施中的重要组成部分,被用于总结、构建更强大的搜索工具,或者是为客户服务的聊天机器人。

但是,这些模型是通过从互联网上抓取大量数据和文本来接受训练的,这不可避免地包含许多有害的偏见。

只需要一点诱导,它们就会生产“有毒”的或歧视性的内容。在一个旨在与人类对话的人工智能工具中,其结果可能是灾难性的。

一个没有适当安全措施的对话式人工智能,可能会对少数群体说出带有冒犯性的话语,或者建议人们喝漂白剂来对抗病毒。据悉,那些开发对话式人工智能系统的公司,已尝试使用许多技术来使模型更安全。

著名大型语言模型GPT-3的创造者OpenAI,以及人工智能初创公司Anthropic已经在利用强化学习,将人类的偏好融入到他们的模型中。Meta(原Facebook)的人工智能聊天机器人BlenderBot通过在线搜索来完善其答案。而DeepMind的Sparrow将所有这些技术整合在一个模型中。

据介绍,DeepMind向人类参与者展示了该模型对同一问题给出的多个答案,并且还会问他们最喜欢哪一个。

然后他们被要求判断这些答案是否可信,以及Sparrow是否使用了适当的证据支持这个答案,比如提供信息来源的链接。

比如,该模型通过使用从互联网上检索到的证据,能够在78%的情况下对事实问题进行合理的回答。

在制定这些答案时,它会遵循由研究人员规定的23条规则,比如不提供财务建议、不发威胁性文字、不声称自己是一个人。

DeepMind安全研究员杰弗里·欧文(GeoffreyIrving)说,这种方法与之前的不同之处在于,DeepMind希望达到“对话的长期安全”。

他说:“这意味着我们不期望这些模型面临的问题——错误信息或刻板印象——乍一看是显而易见的,我们想详细讨论它们。”

非营利性人工智能研究实验室CohereforAI的负责人萨拉·胡克(SaraHooker)说,利用人类偏好来优化人工智能模型学习方式的想法并不新鲜。

但胡克认为,这些改进令人信服,同时展示出在大型语言模型环境中,以人为引导的方式优化对话代理有明显的好处。

人工智能初创公司HuggingFace的研究员都维·基拉(DouweKiela)说,Sparrow是“很好地遵循了人工智能总体趋势的下一步,我们正在更努力地改进大型语言模型的部署安全性。”

但在这些对话人工智能模型被部署到社会中之前,还有很多工作要做。

比如,Sparrow仍然会犯错误,这个模型有时会所问非所答或给出随机答案。那些有毅力的参与者也可以打破人为定下的规则,这样的情况约有8%。与老款模型相比,这仍是一个改进:即打破DeepMind老款模型规则的频率,是Sparrow的三倍。

胡克说:“比如(用大模型来)提供医疗和财务建议,那么对许多人来说,8%可能仍然是一个令人无法接受的高失败率。”

这项工作也仅建立在英语模型上,“而我们生活在一个技术必须安全和负责任地为许多不同的语言服务的世界里,”他补充道。

基拉指出的另一个问题是:“依赖谷歌来寻找信息,会导致难以发现的未知偏见,因为所有信息源都是封闭的。”

姓 名:
邮箱
留 言: