新闻 news
您现在的位置:首页 > 新闻 > Facebook的Captum为机器学习带来了可解释性

新闻

全国学会服务地方产业发展试点项目落地山西:迎来“晋”式医药发展变革 全国学会服务地方产业发展试点项目落地山西:迎来“...

6月17日,全国学会服务地方产业发展试点项目正式落地山西。该项目由中国科协主导,振东制药协办,研发总...

  • 十亿善款,三十二年坚守:振东制药公益“长城”这样建成

    如果说慈善事业是企业责任感的一个缩影。那么振东制药的慈善“侧写”便是大爱无疆。山西振东健康产业集团自太行山深处诞生,稳扎稳打、守正创新,跻身中国药企中流砥柱行列。引导旗下公益扶贫办凝聚共识、加强合作...

  • 千人竞逐“红气球”,振东集团公益精神在晋中大地闪耀

    5月25日,山西省高校新区(山西大学城)热闹非凡,2025“红气球挑战赛”(晋中站)在此鸣笛开赛。这场没有奖金的赛事,却吸引了来自社会各界及山西大学城高校的一千余名选手踊跃参与,他们“一起红气球,快乐学急救”...

  • 振东集团:32年慈善长跑背后的“共富密码”

    在商业与公益的天平上,山西振东健康产业集团选择了后者——即便负债也要坚持的"变态慈善"。这家从太行山走出的民营企业,用32年时间构建起一套独特的公益生态系统,累计捐赠超10亿元,将"与民同富、与家同兴、与国...

财经

唯品会经营范围变更 新增医疗器械、蔬菜水果零售等业务 唯品会经营范围变更 新增医疗器械、蔬菜水果零售等...

天眼查数据显示,3月31日,唯品会(中国)有限公司发生工商变更,经营范围新增蔬菜零售;非许可类医疗器...

  • 品钛旗下赣州爱信小贷正式接入人民银行征信系统

        北京2020年4月7日 /美通社/ -- 领先的金融科技解决方案提供商品钛(Pintec Technology Holdings Ltd., Nasdaq: PT) 今日宣布旗下的赣州爱信网络小额贷款有限公司(下称“爱信小贷”)正式接入中国人民银行...

  • 特斯拉空头近一个月减少超200万股

      据金融分析机构S3 Partner数据显示,截至4月3日,特斯拉未平仓空头头寸为1604万股,占流通股的10.97%。过去30天,特斯拉未平仓空头头寸减少222万股或12.18%,期间股价上涨32%;过去一周,特斯拉未平仓空头头...

  • 特斯拉展示新型自研呼吸机:与Model 3共用零件

      特斯拉之前宣布将开发新的呼吸机,而现在他们展示了这种新型设计。特斯拉在YouTube发布了视频,其工程师演示了两个版本的呼吸机,一个是把所有零件摆在桌子上的原型,另外一个则是组装好的设备,用于显示在医...

  • 特朗普称将在下一轮刺激计划中为美国民众发放更多的钱

      北京时间4月7日消息,美国总统特朗普称将在下一轮刺激计划中为美国民众发放更多的钱。在白宫新闻发布会上表示,特朗普“肯定”想听取下一次刺激计划的想法,并补充道他希望其中包括“切切实实的基础设施”。  ...

Facebook的Captum为机器学习带来了可解释性

发布时间:2019/10/12 新闻 浏览:598

 
Facebook今天推出了Captum,这是一个用于解释具有深度学习框架PyTorch的神经网络决策的库。 Captum旨在实现AI模型的最新版本,例如集成梯度,DeepLIFT和电导。 Captum允许研究人员和开发人员解释在多模式环境中做出的决策,这些决策结合了例如文本,图像和视频,并允许他们将结果与库中的现有模型进行比较。
开发人员还可以使用Captum来了解功能的重要性,或者深入研究神经网络来了解神经元和层的属性。
该工具还将与Captum Insights一起启动,Captum Insights是用于可视化表示Captum结果的可视化工具。 Facebook在博客中表示,Insights推出时支持集成渐变,不久将支持其他模型。
PyTorch表示:“还有其他的图书馆更着重于上下文,但是,在试图解释模型的实际想法时,深度学习确实是最困难的难题,尤其是在涉及这些多模式技术问题时。”产品经理乔·斯皮萨克(Joe Spisak)在接受VentureBeat Ina的电话采访时表示。
该消息今天在PyTorch开发者大会上宣布,该大会在旧金山的Midway举行。
今天的其他新版本包括具有量化功能和Google Cloud TPU支持的PyTorch 1.3,适用于从Android和iOS设备开始的嵌入式设备的PyTorch Mobile,以及对象检测模型Detectron2的发布。
Spisak说,在今天开源之前,Captum在Facebook内部被用来更好地理解多模式环境中的决策。
“您可以查看任何Facebook页面,其中包含文本,音频,视频和链接,并且嵌入了许多不同类型的模式。因此,我们基本上是从这样一个前提开始的:我们想要了解模型为什么要预测其预测的内容,但是我们希望以一种直观的方式进行操作,从而为用户提供直观的信息以及具体的统计数据和信息让他们自信地说这就是模型做出此预测的原因,”他说。
可解释性(理解AI模型为何做出决定的能力)对于开发人员能够传达模型为什么做出特定决定的能力很重要。它使AI在需要可解释性的业务中得以应用,以遵守法规。
缺乏理解深度学习做出的决策的能力已使“黑匣子”一词普及。
在今年夏天与VentureBeat的Kyle Wiggers进行的对话中,OpenAI首席技术官Greg Brockman和首席科学家Ilya Sutskever建议,未来的模型制作应以可解释性和合理性为依据。
今年发布的其他有助于解释AI推理的工具包括IBM的AI Explainability 360工具包和Microsoft于5月发布的InterpretML。

姓 名:
邮箱
留 言: