全国免费咨询:

13245491521

VR图标白色 VR图标黑色
X

中高端软件定制开发服务商

与我们取得联系

13245491521     13245491521

2018-09-21_EMNLP 2018 | 最佳论文出炉:谷歌、Facebook、CMU上榜

您的位置:首页 >> 新闻 >> 行业资讯

EMNLP 2018 | 最佳论文出炉:谷歌、Facebook、CMU上榜 机器之心报道 机器之心编辑部、专知 EMNLP 是自然语言处理领域顶级国际会议,每年吸引世界各国近千名学者交流自然语言处理发展前沿。2018 年度 EMNLP 大会将于 10 月 31 日 - 11 月 4 日在比利时布鲁塞尔举办。昨日 EMNLP 2018 公布了两篇最佳长论文、一篇最佳短论文以及一篇最佳资源论文。 EMNLP 是自然语言处理领域的顶级国际会议,每年吸引世界各国近千名学者交流自然语言处理发展前沿,前几年长文的录用率只有 26% 左右: 昨日 EMNLP 在官方 Twitter 上公布了两篇最佳长论文、一篇最佳短论文、一篇最佳资源论文,获奖论文详细信息如下: 最佳长论文 1. 论文:Linguistically-Informed Self-Attention for Semantic Role Labeling 论文地址:https://arxiv.org/abs/1804.08199 (http://www.zhuanzhi.ai/paper/87964e6ae3d40f170d2934d9cca009af) 摘要:当前最先进的语义角色标记(SRL)使用深度神经网络而没有明确的语言特征。但是,之前的工作表明,语法树可以显著改善 SRL 解码,这表明通过显式语法建模可以提高准确性。在这项工作中,我们提出了基于语言学的 self-attention(LISA):一种神经网络模型,它将 multi-head self-attention 与多任务学习相结合,包括依赖解析、词性标注、谓词检测和语义角色标记。与先前需要大量预处理来准备语言特征的模型不同,LISA 可以仅使用原始的 token 对序列进行一次编码,来同时执行多个预测任务。语法信息被用来训练一个 attention head 来关注每个 token 语法上的父节点。如果已经有高质量的语法分析,则可以在测试时进行有益的注入,而无需重新训练我们的 SRL 模型。在 CoNLL-2005 SRL 数据集上,LISA 在谓词预测、word embedding 任务上比当前最好的算法在 F1 值上高出了 2.5(新闻专线数据)和 3.5 以上(其他领域数据),减少了约 10% 的错误。在 ConLL-2012 英文角色标记任务上,我们的方法也获得了 2.5 F1 值的提升。LISA 同时也比当前最好的基于上下文的词表示学习方法(ELMo)高出了 1.0 的 F1(新闻专线数据)和多于 2.0 的 F1(其他领域数据)。 2. 论文:Phrase-Based & Neural Unsupervised Machine Translation 论文地址:https://arxiv.org/abs/1804.07755 代码地址:https://github.com/facebookresearch/UnsupervisedMT 摘要:机器翻译系统在某些语言上实现了接近人类的能力,但它的性能依赖于大量的平行双语语料,这降低了机器翻译的适用性。本研究探讨了如何在只有大规模单语种语料库的情况下进行机器翻译。我们提出了两个模型(变式),一个基于神经网络和一个基于短语的模型。两个模型都使用了精心设计的参数初始化、语言模型的降噪和基于迭代反向翻译的并行预料生成。这些模型优于引用文献中的方法,而且更简单、具有更少的超参数。在广泛使用的 WMT'14 English - French 和 WMT'16German - English 基准测试中,我们的模型分别获得了 28.1 和 25.2 BLEU 点(在不使用平行预料的情况下),比当前最好的方法高出了 11 个 BLEU 点。在资源较少的语言如 English-Urdu 何 English-Romanian 中,我们的方法甚至比利用短缺的 bitexts 的半监督和监督方法要好。我们的 NMT 和 PBSMT 代码现在已经公开了。 更多内容请参见:学界 | FAIR 新一代无监督机器翻译:模型更简洁,性能更优 最佳短论文 论文:How Much Reading Does Reading Comprehension Require? A Critical Investigation of Popular Benchmarks. 论文地址:https://arxiv.org/pdf/1808.04926.pdf 摘要:最近在阅读理解问题上有很多研究,它们一般都包含 (question, passage, answer) 元组。大概而言,阅读理解模型必须结合来自问题和文章的信息以预测对应的回答。然而,尽管这一主题非常受关注,且有数百篇论文都希望更好地解决该问题,但许多流行基准的测试难度问题仍未得到解决。在本论文中,我们为 bAbI、SQuAD、CBT、CNN 和 Whodid-What 数据集建立了合理的基线模型,并发现仅带有问题或文章的模型通常有更好的表现。在 20 个 bAbI 任务的 14 个中,仅带有文章的模型实现了高达 50% 的准确度,它有时能与全模型的性能相匹配。有趣的是,虽然 CBT 提供了 20-sentence 的故事,但只有最后一句能进行相对准确的预测。 最佳资源论文 最佳资源论文的链接暂未公开,获奖论文信息如下: 论文标题:MultiWOZ - A Large-Scale Multi-Domain Wizard-of-Oz Dataset for Task-Oriented Dialogue Modelling 作者:Pawe? Budzianowski, Tsung-Hsien Wen, Bo-Hsiang Tseng, I?igo Casanueva, Stefan Ultes, Osman Ramadan,Milica Gasic 参考资料:https://github.com/lixin4ever/Conference-Acceptance-Rate 本文为机器之心报道,转载请联系本公众号获得授权。 ?------------------------------------------------ 加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com 投稿或寻求报道:content@jiqizhixin.com 广告 & 商务合作:bd@jiqizhixin.com

上一篇:2023-04-12_ChatGPT时代,图灵测试已死 下一篇:2025-03-02_DeepSeek关键RL算法GRPO,有人从头跑通了,贡献完整代码

TAG标签:

20
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设网站改版域名注册主机空间手机网站建设网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。
项目经理在线

相关阅读 更多>>

猜您喜欢更多>>

我们已经准备好了,你呢?
2022我们与您携手共赢,为您的企业营销保驾护航!

不达标就退款

高性价比建站

免费网站代备案

1对1原创设计服务

7×24小时售后支持

 

全国免费咨询:

13245491521

业务咨询:13245491521 / 13245491521

节假值班:13245491521()

联系地址:

Copyright © 2019-2025      ICP备案:沪ICP备19027192号-6 法律顾问:律师XXX支持

在线
客服

技术在线服务时间:9:00-20:00

在网站开发,您对接的直接是技术员,而非客服传话!

电话
咨询

13245491521
7*24小时客服热线

13245491521
项目经理手机

微信
咨询

加微信获取报价