参考文献管理

返回首页

参考文献库

管理和组织您的参考文献

标签筛选
清除
深度学习 小样本学习 自然语言处理 计算机视觉 强化学习 注意力机制 元学习
排序方式

引用格式

参考文献列表 24篇

Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, Illia Polosukhin

NeurIPS, 2017

深度学习 注意力机制 DOI

Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova

NAACL, 2018

深度学习 自然语言处理 DOI

Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al.

NeurIPS, 2020

深度学习 自然语言处理 小样本学习 DOI

Jake Snell, Kevin Swersky, Richard Zemel

NeurIPS, 2017

深度学习 小样本学习 DOI

Chelsea Finn, Pieter Abbeel, Sergey Levine

ICML, 2017

深度学习 元学习 小样本学习 DOI

文献详情

Attention Is All You Need

Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, Illia Polosukhin

NeurIPS, 2017


引用次数 56,982
发表日期 2017-06-12
添加日期 2023-09-05

摘要

主流的序列转导模型基于复杂的循环或卷积神经网络,包含一个编码器和一个解码器。表现最好的模型还通过注意力机制连接编码器和解码器。我们提出了一种新的简单网络架构——Transformer,它完全基于注意力机制,彻底抛弃了循环和卷积结构。在两个机器翻译任务上的实验表明,这些模型在质量上更优,同时更易于并行化,训练时间显著减少。

引用格式

A. Vaswani et al., "Attention is all you need," in Advances in Neural Information Processing Systems, 2017, pp. 5998-6008.

被引用论文