文献检索与综述

返回首页

搜索结果 25篇

Attention Is All You Need
Ashish Vaswani, Noam Shazeer, Niki Parmar等

本文提出了一种新的简单网络架构——Transformer,它完全基于注意力机制,彻底抛弃了循环和卷积结构...

2017 · NeurIPS · 引用: 56,982
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova

我们提出了一种新的语言表示模型BERT,它代表来自Transformers的双向编码器表示...

2018 · NAACL · 引用: 45,120
GPT-3: Language Models are Few-Shot Learners
Tom B. Brown, Benjamin Mann, Nick Ryder等

我们展示了通过扩大语言模型的大小来显著提高任务无关的少样本性能,我们训练了一个具有1750亿参数的自回归语言模型GPT-3...

2020 · NeurIPS · 引用: 18,329

智能文献综述

根据当前搜索结果生成文献综述

研究趋势分析

分析当前领域研究热点和趋势

关键技术演变 查看
研究热点变化 查看
学术影响力分析 查看