Attention Is All You Need

该比赛已结束,您无法在比赛模式下递交该题目。您可以点击“在题库中打开”以普通模式查看和递交本题。

题目描述

《Attention Is All You Need》提出了革命性的Transformer架构,它完全摒弃了循环神经网络(RNN)和卷积神经网络(CNN),核心在于自注意力机制。该机制允许模型在处理序列时直接关注所有位置的信息,从而高效捕捉长距离依赖关系。

模型通过多头注意力从不同子空间捕捉信息,并辅以位置编码来注入序列顺序。这种设计不仅解决了RNN的长程依赖难题,还实现了高度的计算并行性,极大提升了训练效率。

Transformer不仅在当时取得了顶尖性能,更重要的是奠定了此后BERT、GPT等大语言模型的基础,彻底改变了自然语言处理的发展方向。

现在你仅需要输出这篇传奇论文的标题:Attention Is All You Need

输入格式

本题没有输入

输出格式

一行:Attention Is All You Need

样例

Attention Is All You Need

限制

Time Limit: 1s

Memory Limit: 256MiB

2025年中国民航大学程序设计天梯竞赛

未参加
状态
已结束
规则
IOI
题目
20
开始于
2025-10-12 18:00
结束于
2025-10-12 21:00
持续时间
3 小时
主持人
参赛人数
192