五年时间被引用3.8万次,Transformer宇宙发展成了这样


自 2017 年提出至今,Transformer 模型已经在自然语言处理、计算机视觉等其他领域展现了前所未有的实力,并引发了 ChatGPT 这样的技术突破,人们也提出了各种各样基于原始模型的变体。

由于学界和业界不断提出基于 Transformer 注意力机制的新模型,我们有时很难对这一方向进行归纳总结。近日,领英 AI 产品战略负责人 Xavier Amatriain 的一篇综述性文章或许可以帮助我们解决这一问题。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

在过去的几年里,陆续出现了数十个来自 Transformer 家族模型,所有这些都有有趣且易懂的名字。本文的目标是为最流行的 Transformer 模型提供一个比较全面但简单的目录和分类,此外本文还介绍了 Transformer 模型中最重要的方面和创新。

论文《Transformer models: an introduction and catalog》:

论文链接:

​https://arxiv.org/abs/2302.07730​

GitHub:https://github.com/xamat/TransformerCatalog

简介:什么是 Transformer

Transformer 是一类由一些架构特征定义的深度学习模型。首次出现在谷歌研究人员于 2017 年发表的著名论文《Attention is All you Need》中(这篇论文在短短 5 年就被引用了 3.8 万余次)以及相关的博客文章中。Transformer 架构是编码器 - 解码器模型 [2] 的一个特定实例,该模型在 2 - 3 年前开始流行起来。然而,在此之前,注意力只是这些模型使用的机制之一,这些模型主要基于 LSTM(长短期记忆)[3] 和其他 RNN(循环神经网络)[4] 变体。Transformers 论文的关键见解是,正如标题所暗示的那样,注意力可以被用作推导输入和输出之间依赖关系的唯一机制。讨论 Transformer 体系结构的所有细节超出了本博客的范围。为此,本文建议参考上面的原论文或 Transformers 的帖子,内容都十分精彩。话虽如此,本文将简要叙述最重要的方面,下面的目录中也会提到它们。本文将先从原始论文中的基本架构图开始,继而展开叙述相关内容。

编码器 / 解码器架构

通用编码器 / 解码器体系架构 (参见图 1) 由两个模型组成。编码器接受输入并将其编码为固定长度的向量。解码器获取该向量并将其解码为输出序列。编码器和解码器联合训练以最小化条件对数似然。一旦训练,编码器 / 解码器可以生成给定输入序列的输出,或者可以对输入 / 输出序列进行评分。在最初的 Transformer 架构中,编码器和解码器都有 6 个相同的层。在这 6 层中的每一层编码器都有两个子层:一个多头注意层和一个简单的前馈网络。每个子层都有一个残差连接和一个层归一化。编码器的输出大小是 512。解码器添加了第三个子层,这是编码器输出上的另一个多头注意层。此外,解码器中的另一个多头层被掩码。

图 1:Transformer 体系架构

图 2:注意力机制

注意力

从上面的描述可以清楚地看出,模型体系架构唯一的特别元素是多头注意力,但是,正如上面所描述的,这正是模型的全部力量所在。那么,注意力到底是什么?注意力函数是查询和一组键值对到输出之间的映射。输出是按值的加权和计算的,其中分配给每个值的权重是通过查询与相应键的兼容性函数计算的。Transformers 使用多头注意力,这是一个被称为缩放点积注意力的特定注意力函数的并行计算。关于注意力机制如何工作的更多细节,本文将再次参考《The Illustrated Transformer》的帖文,将在图 2 中再现原始论文中的图表,以便了解主要思想。与循环网络和卷积网络相比,注意力层有几个优势,最重要的两个是它们较低的计算复杂性和较高的连通性,特别是对于学习序列中的长期依赖关系非常有用。

Transformer 的用途是什么,为什么它们如此受欢迎

最初的 Transformer 是为语言翻译而设计的,特别是从英语到德语。但是,通过原先的研究论文就可以看出,该架构可以很好地推广到其他语言任务。这一特别的趋势很快就引起了研究界的注意。在接下来的几个月里,大多数与语言相关的 ML 任务排行榜完全被某个版本的 Transformer 架构所主导(比方说,著名的 SQUAD 排行榜,其中所有位于顶部的模型都是 Transformer 的集合)。Transformer 能够如此迅速地占据大多数 NLP 排行榜的关键原因之一是它们能够快速适应其他任务,也就是迁移学习。预训练的 Transformer 模型可以非常容易和快速地适应它们没有经过训练的任务,这具有巨大的优势。作为 ML 从业者,你不再需要在庞大的数据集上训练大型模型。你所需要做的就是在你的任务中重新使用预训练的模型,也许只是用一个小得多的数据集稍微调整它。一种用于使预训练的模型适应不同任务的特定技术被称为微调。

事实证明,Transformer 适应其他任务的能力是如此之强,以至于尽管它们最初是为与语言相关的任务而开发的,但它们很快就被用于其他任务,从视觉或音频和音乐应用程序,一直到下棋或做数学。

当然,如果不是因为有无数的工具,任何人都可以轻松地编写几行代码,那么所有这些应用程序都不可能实现。Transformer 不仅能被迅速整合到主要的人工智能框架(即 Pytorch8 和 TF9)中,甚至基于此创建起整个公司。Huggingface 是一家迄今为止已经筹集了 6000 多万美元的初创公司,几乎完全是围绕着将开源 Transformer 库商业化的想法建立的。

最后,有必要谈谈 Transformer 普及初期 GPT-3 对其的影响。GPT-3 是 OpenAI 在 2025 年 5 月推出的 Transformer 模型,是他们早期 GPT 和 GPT-2 的后续产品。该公司通过在预印本中介绍该模型而引起了很大的轰动,他们声称该模型非常强大,以至于他们无法向世界发布它。从那以后,该模型不仅发布了,而且还通过 OpenAI 和微软之间的大规模合作实现了商业化。GPT-3 支持 300 多个不同的应用程序,是 OpenAI 商业战略的基础 (对于一家已经获得超过 10 亿美元融资的公司来说,这是很有意义的)。

RLHF

最近,从人类反馈(或偏好)中强化学习(RLHF(也称作 RLHP)已成为人工智能工具包的一个巨大补充。这个概念已经在 2017 年的论文《Deep reinforcement learning from human preferences》中提出。最近,它被应用于 ChatGPT 和类似的对话智能体,如 BlenderBot 或 Sparrow。这个想法很简单:一旦语言模型被预先训练,用户就可以对对话生成不同的响应,并让人类对结果进行排序。人们可以在强化学习环境中使用这些排名(也就是偏好或反馈)来训练奖励(见图 3)。

扩散

扩散模型已经成为图像生成中的新 SOTA,显然将之前的方法如 GANs(生成对抗网络)推到了一边。什么是扩散模型?它们是一类经过变分推理训练的潜变量模型。以这种方式训练的网络实际上是在学习这些图像所代表的潜在空间(参见图 4)。 

扩散模型与其他生成模型有关系,如著名的 [生成对抗网络 (GAN)] 16,它们在许多应用中已经被取代,特别是与(去噪)自动编码器。有些作者甚至说扩散模型只是自编码器的一个具体实例。然而,他们也承认,微小的差异确实改变了他们的应用,从 autoconder 的潜在表示到扩散模型的纯粹生成性质。

图 3:带有人类反馈的强化学习。

图 4:概率扩散模型架构摘自《Diffusion Models: A Comprehensive Survey of Methods and Applications》

本文介绍的模型包括:

 


# gpt  # 都是  # 以对  # 中分  # 被称为  # 最初  # 应用程序  # 这是  # 最重要  # 这一  # 都有  # chatgpt  # https  # gpt-3  # nlp  # transformer  # lstm  # rnn  # 人工智能  # github  # 循环  # 架构 


相关栏目: 【 Google疑问12 】 【 Facebook疑问10 】 【 网络优化91478 】 【 技术知识72672 】 【 云计算0 】 【 GEO优化84317 】 【 优选文章0 】 【 营销推广36048 】 【 网络运营41350 】 【 案例网站102563 】 【 AI智能45237


相关推荐: AI视频创作新纪元:CogVideoX Flash模型深度解析  豆包AI怎么查看个人主页_管理账号信息与偏好设置  Gacha Club反应视频解析:探索热门角色和独特剧情  斑马AI怎样设置专注模式_斑马AI专注时段与干扰屏蔽【指南】  AI网站构建指南:Duda平台免费创建教程  Descript vs. Wisecut:AI视频编辑工具深度测评与最佳选择  豆包AI怎样生成PPT目录页_豆包AI目录自动生成与页码添加【指南】  Google AI 在教育领域个性化学习路径的构建  AI动画制作终极指南:让你的图片和人物栩栩如生  Codeforces Pair Programming Problem: C 解题思路  Docker MCP Toolkit:简化AI代理与外部工具的连接  百度ai助手工具栏怎么关 百度ai助手状态栏隐藏  Midjourney怎么用一键生成海报_Midjourney海报生成教程【方法】  清洁扫地机器人传感器:解决导航和充电难题  微信AI数字人如何设置工作时间_微信AI数字人时段开关与值班安排【实操】  Kaiber AI视频制作教程:轻松打造吸睛AI视频  Depseek能否批量生成部门总结_Depseek多部门总结批量生成步骤【方法】  DeepSeek 辅助进行 Linux 内核参数调优教程  DeepSeek AI:AI通用谜题解题器,解题思路全解析  Notta AI: 提升效率的智能会议纪要工具  看我如何用AI辅助写作,在10分钟内搞0. AI求职信写作避坑指南:千万别犯这几个错误  通义千问网页版怎么清历史_通义千问历史清理方法【方法】  3步教你用AI将文字转换成语音,实现配音自由  ChatGPT 提示词工程:结构化指令编写指南  System of a Down:深度剖析《Hypnotize》歌词  VideoInu AI 动画制作:教程、功能与Pro账户赠送  AI驱动合同管理:Microsoft Power Platform实战指南  AI驱动保险代理:最佳保险 lead generation 公司与服务  Filmora 13 AI音乐生成器:创意视频配乐新纪元  AI赋能建筑合同管理:ChatGPT实用案例深度解析  冷邮件营销新策略:工作坊模式助力B2B销售增长  美图秀秀AI抠图如何换背景_美图秀秀AI背景替换与贴纸添加【攻略】  Claude怎样写任务型提示词_Claude任务提示词写法【步骤】  教你用AI快速制作思维导图,3步理清所有工作思路  批改网ai检测工具如何导出检测报告_批改网ai检测工具报告导出格式【步骤】  XRAI Glass:AI赋能的增强现实眼镜,对话新体验  如何通过 DeepSeek 优化 Kubernetes 配置文件  AI任务管理器终极评测:找到最适合你的效率神器  汽车“以旧换新”补贴升级:2026年置换最高补1.5万元  啦啦队女孩:青春活力与性感魅力的完美结合  留学文书PS怎么写?教你用AI写出招生官眼前一亮的个人陈述  AI绘图软件怎么用_AI绘图软件使用方法详细指南【教程】  AI简历泛滥:虚假技能与企业衰落的深度剖析  lovemo手机网页版 lovemo官方入口地址  豆包AI怎么评价回答的好坏_点赞与反馈功能使用教程  寓言故事:狮子与老鼠,学习英语的趣味童话之旅  Wrike:AI赋能的项目管理平台,提升电商效率与团队协作  eGain AI Knowledge Hub:助力 Specialized 成熟运营和卓越 CX  百度AI搜索能否查实时新闻_百度AI搜索新闻频道与更新频率【方法】  AI人像摄影新纪元:Gemini AI助力照片编辑 

 2023-04-11

了解您产品搜索量及市场趋势,制定营销计划

同行竞争及网站分析保障您的广告效果

点击免费数据支持

提交您的需求,1小时内享受我们的专业解答。

南京市珐之弘网络技术有限公司


南京市珐之弘网络技术有限公司

南京市珐之弘网络技术有限公司专注海外推广十年,是谷歌推广.Facebook广告全球合作伙伴,我们精英化的技术团队为企业提供谷歌海外推广+外贸网站建设+网站维护运营+Google SEO优化+社交营销为您提供一站式海外营销服务。

 87067657

 13565296790

 87067657@qq.com

Notice

We and selected third parties use cookies or similar technologies for technical purposes and, with your consent, for other purposes as specified in the cookie policy.
You can consent to the use of such technologies by closing this notice, by interacting with any link or button outside of this notice or by continuing to browse otherwise.