《Transformer大语言模型工作原理》是一门免费课程,包含约90分钟的视频、代码及精炼的可视化图表与动画,系统解析现代Transformer架构、分词器、嵌入技术以及混合专家模型。
Maarten Grootendorst与我在过去几年中为本书开发了完整的可视化语言体系(历经数万次迭代创作数百张图表)。这些成果凝聚了Cohere、C4AI以及开源开放科学机器学习社区众多优秀同事的智慧。此次与吴恩达(Andrew Ng)及其DeepLearning.ai团队的合作,通过动画技术和精炼叙述将内容提升至新高度,旨在帮助技术学习者快速读懂机器学习论文并理解架构描述。
通过本课程,您将学习到:
- 语言表示的演进路径:从词袋模型到Word2Vec嵌入,直至能完整捕捉上下文语义的Transformer架构
- LLM的输入处理机制:大语言模型如何将输入文本分解为表征单词或词块的token
- Transformer核心架构:详解分词嵌入、Transformer块堆叠、语言模型头三大核心阶段
- Transformer块设计原理:计算关联度的注意力机制与融合训练知识的前馈网络
- 性能优化与演进:缓存计算如何加速Transformer,以及该架构自原始论文发表后的持续演进
- 现代模型实战:基于Hugging Face Transformer库的模型实现解析
完成本课程后,您将深入理解大语言模型的语言处理机制,并能精准解读模型论文中的架构细节。这种直观理解将帮助您更有效地构建LLM应用。

随时随地看视频