继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

Transformer大语言模型工作原理

翻过高山走不出你
关注TA
已关注
手记 260
粉丝 31
获赞 68

《Transformer大语言模型工作原理》是一门免费课程,包含约90分钟的视频、代码及精炼的可视化图表与动画,系统解析现代Transformer架构、分词器、嵌入技术以及混合专家模型。

Maarten Grootendorst与我在过去几年中为本书开发了完整的可视化语言体系(历经数万次迭代创作数百张图表)。这些成果凝聚了Cohere、C4AI以及开源开放科学机器学习社区众多优秀同事的智慧。此次与吴恩达(Andrew Ng)及其DeepLearning.ai团队的合作,通过动画技术和精炼叙述将内容提升至新高度,旨在帮助技术学习者快速读懂机器学习论文并理解架构描述。

通过本课程,您将学习到:

  • 语言表示的演进路径:从词袋模型到Word2Vec嵌入,直至能完整捕捉上下文语义的Transformer架构
  • LLM的输入处理机制:大语言模型如何将输入文本分解为表征单词或词块的token
  • Transformer核心架构:详解分词嵌入、Transformer块堆叠、语言模型头三大核心阶段
  • Transformer块设计原理:计算关联度的注意力机制与融合训练知识的前馈网络
  • 性能优化与演进:缓存计算如何加速Transformer,以及该架构自原始论文发表后的持续演进
  • 现代模型实战:基于Hugging Face Transformer库的模型实现解析

完成本课程后,您将深入理解大语言模型的语言处理机制,并能精准解读模型论文中的架构细节。这种直观理解将帮助您更有效地构建LLM应用。

打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP