试看链接:https://pan.baidu.com/s/1z0VVjqMp-Je08Kh64rbBew?pwd=tgxv
相关推荐:
AI大模型企业应用实战
知乎AI大模型全栈工程师3期
2024最新贪心科技-大模型开发应用实战营
AI人人必修-提示词工程+大模型多场景实战(丰富资料)超清完结
课程目录:
.
├── 第1章 课程介绍/
│ ├── [18:25] 1-1 课程导学
│ ├── [09:13] 1-2 课程安排和学习建议
│ ├── [21:22] 1-3 ChatGPT对行业社会的影响
│ ├── [09:53] 1-4 ChatGPT发展简史
│ └── [03:03] 1-5 为什么使用GPT2而非GPT3
│
├── 第2章 训练模型与开发平台环境/
│ ├── [04:06] 2-1 Paddle框架引入必要性
│ ├── [07:14] 2-2 深度学习框架对比
│ ├── [03:23] 2-3 PaddleNLP与HuggingFace
│ ├── [07:53] 2-4 AI Studio平台介绍
│ └── [06:51] 2-5 GPT4 IDE工具Cursor
│
├── 第3章 词向量原理与实战/
│ ├── [05:22] 3-1 词向量与GPT关系
│ ├── [13:28] 3-2 语言模型与PPL指标
│ ├── [08:15] 3-3 Word2Vec模型原理
│ ├── [14:46] 3-4 Softmax树型优化
│ ├── [13:49] 3-5 负采样优化
│ ├── [43:42] 3-6~7 Word2Vec实战
│ ├── [29:50] 3-8~9 模型开发训练
│ ├── [15:29] 3-10 激活函数对比
│ ├── [25:49] 3-11 预训练模型演进
│ └── [05:06] 3-12 本章小结
│
├── 第4章 Transformer架构精讲/
│ ├── [01:32] 4-1 本章介绍
│ ├── [15:23] 4-2 Seq2Seq与注意力
│ ├── [07:37] 4-3 Seq2Seq案例
│ ├── [23:07] 4-4 多头注意力
│ ├── [15:24] 4-5~6 残差连接与LayerNorm
│ ├── [09:11] 4-7 Decoder解析
│ ├── [24:44] 4-8~10 稀疏模型与长序列优化
│ └── [04:52] 4-11 本章总结
│
├── 第5章 BERT系列实战/
│ ├── [01:14] 5-1 本章介绍
│ ├── [22:49] 5-2 NLP评估指标
│ ├── [13:38] 5-3~4 Subword算法与NLP任务
│ ├── [25:29] 5-5 BERT预训练模型
│ ├── [36:10] 5-6~7 情感分析实战
│ ├── [10:49] 5-8 预测方法
│ ├── [42:04] 5-9~11 BERT源码解析
│ ├── [21:02] 5-12~13 文心一言模型
│ ├── [29:09] 5-14~15 Plato对话模型
│ └── [07:51] 5-16 本章总结
│
├── 第6章 强化学习核心/
│ ├── [14:11] 6-1 RL基础认知
│ ├── [02:53] 6-2 本章介绍
│ ├── [23:46] 6-3~4 马尔可夫过程
│ ├── [22:47] 6-5~6 三类方法
│ ├── [30:07] 6-7~8 DQN改进算法
│ ├── [33:08] 6-9~10 Actor-Critic
│ ├── [41:51] 6-11~12 PPO算法
│ ├── [51:21] 6-13~15 DQN实战
│ ├── [43:21] 6-16~17 策略梯度实战
│ └── [10:24] 6-18 本章总结
│
├── 第7章 GPT技术演进/
│ ├── [14:46] 7-1 GPT1模型
│ ├── [14:00] 7-2 GPT2模型
│ ├── [28:01] 7-3~4 GPT3模型
│ ├── [12:58] 7-5 GPT-Codex
│ ├── [26:10] 7-6~7 AlphaCode
│ ├── [30:27] 7-8~9 InstructGPT
│ ├── [24:41] 7-10 Antropic模型
│ └── [07:21] 7-11 本章总结
│
├── 第8章 RLHF实战/
│ ├── [08:52] 8-1 实战概览
│ ├── [40:25] 8-2~4 SFT监督训练
│ ├── [45:53] 8-5~8 RM奖励模型
│ ├── [36:30] 8-9~11 RLHF模型构建
│ ├── [33:15] 8-12~13 生成模块
│ ├── [32:32] 8-14~15 经验生成
│ ├── [46:26] 8-16~17 缓冲与损失
│ ├── [22:03] 8-18 Trainer实现
│ └── [19:30] 8-19 主流程
│
├── 第9章 PEFT微调/
│ ├── [23:14] 9-1 BitFit方法
│ ├── [21:47] 9-2~3 Prefix/Prompt调优
│ ├── [20:14] 9-4~5 P-tuning演进
│ ├── [05:13] 9-6 LoRA原理
│ ├── [28:37] 9-7~8 Prompt实战
│ ├── [33:23] 9-9~10 Prefix实战
│ ├── [50:31] 9-11~13 LoRA实战
│ ├── [45:16] 9-14~15 ChatGLM2微调
│ └── [15:05] 9-16 本章总结
│
├── 第10章 LangChain应用/
│ ├── [12:43] 10-1 LangChain基础
│ ├── [25:31] 10-2 初探实战
│ ├── [14:59] 10-3 MiniQA实现
│ ├── [13:11] 10-4 工业场景设计
│ └── [08:30] 10-5 本章总结
│
└── 第11章 课程总结/
├── [17:48] 11-1 总结(上)
└── [15:01] 11-2 总结(下)
└── 本课程已完结
声明:本站所有资料均来源于网络以及用户发布,如对资源有争议请联系微信客服我们可以安排下架!