【资源介绍】:

从核心原理、技术+ PEFT微调大模型+ LangChain构建知识库问答,你也能打造属于自己的大模型 结合实现智能助手只是第一步?企业真正急迫需求是构建符合自己业务需求的AI智能助手,核心技能训练和微调私有的大模型?本课深入企业需求,从背后原理、技术、不同大模型知识开始,带你从0到1训练出一个大模型,运用PEFT技巧微调大模型解决场景需求,最后用LangChain+训练的大模型搭建知识库问答。让你掌握大模型LLM构建的原理、技术、流程与实战,超越大多数竞争者,抢占先机,脱颖而出。

【资源目录】:

├──第1章 课程介绍 |

├──[1.1]–1-1 【导航】课程导学&让你快速了解课程.mp4 37.45M |

├──[1.2]–1-2 【内容安排】课程安排和学习建议.mp4 12.94M |

├──[1.3]–1-3 【行业发展】对行业、社会有什么影响,我们要.mp4 34.14M |

├──[1.4]–1-4 【发展史】的简要历史.mp4 15.56M |

└──[1.5]–1-5 【学习须知】本课程为什么使用gpt2而不是gpt3.mp4 5.37M

├──第2章 训练模型与开发平台环境 | ├──[2.1]–2-1 【认知】为什么要引入paddle?平时使用torch,学.mp4 7.26M | ├──[2.2]–2-2 【框架】paddle和torch与tensorflow对.mp4 10.62M | ├──[2.3]–2-3 【NLP工具和预训练模型】paddleNLP和huggi.mp4 5.37M | ├──[2.4]–2-4 【平台】介绍aistudio.mp4 24.62M | └──[2.5]–2-5 【工具】介绍基于gpt4的IDE cursor.mp4 16.35M ├──第3章 chatGPT初始技术词向量原理剖析与实战 | ├──[3.10]–3-10 【激活函数】常见七种激活函数对比.mp4 20.66M | ├──[3.11]–3-11 【预训练语言模型】RNN-LSTM-ELMO.mp4 36.02M | ├──[3.12]–3-12 本章梳理小结.mp4 5.24M | ├──[3.1]–3-1 【认知】词向量,词向量与gpt的关系.mp4 8.00M | ├──[3.2]–3-2 【语言模型】语言模型和评估指标PPL.mp4 22.19M | ├──[3.3]–3-3 【词向量模型】word2vec-cbow和skipgra.mp4 14.23M | ├──[3.4]–3-4 【softmax加速】是softmax 树型优化.mp4 23.99M | ├──[3.5]–3-5 【softmax加速】softmax负采样优化.mp4 20.23M | ├──[3.6]–3-6 【数据准备与预处理】word2vec实战(1).mp4 55.92M | ├──[3.7]–3-7 【数据准备与预处理】word2vec实战(2).mp4 30.74M | ├──[3.8]–3-8 【模型训练】word2vec实战-模型开发和训练(1).mp4 22.09M | └──[3.9]–3-9 【模型训练】word2vec实战-模型开发和训练(2).mp4 33.52M ├──第4章 chatGPT基石模型——基于Transformer架构的语言模型 | ├──[4.10]–4-10 transformer-xl解决长序列的问题(2).mp4 25.93M | ├──[4.11]–4-11 本章梳理总结.mp4 6.31M | ├──[4.1]–4-1 本章介绍.mp4 2.05M | ├──[4.2]–4-2 seq2seq结构和注意力.mp4 21.71M | ├──[4.3]–4-3 seq2seq-attention的一个案例.mp4 10.33M | ├──[4.4]–4-4 transformer的multi-head atten.mp4 37.44M | ├──[4.5]–4-5 transformer的残差链接-解决梯度消失问题.mp4 12.24M | ├──[4.6]–4-6 transformer的layernorm-归一化提升训.mp4 10.20M | ├──[4.7]–4-7 transformer的decoder 解码器.mp4 14.02M | ├──[4.8]–4-8 sparse-transformer 稀疏模型.mp4 10.66M | └──[4.9]–4-9 transformer-xl 解决长序列的问题(1).mp4 25.67M ├──第5章 基于Transformer另一分支Bert系列分析与实战 | ├──[5.10]–5-10 bert(transformer encoder)主要.mp4 40.59M | ├──[5.11]–5-11 bert(transformer encoder)的完.mp4 79.77M | ├──[5.12]–5-12 Ernie文心一言基础模型(1).mp4 24.86M | ├──[5.13]–5-13 Ernie文心一言基础模型(2).mp4 12.77M | ├──[5.14]–5-14 plato百度对话模型(1).mp4 26.03M | ├──[5.15]–5-15 plato 百度对话模型(2).mp4 28.33M | ├──[5.16]–5-16 本章总结.mp4 12.36M | ├──[5.1]–5-1 本章介绍.mp4 1.78M | ├──[5.2]–5-2 metric-评估指标(BLUE-rouge-L-MET.mp4 32.78M | ├──[5.3]–5-3 常见 subword 算法(BPE-wordpiece).mp4 9.80M | ├──[5.4]–5-4 常见的NLP任务.mp4 9.93M | ├──[5.5]–5-5 bert 预训练模型.mp4 38.97M | ├──[5.6]–5-6 bert情感分析实战—-paddle(1).mp4 42.87M | ├──[5.7]–5-7 bert情感分析实战—-paddle(2).mp4 49.98M | ├──[5.8]–5-8 evaluate和predict方法—-paddle.mp4 27.23M | └──[5.9]–5-9 bert(transformer encoder)主要源.mp4 40.85M ├──第6章 chatGPT的核心技术——强化学习 | ├──[6.10]–6-10 actor-critic(2).mp4 11.25M | ├──[6.11]–6-11 TRPO+PPO(1).mp4 39.37M | ├──[6.12]–6-12 TRPO+PPO(2).mp4 27.95M | ├──[6.13]–6-13 DQN代码实践–torch-1.mp4 41.11M | ├──[6.14]–6-14 DQN代码实践–torch-2.mp4 46.69M | ├──[6.15]–6-15 DoubleDQN+DuelingDQ代码–torc.mp4 48.83M | ├──[6.16]–6-16 REINFORCE代码–torch.mp4 45.86M | ├──[6.17]–6-17 PPO代码实践–torch.mp4 61.06M | ├──[6.18]–6-18 强化学习-本章总结.mp4 16.52M | ├──[6.1]–6-1 RL是什么&为什么要学习RL.mp4 20.49M | ├──[6.2]–6-2 强化学习章介绍.mp4 4.24M | ├──[6.3]–6-3 RL基础概念.mp4 11.45M | ├──[6.4]–6-4 RL马尔可夫过程.mp4 27.44M | ├──[6.5]–6-5 RL三种方法(1).mp4 28.39M | ├──[6.6]–6-6 RL三种方法(2).mp4 10.08M | ├──[6.7]–6-7 DQN和DQN的2种改进算法(1).mp4 17.85M | ├──[6.8]–6-8 DQN和DQN的2种改进算法(2).mp4 23.57M | └──[6.9]–6-9 actor-critic(1).mp4 36.07M ├──第7章 chatGPT技术演变——从GPT 1 开始的大模型发展与演化 | ├──[7.10]–7-10 Antropic LLM大型语言模型.mp4 39.07M | ├──[7.11]–7-11 GPT-本章总结.mp4 12.68M | ├──[7.1]–7-1 GPT1 模型.mp4 24.11M | ├──[7.2]–7-2 GPT2 模型.mp4 24.79M | ├──[7.3]–7-3 GPT3 模型-1.mp4 29.10M | ├──[7.4]–7-4 GPT3 模型-2.mp4 25.83M | ├──[7.5]–7-5 gpt-codex 基于GPT技术开发的模型.mp4 22.57M | ├──[7.6]–7-6 alphaCode基于GPT技术开发的模型-1.mp4 27.74M | ├──[7.7]–7-7 alphaCode基于GPT技术开发的模型-2.mp4 16.09M | ├──[7.8]–7-8 instruct-gpt 基于GPT技术开发的模型-1.mp4 21.30M | └──[7.9]–7-9 instruct-gpt 基于GPT技术开发的模型-2.mp4 24.96M └──第8章 RLHF训练类模型代码实战 | ├──[8.10]–8-10 RLHF强化学习人类反馈的训练-model-base.mp4 23.30M | ├──[8.11]–8-11 RLHF强化学习人类反馈的训练-model-opt.mp4 12.40M | ├──[8.13]–8-13 RLHF强化学习人类反馈的训练-generation(.mp4 46.63M | ├──[8.14]–8-14 RLHF强化学习人类反馈的训练-exp_maker(1.mp4 30.23M | ├──[8.15]–8-15 RLHF强化学习人类反馈的训练-exp_maker(2.mp4 41.16M | ├──[8.16]–8-16 RLHF强化学习人类反馈的训练-buffer-util.mp4 53.57M | ├──[8.17]–8-17 RLHF强化学习人类反馈的训练-buffer-loss.mp4 43.34M | ├──[8.19]–8-19 RLHF强化学习人类反馈的训练-main.mp4 66.87M | ├──[8.1]–8-1 chatGPT训练实战.mp4 12.73M | ├──[8.2]–8-2 SFT有监督的训练-数据处理.mp4 58.50M | ├──[8.3]–8-3 SFT有监督训练-trainer.mp4 36.27M | ├──[8.4]–8-4 SFT有监督训练-train.mp4 59.50M | ├──[8.5]–8-5 RM训练-model+dataset(1).mp4 26.43M | ├──[8.6]–8-6 RM训练-model+dataset(2).mp4 24.84M | ├──[8.7]–8-7 RM训练-trainer.mp4 29.42M | ├──[8.8]–8-8 RM训练-train-rm.mp4 33.74M | └──[8.9]–8-9 RLHF强化学习人类反馈的训练-dataset.mp4 13.82M

声明:牛马资源站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。