
课程介绍
AI大模型职业发展必备课程,助你快速掌握稀缺算法落地技能,冲击高薪AI岗位。课程深入拆解大模型原理、算法与训练调优,覆盖DeepSeek生态、Transformer、MoE、GRPO、预训练及微调(Fine-tuning)等核心技术。通过20+实战案例和政务系统、公文生成两大企业级项目,全流程涵盖开发、微调、部署及融合RAG和Agent技术。帮你全面提升大模型算法开发和应用能力,增强职场竞争力,抢占AI时代技术制高点。
试看链接 https://pan.baidu.com/s/1wkRgWofvQ5u0OWBzcuH8Sw?pwd=avqi
相关推荐
RAG全栈技术从基础到精通 ,打造高精准AI应用
AI时代人人必修课-提示词工程+大语言模型 多场景实战
AI Agent从0到1定制开发 全栈/全流程/企业级落地实战
LLM应用全流程开发 全新技术+多案例实战+私有化部署
资源目录
├── 第1章 课程导学与环境介绍 │ ├── 1-1 课程介绍与安排【不要错过】 │ ├── 1-2 为什么在AI时代要学习大模型及其相关的理论知识 │ ├── 1-3 中国开发者学习DeepSeek的意义 │ ├── 1-4 大模型常用学习资源与模型下载 │ ├── 1-5 Anaconda介绍及安装 │ ├── 1-6 pycharm安装级连接远程服务器 │ └── 1-7 按图索骥AI技术全景介绍 ├── 第2章 【小试牛刀】DeepSeek认知与体验 │ ├── 2-1 ChatGPT的诞生和DeepSeek的追赶 │ ├── 2-2 DeepSeek能力体验与大模型的影响 │ ├── 2-3 小试牛刀1-基于DeepSeek结合提示工程搭建功能强大的翻译机 │ └── 2-4 小试牛刀2-几行代码实现DeepSeek蒸馏模型私有化部署实战 ├── 第3章 【大模型理论】DeepSeek的诞生之路 │ ├── 3-1 自然语言处理解决的是什么问题 │ ├── 3-2 规则和统计学的方法 │ ├── 3-3 为什么要使用词向量以及向量表示的作用 │ ├── 3-4 如何获得一份表示良好的词向量? │ ├── 3-5 词向量的价值 │ ├── 3-6 小试牛刀词向量实战 │ ├── 3-7 预训练模型 │ └── 3-8 小试牛刀预训练模型实战 ├── 第4章 【特征编码器Transformer】深入理解大模型的输入输出 │ ├── 4-1 大模型的文本切分与Token │ ├── 4-2 大模型的Tokenizer │ ├── 4-3 深入理解Tokenizer的作用及影响 │ ├── 4-4 【小试牛刀】Tokenizer实战 │ ├── 4-5 深入理解BPE算法训练和编码过程 │ ├── 4-6 【实战】手撸BPE算法训练代码 │ ├── 4-7 初步了解大模型中的位置编码 │ ├── 4-8 大模型的输出流程介绍 │ ├── 4-9 大模型解码原理详细介绍 │ ├── 4-10 【实战】寻找大模型最佳推理参数实战(一) │ └── 4-11 【实战】寻找大模型最佳推理参数实战(二) ├── 第5章 【特征编码器Transformer】深入Transfomer中的注意力机制 │ ├── 5-1 Transformer基础知识准备 │ ├── 5-2 【实战】手撸LayerNorm代码 │ ├── 5-3 【实战】手撸softmax代码 │ ├── 5-4 深入理解注意力机制 │ ├── 5-5 掩码自注意力机制 │ ├── 5-6 多头注意力机制 │ ├── 5-7 【实战】手撸attention机制代码 │ ├── 5-8 【实战】手撸masked_self_attention │ ├── 5-9 【实战】手撸MaskedMultiHeadAttention代码(1) │ ├── 5-10 【实战】手撸MaskedMultiHeadAttention代码(2) │ ├── 5-11 残差连接和FFN │ ├── 5-12 【实战】手搓FFN和残差结构实现代码 │ ├── 5-13 【实战】手撸TransformerDecoderBlock实现 │ ├── 5-14 【实战】手撸Transformer整体代码(一) │ ├── 5-15 【实战】手撸Transformer整体代码(二) │ ├── 5-16 attention机制的进化:GQA和MQA │ ├── 5-17 【实战】手撸MQA注意力机制代码 │ ├── 5-18 【实战】手撸GQA注意力机制代码(一) │ └── 5-19 【实战】手撸GQA注意力机制代码(二) ├── 第6章 【特征编码器Transformer】深入Transfomer中的位置编码 │ ├── 6-1 相对位置编码介绍 │ ├── 6-2 旋转位置编码理论 │ ├── 6-3 手撸旋转位置编码ROPE(1) │ ├── 6-4 手撸旋转位置编码ROPE(2) │ ├── 6-5 手撸旋转位置编码ROPE(3) │ ├── 6-6 旋转位置编码的核心参数及其影响 │ └── 6-7 旋转位置编码的变种 ├── 第7章 【预训练】大语言模型的预训练 │ ├── 7-1 大语言模型经典训练框架介绍 │ ├── 7-2 大模型预训练(目标与任务) │ ├── 7-3 大模型预训练(MTPL多Token预测) │ ├── 7-4 大模型预训练(预训练数据和处理) │ ├── 7-5 大模型预训练(预训练过程) │ ├── 7-6 大模型的评估体系 │ ├── 7-7 大模型代码能力的评估 │ ├── 7-8 大模型数学能力的评估 │ ├── 7-9 大模型阅读理解能力的评估 │ ├── 7-10 大模型综合评测榜单介绍 │ ├── 7-11 【实战】DeepSeek代码能力评估实战之(第一步:模型推理) │ ├── 7-12 【实战】DeepSeek代码能力评估实战之(第二步:模型结果处理) │ └── 7-13 【实战】DeepSeek代码能力评估之(第三步:代码执行检查) ├── 第8章 【预训练】 预训练的数据工程 │ ├── 8-1 大模型预训练的数据搜集过程(数据集1) │ ├── 8-2 大模型预训练的数据搜集过程(数据集2) │ ├── 8-3 大模型预训练的数据搜集过程(预训练数据构造流程) │ ├── 8-4 大模型预训练的数据处理过程(数据处理流程) │ ├── 8-5 大模型预训练的数据处理过程(数据过滤+去重+审核) │ ├── 8-6 大语言模型预训练的多领域数据配比与学习顺序 │ ├── 8-7 大模型安全问题 │ ├── 8-8 大模型安全挑战:新型攻击与防御 │ └── 8-9 LLM预训练领域数据配比DoReMI深度解读 ├── 第9章 【预训练】 预训练的硬件体系讲解 │ ├── 9-1 大模型的分布式训练集群介绍 │ ├── 9-2 大模型的分布式训练集群(参数服务器架构和去中心化架构) │ ├── 9-3 大模型的算力基础-显卡结构深度剖析 │ ├── 9-4 大模型的算力基础-英伟达硬件架构体系(Fermi架构) │ ├── 9-5 大模型的算力基础-英伟达硬件架构体系(Ampere架构) │ ├── 9-6 大模型训练通信提效之Nvlink │ ├── 9-7 大模型训练通信提效之拓扑结构 │ └── 9-8 大模型分布式训练通信协议NCCL、GRPC、HTTP ├── 第10章 【预训练】 大模型分布式预训练过程 │ ├── 10-1 大模型分布式训练概要-预训练任务与损失函数 │ ├── 10-2 实战_手撸交叉熵损失函数代码 │ ├── 10-3 大模型分布式训练之数据并行 │ ├── 10-4 大模型分布式训练之模型并行概述 │ ├── 10-5 大模型分布式训练模型并行之Embedding层并行 │ ├── 10-6 Embedding并行代码解读 │ ├── 10-7 模型并行之深入理解矩阵乘法并行原理 │ ├── 10-8 模型并行之深入理解矩阵乘法并行代码解析 │ ├── 10-9 模型并行之深入理解交叉熵损失的并行原理 │ ├── 10-10 模型并行之深入理解交叉熵损失并行的代码 │ ├── 10-11 模型并行之深入理解流水线并行 │ ├── 10-12 分布式训练之异构系统并行 │ ├── 10-13 大模型训练显存占用分析 │ ├── 10-14 分布式训练软件框架deepspeed │ ├── 10-15 deepspeed zero dp stage 1 │ ├── 10-16 deepspeed zero dp stage 2 │ ├── 10-17 deepspeed zero dp stage 3 │ └── 10-18 deepspeed zero offload ├── 第11章 【后训练】有监督微调 │ ├── 11-1 大语言模型的预训练和后训练 │ ├── 11-2 大语言模型的指令微调技术 │ ├── 11-3 大模型微调的评估方法 │ ├── 11-4 大语言模型微调的数据构造 │ ├── 11-5 大语言模型中的思维链数据 │ └── 11-6 大语言模型微调框架llamafactory ├── 第12章 【后训练】参数高效督微调 │ ├── 12-1 参数高效微调概述 │ ├── 12-2 深入理解lora参数高效微调的原理 │ ├── 12-3 深入理解prefix tuning和prompt tuning │ └── 12-4 深入理解Adapter Tuning ├── 第13章 【后训练】强化学习基础 │ ├── 13-1 人类反馈式强化学习概述 │ ├── 13-2 强化学习(基本概念+策略) │ ├── 13-3 强化学习的基本概念(值函数) │ ├── 13-4 贝尔曼方程介绍 │ ├── 13-5 随机策略梯度算法 │ ├── 13-6 【实战】强化学习实战之环境建模 │ ├── 13-7 【实战】强化学习实战之策略评估 │ └── 13-8 【实战】强化学习实战之策略优化 ├── 第14章 【后训练】人类反馈式强化学习 │ ├── 14-1 奖励模型介绍 │ ├── 14-2 PPO算法详解(1) │ ├── 14-3 PPO算法详解(2) │ ├── 14-4 PPO算法训练过程详解 │ ├── 14-5 手撸奖励模型代码(1) │ ├── 14-6 手撸奖励模型代码(2) │ └── 14-7 PPO算法代码深入理解 ├── 第15章 【DeepSeek核心技术解密】国产AI的崛起 DeepSeek核心技术突破 │ ├── 15-1 DeepSeek模型创新点介绍 │ ├── 15-2 kv cache │ ├── 15-3 深入理解MLA机制和原理 │ ├── 15-4 手撸MLA实现代码(1) │ ├── 15-5 手撸MLA实现代码(2) │ ├── 15-6 深入理解MOE机制和原理 │ └── 15-7 手撸MOE实现代码 ├── 第16章 【DeepSeek核心技术解密】DeepSeek V3与DeepSeek R1 │ ├── 16-1 深入理解大模型逻辑推理能力 │ ├── 16-2 深入理解思维链技术 │ ├── 16-3 深入理解GRPO算法 │ ├── 16-4 GRPO实战项目任务介绍(2) │ ├── 16-5 辅助函数实现 │ ├── 16-6 奖励函数的设计与实现 │ ├── 16-7 数据加载与处理 │ └── 16-8 手撸GRPO训练代码 ├── 第17章 【企业落地实战】赋能千行百业:大模型落地应用透析 │ ├── 17-1 大模型落地应用能力详解 │ ├── 17-2 大模型落地应用核心方法论介绍 │ ├── 17-3 大模型落地应用典型场景与案例介绍 │ └── 17-4 大模型落地应用的挑战 ├── 第18章 【企业落地实战】大模型落地应用核心方法论 │ ├── 18-1 深入理解提示工程和方法论 │ ├── 18-2 深入理解RAG系统 │ ├── 18-3 理解模型量化的过程 │ ├── 18-4 大模型推理加速与vLLM │ ├── 18-5 大模型agent基本原理 │ ├── 18-6 模型常规推理实战 │ ├── 18-7 vllm推理加速实战(1) │ └── 18-8 vllm推理加速实战(2) ├── 第19章 【企业落地实战】Agent智能政务助手:具备十万字长文档理解 │ ├── 19-1 项目目标与需求 │ ├── 19-2 源数据搜集 │ ├── 19-3 文本向量化 │ ├── 19-4 文本向量化实战1 │ ├── 19-5 文本向量化实战2 │ ├── 19-6 数据库ES介绍及其安装 │ ├── 19-7 ES mapping构造与索引创建 │ ├── 19-8 ES数据写入 │ ├── 19-9 ES数据删除 │ ├── 19-10 写入项目数据,embedding和文本数据 │ ├── 19-11 深入介绍ES检索DSL(1) │ ├── 19-12 深入介绍ES检索DSL(2) │ ├── 19-13 手写naive RAG(1) │ ├── 19-14 手写naive RAG(2) │ ├── 19-15 手写naive RAG(3) │ ├── 19-16 手写naive RAG(4) │ ├── 19-17 gradio聊天对话框介绍 │ ├── 19-18 gradio hello │ ├── 19-19 gradio大模型对话窗口搭建 │ ├── 19-20 rag流式输出链路搭建 │ ├── 19-21 训练数据高效合成(1) │ ├── 19-22 训练数据高效合成(2) │ ├── 19-23 训练数据高效合成(3) │ ├── 19-24 训练数据高效合成(4) │ ├── 19-25 训练数据高效合成(5) │ ├── 19-26 训练数据高效合成(6) │ ├── 19-27 合成政务类训练数据 │ ├── 19-28 生成政务流程类训练数据及其优化 │ ├── 19-29 集中处理训练数据 │ ├── 19-30 模型微调 构造训练集测试集 │ ├── 19-31 模型微调 开始训练 │ ├── 19-32 模型训练效果测试(1) │ └── 19-33 模型训练结果评测(2) ├── 第20章 【企业落地实战】生成公文写作系统:具备层次化多级目录万字长公文写作能力 │ ├── 20-1 公文生成项目需求分析 │ ├── 20-2 项目需求拆解与提示词构造 │ ├── 20-3 公文数据搜集(1) │ ├── 20-4 公文数据搜集(2) │ ├── 20-5 训练数据构造 │ ├── 20-6 开始训练公文大模型1 │ ├── 20-7 模型评测集构建与模型评估实战 │ ├── 20-8 模型训练效果分析实战 │ ├── 20-9 模型问题解决、优化分析及针对性的数据构造 │ ├── 20-10 新的训练数据合成及模型训练 │ ├── 20-11 最终模型效果评估 │ └── 20-12 公文写作大模型总结 ├── 第21章 【展望与前瞻】 多模态与大模型发展趋势 │ ├── 21-1 大模型的发展趋势 │ ├── 21-2 多模态大模型理论介绍 │ └── 21-3 课程总结与就业指导 └── 代码
声明:本站所有资料均来源于网络以及用户发布,如对资源有争议请联系微信客服我们可以安排下架!



