70| 0
|
[AI/大数据] Llama3大模型原理代码精讲与部署微调评估实战 |
本课程首先讲述了有关Transformer和大语言模型(LLM)的关键前置知识, 包括注意力机制、多头注意力、编码器-解码器结构等Transformer原理, 以及LLM的文本生成和LLM微调技术原理。 在此基础上, 重点介绍了Llama 3模型的进化历程、技术原理和代码实现。其中涉及RMSNorm归一化、SwiGLU激活函数、RoPE位置编码、GQA注意力和KVCache等关键技术。通过代码解析, 深入剖析了Llama 3的架构设计和代码实现。 在实践部分, 课程还介绍了如何在阿里云使用Ollama和vLLM部署Llama 3模型, 以及使用llama_factory工具进行基于LoRA和QLoRA的llama3 8B大模型微调。项目实战环节则提供了从准备数据集到训练、推理、评估的全流程指导, 聚焦中文增强和医疗问答两大应用方向。 这是一门内容全面、理论实践并重的大模型课程。不仅系统讲解了LLM和Llama 3的技术原理, 还通过代码解析和实战项目深度剖析了相关技术在工程落地中的关键环节, 有助于学员全面掌握大模型相关知识和动手实战能力。 具体课程内容如下: 前置知识1:Transformer原理与代码精讲 - 注意力机制:了解注意力机制如何使模型能够捕捉输入序列中不同位置之间的相关性。 - 自注意力:解释自注意力如何允许序列的每个元素都与序列中的其他元素进行交互。 - 多头注意力:探讨多头注意力如何通过并行处理多个注意力层来增强模型的能力。 - 位置编码:学习位置编码如何为模型提供序列中单词的位置信息。 - 编码器和解码器:深入分析Transformer的编码器和解码器结构,以及它们在模型中的作用。 - 层归一化(LayerNorm)和前馈网络(FFN):介绍这两种技术如何帮助稳定和增强模型的训练过程。 - 代码精讲:讲解Transformer模型的PyTorch代码实现细节等。 前置知识2:大模型(LLM)文本生成 - LLM的推理方式 - LLM的文本生成模式: 主要有Completion模式和Chat模式两种 - LLM的文本生成策略: 包括贪婪搜索、束搜索、随机采样、温度采样、Top-k采样和Top-p采样等 - LLM中的Token与分词器 - llama3的文本生成过程 - LLM文本生成的预填充和解码阶段 - LLM文本生成中的Q、K、V机制 前置知识3:大模型微调原理 - LLM的开发流程可分为预训练、有监督微调、奖励建模和强化学习四个阶段 - 从基座模型到对话模型的转变。 - 针对特定领域的SFT微调 - 微调的技术方法包括全参微调、冻结微调、LoRA、QLoRA - LoRA技术原理和有效性 - QLoRA技术原理 Llama3进化史和生态 -Llama3原理精讲 - Llama3模型架构 - RMSNorm归一化技术 - SwiGLU激活函数 - RoPE旋转位置编码 - GQA分组查询注意力 - KVCache Llama3代码解析 - 各文件功能 - completion和chat应用脚本代码解析 - generation.py代码解析 - model.py代码解析 - tokenizer.py代码解析 - RMSNorm代码解析 - SwiGLU代码解析 - GQA代码解析 - RoPE代码解析 - KVCache代码解析 Llama3部署(阿里云演示) - Ollama部署llama3-阿里云免费GPU算力领取及实例创建、ollama安装、llama3推理 - VLLM部署llama3 Llama3项目实战1-llama_factory微调llama3中文增强大模型(阿里云演示) - llama_factory介绍 - llama_factory安装及llama3模型下载 - LoRA微调训练llama3 8B Instruct模型 - llama3中文增强大模型推理 - llama3中文增强大模型评估(MMLU, CEVAL, CMMLU) - LoRA文件合并 Llama3项目实战2-llama_factory微调llama3医疗问答大模型(LoRA) 阿里云演示 - 准备医疗问答大模型数据集 - LoRA微调训练llama3 8B Instruct模型 - llama3医疗问答大模型推理 Llama3项目实战3-llama_factory微调llama3医疗问答大模型(QLoRA) (阿里云演示) - QLoRA微调训练llama3 8B Instruct模型 - llama3医疗问答大模型推理 课程目录: 1 课程介绍.mp4 2 注意力机制.mp4 3 自注意力机制.mp4 4 Transformer的架构概述.mp4 5 Transformer Encoder的多头注意力.mp4 6 Transformer Encoder的位置编码.mp4 7 Transformer 残差链接、LayerNorm、FFN.mp4 8 Transformer Decoder.mp4 9 Transformer 训练及性能.mp4 10 Transformer机器翻译工作流程.mp4 11 Transformer的Encoder代码解读.mp4 12 Transformer的Decoder代码解读.mp4 13 Transformer的超参设置代码解读.mp4 14 Transformer的训练示例(人为随机数据)代码解读.mp4 15 Transformer的训练示例(德语-英语机器翻译)代码解.mp4 16 结合中文注释代码深入解读1.mp4 17 结合中文注释代码深入解读2.mp4 18 LLM推理方式.mp4 19 文本生成模式.mp4 20 文本生成策略.mp4 21 Token和分词器.mp4 22 文本生成过程.mp4 23 prefill和解码阶段.mp4 24 llama3文本生成过程.mp4 25 文本生成时的QKV含义.mp4 26 大模型开发阶段划分.mp4 27 SFT微调.mp4 28 微调方法(全参、冻结参数、LoRA、QLoRA).mp4 29 LoRA微调.mp4 30 QLoRA微调.mp4 31 llama模型进化史.mp4 32 llama3模型类型.mp4 33 llama大模型生态.mp4 34 llama3模型架构.mp4 35 RMSNorm归一化.mp4 36 SwiGLU激活函数.mp4 37 RoPE旋转位置编码.mp4 38 GQA分组查询注意力.mp4 39 KVCache.mp4 40 各文件功能.mp4 41 completion和chat应用脚本代码解析.mp4 42 generation.py代码解析.mp4 43 model.py代码解析.mp4 44 tokenizer.py代码解析.mp4 45 RMSNorm代码解析.mp4 46 SwiGLU代码解析.mp4 47 GQA代码解析.mp4 48 RoPE代码解析.mp4 49 KVCache代码解析.mp4 50 阿里云实例创建.mp4 51 ollama介绍.mp4 52 ollama安装.mp4 53 llama3推理.mp4 54 vLLM部署llama3.mp4 55 llama_factory介绍.mp4 56 llama_factory安装及llama3模型下载.mp4 57 LoRA微调训练.mp4 58 llama3中文增强大模型推理.mp4 59 llama3中文增强大模型评估.mp4 60 lora文件合并.mp4 61 数据集准备.mp4 62 lora 微调.mp4 63 llama3医疗问答大模型推理.mp4 64 qlora微调 .mp4 65 qlora微调的医疗问答大模型推理.mp4 课程资料.zip
购买主题
本主题需向作者支付 25 学币 才能浏览
| |
学IT吧 www.xueit8.com X3.4
Copyright © 2001-2021, Tencent Cloud.