资源信息
资源名称:大模型微调实战营-应用篇 – 带源码课件
资源类型:课程
资源标签:#学习 #知识 #课程 #资源 #大模型微调实战营 #quark
资源来源:夸克网盘吧Kuakeba.cn
资源简介
本课程包括大模型基础,大模型指令微调,常用的开源模型微调,大模型对齐,垂直领域大模型应用5个阶段,内容涵盖大模型微调应用场景,大模型基座,LoRA参数微调,模型压缩,QLoRA参数微调,DeepSpeed训练框架解析,Megatron-LM训练框架解析,Flash Attention技术应用,微调模型Benchmark,ChatGLM,LLaMA,Mistral,MoE,大模型对齐,RLHF,DPO,垂直领域大模型应用等前沿技术等全方位知识讲解,并结合8个实战项目,帮助同学们实现学以致用。
资源目录
【贪心科技】大模型微调实战营-应用篇 - 带源码课件 ├─ 资料.zip ├─ 10 第十周 │ └─ 01 第七节补充课 2024年4月17日 │ └─ 01 Optimal Policy、Intro to Monte Carlo │ ├─ 01 Optimal Policy.mp4 │ └─ 02 Intro to Monte Carlo.mp4 ├─ 09 第九周 │ └─ 01 第七节 2024年4月14日 │ └─ 01 强化学习 │ ├─ 01 RLHF介绍.mp4 │ ├─ 02 强化学习.mp4 │ ├─ 03 Multi-armed Bandit.mp4 │ └─ 04 The goal of Agent.mp4 ├─ 08 第八周 │ └─ 01 第六节补充课 │ └─ 01 Flash Attention cont、微调Mistral 7B │ ├─ 01 Flash Attention cont.mp4 │ ├─ 02 Self-Attention的分块计算.mp4 │ ├─ 03 分块模式中计算O.mp4 │ ├─ 04 Mixture of Expert Model.mp4 │ └─ 05 微调Mistral 7B.mp4 ├─ 07 第七周 │ └─ 01 第六节 2024年3月31日 │ └─ 01 Distributed Computing、Flash Attention │ ├─ 01 GPU时间计算.mp4 │ ├─ 02 Distributed Computing.mp4 │ ├─ 03 ZeRO-123 and FSDP.mp4 │ └─ 04 Flash Attention.mp4 ├─ 06 第六周 │ └─ 01 助教补充课 2024年3月24日 │ └─ 01 llama介绍&运行&量化&部署&微调 │ ├─ 01 llama介绍&运行&量化&部署&微调01.mp4 │ └─ 02 llama介绍&运行&量化&部署&微调02.mp4 ├─ 05 第五周 │ └─ 01 第五节 2024年3月17日 │ └─ 01 Prefix Tuning、Quantization │ ├─ 01 Prefix Tuning.mp4 │ ├─ 02 Quantization01.mp4 │ ├─ 03 Quantization02.mp4 │ └─ 04 Quantization Methos for LLM.mp4 ├─ 04 第四周 │ └─ 01 第四节 2024年3月3日 │ └─ 01 Alpaca、AdaLoRA、QLoRA │ ├─ 01 Alpaca.mp4 │ ├─ 02 AdaLoRA.mp4 │ └─ 03 QLoRA.mp4 ├─ 03 第三周 │ └─ 01 第三节 2024年2月25日 │ └─ 01 大模型微调概览 Lora微调 │ ├─ 01 大模型微调概览.mp4 │ ├─ 02 Lora微调-Lora算法.mp4 │ └─ 03 Lora微调-从零实现Lora到Roberta.mp4 ├─ 02 第二周 │ └─ 01 第二节 2024年1月28日 │ └─ 01 Transformer、Encoder、Advanced │ ├─ 01 Transformer Part1.mp4 │ ├─ 02 Transformer Part2.mp4 │ ├─ 03 Encoder-based and Decoder Based LLMs.mp4 │ └─ 04 Advanced Topics.mp4 └─ 01 第一周 └─ 01 第一节 2024年1月21日 └─ 01 开营+大模型介绍、Transformer ├─ 01 开营.mp4 ├─ 02 大模型爆发式发展.mp4 ├─ 03 大模型是如何炼成的.mp4 ├─ 04 Transformer的应用.mp4 └─ 05 Self-Attention.mp4