【加密】JM117 – 类ChatGPT微调实战 [18.7G]
┣━━01.视频 [18.5G]
┃ ┣━━01 第一部分 LLaMAChatLLaMA的整体技术架构与代码逐行解读 [4.5G]
┃ ┃ ┣━━01.实战必备 夯实基础:ChatGPT背后的原理解析.abc [1.2G]
┃ ┃ ┣━━02.Meta LLaMA的复现与解读:参数少但多数任务的效果好于GPT3.abc [1.5G]
┃ ┃ ┗━━03.LLaMA的RLHF版:ChatLLaMA(英文版)ColossalChatDeepSpeed.abc [1.8G]
┃ ┣━━02 第二部分 各种微调LLaMA:Alpaca、Vicuna、BELLE、中文LLaMA、姜子牙、LLaMA 2 [5.5G]
┃ ┃ ┣━━01.Stanford Alpaca:结合英文语料通过Self Instruct方式微调LLaMA 7B.abc [1.5G]
┃ ┃ ┣━━02.补充1:Alpaca-LoRA微调过程「使用已清洗的alpaca数据基于LoRA微调LLaMA-7.abc [286.9M]
┃ ┃ ┣━━03.补充2:7.19发布的更强且可商用的LLaMA 2背后的技术改进与细节.abc [2.3G]
┃ ┃ ┣━━04.补充3:半小时总结LLaMA 2的技术架构精要(且纠正上个视频中个别不准确的点).abc [329.9M]
┃ ┃ ┗━━05.Vicuna(shareGPT)、BELLE(self-instruct)、Chinese-LLaM.abc [1.1G]
┃ ┣━━03 第三部分 以ChatGLM2-6BMOSSbaichuan为例如何训练LLM及调参部署 [5.6G]
┃ ┃ ┣━━01.ChatGLM-6B的基座、部署、微调、实现.abc [1.3G]
┃ ┃ ┣━━02.补充1:ChatGLM-6B推理部署及微调过程.abc [390.4M]
┃ ┃ ┣━━03.补充2:LLM微调方法总结:Freeze方法P-TuningLoRA及QLoRA.abc [652.8M]
┃ ┃ ┣━━04.基于MOSS、baichuan7B-13B、ChatGLM2-6B的结构与微调.abc [680.6M]
┃ ┃ ┣━━05.补充1:Baichuan-7B推理及微调过程.abc [322.2M]
┃ ┃ ┣━━06.补充2:Baichuan-13B推理及微调过程.abc [559.6M]
┃ ┃ ┣━━07.补充3:ChatGLM2-6B推理部署及微调过程.abc [416.1M]
┃ ┃ ┣━━08.补充4:阿里通义千问Qwen-7B的原理及ReAct用法.abc [391.6M]
┃ ┃ ┗━━09.大语言模型并行训练指南(上).abc [982.5M]
┃ ┗━━04 第四部分 大模型并行训练指南与数据的处理、模型的评估 [2.9G]
┃ ┣━━01 第8课 大模型并行训练指南初步:理解基本概念.abc [824.6M]
┃ ┣━━02 第9课 大模型并行训练指南进阶:深入实战.abc [858.5M]
┃ ┣━━03 第10课 如何更好的收集数据、处理数据、利用数据.abc [496.8M]
┃ ┗━━04 第11课 模型的优化、评估与部署上线.abc [809.5M]
┗━━00.资料.zip [194.6M]

发表评论

后才能评论

购买后资源页面显示下载按钮和分享密码,点击后自动跳转百度云链接,输入密码后自行提取资源。

本章所有带有【尊享】和【加密】的课程均为加密课程,加密课程需要使用专门的播放器播放。

联系微信客服获取,一个授权账号可以激活三台设备,请在常用设备上登录账号。

可能资源被百度网盘黑掉,联系微信客服添加客服百度网盘好友后分享。

教程属于虚拟商品,具有可复制性,可传播性,一旦授予,不接受任何形式的退款、换货要求。请您在购买获取之前确认好 是您所需要的资源