极客时间《彭靖田AI大模型微调训练营》- 带课件 - 影盘社-网盘资源搜索神器
- file:课程大纲.jpg
- file:RAG、微调、预训练,如何选择适合的大模型优化方式?.mp4
- file:10.19直播答疑部分.mp4
- file:1月21日.mp4
- file:13-ChatGPT大模型训练技术RLHF.pdf
- file:20240121评论区记录.xlsx
- file:代码.txt
- file:大模型低秩适配(LoRA)技术.mp4
- file:3-大模型微调技术揭秘.pdf
- file:UniPELT A Unified Framework for Parameter-Efficient Language Model Tuning.pdf
- file:14-混合专家模型(MoEs)技术揭秘.pdf
- file:MoEs.exe
- file:github.txt
- file:8-大模型高效微调工具HF PEFT.pdf
- file:大模型微调技术揭秘-PEFT.mp4
- file:2-大语言模型技术发展与演进.pdf
- file:Fine-tuning论文.exe
- file:9-实战QLoRA 微调 ChatGLM3-6B.pdf
- file:11-实战基于LangChain和ChatGLM私有化部署聊天机器人.pdf
- file:6-实战Transformers模型微调.pdf
- file:16-Meta AI 大模型家族 LLaMA.pdf
- folder:极客时间《彭靖田AI大模型微调训练营》- 带课件
- folder:5-大语言模型微调技术揭秘-LoRA
- folder:13-实战私有数据微调ChatGLM3
- folder:2-大模型四阶技术总览
- folder:0-开营直播1019
- folder:11-快速入门 LangChain
- folder:1-开营直播:大语言模型微调的前沿技术与应用
- folder:16-大模型分布式训练框架 Microsoft DeepSpeed
- folder:视频
- folder:大厂案例PPT
- folder:Quantization论文
分享时间 | 2024-09-29 |
---|---|
入库时间 | 2024-09-29 |
状态检测 | 有效 |
资源类型 | QUARK |
分享用户 | 心旷*怡的青蛙 |
资源有问题?点此举报