├─01 第一周
│ └─01 第一节 2024年1月21日
│ └─01 开营+大模型介绍、Transformer
│ 01 开营.mp4
│ 02 大模型爆发式发展.mp4
│ 03 大模型是如何炼成的.mp4
│ 04 Transformer的应用.mp4
│ 05 Self-Attention.mp4
│
├─02 第二周
│ └─01 第二节 2024年1月28日
│ └─01 Transformer、Encoder、Advanced
│ 01 Transformer Part1.mp4
│ 02 Transformer Part2.mp4
│ 03 Encoder-based and Decoder Based LLMs.mp4
│ 04 Advanced Topics.mp4
│
├─03 第三周
│ └─01 第三节 2024年2月25日
│ └─01 大模型微调概览 Lora微调
│ 01 大模型微调概览.mp4
│ 02 Lora微调-Lora算法.mp4
│ 03 Lora微调-从零实现Lora到Roberta.mp4
│
├─04 第四周
│ └─01 第四节 2024年3月3日
│ └─01 Alpaca、AdaLoRA、QLoRA
│ 01 Alpaca.mp4
│ 02 AdaLoRA.mp4
│ 03 QLoRA.mp4
│
├─05 第五周
│ └─01 第五节 2024年3月17日
│ └─01 Prefix Tuning、Quantization
│ 01 Prefix Tuning.mp4
│ 02 Quantization01.mp4
│ 03 Quantization02.mp4
│ 04 Quantization Methos for LLM.mp4
│
└─课件资料.zip
下载地址: bli&(2024
|
1、本帖所有言论、观点及图片均为会员个人观点,不代表本站立场。
2、本帖资源内容来源于网友、站友、作者推广引流自愿分享或其他公开网络渠道,仅用于交流与学习参考。
3、如本帖内容涉及任何版权或知识产权问题,请立即点论坛右侧邮件图标联系我们,我们将在核实后及时删除,并致以歉意。
4、本站资料仅供站友个人学习参考,禁止以任何形式进行传播或商用;如下载学习,请务必在 24 小时内删除。