LLaMA Pro:扩展Transformer块优化的大型语言模型继续预训练
发表于🎥 观看直播

LLaMA Pro:扩展Transformer块优化的大型语言模型继续预训练
青稞6月17日晚7点,青稞社区组织【青稞Talk】第十一期,LLAMA PRO一座、香港大学MMLAB在读博士吴成岳,将直播分享 ACL 2024最新成果《LLaMA Pro:扩展Transformer块优化的大型语言模型继续预训练》。
主讲嘉宾
吴成岳,香港大学MMLAB在读博士,师从罗平老师,研究方向为视觉-语言模型和大型语言模型。
主题提纲
LLaMA Pro:扩展Transformer块优化的大型语言模型继续预训练
- 1、大型语言模型在特定领域的应用局限性
- 2、一种新的 LLM 后训练方案 LLaMA Pro
- 3、LLaMA-Pro-8.3B 模型的训练流程解析
- 4、基准测试表现及使用方法
成果链接
- paper:LLaMA Pro: Progressive LLaMA with Block Expansion
- arXiv:https://arxiv.org/pdf/2401.02415
- code:https://github.com/TencentARC/LLaMA-Pro
直播时间
6月17日(周一)19:00 - 20:00