LLaMA Pro:扩展Transformer块优化的大型语言模型继续预训练


青稞Talk 第十一期

6月17日晚7点,青稞社区组织【青稞Talk】第十一期,LLAMA PRO一座、香港大学MMLAB在读博士吴成岳,将直播分享 ACL 2024最新成果《LLaMA Pro:扩展Transformer块优化的大型语言模型继续预训练》。

主讲嘉宾

吴成岳,香港大学MMLAB在读博士,师从罗平老师,研究方向为视觉-语言模型和大型语言模型。

主题提纲

LLaMA Pro:扩展Transformer块优化的大型语言模型继续预训练

1、大型语言模型在特定领域的应用局限性
2、一种新的 LLM 后训练方案 LLaMA Pro
3、LLaMA-Pro-8.3B 模型的训练流程解析
4、基准测试表现及使用方法

成果链接

paper:LLaMA Pro: Progressive LLaMA with Block Expansion
arXiv:https://arxiv.org/pdf/2401.02415
code:https://github.com/TencentARC/LLaMA-Pro

直播时间

6月17日(周一)19:00 - 20:00