XGrammar:高效实现 LLM灵活且可移植的结构化生成


青稞Talk 第三十三期

12月21日11点,青稞Talk 第33期,CMU 博士生董易昕,将直播分享《XGrammar:高效实现 LLM灵活且可移植的结构化生成》。

分享嘉宾

董易昕,卡内基梅隆大学计算机科学系的一年级博士生,导师为陈天奇教授;本科毕业于上海交通大学计算机科学专业(ACM班);研究聚焦于机器学习与系统的交叉领域,尤其对LLM Agents研究感兴趣;作为一名开源软件和项目的拥护者,共同领导并参与了一些流行的项目,包括 MLC-LLM 和 Apache TVM Unity,同时也担任 Apache TVM Reviewer;曾经在华盛顿大学与 Luis Ceze 教授共同研究。

主题提纲

XGrammar:高效实现 LLM 灵活且可移植的结构化生成

1、大模型结构化生成方法概述及挑战
2、面向大语言模型的结构化生成引擎 XGrammar

  • 上下文无关语法的解析
  • 高效可持久化的堆栈数据结构
  • 与 LLM 推理引擎的联合设计

3、XGrammar 应用实践

成果链接

Paper:Grammar: Flexible and Efficient Structured Generation Engine for Large Language Models
Abs:https://arxiv.org/pdf/2411.15100
Code:https://github.com/mlc-ai/xgrammar

直播时间

2024年12月21日(周六)11:00 -12:00