本文精选了美团技术团队被ACL 2024收录的4篇论文进行解读,论文内容覆盖了训练成本优化、投机解码、代码生成优化、指令微调(IFT)等技术领域。这些论文是美团技术团队跟高校、科研机构合作的成果。希望能给从事相关研究工作的同学带来一些帮助或启发。
活动预告:美团在ACL 2024会场内设有展位(11号),欢迎大家来我们的展位跟论文作者、技术专家进行交流。我们将在8月12日(周一)17: 00进行线上直播和论文分享,欢迎大家预约。
以下内容是4篇论文的解读:
论文简介:近期,大型语言模型(LLMs)的发展突飞猛进,随之而来的就是推理成本上涨,这已经成为实际应用中较大的一个挑战。为了应对这些挑战,我们提出了一种名为「早期退出投机解码(EESD)」的全新方法,该方法实现了无损加速。
具体而言,EESD在前N层之后加入早期退出的结构,并使用这一部分来生成草稿令牌(Draft Token)。为了提升这些初步令牌的质量,我们还结合了一种自我蒸馏方法。这种早期退出的设计不仅降低了部署和训练的成本,还大大提高了令牌(Token)生成的速度。
Graph-Structured Speculative Decoding
论文类型:Long Paper
论文简介:投机解码已经崭露头角,它使用小型语言模型创建一种假设序列,然后由大型语言模型(LLM)进行验证,从而加快了LLM的推理速度。这种方法的效果主要取决于草稿模型的性能和效率如何平衡。在我们的研究中,我们试图通过生成多个假设,而不仅仅是一个,来增加被接受到最终结果的草稿令牌数量。这样,LLM就有了更多的选择,并可以选择最长的、符合其标准的序列。我们的分析发现,由草稿模型产生的假设中有许多公共的令牌序列,这暗示了我们可以优化计算。
DolphCoder: Echo-Locating Code Large Language Models with Diverse and Multi-Objective Instruction Tuning
论文类型:Long Paper
论文下载:
论文简介:在代码相关任务中,大型语言模型已经展现出出色的性能。为了提高预训练的 Code LLMs 的代码生成性能,一些工作已经提出了几种指令调优方法。
论文类型:Long Paper
论文下载:
论文简介:指令微调(IFT)已经成为大型语言模型构建的核心步骤之一,当前主要是应用于模型行为模式的转换和注入特定领域知识。但指令微调对大模型输出的影响机制仍缺乏深入分析,对于指令微调给模型带来的增益,是由于指令微调过程带来的额外领域知识增益,还是其成功对齐了期望的输出空间从而实现了更好的知识表达机制尚不清楚。为此,本文设计了一个知识扰动的分析框架,来解耦合模型行为模式转换与额外知识注入的作用,以探索大模型指令微调的底层机制。
美团科研合作致力于搭建美团技术团队与高校、科研机构、智库的合作桥梁和平台,依托美团丰富的业务场景、数据资源和真实的产业问题,开放创新,汇聚向上的力量,围绕机器人、人工智能、大数据、物联网、无人驾驶、运筹优化等领域,共同探索前沿科技和产业焦点宏观问题,促进产学研合作交流和成果转化,推动优秀人才培养。面向未来,我们期待能与更多高校和科研院所的老师和同学们进行合作。欢迎老师和同学们发送邮件至:[email protected]。
|
|
|
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...