3月26日(周二),来自英特尔的专家将介绍开源AI加速框架下xFasterTransformer软件架构,让开发者迅速搭建分布式LLM模型推理框架,并深入讨论将通用AI微调在CPU上优化的技术,以及运行当下AGI的文生图等多种人工智能业务的Stable Diffusion,实现在CPU平台上秒级文生图推理。通过本文详细了解并一键预约,千万别错过!
敬请关注CCF公众号和视频号,获取最新直播信息并观看往期精彩回放!集结CCF独家专业资源,优秀专家学者在此聚汇,欢迎每晚19:30准时来到“CCF Talk”直播间,专家与你“聊计算”!
直播主题:AGI时代,释放XEON算力,玩转普惠AGI
时间:3月26日(周二)19:30开始
今天,人们在谈论AI的时候,脑子里想到的是大模型、ChatGPT,是Sora,是生成式AI,是背后所需庞大无比的算力;对企业和个人而言,需要投入到AIGC的创作和发挥AI工具的效能,大部分创作和使用者,都是将AI作为一个通用流程中的一个环节而使用。
在实际应用中,AI部署主要分为两种类型:一是针对大规模专用AI任务,可能需借助加速器;二是处理通用和AI任务混合的工作负载,此时CPU表现出强大的优势,尤其是CPU所拥有的更为广泛包括AI在内的软件生态,让AI作为流程的要素能真正起到放大作用。在生成式AI领域,大语言模型的推理、微调和文生图,是使用者最为广泛的场景,在对参数不超过200亿的AIGC和大模型上,我们提出AI on Xeon的普惠模式,在本周二晚上的分享中,来自英特尔中国的几位技术专家,将展示在CPU服务器上性能优化的推理软件框架,模型微调和Stable Diffusion的文生图效果。
为什么说CPU也能玩转大语言模型?
CPU微调都有哪些应用场景?
在CPU上的大语言模型和AIGC,有多大的优化空间?
如何在云上和可获得的服务器资源上搭建自己的AIGC方案?
AI On Xeon是否会带来AI开发者社区的爆发,还需要做什么?
如何快速上手基于CPU生态开发和优化AIGC的方法论和工具?
CCF Talk特邀来自英特尔中国的人工智能技术专家吴震华、王华强和桂晟三位,为大家介绍英特尔至强平台上的大语言模型,微调与文生图优化,并演示秒级生成的丝滑效果,深入探讨在CPU平台上部署与优化AIGC解决方案的专家之道。本次直播由英特尔科学计算首席工程师何万青博士主持。
主讲嘉宾:
桂晟 英特尔AI软件工程师
报告主题:《英特尔至强处理器赋能大语言模型》
加入英特尔9年来一直从事软件性能优化工作,有着丰富的系统软件性能优化经验。近六年来一直致力于人工智能推理在英特尔至强服务器CPU上的优化应用,主要方向计算机视觉模型,自然语言处理和大语言模型等,并参与了OpenVINO,xFasterTransformer等开源推理架构的开发。
吴震华 英特尔AI首席工程师
报告主题:《大语言模型在至强处理器平台上的微调探讨》
英特尔云和企业解决方案事业部首席架构师、Principal Engineer。主要从事端到端的AI和分析解决方案的研发工作,包括了深度学习,机器学习,特征嵌入,缓存体系以及存储体系等。在加入intel之前,吴震华担任爱奇艺算法总监,专注设计和开发推荐系统,包含了AI建模,特征工程,推荐效果分析和调优等等。
王华强 英特尔AI软件解决方案工程师
报告主题:《基于至强处理器平台的Stable Diffusion推理》
在英特尔主要从事至强处理器平台的人工智能平台软件开发和性能优化工作,致力于支持国内主要的云服务厂商对至强平台进行性能优化。主要工作方向包括AIGC大语言模型的推理、自然语言处理等领域。积极参与多个开源社区,并为其贡献源码。
主持嘉宾:
何万青 英特尔科学计算首席工程师
现任英特尔数据中心与人工智能集团负责科学计算的首席工程师,在科学计算应用优化,异构计算和并行文件系统,云端高性能计算有十多年的从业经验,同时担任CCF各项服务超过十年,是CCF资深志愿者。
强烈建议通过本文中的二维码或直播入口提前预约,开播时会收到铃音提醒,一键直达直播间,保证不错过!
CCF Talk直播间预告将时时发布在CCF公众号及视频号,记得一定要及时关注,获取最新直播信息!
重磅会议在线发布、职业发展与规划、精彩活动在线直播——对计算领域进行多方位了解和学习,提升你的专业水平,打开更广阔的专业格局,与计算领域重磅专家进行面对面的互动交流,欢迎每天晚上19:30准时来到“CCF Talk”直播间,众位专家和你“聊计算”!
点击“阅读原文”,加入CCF。
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...