大模型性能优化高级研修班
Hide
01
活动介绍
为促进大模型性能优化方向的产学研交流合作和人才培养,学习研讨前沿技术研究进展,推进在国产算力和软件生态上做好性能优化,特举办大模型性能优化高级研修班,本次研修班由中国科学院人事局资助,中国科学院计算技术研究所承办,并行科技和中科图云协办。
02
时间地点
培训时间:2024年10月9日至10月13日(外地学员10月8日14:00-17:00报到,北京学员可10月9日报到,13日16:00撤离)
培训地点:中国科学院计算技术研究所(北京市海淀区科学院南路6号)
面向人群:从事人工智能或高性能计算等相关领域,具有中高级职称(职业资格)的专业技术人员或在企事业单位有关管理岗位工作的人员。基层一线专业技术人员可适当放宽标准。培训对象需具备人工智能的基础知识,关注大模型性能优化,有相关研究经历或工作经历。请注意,本次线下培训不招收在校学生。
03
日程安排
大模型时代的智能超算:以数据为中心的挑战及应对 | 陶鼎文,中国科学院计算技术研究所,研究员 | 10月9日9:30-11:30 |
LLaMA Factory在低资源大模型微调加速上的实践 | 郑耀威,北京航空航天大学,博士 | 10月9日14:00-16:00 |
清程极智大模型推理方案及训练技术分享 | 师天麾,清程极智,联合创始人,清华大学计算机专业博士 | 10月10日9:00-11:00 |
基于大模型【应用运行特征】的算力产品选型和性能优化分析 | 宋志方,并行科技,国产算力事业部总经理 | 10月10日14:00-15:00 |
典型大模型GLM、LLaMa训练部署实训 | 刘帅,并行科技,资深应用优化专家 | 10月10日15:00-17:00 |
大模型推理优化技术 | 刘贤冬,澎峰科技研发工程师,PerfXLM推理引擎技术负责人 | 10月11日9:00-11:00 |
基于云平台进行大模型开发与服务部署 | 刘洪宇,澎峰科技大模型平台研发工程师,PerfXCloud平台技术负责人 | 10月11日11:00-12:00 |
国产AI芯片的异构原生AI算力工具 | 嘉宾待定,中科加禾,工程师 | 10月11日14:00-16:00 |
大模型平台建设思路与微调 | 张启锋,负责金融领域大模型技术应用与研究,技术专家 | 10月11日16:00-18:00 |
基于卡尔曼滤波的神经网络力场训练 | 胡思宇,中国科学院计算技术研究所,助理研究员 | 10月11日下午 |
FlagScale大模型自适应并行训练技术创新与实践 | 曹州,北京智源人工智能研究源,大模型分布式系统优化工程师 | 10月12日9:00-12:00 |
国产算力在大模型时代的下应用生态建设 | 刘东,中科曙光高性能计算高级工程师 | 10月12日13:00-14:00 |
Triton编程与优化 | 李之昕,北京智源人工智能研究源,AI编译器研发工程师 | 10月12日14:00-17:00 |
面向神经网络模型训练的动态张量内存管理优化 | 肖俊敏,中国科学院计算技术研究所,副研究员 | 10月13日9:00-10:00 |
适应资源动态变化的模型训练方法初探 | 李明真,中国科学院计算技术研究所,助理研究员 | 10月13日10:00-11:00 |
产品驱动的领域模型训练 | 景辉,头部独角兽大模型公司算法专家,连续创业者,前谷歌工程师 | 10月13日11:00-12:00 |
题目待定 | 赵瞳,中国科学院计算技术研究所,助理研究员 | 时间待定 |
走访AI算力公司现场教学。
采取主题报告、专题研讨、学术交流、现场教学等方式进行培训。
04
往期精彩活动
05
温馨提示
1、本次研修班计划招生50-100人,每个单位报名人数不超过2人。为保证培训效果,承办单位将根据报名人员的研究和工作领域以及相关知识储备来筛选确定参训学员。审核通过的学员会收到邮件通知。
2、参训学员需结合培训内容和工作实际,每人撰写1篇与培训内容相关的论文总结或交流材料(不少于1000字),于培训结束前将电子版提交。
3、参训学员修完规定课程,经考核合格后,获得专业技术人才知识更新工程高级研修项目结业证书。
4、为保证培训效果,参训学员应严格遵守各项培训纪律,培训期间未经承办单位同意,不得请假。如成功报名后,因特殊原因不能如期参加培训,须尽早向承办单位联系人申请退出报名或沟通异地线上参加。
5、本次培训不收取培训费(含培训期间住宿费和伙食费等),学员往返交通费自理。京外学员住宿由主办方统一安排,京内学员不安排住宿。
6、本次培训有上机操作环节,请参训学员自行携带笔记本电脑。
7、如对报名有问题可咨询工作人员
刘老师:18810632700,18810632700@126.com
姚老师:13932327338,13932327338@163.com
(1个月前)
(1个月前)
(1个月前)
(2个月前)
(2个月前)
(2个月前)