会议简介
“至善芯语”论坛第15期邀请到了南京大学杜力副教授、东南大学徐宁博士等多位专家学者做学术报告。会议将于3月9日(周六)上午9:30在南京江北新区星火路17号EDA国创中心5楼501会议室举办,欢迎各位行业同仁参与、交流和学习。
主办单位
国家专用集成电路系统(ASIC)工程技术研究中心
国家集成电路设计自动化技术创新中心
东南大学集成电路学院
江苏省产研院专用集成电路技术研究所
时间地点
2024年3月9日(周六)09:30
南京江北新区星火路17号创智大厦B座
EDA国创中心501会议室
报告主题
报告一:南京大学 杜力
Energy-Efficient AI-Computing Systems for Large-Language Models
报告二:东南大学 徐宁
面向AIGC的大模型芯片和算法技术研讨
嘉宾介绍:
南京大学 杜力
杜力,博士生导师,国家级青年人才计划获得者,现任江苏省集成电路学会副秘书长, 2016年毕业于美国加州大学洛杉矶分校(UCLA),博士期间跟随美国工程院院士张懋中教授从事集成电路设计方面的研究。在读博士期间,同时全职在美国高通公司混合芯片部门任职高级工程师,从事模拟电路设计,其设计的多款模拟芯片被运用在高通骁龙系列产品中。后作为硬件部门创始人,在美国耐能公司(Kneron Inc)和芯芸科技公司分别从事人工智能芯片以及光通信模拟前端芯片的设计,主导设计了第一款Kneron在端上的人工智能处理芯片和100G的硅光驱动和时钟恢复芯片,累计拥有8年多集成电路设计领域的工业界工作经验。杜力博士在IEEE集成电路设计领域的权威期刊及行业顶级会议上发表论文 31 篇。现为IEEE CAS协会标准委员会Domain-Specific Accelerators组副主席,Sensory System方向技术委员会成员。现主持国家自然科学基金面上项目、青年项目、专项培育项目,科技部重点研发计划(青年),中国计算机学会(CCF)-百度松果基金科研项目等,担任多个国家基金,人才项目评委。现阶段主要从事低功耗AI处理器、系统与编译器设计,存算芯片设计,AI辅助模拟电路敏捷设计,智能传感算法实现的科研工作,在IEEE ISSCC, JSSC, TCAS-I, TVLSI, DAC,CVPR, ICCV等高水平期刊和会议上发表多篇论文。
东南大学 徐宁
徐宁博士,东南大学计算机科学与工程学院助理研究员、硕士生导师,东南大学“紫金青年学者”,长期从事机器学习领域的研究,研究成果发表于ICML、NeurIPS、ICLR、IEEE TPAMI等机器学习领域国际著名会议和期刊上,获2021年CCF优秀博士学位论文奖,2020年德国DAAD AInet奖,担任CCF人工智能与模式识别专委会执行委员,FCS预备青年编委,ICML、NeurIPS、ICLR、KDD、AAAI、IJCAI等国际著名会议程序委员会委员,IEEE TPAMI、AIJ、ACM TKDD等国际著名期刊审稿人。
报告摘要
Large-language models (LLMs), such as ChatGPT and Bard, recently gained tremendous attention by demonstrating astonishing capabilities in recognizing, summarizing, translating, predicting, and generating text and other content based on extensive knowledge from massive datasets. As LLMs serve as a crucial tool for human-to-machine communication, these models are driving a paradigm shift in the capabilities and possibilities for AI computing. The enormous energy consumption for the LLM training and inference has emerged as the key limitation to future AI computing.
This forum presents the current and next generation circuits, architectures, and systems for high-performance computing (HPC) to address the energy-efficiency challenges associated with LLMs. This includes GPU and HPC systems, cloud server SoCs, accelerators, high-bandwidth access to storage, in-package high-bandwidth memory, and DRAM processing in memory. Furthermore, this forum explores LLM quantization techniques to enable next-generation mobile SoCs for LLM inference.