/ EN
首页 / 通知公告/活动公告

活动预告 | “至善芯语”集成电路系列讲座

时间:2025.02.08
Feb.08

2025

2025.02.08

184

184
分享至

本期“至善芯语”集成电路系列讲座邀请到复旦大学朱浩哲研究员与清华大学朱振华研究员为我们做相关报告与交流,欢迎各位行业同仁、研究生们参会并交流。


讲座信息

报告人:复旦大学  朱浩哲

报告人:清华大学  朱振华 

主持人:东南大学  司   鑫 


主题:面向大语言模型的存算一体芯片与系统、以存储为中心的计算架构设计与优化

时间:2025年2月11日星期二9:30-11:30

线上:#腾讯会议:626-618-414  

          会议密码:250211


嘉宾介绍

朱浩哲

复旦大学

复旦大学芯片与前沿技术研究院助理研究员/博士后。他在2022 年6 月从复旦大学微电子学院取得博士学位,后加入芯片与系统前沿技术研究院开展博士后研究至今。研究方向主要包括:a)高能效存算一体电路;b)多芯粒集成芯片系统;c)具身智能领域专用芯片等。他成功设计并流片了多款芯片,相关工作以第一或通讯作者身份已发表ISSCC 2 篇、JSSC 1 篇、MICRO 1 篇、HPCA 1 篇等。担任TCAS-I、TCAS-II 等期刊和会议审稿人。

朱振华

清华大学

清华大学电子工程系博士后助理研究员,香港科技大学访问学者,合作导师汪玉教授及谢源教授。入选清华大学“水木学者”计划、清华大学电子系“传信学者”计划,从事高能效存算一体架构与EDA工具设计研究。朱振华于2024年获工学博士学位,获清华大学优秀博士毕业生、清华大学优秀博士学位论文、DATE 2023最佳论文提名等荣誉。发表IEEE/ACM会议期刊文章40余篇,引用1100余次。现担任ASP-DAC 2025 TPC Secretary,IEEE TCAD、ACM TODAES、ACM TECS、IEEE TCAS-I、ISVLSI、AICAS等领域内重要期刊会议审稿人。


报告摘要

一、面向大语言模型的存算一体芯片与系统

近年来,以Transformer架构为基础的大语言模型(LLM)在人工智能领域取得了突破性进展,展现出强大的表达能力和广泛的应用潜力。然而,LLM规模的爆炸式增长对计算和存储硬件提出了严峻挑战,传统计算架构难以满足其日益增长的计算复杂度和存储需求。存算一体(Compute-in-Memory, CIM)架构作为一种新兴的高效计算方案,通过将存储器与运算单元深度集成,最大程度减少数据搬运引起的性能损耗和能量开销,为LLM的高效部署提供了新的解决思路。

本报告聚焦于面向大语言模型的存算一体电路与架构设计,旨在突破传统架构限制,满足大模型对高算力和高能效的需求。在电路设计方面,针对LLM对浮点精度的需求,提出了基于异常值感知的混合精度量化方法和可编程混合精度计算电路,实现推理精度和存储开销的权衡,构建高精度、高能效的存算一体宏单元。在架构层面,报告进一步分析了大模型对存算一体架构的需求,提出了相应的电路设计与架构优化思路,希望能为大模型的高效部署提供技术启发。


二、以存储为中心的计算架构设计与优化

基于Transformer架构的大语言模型在多种应用上取得了优异的性能,标志着AI 2.0时代的来临。随着模型参数量的激增,大模型的存储和访存开销相比传统深度学习模型增加了4-5个数量级,“存储墙”问题成为限制计算性能提升的主要瓶颈。存算一体架构有望充分利用存储器的高内部带宽,降低与处理单元之间的数据通信量,从而显著提升计算性能。本报告将围绕大模型应用,介绍面向AI 2.0的存算一体架构设计与优化方法,包括面向存算一体的高精度量化方法、通用存算架构算法部署工具以及多层次异构存算一体架构设计。最后,本报告将对未来发展趋势进行展望。


用户登录

我要用验证码登录
还没有账户? 点我申请
Copyright © 2024 南京集成电路设计自动化技术创新中心 苏ICP备2024073657号 苏公网安备 32011202001031   Sitemap
地址:南京市江北新区星火路17号创智大厦B座      电话:025-58229569