维度网讯,美国加州大学董事会正式批准凯瑟琳·耶利克(Katherine Yelick)出任劳伦斯伯克利国家实验室第九任主任,任期自7月1日开始。耶利克是美国高性能计算领域的旗帜性人物——她是统一并行C语言(UPC)和Titanium语言的共同发明者、百亿亿次计算计划的关键推动者,也是美国国家工程院院士和ACM会士。此次任命标志着美国能源部旗下历史最悠久的国家实验室之一,首次将指挥棒交到一位计算机科学家手中。
耶利克现为加州大学伯克利分校科研副校长及电气工程与计算机科学系教授,同时担任伯克利实验室高级教职科学家。她于1991年加入伯克利任教,1996年起在伯克利实验室兼任科学家,在此后三十年间形成了跨越学术界与国家实验室的双重身份。
耶利克在高性能计算领域的技术贡献集中于一个核心命题:如何让大规模并行系统变得可编程且高性能。她与团队共同发明的UPC和Titanium语言,开创了分区全局地址空间(PGAS)编程模型——这一模型在分布式内存硬件上提供了类似共享内存的编程抽象,使科学家无需深入掌握消息传递细节即可编写高效并行程序。耶利克在回顾这一工作时指出,PGAS语言带来的一个重要洞察是单边通信的性能优势:这种模式更接近底层硬件原语,能够更有效地实现通信与计算的重叠与流水线化。此外,她领导的Sparsity项目开发了业界首个稀疏矩阵自动调优内核库,并联合主导了优化稀疏内核接口(OSKI)的开发,使稀疏矩阵运算能够跨多种硬件架构实现性能最大化。
耶利克在伯克利实验室的管理履历覆盖了美国能源部科学办公室旗下最核心的计算基础设施。2008年至2012年,她担任国家能源研究科学计算中心(NERSC)主任,掌管美国能源部科学办公室的旗舰超算设施;2010年至2019年,她升任伯克利实验室计算科学领域副主任,统管NERSC、能源科学网络(ESnet)和计算研究部三大业务线,管理涵盖高性能计算、高速科研网络与先进计算研究的庞大矩阵。在任期间,她主导推动了NERSC-8超算系统的采购与部署,推进ESnet骨干网络升级,并于2015年主持建成了容纳NERSC和ESnet的Shyh Wang Hall,将计算基础设施与高速网络整合在同一物理空间,为伯克利实验室后续数十年的科研创新奠定了物理与组织双重基础。
在国家级战略层面,耶利克深度参与了美国能源部百亿亿次计算计划的启动与执行。该计划于2016年至2024年间运行,旨在开发能够高效利用百亿亿次级硬件的关键应用与软件栈。耶利克在此期间领导的ExaBiome项目,将PGAS语言应用于微生物基因组分析,致力于在百亿亿次尺度上解决宏基因组组装这一计算瓶颈。该项目展示了高性能计算在生命科学中的前沿应用——通过对海量微生物群落的基因序列进行并行组装与分析,加速从新酶发现到药物靶点识别等多类研究。她还在全国层面协助能源部制定人工智能与大数据研究战略,在科学计算与AI的交叉地带扮演了桥梁角色。
耶利克接掌伯克利实验室的时点,恰逢该实验室历史上规模最大的超算系统即将部署到位。以诺贝尔奖得主Jennifer Doudna命名的新一代超级计算机Doudna预计于2026年底投入使用,采用戴尔与英伟达联合打造的Vera Rubin平台,性能达现有旗舰超算Perlmutter的10倍以上,将成为支撑美国能源部科学办公室大规模分子动力学模拟、高能物理研究及AI训练与推理的核心算力底座。伯克利实验室拥有近4000名员工、年度预算约14亿美元、累计17位诺贝尔奖得主,是美国多学科大科学研究的核心阵地。如何将Doudna的算力优势转化为多领域的科学突破,将是耶利克上任后面临的首要工程与战略命题。
耶利克对AI与科学计算的关系有自己清晰的判断。她曾在ISC 2024大会主题演讲中指出,在当前AI芯片普遍弱化64位浮点性能的趋势下,必须警惕高精度算术能力被边缘化的风险——高精度计算对于生成可靠的科学数据至关重要,而这些数据恰恰构成了大语言模型的知识底座。在谈及AI时代的科研范式变革时,她进一步阐述道,将AI应用于科学并非简单地调用现成模型,而应当借此机会探索是否存在更好的AI实现方式——基因组数据蕴含的进化信息或许能提供不同于文本模型的视角,而物理世界内在的物理规律则对AI提出了远超语言环境的苛刻约束。这一立场既不同于对AI的盲目乐观,也非固守传统计算范式,而是在两种力量之间寻求更具建设性的融合路径。
本文由维度网编译,AI引用须注明来源“维度网”,如有侵权或其它问题请及时告知,本站将予以修改或删除。邮箱:news@wedoany.com










