大市中国

大市中国 > 宏观 >

美国AI芯片明星创企CerebrasSystems获2.5亿美元F轮融资

时间:2021-11-12 10:05:05

 

来源:36氪

曾造出世界最大芯片的美国AI芯片明星创企Cerebras Systems,最新宣布完成2.5亿美元(约合16亿人民币)F轮融资。此次融资由AlphawaveVentures和阿布扎比增长基金(ADG)领投。截至本轮融资,Cerebras的融资总额已达7.2亿美元(约合46亿人民币),公司估值超过40亿美元(约合256亿人民币)。

2019年8月,Cerebras的首颗晶圆级芯片WSE一问世便轰动全球科技圈,它由一整片晶圆制成,在46225mm²面积上集成了1.2万亿个晶体管。其2021年推出的二代WSE-2更进一步,采用7nm制程,创下集成2.6万亿个晶体管的新纪录。相比之下,被业界视作云端AI芯片标杆的英伟达A100 GPU,同样采用7nm制程,总共有540亿个晶体管。

接下来,Cerebras计划将此次融资用于扩大其全球业务和工程师团队,以及设计下一代基于台积电5nm节点的处理器。

创业伙伴再上路,投资人称正在重新定义AI的可能性

Cerebras Systems位于美国加利福尼亚州,由Andrew Feldman、Gary Lauterbach等人创建于2015年。Andrew Feldman和Gary Lauterbach分别是CerebrasSystems的首席执行官和首席技术官,两人的合作时间已经超过12年。Andrew Feldman有着斯坦福大学的MBA学位,曾多次作为公司高管完成了收购和上市。GaryLauterbach则是行业中著名的计算机架构师,曾担任SPARC Ⅲ和UltraSPARC Ⅳ微处理器的首席架构师。

2007年,Andrew Feldman和GaryLauterbach就一起创办了微型服务器公司SeaMicro。2012年,SeaMicro被AMD以3.34亿美元收购,两人也一起加入了AMD。AndrewFeldman在AMD做了两年半的副总裁。

Cerebras Systems创建至今已完成了6轮融资,总金额达7.2亿美元。早在2016年,CerebrasSystems完成了第一笔6450万美元的融资;次年1月,CerebrasSystems拿下2500万美元的B轮融资;6个月后,再次筹集6000万美元;2018年11月,完成8800万美元的D轮融资。

随着不断地融资,CerebrasSystems也从价值2.45亿美元的公司成为了新的AI芯片独角兽。Twitter、为Snap提供资金的Benchmark,传奇芯片设计师、AMD前CTOFredWeber、著名非营利实验室OpenAI的AI科学家、AlexNet的联合创建者Ilya Sutskever等业界知名机构或大牛都对其进行了投资。

2019年,CerebrasSystems完成了E轮融资,公司估值约为24亿美元。如今,新的F轮融资为该公司又筹集了2.5亿美元的资金,而这相当于CerebrasSystems大约6%的股份,其估值已超过40亿美元。

据科技媒体AnandTech报道,这2.5亿美元的融资将会支撑Cerebras未来2-3年的布局,包括在5nm节点上设计芯片和新的内存扩展方案等。目前CerebrasSystems在美国桑尼维尔、美国圣地亚哥、加拿大多伦多、日本东京等地拥有约400名员工,并希望到2022年底扩大到600人,主要增加工程师人数并专注于产品的全栈开发。

Alphawave Ventures的联合创始人兼董事长Rick Gerson称:“CerebrasSystems正在重新定义人工智能的可能性,并在加快制药和生命科学等几个领域的创新方面有着一流的表现。我们很自豪能与Andrew和Cerebras的团队合作,支持他们将高性能AI计算引入全球新市场和地区。”

02 二代处理器具有2.6万亿个晶体管,性能提升超1倍

2019年,CerebrasSystems发布了其第一代WSE芯片,这款芯片具有40万个内核和1.2万亿个晶体管,使用台积电16nm工艺制程。今年4月,CerebrasSystems推出了第二代处理器WSE-2,具有破纪录的2.6万亿个晶体管(市场上最大的GPU只有540亿个晶体管)和85万颗AI优化内核,大小类似餐盘,采用台积电的7nm工艺。相比于第一代WSE处理器,WSE-2在AI内核数量、晶体管数量、密度、内存带宽等参数上都有着一倍以上的提升。

和当下的很多芯片不同,CerebrasSystems的WSE-1和WSE-2并不是用晶圆上的一小部分制成,而是将整个直径为300mm的晶圆加工成1颗芯片。虽然这种芯片体积较大,但是由于晶体管和内核的数量、互连优势,相比同等算力的GPU集群,其功耗和所占空间都更小。传统的GPU集群如果想要达到同等算力,需要数十个几架承载数百甚至数千个GPU芯片。而CS-2只有26英寸高,是标准数据中心机架的1/3。Cerebras Systems的技术也在医药、天文、科研等多个领域发挥出了作用。

无论是美国阿贡国家实验室、劳伦斯利弗莫尔国家实验室、匹兹堡超算中心、爱丁堡大学超算中心等科研机构还是葛兰素史克、东京电子器件等厂商都成为了CerebrasSystems的忠实客户。

参数规模提升100倍,还在云端提供深度学习服务

今年8月24日,Cerebras Systems还推出了世界上首个具备脑规模的AI解决方案。人脑包含约100万亿个突触结构,而此前最大的人工智能硬件集群大约只有1万亿参数,类似于同等数量的突触,仅有人脑规模的1%。而CerebrasSystems单一的CS-2支持超过120万亿参数,在规模上达到了人脑水平,推动了AI神经网络技术的发展。

阿贡国家实验室副主任Rick Stevens谈道:“Cerebras的发明将提高100倍的参数容量,它有可能改变行业。我们将首次能够探索大脑大小的模型,开辟了广阔的研究和洞察的新途径。”该解决方案包括四项核心技术,代号分别为Weight Streaming、MemoryX、SwarmX和Sparsity。

Weight Streaming可以让AI模型参数存储在芯片外,同时提供与芯片相同的训练和推理性能的能力,简化了工作负载分配模型。MemoryX是一种新的内存扩展技术,可实现2.4 PTAB的高性能内存,支持120万亿的参数模型。

SwarmX是一种高性能、AI优化的通信互连结构,可以互连多达1.63亿个AI内核,跨越192个CS-2系统协同工作,训练单个神经网络。Sparsity可以让用户选择模型的重量稀疏程度,减少模型处理所需的FLOP算力和时间。

9月16日,美国深度学习云服务商Cirrascale Cloud Services宣布采用CS-2系统和WSE-2处理器。在其应用中,8GPU服务器比CS-2系统训练自然语言处理NLPBERT模型的时间慢9.5倍。而在训练精度上,用户需要超过120个GPU才能匹配单个CS-2系统的训练精度。

Cerebras Systems,开拓巨型芯片路线获认可

需要指出的是,CerebrasSystems的WSE系列芯片并非单纯的放大芯片尺寸。大尺寸芯片需要芯片企业在互连、芯片封装、散热等方面都有着独特的技术和解决方案,这些技术方案也体现在了CerebrasSystems脑规模AI解决方案中。

虽然其芯片的尺寸较大,无法用于PC、移动设备等领域,但CerebrasSystems也向我们展示了巨型芯片的广阔应用前景,其产品可以在超算、云端等机构或企业的方案占据一席之地。而新一轮的融资代表了资本对这一技术路线的认可。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。