6月23日消息,2021年曾推出全球最大AI芯片的Wafer Scale Engine 2(WSE-2)的Cerebras Systems公司近日宣布,在基于单个WSE-2芯片的CS-2系统上训练了世界上最大的拥有200亿参数的NLP(自然语言处理)人工智能模型。这也使得它能够适应,目前网络上非常热门的基于文本创建图像的OpenAI的120亿个参数的DALL-E的神经网络模型。
去年推出的全球最大AI芯片Wafer Scale Engine(以下简称“WSE”)及基于该芯片的全球最快的深度学习计算系统的芯片初创公司Cerebras传来好消息,美国匹兹堡超级计算机中心(PSC)在美国国家科学基金会(NSF)的资助下,购入了两套CS-1系统,总价500万美元,约合人民币3500万元。此前,Cerebras创始人兼CEO Andrew Feldman就曾透露WSE芯片的价格在几百万美元级别。如此看来WSE芯片的单价或将达到200万美元。
在今年8月18日,芯片初创公司Cerebras Systems在美国举行的Hotchips国际大会上,正式发布了“全球最大”的AI芯片Wafer Scale Engine(以下简称“WSE”)。随后在9月,Cerebras宣布与美国能源部(DOE)达成合作,将利用WSE进行基础和应用科学、医学研究,充分发挥其超大规模AI的优势。WSE会进驻美国能源部下属阿贡国家实验室、利弗莫尔国家实验室,与传统超级计算机合作,加速AI工作。
今年8月,芯片初创公司Cerebras在半导体行业盛会——Hotchips国际大会上展出了号称是“世界上最大”的半导体AI芯片Wafer Scale Engine。这款AI芯片一经展出,便引起了业界的极大热议。近日,Cerebras官方宣布,美国能源部(DOE)已经与其达成合作,将利用WSE进行基础和应用科学、医学研究,充分发挥其超大规模AI的优势。