关灯
开启左侧

Cerebras宣布融资2.5亿美元:用世界最大的芯片,打造最快的AI计算机!

[复制链接]
gaimy 发表于 2021-11-12 09:23:17 | 显示全部楼层 |阅读模式 打印 上一主题 下一主题
 
  【新智元导读】刚刚,明星 AI 芯片企业 Cerebras 宣布获得 2.5 亿美元F轮融资,投后估值超 40 亿美元。目前该公司拥有世界最大的计算机芯片 WSE-2,和世界最快的 AI 计算机集群 CS-2,是英伟达在 AI 领域的强劲对手。
  又一家 AI 芯片明星企业获得融资!
  这次是曾打造出世界最大芯片、世界最快 AI 计算机的 Cerebras。
  当地时间周三,Cerebras 宣布,通过其 Alpha Wave Ventures 和 Abu Dhabi Growth 获得 Edge Capital 领投的 2.5 亿美元F轮融资。
  参与本轮融资的其他投资方还包括 Altimeter Capital、Benchmark Capital、Coatue Management、Eclipse Ventures、Moore Strategic Ventures 和 VY Capital。
  计入此次融资后, Cerebras 的总融资额达到 7.5 亿美元,投后估值超过 40 亿美元。
  此前,Cerebras 在 2019 年的E轮融资中估值为 24 亿美元。
  Cerebras 联合创始人兼首席执行官 Andrew Feldman 表示:
  「Cerebras 团队和我们非凡的客户已经取得了令人难以置信的技术突破,正在改变人工智能,使以前无法想象的成为可能。」
  「这笔资金使我们能够将全球领导地位扩展到新的地区,使人工智能进一步普及,开创高性能 AI 计算新时代,解决当今最紧迫的社会挑战,如药物发现、气候变化等问题。」
  目前,Cerebras 与 AI 芯片巨头英伟达处于竞争状态,都在力图围绕世界上最大芯片构建完整计算机系统和服务,Cerebras 称之为「Wafer-Scale」引擎。
  Cerebras 打造的 CS-2 是目前世界上最快的 AI 计算机。该机由 Cerebras 晶圆级引擎 WSE-2 提供核心算力。
  WSE-2 是有史以来最大的芯片,包含 2.6 万亿个晶体管,面积超过 46225 平方毫米。
  相比之下,英伟达最大的 GPU 只有 540 亿个晶体管,面积为 815 平方毫米。
  此外,WSE-2 还有着竞品 123 倍的计算内核,1000 倍的高速片上内存,12862 倍的内存带宽和 45833 倍的结构带宽。
  对于 AI 任务来说,大型芯片可以更快地处理信息,在更短的时间内产生答案。
  Cerebras WSE-2 与英伟达 A100 GPU 的性能参数对比
  今年 9 月,该公司宣布与云运营商 Cirrascale 建立了合作伙伴关系,提供 CS-2 的出租服务。
  Cerebras 表示,公司的基础设施能够计算包含数万亿个参数的超大型神经网络。而且,在非 AI 问题上,比如物理学和其他基础科学问题上,公司也取得了巨大成果。
  Cerebras 最初是为美国国家研究实验室的客户服务的,后来扩展到更多商业企业。
  目前 Cerebras 客户名单包括阿贡国家实验室、劳伦斯利弗莫尔国家实验室、匹兹堡超级计算中心的 Neocortex AI 超级计算机 EPCC、爱丁堡大学超级计算中心、东京电子设备公司、制药巨头葛兰素史克、阿斯利康等。
  近几年,神经网络的规模一直在稳步增长。在过去的一年里,OpenAI 的 GPT-3 自然语言处理程序,一度以 1750 亿参数成为世界上最大的神经网络,后来很快被谷歌的 1.6 万亿参数模型 Switch Transformer 超过。
  如此庞大的模型会遇到算力瓶颈问题,系统需求已经远远超出了单个计算机系统的处理能力。单个 GPU 的内存约为 16GB,而 GPT-3 等模型所需的内存往往高达几百 TB。
  像过去一样,单纯进行简单粗暴的算力扩展,已经难以满足需求。
  因此,系统集群变得至关重要。 而如何实现集群,是一个最关键的问题。
  要让每台机器都保持忙碌,否则系统的利用率就会下降。比如,今年英伟达、斯坦福和微软打造了一个 1 万亿参数的 GPT-3,并将其扩展到 3072 个 GPU 上。但是系统的利用率,仅为机器理论上应该能够达到的峰值操作的 52%。
  Cerebras 正是为了解决这个问题。
  首个最大 7nm 芯片 AI 集群
  今年 8 月,Cerebras 发布了世界上第一个大脑级 AI 解决方案——一个可以支持 120 万亿参数 AI 模型的单一系统。
  首个大脑级 AI 解决方案如何诞生呢?
  除了用到最大芯片,Cerebras 还揭露了 4 项新技术。
  这种技术组合可以轻松组建大脑规模的神经网络,并将工作分配到人工智能优化的核心集群上。
  Cerebras Weight Streaming:分解计算和内存
  这是一种新的软件执行模式,可以将计算和参数存储分解,使规模和速度得以独立且灵活地扩展,同时解决了小型处理器集群存在的延迟和内存带宽问题。
  这项技术首次实现了在芯片外存储模型参数,同时提供与在芯片上相同的训练和推理性能。
  Cerebras MemoryX:启用百万亿参数模型
  这是一种一内存扩展技术,它使模型参数能够存储在芯片外,并有效地流式传输到 CS-2 上,实现同在芯片上那样的性能。
  这一架构灵活性极强,支持 4TB 到 2.4PB 的存储配置,2000 亿到 120 万亿的参数大小。
  Cerebras SwarmX:提供更大、更高效的集群
  这是一种人工智能优化的高性能通信结构,可将 Cerebras 的芯片内结构扩展到芯片外,从而扩展 AI 集群,而且使其性能实现线性扩展。
  也就是说,10 个 CS-2 有望实现比单个 CS-2 快 10 倍的相同解决方案,鉴于每个 CS-2 提供 85 万个 AI 优化内核,Cerebras 便可连接 1.63 亿个 AI 优化内核集群。
  Selectable Sparsity:缩短时间
  Cerebras 架构独有的数据流调度和巨大的内存带宽,使这种类型的细粒度处理能够加速所有形式的稀疏性。
  「巨无霸」芯片迭代史
  早在 2019 年,Cerebras 就发布了第一代 WSE(Wafer Scale Engine)芯片。
  通常情况下,芯片制造商会将 12 英寸的硅切成薄片,切完后,晶圆片会继续被切割成数百个独立的小芯片,然后在这些小芯片上集成晶体管。而 WSE-1 则是直接「生长」在一整块晶圆上。
  作为当时最大的 AI 芯片,WES-1 有 40 万个 AI 可编程内核和 1.2 万亿个晶体管,使用台积电 16nm 工艺制程。
  与传统芯片相比,WSE 还包含 3000 倍的高速片上存储器,并具有 10000 倍的存储器带宽。WSE 的总带宽为每秒 100petabits。
  当时最强的英伟达 GA100 核心,面积超过 800 平方毫米、有 540 亿晶体管,然而在 Cerebras 的 WSE-1 芯片面前,GA100 也得叫爸爸。
  今年 4 月,Cerebras 再次推出最新的 Wafer Scale Engine 2(WSE-2)芯片,达到了破纪录的 2.6 万亿个晶体管和 85 万颗 AI 内核,采用台积电的 7nm 工艺制造。
  与第一代 WSE 芯片相比,WSE-2 的晶体管数、内核数、内存、内存带宽和结构带宽等性能特征增加了一倍以上。
  在先进工艺的支持下,Cerebras 可以在同样的 8x8 英寸,面积约 46225 平方毫米的芯片中塞进更多的晶体管。
  此外,台积电的 7nm 工艺可以让电路之间的宽度达到七十亿分之一米。
  而这次的融资,也让 Cerebras 距离下一代 5nm 工艺更近了一步,毕竟制造芯片所需的光掩模成本,每一个将能达到数百万美元。

回复

使用道具 举报

 
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则


0关注

0粉丝

25484帖子

排行榜

关注我们

官方微信

唯一QQ:

1511923161

地址:广东清远市阳山县

Email:1511923161#qq.com

Copyright   ©2015-2021  网创平台Powered by©网赚平台工作室