Graphcore发布第二代IPU及IPU-M2000,三大颠覆性技术定义AI计算的未来

Graphcore7月正式发布第二代IPU以及用于大规模系统级产品IPU-Machine: M2000(IPU-M2000),新一代产品具有更强的处理能力、更多的内存和内置的可扩展性,可处理庞大的机器智能工作负载。

 

IPU-M2000是一款即插即用的机器智能刀片式计算单元,由Graphcore全新的7纳米 Colossus™ 第二代 GC200 IPU提供动力,并由Poplar™软件栈提供全面支持。其设计便于部署,并支持可扩展至大规模的系统。这款纤薄的1U刀片机可提供1个PetaFlop的机器智能计算,并集成了针对AI扩展优化的网络技术。

 

IPU-M2000可构建成IPU-POD64这一Graphcore全新模块化机架规模解决方案,可用于大型机器智能横向扩展,提供前所未有的AI计算可能性,以及完全的灵活性和易于部署的特性。它可以从一个机架式本地系统扩展到高度互连的超高性能AI计算设施中的1000多个IPU-POD64系统。

 

“随着IPU-M2000和IPU-POD64的推出,Graphcore进一步扩大了我们在机器智能领域的产品竞争优势。”Graphcore首席执行官Nigel Toon指出:“Graphcore通过技术创新实现更强有力的产品线,这些创新能够提供客户所期望的行业领先性能。对于寻求将机器智能计算添加到数据中心的客户而言,Graphcore新推出的IPU-M2000凭借其强大的算力、易于扩展的灵活性和突出的易用性,将具有很强的可行性和价值提升潜力。”

 

Mk1 IPU产品的用户可以确信,他们现有的模型和系统可以在这些新的Mk2 IPU系统上无缝运行。虽然第一代Graphcore IPU产品已经处于领先地位,但与之相比,第二代产品的性能还将提高8倍。

 

IPU-M2000的设计使客户可以在IPU-POD™配置中构建多达64,000个IPU的数据中心规模系统,提供16ExaFlops的机器智能计算能力。新的IPU-M2000甚至能够处理艰巨的机器智能训练或大规模部署工作负载。

 

Graphcore全新的IPU-Fabric™技术使大规模连接IPU-M2000和IPU-POD成为可能,该技术是专为机器智能通信而从头设计的,并提供了专用的低时延结构,可在整个数据中心内连接IPU。

 

Graphcore的Virtual-IPU软件与工作量管理和编排软件集成在一起,可以轻松地为许多不同的用户提供训练和推理服务,并允许根据工作情况调整和重新配置可用的资源。

 

无论您是要使用单个IPU还是要使用数千个IPU来完成机器智能工作负载,Graphcore的Poplar SDK都可以使这一过程变得简单。您可以使用首选的AI框架(例如TensorFlow或PyTorch)。而且,从这一高级描述中,Poplar将构建完整的计算图,以捕获计算、数据和通信。然后,它会充分利用可用的IPU硬件,编译此计算图,并构建用于管理计算、存储和网络通信的运行时程序。

 

在中国市场,Graphcore与领先的本地商业用户展开紧密的早期合作,基于IPU的开发者云已于7月初正式上线,其IPU-POD产品技术,已在IPU开发者云上供用户访问。因此,中国很可能成为Graphcore新推出的第二代处理器技术实现商业化落地的区域之一。

 

以上努力,仅仅是Graphcore在中国市场进行的相当规模的投资中的一部分。Graphcore还在本地构建了强有力的工程化团队,希望与本地的AI产业者和AI创新者进行紧密合作,以先进科技助推中国AI创新。

 

来源:中国电子商情