2021年1月26日,Graphcore宣布其在帮助客户加速创新和大规模利用人工智能技术上,又迈出了新的一步。
Graphcore与Cirrascale Cloud Services(以下简称Cirrascale)携手,为云上人工智能带来全新内容:借助首个公开发行的、基于第二代IPU的IPU-POD(MK2 IPU-POD)横向扩展集群,不需要拥有和运营数据中心,我们提供了一种简单方法来实现来按需增加计算容量。
Graphcore认识到,人工智能技术为市场带来了巨大的机遇,同时也带来了一系列独特的计算挑战:模型的尺寸正在迅速增加,精度的标准也在不断提高。如果客户想要充分利用最新的创新,他们就需要一个紧密集成的、专门为人工智能构建的硬件和软件系统。
Graphcloud是一项安全可靠的IPU-POD系列云服务,让客户在从实验、概念验证和试点项目扩展到更大的生产系统时,能够获取Graphcore IPU的强大功能。
首发时,Graphcore提供两款可用产品。在未来数月,Graphcore将提供更大的横向扩展系统:
• IPU-POD16:提供4 PetaFLOPS的人工智能计算(4个IPU-M2000,即16个Colossus MK2 GC200 IPU)
• IPU-POD64:提供16 PetaFLOPS的人工智能计算(16个IPU-M2000,即64个Colossus MK2 GC200 IPU)
与最新的GPU系统相比,IPU-POD系统可降低训练总成本,并缩短解决时间。
Graphcloud系统实例已预装了Poplar和系统软件。示例代码和应用示例可在本地获得,并可用于那些在Graphcore基准测试中使用的先进模型,包括BERT和EfficientNet。用户还可以访问全面的文档,这些文档可帮助他们快速启用包括PyTorch和TensorFlow在内的多个框架。
总部位于英国的Healx是最早使用Graphcloud的Graphcore客户之一,该公司的人工智能药物研发平台正在寻找罕见疾病的新疗法。该公司在2019年人工智能大奖中获得“健康和医学领域的最佳AI应用奖”(Best Use of AI in Health and Medicine)。
Healx机器学习工程技术负责人Dan O’Donovan表示:“我们从2020年12月下旬开始在Graphcloud上使用IPU-POD16,将我们现有的MK1 IPU代码迁移到MK2系统上运行。这一过程毫无障碍,并且带来巨大的性能优势。为模型提供更多的存储意味着我们不再需要切分模型,而只需专注切分数据即可。这使得代码更为简单,模型训练更加高效。”
他还指出:“在与Graphcore的合作中,Graphcore始终为我们开放最新硬件、SDK和工具的访问权限。此外,我们还可以通过直接会议和支持服务部门与Graphcore的硬件和软件专业工程师持续进行对话沟通。”
对于Graphcloud的发布,Graphcore联合创始人兼CEO Nigel Toon表示:“无论用户是初次评估我们的硬件和Poplar软件栈,还是扩展人工智能计算资源,借助Graphcloud,启用IPU变得前所未有的简单。我们很高兴与Cirrascale合作,将Graphcloud推向世界。Graphcloud与我们的全球合作伙伴计划、内部销售和工程支持等重要组成部分,共同构成/构建了Graphcore全方位的产品与服务。”
Cirrascale CEO PJ Go表示:“Cirrascale对于与Graphcore的战略合作感到非常自豪,此次合作进一步推动了基于云的机器学习解决方案时代的发展,进而与财富500强公司一起进行全新的、大规模商业部署。”
定价与规格
可用系统类型
IPU-POD16 4个IPU-M2000系统
IPU-POD64 16个IPU-M2000系统
定价
规格
• 两个系统都利用了Graphcore独特的IPU-Fabric™互连架构。IPU-Fabric™专为消除通信瓶颈设计,并允许成千上万个IPU作为单个高性能、超快速凝聚单元在机器智能工作负载上运行。
• 每个IPU-POD64实例均由4台Dell R6525主机服务器支持,并且配有最强大的本地人工智能数据中心系统所使用的双插槽AMD EPYC2 CPU,而每个IPU-POD16均有一台相同规格的专用服务器。
• 为IPU-POD64和IPU-POD16分别提供了16TB和4TB的安全本地NVMe存储。
• 每个IPU-POD64都提供57.6GB的处理器内存储和2048GB的流存储(32 x 64GB DIMM)。
• 每个IPU-POD16提供14.4GB处理器内存储和512GB流存储(8 x 64GB DIMM)。