收藏本站   微信公众号
半导体行业资讯及设备采购平台semi1688.com  
VGF单晶炉 双腔甩干机 ALD原子层沉积设备 高真空多靶磁控溅射镀膜机
CANON ASML
NIKON AMAT
DISCO TEL
半导体行业资讯及设备采购平台semi1688.com
半导体行业资讯及设备采购平台www.semi1688.com
当前位置:
行业资讯
亚马逊自研芯片背后的大潮流
来源:未知 | 发布时间:1641175451 | 浏览次数:
亚马逊网络服务上个月扩大了其芯片影响力,主要是推出了这家巨型云提供商的第三代基于Arm的Graviton处理器,该处理器将为针对计算密集型工作负载的新云实例提供动力,如高性能计算(HPC)、科学建模、分析和基于CPU的机器学习推理。
  
  在AWS的re:Invent会议上,该公司公布了目前处于预览阶段的Graviton3处理器,以及将在这些处理器上运行的EC2C7g实例。同时,AWSCEOAdamSelipsky还宣布了运行在该公司一年前的Trainium芯片上的新Trn1实例,针对机器学习训练工作负载,并吹嘘了2019年推出并利用Inferentia芯片的Inf1实例的性价比能力,为机器学习推理任务。
  
  该公司甚至宣布了存储优化的EC2实例——Im4gn/Is4gen/I4i——基于其Nitro固态驱动器(SSD),以提高AWS云中I/O密集型工作负载的存储性能。
  
  AWS专注于芯片
  
  最新处理器和EC2实例的推出是AWS多年来努力构建自己的处理器以在其云实例及其Outposts基础设施中运行的最新证明,这些基础设施旨在提供AWS服务和连接到-在企业采用混合云模型快速增长的时候部署数据中心。
  
  这一切发生在AWS于2016年收购以色列初创公司AnnapurnaLabs五年之后,这使其成为其芯片制造工作的基础。
  
  MoorInsightsandStrategy的首席分析师PatrickMoorhead告诉TheNewStack:“AWS已经在自己的芯片上投入了数年时间,从Nitro开始,扩展到通用Graviton、用于推理的Inferentia,以及现在用于训练的Trainium。”“AWS可以挑选它想要的每一个功能,以及它不需要利用自己软件的每一个功能。它还可以针对其特定的网络和存储优化其I/O。在规模上,这应该允许它以更低的成本提供计算,并在某些情况下提供更高的性能,亚马逊自研芯片背后的大潮流。”
  
  Moorhead说,英特尔、AMD和Nvidia服务于更广泛的市场,跨越多种环境,一些客户并没有使用所有功能。AWS正在使用本土计算来区分其实例。
  
  性价比是关键
  
  在他的主题演讲中,Selipsky强调企业将看到在利用AWS芯片而不是来自英特尔和AMD的x86CPU或来自这些供应商和Nvidia的GPU的实例上运行人工智能、机器学习和分析等工作负载的性价比优势。
  
  “借助Trainium和Inferentia,客户可以获得最佳的机器学习性价比,从扩展训练工作负载到通过高性能推理加速生产中的深度学习工作负载,让所有客户都可以使用机器学习的全部功能,”CEO说。“长期以来,这一直是我们的目标,降低训练和推理的成本是这一旅程的主要步骤。”
  
  AWS没有透露关于Graviton3的很多细节。他说,随着新的硅情况下为25%,快于Graviton2运行的通用计算工作负载作为动力的情况下,并会更好一些专门的工作负载。例如,它在科学工作负载和加密作业的浮点性能方面是两倍。运行机器学习应用程序的速度也快了三倍。
  
  电源效率的一个因素
  
  Graviton3将在相同性能下使用多达60%的能量,部分原因是使用DDR5内存,它比DDR4消耗更少的功率,同时提供50%的带宽。该处理器将运行多达64个内核,拥有500亿个晶体管,时钟速度为2.6GHz。
  
  AWS副总裁JeffBarr在博客文章中写道,基于Graviton3的C7g云实例将提供各种尺寸,包括裸机模型。
  
  基于Inferentia和Trainium的实例还旨在降低运行特定工作负载的成本。Selipsky说,Inf1实例的每次推理成本比类似的基于GPU的EC实例低70%。同时,Trainium驱动的Trn1实例针对自然语言处理和图像识别等工作,将提供两倍于基于GPU的实例的带宽——高达800Gb/s的EFA网络吞吐量。
  
  企业还将能够在EC2UltraClusters中部署Trn1实例,该实例可以扩展到数万个Trainium芯片并达到PB级。这些UltraCluster将比之前的EC2UltraCluster大2.5倍。
  
  “Inferentia和Trainium都是为了在生产级推理和核心训练中省钱,”Moorhead说。“AWS一直坚持其在节省资金方面的立场,因此,在我看到Trainium结果之前,我非常有信心在某些工作负载上,您会看到显着的节省。”
  
  定制芯片的趋势
  
  Graviton、Inferentia和Trainium是行业向专用处理器发展的更广泛趋势的一部分。在本周的一篇博客文章中,Arm基础设施业务线的高级副总裁兼总经理ChrisBergey写道,他的公司设计芯片并将这些设计授权给其他公司,正以其高能效推动这一设计趋势。
  
  “数据中心工作负载和互联网流量几乎每两年翻一番,因此每瓦性能优势对于防止计算增加其碳足迹至关重要,”Bergey写道,并补充说Arm在云中的增长“让开发人员可以选择通过在每个核心的基础上提供一致的性能和可扩展性,继续可持续创新,实现可扩展的性能和效率的组合,以提供行业领先的TCO。”
  
  AWS并不是唯一一家希望设计自己的芯片的超大规模企业,因为他们寻求更高的性能和效率。据报道,微软去年决定构建基于Arm的芯片,用于Azure服务器和谷歌,谷歌拥有诸如张量处理单元和OpenTitan安全芯片等定制芯片。Facebook也在构建自己的数据中心芯片。
  
  构建自己的处理器的挑战
  
  TheEnderleGroup的首席分析师RobEnderle告诉TheNewStack,他不确定这将如何发展。
  
  “当公司达到一定规模时,他们倾向于相信他们的内部规模经济将使他们能够与专注的供应商作为同行有效竞争,”Enderle说。“这一最新趋势很大程度上是英特尔错过了许多关键里程碑的结果……迫使云行业的大多数人考虑这条道路。”
  
  然而,在CEOPatGelsinger的领导下,英特尔的执行力正在提高。他说,与此同时,AMD的EpycCPU和GPU继续给人留下深刻印象,这表明对定制芯片的需求可能正在减少。
  
  “在供应短缺时期,像AMD和英特尔这样的公司也可能更容易工作,而不是单独行动,因为这些公司不仅应该有更好的供应冗余,而且还应该能够更好地转移内部决策者的责备如果短缺甚至超出了他们的控制范围,”Enderle说。“成本确实仍然是单打独斗的潜在优势,但前提是你忽略了各家公司的知识产权保护和数十年经验的价值,这些经验通常会提供相互抵消的可靠性、一致性和性能优势。”
  
  此外,随着时间的推移,成本会增加,内部努力可能变得无利可图且不可持续。分析师表示,部分原因是很难找到和留住所需的人才,这是在熟练员工严重短缺的时期面临的一项特殊挑战。
  
  “虽然过去并不总是能预测未来,而且AWS规模的公司可以成功地完成即使是最大的企业也无法做到的事情”Enderle说,他进一步指出,“只要专业化公司的基本优势在执行,它们就仍然有效。”
 
 上一篇:IC分销商:8英寸产能吃紧将继续推升明年Q1芯片价格
 下一篇:受西安封控管理影响,三星NAND Flash生产调整人力与部分稼动