云擎天下-超高性价比AI算力服务平台

 A100 pcie40G - 1200/卡/月;裸金属八卡机:8*910B - 11000/月  8*4090 - 5700/月  8*A100 pcie40G - 8800/月  8*A100 pcie80G - 22000/月  8*A100 nvlink80G - 25000/月  8*A800 nvlink80G - 23000/月  8*H20*96G - 25000/月 8*H20*141G - 32000/月  8*L40 - 9600/月  8*L40S - 13000/月 8*H100 - 53000/月 8*H800 - 49000/月 8*H200 -63000/月 8*B200 -91000/月 

全球GPU算力资讯简要【20250906】

  1. 国内首个AI计算开放架构发布:该架构由中科曙光协同20余家产业链企业(涵盖AI芯片、整机、大模型等)共同发布,是面向大规模智能计算场景,以GPU为核心进行高效紧耦合系统设计的协同创新体系,旨在推动国产智算生态的全面开放与普惠发展。

  2. 曙光AI超集群系统技术特点

    • 超高性能:单机柜可搭载96张GPU卡,算力规模达百P级,访存总带宽超180TB/s,支持百万卡超大集群扩展。

    • 超高效率:其千卡集群大模型训练推理性能达业界主流水平2.3倍,开发效率提升4倍,并能通过存算传协同提升GPU计算效率55%。

    • 超高可靠:包含121项设备和链路可靠性设计,平均无故障时间(MTBF)提高2.1倍,平均故障修复时间(MTTR)降低47%。

    • 全面开放:硬件支持多品牌AI加速卡,软件兼容主流AI计算生态(如CUDA)。

  3. AI计算开放架构联合实验室成立:该实验室将依托国家先进计算产业创新中心,围绕芯片与底层基础软件协同优化、模型—硬件协同设计等方向展开工作,着眼于破解生态壁垒。

  4. 中科曙光开放三项关键技术:首批宣布开放AI存储优化能力、液冷基础设施设计规范、DeepAI基础软件栈等三项技术能力,以降低中小企业研发门槛,减少重复研发。

  5. 曙光AI超集群能效突出:采用先进冷板液冷技术,通过394项节能设计,其电源使用效率(PUE)低于1.12。

  6. 中国智算产业寻求开放协作突破算力瓶颈:产业界认识到,面对高端算力供给不足、国产加速卡性能差距大、算力成本高、自主软硬件生态不成熟等挑战,需通过开放协作打造开放式、标准化、高效率的算力集群。

  7. 谷歌Ironwood TPU性能大幅跃升:谷歌在Hot Chips 2025大会上披露了其TPU v6(Ironwood)的细节。其峰值FLOPS性能较TPU v5p提升约10倍,功效比提升5.6倍,配备192GB HBM3E内存,带宽达7.3TB/s。其4.2 TFLOPS/瓦的功效比已接近英伟达B200/300 GPU的4.5 TFLOPS/瓦,表明AI专用芯片正快速缩小与领先GPU的性能差距。

  8. Meta扩展超大规模GPU集群:Meta计划将其GPU集群规模扩展至超过10万张GPU,并在未来十年预计增长10倍。其在Hot Chips大会上详细介绍了定制NVL72系统Catalina的架构设计,该设计与英伟标准设计不同,体现了基于个性化需求的定制化趋势。

  9. 网络与光学技术成AI基础设施焦点

    • 网络技术:博通推出了51.2TB/s的Tomahawk Ultra交换机,专注于HPC和AI应用的低延迟Scale Up。英伟达也推出了"Spectrum-XGS"以太网技术,解决跨数据中心分布式集群的“跨规模”问题。

    • 光学技术:Lightmatter和Ayar Labs等公司展示了先进的光子互连和光学I/O芯片技术,以应对铜互连限制、机架功率密度增长以及光学收发器成本和功耗的挑战。

  10. AMD披露MI350细节并预告MI400:AMD在Hot Chips大会上介绍了MI350 GPU系列。MI355X TBP为1.4kW,主要部署在液冷数据中心;MI350X TBP为1.0kW,主要服务于风冷基础设施。AMD重申MI400系列及其"Helios"机架解决方案将按计划于2026年推出。

商务合作:cloud-engine-ben(微信)
客服热线:19886543806
联系地址:深圳市南山区招商街道沿山社区南海大道1079号花园城数码大厦A座二楼
企业信息