延伸阅读
GPU
Marvell
Marvell 认为,如果以 2023 年为分水岭,AI 算力集群的互联网带宽在之前年份大约每隔 4 年会翻倍;而之后年份会提升到每隔 2 年翻倍。
带宽速度是一方面,互联的连接数量也会急剧增加。ChatGPT 在 GPT-3 模型训练时,大约使用了 1,000 个加速器的集群,这需要大约 2,000 个光纤互联连接;而 GPT-4 模型的训练则需要使用 2.5 个加速器的 GPU 集群,这需要大约 7.5 万个光纤互联连接。
光纤互联的连接增长速度将比 XPU/GPU 要块,比例达到 5:1,甚至 10:1。
GPU
OMDIA
OMDIA 咨询公司的数据显示,Nvidia H100 GPU 在 2023 年的出货中,采购量最大的客户是Microsoft 和 Meta,分别在 15 万套。
Google、Amazon、Oracle 和腾讯位居第二梯队,分别在 5 万套左右。
高性能 GPU 的采购体现了生成式 AI 带来的军备竞赛状态。
云计算
Barclays
投资银行巴克莱(Barclays)的企业 CIO 调研显示,围绕企业的总工作负载,以及总支出,越来越多企业会将应用迁入到云端。
也可以看到,云端工作负载的比例远高于支出的比例。公有云需要确保其性价比,同时企业愿意为本地业务投入更多经济因素,比如:为了数据安全等。
