2025 年 2 月 21 -23 日,2025 全球开发者先锋大会(2025GDC 大会)在上海盛大召开,以 “模塑全球,无限可能” 为主题,吸引了众多开发者、企业及学术机构代表。开源成为本次大会的高频词,中国开源参与者数量位居全球第二,众多开源大模型技术和产品取得突破,如 DeepSeek 的开源模型以及上海阶跃星辰智能科技有限公司发布的全球参数量最大的开源视频生成大模型 Step - video - T2V 等。商汤科技还发布了一站式开源 Agent 应用开发框架 LazyLLM,上海也启动多项语料相关工作。这些成果展现了 AI 产业的蓬勃发展,而在这背后,算力与服务器硬件是关键支撑。
大模型对算力的需求堪称 “贪婪”。以下通过表格列举部分模型数据,直观呈现大模型对算力的依赖:
这种增长促使硬件设备制造企业加大研发投入,推动数据中心建设和运营产业迅猛发展。
服务器作为算力的关键承载者,其硬件性能直接决定大模型运行的效率与效果。在大模型推理过程中,内存容量与带宽至关重要。运行一个千亿大模型(100b),通常需要 200 - 300GB 的显存空间来存放模型权重参数、计算过程中的 KVCache 等数据。大模型推理分预填充和解码两个阶段,预填充阶段对显存需求大,解码阶段对内存带宽需求高。不同类型的服务器在支撑大模型方面各有特点,相关硬件性能及大模型应用数据如下:
按照 BF16 精度计算,若要千亿参数大模型运行时延小于 100ms,内存与计算单元之间的通信带宽至少要在 2TB/s 以上,这表明仅靠硬件升级不足以实现大模型的高效运行,还需硬件资源与软件算法协同优化。
随着 AI 技术在各个领域的渗透,服务器市场需求呈现显著变化。在垂直领域,如千方科技优化智能交通模型、金融券商用于投研分析和智能客服等场景,都需要适配 AI 应用的服务器,不仅要求更高的计算能力,还需在数据处理速度、存储容量等方面升级。从产业整体来看,总额超百亿的 AI 项目招标覆盖智能制造、医疗、金融等六大领域,对服务器的需求量大幅增加,且需求更加多元化。针对不同行业的 AI 应用,需要定制化的服务器解决方案,以满足其特定的计算、存储和网络需求。
未来,服务器市场在支撑 AI 发展方面呈现几个明显趋势。首先,性能提升是持续追求,更高的计算性能、更快的数据传输速度和更大的存储容量是基本要求。其次,绿色节能将成为重要考量因素,随着数据中心规模扩大,能耗问题日益突出,研发更节能的服务器硬件技术迫在眉睫。再者,定制化服务器将成为主流,针对不同行业的 AI 应用场景,提供个性化的服务器配置,提高资源利用效率。同时,服务器的智能化管理也将得到加强,通过智能软件实现对服务器的实时监控、故障预测和自动优化,确保 AI 应用的稳定运行。
2025GDC 大会让我们看到 AI 产业的繁荣,而算力和服务器硬件作为 AI 发展的根基,其重要性不言而喻。大模型的发展离不开强大算力支持,而服务器作为算力的物理载体,其性能的提升与合理配置对大模型的训练与推理至关重要。随着 AI 技术不断拓展应用边界,服务器市场需求持续增长且走向多元化、定制化,只有不断提升服务器硬件性能、优化算力供给,才能更好地支撑 AI 产业的无限可能,推动其在各行业的深度融合与创新发展。