2025GDC 大会视角:服务器与 AI大模型算力发展的深度剖析

server/2025/2/27 15:10:32/

2025 年 2 月 21 -23 日,2025 全球开发者先锋大会(2025GDC 大会)在上海盛大召开,以 “模塑全球,无限可能” 为主题,吸引了众多开发者、企业及学术机构代表。开源成为本次大会的高频词,中国开源参与者数量位居全球第二,众多开源大模型技术和产品取得突破,如 DeepSeek 的开源模型以及上海阶跃星辰智能科技有限公司发布的全球参数量最大的开源视频生成大模型 Step - video - T2V 等。商汤科技还发布了一站式开源 Agent 应用开发框架 LazyLLM,上海也启动多项语料相关工作。这些成果展现了 AI 产业的蓬勃发展,而在这背后,算力与服务器硬件是关键支撑。

大模型对算力的需求堪称 “贪婪”。以下通过表格列举部分模型数据,直观呈现大模型对算力的依赖:

这种增长促使硬件设备制造企业加大研发投入,推动数据中心建设和运营产业迅猛发展。

服务器作为算力的关键承载者,其硬件性能直接决定大模型运行的效率与效果。在大模型推理过程中,内存容量与带宽至关重要。运行一个千亿大模型(100b),通常需要 200 - 300GB 的显存空间来存放模型权重参数、计算过程中的 KVCache 等数据。大模型推理分预填充和解码两个阶段,预填充阶段对显存需求大,解码阶段对内存带宽需求高。不同类型的服务器在支撑大模型方面各有特点,相关硬件性能及大模型应用数据如下:

按照 BF16 精度计算,若要千亿参数大模型运行时延小于 100ms,内存与计算单元之间的通信带宽至少要在 2TB/s 以上,这表明仅靠硬件升级不足以实现大模型的高效运行,还需硬件资源与软件算法协同优化。

随着 AI 技术在各个领域的渗透,服务器市场需求呈现显著变化。在垂直领域,如千方科技优化智能交通模型、金融券商用于投研分析和智能客服等场景,都需要适配 AI 应用的服务器,不仅要求更高的计算能力,还需在数据处理速度、存储容量等方面升级。从产业整体来看,总额超百亿的 AI 项目招标覆盖智能制造、医疗、金融等六大领域,对服务器的需求量大幅增加,且需求更加多元化。针对不同行业的 AI 应用,需要定制化的服务器解决方案,以满足其特定的计算、存储和网络需求。

未来,服务器市场在支撑 AI 发展方面呈现几个明显趋势。首先,性能提升是持续追求,更高的计算性能、更快的数据传输速度和更大的存储容量是基本要求。其次,绿色节能将成为重要考量因素,随着数据中心规模扩大,能耗问题日益突出,研发更节能的服务器硬件技术迫在眉睫。再者,定制化服务器将成为主流,针对不同行业的 AI 应用场景,提供个性化的服务器配置,提高资源利用效率。同时,服务器的智能化管理也将得到加强,通过智能软件实现对服务器的实时监控、故障预测和自动优化,确保 AI 应用的稳定运行。

2025GDC 大会让我们看到 AI 产业的繁荣,而算力和服务器硬件作为 AI 发展的根基,其重要性不言而喻。大模型的发展离不开强大算力支持,而服务器作为算力的物理载体,其性能的提升与合理配置对大模型的训练与推理至关重要。随着 AI 技术不断拓展应用边界,服务器市场需求持续增长且走向多元化、定制化,只有不断提升服务器硬件性能、优化算力供给,才能更好地支撑 AI 产业的无限可能,推动其在各行业的深度融合与创新发展。


http://www.ppmy.cn/server/171063.html

相关文章

反爬虫策略

反爬虫策略是网站用于防止自动化程序(爬虫)恶意抓取数据的核心手段,其设计需兼顾有效性、用户体验和合法性。 一、 基础检测与拦截 User-Agent检测:验证请求头中的User-Agent,拦截非常见或已知爬虫标识。IP频率限制&…

记一次内存泄漏导致的线上超时问题

最近新上线功能使用了线程池来优化异步处理消息,对于CPU的使用率有所升高,自从新版本上线后,发现运行每隔几天就会出现超时的问题,经过排查发现是内存泄漏频繁YGC导致的,记录下本次排查的一些思路。 问题排查过程 定…

供应链与生产制造L1-L4级高阶流程规划框架(53页PPT)

《供应链与生产制造L1-L4级高阶流程规划框架》是一份详尽的文档,它详细描述了从战略规划到制造与供应链管理的整个流程。文档首先从1.0战略规划管理开始,涵盖了企业整体战略的制定和执行。方案还强调了流程信息化管理的重要性,指出通过信息化…

怎么合并主从分支,要注意什么

在 Git 中合并主从分支(例如将 feature 分支合并到 main 分支)是一个常见操作。以下是具体步骤和注意事项: 合并分支的步骤 切换到主分支 git checkout main确保当前在 main 分支。 拉取最新代码 git pull origin main确保 main 分支是最…

神经网络发展简史:从感知机到通用智能的进化之路

引言 神经网络作为人工智能的核心技术,其发展历程堪称一场人类对生物大脑的致敬与超越。本文将用"模型进化"的视角,梳理神经网络发展的五大关键阶段,结合具象化比喻和经典案例,为读者呈现一幅清晰的AI算法发展图谱。 一…

FPGA:UART串口接收(高干扰情况)

FPGA:UART串口接收 高干扰下UART串口接收思路UART改善串口接收模块及其思路波特率选择模块打拍延迟和边沿检测电路计数使能逻辑波特率分频计数器位计数器完成标志信号计数判断逻辑整体代码 板级验证和测试 高干扰下UART串口接收思路 在上一篇文章中介绍过UART串口接收模块&…

win11本地部署deepseek大模型(安装ollama+docker+open-webui)最终实现自己的项目可通过API调用投喂数据后的模型

硬件配置:笔记本win11,内存32G,CPU锐龙7 ,无独显;只能考虑deepseek-r1:1.5b模型。 第一步:安装Ollama 此处不过多累赘了,https://ollama.com/官网选择对应的系统版本下载即可。 需要注意的是…

RabbitMQ学习—day6—springboot整合

目录 1. springboot配置 2. 开始写RabbitMq代码 3. 队列优化 4. 插件实现延迟队列 5. 总结 前一小节我们介绍了死信队列,刚刚又介绍了 TTL,至此利用 RabbitMQ 实现延时队列的两大要素已经集齐,接下来只需要将它们进行融合,再加…