华硕携GX10 AI超算亮相工博会:实现2000亿参数模型推理

华硕携GX10 AI超算亮相工博会:实现2000亿参数模型推理

白猫 / 2025-09-25 09:5514974
标签:2025CIIF

如今我们正处于AI时代,AI模型越来越成为大家的好帮手,而对于一些企业来说,AI的本地化运行与推理十分地重要,可以确保敏感数据不会上传到云上导致泄露的风险,当然想要实现AI模型本地化推理,没有一台强大的计算机显然是不行的,就在中国国际工业博览会上,华硕推出了GX10 AI超算,可以支持最高2000亿参数的语言模型的推理。

DSC08241.jpg

作为华硕旗下最新的AI超算,GX10采用了目前最为先进的图形架构,搭载了NVIDIA GB10 Grace Blackwell芯片,拥有20核Arm CPU,AI算力可以达到1PFLOP,此外官方还为这款AI超算提供了128GB的内存,从而使得开发人员可以实现2000亿参数语言模型的微调。除此之外如果你觉得一台GX10还不够给力的话,借助NVIDIA ConnectX-7可以实现两台GX10 AI超算的互联,进而处理更大规模的语言模型,例如拥有4050亿参数的Llama 3.1模型。

DSC08236.jpg

除此之外,想要让AI模型运行地更加高效,软件优化也同样重要,对此华硕准备了NVIDIA DGX OS系统,对AI环境进行了特别的优化,直接开箱就能进入到AI模型的开发与微调中去,此外得益于NVIDIA GB10 Grace Blackwell芯片,这台AI超算可以实现NVIDIA AI 软件堆栈,官方也对其进行了预载框架、SDK 以及相关的工具,可以实现模型的快速部署。并且NVIDIA也借助CUDA、PyTorch、TensorFlow、Jupyter这些开发工具对AI进行特别的优化,从而快速地实现大语言模型的微调。华硕官方也表示DeepSeek R1、Llama 3.1以及Meta、Google模型都可以得到很好地支持。

DSC08239.jpg

如果你觉得AI模型还需要加载到云上,官方也表示不用费太大的力气,只需微调程序代码,即可将模型从桌面环境转移至 DGX Cloud上,实现模型的快速训练以及更快的推理,进而释放宝贵的算力资源,更为重要的是这台AI超算的体积也十分地迷你,并不会占用太大的空间,从而满足开发者随时随地携带。除了华硕GX10之外,现场华硕也展示了其他的AI超算以及各种NUC,能够帮助企业更好地实现数字化转型。

DSC08251.jpg

可以说AI的发展超乎寻常,各种迷你AI超算的出现也给了开发者更多的选择,华硕GX10 AI超算也凭借着强大的AI算力支持更高参数的模型,来为中小型企业提供高效的算力平台,助力企业AI模型的快速落地。


发表评论注册|