在AI大模型遍地开花的2025年,算力焦虑已经成为开发者的共同话题。动辄十几万的专业工作站让个人开发者望而却步,而云端GPU又面临着成本高昂、数据隐私等问题。
就在这个节点上,华硕推出了一款颇具野心的产品——Ascent GX10,官方宣称它支持200B模型推理和70B模型训练。一台桌面级设备真的能扛起这样的重任吗?带着这个疑问,我们决定来一场硬核评测。
评测机构:至顶AI实验室
测评时间:2025年11月12日
评测产品:华硕Ascent GX10
主要参数:基于NVIDIA Blackwell GB10、统一内显存:128G、操作系统:DGX OS。
评测主题:模型推理
值得一提的是,华硕Ascent GX10的桌面环境相当友好。系统预装了一份详尽的AI开发软件清单,从VS Code到Ollama,从Comfy UI到LLaMA Factory,常用的AI开发工具一应俱全。更贴心的是,每个软件都附带了详细的部署流程和预估部署时间,无论是语言模型推理、多模态模型处理,还是模型训练、数据科学任务,都有对应的软件适配方案。
为了真实验证GX10的推理能力,我们从AI实验室搬来了一台专业工作站作为对照组。这台工作站搭载Nvidia RTX 5000 Ada显卡(32GB显存)、128GB内存,市场售价约10万元。无论从价格还是体型来看,GX10似乎都处于劣势,但实战表现又会如何呢?
我们设计了两轮测试,选择了不同规模的模型来考验两台机器的推理性能。
第一回合选用千问三的32B模型。在单并发场景下,GX10的输出速度约为9 tokens/秒,基本接近人类的正常阅读速度;而RTX 5000 Ada达到了22 tokens/秒,速度是GX10的两倍多。
接着我们用自研工具模拟了多人同时使用的并发场景。在4并发压力下,GX10的平均输出速度为7.5 tokens/秒,RTX 5000 Ada为9.9 tokens/秒。第一轮测试,GX10惜败。
第二回合我们加大难度,测试GPT-o-s 120B模型。这个模型需要约65GB显存,正好可以检验两台机器在大模型场景下的表现。
结果相当戏剧化。在GX10上,模型加载仅耗时8秒;而在RTX 5000 Ada上,由于显存只有32GB,模型不得不一半加载到GPU、另一半加载到内存,加载时间长达9分钟——相当于你看完这整个视频,模型还没启动起来。
更令人惊讶的是推理速度。GX10的输出速度达到了惊人的35 tokens/秒,而RTX 5000 Ada仅有13 tokens/秒。第二轮,GX10完胜——模型加载速度快了30倍以上,推理速度快了近3倍。
测试过程中我们发现了一个有趣的现象:通常情况下,同一台机器上模型越大输出越慢,但在GX10上,120B的GPT-oss竟然比32B的Qwen 3快了4倍。
我们推测这可能与GPT-oss的训练方式有关。该模型采用了将MoE权重量化为FP4格式后进行后训练的技术路线,而GB10显卡基于的Blackwell架构对FP4格式具有原生硬件加速能力。这种架构级的优化,让特定模型在GX10上获得了超预期的性能表现。
从这次对比评测可以看出,华硕Ascent GX10不仅能够流畅运行100B以上的大模型,在特定场景下的性能甚至可以媲美、甚至超越搭载高端专业显卡的大型工作站。对于需要在本地部署大模型的个人开发者和小团队来说,GX10提供了一个性价比颇高的选择。
AI硬件的竞争才刚刚开始,华硕Ascent GX10这样将专业级算力带入桌面级设备的尝试,或许正在改写个人AI开发的游戏规则。
好文章,需要你的鼓励
北京大学团队开发的DragMesh系统通过简单拖拽操作实现3D物体的物理真实交互。该系统采用分工合作架构,结合语义理解、几何预测和动画生成三个模块,在保证运动精度的同时将计算开销降至现有方法的五分之一。系统支持实时交互,无需重新训练即可处理新物体,为虚拟现实和游戏开发提供了高效解决方案。
AI硬件的竞争才刚刚开始,华硕Ascent GX10这样将专业级算力带入桌面级设备的尝试,或许正在改写个人AI开发的游戏规则。
达尔豪斯大学研究团队系统性批判了当前AI多智能体模拟的静态框架局限,提出以"动态场景演化、智能体-环境共同演化、生成式智能体架构"为核心的开放式模拟范式。该研究突破传统任务导向模式,强调AI智能体应具备自主探索、社会学习和环境重塑能力,为政策制定、教育创新和社会治理提供前所未有的模拟工具。