“显存又爆了!"——这大概是每个AI创作者最不想听到的系统提示。当你满怀期待地准备生成一段精美的AI视频,结果电脑开始疯狂读盘,进度条仿佛被按下了暂停键。相信很多玩AI的朋友都有过这样的痛苦经历:明明显卡参数看着挺猛,但一到8K超分、图生视频这种"重活儿",立马就拉胯了。
今天我们至顶AI实验室要聊的这台华硕Ascent GX10,号称算力高达1000 TOPS,专门为解决这个痛点而来。前两期我们已经看过了它的外观和大模型推理能力,表现都还不错。但这些都只是开胃菜,真正的硬菜在这里——我们准备用一套完整的多模态创作流程,看看它到底能不能撑得住专业创作者的日常"折磨"。
评测机构:至顶AI实验室
评测产品:华硕Ascent GX10
主要参数:基于NVIDIA Blackwell GB10、统一内显存:128G、操作系统:DGX OS。
评测主题:多模态AI创作
华硕Ascent GX10 GPU采用了最新的Blackwell架构,这一架构针对Diffusion模型和Transformer等主流AI模型配备了专门的加速单元。该设备最大的特点是采用统一内存架构,配合全系固态硬盘,在处理大规模AI任务时能够避免传统工作站频繁读写系统内存的性能瓶颈。
为了全面验证GX10的实际性能,本次评测选择了搭载RTX 5000 Ada(32GB显存)的专业工作站作为对照组,两台设备将在相同的工作流下完成一系列高强度的多模态创作任务。
本次评测设计了一套完整的多模态内容生成流程,涵盖了当前AI创作的主要应用场景:
第一阶段:高清图像生成使用主流的Flux模型在ComfyUI中生成1080P图像,随后将图片超分辨率提升至8K(7680×4320),像素量达到4K的四倍,对显存提出了极高要求。
第二阶段:图像转视频采用阿里通义万相的Wan2.2视频模型,将静态图片转换为1280×720的动态视频,通过运动提示词控制画面动态效果。
第三阶段:跨维度转换使用腾讯混元3D 2.1模型将2D角色转换为完整的3D模型,并导出为GLB格式。
第四阶段:专业精修在Blender中对AI生成的3D模型进行专业级精修,通过人工介入让AI成果更加完善。
整个流程模拟了从概念到成品的完整创作链路,能够全面考察工作站在不同AI任务下的综合性能。
在1080P图像生成环节,GX10用时1分27秒完成,显存占用约50%;RTX 5000 Ada虽然速度更快,仅用33秒,但显存已达30GB,接近32GB的上限,为后续任务埋下了隐患。
当分辨率提升至8K时,性能差距开始显现。GX10保持了稳定的1分30秒完成时间,而5000 Ada则用时4分40秒,速度差距达到约3倍。生成的8K图像质量极高,即使大幅放大,皮肤纹理和质感依然清晰可见。
这一环节最能体现两台设备的架构差异。5000 Ada的32GB显存直接拉满,开始频繁读写系统内存,速度明显下降,最终用时11分40秒;GX10的显存占用始终保持在合理范围内,8分40秒即完成任务。两个视频的质量基本一致,动作自然,镜头平滑,充分展现了Wan2.2模型在图生视频领域的能力。
在混元3D模型的转换测试中,GX10仅用53秒就生成了完整的3D模型,而5000 Ada则需要4分03秒,GX10的速度优势达到了惊人的4倍。生成的GLB格式模型在Blender中经过清理和精修后,呈现出专业级的视觉效果。
在四项测试中,GX10的平均速度优势超过2倍,特别是在显存需求较高的8K超分、图生视频和3D生成环节,优势尤为明显。
GX10能够在多模态创作中取得如此显著的性能优势,主要归功于三个方面的技术创新:
统一内存架构
打破了传统GPU显存与系统内存的隔阂,当任务需求超过物理显存时,不会像传统方案那样出现性能断崖式下降。
全系固态存储
配合统一内存架构,确保数据交换始终保持高速,避免了机械硬盘的I/O瓶颈。
Blackwell架构优化
针对Diffusion、Transformer等AI模型的专门加速单元,在处理这些主流模型时能够发挥硬件的最大效能。
特别是在图生视频这类显存密集型任务中,当RTX 5000 Ada的32GB显存耗尽后,GX10的统一架构优势得到了充分体现,这正是传统GPU工作站难以逾越的技术壁垒。
通过完整的多模态创作流程测试,华硕Ascent GX10充分证明了其在AI创作领域的实力。1000 TOPS的算力并非空谈,而是通过统一内存架构和Blackwell架构优化实实在在地转化为了生产力。
GX10特别适合以下几类用户:
对于这些经常使用AI生成各类素材的专业创作者而言,GX10不仅提供了充足的算力保障,更重要的是通过架构创新解决了传统工作站在多模态创作中的性能瓶颈,真正实现了"让AI创作流畅起来"的目标。
好文章,需要你的鼓励
华硕Ascent GX10 GPU采用了最新的Blackwell架构,这一架构针对Diffusion模型和Transformer等主流AI模型配备了专门的加速单元。
这项由Snowflake AI Research发表的研究挑战了传统语言学对大型语言模型的批评,通过引入波兰语言学家Mańczak的理论框架,论证了LLM的成功实际上验证了"频率驱动语言"的观点。研究认为语言本质上是文本总和而非抽象系统,频率是其核心驱动力,为重新理解AI语言能力提供了新视角。
探索Mac终端中鲜为人知但实用的命令技巧,包括快速设置闹钟、检查电池健康状态、查找WiFi密码、清理下载记录以及自定义截图设置等。这些命令能显著提升安全从业者的工作效率,从Touch ID认证到网络管理,涵盖多个实用场景。
freephdlabor是耶鲁大学团队开发的开源多智能体科研自动化框架,通过创建专业化AI研究团队替代传统单一AI助手的固化工作模式。该框架实现了动态工作流程调整、无损信息传递的工作空间机制,以及人机协作的质量控制系统,能够自主完成从研究构思到论文发表的全流程科研工作,为科研民主化和效率提升提供了革命性解决方案。