智谱AI推出的AutoGLM沉思高调入场,官方直接定义它为"能探究开放式问题并根据结果执行操作的自主智能体"。这不禁让人想起Manus,同样是能干活的AI Agent,同样声称要解放人类生产力。

既然都是打工人,那就得拉出来溜溜。恰好我们手头有个真实需求——分析MCP(Model Context Protocol)方面的论文,这可是技术含量拉满的活儿。今天,我们就用这个硬核任务来一场正面PK,看看这两位"赛博打工人"到底谁更懂人类的心思。
评测机构:至顶AI实验室
测评时间:2025年3月29日
评测产品:AutoGLM沉思
主要参数:AutoGLM沉思是智谱AI最新推出的自主智能体产品。它的核心能力在于模拟人类思维过程,完成从数据检索、分析到生成报告的全链路工作。
评测主题:AutoGLM沉思能否吊打Manus?
AutoGLM沉思是智谱AI最新推出的自主智能体产品。它的核心能力在于模拟人类思维过程,完成从数据检索、分析到生成报告的全链路工作。简单来说,就是你交代个活儿,它能自己琢磨着把事情办了。
这次我们测试的是AutoGLM沉思版本,作为智谱旗下的重点产品,它承载着与国际顶尖AI Agent一较高下的重任。
为了公平起见,我们设计了一个标准化的测试任务:
任务要求:
寻找两篇关于MCP(Model Context Protocol)的论文
对每篇论文进行深度解读
生成科普报告,要求深入浅出、具有可读性
内容需适合在微信公众号传播
每篇报告约3000字
需要配图表等视觉元素
这个任务涵盖了信息检索、内容理解、创作生成等多个维度,基本能全面考察AI Agent的综合能力。
我们先让Manus上场。输入提示词后,Manus的表现相当专业:
任务规划阶段:Manus首先给出了四条建议,要求明确:
在我们补充了MCP的定义(Model Context Protocol)、3000字左右的篇幅要求,以及需要图表等视觉元素后,Manus立即开始工作。
执行过程:从虚拟机界面可以清晰看到Manus的工作流程:
整个过程中,Manus访问了大量网页,搜集了丰富的资料。
成果展示:
两篇文章都达到了"深入浅出、适合公众号传播"的标准,可以说是高质量的科普内容。
接下来轮到AutoGLM沉思登场。我们输入了同样的任务要求。
初始问题:AutoGLM沉思一开始将MCP理解成了其他含义,出现了理解偏差。在我们补充正确的MCP定义后,它开始重新执行任务。
执行过程:与Manus不同的是,AutoGLM沉思的执行过程缺乏进度提示,等待时间较长且让人摸不着头脑。更关键的是:
成果展示:
AutoGLM沉思耗时接近Manus的3倍,主要原因是网络访问受限导致的重复执行。
两者在纠正后都能及时调整,这方面基本打平。
Manus在这一环节明显更胜一筹。
这是最关键的差距所在。
技术架构的差异导致了实际使用体验的巨大差别。
从这次硬核评测来看,Manus在当前阶段更胜一筹。它在执行效率、任务规划、内容质量等方面都展现出了更成熟的表现。特别是虚拟机环境带来的网络访问优势,让它能够获取更全面的信息,生成更高质量的内容。
AutoGLM沉思则暴露出一些明显的问题:
但是,这并不意味着AutoGLM沉思没有前景。恰恰相反,随着智谱AI推出虚拟机版本、优化网络访问能力,AutoGLM沉思的潜力不容小觑。毕竟,它背后是国产大模型的技术积累,以及对中文场景的深度理解。
更重要的是,这场"神仙打架"的最终赢家永远是我们人类用户。当AI Agent开始内卷,意味着:
AI的进化,终将让每个人都能拥有自己的"赛博打工人"。这个未来,已经在路上了。
好文章,需要你的鼓励
SecurityScorecard威胁情报团队发现超过135,000个OpenClaw AI助手平台实例暴露在互联网上,存在严重安全风险。这个开源AI代理平台此前已被发现存在多个高危漏洞,技能商店充斥恶意软件,容易泄露API密钥、信用卡号等敏感数据。平台默认绑定所有网络接口而非本地主机,加剧了安全问题。专家警告,妥协一个OpenClaw实例意味着攻击者可访问该代理能够接触的所有资源,建议用户谨慎部署并限制访问权限。
这项研究提出了LIFT框架,通过大规模SAC预训练、物理信息世界模型和安全微调策略,让人形机器人在半小时内学会稳定行走,并能快速适应新环境。在真实环境中只需几分钟数据就能显著改善性能,为实用化人形机器人开辟了新路径。
一则声称OpenAI超级碗广告"泄露"的消息在网络传播,视频中显示演员亚历山大·斯卡斯加德使用疑似OpenAI首款硬件设备。该设备被描绘为配有环绕式耳机的闪亮球体。OpenAI总裁格雷格·布罗克曼在X平台澄清这是"假新闻",发言人也证实完全虚假。调查显示,发布者账户为新建账户,且有人提前策划通过多渠道传播此虚假信息。
三星研究院开发的NANOQUANT技术实现了AI模型压缩的重大突破,首次让700亿参数的大型语言模型能在8GB显卡上流畅运行。该技术通过创新的二进制分解方法,将模型压缩25.8倍至5.35GB,同时保持良好性能表现。压缩过程仅需13小时和少量校准数据,大幅降低了大型AI模型的使用门槛,为AI技术普及化开辟了新路径。