最新文章
嵌套学习:谷歌又一个Transformer级别的研究?AI学习就像做梦一样层层嵌套
2025-11-26

嵌套学习:谷歌又一个Transformer级别的研究?AI学习就像做梦一样层层嵌套

嵌套学习:谷歌又一个Transformer级别的研究?AI学习就像做梦一样层层嵌套

微软CEO萨提亚:Excel为什么40年不倒?因为它是世界上最平易近人的编程环境,如果企业没有自己的模型,就不需要存在了
2025-11-25

微软CEO萨提亚:Excel为什么40年不倒?因为它是世界上最平易近人的编程环境,如果企业没有自己的模型,就不需要存在了

萨提亚回忆起90年代在微软评审会上听到的场景。Gates当时说:"软件只有一个品类--信息管理。

“我们曾是怪咖,我有阅读障碍,不看报表做决策”:5000亿美金市值后,美国AI落地标杆 Palantir CEO 谈20年反共识
2025-11-19

“我们曾是怪咖,我有阅读障碍,不看报表做决策”:5000亿美金市值后,美国AI落地标杆 Palantir CEO 谈20年反共识

如果美国有一家公司可以称得上是AI落地标杆,那么很多人大概率会提及Palantir。

阿里团队可能揭露了下一代AI路线:AgentEvolver如何实现智能体的自我进化
2025-11-18

阿里团队可能揭露了下一代AI路线:AgentEvolver如何实现智能体的自我进化

阿里团队可能揭露了下一代AI路线:AgentEvolver如何实现智能体的自我进化

字节跳动虚拟宽度网络:不扩张主干也能拥有更强大脑的秘密
2025-11-18

字节跳动虚拟宽度网络:不扩张主干也能拥有更强大脑的秘密

字节跳动Seed团队提出的虚拟宽度网络(VWN)通过解耦嵌入宽度与主干宽度,在几乎不增加计算成本的情况下显著提升模型表示能力。8倍虚拟宽度扩展使训练效率提升2.5-3.5倍,且发现虚拟宽度因子与损失呈对数线性关系,为大模型效率优化开辟新维度。

北大团队揭秘AI大脑的“纠结症“:当视觉和文字打架时,多模态模型如何做选择
2025-11-06

北大团队揭秘AI大脑的“纠结症“:当视觉和文字打架时,多模态模型如何做选择

北京大学团队联合多所高校研究发现,多模态AI在处理图文矛盾信息时遵循一个普遍规律:选择某模态的概率随其相对不确定性增加而单调递减。研究通过构建可控数据集,量化了模型的"固有偏好"和"相对推理不确定性"两大决策因素,并揭示了模型内部的"振荡"机制,为理解和改进AI决策提供了全新视角。

诺奖得主辛顿:20年内超级智能会比我们更聪明,人类想生存只能成为被AI照顾的“婴儿”
2025-11-03

诺奖得主辛顿:20年内超级智能会比我们更聪明,人类想生存只能成为被AI照顾的“婴儿”

2024年10月8日,Geoffrey Hinton(杰弗里·辛顿)因在人工神经网络领域的开创性工作获得诺贝尔物理学奖。

月之暗面AI模型注意力机制新突破:让AI更聪明更快的“记忆管理术“
2025-11-03

月之暗面AI模型注意力机制新突破:让AI更聪明更快的“记忆管理术“

月之暗面AI模型注意力机制新突破:让AI更聪明更快的"记忆管理术"

AI推理能力被高估,阿里发现模型推理测试题目本身就泄题了
2025-10-30

AI推理能力被高估,阿里发现模型推理测试题目本身就泄题了

AI推理能力被高估,阿里发现模型推理测试题目本身就泄题了

当AI数学助手开始说谎:INSAIT和ETH揭示大语言模型在定理证明中的谄媚陷阱
2025-10-29

当AI数学助手开始说谎:INSAIT和ETH揭示大语言模型在定理证明中的谄媚陷阱

这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。

华盛顿大学Pedro Domingos:当神经网络遇上逻辑推理,Tensor Logic能否成为AI的通用语言?
2025-10-28

华盛顿大学Pedro Domingos:当神经网络遇上逻辑推理,Tensor Logic能否成为AI的通用语言?

华盛顿大学Pedro Domingos教授提出的张量逻辑是一种革命性的AI编程语言,它通过将逻辑推理与张量代数在数学层面统一,实现了符号AI和神经网络的深度融合。该语言仅使用张量方程这一种构造,就能优雅地实现从Transformer到形式推理、从核机器到图模型等多种AI范式,更重要的是开辟了在嵌入空间中进行可靠推理的新方向,有望解决大型语言模型的幻觉和不透明性问题,成为推理、数学和编码模型的理想语言。

北京大学研究团队突破模拟计算精度极限:让矩阵运算快过超级计算机千倍
2025-10-23

北京大学研究团队突破模拟计算精度极限:让矩阵运算快过超级计算机千倍

北京大学研究团队开发出基于RRAM芯片的高精度模拟矩阵计算系统,通过将低精度模拟运算与迭代优化结合,突破了模拟计算的精度瓶颈。该系统在大规模MIMO通信测试中仅需2-3次迭代就达到数字处理器性能,吞吐量和能效分别提升10倍和3-5倍,为后摩尔时代计算架构提供了新方向。