你每天上网打开的每一个网页,文字出现在哪里、图片放在什么位置、拖动窗口时一切怎么重排,背后都靠一个上世纪九十年代设计的老系统在运转。它叫“DOM排版”,已经工作了三十年。对静态页面来说它够用,但面对今天越来越动态的网页,它有一个致命的毛病:每次需要知道一段文字有多高、在哪断行,浏览器就得暂停手头所有事情,重新测量一遍。这个过程叫“布局回流”,相当于你每次想知道房间能不能塞下一张沙发,都得打电话叫物业派人来量一遍房间——而你自己没有尺子。
3月27日,Midjourney工程师Cheng Lou在社交平台X上宣布了一个开源项目:Pretext。这是一个只有15KB的TypeScript库,不依赖任何第三方代码,却号称能让网页文字排版快上五百倍。更让人意外的是,它不是某个大公司团队的产出,而是Cheng Lou一个人借助OpenAI的Codex和Anthropic的Claude这两个AI编程工具,在数周内完成的。不过,Cheng Lou也并非无名之辈——他曾在Meta参与React框架开发,后来打造的react-motion动画库在GitHub上拿到了两万一千多颗星,现在负责Midjourney的前端架构。Pretext发布不到一周,GitHub星标就突破了六千八百。
自己造一把“数学尺子”
Pretext的核心思路非常简洁:既然向浏览器“借尺子”太慢,那就自己造一把。
它把排版分成两步。第一步只做一次:利用浏览器内置的Canvas绘图引擎测量每个字符的宽度和间距,大概需要19毫秒,人几乎感觉不到。第二步才是关键——拿到这些基础数据后,之后每次需要重排文字,Pretext完全不碰DOM,而是用纯数学运算推算每个字符该出现在哪里。这就像你第一次量好了房间的精确尺寸并画了张平面图,以后再想知道家具能不能塞进去,直接在平面图上用铅笔比划就行了,不用再跑回房间。500个文本块的重排只需0.09毫秒,大约是传统方式的五百分之一。Cheng Lou本人也坦承这个对比“不太公平”,因为没算初始测量的那19毫秒——但对于需要每秒重排六十次以上的动态界面来说,第一步只做一次,第二步会被执行成千上万次,这个提升仍然是质变。
开发过程中最难的不是写数学公式,而是让自己造的尺子和浏览器的官方尺子量出一模一样的结果。不同浏览器对字间距、换行、中英文混排的处理方式都不同,边界情况极多。Cheng Lou的做法是把AI当成不知疲倦的测试员:反复让Claude和Codex写排版逻辑,再拿输出与Chrome、Safari、Firefox的真实渲染结果逐像素对比,发现差异就修改重试。测试语料包括《了不起的盖茨比》全文和多语言数据集。这种工作量如果靠人工,可能需要一个团队忙上数月,借助AI编程工具,一个人数周就完成了。
谁真正需要它
Pretext不是来取代所有网页排版的。一个普通博客、一个公司官网、一个静态新闻页,现有的CSS和DOM完全够用,引入Pretext反而多此一举。
它真正大显身手的地方,是那些文字需要高频重排的动态场景。聊天页面成百上千条消息飞速涌入,在线编辑器里多人同时打字导致文字不断重排,虚拟化列表需要展示海量数据却只渲染可见部分——这些场景下,传统方式的卡顿非常明显,而Pretext能把瓶颈直接消除。数字出版领域同样受益:杂志风格的多栏排版、文字围绕图片实时流动的效果,以前在浏览器里要么做不到,要么做到了也卡,现在有了轻量级的解决方案。
社区的反应印证了这一点。发布72小时内,有人实现了Knuth-Plass段落对齐算法——一种以前只有专业排版软件才有的高端印刷技术;有人做了手机倾斜时字母像物体一样“滑落”的实验;甚至有人做了边看电影边读原著的网页应用,所有文字都能实时交互。批评者说这些演示让文字根本没法正常阅读,但支持者认为这只是在试探新能力的边界——项目才发布不到一周而已。
和现有方案比,新在哪
过去也有人尝试绕开DOM的排版瓶颈,但大多依赖WebAssembly(体积大、集成复杂)或专门的字体解析库(增加维护成本),要么就把计算扔给服务器(增加延迟)。Pretext完全不同:纯TypeScript加数学运算,15KB,零依赖,借Canvas API获取字体信息后就彻底脱离DOM。而且它不是一个“排版框架”,只是一个极度专注的“文字定位计算器”——只负责告诉你文字该出现在哪些坐标,至于怎么渲染,随你决定。这种设计让它可以无冲突地嵌入几乎任何前端项目。
说到底,Pretext能不能真正改变网页排版的未来,现在下结论还太早。文档还不完善,生态从零开始,“大多数网站根本不需要这个”的质疑也有道理。但对于那些确实需要极致文字排版性能的场景,它提供了一个前所未有的选择。而一个人借助AI工具在几周内就做出了这样的基础设施,这件事本身可能比Pretext更值得关注——它在重新定义“一个人能做到什么”的上限。
END
本文来自至顶AI实验室,一个专注于对AI计算机、工作站及各类AI相关硬件设备,开展基于真实使用场景评测的研究机构。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。