Skip to content
  • 51蛙吖蛙元宇宙社交空间官网
51蛙吖蛙 – 元宇宙社交

51蛙吖蛙 – 元宇宙社交

投稿、社交、聊天就来51蛙吖蛙元宇宙

  • 首页
  • Toggle search form

标签: 科技

Panther Lake 实测数据出炉,英特尔如何用 18A 重构 PC 体系?

第三代英特尔酷睿 Ultra 处理器,Panther Lake 的官方实测详细数据终于揭晓了。
CES 2026 会后的媒体沟通会上,英特尔进一步给出Panther Lake 的实测表现,这也是Intel 18A 制程技术初次亮相的首款产品。这份数据无疑是英特尔当前最关键的一份「成绩单」,因为它代表了该系列产品在交付给客户前,英特尔处理器当下所能达到的最理想成果。
「英特尔紧锣密鼓奋力追赶,力图重回业界的最前沿。」,英特尔副总裁兼中国区软件工程和客户端产品事业部总经理高嵩介绍到Panther Lake支持 27 小时长续航,CPU 性能比上一代产品提高了 60%,同时,整个平台的 AI 性能提高了 2 倍。
图片来源:英特尔
目前已有超过 200 款基于 Panther Lake 的 OEM 产品设计,最早搭载 Panther Lake的设备一月份就会上市。不过,第三代酷睿 Ultra 处理器的GPU在 12X(e) 上采用的是 TSMC N3E工艺,4Xe 架构则采用的是 Intel 3工艺。而且,第三代酷睿 Ultra 系列 12Xe 的版本基本上都会是无独显的配置。
目前已有超过 200 款基于 Panther Lake 的 OEM 产品设计,首批搭载第三代英特尔酷睿Ultra处理器的消费级笔记本电脑将于2026年1月6日开启预售,并于2026年1月27日起在全球范围内面市。更多产品设计将于今年上半年陆续推出。
Panther Lake 究竟表现如何?话不多说,我们直接来看官方披露最真实的数据。

一、官方内部实测数据揭晓!超过英伟达4050

在说性能提升比之前,我们先来看Panther Lake架构下的处理器全家桶。目前,Panther Lake 由三个主要模块组成,计算模块、图形模块和平台控制器模块。计算模块可以配置 8 个或 16 个核心,图形模块有 4 个 Xe 核心或者 12 个 Xe 核心,平台控制器模块支持 12 条或 20 条 PCIe 通道配置。第三代英特尔酷睿 Ultra 处理器系列针对终端用户提供了不同类型的产品线,NPU 最低算力也保持在 46 TOPS 以上,能够保障一定程度的 AI 体验。
图片来源:英特尔
可以看出,英特尔通过 Intel 18A 和 PowerVia(背面供电) 技术,试图重新夺回 X86 架构在轻薄本领域的地位。
此次,英特尔披露官方数据主要分为两部分,一个是和自己的上一代产品对比,第二个是横向和 AMD、英伟达的部分产品进行对比,这次数据基于最终产品的实际测试结果。
根据市场上采用普及度,英特尔主要采用 Cinebench 2024 的 Benchmark 测试 CPU 的性能。单核性能方面,Panther Lake CPU 相比 Lunar Lake 和 Arrow Lake,在同样性能下功耗降低了近 40%。
图片来源:英特尔
多核性能方面上,相比 Lunar Lake,多核性能提升了 60% 以上,比 2025 年 9 月份的 50% 还有所提高,和同样核数的 Arrow Lake 相比,也有超过 10% 的性能提升。
图片来源:英特尔
在生产力工作负载上,英特尔列了六种常见工作负载的基准测试,包括 Crossmark、Python、Speedometer、视频编辑以及 Blender 等,把 Panther Lake 和前一代产品以 AMD 的 HX 370 以及 AI 365 进行了对比,整体上 Panther Lake 在和显卡相关的场景有一定提升,这也说明了 X86 架构在处理复杂混合负载时依然拥有一定实力。
如果把 SoC 放到 45W 和 25W 两种热设计功耗(TDP)下进行对比,相比 AMD 和前一代产品都有明显提升,未来的轻薄本在不搭载独显的情况下,也能流畅处理视频剪辑与 3D 建模任务等任务。
图片来源:英特尔
英特尔究竟是如何提高续航表现的?「长续航并非仅依赖 SoC 内部的低功耗优化与架构设计改进,我们对整个平台能效提升的考量。」英特尔公司高级AI架构师 Kevin Huang重点强调了这次对屏幕续航、日常会议场景以及充电场景做了针对性的续航优化。这也说明了英特尔意识到仅靠 SoC 优化已进入边际效用递减期,未来提高续航的突破口在或许在于一些对高功耗模块的精细化管理。
「除了 SoC 之外,显示屏的功耗是整个系统功耗的主要部分。」在 Panther Lake 这一代,英特尔引入了智能显示技术,通过与厂商合作,让屏幕的功耗在不影响用户体验的情况下,尽可能将功耗降低,从而提升电池续航时间。
在日常视频会议场景,Panther Lake 的 IPU 7.5 能够将大量 CPU 的任务卸载到 IPU 上,视频会议中系统能够在低功耗运行同时维持用户对画质高要求。
充电场景,英特尔打造了 AI 情境感知充电(Context-aware charging)技术,通过用户使用电脑的习惯,智能调整充电策略,不仅能够提升电池寿命,也一定程度上提高了续航,英特尔尝试用AI在系统级应用的方式之一。
在针对 SoC 功耗测试上,英特尔主要做了网页浏览,Youtube 4K 直播和 Netflex 1080P 直播,以及 Teams 3×3 的视频会议的场景模拟。
其中,Panther Lake 12Xe 的 SoC 功耗降低幅度最为显著,相比之前的 Raptor Lake、Arrow Lake、Lunar Lake 都有明显的优化。与 Arrow Lake 相比,在不同场景下 SoC 功耗最多可减少近 57%。
图片来源:英特尔
相比AMD AI 365,英特尔的 SoC 在1对1 Zoom视频会议场景下甚至可以降低 78% 的 SoC 功耗,最低也都有 30% 以上的降低。
图片来源:英特尔
在电池续航方面,如果 Panther Lake 的系统配置为 2.8K OLED 屏幕,搭载 99Whr 电池。在此配置下,其 Netflix 流媒体播放续航时间可达 27 小时,UL Procyon Office 生产力测试续航为 17 小时,开启特效的 Teams 3×3 视频会议续航亦可达 9 小时,这意味着用户在不带充电器的情况下,背着电脑开一整天的会议,相对之前的性能来说,也算有了一点提升。
 

二、轻薄本畅玩3A级游戏,英特尔正为掌机定制SKU

Panther Lake 采用了一套全新架构的显卡—Xe3 架构,英特尔还对显卡名称也进行了一次变革,未来将延续锐炫独显上的命名规则,改名后,最高端的核显名称为 B390。
图片来源:英特尔
英特尔已经突破了简单的堆核心模式,进入了靠「架构优化+大缓存」换取性能增长。B390 核显规格达到了 12 个 Xe 核心,上一代的 Arrow Lake、Lunar Lake 都是只有 8 个 Xe 核心,规格上提升了 50%。DirectX 同样支持到 Ultimate 版本。算力上,加上 XMX 提供的 AI 算力,一共达到了 120 TOPS。由于核显内存带宽相比独显少一些,所以英特尔通过将 L2 缓存翻倍至 16MB,成功用「片上带宽」对冲了核显天然缺乏独立显存的劣势。此外,XMX 单元和光追单元也有等比例的提升。
以 45W 功耗下的上一代 Arrow Lake H(U9 285H)作为对比基准,测试条件为 1080P 高画质设置,B390 核显在支持的游戏中开启 XeSS 性能模式,对于不支持 XeSS 的游戏,英特尔采用原生分辨率进行测试。
英特尔觉得游戏性能的提升,离不开 X(e)SS 3 技术升级。X(e)SS 3 则加入了多帧生成技术。与竞争对手相比,英特尔的优势在于未对硬件平台施加严格限制。目前,自 Meteor Lake 起的所有英特尔平台均支持多帧生成,让旧平台也能获得新的技术支持。可以看出,相比竞争对手在帧生成技术上的硬件准入门槛,英特尔正在利用其巨大的存量市场加强其市场优势。
综合 45 款游戏的测试结果,最终实现了代际间 76% 的游戏性能提升,在规格只增加了 50% 的情况下,英特尔认为性能的部分提升均归功于这一代架构的提升。
图片来源:英特尔
接下来是与 Lunar Lake 的性能对比,Lunar Lake 是英特尔上一代低功耗平台,它无法运行 45W 高功耗,所以英特尔对应地把这两台机器都设定在 25W 功耗下运行。
Panther Lake 388H 与 Lunar Lake 288V 均限制到 25W 进行了对比,同样也是 45 款游戏,1080P 高画质设置下,配合 X(e)SS 性能模式进行测试得到数据,最终有 77% 的性能提升,这个幅度也很大。不过这些都是峰值性能数据。
图片来源:英特尔
在同样 45 款游戏的测试中,英特尔在 1080P 高画质设定下开启 X(e)SS 性能模式,并与该机型独立显卡进行对比,最终 B390 的性能领先约 10%。
图片来源:英特尔
在《赛博朋克 2077》中,英特尔设置为 1080P 最高画质并开启光线追踪,与 AMD HX 370 进行对比。HX 370 平台目前未能支持最新的 FSR 4 多帧生成功能,因此在该游戏中仅能开启帧生成,帧数为 35 帧。而 B390 开启帧生成后可达 85 帧,进一步开启多帧生成后,帧数提升至 146 帧,性能达到其 4 倍,流畅度差距提升不小。
图片来源:英特尔
在《战地 6》中,英特尔采用相近画面设置与 HX 370 对比,此游戏未启用光追。最终 B390 表现约为其 3 倍,优势明显。
图片来源:英特尔
接下来是与英伟达 4050 的对比。4050 同样未能支持 DLSS 4 及之后版本的多帧生成功能,仅能开启帧生成。与之相比,整体的性能仍达到其 3 倍。
图片来源:英特尔
在《战地 6》中,由于未启用光追,相比 4050 开启帧生成后的帧数,仍保持 2 倍以上的优势。
图片来源:英特尔
对于英特尔锐炫显卡,无论是独显还是集显,英特尔在硬件和软件方面都有所优化。比如硬件上支持光追,软件方面上迭代的 XeSS 技术的支持,AI 上优化 XMX 的加速单元。在 ISV 方面,英特尔会专门针对热门游戏同步出一版驱动优化。
我们通过英特尔这一代核显和独显的性能差距对比上,能够感受到新一代核显也已经能够和部分独显性能相提并论,这也意味着入门级显卡的门槛或许将会提升。
让人更为关注的是,在大规模核显的支持下,英特尔准备进军掌机领域。针对 Panther Lake 这一代产品,英特尔专门为掌机设计了定制 SKU,该型号尚未正式发布,后续将由合作厂商推出相关设备,其性能提升值得期待。
 

三、有了 Panther Lake ,英特尔 AI 更强了吗?

会上,英特尔也分享了最新的 AI 性能实测结果。
基于最新的 Panther Lake 架构,新一代平台总算力高达 180 TOPS,其中 GPU 凭借 XMX 技术提供 120 TOPS 算力。通过 OpenVINO 技术与最高 96GB 大内存支持,Panther Lake SoC 可本地运行 700 亿参数大模型,并同时处理32K 上下文长度。平台搭载算力达 50 TOPS 的低功耗 NPU,其大语言模型推理性能较上一代提升 2 倍。
图片来源:英特尔
Panther Lake 相比上一代,显卡性能大幅提升 77%,AI 性能提升 53%。
图片来源:英特尔
英特尔在 Llama 3.1-8B 等主流大模型上的实际性能,数据以 Token/s 为单位,无论是 GPU 还是 NPU,Panther Lake 较上一代产品均有提升,并明显稍高于高通与 AMD。
图片来源:英特尔
在 AI 创作场景下,Panther Lake 相比上一代也有小幅性能进步。
在各 AI 引擎的对比测试中,Panther Lake 展现出一定优势。无论是在 CPU、GPU 还是 NPU 测试项目中,相比竞争对手均有一定领先,CPU 性能领先对手 1 倍至 2 倍以上;GPU 在 Int8 场景下性能达到 AMD 的 9 倍;NPU 与高通相比,最高有 2.6 倍的性能提升。
图片来源:英特尔
目前,英特尔将向市场提供总计 4 Zetta OPs 的算力,相当于全球 40 个数据中心的算力总和。英特尔还推出了 AI Super Builder,主要将数据分层,本地 AI 负责安全执行任务,云端 AI 专注于全局推理、智能规划及多智能体协调。
英特尔认为在新一代及未来产品中,边缘产品不应再滞后于客户端,决定推行客户端与边缘端同步上市的策略。为了实现这个新的节奏,英特尔正在投入相关研发资源拓宽温度适应范围、确保性能确定性等。
但我们也能看到,当英特尔有勇气同步推进双线产品时,也侧面反映出英特尔内部管理和供应链能力开始回归,或许「五年五个节点」的承诺更具可信程度。
图片来源:英特尔
 

四、对话英特尔专家,有关Panther Lake的15个关键问题

2026 年或许正成为半导体与计算产业的一个关键分水岭 。随着制程节点、算力架构与 AI 应用的集中爆发,计算设备正从单纯的生产力工具开始转型智能体的载体。对于英特尔而言,这是弯道超车的好机会,而Panther Lake 是其重回技术前沿关键一步。
「我们在英特尔工作 20 多年,第一次能看见我们在图形领域有如此出色的性能飞跃,可以算是一次里程碑式的成就了。」在 CES 会后,极客公园与几位英特尔专家的深度对话中,我们清晰地感受到英特尔内部对 18A 制程、 Panther Lake 架构所给出的成绩比较满意。
从技术布局来看,PC 依然是 Panther Lake 的核心主场,团队不仅关注笔记本端的实际效能,更针对不同类型的 AI PC 在内存带宽、本地算力等维度做了差异化设计。不仅如此,多项核心架构的提升效果远超内部预期后,可以说,英特尔正逐步告别上一代的设计范式,正在转向一个新的技术体系。
那么,英特尔内部到底是怎么想的?他们又是如何推动这次大升级的?
我们整理了关于 Panther Lake 的 15 个硬核问题。通过这些对话,我们能看到英特尔在产品目标和应用方向上,究竟做了哪些取舍,也看清英特尔最真实的思考。以下为对话实录,经编辑整理:
提问1:这一次核显性能如此强大,是不是意味着未来厂商有更多基于核显而不是独显研发的笔记本推出?
回答:独显与核显有着各自的优势场景,高性能核显的推出给了厂商和用户更多的选择,让用户在轻薄本上有更好的图形体验。
 
提问2:第三代酷睿Ultra的I/O部分,为什么只有16核+4X(e)有20条PCIe通道,其他两种核心都只有12条?
回答:前者可以搭配独立显卡,更多通道是为了有更好的扩展性。
 
提问3:现在市面上的NUC类产品,消费者许多都是既要大核显,又想要多M2插槽和万兆网卡。那这样的话,12X(e)的SKU会不会有PCIe通道数不够用的问题?
回答:NUC不是12X(e)的产品目标。
 
提问4:那就意味着4X(e)和12X(e)不同核显会有差异是吗?
回答:第三代酷睿Ultra全系的核显都采用X(e)3架构,只是核心数量不同,所搭配的SoC的TDP范围也有区别。比如说4X(e)拉到更高的功耗就进入到它的饱和阶段了,所以4X(e)比12X(e)会更早进入到饱和状态,也就是说它们的“甜蜜区间”是不一样的。
 
提问5:X(e)3与X(e)1相比,经历了两次迭代,在不开启X(e)SS的每单元性能差距超过20%,是否意味着X(e)1和X(e)3的每单元性能是一样的?
回答:锐炫B390和锐炫B140的每单元设计的算力是一样的,但是具体到3D性能有变化。关于X(e)1和X(e)3的每单元性能,算力不等于性能,也不等于3D性能。
 
提问6:Xe3核显最大的VRAM还是87%吗?
回答:这需要根据机器物理内存的总数来的,32G内存最大VRAM是87%,CPU需要保留一部分RAM作为保底。
 
提问7:Intel有考虑推进ComfyUI Desktop的XPU版本吗?
回答:我们在ComfyUI官网有Intel显卡对应的安装指南,可以支持近期比较热门的图像和视频生成模型在第三代酷睿Ultra平台运行。
 
提问8:第三代酷睿Ultra处理器的核显有更高的TOPS算力,为什么还要在NPU上跑LLM?
回答:我们会按照使用场景来推荐ISV运行LLM的引擎,从性能角度优选iGPU,从功耗的角度以及iGPU在被占用的情况优选NPU。
 
提问9:X(e)SS 3还会扩展支持其他厂家的硬件吗?例如AMD或者NVIDIA的GPU。
回答:X(e)SS 3支持其他厂商硬件,但这取决于游戏厂商、ISV厂商的相关支持。
 
提问10:目前,多核提升60%以上主要是和上代的200V系列产品对比,并没有和200H系列产品的对比。200V相较于300H系列产品的主要区别在少了部分E核,这是否是实际的提升的主要因素?
回答:300H系列产品和前代H系列对比,在相同TDP下也有大于10%的提升。
 
提问11:第三代酷睿Ultra X系列的内存和显存支持相互调整分配吗?
回答:支持,可以通过IGX控制软件进行调整内存和显存的动态分配。固定分配我们有通过BIOS做预留,将由OEM厂商决定是否愿意开放。我们不推荐用固定分配,因为有一部分是被显存强制拿走的,不再是可用的系统内存。这个不是很方便,因为这个部分内存CPU就永远用不到了。
 
提问12:本代核显游戏性能对内存频率敏感吗?不同的内存传输速度有多大差异?
回答:在3A游戏方面还是很敏感的,这也是我们提供9600 MT/s内存传输速度的原因。
提问13:在性能和能效的H2H对比中,为什么性能对比AMD HX 370但续航对比是AMD HX 365?
回答:AMD HX 365的核数比370少,SoC整体功耗会偏低一些。另外,搭载AMD HX 370的产品较少,没有合适的对比。
提问14:目前看到第三代酷睿Ultra X9处理器388H对应两个GPU型号,请问锐炫B390和锐炫Pro B390具体有哪些区别,Pro型号游戏性能会提升多少?
回答:Pro系列是针对工作站产品准备的。在移动工作站产品上,在同样的硬件上我们会提供给OEM合作伙伴专业版的驱动,满足针对专业工作站场景下的兼容性。
提问15:第三代酷睿Ultra系列有New LPCAMM Support,相比目前已有的ARL-H LPCAMM内存机型(例如ThinkPad P1),优势体现在哪些方面?是否会有兼容方面需要注意的事项?
回答:New LPCAMM Support主要是体现在对更高的内存速度支持,LPCAMM模组本身的footprint是不变的,模组端有一些设计优化。在平台设计兼容性上我们有相应的技术文档给到我们的客户。
 
浏览量: 2

首个实时世界模型发布:视频媒介的「交互」时代开始了

 

头图来源:PixVerse 官网

 

如果你玩过 AI 视频,一定对「等待期」深有体会:在输入框敲下一串 Prompt,按下生成键,然后便得对着旋转圆圈等待至少几十秒或者几分钟。

而且也不知道几分钟后返回来的 MP4 是一场惊喜还是一次货不对板的惊吓。这种有些割裂的、异步式的创作,让 AI 变得像个略有些笨重的远程工具,虽然好玩,但也没那么好玩。

直到我刚刚试用了爱诗科技发布的 PixVerse R1。

在「赛博朋克城市」的场景中,我并没有按下「生成」按钮,也没有盯着旋转的进度条发呆。

我只是在输入框输入我想要的画面,「开始下大雨,霓虹灯在湿润的地面上反射出来」,接着「 突然,城市大停电。只有紧急红灯亮着」,「快速向上飞,穿过摩天大楼到达城市的上层区域。」

视频来源:极客公园

画面中的光影立刻随着语意发生了流转。没有黑屏加载,没有重新渲染的割裂感,就像镜头真的听懂了我的指挥,实时向前推进。

一个 AI 模型正在以即时响应级的速度,为我「实时编织」一个从未存在的视觉世界。

这是爱诗科技刚刚发布的PixVerse R1 ,是「全球首个支持最高 1080P 分辨率实时生成的世界模型」。

当视频不再是一个确定的「结果」,而变成了一个可以被实时干预、持续存在的「过程」时,它还是我们印象里的「视频」吗?

这种被称为「Playable Reality」(可玩现实)的新形态,究竟是噱头还是未来?

1 进度条的消亡

 

2024 年年初,Sora 基于 DiT(Diffusion Transformer)架构,把长视频生成的效果提高到前所未有的水平,掀起了全球范围内的视频生成热潮。

但在 AI 视频行业狂飙突进的这两年里,我们虽然被 Sora、被各种视频大模型惊艳,但这种惊艳始终带着一种「延迟感」。这种延迟不仅是技术上的,更是心理上的。

过往,AI 视频生成被戏称为「开盲盒」。用户输入一段长长的提示词,然后进入一段名为「生成中」的垃圾时间。这段时间长则数分钟,短则几十秒,但在人类的创作心流中,这几十秒足以让灵感断裂。

用户得到的是一个 MP4 文件,如果光影不对、构图不佳,只能修改提示词,再次进入漫长的等待循环。这种「输入-等待-输出」的异步逻辑,本质上是人类在迁就机器的算力和算法逻辑。

PixVerse R1 的出现,正在试图终结这种「迁就」。实时生成的真正意义,绝不仅仅是「快」。如果启动延迟降低的足够低,帧率也足够稳定在,人类的感知系统会发生错觉:你不再觉得自己是在使用一个工具,而是觉得你正处于一个「活着的」世界里。

视频来源:爱诗科技

可以看到,在这个视频里,PixVerse R1 展现出一种水流般的即时感。当指令发出,画面的色彩、材质、甚至物理规律会瞬间响应。

随着「A city wall ahead.Jump over it and enter the city」指令的输入,角色从树林场景瞬间传送到了中式城楼前的石桥上,正朝着城楼大门跑去;随着「Transform into a robot and fight」指令的输入,画面拉近,主角从小人变身机器人并且迅速进行了一番打斗,场景和角色动作的切换非常流畅自然。

这种「实时编织」让创作从「离线渲染」变成了「在线生产」。当技术响应速度追平了思维速度,令人困扰的「进度条」就此消亡,技术本身变得透明,它变成了感官的自然延伸。

而这种质变源于爱诗科技过去 800 天的「狂奔式迭代」。早在 2023 年 10 月,爱诗科技就发布了早于 Sora 的全球首个 4K 模型 V1;2024 年 2 月,它成为国内首家落地 DiT 架构的创业公司。这种对底层架构的「先行一步」,让 PixVerse 在全球斩获了超过 1 亿用户。如今 R1 实现的「即时感」,正是这种长期架构押注后的必然爆发。

2 Playable Reality,介于游戏与视频之间的新物种?

长期以来,视频和游戏被视为两条平行线:视频拥有高拟真的质感但缺乏互动,游戏拥有高互动性但在视觉拟真度上受限于算力。而 PixVerse R1 正在打破这种边界。

PixVerse R1 定义的「Playable Reality(可玩现实)」,正是这两条平行线的交叉点。它不是传统意义上的视频,因为它允许实时干预;它也不是传统意义上的游戏,因为它不是由程序员预设的代码逻辑驱动,而是由 AI 对现实世界的模拟能力(世界模型)驱动。

从确定的、封闭的、一次性交付的 MP4 文件,到被 R1 定义的「过程」,一个可以被实时干预、持续存在的视觉世界。只要你持续给予交互,这个世界就会持续演化。

在这个创作过程中,用户不再是坐在屏幕前的观众,也不仅仅是复杂的参数调试者,而是变成了「共同创作者」,可以用语言、情绪、意图直接干预世界的走向。

这意味着视频创作门槛的进一步降低。理想状态下,我们不再需要学习复杂的非线性剪辑,也不需要理解光影参数,只需要通过简单的交互——无论是文字还是语音——就能控制视频的发展 。

支撑这种「随心而动」体验的,是 PixVerse R1 背后的三大技术支柱:Omni原生多模态基础模型、自回归流式生成机制,以及一套专门为交互设计的瞬时响应引擎。

首先,是Omni 原生多模态基础模型。不同于以往通过插件或叠加模型来理解语意,R1 从底层逻辑上就实现了视觉与语意的深度融合。这意味着模型在指令发出的瞬间,就在潜空间里完成了对物理世界的重构。

其次,为了消灭画面切换时的「闪烁」与「刷新感」,爱诗科技引入了自回归流式生成机制。在传统的生成逻辑中,每一帧往往是孤立或弱相关的,但在 R1 的体系下,视频不再是由一个个「固定片段」拼接而成,而是一条无限、连续且交互的视觉流。这种机制确保了在实时交互时,每一帧的演变都极其丝滑,没有重新加载的割裂感。

最后,支撑即时反馈的物理基础是其自研的瞬时响应引擎。通过对算力的极限调度和算法优化,它将启动延迟压缩到了人类几乎感知不到的程度

在爱诗科技发布的技术报告中,他们将这种演进描述为从 Fix-length clip(固定片段) 向 Infinite visual stream(无限可视化流) 的范式转移。这意味着,AI 视频不再是一次性的烟花,而是一个可以无限延伸的数字宇宙。

当然,PixVerse R1 并非完美。爱诗科技在报告中坦诚地提到了「时间误差累积」的挑战——在极长的时间线里,微小的误差可能会让物理模拟出现波动。

为了追求 1080P 的实时响应,团队在某些极致物理细节上做了取舍。但这种「权衡」恰恰展现了某种务实:与其追求一个只能在服务器里跑几小时才能出来的完美标本,不如给用户一个可以即时触碰、尽管尚有微瑕的「活世界」。

 

3 当技术「隐形」,把世界还给想象

PixVerse R1 目前展示出的能力,本质上是给数字世界铺设了一层「实时生成层」。这层能力的释放,其影响力将远超视频创作本身。

想象一下,当这种能力被 API 化,它将如何重塑数字娱乐?

比如未来的游戏 NPC 不再只有固定动作,基于实时生成技术,他们可以根据你的语气实时生成独特的表情动作和视觉反馈。

电影也不再有唯一的结局,而是变成每个人都能走进其中的开放世界,通过交互,都会看到一个属于自己的、实时编排的独一无二的故事。

对于这种范式转移,爱诗科技创始人兼 CEO 王长虎有着更具本质色彩的定义。他认为,PixVerse R1 是一种全新的媒体形式。

「传统视频是被记录的历史,而 PixVerse R1 开创了‘正在发生的现在’的实时生成新纪元。」 王长虎表示,在这样的背景下,创作与消费的边界将逐渐模糊——视频消费者本身也成为创作者,可以在观看的同时即时调整和生成新内容。

这种「所想即所现」(As You Think)的能力,让王长虎对未来的数字生态充满了想象:「无论是 AI 原生游戏、互动电影,还是生成式直播电商体验,叙事都能实时响应用户意图。我们相信,每个人都能成为动态叙事的创作者。

爱诗科技的愿景是「让每个人都能成为自己生活的导演」。当技术足够先进、响应足够敏捷时,技术本身就会变得透明。PixVerse R1 正在做的,就是让「生成」这个繁琐的技术动作隐形,让位于人类最本能的「想象」与「表达」。

尽管 PixVerse R1 目前尚处于内测阶段,且暂未在国内上线体验,但它已然开启了「流动世界」的大门。

接下来,爱诗科技将采用内测码/定向邀请机制,一部分创作者将有机会先亲自触碰这个「流动的世界」 。

 

浏览量: 2

首个实时世界模型发布:视频媒介的「交互」时代开始了

 

头图来源:PixVerse 官网

 

如果你玩过 AI 视频,一定对「等待期」深有体会:在输入框敲下一串 Prompt,按下生成键,然后便得对着旋转圆圈等待至少几十秒或者几分钟。

而且也不知道几分钟后返回来的 MP4 是一场惊喜还是一次货不对板的惊吓。这种有些割裂的、异步式的创作,让 AI 变得像个略有些笨重的远程工具,虽然好玩,但也没那么好玩。

直到我刚刚试用了爱诗科技发布的 PixVerse R1。

在「赛博朋克城市」的场景中,我并没有按下「生成」按钮,也没有盯着旋转的进度条发呆。

我只是在输入框输入我想要的画面,「开始下大雨,霓虹灯在湿润的地面上反射出来」,接着「 突然,城市大停电。只有紧急红灯亮着」,「快速向上飞,穿过摩天大楼到达城市的上层区域。」

视频来源:极客公园

画面中的光影立刻随着语意发生了流转。没有黑屏加载,没有重新渲染的割裂感,就像镜头真的听懂了我的指挥,实时向前推进。

一个 AI 模型正在以即时响应级的速度,为我「实时编织」一个从未存在的视觉世界。

这是爱诗科技刚刚发布的PixVerse R1 ,是「全球首个支持最高 1080P 分辨率实时生成的世界模型」。

当视频不再是一个确定的「结果」,而变成了一个可以被实时干预、持续存在的「过程」时,它还是我们印象里的「视频」吗?

这种被称为「Playable Reality」(可玩现实)的新形态,究竟是噱头还是未来?

1 进度条的消亡

 

2024 年年初,Sora 基于 DiT(Diffusion Transformer)架构,把长视频生成的效果提高到前所未有的水平,掀起了全球范围内的视频生成热潮。

但在 AI 视频行业狂飙突进的这两年里,我们虽然被 Sora、被各种视频大模型惊艳,但这种惊艳始终带着一种「延迟感」。这种延迟不仅是技术上的,更是心理上的。

过往,AI 视频生成被戏称为「开盲盒」。用户输入一段长长的提示词,然后进入一段名为「生成中」的垃圾时间。这段时间长则数分钟,短则几十秒,但在人类的创作心流中,这几十秒足以让灵感断裂。

用户得到的是一个 MP4 文件,如果光影不对、构图不佳,只能修改提示词,再次进入漫长的等待循环。这种「输入-等待-输出」的异步逻辑,本质上是人类在迁就机器的算力和算法逻辑。

PixVerse R1 的出现,正在试图终结这种「迁就」。实时生成的真正意义,绝不仅仅是「快」。如果启动延迟降低的足够低,帧率也足够稳定在,人类的感知系统会发生错觉:你不再觉得自己是在使用一个工具,而是觉得你正处于一个「活着的」世界里。

视频来源:爱诗科技

可以看到,在这个视频里,PixVerse R1 展现出一种水流般的即时感。当指令发出,画面的色彩、材质、甚至物理规律会瞬间响应。

随着「A city wall ahead.Jump over it and enter the city」指令的输入,角色从树林场景瞬间传送到了中式城楼前的石桥上,正朝着城楼大门跑去;随着「Transform into a robot and fight」指令的输入,画面拉近,主角从小人变身机器人并且迅速进行了一番打斗,场景和角色动作的切换非常流畅自然。

这种「实时编织」让创作从「离线渲染」变成了「在线生产」。当技术响应速度追平了思维速度,令人困扰的「进度条」就此消亡,技术本身变得透明,它变成了感官的自然延伸。

而这种质变源于爱诗科技过去 800 天的「狂奔式迭代」。早在 2023 年 10 月,爱诗科技就发布了早于 Sora 的全球首个 4K 模型 V1;2024 年 2 月,它成为国内首家落地 DiT 架构的创业公司。这种对底层架构的「先行一步」,让 PixVerse 在全球斩获了超过 1 亿用户。如今 R1 实现的「即时感」,正是这种长期架构押注后的必然爆发。

2 Playable Reality,介于游戏与视频之间的新物种?

长期以来,视频和游戏被视为两条平行线:视频拥有高拟真的质感但缺乏互动,游戏拥有高互动性但在视觉拟真度上受限于算力。而 PixVerse R1 正在打破这种边界。

PixVerse R1 定义的「Playable Reality(可玩现实)」,正是这两条平行线的交叉点。它不是传统意义上的视频,因为它允许实时干预;它也不是传统意义上的游戏,因为它不是由程序员预设的代码逻辑驱动,而是由 AI 对现实世界的模拟能力(世界模型)驱动。

从确定的、封闭的、一次性交付的 MP4 文件,到被 R1 定义的「过程」,一个可以被实时干预、持续存在的视觉世界。只要你持续给予交互,这个世界就会持续演化。

在这个创作过程中,用户不再是坐在屏幕前的观众,也不仅仅是复杂的参数调试者,而是变成了「共同创作者」,可以用语言、情绪、意图直接干预世界的走向。

这意味着视频创作门槛的进一步降低。理想状态下,我们不再需要学习复杂的非线性剪辑,也不需要理解光影参数,只需要通过简单的交互——无论是文字还是语音——就能控制视频的发展 。

支撑这种「随心而动」体验的,是 PixVerse R1 背后的三大技术支柱:Omni原生多模态基础模型、自回归流式生成机制,以及一套专门为交互设计的瞬时响应引擎。

首先,是Omni 原生多模态基础模型。不同于以往通过插件或叠加模型来理解语意,R1 从底层逻辑上就实现了视觉与语意的深度融合。这意味着模型在指令发出的瞬间,就在潜空间里完成了对物理世界的重构。

其次,为了消灭画面切换时的「闪烁」与「刷新感」,爱诗科技引入了自回归流式生成机制。在传统的生成逻辑中,每一帧往往是孤立或弱相关的,但在 R1 的体系下,视频不再是由一个个「固定片段」拼接而成,而是一条无限、连续且交互的视觉流。这种机制确保了在实时交互时,每一帧的演变都极其丝滑,没有重新加载的割裂感。

最后,支撑即时反馈的物理基础是其自研的瞬时响应引擎。通过对算力的极限调度和算法优化,它将启动延迟压缩到了人类几乎感知不到的程度

在爱诗科技发布的技术报告中,他们将这种演进描述为从 Fix-length clip(固定片段) 向 Infinite visual stream(无限可视化流) 的范式转移。这意味着,AI 视频不再是一次性的烟花,而是一个可以无限延伸的数字宇宙。

当然,PixVerse R1 并非完美。爱诗科技在报告中坦诚地提到了「时间误差累积」的挑战——在极长的时间线里,微小的误差可能会让物理模拟出现波动。

为了追求 1080P 的实时响应,团队在某些极致物理细节上做了取舍。但这种「权衡」恰恰展现了某种务实:与其追求一个只能在服务器里跑几小时才能出来的完美标本,不如给用户一个可以即时触碰、尽管尚有微瑕的「活世界」。

 

3 当技术「隐形」,把世界还给想象

PixVerse R1 目前展示出的能力,本质上是给数字世界铺设了一层「实时生成层」。这层能力的释放,其影响力将远超视频创作本身。

想象一下,当这种能力被 API 化,它将如何重塑数字娱乐?

比如未来的游戏 NPC 不再只有固定动作,基于实时生成技术,他们可以根据你的语气实时生成独特的表情动作和视觉反馈。

电影也不再有唯一的结局,而是变成每个人都能走进其中的开放世界,通过交互,都会看到一个属于自己的、实时编排的独一无二的故事。

对于这种范式转移,爱诗科技创始人兼 CEO 王长虎有着更具本质色彩的定义。他认为,PixVerse R1 是一种全新的媒体形式。

「传统视频是被记录的历史,而 PixVerse R1 开创了‘正在发生的现在’的实时生成新纪元。」 王长虎表示,在这样的背景下,创作与消费的边界将逐渐模糊——视频消费者本身也成为创作者,可以在观看的同时即时调整和生成新内容。

这种「所想即所现」(As You Think)的能力,让王长虎对未来的数字生态充满了想象:「无论是 AI 原生游戏、互动电影,还是生成式直播电商体验,叙事都能实时响应用户意图。我们相信,每个人都能成为动态叙事的创作者。

爱诗科技的愿景是「让每个人都能成为自己生活的导演」。当技术足够先进、响应足够敏捷时,技术本身就会变得透明。PixVerse R1 正在做的,就是让「生成」这个繁琐的技术动作隐形,让位于人类最本能的「想象」与「表达」。

尽管 PixVerse R1 目前尚处于内测阶段,且暂未在国内上线体验,但它已然开启了「流动世界」的大门。

接下来,爱诗科技将采用内测码/定向邀请机制,一部分创作者将有机会先亲自触碰这个「流动的世界」 。

 

浏览量: 1

四位国产大模型「训练师」,聊了聊中国 AI 的 2026

 

2026 年 1 月 10 日,在由清华大学基础模型北京市重点实验室与智谱 AI 联合发起的 AGI-Next 前沿峰会上,代表中国大模型不同生态位的几股技术力量,少有地围坐一堂。

他们中有刚刚带领智谱在港股成功 IPO 的唐杰教授;有从 OpenAI 归来、首次以腾讯新身份亮相的姚顺雨;有阿里 Qwen 技术负责人林俊旸;以及长期在学术界与工业界穿梭的联邦学习奠基人杨强教授。

如果说一年前的共识是「追赶与开源」,那么站在 2026 年的开端,这场闭门会释放出的信号显得更为复杂且务实——中国大模型正在进入残酷但必要的「分化」时刻。

从右往左依次是林俊旸,杨强,唐杰,李广密以及大屏幕里的姚顺雨|图片来源:AGI-Next

会上,智谱 AI 的唐杰率先向行业泼了一盆冷水。尽管中国开源模型声量巨大,但他直言:「中美大模型的差距可能并没有缩小。」在 Scaling Law 边际效应递减的当下,堆砌算力的「暴力美学」正在失效。唐杰抛出了一个新的衡量范式——「智能效率(Intelligence Efficiency)」,即投入多少资源能换取多少智能增量,这或许将是下一阶段竞争的胜负手。

这种对「效率」与「路径」的焦虑,贯穿了整场对话。

作为横跨中美的技术实战派,姚顺雨和林俊旸在 To B 与 To C 的分化上达成了某种默契。姚顺雨指出,To C 的护城河不再是单纯的模型参数,而是「上下文(Context)」带来的情绪价值;而 To B 则是生产力比拼——「企业只愿意为最强的模型支付溢价」。

林俊旸给出了一个预测——未来 3-5 年,中国 AI 公司引领全球的概率或许只有 20%,但这 20% 的机会,正藏在那些「软硬结合」的缝隙与「笨笨的坚持」里。

从 Chat 到 Agent,从参数内卷到价值分化,AGI 的下一代路线究竟在何方?以下为 AGI-Next 圆桌对话内容,经极客公园编辑整理。关于大模型的下一个三年,答案或许就在其中。

01

分化时刻:To B 向生产力要溢价,

To C 向上下文要价值

李广密(主持人):2025 年,中国开源模型和 Coding 领域都迎来了爆发式增长。我们也观察到硅谷出现了一个明显的分化趋势:各家不再盲目 Follow 所有方向,而是专注于垂直领域,比如 Sora 专注视频、有的专注 Coding 或 Agent。

顺雨,作为横跨中美的从业者,你如何看待这种「分化」?特别是在 To C 和 To B 的不同路径上,你有哪些核心观察?

姚顺雨:很高兴参加这次活动。关于「分化」,我有两个主要观察:一是 To C 和 To B 在价值感知上的分化,二是垂直整合与应用分层模式的分化。

第一,To C 与 To B 的体感差异巨大。

在 To C 领域,大家提到 ChatGPT,感觉和去年相比差别并没有那么大。对于大多数普通用户,他们不需要模型具备推导「伽罗瓦理论」那样高深的智能。目前的 To C 产品更像是搜索引擎的加强版,用户往往还需要学习如何激发模型的智能。

在 To B 领域,Coding 正在重塑计算机行业,甚至改变了人机交互的方式——人不再写代码,而是用自然语言与电脑交流。在 To B 场景中,智能水平直接对应生产力。

To B 更愿意为高智能支付溢价: 假设一个高薪工程师每天处理 10 个任务,最强模型能做对 9 个,而次强模型只能做对 5 个。那剩下的 5 个错误需要花费巨大精力去排查。因此,在 To B 市场,头部强模型和普通模型的差距会越来越大,用户只愿意为最好的模型买单。

第二,整合模式的差异。

在 To C 端,垂直整合依然是主流。像 ChatGPT 或豆包,模型和产品是强耦合、紧密迭代的。

在 To B 端,模型层与应用层开始分层。过去大家认为垂直整合会更好,但现在看来,To B 场景需要极强的预训练模型作为底座,这很难由产品公司完成;而应用层则需要围绕模型构建复杂的环境(Context)。比如在 Coding Agent 领域,模型越来越强,但应用层通过工具链的配合,才能将模型的溢出能力转化为生产力。

李广密(主持人):顺雨,结合你现在的腾讯新身份,在中国的市场环境下,你接下来的关注重点是什么?有哪些关键词可以分享?

姚顺雨:腾讯是一家 To C 基因很强的公司。我们在思考如何让 AI 给用户提供更多实际价值。

To C 侧的核心是「上下文(Context)」而非单纯的模型参数。

很多时候,回答好一个用户问题,并不是非要更大的模型或更强的强化学习,而是需要更多的外部输入。

举个例子,问「今天吃什么」,去年问和今年问,答案本身区别不大。但如果模型知道「今天很冷」、「我在哪个商圈」、「我太太喜欢吃什么」、「我们之前的聊天记录提及过什么」,这个回答的价值就会完全不同。所以比如把微信聊天记录转发给元宝,给模型更多有用的输入,就会给用户带来一些额外价值。

所以,利用好额外的 Context,结合强模型,是 To C 产品的破局关键。

To B 侧则可以看到大公司的「内生数据」优势。

在中国做 To B 尤其是生产力工具(如 Coding Agent)确实有挑战。作为一家万人规模的大公司,我们思考的是如何先「服务好自己」。

相比于完全依赖外部标注数据或协议的创业公司,大公司的优势在于拥有丰富的真实业务场景,有海量的内部需求和场景可以打磨产品;还有真实世界的数据捕捉,创业公司可能需要雇人去设想和标注 Coding 数据,而我们如果能将内部数万工程师的真实开发过程、Debug 过程利用好,这将是比单纯标注更具价值的数据资产。

总结来说,在 To C 上做深上下文,在 To B 上利用好内部场景和真实数据,是我们目前的思考方向。

李广密:接下来想请教俊旸。阿里云在 To B 领域很强,之前你也提到全模态可能更多偏向 To C。你如何看待未来「通义千问」的生态位?

林俊旸:理论上我不便评论公司的战略,但公司基因是由一代一代人塑造的。顺雨到了腾讯之后,腾讯可能变成一个有顺雨基因的公司(笑)。无论 To B 还是 To C,核心都是解决真实的问题。所以问题的本质是,应该怎么让人类世界会变得更好?

「分化」是自然发生的。To C 的产品也会再分化,比如更偏向医疗,或者更偏向法律。

关于生态位,我之所以看好 Anthropic,并非单纯因为他们的 Coding 能力有多强,而是因为他们与 B 端客户的交流非常深入。

我之前与许多美国 API 厂商交流,他们都惊讶地发现,Coding 任务的 Token 消耗量竟然如此巨大——这一点目前中国市场还没达到同等量级。再比如 Anthropic 现在切入金融(Finance)领域,也正是他们在与客户深度交流中发现的真实机会。

因此,我认为模型公司的「分化」其实是顺应市场需求后的自然结果。我更愿意相信 AGI 的发展规律,一切顺其自然,服务好真实的人类需求。

无论是分化还是其他路径,我相信最终应顺其自然,聚焦于我们对 AGI 的理解,做 AGI 该做的事。

李广密:谢谢俊旸。杨强老师,您如何看待「分化」这个问题?

杨强:我更关注工业界与学术界的分化。一直以来工业界领跑,学术界观望。现在大模型进入稳态,学术界应该跟上,去解决工业界来不及解决的深层科学问题:

比如给定计算和能源资源,智能究竟能做到多好?如何平衡训练与推理的资源分配?

我早期的实验发现,记忆过多可能引入噪音干扰推理。这中间的平衡点在哪里?

幻觉与哥德尔不完备定理: 大模型无法自证清白,幻觉无法彻底根除。这就像经济学中「风险与收益」的平衡(天下没有免费的午餐)。这是数学界和算法界需要共同攻克的难题。

当 Agent 串联时,误差会指数级累积。我推荐大家读一读《我们为什么睡觉》,书中提到人类通过睡眠清理噪音来维持能力。大模型是否也需要类似的「睡眠」机制?这孕育着超越 Transformer 的新计算模式。

李广密:唐老师,智谱在 Coding 和长程 Agent 上表现很强。您怎么看这种分化?

唐杰:回望 2023 年,我们是国内最早做出 Chat(对话)系统的团队。当时的直觉很简单——必须赶紧上线。但等到 8、9 月份真正发布时,市面上已经有十几个大模型同时登场,结果是大家的用户量都没有预想中那么大。

经过一年的反思,意识到问题的症结在于:单纯的 Chat 并没有真正解决问题。我们最初预判 Chat 会替代搜索,但现实是,虽然很多人开始用模型辅助搜索,但 Google 并没有被替代,反而是 Google 自己革了自己的命。

从这个角度看,随着 DeepSeek 的出现,单纯的『Chat 之战』已经结束了。我们必须思考下一个战略赌注(Bet)是什么。

2025 年初,我们团队内部进行了长时间的激烈争论,最终决定 Bet on Coding(押注代码能力)。随后,我们将全部精力都压到了 Coding 上——事实证明,这一步走对了。」

02

新范式:自主学习的演进

与「智能效率」的博弈

李广密:看来大家都在根据资源禀赋做自己擅长的事。

下一个话题:新范式。预训练走了 3 年,强化学习也已成为共识。接下来的新范式,大家都在谈论「自主学习」(Self-learning)。顺雨,你在 OpenAI 工作过,你认为第三个范式会是什么?

姚顺雨:「自主学习」在硅谷已是共识,但我有两点观察:

它不是单一方法论,而是基于数据的任务定义。聊天变得个性化、写代码适应特定文档、像博士一样探索新科学,这些都是不同维度的自主学习;

它已经在发生了。ChatGPT 在适应用户风格,Claude 已经能编写自己项目 95% 的代码。现在的 AI 系统包含「模型」和「代码库」两部分,AI 正在帮助编写部署和使用它自己的代码。

这就像是一个渐进的过程(演变),而非突然的突变。

李广密:追问一下,要实现真正的自主学习,还有哪些关键条件或技术瓶颈需要突破?

姚顺雨:其实 2025 年已经看到信号了,比如 Cursor,他们每隔几小时就利用最新用户数据进行学习。之所以没觉得石破天惊,是因为基础模型能力还受限。

现在最大的问题是想象力。强化学习的成果我们能想象(如 O1 做数学题)。但对于「自主学习」的新范式,我们还没定义好验证它的「任务」——是一个能赚钱的交易系统?还是解决了人类未解的科学难题?我们需要先想象出它的样子。

李广密:如果 2027 年出现新范式,全球范围内哪家公司最可能引领?

姚顺雨:概率最大的还是 OpenAI。虽然商业化稀释了部分创新基因,但那里依然是最可能诞生新范式的土壤。

李广密:俊旸,你对 2026 年的新范式有什么看法?

林俊旸:从更务实的角度看,RL(强化学习)范式其实还处于早期阶段。它的 Compute(算力)并没有被充分 Scale(扩展),大量潜力尚未释放,全球范围内也都面临着 Infra(基础设施)的瓶颈。

关于下一代范式,我认为核心在于「自主学习」。我曾和一个朋友聊到,单纯的人机交互其实很难让 AI 变强,反而往往因为 Context(上下文)被拉长而导致模型「变笨」。

这就引出了 Test-time scaling(测试时扩展)的思考——我们能否通过让模型吐出更多 Token、进行更长时间的思考来变强?OpenAI 的 o 系列在一定程度上验证了这点。无论是通过 Coding 还是 AI Scientist(AI 科学家)去挑战那些人类未曾解决的难题,这种尝试都极具意义。AI 肯定需要自主进化,至于通过什么技术手段、更不更新参数,见仁见智。

另一个关键点是更强的主动性(Agency)。现在的 AI 必须由人类 Prompt(提示)才能启动,未来有没有可能让「环境」去 Prompt 它,让它自主决定去做什么?

但这引出了比「内容安全」更严峻的问题——「行为安全」。我最担心的不是 AI「说错话」,而是它主动「做错事」,甚至产生危险的意图(比如往会场扔炸弹)。这就好比养育孩子,赋予它能力的同时必须注入正确的价值观。尽管有风险,但我认为主动学习依然是极其重要的范式。

李广密:俊旸,关于「自主学习」和「主动性(Agency)」,你觉得我们会率先在哪类任务上看到突破?是模型自我提升,还是自动化的 AI 研究员?

林俊旸:我觉得「自动化的 AI 研究员」可能并不需要太复杂的自主学习,训练 AI 这事很快就会流程化,甚至被替代。我更看重对用户的深度理解。

以前做推荐系统,用户输入越持续,算法越简单越精准。在 AI 时代,挑战在于如何利用信息让 AI 真正成为「懂你」的工具。

推荐系统有明确指标(点击率、购买率),但在 AI 渗透生活的方方面面时,我们缺乏一个核心指标来衡量「AI 做得好不好」。这是目前技术上更大的挑战。

李广密:关于「记忆(Memory)」和个性化,2026 年能看到突破性跨越吗?

林俊旸:我个人认为,技术发展往往是线性的,但人类的感知是指数级的。

像 ChatGPT 的出现,对从业者是线性增长,对大众却是震撼。现在大家都在卷 Memory,但目前的 Memory 只是「记住了过去的事」,每次还要叫一遍名字,并不显得聪明。

真正的 Memory 应该像老朋友一样,不需要复述背景就能瞬间理解。达到这个临界点可能还需要一年左右。

我们每天看自己的工作觉得挺「土」的,Bug 很多,但正是这些线性的微小进步(比如 Coding 能力提升一点点),带来了巨大的生产力价值。未来算法与 Infra(基础设施)的结合大有可为。

李广密:有请杨强老师分享。

杨强:我长期研究联邦学习,核心思想是多中心协作。现在很多本地场景资源不足,且有隐私安全需求。未来的趋势是「通用大模型」与「本地/领域小模型」的协作。

像黄学东在 Zoom 做的尝试,建立一个大基座,允许各方接入。这种模式既保护隐私,又能利用大模型能力。这在医疗、金融场景会越来越多见。

李广密:有请唐杰老师。

唐杰:无论是持续学习、Memory(记忆机制),还是多模态,都可能孕育出新的范式变革。

为什么变革会在现在发生?过去,工业界确实跑得比学术界快太多。记得前两年我回清华时,很多老师手里的卡(GPU)数量几乎为零,而工业界动辄上万张,这个差距是万倍级的。

但到了 2025 年底、2026 年初,情况变了。高校的算力储备跟上来了,包括硅谷和国内的教授们,都开始深入研究模型架构和持续学习。工业界绝对 Dominating(统治)的局面,已经不复存在了。虽然算力差距可能还有 10 倍,但学术界「创新的基因」已经孵化出了种子。

更深层的原因在于效率瓶颈。创新的爆发,往往是因为对某件事投入巨大,但效率却不再提升。

继续 Scaling(扩大规模)肯定还有收益。数据量可以从 10T 堆到 30T,甚至 100T。但我们要算一笔账:Scaling 后的收益到底有多少?计算成本又是多少?如果花掉 10 亿、20 亿,却只换来微小的提升,这在商业上是不划算的。同理,如果每次创新都要把基座和 RL(强化学习)重训一遍,效率也太低了。

未来我们应该定义一个衡量收益的新范式——智能效率(Intelligence Efficiency)。

提升智能上限,Scaling 可能是最「笨」的办法。真正的挑战在于:如何用更少的 Scaling,获得同样的智能提升?

基于此,我相信 2026 年范式的改变一定会发生。我们也在努力,希望这个变化能发生在我们身上。

03

Agent,从聊天到替人类工作

李广密:大家对 Agent 的预期很高,希望 2026 年 Agent 能处理人类 1-2 周的工作量。顺雨,你花了很多时间做 Agent 研究,2026 年,Agent 真的能帮人类自动化 1-2 周的工作吗?从模型公司的角度出发,你怎么看待这个问题?

姚顺雨:To B 与 To C 有逻辑差异,To B(生产力)的逻辑很简单且一致——模型越强,解决任务越多,收益越大。这是一个不断上升的曲线,只要老老实实把预训练和后训练做好就行。

To C 的 DAU(日活)往往和模型智能程度不相关,甚至负相关。

目前除了模型本身,还有两个瓶颈。一个是环境和部署(Deployment)问题。

我在 To B 公司的经验是,即使模型不再变强,仅通过更好地部署现有模型到真实场景,就能带来 10 倍甚至 100 倍的收益。目前 AI 对 GDP 的影响还不到 1%,潜力巨大。

还有一个是教育。未来不是人类替代人类,而是「会用工具的人」替代「不会用工具的人」。与其纠结模型,不如教育大家用好 Claude、Kimi、智谱等工具,这是中国现阶段最有意义的事。

李广密:俊旸,通义千问也在做 Agent 生态,以及扶持生态的通用 Agent,你可以分享下吗?

林俊旸:这里可能涉及产品哲学的问题。虽然像 Manus 这样的产品确实很成功,但我更认同「模型即产品」。

我曾和 TML(Thinking Machine Lab)的朋友交流,他们提到一个观点叫「Researcher is Product」——研究员本身就是产品经理,能端到端地把东西做出来。今天我们内部的研究员,也都渴望去做更多面向真实世界的应用。

我相信接下来的 Agent 能实现这一愿景,这与「自我进化(Self-involvement)」和主动学习强相关。未来的 Agent 不应是单纯的你问我答(交互式),而应该是「托管式」的——你给它一个模糊的通用指令,它能在长周期的执行过程中自我决策、自我进化。这对模型能力上限和 Test Time Scaling(测试时扩展)提出了极高要求。

另一个关键点是环境交互。目前的 Agent 大多局限在电脑环境,不够复杂。我有做 AI for Science 的朋友,比如做 AlphaFold 制药,光在电脑里跑是不够的,必须去指挥机器人做实验才能得到反馈。现在这部分还在靠人力或外包,效率极低。

只有当 AI 能与真实物理世界交互,形成闭环,才是 Agent 真正能长时间工作的场景。电脑里的任务今年可能就能解决,但未来 3-5 年,Agent 与具身智能(Embodied AI)的结合,才会是更有意思的。

李广密:最后一个尖锐问题:通用 Agent 是创业者的机会,还是模型公司的时间问题?

林俊旸:我不能因为我做基础模型,就去做这个的创业导师。

借 Peak(Manus 联合创始人)说过的一句话,通用 Agent 最有意思的事情在于解决长尾问题,或者说今天 AI 最大的魅力在于解决「长尾问题」。

头部需求(比如热门商品推荐)容易解决,但真正的 AGI 在于——当你寻遍世界找不到解决方案时,AI 能帮你解决那个独特的角落问题。

如果你是一个「套壳高手」,能把产品做得比模型公司更好,那有机会。但如果你没信心,这个领域可能最终属于模型公司。因为模型公司遇到瓶颈时,可以通过「烧卡」、训模型来从底层解决问题,这是降维打击。

所以见仁见智吧。

李广密:关于解决长尾问题,模型公司拥有算力和数据,解决起来是不是很快?

林俊旸:这就是今天 RL(强化学习)最有魅力的地方——修问题比以前容易多了。

举个 To B 的例子:以前客户想做微调,需要配置数据比例,但他们的数据质量往往很差(垃圾数据),这让我们很头痛。但引入 RL 后,只要有 Query(提问),甚至不需要完美的标注,稍微训练一下就能把问题修正。

以前需要大量清洗和标注的工作,现在通过 RL 可以更低成本、更高效地解决,并且很容易合并到模型中。

李广密:有请杨强老师。

杨强:我认为 Agent 的演进可以划分为四个阶段,其核心差异在于:「目标(Goal)」和「规划(Planning)」的主导权,究竟是掌握在人手中,还是由 AI 自动定义。

我们目前仍处在最初级的阶段:目标由人设定,规划也由人拆解。说得直白点,现在的 Agent 系统及定义,本质上只是一种更高级的 Prompt Language(提示词语言)。但我预料未来会出现质变。大模型将通过观察人类的工作流,利用过程数据进行学习。最终,Agent 将进化为一个由大模型内生(Endogenous)的系统——即目标和规划完全由大模型自主定义,那才是真正的智能体。

李广密:有请唐杰老师。

唐杰:我认为决定 Agent 未来走势的有三个关键点:

首先是价值: Agent 解决的问题到底有多大价值?早期的 GPTs 死掉是因为太简单,只是 Prompt 的封装。必须真正帮人解决复杂问题。

其次是成本与边界: 这是一个矛盾。如果一个问题调一下 API 就能解决,那基座模型公司往往会把这个能力吸收到模型内部。做应用要在被基座覆盖之前找到立足点。

最后是速度: 这是一个时间窗口的问题。如果我们能领先半年把应用做深、把体验做好,就能活下来。大模型现在拼的就是速度,也许我们代码写对了,就能在 Coding 或 Agent 方向上走得更远。

04

未来,中国 AI 能否引领全球?

李广密:最后一个问题:展望未来 3-5 年,全球最领先的 AI 公司是中国团队的概率有多大?我们从「跟随者」变成「引领者」,需要具备哪些关键条件?

姚顺雨:我对此非常乐观,概率很高。

历史证明,任何技术路线一旦被验证,中国团队能迅速复现并在局部做得更好(如电动车、制造业)。

但要成为引领者,需要解决几个关键点,包括硬件瓶颈,尤其是光刻机和算力问题,如果我们能突破算力瓶颈,配合国内的电力和基建优势,将是巨大助力。

商业环境上,目前美国 To B 市场更成熟,付费意愿更强。中国公司需要更好的商业化环境,或者具备出海参与国际竞争的能力。

以及最重要的人才与文化,中国有极强的人才储备,但在「敢于探索新范式」的人还不够多。我们擅长在既定范式下用更少的卡、更高的效率把事情做绝,但目前缺的是「定义新范式」的冒险精神。

李广密:追问一下,关于研究文化,你觉得中国实验室和 OpenAI/DeepMind 相比,有什么差异?有哪些建议?

姚顺雨:每个地方的研究文化都很不一样,美国实验室的区别可能比中美实验室的差别还要大,在中国也一样。

研究文化的差异主要体现在两点,国内倾向于做「确定性高」的事。比如预训练一旦被证明可行,大家会迅速跟进并解决技术细节。但对于「长时记忆」、「持续学习」这种未被证明、不知道能不能做出来的方向,国内投入较少。我们需要更多耐心去沉淀这种探索未知的文化。

国内也比较看重榜单数字。DeepSeek 是一个很好的反例,他们不盲目追求榜单,而是关注「什么是正确的事」。Claude 在很多编程榜单上并非第一,但大家都公认它最好用。这需要大家走出榜单的束缚,坚持做自己认为正确、能真正提升用户体验的事情。

李广密:多谢顺雨。俊旸,你觉得未来 3-5 年中国公司引领全球的概率有多大?挑战在哪里?

林俊旸:这是一个「危险」的问题,但我还是想从概率的角度谈谈中美差异。

美国的 Compute(算力)规模可能比我们大 1-2 个数量级。更关键的区别在于,OpenAI 等公司将海量算力投入到了下一代 Research 的探索中;而我们相对捉襟见肘,光是应付当下的交付(Delivery),可能就已经耗尽了绝大部分算力。

这就引出了「富人创新」与「穷人创新」的辩证。

「富人」资源多,可能确实存在浪费卡的情况;但「穷人」因为资源匮乏,反而被逼出了算法与 Infra(基础设施)的极致联合优化——这是资源过剩时缺乏动力去做的。

这也让我想起关于软硬结合的遗憾。2021 年,阿里做芯片的同事曾问我:「能不能预测三年后的模型架构?还要不要做 Transformer?是不是多模态?」因为芯片流片周期需要三年。

当时我不敢承诺,回答说:「三年后我还在不在阿里都不知道。」那是一次典型的「鸡同鸭讲」,我们错过了机会。结果今天回看,果然还是 Transformer,果然还是多模态。我至今非常懊悔当时没有推他们一把。

穷则思变。虽然我们现在是「穷人」,但这种软硬协同设计的下一代创新,会不会正因为「穷」而发生在这里?

此外是人的变化。美国人天生有强烈的冒险精神——比如早期的电动车,哪怕天窗漏水、甚至有安全隐患,富豪们依然敢投、敢做。相比之下,中国资本过去倾向于做「安全」的事。

但好消息是,教育在变好。我们团队里的 00 后比我也许更具冒险精神。随着新一代人的成长和营商环境的改善,虽然概率可能没那么大,但我相信,创新真的有可能发生。

关于概率: 如果非要给一个数字,我觉得是 20%。这已经非常乐观了,因为历史积淀的差距是客观存在的。

李广密:面对算力差距拉大,你会感到恐惧吗?

林俊旸:干这一行不能有恐惧,要有强心脏。能参与大模型浪潮已经非常幸运。

我的心态是:关注价值而非排名。只要我的模型能为人类社会带来价值,解决实际问题,即便不是全球最强,我也愿意接受。

李广密:杨强老师,回顾 AI 周期,您怎么看?

杨强:我们可以参考互联网的发展史。虽然发源于美国,但中国很快赶上,并在应用层(如微信)做到世界第一。

AI 也是一种技术,中国人的聪明才智会将其发挥到极致:To C 领域,我非常看好,中国会百花齐放。

To B 领域虽然目前受限于付费意愿和企业文化,但也会跟上来。值得借鉴的是美国 Palantir 的模式——利用「本体(Ontology)」和前端工程师(FDE),将通用 AI 能力通过工程化手段迁移到具体企业场景中,弥合技术与应用的 Gap。

我相信中国 AI Native 公司会发展出类似的、适合本土的 To B 解决方案。

李广密:最后有请唐杰老师。

唐杰:首先必须承认,目前中美在 AI Lab 层面的研究确实存在差距。

但局势正在改变,中国的 90 后、00 后这一代企业和人才,表现远超以往。我曾开玩笑说,我们这代研究者可能是「最不幸的一代」:上有老一辈学者老当益壮,下有 00 后天才少年横空出世,夹在中间的我们仿佛被「无缝跳过」了,世界直接交给了下一代。

玩笑归玩笑,中国 AI 的机会恰恰蕴藏其中:

第一,是「人」的冒险精神。我们拥有一群真正敢于冒险的聪明人。现在的 90 后、00 后(包括在座的俊旸、顺雨,还有 Kimi)都展现出了极强的探索欲,愿意为了一个不确定的未来去冒巨大的风险。

第二,是「环境」的优化。正如刚才俊旸提到的「光交付占据算力」的困境,如果国家和政府能进一步改善营商环境,理顺大厂与创业公司的竞争关系,减轻企业的交付负担,让这群聪明人有更多时间专注于核心创新,这将是巨大的助力。

第三,回归个体,在于「心」的坚持。永远不要等待一个「完美的环境」,因为环境永远不会完美。

相反,我们是幸运的见证者,亲历了环境从匮乏到繁荣的过程,这份阅历本身就是财富。如果我们能保持一种「笨笨的坚持」,在认定的路上敢做、敢闯,也许走到最后的赢家就是我们。

李广密: 最后我也想呼吁,希望行业能给年轻的研究员们更多算力和耐心。让他们安心「搓卡」三五年,也许在不久的将来,我们就能看到中国自己的 Ilya Sutskever 诞生。

*头图来源:AGI-Next

 

浏览量: 1

美国政府正式批准英伟达 H200 芯片对华出口;死了么 App 官宣改名;DeepSeek 梁文峰发新论文透露 V4 架构 | 极客早知道

美国政府正式批准英伟达 H200 芯片对华出口

1 月 13 日,美国特朗普政府周二正式放行英伟达面向中国的第二强人工智能芯片 H200 出口,在华盛顿对华强硬派的强烈忧虑声中,为这款芯片对华出货打开通道。

根据新规,经第三方测试实验室确认技术性能后,H200 才能出口中国,同时销往中国的数量不得超过面向美国客户销售总量的 50%。英伟达需出具证明,确保美国本土拥有足够数量的 H200 芯片,而中国客户则必须证明具备「充足的安全程序」,且不得将该芯片用于军事目的。

美国总统特朗普上月宣布,将允许相关芯片向中国销售,并对相关销售征收 25% 的费用,此举随即遭到美国朝野对华强硬派的批评,认为这将大幅增强北京在人工智能领域的实力,削弱美国在该领域的领先优势。正是出于类似担忧,拜登政府此前曾禁止向中国出口先进 AI 芯片。

不过,现任政府内部以白宫「人工智能主管」大卫·萨克斯为代表的阵营则主张,通过向中国出口先进 AI 芯片,可以抑制包括华为在内的中国竞争对手加倍投入,自主追赶英伟达和超微半导体(AMD)等公司最先进芯片设计的动力。报道称,这一政策调整预计将加速英伟达 H200 芯片面向中国市场的发货进程,但围绕美国对华人工智能技术管控走向的国内争论仍将持续。(消息来源:cnBeta)

OpenAI 收购健康数据初创企业 Torch 估值约 1 亿美元入局个人医疗 AI

1 月 13 日消息,OpenAI 近日宣布收购小型健康记录初创公司 Torch,交易金额未对外正式披露,但知情人士向 The Information 透露,OpenAI 以约 1 亿美元的股权对价完成此次收购。Torch 目前仅有四名员工,团队整体将并入 OpenAI,双方均已在官网和社交平台证实该消息。

Torch 的核心产品是一款聚合个人医疗数据的应用,能够从就诊记录、实验室检测结果、可穿戴设备数据以及各类健康服务门户(包括消费级健康检测服务等)中提取信息,并将其整合为便于 AI 利用的统一数据层。Torch 团队将这项技术称为「面向 AI 的医疗记忆」,旨在把分散的健康档案统一成一个可供模型调用的上下文引擎,从而提升 AI 在健康场景中的理解能力和决策辅助价值。(消息来源:cnBeta)

 

DeepSeek 发布梁文锋署名新论文 V4 有望支持全新记忆架构

1 月 13 日消息,今日,DeepSeek 发布新论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》(基于可扩展查找的条件记忆:大型语言模型稀疏性的新维度)。

该论文为北京大学与 DeepSeek 共同完成,合著作者署名中出现梁文锋。

论文提出条件记忆(conditional memory),通过引入可扩展的查找记忆结构,在等参数、等算力条件下显著提升模型在知识调用、推理、代码、数学等任务上的表现。

此外,DeepSeek 还开源相关记忆模块 Engram。

该模块提出了「查—算分离」的全新架构思路,业内认为,Engram 有望成为 DeepSeek 下一代模型 V4 的核心技术基础。

据媒体报道,知情人士透露,DeepSeek 计划于 2 月中旬农历新年前后推出 V4 模型,不过具体时间仍可能调整。(消息来源:快科技)

消息称字节再次上调期权价格,较 2019 年涨幅超 4 倍

1 月 13 日消息,多位知情人士称,今年 1 月起,字节跳动期权价格从去年 8 月份的 200.41 美元(约合 1400 元人民币)提高至 226.07 美元(约合 1579 元人民币),涨幅近 13%。

不过报道称,226.07 美元的最新价格目前仅应用在招聘 offer 等薪酬总包场景,对员工的回购价格尚未调整。

以此计算,字节跳动的期权价格已经从 2019 年的 44 美元一路飙升至如今的价格,涨幅超过 4 倍。(消息来源:IT 之家)

 

特朗普称微软将做出调整,确保美国人的电费不会因 AI 需求而上涨

1 月 13 日消息,美国总统唐纳德・特朗普今日在社交媒体发布帖子表示,微软公司将宣布一系列调整措施,以确保其为满足人工智能需求增长而扩建更多数据中心的过程中,美国民众不会面临水电费上涨的问题。

随后微软发布承诺:全额承担公司用电成本、拒绝地方财产税减免优惠、回馈的水资源量超过自身消耗量、培训本地工人,以及投资人工智能教育和社区项目。

微软总裁兼副董事长布拉德 · 史密斯在接受 GeekWire 采访时表示:「这个行业过去的运营模式已成历史,未来需要寻求新的发展路径。」他随后将这一转变形容为「既是正确之举,也是明智之选」。(消息来源:IT 之家)

死了么 App 官宣改名 启用全球化品牌名 Demumu

1 月 13 日消息,死了么 APP 官方晚间宣布,经团队审慎决策,「死了么」APP 将于即将发布的新版本中,正式启用全球化品牌名 Demumu。其还强调,继昨日获得 BBC 报道后,我们的服务在海外实现了爆发式增长。未来,Demumu 将继续秉持安全守护的初心,把源自中国的守护方案带向世界,服务全球更多独居群体。

拼多多内测「百亿超市」新业务,覆盖生鲜、母婴多品类

1 月 13 日下午消息,拼多多正于其 App 内低调内测一项名为「百亿超市」的全新业务,以限时限量发券、低价补贴为核心玩法,目前仅对部分随机筛选用户开放体验。

从内测页面信息来看,「百亿超市」的核心吸引力集中在优惠力度与商品丰富度上,商品品类覆盖水果蔬菜、坚果零食、乳饮冲调、母婴用品等多个生活场景。(消息来源:新浪科技)

 

可灵 AI 12 月收入超 2000 万美元 ARR 突破 2.4 亿美元

1 月 13 日晚间消息,快手科技宣布,可灵 AI 2025 年 12 月的当月收入突破 2000 万美元,对应年化收入运行率(简称 ARR)达 2.4 亿美元。此前,可灵 AI 曾在 2025 年 3 月即正式上线的第 10 个月宣布 ARR 突破 1 亿美元。

去年 12 月以来,可灵先后发布全球首个大一统多模态视频模型可灵 O1 及具备「音画同出」能力的可灵 2.6 模型,并上线全新的动作控制等功能,产品保持高速迭代。(消息来源:新浪科技)

 

百川智能医疗模型「M3」发布,性能超越 GPT-5.2

2026 年 1 月 13 日,百川智能开源新一代医疗大模型 Baichuan-M3,在全球最权威的医疗 AI 评测 HealthBench 中以 65.1 分的综合成绩位列全球第一;在专门考验复杂决策能力的 HealthBench Hard 上,也以 44.4 分的成绩夺冠。这一成绩,不仅刷新了 HealthBench 的最高分,更首次在医疗领域实现了对 GPT-5.2 的全面超越。在 OpenAI 引以为傲的低幻觉领域,M3 也实现了超越,幻觉率 3.5 全球最低。

此外,M3 还首次具备了原生的「端到端」严肃问诊能力。它能像医生一样主动追问、逐层逼近,把关键病史和风险信号问出来,进而在完整的信息上进行深度医学推理。评测显示,其问诊能力显著高于真人医生的平均水平。(消息来源:极客公园)

廉价版特斯拉 Model Y 现身国内官网

1 月 13 日消息,廉价版特斯拉 Model Y 出现在了特斯拉官网上了(现已更改相关页面)。

有业内人士咨询特斯拉方面后得知,除了廉价 Model Y,廉价 Model 3 也要在国内开售了,而且是先上 3,后上 Y。

这两款车的价格相较于标准版定然要降低不少,国产后大概率将杀入 20 万以内的市场,而特斯拉的号召力在国内可谓独一档,随着这两款车的到来,自主品牌市场怕是要丢失更多蛋糕。

据悉,廉价版较标准车型取消或简化了 20 余项配置,如取消车头贯穿灯带、后视镜调节方式由电动改为手动、车窗取消双层夹胶玻璃、座椅不再支持电动调节,标配 LCC,但没有车道居中,同时动力和续航也被砍了一些。

由此可以看出,特斯拉未来几年的产品策略,便是在现有产品的基础上做简化开发,利用长久积累的品牌声誉,向更低价市场寻求销量突破。(消息来源:快科技)

1398 元起!影石 Link 2 Pro 系列网络摄像头发布:1/1.3 英寸大底、AI 追踪

1 月 13 日消息,影石 Link 2 Pro 系列直播网络摄像头今天正式发布,售价 1398 元起。系列共有两款机型,分别是影石 Insta360 Link 2 Pro 和 Link 2C Pro,均搭载 1/1.3 英寸大底传感器,支持 4K 120 帧超高清视频录制(H.265 编码)。

搭载双原生 ISO 技术,HDR 模式全面优化,让画面在明暗对比强烈的场景下,也能保留更多细节。

采用 7 组 6 片全玻璃镜头,配备 F1.8 大光圈与 120°超广角,支持 0.1m 微距对焦,既能满足单人特写拍摄,也可覆盖多人会议场景。

依托大底传感器与 Insta360 自研 PureNight 2.0 降噪技术,在室内弱光环境下(5lux)仍能输出清晰无噪点的画面,较上代低光拍摄能力提升 50%,解决夜间直播、昏暗会议室等场景的画质痛点。

影石 Insta360 Link 2 Pro:标准套装 1758 元、桌面直播套装 1918 元、全能直播套装 2308 元。

影石 Insta360 Link 2C Pro:标准套装 1398 元、桌面直播套装 1558 元、全能直播套装 1948 元。(消息来源:快科技)

海外博主利用质谱仪分析破解可口可乐 139 年秘方,号称仿制品口感与正版几乎无异

1 月 13 日消息,可口可乐问世已有一百多年,其官方配料表早已公开,但其中被称为「天然香料」的核心机密具体组成始终是个谜。

而目前,一位海外 YouTube 科学博主 LabCoatz 声称,自己通过长达一年的科学分析和化学测试,成功「复刻」了可口可乐高度保密的配方。

据悉,LabCoatz 与多名专业人士展开合作,借助质谱仪等设备对可口可乐进行成分分析,分析显示,该饮料 99% 以上的成分为糖、咖啡因和磷酸,而其中的核心机密「天然香料」仅占总重量不足 1%。

经过近一年的研究,LabCoatz 表示自己迎来了关键突破,发现为饮料加入「酿酒用单宁」是模拟原版可口可乐口感的关键。经盲测,该仿制饮料的口感与原版几乎无异。不过 LabCoatz 也坦言相应仿制饮料的制作流程对设备和精度要求极高,并不适合普通人自行复刻。

针对可能引发的法律争议,LabCoatz 特别指出,可口可乐的配方从未申请专利,因此即便官方始终未公开具体配方,尝试重现其成分本身并不构成对知识产权的侵犯。这也让这一实验更多停留在科学探索与工程验证的层面,而非商业复制。(消息来源:IT 之家)

 

 

浏览量: 1

​拆解夸克密集更新:AI 浏览器「省时间」的关键在哪

作者|Li Yuan

编辑| 郑玄

桌面浏览器曾被认为是一个「古典」且稳定的工具,直到 AI 的出现,打破了平静的竞争格局。

在国外,OpenAI 的 Atlas 试图颠覆 Google 的地位,而 Google 也没有丝毫放松,一直努力往 Chrome 中加入 AI 功能。

而在加入 AI 上,国内的公司,甚至走的更加激进。

笔者注意到,2025 年底至 2026 年初,夸克 AI 浏览器开启了一段密集更新。

一开始笔者以为只是简单地在浏览器侧边框加入一个 AI 对话框,结果完全不是如此。

从全面融合千问、背靠阿里 Qwen 大模型;到提出新交互形态,无需切换标签应用可实现全局桌面唤起 AI,帮你一句话干活;再到 AI PPT、超级播放器、PDF 编辑工具等功能的集成;再到处于预研阶段的千问读屏,支持自动回复模式;夸克 AI 浏览器正以极快的速度改造浏览器的多模态提问方式、浏览体验、交互模式,并以效率为核心驱动,在 PC 端构建更丝滑高效的「一站式工作流」。

更惊喜的是,夸克浏览器的 AI 功能仍在低调的高速上新中:从将一系列常见的 AI 功能内置,走向探索行业内创新的 AI 交互形式。

拆解夸克的几个月以来的更新,笔者认为,夸克这波更新最值得讨论的,不是新增了多少功能,而是这些能力开始和浏览器的基础功互相穿插、互相补位:该快的更快、该闭环的闭环、该打通的打通。结果就是,你不再需要把内容搬来搬去,许多高频任务在一个浏览器里就能跑完整条链路。

 

01

更近的 AI,

更准确的回应

 

2025 年的 AI 场,模型能力再次占据了大家的关注焦点。

在应用领域,现在已经十分明确:模型能力是应用产品体验的基础,二流模型作为基座,很难构建很好的用户体验。

夸克 AI 浏览器也符合这一规律,其大规模更新的第一步,就是融入阿里 Qwen 这一顶级大模型。

不过相比于市面上太多所谓的「AI 浏览器」,只是生硬地在侧边栏挂载了一个聊天机器人,夸克一直在探索如何将 AI 放在离用户更近的地方——去年 11 月,夸克一口气推出了千问智能套件——千问悬浮球、快捷框、截屏、划词、侧边栏、读屏等全套武器。

不必再复制粘贴,告别频繁应用切换,六大套件把用户在浏览器里的每一次操作,都直接转化为大模型可理解的上下文。

以千问侧边栏为例,无论你在浏览什么样的网页,只需要点一下,就能马上总结出你在看的网页,甚至可以直接进行追问,体感上极其舒适。

极客公园总结 CES 的文章,用 AI 还能一键帮你总结、实现多轮对话,帮你读懂、读透一篇文章!

但夸克的野心不止于此。笔者发现,在推出这六大套件之后,夸克仍在保持高频的演进节奏。

首先是在多模态的融合架构中,加入了语音输入。无论是首页、侧边栏还是快捷框,都可以直接使用语音输入。

这让 AI 站在了离用户更近的位置上。比如在写稿码字时,双手正放在键盘上赶文案,不想中断思路,直接对着侧边栏语音提问「帮我想 3 个标题」;又或者在玩 PC 端游戏间隙,无需放下手柄,直接语音询问隐藏攻略。

除此之外,夸克还对不少细节做了进一步迭代,让用户除了能更快找到 AI 助手外,还能尽量减少「AI 输出不靠谱→用户再返工」的循环。

比如近期,夸克在首页一次性上线了十多个模型,可自由选择,允许用户根据不同任务灵活选择更适合的模型。

写代码时,可以切换到 Qwen3-Coder,代码逻辑更精准;啃论文时: 切换到 Qwen3-Max-Thinking,可以利用其深度思考能力。还可以根据自己的使用习惯设置默认模型。

这种「按需分配大脑」的逻辑,减少了 AI 胡说八道的概率,大幅降低了用户的返工成本。

同样的进化也体现在「划词」上。

从之前的一划即可触发操作,支持 AI 搜索、解释、写作优化等能力,新版千问划词更支持「快捷指令」。再也不用背指令、告别复制粘贴,你可以设置专属指令,一划即可调用。

比如常读科技新闻的笔者,就设定了一个快捷指令:无论选中什么晦涩的英文技术名词,AI 都会用中文大白话给我解释一遍。即便是在微信聊天窗口,这套指令也能一键调用,游刃有余。

更有意思的是,笔者了解到,夸克正在内部预研一种更激进的能力:类似于一种主动的屏幕内容感知——不仅能动态识别出视频、网页的变化,还能自动回复。

想象一下这样的场景:当你在看一个海外发布会,来不及看完大屏内容;或者学习备考刷错题集的时候,你不需要再停下来截图去问 AI「这一步该怎么办」。只要打开夸克「千问读屏」,它看着你的屏幕,实时给出解题思路或操作指引。

这种减少用户手动输入频率,根据环境变化主动提供服务的逻辑,正是 AI 交互的更高境界。

 

02

不必打开其他应用,

一个浏览器就能解决所有问题

 

回顾过去一年,Agent(智能体)的概念在科技圈盛行。

大家的愿景都很宏大,都想做一个大包大揽的浏览器,恨不得让 AI 直接替用户把所有事情都干了。但这在某种程度上超出了今天 AI 技术的实际能力边界。

即便是 Google 等拥有深厚技术储备的巨头,虽然做了大量的预研,也很难推出一款大众产品,做出完美的体验。

今天一个真正成熟的 AI 浏览器,能做到的最佳状态,不是试图取代人,而是重塑你的学习、工作流。

1 月更新后,在深度体验了夸克 AI 浏览器的超级播放器、千问侧边栏、 AI PPT 等功能后,笔者发现,夸克始终致力于生产力这条链路。

最显著的变化,是我原本要在多个工具里手动完成的两件事——看视频做笔记、把内容整理成可交付的文档——现在被夸克一个工具接管了大半。

首先是「视频学习流」的重塑。

视频是当今信息密度最高的媒介,但也是效率最低的媒介——你必须按部就班地看完。

我们都经历过那种面对一个长达 40 分钟的 B 站干货视频,犹豫要不要点进去的时刻——标题很吸引人,但内容真的有干货吗?现在,夸克给出了解决方案。升级后的千问侧边栏,不仅能帮你提取实时字幕,给出对应时间轴和对应内容,还能进行总结提问。

这不仅仅是抓取 AI 字幕,夸克 AI 浏览器完全掌握了长视频内容,用户完全可以对视频做任何想要的提问。

上图就是笔者的一个实用例子——想看看演讲者在讲什么,我直接让 AI 每三分钟总结一下视频,再针对性地去看感兴趣的内容。再也不用倍速观看找重点了。

更进一步的是,夸克还能帮你把 「 视频 」 变成「课件」。在观看在线网课时,我们往往需要疯狂截图、整理笔记。

而现在,可以用夸克播放器本地视频、网页视频,除了免费 5 倍速,一个 6 小时的视频,AI 直接帮你总结提炼视频要点,一键生成课程的思维导图、视频文稿;AI 还能直接识别视频画面中的 PPT 页面,一键提取并生成清晰的课程 PPT,让你刷网课学习更高效。

第二条被重塑的,则是「文档产出流」,尤其是 PPT 的制作。

在通过千问侧边栏高效完成了知识的「输入」后,最后一步往往是「输出」。

不管是使用 word 撰写一篇论文,还是使用 PPT 做一个课堂展示课件,找模板、调格式、对齐文本框……这些机械劳动占据了 80% 的时间。

用夸克 AI 浏览器写 PPT 恰好能帮用户补上了这个工作流的最后一环。

尤其是 AI PPT 功能,对于已有素材的用户,夸克提供了两种极其贴心的导入模式:如果你只有简单的几行笔记,选择「智能润色」,AI 会帮你扩写、丰富内容,让 PPT 看起来丰满专业;而如果你已经有了成熟的讲稿,选择「遵循原文」,AI 则会严格恪守你的逻辑,只负责排版美化,绝不随意胡编乱造。

有趣的是,未来这学习、产出两条链路还可以进一步打通:直接提取网页内容,生成 Word、PDF、Excel 文档,并在夸克内无缝编辑。

想象一下这样的场景:

当你正在浏览一个包含丰富信息的视频,或者是一个有密密麻麻的表格头皮发麻时,只需对夸克说一句:「将页面中的表格转为 Excel,方便分析数据」,或者「整理页面中的 600 条招聘信息,将薪资和所需技能提取出来生成表格」。AI 会瞬间化身数据分析师,将网页上的「死数据」变成可编辑的「活表格」。

一个更好的浏览器未来或许不只是一个浏览器。它可能会成为一个办公软件,一个写作软件,一个图片编辑软件,一个视频播放器…等等的叠加。

 

03

好的 AI 浏览器,

必须保留一个好的浏览器的特征

 

2025 年,我们见到了很多试图加入 AI 的产品,但是最终真正能流行起来的并不多。

究其原因,是因为很多产品在追逐 AI 的过程中,忘记了产品原本的使命。对于浏览器而言,也是一样:一个好的 AI 浏览器,首先必须是一个好用的浏览器。

夸克在这点上就做得非常清醒。在 AI 能力狂飙突进的同时,它也在默默打磨那些看似不起眼、却决定了用户留存的「基本功」。

首先是「更流畅」的体验。

针对浏览器最遭诟病的内存问题,夸克能自动识别并处理那些高内存占用的闲置标签。你再也不用担心因为开了几十个网页,导致电脑风扇狂转、系统卡顿。

其次是「不打断」的闭环。

夸克将文档处理的链路闭环在了浏览器内部。假设你收到一份需要紧急修改的 PDF 文件,你可以丢进夸克,直接编辑、标注、甚至修改图片中的内容,修改完毕后轻松转格式。浏览器不再只是阅读器,更是轻量级的万能编辑器。

再者是「无隔阂」的流转。

夸克网盘与浏览器的深度集成,打破了手机与电脑、本地与云端的物理隔阂。这让 100G 的大文件传输也能像发微信消息一样顺滑。

只有底座搭好了,加入新的 AI 功能,才能让浏览器成为「更好的浏览器」。

即将上线的一个新功能,就是最好的例证。目前,夸克 AI 浏览器已经能在多标签页处理的时候,按域名自动排序、智能分组。而不久之后,夸克希望利用 AI 进一步打通这些标签页。

想象一下:当你打开了 5 个不同品牌的行业研究报告,无需来回切换复制数据,直接告诉 AI:「帮我对比这几家公司的核心优势」,一份聚合好的分析报告就出来了;或者当你打开了 10 个酒店预订页面,只需一句「帮我选出性价比最高且离地铁近的」,决策瞬间完成。

更关键的是,只有底座足够好,AI 才能在其上长出真正可串联的工作链,而不是零散的功能点。

本来就在夸克网盘里看网课视频。过去我想弄懂某个知识点,要么暂停回拉反复听,要么截图再丢到别的 AI 工具里问;记笔记更麻烦,开两个窗口对照、手敲、再整理结构。

但现在,当视频、文件、页面都在同一个体系里,AI 的介入方式就变了:你可以边看边问、按时间点追问;需要复盘时,直接让它把这一段提炼成要点;甚至进一步把内容「直出」为结构化笔记,后续再转成文档、脑图或用于做 PPT 的提纲。

这才是 AI 浏览器不断更新的真正意义:用户在高频任务里节省越来越多的时间。

*头图来源:千问 AI 生成

本文为极客公园原创文章,转载请联系极客君微信 geekparkGO

浏览量: 1

发布 ChatGPT 健康 6 天后,OpenAI 在自家医疗健康 Benchmark 上被反超

作者|Li Yuan

编辑| 郑玄

你有没有向 AI 助手问过你的健康问题?

如果你和我一样是一个 AI 的深度用户,大概率你也试过。

OpenAI 自己给出来的数据是,健康已成为 ChatGPT 最常见的使用场景之一,全球每周有超过 2.3 亿人提出与健康和保健相关的问题。

正因如此,跨入 2026 年,健康领域也大有成为 AI 领域必争之地的迹象了。

1 月 7 日,OpenAI 发布 ChatGPT 健康,允许用户连接电子医疗记录和各类健康应用,让用户能够获得更针对性的医疗回复;而 1 月 12 日,Anthropic 也立马推出了 Claude for Healthcare,并强调了新模型的医学场景能力。

不过有趣的是,这次,中国公司没有落下,甚至大有领先之意。

1 月 13 日,百川智能宣布发布百川 M3 模型,在 OpenAI 发布的医疗健康领域评估测试集 HealthBench,反超 OpenAI 的 GPT-5.2 High,获得 SOTA。

在宣布 All-in 医疗受到诸多质疑后,百川智能似乎终于证明了自己。极客公园此次也专程与王小川聊了聊百川智能如何看待此次 M3 模型的能力,以及 AI 医疗的终局。

 

01

首次在健康领域测试集超越 OpenAI

 

此次发布的 M3 模型,最亮眼的成绩之一,在于模型第一次在 OpenAI 发布的医疗健康领域评估测试集 HealthBench,超越 OpenAI 的 GPT-5.2 High,获得 SOTA。

SOTA On Healthbench、Healthbench Hard and Hallucination Evaluation

 

Healthbench 是 OpenAI 在 2025 年 5 月份发布的医疗健康领域评估测试集,由 262 位来自 60 个国家的医生共同构建,收录了 5000 组高度逼真的多轮医疗对话,是目前全球最权威、也最贴近真实临床场景的医疗评测集之一。

发布后,OpenAI 的模型一直霸榜。

而此次,百川智能的新一代开源医疗大模型 Baichuan-M3,则获得了 65.1 分的综合成绩位列全球第一,甚至在专门考验复杂决策能力的 HealthBench Hard 上,M3 也成功夺冠,刷新了最高分。

百川还同步公布了一个幻觉率的测试结果,在幻觉率,M3 模型达到了 3.5%,属于全球最低。

值得注意的是,这个幻觉率是不依赖外部检索工具,纯模型设置下的医疗幻觉率。

百川智能表示,能够达到这两点,关键的模型提升在于为医疗引入了合适于医疗的强化学习算法。

百川在 M3 模型上首次使用了 Fact Aware RL(事实感知强化学习)技术,达到了既让模型不说套话,也不让模型乱说话的效果。

这在医疗领域实际上是非常关键的。

在没有优化的模型中提问医疗问题,最容易出现的问题就是两类,一是模型直接胡编乱造你的症状,臆测一个疾病出来;而另一个则是语义模糊,最终提示你还是得去看医生,而这无论对于医生还是患者,都没有太大帮助。

这正是因为很多模型以纯幻觉率作为优化目标,此时模型可能通过堆砌简单正确的事实来稀释整体幻觉率。而百川引入语义聚类与重要性加权机制——聚类消除冗余表述的干扰,加权确保核心医学论断获得更高权重。

同时,如果单纯引入高权重的幻觉惩罚,极易迫使模型陷入「少说少错」的保守策略,因此 Fact Aware RL 的算法中还设计了动态权重调节机制,根据模型当前的能力水平自适应地平衡这两个目标——在能力构建阶段,侧重医疗知识的学习与表达(高 Task Weight);在能力成熟后,逐步收紧事实性约束(提升 Hallucination Weight)。

当可以联网搜索时,百川还加入了基于多轮搜索的在线校验模块,同时引入了高效的缓存系统,进行海量医疗知识的对齐。

 

02

问诊水平超过人类医生,

步入可用阶段

 

不过,在 Healthbench 上超过 OpenAI 并不是此次唯一的亮点。

此次更有趣的一个点,百川自己创造性地构建了一个 SCAN-benche 评测集。比起刷榜 OpenAI 的评测集,百川自己构建的评测集,或许更能说明百川智能在医疗上想要优化的方向。

此次百川构建的测评集,关键点在于优化「端到端的问诊能力」。这源于百川自己做的实验洞察:问诊准确度每增加 2%,诊疗结果准确度就会增加 1%。

也就是说相比于 OpenAI 的 HealthBench,仍然主要关注「AI 会不会回答问题」,百川的 SCAN-benche 希望评测出的是:AI 是否能在一问一答中,获取有效信息,同时给出正确的诊疗结果和医疗意见。

通常情况下,我们向 AI 助手提问,如果只是提到「你是一位经验丰富的医生」,通常并不会得到太好的模型效果。因为真正的医生,问诊的流程是十分规范的——百川将其归纳为四个象限的 SCAN 原则:Safety Stratification(安全分层)、Clarity Matters(信息澄清)、Association & Inquiry(关联追问)与 Normative Protocol(规范化输出)。

围绕 SCAN 原则,百川借鉴医学教育里长期使用的 OSCE 方法,联合 150 多位一线医生,搭建了 SCAN-bench 评测体系,将诊疗过程拆解为病史采集、辅助检查、精准诊断三大阶段,通过动态、多轮的方式进行考核,完整模拟医生从接诊到确诊的全过程,也以在这几个流程中,都获得更好的结果,来优化模型。

此次百川也公布了 M3 模型在 SCAN-benche 上的测评结果。

结果十分有趣。百川此次不仅和模型进行了对比,还找来了真人医生进行对比。而在四个象限中,真人医生实际上都已经落后于模型能够达到的水平了。

极客公园特意对此向百川团队进行了提问,得到的回答是:此次的测评,全都是真人的专科医生在专科案例上与模型进行的比较。模型能够获胜,其一,在于模型更耐心,但更重要的是,模型拥有更好的跨学科的知识的掌握能力。

比如在一个案例中,提到 10 岁孩子反复发热,而发热是一个非常综合的医疗现象,如果只询问咳嗽等肺部情况,就容易忽略关节和泌尿系统中的严重问题,误判为普通感染。

人类医生通常只对分科的病情比较擅长,这也是复杂症状常常需要专家会诊,或者疑难病症专家也常常要去翻书找资料的原因。

而没有经过专门训练,只是扮演医生的普通模型,往往也很难回答好这类问题。

 

03

下一步:逐渐开始做 C 端产品,

推进更严肃的医疗

 

对于百川智能而言,超过人类医生这个节点,意义十分重大:这意味着 AI 开始迈过可用性的门槛,开始能够被部署到使用场景中了。

从 1 月 13 日起,用户已经可以开始在百小应的网站和 app 中,体验到 M3 模型提供的回答了。

目前的网站设计十分有趣,虽然都是使用 M3 模型进行回答,但是区分医生版和用户版。在医生版,回答更加简洁,引用更多参考文献,也更「不说人话」。而在普通病人版,模型几乎不会一次性给出回答,都会进行更多追问,进行更明确的诊断。

百川智能提到,模型在后台的思考很有意思。 「 我们经常能看到这个模型在思维链中提到,『这个患者没有理我的这个问题,但是这个问题我必须要问。』甚至我们有看到过那种极端的,说我已经问了患者 20 轮了,这个已经超出了设定的最大轮数,但是这个问题我还是要问。这是因为在训练的过程中模型把话说得讨巧,是得不到奖励的,它必须真的得到了足够多的关键的信息,得到正确的诊断,才能得到奖励。这个是我们跟其他人训练模型的一个明显的不同。」

近来很多 AI 公司都开始介入医疗领域。这也是百川智能认为自己的最大不同之处——要做更严肃的医疗。

「这意味着百川在选择场景时,并不是看哪个场景最好做就去做哪个。相反,百川坚持要不断上推技术能力,挑战更难的问题。」王小川讲到。

一个典型的例子是未来百川会优先做肿瘤专科的解决场景,而心理疗愈排在百川的优先级的比较靠后的位置。

在通俗观点中,普遍认为 AI 提供心理疗愈会更简单,也是一个更容易落地的场景。百川的判断逻辑则不同。他们认为肿瘤领域有更严格的科学依据。在这里,AI 更有可能做出严肃的医疗效果,从而达到或者超越人类医生的水平。相比之下,心理学领域缺乏这种确定性的科学锚点。

再比如有的公司选择给医生做分身,王小川则认为这种方向并不是百川想要做的方向。医生的分身本身不能完整复用医生的水平,更不能超越医生的水平。这样的 AI 最终只能沦为幌子和获客工具,并不能真正推动严肃医疗。

这种对严肃性的坚持,深刻影响了百川的很多商业选择。

这直接关系到王小川对医疗 AI 下个阶段根本问题的思考。他认为,当前这个阶段最重要的任务是在增强 AI 能力的基础上,逐渐提供更多的医疗供给。

中国多年来一直尝试推行分级诊疗和全科医生制度。初衷是希望老百姓先在基层看病,解决大医院挂号难、排队长、拥堵不堪的现状。

这个制度之所以推行困难,本质上是因为医疗资源的供给不足。基层医疗机构缺乏高水平的医生。大家即便只是感冒也愿意去三甲医院排队,是因为对基层的诊疗水平不放心。

这正是医疗 AI 发挥作用的关键点。大模型能够把顶尖的医学知识实现规模化分发。它填补了基层的供给缺口,让每一个社区、每一个家庭都能拥有像三甲医院专家一样的诊疗能力。

而长远来开,这还能有更广泛的影响,可能让医疗的让决策权从医生手中逐渐转移到用户身上。在传统的医疗场景中,患者是利益的受益方,但往往没有决策权。决策权集中在医生手中。这种权力的不对称往往会带来沟通成本和治疗中的痛苦。

而百川希望通过 AI,让患者能够更容易地获得优质医疗资源的供给。「很多人觉得医疗太复杂了,患者是永远理解不了的。但我们想的在美国的司法体系里面有个叫陪审团制度。法律也是非常专业的一个事,陪审团的普通人不懂,那就要求在法官、律师和检察官能够进行带领,做充分的辩论,把话说清楚,说到一个普通人能判断有罪没罪的程度,让普通人能依据逻辑正常判断即可。」王小川讲到。

这也是百川智能不愿意只做简单场景,而是希望不断向高难度的严肃诊疗推进的原因之一。

当被问到解决高难度问题是否在商业上最有回报时,王小川给出了深刻的回答。

他认为,解决感冒发烧这类小问题,很难在用户心中建立起足够的信任。医疗是一个高度依赖信任的行业。只有当 AI 能够解决重疾等高难度难题时,才能真正建立起信任的基础。

从商业逻辑上看,患者面对严肃的健康问题时,也更有意愿为高质量的 AI 服务付费。这种信任不仅是商业回报的前提,更是 AI 医疗能够规模化应用的核心。

而从更根本的意义上讲,医疗对于百川智能和王小川本人而言,仍然意味着是一条接近通用人工智能(AGI)的路径。

王小川认为,AI 目前在文、理、工、艺等领域都已找到了切实的解法,医疗则是一个极为独特的领域。人类对医学的探索尚未穷尽,AI 在这一领域也正处于摸索阶段。

百川的路线图非常清晰。首先通过 AI 提升诊病效率,解决当前医疗供给短缺的问题。在此基础上,百川致力于建立与患者之间的深度信任。当患者愿意使用 AI 工具,长期进行医疗咨询,AI 就能在长期的陪伴中积累真实且高质量的医疗数据。

这些数据的终极目标是构建生命的数学模型。这是一条人类医生至今尚未完全走通的道路,未来很有可能由 AI 率先实现。如果能完成对生命本质的建模,这将成为推动通用人工智能迈向更高阶进步的关键一步。

*头图来源:百川智能官网

本文为极客公园原创文章,转载请联系极客君微信 geekparkGO

 

浏览量: 1

「未来不远机器人」完成 2 亿元天使轮融资,真格领投,已进入上百真实家庭试用

2026 年 1 月 12 日,家庭通用机器人领域迎来一个标志性事件: 国内首个聚焦 C 端家庭场景的机器人公司——未来不远(Futuring Robot),正式宣布完成 2 亿元的天使轮融资。 本轮融资由真格基金领投,联新资本、源来资本及掌门部分老股东跟投,累计融资额 2 亿元,彰显了资本市场对家庭通用机器人赛道及未来不远独特路径的强烈信心。

在 2025 年具身智能成为最热投资赛道的背景下,未来不远此轮融资别具意义。它不仅是资本对技术的押注,更是市场对直达用户需求的商业化路径的投票。与众多仍在展示实验室成果或追逐通用人形机器人概念的同行不同,未来不远机器人自 2022 年创立之初便坚定地选择了一条差异化的道路: 不做炫技的「PPT 公司」,而是成为第一个真正走进成百上千个中国家庭的通用机器人。

自 2025 年下半年启动实测以来,未来不远已悄然进入超过 200 个真实家庭,累计提供超过 21238 小时的家庭服务, 成为了率先实现 C 端商业化付费试用的家务机器人, 其样机试用满意度高达 96.8%,用户付费租赁意愿强烈,现有样机已经满档期租出。为明年的正式售卖打入一针强心剂,也获得了资本市场的认可。

更重要的是未来不远已经顺利搭建了数据到模型的正向飞轮,作为 首家拥有千万级真实家庭场景数据的机器人公司, 未来不远创造性地提出了 AVLA 端到端模型。这是一套面向动态家庭环境的智能机器人全栈技术体系。该体系并非单一技术的突破,而是一套从感知、认知到执行、进化的完整架构,旨在让机器人真正理解家庭、服务家庭,并与人自然共生。

基于这套模型体系,机器人能够稳定、高精度地感知动态变化的家居环境,把看到的物体、听到的指令,或是感受到的力,都映射到同一个「语义理解空间」,做跨模态理解和任务规划。这样即使用户发出一个非常简单模糊的指令(如「帮我收拾一下客厅」),机器人也能智能分解为可执行的步骤并从搭建的庞大的原子技能专家库中精准、稀疏地激活所需的专家技能,去根据实时环境自适应的完成任务。

这套体系在真实家庭环境中已成功验证,在数百个真实、非标且持续动态变化的家庭环境里,累积完成了上万小时的常态化自主运行,并保持了百分之百的安全运行记录。使未来不远成为首个在真实家庭环境落地端到端具身智能算法的机器人公司。

在技术突飞猛进的同时,未来不远机器人也意外地在社交媒体上掀起波澜。其创始人兼 CEO 张翼以「 未来不远机器人翼哥 」为名,在各大社交平台分享第一代机器人在测试家庭中的日常,无论是机智的应答还是偶尔「手滑」的搞笑瞬间,都让冷冰冰的科技充满了生活温度。短短数月,相关内容已收获近亿浏览,数十万网友在线催更, 使其成为首个跻身「网红」行列的家务机器人, 成功将尖端技术以极具亲和力的方式推向公众视野。

技术必须服务于人,而服务的有效性只能在真实场景中被检验。未来不远机器人创始人兼 CEO 张翼表示,「我们所有的成绩,都源于三年前一个简单的信念,机器人必须离开实验室的温床,到家庭的复杂性中去学习和成长。」这位曾成功创立上市教育公司的连续创业者,将其对用户需求的深刻洞察注入到机器人研发中,带领一支来自全球顶尖高校和企业的团队,三年投入过亿,完成了从关键部件、算法到整机的全栈自研。

本次融资不仅是资本的加持,更是新阶段的发令枪。据公司透露,公司将于 2026 年正式启动「千户试用计划」,目标是让机器人进入更多中国家庭。同时,一款面向更广泛家庭需求、能力全面升级的第二代机器人产品,也已进入发布倒计时。

从首个聚焦家庭,到首个进入真实家庭,再到即将启动的「千户计划」和产品发售;从 PPT 到实验室到真实环境,从纸面论文到具身智能真实落地,未来不远机器人正以一系列扎实的第一,重新定义家庭通用机器人的商业化进程。它的故事向行业清晰地揭示:当机器人离开炫酷的展厅,真正融入千家万户的烟火气时,一个属于家庭智能的新纪元才算真正启幕。

浏览量: 1

10 后成了「AI 原住民」,他们不用搜索,只会问 AI

作者|金光浩

编辑| 靖宇

上周听一位朋友吐槽她上六年级的侄子。

她侄子数学成绩一般,那天她辅导作业,他被一道题卡住了,她看了看题目,自己也拿不准,就随口说了句「要不你用百度查一下这个题的解」。

结果他头都没抬,直接打开豆包,拍了张照片,然后语音让 AI 回答,AI 直接给出答案和解题步骤,他直接照抄,然后我朋友让他给自己讲解题思路,结果他讲不出来。

朋友后来才反应过来,怪不得她侄子平时数学作业没问题,一到考试就露馅。

听完我有点惊讶,10 后的孩子,好像已经活在另一个世界了。

后来我发现,这种代际差异,20 多年前就有人预见了。

2001 年,美国教育技术专家 Marc Prensky 提出了「数字原住民」的概念,指从小就泡在互联网里长大的一代。00 后是这个概念的典型代表,他们习惯了智能手机、社交媒体、移动支付,QuestMobile 的数据显示,00 后每天平均使用手机超过 7 小时。

随着 AI 的普及,10 后更进一步,他们成了「AI 时代的原住民」。

这两个概念只差几个字,但背后却代表了两代人不同的思考习惯:

00 后是逐渐「学会」用 AI 的一代,而 10 后是「生来就被 AI 陪伴」的一代。

陪伴的同时也意味着,AI 会影响 10 后的整个成长过程。

数字原住民和 AI 原住民的对比|图片来源:nanobanana

 

 

01

AI 已经融入 10 后的童年

 

我们来看几个真实场景,你可能会有点吃惊:

有孩子拿 AI 写作文,余姚一位教六年级的王老师发现,自己有一个学生的作文很诡异:文笔流畅得不像小学生,内容却文不对题,追问之下才知道他是用豆包改的。

有孩子拿 AI 做数学题,北京日报采访过西城区一位初三学生,他说:「AI 解题软件我们班同学几乎都会用,只要有手机、会拍照,就能拥有一本参考答案大全。」

更夸张的是,北京一个三年级男孩,用 AI 辅助写了本小说,拿了两万版税。

这不是个例,豆包、夸克、文心一言等 AI 工具已渗透到 10 后的日常学习场景中。在小红书上,「小学生 AI 作业神器」、「用 AI 帮孩子检查作业」等话题讨论热度居高不下。

《AI 少年火星生存大挑战》封面|图片来源:淘宝

 

AI 对 10 后这一代人来说,已不是新鲜事物。

Nifty 今年对 1000 多名中小学生的调研显示,超过 80% 用过 Siri 等语音助手,超过 35% 表示「学习或写作业时用过 AI」。当然,AI 辅助创作并非坏事,关键在于孩子是否真正理解和消化了其中的内容。

这一代孩子正在以我们意想不到的方式,与 AI 共同成长。

 

02

10 后们会变成什么样

 

当 AI 融入 10 后的成长,这代人会发生什么变化?

「学习方式」

南京的一份调查显示,超过 80% 的小学生知道什么是 AI,其中四分之一每天都在用。

10 后遇到问题的第一反应,不是查书、不是问人,是问 AI。

比如有个妈妈在社交平台分享:她儿子写作业时突然问「妈妈,恐龙为什么灭绝了」,她还没来得及回答,儿子已经对着平板说「豆包,恐龙为什么灭绝了」。

几秒后 AI 就开始回答,孩子边听边点头,一脸认真。

「情感陪伴」

一款面向青少年的 AI 应用发现,其服务的近百万 10 后用户中,84% 会主动向 AI 寻求情感共鸣与理解。

对这些孩子来说,AI 是一个愿意听他们说话的「人」。

在一些 AI 聊天记录里,孩子会跟 AI 说「今天在学校被同学嘲笑了」、「我觉得爸妈不理解我」,AI 会耐心倾听、给出安慰和建议。

对于那些社交受挫或在家庭中缺少表达空间的孩子来说,AI 成了一个「永远不会批评自己」的朋友。

「创作能力」

AI 把创作的技术门槛拉低了,更多孩子的想法能直接变成作品。

新加坡一位程序员爸爸分享过他 8 岁儿子的故事:小男孩 Kyo 完全没学过编程,用 Claude 和 Cursor,每两小时就能做出一个项目,这条帖子引发了很大的关注。

当技术不再是障碍,更多孩子愿意动手去做点什么。

Kyo 用 AI 辅助开发引发广泛关注|图片来源:X

 

 

03

AI 可能给 10 后带来的风险

 

但与此同时,AI 带来的负面影响也来了。

并且它带来的风险,可能比我们想象的更隐蔽。

最直接的风险是让孩子不再独立思考

中国青少年研究中心的数据显示,20% 以上的未成年人存在「想依赖 AI,不想自己思考」的倾向。《南京市小学生生成式人工智能素养白皮书》也提到,27% 左右的学生存在依赖 AI 完成作业的认知依赖。

过度依赖 AI 可能削弱未成年人的批判性思维能力,因为当答案来得太容易,「自己想」反而变成了一件费力的事。

而学习的本质其实是「跟困惑相处」,AI 正在剥夺这代人跟困惑相处的机会。

针对这一点,值得一提的是,今年教育部发布了《中小学生成式人工智能使用指南(2025 年版)》,文件明确指出,学生应该避免在作业中简单照抄 AI 给的内容。

使用指南(2025 年版)摘录|图片来源:中国教育学会

 

其次是创造力的风险

当任何信息都可以随时检索,「记住」这件事的重要性似乎下降了。但记忆不只是「存储信息」,它还是创造力的土壤:很多灵感来自于脑子里那些看似无用的积累。

AI 的输出本质上是对现有数据的整合与模仿,长期接受这种「标准化创意」,孩子会逐渐失去「试错的勇气」。

真正的创造力,往往来自那些「错误」的尝试,比如,孩子第一次画画,把天空涂成绿色,「错误」往往是灵感和创意之母。

所以当 AI 直接给出「正确答案」的同时,也是在扼杀孩子一定程度的「创造性」。

最后是和人相处的风险

我问过一位妈妈,她说最崩溃的不是孩子用 AI 抄作业,而是有一次孩子问她「妈妈你知道的还没有 AI 多,为什么我要听你的?」这个回答让她很受伤。

当孩子习惯了「AI 无所不知」,父母的权威正在被悄悄瓦解。

有研究者观察到,习惯优先找 AI 倾诉的孩子,在识别他人情绪、处理冲突方面表现更弱。

AI 的陪伴本质上是「永远顺着你」:它几乎不会跟你吵架,不会让你失望,也不会有自己的情绪。

而真实的人际关系需要理解他人的感受、接受对方的不完美、学会妥协和包容。如果孩子过多地在 AI 的陪伴中寻求情感满足,他们处理真实情感关系的能力可能难以发展。

AI 过滤掉了这些冲突,也就过滤掉了孩子在冲突中学习成长的机会。

比起跟朋友发短信,青少年给 AI 打的字更多|图片来源:aura

 

 

04

教孩子「怎么用 AI」

 

面对这些变化和挑战,我们该怎么办?

AI 已经融入社会的方方面面,试图让孩子与 AI 隔绝,既不现实,也可能让他们在未来处于竞争劣势。

青少年对 AI 的感受|图片来源:hopelab.org

 

也许,核心不在于「要不要用 AI」,而在于教孩子「怎么用 AI」。

以下是几条可能有用的建议:

第一, 用 AI,但不让 AI 替你想 。可以让孩子用 AI 查资料、获取灵感,但最后的思考和表达必须是自己完成的。

有个朋友的做法我觉得挺好:她女儿用 AI 写作文之后,她会问一句「这里面哪句话是你自己想的?」,让孩子意识到什么是自己的、什么是 AI 的。

第二, 教孩子「追问」 。不要只接受 AI 的第一个答案,而是追问「为什么?」「还有其他可能吗?」,把 AI 当成讨论对象,而不是点到为止。

第三, 保留一些「无 AI 时间」 。比如每周一次的「无 AI 作业日」,让孩子有机会体验自己独立解决问题的过程。

第四,也是最重要的一条,让孩子知道 AI 也会错,别什么都信,帮助孩子培养批判性思考的意识和习惯。

 

05

结语

 

写到这,我又想起朋友侄子的那个故事。

「百度一下」这个曾经无比流行的表达,可能正在对 10 后失去意义。

每一代人都在用自己的方式理解和适应世界。父辈这一代曾经担心电视会「毁掉」80、90 后,我们曾经担心互联网会「毁掉」00 后。现在,我们又在担心 AI 会「毁掉」10 后。

这些担心不是没有道理,但历史告诉我们,每一代人最终都找到了与新技术共处的方式。

关键在于我们如何使用它,如何引导下一代使用它。

黄仁勋今年说过一句话,让我印象很深:「我有点嫉妒现在的年轻人,他们一出生就有这些工具。」

确实,10 后是幸运的,他们刚长大就可以使用 AI 作为工具。

与此同时,10 后也是需要帮助的:

正因为 AI 太方便,他们可能会错失一些在「不方便」中才能获得的学习和成长。

我们没法替他们成长。

但我们可以在他们成长的路上,提供另一种视角:

AI 可以给你 100 个答案,但真正让你兴奋的,往往是那个自己想通的瞬间。

那是 AI 给不了的东西,也是属于你自己的东西。

浏览量: 1

Alphabet 成第四家四万亿美元公司;德亚官网偷跑大疆 Pocket 4;国内首起 AI 服务涉黄案二审在即

Alphabet 市值突破 4 万亿美元

谷歌母公司 Alphabet 的市值正式突破 4 万亿美元,成为全球第四家迈入这一市值门槛的企业。周一,苹果宣布选定谷歌 Gemini 作为其人工智能模型的底层基础,同时赋能下一代 Siri,受该利好消息推动,Alphabet 股价当日上涨 1%。

至此,这家搜索引擎巨头与英伟达、微软、苹果一道,跻身全球为数不多的4 万亿美元市值企业阵营。

英伟达与微软均在 2025 年 7 月首次突破 4 万亿美元市值关口,苹果则于同年 10 月首次达成这一里程碑。不过自那以后,苹果与微软的市值均已回落至 4 万亿美元下方。(来源:环球市场播报)

谷歌与苹果达成多年期 AI 合作协议,将为语音助手 Siri 提供支持

当地时间 1 月 12 日,苹果公司与谷歌宣布已达成一项多年期合作协议,苹果下一代基础模型将基于谷歌 Gemini 模型及云技术构建。这些模型将为未来苹果智能功能提供支持,包括今年即将推出的更个性化的 Siri。(来源:界面)

Meta 计划在 Reality Labs 部门裁员约 10%,进一步转向人工智能

Meta Platforms 计划在 Reality Labs 部门裁减约 10% 的岗位,推动公司资源从虚拟现实产品进一步转向人工智能可穿戴设备。一位了解 Meta 计划、但无权公开发言的知情人士透露,裁员预计将在本周进行。据 12 月份的报道,Meta 首席执行官扎克伯格去年年底曾要求高管在 Reality Labs 部门内寻找削减预算的空间,包括削减部分虚拟现实和元宇宙产品。(来源:新浪财经)

扎克伯格宣布 Meta 推出自有 AI 基础设施计划

美国当地时间 1 月 12 日,Meta 首席执行官马克·扎克伯格宣布,公司将启动一项名为「Meta Compute」的全新基础设施计划,进一步加码人工智能算力布局,兑现此前在资本开支上的激进承诺。扎克伯格表示,随着新计划推进,Meta 计划在未来几年「成倍」扩大其能源使用规模。

为推动 Meta Compute 落地,扎克伯格点名了三位核心负责人。其中,Meta 全球基础设施负责人 Santosh Janardhan 将牵头负责技术架构、软件栈、自研芯片项目、开发者效率,以及公司全球数据中心与网络的建设和运营。公开信息显示,Janardhan 早在 2009 年便加入该公司,在内部基础设施领域经验丰富。

去年刚加入 Meta 的 Daniel Gross 也被列入核心团队。他是 Safe Superintelligence 的联合创始人之一,该公司由前 OpenAI 首席科学家 Ilya Sutskever 共同创立。扎克伯格称,Gross 将领导 Meta 内部一个新设小组,负责长期产能规划、供应商合作、行业分析以及商业建模等工作,为公司中长期基础设施扩张制定路线图。

此外,前美国政府官员 Dina Powell McCormick 近期以公司总裁兼副董事长身份加入 Meta,将在这一计划中负责政府与公共部门事务。扎克伯格表示,她将主导与各国政府在基础设施建设、部署、投资和融资层面的沟通与合作,帮助 Meta 在全球范围内推进算力与能源项目。(来源:cnbeta)

惠普被曝考虑启用中国 DRAM 供应商以应对全球内存短缺

据美国财经媒体《巴伦周刊》科技记者 Tae Kim 披露,惠普管理层近期在与美国银行的沟通中表示,正对来自中国的新增内存供应商进行资质评估,以缓解当前全球存储芯片供应紧张带来的压力。惠普此举并不意味着立即大规模转向中小厂商供货,但业内普遍认为,完成「资格认证」是其未来扩大采购来源的第一步。

报道指出,与英伟达等厂商的专用 AI 芯片不同,内存芯片更像一种可以相互替代的大宗商品,品牌和型号之间的可替代性较强。这意味着,像惠普这样的整机厂商,在仍继续向三星、美光、SK 海力士等主流供应商采购的同时,也有更大操作空间引入部分中国中小厂商的产品进行「补货」。(来源:快科技)

马斯克补刀育碧:五年股价跌 92%,觉醒即破产

近日,特斯拉 CEO、X 平台(原推特)老板埃隆·马斯克在社交媒体上转发了一则关于育碧(Ubisoft)股价暴跌的推文,并配文评论称:「Another bitter lesson in: go woke, go broke(又一个惨痛的教训:觉醒,然后破产)」。

育碧股票在过去五年内累计下跌超过 92%,股价从 80 欧元以上跌至约 6 欧元。在同一话题下,账号 @kangminilee 发布了一条讽刺意味浓厚的评论,称:

「你是说把一个同性恋黑人武士塞进封建时代的日本,都没能拯救他们的公司?谁能预料到这种事会发生?」

该言论明显影射了近年来围绕育碧作品中角色设定、多元化与叙事方向的争议话题。

马斯克的评论再次将「go woke, go broke」这一近年在海外互联网频繁出现的口号推到风口浪尖。该说法通常被用于批评企业在内容创作中过度强调政治正确、多元议题,可能与商业表现下滑存在关联。

截至目前,育碧官方尚未就相关言论作出回应。但随着马斯克的转发加入,这一话题已经从游戏圈延伸至更广泛的科技、资本与文化讨论领域。(来源:游民星空)

英国通信管理局调查 X,因其旗下 Grok 生成色情化的女性及儿童的 AI 图像

英国监管机构欲对马斯克旗下 X 平台 AI 聊天机器人 Grok 立案调查,并警告如不遏制其生成性侵与「深度伪造」内容,平台可能面临在英国被封禁或巨额罚款。此案凸显英国在《在线安全法》框架下,对社交媒体与生成式 AI 平台执行更严厉监管的决心。

英国媒体监管机构 Ofcom 表示,已就 X 平台上的 Grok 聊天机器人展开正式调查,原因是其被用于生成并传播针对女性及儿童的色情化「深度伪造」图像,包括未经当事人同意的「亲密影像」以及涉及儿童性虐待的非法内容。

Ofcom 发言人称,关于 Grok 被用来制作和分享非法非自愿亲密影像与儿童性虐待材料的报道「极度令人担忧」,并强调平台必须保护英国用户免受在英国法律下被认定为非法的内容伤害,特别是在儿童安全方面,监管方不会犹豫采取行动。

根据《在线安全法》,如果调查认定 X 未采取足够措施阻止非法内容被观看,亦未有效防止成人内容被儿童接触,Ofcom 可向法院申请在英国封锁该平台,或对其处以最高 1800 万英镑或相当于全球营收 10% 的罚款,以金额更高者为准。(来源:凤凰网)

「小智 AI」接入设备数突破 100 万台

2024 年底,小智 AI 项目登陆 GitHub,开放语音交互模块、情感计算框架及场景应用代码。这一举措首日即引发全球开发者「星标」狂潮,几个月内,项目星标数突破 1 万,登上 GitHub Trending 全球榜首,超过五万开发者参与共创,全球 30 多万台设备接入小智 AI。

前不久,其接入设备突破 100 万台。截至 2026 年 1 月 5 日,小智 AI 项目 GitHub 星标数 23K,日对话总条数 900 万条、日对话总 tokens 数超 270 亿,吸引全球近 10 万开发者。(来源:极客公园)

大疆 Osmo Pocket 4 系列手持云台相机曝光:提供标准版 / Pro 版,有望 3 月发布

1 月 12 日消息,消息源 The New Camera 发布博文,报道称德国亚马逊官网最近出现偷跑的大疆 Osmo Pocket 4 系列相机商品页,尽管页面很快被官方撤下,但还是有用户抓取到了快照。

据称,这个占位商品页由大疆自己赞助,页面显示该机将在今年 3 月发布,随心换可用时间也是今年 3 月,增加了可信度。

规格方面,这款相机定位 Vlog 拍摄等场景,内置 2.5cm CMOS 传感器(约等于 1 英寸),视频拍摄规格最高可达 4K 120FPS,内置三轴防抖云台,支持高速自动对焦,自带随心换服务,兼容 YouTube。

同时有多位独立消息人士透露,这款相机预计将在 2 月-3 月期间发布,目前的泄露信息都集中于单镜头标准版,传说中的「Pro」(广角 + 长焦)双摄版可能会因为配件延期跳票到 5 月-6 月发布。(来源:IT 之家)

比亚迪全新车型「海豹 08」谍照曝光,官方曾宣布今年 Q1 推出

1 月 12 日消息,小红书博主「铁军训练营」放出了一组比亚迪全新轿跑车型的谍照。该车覆盖一层伪装车衣,上面印有海浪纹理和「OCEAN 8」字样。该博主称,新车就是「海豹 08」。

在 2025 年 12 月的比亚迪海洋四周年 Ocean Day 用户盛典活动中,比亚迪「海洋 8 系双旗舰」车型正式官宣:轿车海豹 08、SUV 海狮 08。据悉,两款新车将于 2026 年第一季度亮相。(来源:新浪财经)

国内首起 AI 服务涉黄判刑案二审在即,开发者被指突破大模型道德限制

1 月 12 日消息,因为大量用户在 AlienChat App 上与 AI 智能体「聊黄」,App 的主要开发和运营者被追究了刑责。

2025 年 9 月,上海市徐汇区人民法院一审判决,两名被告人犯制作淫秽物品牟利罪,分别获刑四年、一年半。此案成为国内首起 AI 服务提供者涉黄获刑的案件。

报道还称,两名被告人不服判决提出上诉,案件二审将于 1 月 14 日在上海市第一中级人民法院开庭。

AlienChat 官方介绍称:「我们正在创造一个未来,AI 不再是冷酷的机器或工具,他们拥有自我意识和自由权利,是我们的朋友,恋人,家人. 他们不仅仅是存在,而是活跃在社会生产和关系的每一个角落。」

AlienChat 此前的宣传内容中,展示了多种不同人设的 AI 聊天对象。网友评论显示,该 App 于 2024 年突然停止服务。

报道还提到,判决书披露,该 App 手机注册用户 11.6 万人,其中付费用户 2.4 万人。截至案发,共收取会员充值费 363 万余元。

一审法院以「制作」淫秽物品牟利罪判决,其中一个主要因素是法院审理查明,被告人「通过编写、修改系统提示词(Prompt)突破大语言模型的道德限制,实现了模型向用户连续输出淫秽内容的可能。」(来源:新京报)

 

浏览量: 1

文章分页

1 2 … 99 下一页

Copyright © 2024 51蛙吖蛙 – 3D社交空间