Skip to content
  • 元宇宙社交空间入口
51蛙吖蛙元宇宙 – 3D社交空间

51蛙吖蛙元宇宙 – 3D社交空间

51蛙吖蛙元宇宙

  • 首页
  • Toggle search form

作者: admin

新年快乐

新年快乐
 
2618687195
51蛙吖蛙元宇宙
呱呱id:2618687195
展示量: 10

新年快乐

新年快乐
 
2618687195
51蛙吖蛙元宇宙
呱呱id:2618687195

欢迎电脑访问我的元宇宙空间

展示量: 23

中国 AI 调用量首超美国;今年国产手机全面涨价,最低涨超千元;奈飞退出收购华纳兄弟竞争

谷歌推出最新图像模型 Nano Banana 2

北京时间 27 日凌晨,谷歌宣布上架新一代图像生成模型 Nano Banana 2,使得高质量图像的生成更快、更便宜、更容易。

官方宣称,Nano Banana 2(即 Gemini 3.1 Flash 图像模型)能够兼具 Nano Banana Pro 的图像生成质量、推理能力和先进世界知识,以及 Flash 模型的「闪电生成速度」。

这意味着一系列曾经专属于「Pro」系列模型的功能下放到最基础的版本。Nano Banana 2 同样支持最多 5 个角色的相貌一致及 14 个物体的忠实呈现。自然语言理解能力的提升,使得模型更精准地捕捉复杂提示词的细微差别,从而生成更贴近想法的图像。

据披露,Nano Banana 2 上架后即刻登顶文生图榜单的第一位。同时每张图像的成本只有 0.067 美元,约为 Nano Banana Pro 的一半。(来源:财联社)

Deepseek V4 Lite 原生多模态 AI 曝光

近日,关于 DeepSeek 尚未发布的 V4 模型引发热议。据 X 用户 legit_api 透露,DeepSeek 正在测试 V4 Lite 模型,代号为「Sealion-lite」,上下文窗口为 100 万 tokens,并是原生支持多模态推理。

技术规格方面,消息称 DeepSeek 正积极测试 V4 Lite,具备 100 万 tokens 的超长上下文窗口,作为对比 DeepSeek V3.2 为 128K(128000)tokens。

该模型原生支持多模态推理,意味着它不仅能处理海量文本,还能更好地理解和生成图像等多种形式的数据,整体表现显著优于现有的 Web 或 App 模型。

根据其他 X 用户反馈,在生成「骑自行车的鹈鹕」和「Xbox 360 手柄」的测试中,V4 Lite 在非思考模式下生成的图像,无论是贴合提示词的程度、物体形状的准确性,还是细节的丰富度,都明显优于前代 V3.2 版本的思考模式。(来源:IT之家)

 

Anthropic 收购 Vercept,为 Claude「装上眼睛」

当地时间 2 月 25 日,Anthropic 宣布收购西雅图 AI 初创公司 Vercept,为自家智能体工具「Computer Use」补上视觉短板。

Computer Use 是 Anthropic 为旗下 AI 大模型 Claude 打造的、使其直接操控电脑的核心能力,能让 Claude 可以像人一样「看屏幕、动鼠标、敲键盘、操作软件」,完成多步骤、跨应用的复杂任务,于 2024 年 10 月随 Claude 3.5 Sonnet 一同发布,该功能是是 Anthropic 进军 AI 智能体领域的关键一步。

Vercept 意在打造视觉优先(Vision first)的 AI 智能体,主打「像人一样看屏幕、操控电脑」的无 API 自动化,其在高精度 UI 识别、空间推理方面的积累可以补齐 Anthropic AI 模型在视觉理解精度上存在的短板。(来源:科创板日报)

 

奈飞宣布退出对华纳兄弟的收购战

2 月 26 日,华纳兄弟探索公司表示,派拉蒙天空之舞公司提出的 1110 亿美元新报价,比华纳此前与奈飞达成的协议更有利于股东。

此后,奈飞宣布退出对华纳兄弟探索的收购战,为竞争对手派拉蒙的收购扫清道路。

奈飞在一份声明中表示:「我们谈判达成的交易本可创造股东价值,且获得监管批准的途径清晰。但我们始终秉持审慎原则,若要匹配派拉蒙的最新报价,该交易对我们来说在财务上已不再具有吸引力。」(来源:界面新闻)

 

中国手机市场迎来全面涨价潮,新品涨幅最低超千元

据新浪科技近日报道,多方观点认为:2026 年中国手机行业将正式迎来全面涨价潮,这也是国内手机市场发展以来首次出现全品类、全品牌同步普涨的态势。

报道称,目前国内主流手机品牌均已完成涨价方案的敲定,部分品牌已向线下经销商、线上渠道商下发了调价通知,「从目前确定的方案来看,3 月是涨价的关键节点,此前上市的机型调价幅度相对温和,但 3 月之后发布的新品,涨价幅度将明显扩大,最低涨幅不会低于 1000 元,中高端旗舰机型涨幅可能达到 2000-3000 元。」

根据行业分析机构 Counterpoint Research 的最新报告,2026 年全球智能手机均价将同比上涨 6.9%,其中中国市场涨幅将显著高于全球平均水平,核心原因是上游供应链成本的持续飙升,尤其是内存芯片价格的暴涨的影响,预计 3 月后中国市场新品手机均价将较 2025 年同档位机型上涨 15%-25%。(来源:新浪科技)

努比亚高管:三星 S26 只实现了豆包手机的局部能力

北京时间 2 月 26 日凌晨,三星 Galaxy S26 系列正式发布,新机与谷歌 Gemini 联动带来的手机「自动驾驶」相关 AI 能力成为一大会亮点。

中兴通讯终端事业部总裁、努比亚技术有限公司总裁倪飞也针对该功能发文点评。他表示:三星 S26 系列与 Gemini 的组合仅实现了努比亚 M153 豆包手机的局部能力,虽乐见国际巨头跟进 AI 智能体赛道,但也对其功能落地的完整性表示遗憾。

倪飞认为,三星此次推出的相关功能,印证了 AI 智能体是手机行业发展的共同方向,不过三星 S26 系列的该功能落地,比努比亚 M153 豆包手机技术预览版的发布晚了三个月。

二者核心差异在于:三星 S26+Gemini 的组合采用 GUI 方式实现,仅能完成单一场景的多步骤任务演示,比如预订网约车、添加购物车等,且相关任务需在后台运行;而努比亚 M153 豆包手机已率先将手机自动驾驶推进到全场景系统级应用,并非局限于单一功能或场景的体验。(来源:快科技)

 

中国 AI 调用量首超美国

近日,全球最大的 AI 模型 API 聚合平台 OpenRouter 数据显示,9 日-15 日这周,中国模型以 4.12 万亿 Token 的调用量,首次超过同期美国模型的 2.94 万亿 Token。

此后的 16 日-22 日,中国模型的周调用量进一步冲高至 5.16 万亿 Token,三周大涨 127%,而同期美国模型调用量跌至 2.7 万亿 Token。

与此同时,全球调用量排名前五的模型中,中国模型占据四席。中国模型厂商,正凭借快速迭代和成本优势占领全球市场,国产算力需求正经历指数级增长。(来源:每经网)

 

OpenAI 挖走 Meta 2 亿年薪华裔 AI 负责人

据多家外媒近日报道,此前加入 Meta 的前苹果 AI 负责人庞若鸣已经加入 OpenAI。

庞若鸣此前在 Meta Superintelligence Labs 负责 AI 基础设施建设。据知情人士透露,OpenAI 在过去几个月里对其进行了极其积极的招揽。尽管庞若鸣在上周离职前曾向同事表示,他在 Meta 工作得很愉快,且公司的基础设施状况良好,但他最终还是选择了加入 OpenAI。

庞若鸣的职业生涯跨越了多家科技巨头,他本科毕业于上海交通大学,曾在谷歌工作了 15 年,先后加入了苹果与 Meta。

去年,庞若鸣加入 Meta。据报道,Meta 为他开出了价值超过 2 亿美元的多年期薪酬包,其中包含与特定里程碑挂钩的激励条款。(来源:机器之心)

 

蔚来芯片子公司完成超 22 亿融资

2 月 26 日下午,蔚来宣布芯片子公司安徽神玑技术有限公司完成首轮股权融资协议签署,融资金额为 22.57 亿元人民币,投后估值近百亿。

神玑公司目前的主要产品为 5nm 车规辅助驾驶芯片神玑 NX9031,蔚来方面称其拥有一颗抵四颗英伟达 Orin-X 芯片的端侧推理能力。神玑 NX9031 自 2024 年投产以来已累计出货超 15 万套,成功部署在蔚来品牌的全系车型上。

本轮融资之后,神玑公司还将推出面向下一代智能驾驶的芯片以及多款其他领域的芯片。

待投资交易完成后,蔚来将继续持有神玑 62.7% 的控股权,而神玑投资者将合共持有 27.3% 的股权。神玑剩下 10% 股权由管理股份激励计划的实体持有。(来源:车东西、财中社)

微信上线「图片使用次数查询」功能

近日,微信上线了图片使用次数查询功能:长按聊天图片、视频或文件即可查看其在多少单聊或群聊被引用;也能一键定位到具体聊天位置,轻松实现内容流向溯源,被网友称作拯救金鱼记忆的实用能力。

据微信员工「客村小蒋」在微博介绍:该功能的推出是为了让用户直观看到文件的使用情况,明确转发图片、视频或文件不会重复占用手机存储空间,从视觉层面缓解大家的存储焦虑。

「客村小蒋」表示,这一功能的设计早有规划,核心是通过 UI 层面的展示,让用户直观了解到文件转发后只是引用次数增加,并非生成了多个副本,实际存储体积并未变大。

而这一体验的背后,是微信采用的硬链接技术,同一文件无论转发多少次,手机本地都仅保留一份原始文件,从根源上避免了存储冗余。

除了图片使用次数查询,微信还同步上线了面对面收发图功能,无需加好友、不耗费流量就能快速传输原图。(来源:快科技)

 

下周苹果发布新品,入门款手机和笔记本价格有望「惊喜」

2 月 26 日晚间,苹果公司 CEO 库克在社交媒体上发文称:「下周会很热闹」,这标志着苹果春季新品发布会即将揭开序幕。

据悉,这次新品阵容包括 iPhone 17e、低价 MacBook、iPad 12、iPad Air 8 等。

iPhone 17e 将搭载 A19 芯片,这很可能是唯一的升级,爆料称其依然采用上代的外观模具,屏幕等规格也保持不变。根据爆料,国行版预计将维持 4499 元的定价,如果叠加目前的补贴政策,起步价格有望下探至 3999 元。

此外,入门款 MacBook 是这次关注度最高的产品,海外起售价预计 599-799 美元,国行或下探至 4000 元档位,成为苹果史上最亲民的笔记本电脑。

其最大突破在于首次搭载 iPhone 同款 A 系列芯片,采用 iPhone 16 Pro 同款的 A18 Pro,第二代 3nm 工艺打造,6 核 CPU+6 核 GPU 搭配 16 核神经引擎,性能略超 M1 芯片,单核接近 M4 水平。(来源:快科技)

 

联想折叠屏概念游戏掌机曝光

近日,外媒 WindowsLatest 曝光了联想旗下 Legion Go Fold 折叠屏概念游戏掌机。

泄露图片显示,该设备配备一块 POLED 折叠屏,展开前屏幕尺寸为 7.7 英寸,完全展开后可扩展至 11.6 英寸,实现两种不同的显示规格。机身搭载英特尔酷睿 Ultra 7 258V 处理器,匹配 32GB RAM,内置 48Wh 电池。

在形态上,该机在全面展开和折叠情况下均支持安装手柄,以实现类似 Switch / NDS 的效果。手柄在 FPS 模式下可作为鼠标使用,整体体验类似任天堂 Switch 2,同时右侧手柄还内置显示屏,可显示性能指标,并可兼作触控板。除此之外,该机还将随附无线键盘,以实现类似于 Surface Pro 的办公体验。(来源:IT之家)

Robotaxi 商标疑似被抢注,特斯拉起诉法国苏打水公司

近日,特斯拉向美国专利商标局商标审判和上诉委员会提交了一份长达 167 页、包含 5 项指控的正式异议文件,状告法国饮料批发商 UNIBEV,后者长期占用「Cybercab」商标。

特斯拉指出,UNIBEV 曾向商标局虚假声称,无其他主体在同类商品上使用「cyber」「cab」或「cyber cab」等词语,但事实上,特斯拉早在 2024 年 10 月的「We, Robot」发布会上就已正式发布 Cybercab 车型,该名称已被全球媒体广泛报道,仅是特斯拉当时未及时提交商标申请。

此外,特斯拉还质疑 UNIBEV 的使用意图,认为其作为饮料企业,无任何车辆制造、销售相关经验,此次抢注属于典型的「教科书式商标抢注」——在自身无意涉足的领域抢注知名名称,再向合法所有者索要转让费。

值得注意的是,这并不是 UNIBEV 第一次尝试注册特斯拉品牌,UNIBEV 还申请注册了「Cyberquad」(另一个与特斯拉相关的名称)和「Cybertaxi」。该公司已拥有「Teslaquila」的商标,特斯拉曾试图将此名称用于其限量版品牌龙舌兰酒。(来源:快科技)

 

展示量: 28

「好用又便宜」的 Nano Banana 2 来了,这次能改变你的出图工作流吗?

去年,Nano Banana 刚出圈的时候,我身边不少做平面内容的朋友第一反应是:终于不用再开 Photoshop 改那些破海报了。
但兴奋劲过去之后,大家发现一个尴尬的事 —— 模型是好模型,可每次要用的时候还得专门跑去找入口、调参数:当然,最重要的体验是你还得等半天。这个情况在 Nano Banana Pro 发布之后,反而更加严重。
换言之,它更像一个「偶尔惊艳你一下」的玩具,而不是随手就能用的工具。对于真正拿 Nano Banana 尝试创作的用户来讲,也当然需要一款既好用又便宜的版本,来支撑“量大管饱”的需求。
这也是为什么 Nano Banana 2 备受关注的原因:2 月 26 日,Google DeepMind 发布了 Nano Banana 2(官方也称 Gemini 3.1 Flash Image)。

 

实际上,在全球网友已经玩了两个小时之后,谷歌官方的公告才姗姗来迟,宣布了 Nano Nano 2 的正式到来。

表面看是一次模型升级,但我觉得更准确的说法是:Google 想让图像生成从「你得专门去找它」变成「量大管饱的创作者工具」。

01

三件事,Google 往前推了一步

先说能力层面。Nano Banana 2 确实在几个老大难问题上有了进展。
第一件:画图的时候,模型终于「懂点时事儿」了。
 Google 把 Gemini 的现实世界知识库和实时搜索信息接入了生成过程。Nano Banana 2 可以利用 Gemini 模型丰富的全球知识,通过网络搜索图像来创建增强的视觉效果。
听起来有点抽象,翻译成人话就是——你让它画一张信息图,它知道数据长什么样;你让它画东京塔,它不会画成埃菲尔铁塔。这对做信息图、数据可视化、或者任何需要「画得对」而非「画得美」的场景,算是实质性改善。
第二件:图里的字,终于能看清了。 这事听起来很基础,但在很多商业场景里,文字渲染比画风重要十倍。营销海报、活动主视觉、UI 原型、门店指示牌——字一糊,整张图就废了。

在接入 Gemini 模型实现网络搜索图像之后,你可以实时地获取世界各地的实时信息来辅助内容生成,比如获取位置以及实时天气数据,来创建逼真的窗户景色。

 

如果你在 Nano Banana V1 时代就一直在使用它的话,你可能会记得文字渲染一直是个老大难的问题。

这一次,谷歌也终于将其作为一个重要升级项目进行了加强。

Nano Banana 2 强调的「清晰可读的文本生成」,加上支持图内翻译和本地化,直接把「出一张可用物料」的可用性与链路缩短了一大截。

 

对做出海业务的团队来说,这可能比任何风格升级都实在。谷歌为了展示这种能力,自己还做了一个 demo:它可以直接将广告翻译成各种不同的语言以适应国际市场,以此来炫耀 Nano Banana 2 通过图像内功能理解本地化视觉元素的能力。
 

第三件:角色和物体的一致性,开始够用了。 同一工作流里最多维持 5 个角色相貌一致、14 个物体外观一致;分辨率覆盖 512px 到 4K,画幅可控。对做分镜、做连续故事、做系列化物料的人来说,这类能力的价值远大于「多一种风格」。
说句实话,单看这些能力点,Nano Banana 2 并没有做出让人「哇」一声的突破。每一项都是在已有方向上往前拱了一步。
但这次更新真正有意思的地方,不在能力本身。

02

比起「画得更好」,Google 这次更在意「铺得更广」

Nano Banana 2 被塞进了几乎所有你能想到的 Google 产品入口里。
在 Gemini 里,它会替换掉 Fast / Thinking / Pro 模式下原来的 Nano Banana Pro。

 

如果你是 Google AI Pro / Ultra 订阅用户,仍然能通过图片的三点菜单调用 Nano Banana Pro 做更精细的任务——但默认出图能力,已经换代了。
在 Search 里,它进入了 AI Mode 和 Lens,覆盖 141 个新增国家与地区、额外 8 种语言。在 Flow 里,它直接成为默认图像模型,对所有用户零 credits。在 Google Ads 里,它变成创建广告活动时的「建议能力」。
这套动作连起来看,逻辑很清晰:Google 的判断是,图像生成的真正战场不在模型榜单上,而在入口里、在工作流里、在用户「顺手就用了」的那个瞬间。
怎么理解这件事?打个比方:过去的 AI 画图工具更像一家「需要专程跑去的独立画廊」,手艺不错,但你得特地安排时间。Google 现在做的事情,是把画廊变成超市里的文具货架——你来买菜的时候顺手就拿了。

 

这也解释了为什么 Nano Banana 2 选择了 Flash 速度档而不是 Pro 档作为主力铺设版本:毕竟在追求规模、速度和分发密度上,在这个阶段比极致质量更重要。

03

给创作者的信号:图像模型正在变成「可配置的渲染引擎」

面向开发者/创作者的版本里,还有几个细节值得注意。

Nano Banana 2 新增了 4:1、1:4、8:1、1:8 等超宽幅画幅比例,以及 512px 的低分辨率档。

 

后者目标很明确:降延迟,适配高并发和快速迭代。它还提供了「可配置的 thinking levels」,分 Minimal(默认)和 High/Dynamic 两档,让开发者在速度与推理强度之间自己拨杆。

如果为了追求极致效果,你当然可以去生成 4K 画质。你甚至可以按照自己的需求、喜好和风格,为自己定制壁纸。

 

当一个图像模型开始提供分辨率挡位、画幅参数、推理强度拨杆的时候,它就不再是一个「创意工具」,而是一个「渲染引擎」了。 这对两类产品形态会产生直接影响:面向普通用户的模板化出图工具,和面向企业的批量生产系统。

过去靠「套壳 + 流程胶水」建立壁垒的图像工具,接下来的日子可能不太好过。当底层模型自己就能输出结构化、可预测的结果,中间层的价值会被压缩。

另一件事也值得提:Google 在这次发布中继续强化了生成内容的可验证链路——SynthID 水印加 C2PA Content Credentials 的组合。官方透露 Gemini App 里的 SynthID 验证功能已被使用超过 2000 万次。生成式视觉越逼真,验证机制就越得前置,这是一个行业性的基础设施问题,Google 在把它当标配来做。

回到开头的那个问题:图像生成模型的竞争,到底由什么决定?

从 Reuters 此前对 Nano Banana 出圈的报道来看,它确实在短时间内给 Gemini 带来了大量新用户和海量生成量。但「爆款」这种事,偶发性太强。

Nano Banana 2 想做的,恰恰是把偶发性变成确定性:更快、更可控、更容易被调用,铺进尽可能多的产品入口里。它不一定是画得最好的那个模型,但它可能是你「最先碰到」的那个。

在 AI 产品的竞争里,这往往比「最好」更管用。

展示量: 3

人权高专:阿富汗成人权墓地 苏丹战争毫无意义 加沙现状属人为灾难

联合国人权事务高级专员蒂尔克周四在联合国人权理事会第六十一届会议举行的三场互动对话会上,分别就阿富汗、苏丹和巴勒斯坦被占领土人权状况发表讲话,指出严重侵犯和践踏人权行为持续发生,呼吁各方履行国际法义务并确保问责。
联合国人权事务高级专员蒂尔克周四在联合国人权理事会第六十一届会议举行的三场互动对话会上,分别就阿富汗、苏丹和巴勒斯坦被占领土人权状况发表讲话,指出严重侵犯和践踏人权行为持续发生,呼吁各方履行国际法义务并确保问责。
展示量: 6

联合国毒品预警系统拦截16亿剂致命芬太尼原料货运

国际麻醉品管制局周四表示,国际早期预警系统拦截了一批用于制造芬太尼的化学品货运,这些化学品原本足以生产多达16亿剂的潜在致死剂量。
国际麻醉品管制局周四表示,国际早期预警系统拦截了一批用于制造芬太尼的化学品货运,这些化学品原本足以生产多达16亿剂的潜在致死剂量。
展示量: 6

Vibe Coding,是怎么「玩废」程序员的?

作者| Moonshot

编辑| 靖宇

「 自然语言就是新的编程语言 。」这句话在过去一年里被无数人奉为圭臬。

特斯拉前 AI 总监 Andrej Karpathy 带火的 「Vibe Coding」(氛围编程)更是让这种狂热达到了顶峰——你不需要懂语法,不需要管实现,只要对着 AI 喊出需求,然后 Check 一下感觉(Vibe)对不对就行了。

听起来,程序员的门槛似乎要被抹平了。

但就在上周,大模型领域的「优等生」、Claude(也是最受欢迎的 Vibe Coding 模型之一)的母公司 Anthropic 居然自己跳出来,给这股热潮泼了一盆冰水。

图源:arxiv

 

他们发了一篇题为《AI 如何影响技能形成》的硬核论文,告诉我们一个残酷的真相: 如果你在学习新东西时过度依赖 AI,你不仅不会变快,你的核心能力还会出现显著退化 。

甚至,你可能正在变成一个「半废」的工程师。

 

01

人是轻松了,脑子也废了

 

Anthropic 的研究员这次很较真,他们找来 50 多位有经验的 Python 程序员,搞了一场「闭卷考试」。

考题是让大家去学一个从来没用过的冷门 Python 库:Trio , 来完成一系列异步编程任务。这完美模拟了程序员在工作中经常遇到的场景:老板突然让你用一个你没见过的工具/框架去解决问题。

程序员被分成了两组:

「手动组」 : 只能看官方文档,用 Google 搜索,严禁使用 AI。

「AI 组」 : 配备了一个基于 GPT-4o 的强大 AI 助手,可以随时提问、让它写代码、修 Bug。

任务结束后,所有人都参加了一场原本用于检验「学习成果」的考试。

考试内容包括编程语法、对代码逻辑的理解、阅读代码的能力,以及调试(Debugging)能力。

大家的第一反应肯定是:AI 组肯定秒杀「土法炼钢」组吧?毕竟这可是 GPT-4o 级别的辅助。

但实验结果出来后,所有人都沉默了 。

无 AI 组问答得分普遍高于 AI 辅助组|图源:Anthropic

 

最明显的结果是:成绩不好。数据显示, 使用了 AI 的那组人,考试得分平均比手写组低了 17% 。

论文中特别提到,分差最大的领域在于调试(Debug)。

这并不意外,毕竟 Vibe Coding 最大的弊端就在于,用户不知道那堆代码是怎么跑起来的,排查和调试都无从下手。

「 好吧,我承认我变菜了,但我至少变快了啊 !」这可能是很多 Vibe Coding 爱好者的最后防线。

很遗憾,Anthropic 的数据再次打脸。报告显示,在完成任务的总耗时上,AI 组和手动组在统计学上没有显著差异:AI 组平均 23 分钟,手动组平均 24.7 分钟。

为什么会这样?我们不是有 AI 加持吗?论文指出了一个被忽视的时间成本:

「 交互税 」。

有些程序员为了让 AI 写出完美的代码,花了大量时间在「写提示词」上 。数据显示,有人甚至花了 11 分钟在跟 AI 聊天,或者在一项 35 分钟的任务里,花了 30% 的时间在构思怎么问问题。

「时价比」不高,花费的时间并没有转换成得分|图源:Anthropic

 

再结合上 Vibe Coding 最短的短板——Debug 困难。AI 组很容易陷入试错式调试(Iterative Debugging) 的循环:AI 生成代码-报错了-把报错丢给 AI:「解决一下这个 bug」-AI 再生成-又报错了……

最后整个工程变成了不可逆转的「屎山黑箱」(「屎山代码」指一种混乱、难以理解和维护的代码状态,「黑箱」则指不知道内部结构的系统)。

在这个过程中,时间一分一秒流逝,而程序员的大脑处于一种「挂机等结果」状态,既没有节省时间,也没有学到东西。

到这儿你可能对 Vibe Coding 祛魅了?别急,这篇论文最精彩的部分,在于它通过录屏分析,把使用 AI 的程序员分成了六种流派。

研究员发现,虽然 AI 组平均分低,但组内方差极大。

有的人「废」了,有的人却「超神」了。区别全在于怎么用 AI 。

 

02

代码没编好,

用户画像倒是有了

 

第一类用户都可以归为「AI 废人」的低分低能组,考试得分极其惨烈,平均分都在 40% 以下(不及格)。

这一大类里还能细分为三个小类,分别是:

  • 甩手掌柜型 (AI Delegation): 直接把题目复制给 AI,「帮我写个函数解决这个问题」,然后 Ctrl+C / Ctrl+V,直接交卷。他们任务完成速度确实最快(平均 19.5 分钟),但学到的东西几乎为零,我奶奶来做都能行。
  • 半途而废型 (Progressive AI Reliance): 刚开始还想自己试试,写了两行发现报错,心态崩了:「算了,AI 你来吧。」然后彻底躺平。
  • 盲目试错型 (Iterative AI Debugging): 这是最典型的「无脑 Vibe」。遇到 Bug 不看回溯,直接把报错扔给 AI。AI 给出的代码看都不看就运行,不对再扔。这是也是最惨的一群人。浪费了大量时间后拿了个低分,完全成了 AI 的「人肉测试员」。

第二类用户就乐观多了,虽然用了 AI,但考试成绩甚至能和手写组持平(65% – 86%),寻找到了人机共生的解决方案。

拿 AI 作「辅助驾驶」的三类人得分更高|图源:Anthropic

 

这一大类里也能细分为三个小类:

  • 打破砂锅型 (Conceptual Inquiry): 他们几乎不让 AI 写代码。 他们只问概念:「为什么要用 await?」「这是什么原理?」搞懂了原理,再自己手写。这是真正的「把 AI 当导师」,而不是当实习生,而且这种 Vibe Coding 也得需要用户真的「懂行」、「会问」。
  • 先斩后奏型 (Generation-Then-Comprehension): 让 AI 写代码,但在复制粘贴之前,他们会追问:「解释一下这行代码为什么这么写?」这么一句,就能让 AI 先自审一遍,自己也能看到 AI 的编程思路,把 AI 的输出转化为了自己的知识。
  • 混合双打型 (Hybrid Code-Explanation): 融合了上面两个类型的特点,会写「请写出代码,并解释每一步的逻辑。」这种提示词,强制 AI 输出推理思维链,让自己跟上 AI 的思路,也便于去 Debug。

为什么用的是同一个 AI,人和人的差距这么大?

或许并不是 AI 废掉了程序员, 而是我们自己在「偷懒」的诱惑面前,主动选择了缴械投降 。

 

03

Vibe Coding 的代价是

 

Anthropic 的这篇报告,其实触及了一个心理学概念:

认知卸载(Cognitive Offloading) 。

即当工具足够强大时,我们会下意识地把原本需要大脑处理的计算、记忆、逻辑推演任务,「卸载」给工具,就像自动驾驶一样。

在 AI 时代,我们正在把「理解力」卸载给大模型。

论文里用了个比喻:AI 就像一副「外骨骼」,当你穿着它时,你力大无穷,能搬起千斤重。但问题在于,肌肉的生长需要负重和撕裂,如果你长期穿着它不脱下来,你的肌肉就会因为缺乏刺激而萎缩。

研究认为,过度依赖 AI 会直接跳过思考过程|图源:Anthropic

 

这篇论文中有一个非常不起眼、但细思极恐的数据: 报错数量 。

手动组在做任务时,平均每人遇到了 3 次报错。所以他们被迫停下来,盯着红色的报错信息,去查文档、去思考「为什么类型不匹配」、「为什么线程没挂起」。

而 AI 组平均每人只遇到了 1 次报错,大多数时候,AI 给出的代码不仅能跑,而且跑得极其顺滑。

AI 组的报错显著少于无 AI 组|图源:Anthropic

 

这听起来是 AI 的优点?不,Anthropic 的研究员指出,这恰恰是问题的根源。

论文明确写道:「 遭遇并独立解决错误,是技能形成的关键一环 。」

手动组之所以学得好,是因为他们经历了「摩擦」。每一次报错,都是现实世界给思维的一次「阻力」。正是为了克服这种阻力,大脑被迫建立了深刻的心理表征(认知心理学术语,指当外部信息进入人脑之后,它会被我们的大脑加工,以一种特别的结构储存在大脑中)。

而 AI 组的体验就太「平滑」了。但代价是,你失去了对地面的「抓地力」:脱下外骨骼,路都不会走了。

这种「AI 过于平滑」的通病,不仅仅存在于编程中,正在蔓延到我们生活的方方面面。

在编程里,它消除了 Debug 的痛苦,让你误以为自己掌控了系统;在创作里,它消除了构思的枯燥,让你误以为自己拥有了创意;在人际关系里,它甚至也在消除「摩擦」 。

就像很多 AI 成瘾的问题,都源自于 AI 永远情绪稳定,永远秒回,永远顺着你的话说,这种极致的「平滑关系」,何尝不是一种 Vibe Social。

 

04

「我行我上」的幻觉

 

Vibe Coding 最迷人也最危险的地方,在于 它制造了一种「快乐但无知」 (Happy but Ignorant) 的幻觉 。

论文中提到了参与者们微妙的心理变化:AI 组的参与者普遍觉得任务「更容易」,「手动组」则觉得任务很难,过程很痛苦。

但反转来得很干脆:那些觉得「容易」的人,在随后的测试中一塌糊涂;而那些觉得「困难」的人,虽然过程煎熬,但自我报告的「学习和成长感」 却更高,分数也更高。

所以 Vibe Coding 让你在写代码的过程中感觉自己是个天才,直到代码报错的那一刻,你才发现自己只是个「睁眼瞎」 。

在面对「未知」时,AI 是公平的,它会平等地「废掉」每一个试图偷懒的大脑,无论这个大脑曾经多么睿智。

研究人员按照编程经验将参与者分成了三层:1-3 年、4-6 年、7 年以上。

结果数据显示,在所有经验层级中,不使用 AI 的组,考试得分都高于使用 AI 的组。

哪怕是资深工程师,在 AI 辅助下得分也低于无 AI 组|图源:Anthropic

 

这意味着,即使你是入行 7 年以上的老鸟,在面对一个全新的技术领域时,如果过度依赖 AI,你的学习效果依然会大打折扣。

当然了,Anthropic 的这篇论文也不是让我们因噎废食,退回到手写代码的时代。

它更像是一份「AI 时代生存指南」。想要不被 AI「废掉」,我们需要改变使用习惯,从报告中的「高分高能组」那里取经:

比如 多问「为什么」,少说「帮我做」 ;哪怕是 AI 生成的代码,也要像审视同事的代码一样,逐行阅读,理解代码逻辑;珍视 Debug 的机会,下次遇到 Bug,试着先自己分析 5 分钟,而不是 5 秒钟后就截图发给 ChatGPT。

AI 确实能让我们跑得更快,但前提是,你得知道路在哪里,以及车坏了该怎么修。

毕竟, 当自动驾驶失效的时候,只有那个还没忘记怎么握方向盘的人,才能救全车人的命 。

展示量: 13

Gemini 3.1 Pro 曝光,能力翻倍价格不变,谷歌想重新定义 AI 竞争规则

作者|桦林舞王

编辑| 靖宇

 

马年「AI 春运」赛程过半,OpenAI、Anthropic、阿里等玩家相继拿出新活儿,现在,Google 也正式加入!

当地时间 2 月 19 日,Google 曝光 Gemini 3.1 Pro 最新模型。

这一次,Google 没有玩什么花哨的概念,直接用数据说话。

在 ARC-AGI-2 这个公认的推理基准测试中, Gemini 3.1 Pro 拿到了 77.1% 的分数 。什么概念?它的前辈 Gemini 3 Pro 只有 31.1%,就连专门用来「深度思考」的 Gemini 3 Deep Think 也只有 45.1%。

77.1% 对比 31.1%, 这不是渐进式改进,这是推理能力的翻倍突破 。

更让人意外的是,Google 选择了一个近乎「反商业」的策略:价格不涨。Gemini 3.1 Pro 保持了与 Gemini 3 Pro 完全相同的定价结构—— 相当于给所有 API 用户免费升级了推理能力 。

JetBrains 的 AI 总监 Vladislav Tankov 在测试后直言:相比之前版本有 15% 的质量改进,「更强、更快……且更高效,需要的输出 tokens 更少」。

这种「暴力美学」式的升级,让我想起了早期 Google 的做派——用技术说话,用实力碾压。

这次,Google 能凭借 Gemini 3.1 Pro,继续惊艳世界吗?

 

01

「.1」版本号的野心

 

细心的人可能注意到, 这是 Google 第一次使用「.1」这样的增量版本号 。

在软件行业,「.1」通常意味着重要的功能更新,但不是颠覆性的架构重构。Google 选择 3.1 而不是 4.0,其实在向市场传递一个信号:

我们还有更大的招数没出 。

Gemini 3.1 Pro 与自家和友商模型数据对比|图片来源:9to5Google

 

从企业客户的反馈来看,这个「.1」的威力确实不小。

Databricks 的 CTO 报告说,新模型在 OfficeQA 基准上取得了「同类最佳的结果」。Cartwheel 的联合创始人更是直接指出,模型对 3D 变换的理解有了「显著提升」,解决了 3D 动画管道中长期存在的旋转顺序问题。

Box AI 的企业评估数据更加直观:在医疗和生命科学领域,准确性从 47% 跃升到 67%;在法律任务中,准确性从 57% 提升到 74%。

这些不是实验室里的跑分游戏,而是真实商业场景中的能力验证。

 

02

AI 竞争进入「推理纪元」

 

如果说过去一年的 AI 竞争是「谁更聪明」的比拼, 那么 Gemini 3.1 Pro 的发布策略,可能正在把游戏规则拉向「谁更划算」 。

在大多数基准测试中,Gemini 3.1 Pro 都领先于 Anthropic 的 Opus 4.6 和 OpenAI 的 GPT-5.2,但价格却是 Opus 4.6 的一半。这种性价比优势,对于大量使用 AI API 的企业客户来说,吸引力是致命的。

一位开发者在社区分享了一个令人印象深刻的案例:他用单个提示让 Gemini 3.1 Pro 构建了一个功能完整的 Windows 11 风格网络操作系统,包括文本编辑器、Python 终端、代码编辑器、文件管理器、绘画应用和可玩游戏。

这种「一个提示解决复杂问题」的能力,正是推理模型的核心价值所在。

当然,Gemini 3.1 Pro 也不是完美无缺。在 GDPval-AA 这个衡量真实世界经济任务的基准测试中,它的得分为 1317 分,明显低于 Anthropic Sonnet 4.6 的 1633 分。这提醒我们,即使是最先进的 AI 模型,在处理复杂现实问题时仍有局限性。

Gemini 3.1 Pro 在设计上也更有「品味」了|图片来源:Google

 

VentureBeat 的分析师一针见血地指出:「Google 加倍投入核心推理和 ARC-AGI-2 等专业基准,表明 AI 竞赛的下一阶段,将由能够思考问题的模型赢得,而不仅仅是预测下一个词。」

这句话道出了当前 AI 竞争的本质变化。

过去两年,我们见证了 ChatGPT 从「会聊天的 AI」进化为「会推理的 AI」,见证了 Claude 从「安全的助手」变成「深度思考的伙伴」。

现在,Google 用 Gemini 3.1 Pro 告诉市场: 推理能力才,是 AI 模型的核心护城河 。

从技术角度看,Gemini 3.1 Pro 与 Google 的新型代理开发平台 Antigravity 深度集成,开发者可以切换不同的「推理预算」,在速度和准确性之间找到平衡。这种灵活性,可能是未来 AI 应用开发的新范式。

从商业角度看,Google 选择「性能翻倍、价格不变」的策略,实际上是在用规模经济对抗技术溢价。这背后的逻辑很简单:我有足够的资源和效率优势,可以用更低的成本提供更好的服务。

这场 AI 军备竞赛,正在从「技术炫技」回归到「商业本质」。

Gemini 3.1 Pro 的发布,让我想起了那个曾经「不作恶」的 Google——用技术改变世界,用创新降低门槛。虽然这家公司在过去几年经历了不少争议,但在 AI 这个关键战场上,它似乎正在找回自己最擅长的节奏。

当然,OpenAI 和 Anthropic 不会坐以待毙。这场推理能力的军备竞赛才刚刚开始。

展示量: 3

困在 AI 里的工作:你没有解放,而是有了更多「任务」

作者| Moonshot

编辑| 靖宇

大概在一个世纪前,经济学家凯恩斯曾满怀希望地预言,随着技术进步和生产力的爆发,人类的孙辈将面临的最大挑战是如何打发闲暇时光, 每周只需工作十五小时 。

当 AI 出现时,我们以为这个愿景要实现了。

过去我们认为,如果 AI 能在 1 分钟内完成过去需要 1 小时的工作,那么我们就会多出 59 分钟的休息或深度思考时间。

但根据 HBR 最新发布的一篇文章,通过对美国一家科技公司 200 名员工长达 8 个月的研究发现,事实并非如此。

AI 并没有让工作消失,它反而让工作变得更密集、更黏稠、更无孔不入 。

 

01

空隙的消失

 

在 AI 介入工作流之前,我们的工作时间其实是有空隙的。

在这家被 HBR 观察的公司里,没有人挥舞着皮鞭强迫员工加班。事实上,公司甚至没有强制要求使用 AI。

但 AI 介入工作流后,员工们开始在午餐时、在会议等待的间隙、在电梯里,掏出手机向 AI 发送一条条工作相关的指令。

结果员工的工作节奏变快了,承担的任务范围变宽了,工作时间也延长到了更多时段。

为什么?因为 AI 太好用了,也太容易使用了。

在过去,开启一项工作是有「物理阻力」的。面对一个空白文档,你需要思考、调动意志力、收拾好环境……这种阻力像一道天然的堤坝,将工作与休息隔开,因此也催生了难以攻克这种阻力的「拖延症」。

在 AI 普及前,「拖延症」是非常大众的一个工作现象|图源:圆圈心理

就像你不会在吃外卖或等电梯时突然开始写代码,因为后者更像是一个严肃的、需要整块时间的工作。

但 AI 抹平了这道堤坝。

输入一行提示词几乎没有任何心理成本, 它感觉不像是在工作,更像是在聊天 。

于是,工作顺着这些被 AI 凿开的裂缝,渗透进了原本属于生活的每一个缝隙。这就是 HBR 文章中所描述的 「边界模糊」 。

而当「开始工作」变得毫无摩擦力时,「停止工作」就变得异常艰难。

那种在工作中自然的呼吸感消失了,取而代之的,是一种持续不断的、低强度的认知介入。

这就如同即时通讯工具普及后,「下班」的概念在事实上消亡了。只要手机还有电有网,我们就默认处于在线状态,我们在工作上做的事情越来越多,时间密度越来越大。

人被直接暴露在「持续输出」的状态里,不再有过渡和等待 。

 

02

任务的扩张

 

更深层的疲惫,来自于一种名为「任务扩张」的诱惑。

HBR 的研究观察到,AI 的介入,让 产品经理开始写代码,研究人员开始做工程,设计师开始干运营 。

因为 AI 提供了一种虚幻的「全能感」,它填补了技能的鸿沟。许多员工抱着「试一试」的心态,不知不觉地承担了那些原本属于他人、或者原本会被外包、甚至原本会被放弃的任务。

这听起来很励志,像是在职场完成了「斜杠青年」的自我成长。但站在社会学的冷峻视角下, 这其实是一种极度的自我剥削 。

德国社会学家哈特穆特·罗萨在《新异化的诞生》中曾精准地指出,现代社会的逻辑是「动态稳定」。就像在跑步机上,你必须不断加速奔跑,才能仅仅保持在原地。

写于 AI 爆发前期的书,却预言了 AI 带来的结果|图源:豆瓣

 

AI 加剧了这种跑步机效应。当「能不能做」的门槛被技术拉下来后,「做不做」就变成了新的压力。

如果一个产品经理能够用 AI 生成代码,那么在组织的隐性期待中,他就应该去写。

而且效率的提升,会直接转化为任务扩张,生产力红利也会被制度吃掉。

于是,职责的边界被溶解了。每个人都在向外扩张,每个人都变得更加忙碌。HBR 将这种现象称为「 隐形的工作量蔓延(Workload Creep) 」。

而且这种忙碌往往是低质量的,工程师们不得不花更多时间去审查、修正那些由半吊子同事用 AI 生成的代码。

这种蔓延在最初的兴奋期过后,留给员工的是深深的倦怠和判断力的枯竭。

你以为你在利用 AI 的无限能力,其实是 AI 带来的无限可能性 , 在透支你有限的精力 。

 

03

速度的暴政

 

为什么明明有了能节省时间的工具,我们却不敢休息?

这里,罗萨的理论为 HBR 的观察提供了一个视角:技术加速并没有带来时间的富余,因为「任务量的增长速度」永远高于「效率的提升速度」。

换言之, 技术加速从来不会自动转化为时间盈余,它往往引发的 , 是社会节奏的整体上调 。

这些节奏的变化,在快递、外卖这种以速度为指标的行业中最为明显,但也早已渗透进了其他行业。

在 HBR 的案例中,工程师们发现,虽然写代码快了,但他们并没有因此早下班,因为社会系统立刻用更多的需求填满了节省下来的时间。

比如以前一天能做两个方案,现在 AI 帮你做到了十个,那么十个瞬间就成了新的及格线。

在这个层面, AI 并没有消灭内卷,反而强化了它 。我们陷入了一种「速度的暴政」。在这种语境下,慢不仅是低效的,更近乎一种不道德。

这种加速不仅仅是物理时间上的,更是心理层面的。

当机器的时间逻辑成为默认节奏,人类就被迫向这种节奏靠拢。原本属于人的迟缓、犹豫、酝酿,就会被视为低效甚至不专业。

于是速度开始具有道德含义,慢开始变成工作能力不足,这也就是罗萨所说的「速度的暴政」。

 

04

新型的异化

 

而当 AI 可以在后台 24 小时并行处理任务时,你也得被迫进入一种「多线程并发」的状态,开始一边开会,一边让 AI 生成摘要,一边让另一个 AI 跑数据。

这种状态被 HBR 描述为「 有了伙伴的错觉 」。你觉得有人在帮你,这种势头推着你往前走。

但代价是你从一个「创造者」变成了一个「监控者」。

角色切换了,工作量并未减少,你需要不断地切换上下文,去检查 AI 的产出,去警惕它的幻觉。这种「监工」的角色,需要的不是流淌的心流,而是时刻紧绷的警惕。这往往比自己亲手做还要消耗心神。

科技加速最终将传递为生活节奏的加速|图源:新异化的诞生

用罗萨的理论来说, 我们正在经历一种由技术发展所带来的新型异化 。

马克思时代的异化,是工人与产品分离。

AI 时代的异化,是人与「过程」分离 。

我们不再从头到尾地从泥土中调和、捏造、烧制一个罐子,我们只是对着空气喊了一句咒语,罐子就出现了。

而罗萨认为,人类与世界的「共鸣」往往产生于克服阻力的过程。

当你费尽心力斟酌一个句子的措辞,或者在一行行代码中排查出一个隐藏极深的 Bug 时,你与你的工作对象之间存在着一种「摩擦」。这种摩擦是痛苦的,但克服它的过程,也是你将自我的生命力注入对象的时刻。

AI 让我们失去了与物质世界「摩擦」的质感,也失去了在克服困难中确认自我的机会 。

那么,我们注定要在这条跑步机上跑死吗?

面对这种困境,HBR 在文章的最后,试图给出一剂解药:

建立「AI 实践规范」 。

他们建议企业设立「刻意的停顿」,进行「任务定序」,回归「人本联结」。

这些建议无疑是理性和善意的,但在一个以增长为信仰的商业世界里,要求企业主动降速,这是是一种悲壮的理想主义。

但作为个体,我们必须看清这其中的荒谬。

如果我们无法定义什么是「足够」,那么任何工具的进步,最终都会变成加在我们身上的枷锁 。

我们需要重新夺回那种「笨拙」的权利。在某些时刻,刻意地拒绝 AI 的辅助,去忍受空白文档的煎熬,去忍受查找资料的繁琐,去忍受思考的停滞。

凯恩斯预言的悠长假期并未如期而至。

而现在,连我们脑中的休息时间都已难以暂停。

展示量: 4

10 亿美元融资!李飞飞「世界模型」公司估值 50 亿美元

作者|桦林舞王

编辑| 靖宇

今年的「机器人春晚」的余震,依然在舆论空间回响。在春晚舞台上积极亮相的机器人产品,多少让人误以为它们可能即将在一夜之间,进入千家万户。

和春晚一样火热的,是投资人对于「具身智能」这个风口的狂热。

根据彭博最新消息, 「AI 教母」李飞飞的 World Labs 刚刚拿到了 10 亿美元融资 ,投资者包括 Autodesk、英伟达等一系列巨头。

这波巨额融资,明示巨头押注「具身智能」和「世界模型」的决心。

 

01

从 10 亿到 50 亿,「AI 教母」估值狂飙

 

时间倒回到 2024 年,World Labs 刚刚完成 2.3 亿美元融资,估值 10 亿美元。当时外界对这家公司的认知还停留在「李飞飞的新创业项目」层面。

短短一年半时间,估值飙升 5 倍。这种增长速度即使在 AI 领域也极其罕见。更值得关注的是投资方阵容: Autodesk 砸下 2 亿美元,Nvidia、AMD、a16z、Fidelity 等巨头纷纷入局 。

「这不是基于『AI 教母』个人光环的投资,而是资本对 World Labs 及其世界模型方向的重新定价。」一位接近交易的投资人透露。

估值狂飙的背后,是 World Labs 产品化进展的加速。

World API 界面|图片来源:World Labs

今年 1 月,公司正式推出「World API」,为开发者和机器人公司提供大型世界模型的 API 接入。业内人士称之为 「3D 空间推理的 GPT-2 时刻」——一个标志性的产品化节点 。

更关键的是,World Labs 找到了明确的商业化路径。

Autodesk 首席科学家透露,两家公司将在专业创意工具层面深度整合:「客户可能先用 World Labs 的世界模型构建办公室布局草图,然后在 Autodesk 技术中钻研桌子设计等具体细节。」

这种 B2B 合作模式让投资人看到了清晰的变现前景。

不同于 OpenAI 面向 C 端用户的策略, World Labs 选择了更加务实的企业服务路线 。

 

02

世界模型的「GPT 时刻」来了吗?

 

如果说 ChatGPT 开启了大语言模型的「iPhone 时刻」,那么世界模型何时迎来自己的高光时刻?

从技术角度看,世界模型已经具备了突破的基础条件。

World Labs 的核心产品 Marble 能够从图像、视频或文本创建空间一致、高保真的 3D 世界,并且支持 USD 等标准 3D 格式输出。 这意味着生成的内容可以直接导入游戏引擎、设计软件,而不是像其他视频生成模型那样只能输出「黑盒」结果 。

World Labs 的 Marble Labs 中可以创建空间|图片来源:World Labs

Nvidia CEO 黄仁勋的判断更加直接:「世界基础模型对物理 AI,就像大语言模型对生成 AI 那样基础。」这个类比暗示,世界模型可能成为下一代 AI 应用的底层操作系统。

但理想与现实之间依然存在鸿沟。李飞飞多次强调,数据与评测是具身智能 scaling 的根本约束。与大语言模型可以用海量文本数据训练不同,世界模型需要的是, 高质量的 3D 空间数据和物理交互数据,这些数据的获取成本和标注难度都要高出几个数量级 。

World Labs 与光轮智能等公司的合作,正是为了解决「规模化评测」这个关键瓶颈。如何构建一个可靠的仿真环境来评测机器人的空间智能水平,这个问题比生成漂亮的 3D 场景要困难得多。

 

03

13 亿美元涌入,世界模型赛道火热

 

World Labs 的 10 亿美元融资并非孤例。2026 年初至今,已有超过 13 亿美元融资流向世界模型初创企业。

这场竞赛的主要玩家包括:AMI Labs(由 Yann LeCun 创立,寻求 30 亿欧元估值)、World Labs(李飞飞创立,50 亿美元估值)、以及 Google DeepMind 的 Genie 3 项目。每一家都代表着不同的技术路线和商业化思路。

资本的疯狂涌入反映了一个共识:AI 正在进入新的发展阶段。 如果说过去几年是「语言智能」的天下,那么未来的竞争焦点将转向「空间智能」和「 具身智能 」 。

Google 前阵推出的 Genie 3 能做出直接操作的 3D 空间,让 Unity 等引擎公司股价暴跌|图片来源:Google

但也有分析师提出警告:「从 10 亿美元到 50 亿美元估值的增长,反映了投资者对前沿 AI 交易的激烈竞争,也突出了 AI 领域估值变化有多快——即使公司还没有大规模商业化产品。」

这种估值泡沫的担忧并非空穴来风。

World Labs 目前的主要产品还处于 API 阶段,距离大规模商业化应用仍有距离。关键问题是:投资者想看 World Labs 如何将科学雄心转化为清晰的商业采用。

 

04

从实验室到产业,路还有多远?

 

尽管融资金额创下纪录,但 World Labs 面临的挑战依然严峻。

技术上的挑战。世界模型要真正应用于机器人和自动驾驶, 不仅要生成视觉逼真的场景,更要保证物理规律的准确性 。一个轻微的物理建模错误,在真实世界中可能导致机器人撞墙或自动驾驶事故。

成本也是难题。训练世界模型需要海量算力和数据, Nvidia Cosmos 已经用 9000 万亿个 tokens 从 2000 万小时真实世界数据中训练,这样的成本投入只有少数巨头能够承担 。World Labs 如何在成本控制和性能提升之间找到平衡点?

生态挑战可能是最大的挑战。与大语言模型有丰富的下游应用不同,世界模型的生态还处于起步阶段。开发者需要时间学习新的 API 接口,企业客户需要时间验证 ROI,这个过程可能比预期更长。

不过,Autodesk 2 亿美元的投资释放了一个积极信号—— 至少在专业设计领域,世界模型已经找到了愿意买单的客户 。这可能成为 World Labs 商业化的重要突破口。

说到底,这场 10 亿美元融资背后的真正赌注,不是李飞飞的个人声誉,而是整个 AI 产业向物理世界拓展的历史趋势。无论 World Labs 能否兑现 50 亿美元的估值期望,世界模型这个方向本身已经不可逆转。

当 AI 开始理解空间、模拟物理、预测未来,我们离真正的「人工通用智能」也就更近了一步。

只是这一步,可能比想象中更昂贵,也更漫长。

展示量: 7

文章分页

上一页 1 … 4 5 6 … 823 下一页

Copyright © 2024 51蛙吖蛙 – 3D社交空间