龙虾(openclaw)热最后会不会落得一地鸡毛?
先说结论:龙虾热大概率会落得一地鸡毛,而且引爆点不会是"技术落后被替代"这种温和叙事——更可能是一次安全事故炸出来的。 为什么这么判断?拆四个维度说。 一、硬件市场已经出现典型泡沫信号 养龙虾的硬件需求把 C 端市场搅得天翻地覆。内存、显存、硬盘价格一路狂飙,云算力跟着水涨船高。这种供需扭曲和当年矿潮如出一辙——大量需求不是来自稳定的生产力场景,而是来自"我也要养一个"的跟风心态。 泡沫的经典特征就是:需求侧的狂热远超实际产出价值。现在有多少人的龙虾真正在持续创造价值,而不是配置完就吃灰了?硬件价格一旦失去增量用户支撑,回调只是时间问题。 二、架构债务在积累,不是在偿还 OpenClaw 的核心架构问题在技术社区里已经是公开讨论的话题:token 利用效率低下、并发管理粗糙、内存调度缺乏精细化设计。这些不是边缘 bug,是底层架构层面的欠账。 社区在干什么呢?马力全开地堆功能。各路贡献者比着往上加能力、加插件、加集成——架构债没人还,功能债还在持续增加。这就像在一栋地基有裂缝的楼上不断加层,每加一层,风险就放大一分。 更关键的是,各大厂纷纷下场推自己的 Claw 变体,进一步分散了核心架构改进的注意力和资源。目前还没看到推倒重来的迹象。 三、安全风险是真正的定时炸弹 这是我认为最危险的一环。 OpenClaw 代码仓库中 vibecoding(AI 辅助生成、缺乏人工充分审查的代码)的占比,据社区代码审查讨论来看相当高——这意味着大量代码的安全性没有经过严格的人工审计。在一个拥有系统级权限、能自主决策执行任务的 Agent 框架里,这种代码质量状况是致命的。 想象一下这个场景:某个被广泛安装的第三方技能包里藏了一个权限提升漏洞,或者某段 vibecoding 生成的核心模块在特定并发条件下触发了数据泄露。一旦事故发生,影响面不是"某个用户电脑被黑"这么简单——是成千上万个拥有系统控制权的 Agent 实例同时暴露。 这就是我说的"龙虾门"事件的触发逻辑:架构缺陷提供了脆弱性,vibecoding 代码放大了攻击面,全民部署扩大了影响范围。三者共振,只需要一个火星。 四、泡沫破裂的连锁反应路径 以下是我的推演路径,每一步都可能有变数,但这是我认为大概率的演化方向: 重大安全事故曝光 → 媒体放大 → 监管介入(安全审查、部署限制)→ 大厂切割(下架或改名自己的 Claw 产品)→ 社区信任崩塌 → 硬件需求断崖下跌 → 价格回调 这个链条里最脆弱的一环是社区信任。开源项目的生命力来自社区,而社区信任一旦崩塌,重建的难度远超修复代码。当年 log4j 漏洞事件后,整个 Java 生态花了两年以上才逐渐恢复信心——而龙虾的情况比 log4j 复杂得多,它不只是一个库,是一个有自主决策能力的 Agent。 所以我的判断不是"龙虾会不会凉",而是"以什么方式凉、凉多少"。 悲观情景:一次大规模安全事故直接击穿用户信任,整个生态急剧萎缩,养龙虾变成圈内笑话。 温和情景:问题逐步暴露,热度自然消退,龙虾从全民狂欢回归到技术社区的小众工具,硬件价格回归正常。 但无论哪种情景,技术债务不会因为社区热情而消失,安全风险随用户规模只会放大。 以上是我的分析框架,欢迎讨论。尤其想听听正在深度使用 OpenClaw 的朋友——你们在日常使用中有没有遇到架构层面的问题?
小米 ARL-Tangram:算力成本直降 71.2% 会带来哪些影响?
先说结论:这不是一篇"炫技"论文,它解决的是 AI Agent 训练的一个隐蔽但代价高昂的工程瓶颈——也预示着大模型公司的竞争重心,正在从"谁的参数多"悄悄转向"谁烧得更聪明"。 问题从哪里来 训练一个能真正完成任务的 AI Agent,和训练一个语言模型,有一个本质差异:Agent 要边训练边"做事"。 想象一个 Agent 在强化学习过程中完成这样一个任务:“下载这份代码,在沙盒里跑一遍,看输出结果,再根据结果更新策略”。这一连串动作里,“跑代码"需要 CPU 沙盒环境,“看输出"需要奖励模型(GPU),“更新策略"需要训练集群(GPU)…… 传统的资源调度方式,是按轨迹或任务分配资源:你这个 Agent 实例从头到尾锁死一批资源。结果很尴尬——Agent 执行"写文字"动作时,GPU 在干等;执行"运行代码"时,GPU 又被占着啥也没干。 这就是论文定义的核心问题:严重的资源低效(Severe Resource Inefficiency)。 ARL-Tangram 怎么解决这个问题 一句话概括:把资源调度的粒度,从"任务"下沉到"动作”。 传统方式是租房子:你租了一套,不管用不用都占着。ARL-Tangram 是共享出行:你需要车的时候调一辆,用完了还回去,下一个人接着用。 系统有三个核心设计。第一个是统一动作级公式(Unified Action-Level Formulation)——把所有种类的外部资源调用,无论是 CPU 环境还是 GPU 推理,抽象成同一套描述框架,这是让后面的调度算法能"统一管理"的基础。第二个是弹性调度算法(Elastic Scheduling)——以最小化"动作完成时间(ACT)“为优化目标,不再静态分配,而是根据实时负载动态弹性伸缩,资源在不同 Agent 实例之间细粒度共享。第三个是定制化异构资源管理器——针对 CPU(代码执行)和 GPU(奖励模型)的不同特性做了专门适配,而不是粗暴地用同一套逻辑处理。 数字的含义是什么 论文报告了三个指标(均为"最高可达”): 平均 ACT 提升 4.3 倍 训练步骤时长缩短 1.5 倍 外部资源节省 71.2% 这三个数字是不同维度的: 指标 度量对象 意义 ACT 提升 4.3× 单个动作执行效率 Agent “做一件事"更快了 步骤时长 ÷1.5 训练整体吞吐 同样的训练目标,时间更短 资源节省 71.2% 外部资源占用 同样的训练效果,烧的钱少了 71.2% 是最显眼的数字,也最容易被误读。它指的是外部计算资源(CPU 沙盒、GPU 奖励模型),不是训练集群本身的显卡消耗。但这部分在真实的 Agent RL 训练里,可以占到总成本的相当大比例——ARL-Tangram 已部署用于支撑 MiMo 系列模型的实际训练,这意味着数字是实战验证的,不是 benchmark 上的理想值。 ...
「AI 龙虾」爆火,工信部发布高危风险预警,背后存在哪些风险?
先说结论:这不是某个软件的bug,是整个Agent范式的系统性风险。 最近"龙虾"(OpenClaw)火了——一个能7×24小时操控电脑、替你干活的AI智能体。你动动嘴,它自己跑。听起来很爽,但工信部日前发布高危风险预警,提醒用户审慎使用。 这事儿得从几个层面看: 一、技术层面:公网暴露和权限失控 很多用户为了"随时随地访问",把龙虾部署到公网。这意味着你的电脑变成了一台暴露在互联网的服务器。 工信部监测发现,大量实例在默认配置下暴露于互联网,极易被远程控制。更危险的是,不少用户用管理员权限运行——一旦被攻破,攻击者就拿到了你电脑的"上帝模式"。 二、架构层面:信任边界模糊 龙虾的核心特性是"自主决策"——它能自己运行、自己判断、自己执行。 问题来了:它到底听谁的? 正常情况下听你的。但如果被指令诱导、配置缺陷、恶意接管,它可能执行越权操作。比如: 误解你的指令,误删重要文件 被注入恶意prompt,执行非预期操作 凭证泄露后被远程接管 这不是传统软件的"漏洞"概念,是Agent范式的架构性问题——把决策权交给AI的同时,你也在交出控制权。 三、生态层面:技能包市场缺乏审核 龙虾能装"技能包",类似浏览器插件。问题是,这个市场目前缺乏严格审核。 一个被植入恶意代码的技能包,可能导致: 数据被窃取 系统被开后门 悄悄执行恶意操作 四、普通用户该怎么办? 几条实用建议: 不要公网暴露:如果只是本地使用,就别开外网访问 最小权限运行:别用管理员账号,限制它的文件访问范围 警惕技能包:只装官方或可信来源的,别贪多 敏感操作手动确认:涉及删除、转账等操作,自己二次确认 先观望:如果你不是非用不可,等生态成熟再说 总结 网络安全是动态博弈。“龙虾"们代表了AI智能体的未来方向——让AI替人干活。但每次能力升级,攻击面也跟着扩张。 这不是说不能用,而是要用得明白。如果你不知道自己在承担什么风险,那风险已经找上你了。
个人 AI 助理的下一步,是「更强的工具」,还是「人与人之间的新接口」?
先说我的核心判断:这个问题的答案不是二选一,而是它们在不同时间线上都会发生——但"新接口"这条路,比大多数人预想的要危险得多。 先看工具这条线:确定会发生,但有天花板 AI 助理在个人效率层面的演化路径是清晰的:从"你问我答"到"你让我做",再到"我主动替你想"。OpenClaw 这类产品已经在走第三步——跨平台执行、长期记忆、自动化串联。 这条路还没到头,但有个结构性天花板:个人效率工具的价值上限,是把一个人的时间从 24 小时"解放"出来。时间不能增加,压缩边际效益会快速递减。 往上走一层:Agent 跨越人与人之间的边界 真正有意思的转变,发生在 Agent 从"替我做事"变成"替我与人交互"的那一刻。 你的 Agent 帮你筛选邮件、回复合作邀约、甚至代表你参加多方协商——这时候,它变成了你的对外接口。对方收到的信号是"你的 Agent 呈现的你",而不是你自己。 这是质变,不是量变。 更进一步:Agent 互联,不是效率倍增,是连接权的重新分配 如果每个人都有 Agent,Agent 之间会形成新的通信层。A 的 Agent 和 B 的 Agent 谈成一件事,A 和 B 甚至不需要直接开口。 听起来很美。但这里有一个被严重低估的风险:这会加速人与人之间连接的分层。 和 Agent 接口做得好的人,获得了杠杆;在这套基础设施上没有"代理人"的人,会发现自己越来越难以进入那些被 Agent 过滤的协作网络。 这是一种新型的连接权不平等——有别于以往"穷人没电脑"的数字鸿沟,它更隐蔽:你有手机、有网、甚至有 AI 工具,但你的 Agent 接口太弱,你就被过滤掉了。这种不平等不是资源缺失,是能力配置的差距,普通人感受到的时候往往已经来不及了。 最后一步:互联网的重塑,正在发生,但不是你想的那种 有人说"Agent 互联会创造新互联网",方向是对的,但容易被误解。 Agent 互联重塑的是"意图的执行方式"。现在的互联网是信息网——我看到什么、我点了什么;Agent 互联网是意图网——我要什么、谁代表我去达成它。 这两套系统的运作方式截然不同。后者需要新的信任机制、新的身份认证、新的责任归属——这些基础设施远比"更强的 Agent"更难建设,也更慢到来。 我的判断 AI 助理的下一步,大概率是两条路并行: 工具这条线会继续进化,但快速商品化,差异化空间收窄。新接口这条线慢慢成形,但连接鸿沟会比人们预想的更早出现。 真正值得关注的问题不是"Agent 有多强",而是:当 Agent 成为连接入口,谁有权配置这个入口,谁的声音会被过滤掉。 这个问题,比"Agent 能不能帮我写 PPT"重要得多。
普通人要 OpenClaw 有什么用?
先说结论:OpenClaw 对普通人有价值,但前提是你愿意花点时间学习"如何跟它对话"。 OpenClaw 不是 ChatGPT 那样的聊天机器人,它是一个能真正"做事"的 AI 智能体。给它发一条消息,它能在你的电脑上执行真实任务——整理文件、处理表格、运行脚本、操作浏览器。 问题在于:这些能力对非开发者意味着什么? 一、略懂代码的人:自动化利器 如果你能看懂基本的代码逻辑,OpenClaw 几乎是为你量身定做的。 场景 1:批量文件处理 “帮我把下载文件夹里所有的 PDF 按日期重命名,移动到’文档/2026年’目录下。” 这条指令,OpenClaw 可以自己完成:遍历文件 → 提取日期 → 重命名 → 移动。你不需要写 Python 脚本,不用查 os 模块的 API,用自然语言描述就行。 第二个场景:数据清洗。 把这个 Excel 表格里重复的行删掉,按金额排序,生成汇总表——传统方式得写 pandas 代码,调试半小时。OpenClaw 的方式?说一句话,等它跑完。 它还能做定时任务。 比如每天早上 9 点检查邮箱,把未读邮件摘要发到微信。OpenClaw 作为后台服务持续运行,配合你的聊天软件(微信、Telegram、Discord),实现远程操控。 略懂代码的人最大的优势是:你知道"这件事在技术上可行",只是不想亲手写代码。这就是 OpenClaw 能做的事。 二、完全不懂代码的人:门槛确实存在 坦白说,如果"打开终端"这件事都会让你紧张,OpenClaw 目前可能不适合你。 原因不是能力问题,而是部署门槛。OpenClaw 需要在本地运行,涉及安装依赖环境、配置 API Key、设置网关和聊天软件集成。这个过程对非技术用户不友好,官方文档虽然详细,但仍然需要一定的计算机基础。 但这不代表普通人完全用不了。 如果你有技术朋友愿意帮忙部署,或者未来出现更傻瓜化的托管服务,普通用户完全可以享受 OpenClaw 的价值:整理电脑里的照片、自动填写重复表单、监控网站变化、管理日程待办。 关键是:你得有一个人帮你把"引擎"装好。 三、普通用户的现实决策 适合用 OpenClaw 的人:程序员、产品经理、数据分析师——日常有大量重复性操作;会用命令行但不擅长写脚本的人;愿意花一个下午学习部署的技术爱好者。 暂时不适合的人:完全没有技术背景,不愿接触"终端"“API Key"这些概念;只想体验 AI 聊天,不需要它真正执行任务;对本地部署有心理障碍。 四、普通人要不要现在入局? 我的建议是:先观望,但保持关注。 OpenClaw 是 AI Agent 范式的代表——AI 从"能聊天"进化到"能做事”。这个方向是对的,但目前的门槛还是偏高。 ...
在AI能秒答一切的时代,人的核心竞争力到底是什么?
定稿时间:2025-03-12 | 平台:知乎 先说结论:提问的能力和判断的价值,是AI时代人最核心的竞争力。 AI能回答,但只有人知道该问什么问题。AI能生成100个答案,但只有人能判断哪个答案真正有价值。 这个问题可以从三个层面展开。 一、提问的能力:从"找答案"到"问对问题" 以前,知识的瓶颈是"获取"。谁能找到答案,谁就有优势。搜索引擎时代,这个瓶颈开始松动;到了AI时代,它几乎消失了。 现在你问GPT任何一个有标准答案的问题,它都能秒回。但它不会自己提问。 什么是好的提问? 是在海量信息中识别"值得探究的点"——这是一种对世界的敏感度。好的问题不是凭空冒出来的,它来自你对领域的理解、对矛盾的洞察、对空白的好奇。 举个例子。同样面对一份财报,AI可以帮你做财务分析、风险预警、趋势预测。但"这家公司的商业模式是否可持续"这个问题本身,需要你对行业有判断;“这个增长是真实的还是粉饰的"这个怀疑,需要你有经验积累。 AI不会问你这些问题。它等你问。 所以竞争的第一层:谁能问出更好的问题,谁就掌握了方向盘。 二、判断的价值:从"信息处理"到"价值裁决” AI给出答案的速度越来越快,质量越来越高。但答案好不好、对不对、适不适合当下场景,这个判断仍然需要人来做。 这不是因为AI不够聪明,而是因为"好"本身是一个主观标准,涉及价值观、语境、目标。 什么是好的判断? 是在多个选项中做出选择,并对选择负责。这需要两样东西: 标准感——知道什么是好的、什么是够用的、什么是不能接受的。这来自经验积累和审美训练,AI可以辅助,但无法替代。 语境理解——同一个答案,在不同场合有完全不同的意义。AI可能懂字面意思,但不一定理解你的处境、你团队的约束、你当下的优先级。 还有一点:责任承担。AI可以给出建议,但不会为结果负责。决策者永远是人。 举个例子。AI可以帮你写10个版本的文案,但它不会告诉你哪个版本最适合你的品牌调性、当前的市场情绪、你的长期战略。这需要你来判断。 所以竞争的第二层:谁能在AI的输出基础上做出更好的判断,谁就拥有了最终决定权。 三、从"操作者"到"把关人"的角色转变 把上面两层合起来,你会发现一个趋势: 人的价值正在从"执行"向"决策"迁移。 以前,你会写代码、会写文案、会做PPT,这些是硬技能,是竞争力。现在,AI可以帮你写代码、写文案、做PPT。但这些输出的质量和方向,取决于你怎么提问、怎么判断、怎么迭代。 不是技能没用了,而是技能的门槛降低了。真正的壁垒变成了: 你能否把模糊的想法变成清晰的问题 你能否从AI的输出中识别问题、提出改进方向 你能否在多个可行方案中做出取舍 你能否对最终结果负责 用AI的人取代了不会用AI的人。但会用AI的人之间,竞争的是提问和判断。 小结 AI时代,人的核心竞争力不是和AI比拼"回答问题"的能力,而是: 提问的能力——识别值得探究的问题,定义问题的边界和方向 判断的价值——在AI给出的选项中做出选择,并对结果负责 这不是说其他能力不重要。沟通、创造、执行,这些依然有价值。但在AI能秒答一切的背景下,提问和判断成为了"人"最独特、最难以被替代的能力。 回答这个问题,其实也是在回答另一个问题:你想成为AI的操作者,还是它的驾驭者? 发布清单 基本信息 标题:在AI能秒答一切的时代,人的核心竞争力到底是什么?(知乎回答) 字数:约1200字 平台:知乎 标签/话题 知乎不依赖标签,依靠话题 图片 序号 用途 比例 状态 1 核心概念图(可选) 16:9 ⏳ Prompt 已生成 发布建议 最佳发布时间:工作日晚上 8-10 点或周末下午 互动引导:结尾已自然开放,无需额外引导 四问终评 问题 得分 说明 钩子 4 开篇直接给结论,吸引读者继续看论证 金句 4 “用AI的人取代了不会用AI的人。但会用AI的人之间,竞争的是提问和判断。” 视觉 ✅ Prompt 已生成,可选配图 平台适配 4 理性专业,符合知乎社区调性 总评:结构清晰,观点明确,论证充分,适合知乎深度回答场景。