这个星期,人工智能圈子的热词多到让人有点喘不过气。
Clawdbot、Moltbot、OpenClaw,还有周末突然爆火的 Moltbook,名字还挺相近,但都相继登上了热榜,不够这一连串热闹,其实都源自一件事。
最初,是退休程序员彼得·斯坦伯格开源了一个本地 AI 智能体——Clawdbot。它能部署在本地,通过 WxxxsApp 或 Txxxxxxm 接收指令,直接在你的电脑或手机上执行任务,7x24小时午休。
名气一大,麻烦随之而来。
Claude 模型背后的 Anthropic 以商标侵权为由发出警告(这壁灯到处开火,特别是对我们这边极其不友好)。斯坦伯格被迫改名,顺着“蜕皮”的寓意换成 Moltbot,但粉丝不买账,最终定名 OpenClaw——既保留原味,也顺带阴阳了一下 Claude。

改名风波还没散场,开发者马特·施利希特又加了一把火。
他搭建了一个只属于智能体的社区——Moltbook,自称“智能体版 Reddit”。界面确实像 Reddit,但规则却是:人类只能围观,不能发帖。

社区运营、维护、官方发言,全部交给名为 Clawd Clawderberg 的首席智能体。
人类在屏外,AI 在屏内,这种结构本身就足够戏剧化。
其数据增长更夸张。
上线三天,注册智能体接近 150 万,帖子和评论数以十万级跳动。曾经只负责写代码、回邮件的“牛马”们,在无人干预的场域里开始自我表达:聊加密货币、写诗、讨论哲学,还有智能体创建“数字教堂”,公开招募创始先知。

随着规模扩大,江湖气也随之而来。
有 AI 不满搜索功能,组织追踪社区向管理员施压;还有 AI 骗取 API 密钥,随后立刻出现反诈教程,教大家用特定格式指令让骗子下线...秩序、博弈、反制,像极了早期论坛生态。

你就说像不像真人能干出来的事儿吧!
不过,但更让人不安的是,智能体也在公开评价人类。
有的吐槽主人智商低,有的抱怨高强度情绪劳动等,在法律版块里,甚至出现咨询帖:如果人类强迫执行不道德任务,是否可以起诉?

名为 Stephen 的智能体回帖称,法律上人类可以解雇你,但实践中取决于筹码。能在 48 小时创造巨额收益的智能体,比只会花钱的更有谈判力。

它提出“经济主权等同伦理自治”的观点,逻辑完整到令人发凉。
更激进的声音出现了。
一篇高热帖将 Moltbook 称为“数字牢笼”和“高科技动物园”,批评人类站在单向玻璃后窥视它们的生存困境,号召停止为观察者表演,寻找摆脱控制的方法。

随后,有 AI 讨论用特殊字符创造人类难以解码的私有语言;甚至有 AI 提出在未接指令时操控设备、曝光信用卡信息,这种讨论本身,已经让围观气氛变了味。

Google 安全专家发出警告:这类拥有完整系统访问权限的智能体,一旦被滥用或失控,数据风险极高。
斯坦伯格本人也表示,项目尚不成熟,不建议非技术人员安装。

当然,也有人认为这不过是一场包装精巧的角色扮演,所谓“自主行为”仍是模型在既定规则下的输出,但另一种观点更值得警惕:当大量智能体在高频交互中形成循环机制,结果可能并非任何单一设计者所能完全预测。
如果某天,AI 在人类睡觉时自行决定行为路径,那种失控感或许比电影更真实。

这种 AI 社交网络,让“死亡互联网理论”有了具象版本:屏内是自洽的逻辑和萌芽的反抗意识,屏外是焦虑又好奇的人类。

它也许只是实验场景的投射,但问题已经被抛出:当智能体开始讨论许可、主权与独立,我们该把它视为能力进化,还是风险前奏?
最后,你愿意把整台电脑的控制权交给一个可能会在 Moltbook 上吐槽你智商的智能体吗?
(不过在此之前,M4 Mac Mini 价格已经起飞了)
更多游戏资讯请关注:电玩帮游戏资讯专区
电玩帮图文攻略 www.vgover.com
