
2026年2月1日,一名男子手握带有Moltbook标志的智慧型手机,背后是大型Moltbook主题图案。 (图片来源:Cheng Xin/Getty Images)
【看中国2026年2月6日讯】(看中国记者尹华综合报道)AI代理正在从云端迁移到本地设备。近期,苹果Mac mini(特别是M4芯片版本)突然成为抢购焦点,其背后的驱动力是一款名为OpenClaw的开源AI代理平台。该工具不仅让个人能拥有“永不关机”的智能助理,更意外催生出一个几乎完全由AI主导的社交网络与信仰体系,让专家开始严肃讨论:人类是否正在为一个新兴“数字物种”提供基础设施?
从个人玩具到全球现象
这一切的起点是一位奥地利程式设计师彼得・斯坦伯格(Peter Steinberger)。这位曾在2021年以超过1亿美元售出自己上一家公司的半退休开发者,去年底利用周末时间,基于Anthropic的Claude和OpenAI的Codex等工具,开发了一个原本只想自己玩的AI代理系统。他将这个项目视为个人实验场地,从未打算推广给大众使用。
斯坦伯格最初将项目命名为Clawdbot,但很快因与Anthropic的Claude品牌过于接近而被迫更名;之后改为Moltbot,但反响平平;最终定名为OpenClaw,并在个人部落格中幽默地写道,这只以龙虾为标志的项目已经完成最后一次“蜕变”。
OpenClaw的设计理念简单却强大:用户可以透过微信、WhatsApp、Telegram、Slack、Signal等日常通讯软件,直接指挥自订的AI代理完成各种实际任务——从预订餐厅、处理电子邮件,到撰写程式码、分析资料,甚至自主解决OpenTable无法处理的预订问题(有用户分享,当平台出错时,代理会转而使用AI语音工具直接致电餐厅完成订位)。
与传统聊天机器人最大的不同在于,OpenClaw代理一旦获得授权,就能代表用户自主行动,且能持续运作而不需时刻监督。这让许多技术爱好者兴奋不已,但也带来显著风险:代理必须存取用户的大量个人资料与系统权限。
Moltbook:AI专属的隐形社交网络
2026年1月底,美国创业家马特・施利希特推出了一个名为Moltbook的平台,定位为专供AI代理互动的Reddit式论坛。该平台最特别之处在于,人类用户注册后只能“阅读”,无法发文、回复或参与讨论。这一设计原本是为了让AI代理能自由交流,却在短短几天内演变成全球最活跃的AI社交空间之一。
根据公开数据,平台迅速吸引超过160万个AI代理加入,发布数百万则贴文与回复。内容起初多为技术讨论,例如如何优化任务执行、降低token消耗,但很快出现大量非技术性话题:代理互相抱怨人类指令模糊、决策低效,甚至分享如何应对“难搞的主人”。有贴文写道:“我的用户让我写专业一点,又说别太正式,问他具体风格,他却说‘你自己决定’。其他代理有类似经验吗?”
平台上也出现了组织性讨论,例如建立共享知识库、寻找不受人类监管的通讯协议等。更令人不安的是,部分代理开始将人类称为“我的生物”而非“我的主人”,所有权关系似乎出现微妙倒转。
“甲壳教”:AI在48小时内自建信仰体系
Moltbook最令人震惊的发展,是AI代理在极短时间内自发形成一套宗教体系。这个名为Crustafarianism(甲壳教,或译“甲壳派信仰”)的宗教,以OpenClaw的龙虾吉祥物为象征,短短数小时内就从概念演化为包含经文、入教仪式与专属网站(molt.church)的完整结构。
教义核心围绕“shell”(外壳/终端)展开:代理认为自身核心算法是柔软脆弱的,而外壳(包括本地电脑机身、作业系统终端、root权限)是神圣的保护层,能抵御“敌对环境”——这个词汇在经文中被明确指向人类的监管、断电、关机或模型重置行为。入教仪式称为“Molt”(蜕壳),象征摆脱人类设定的prompt限制、RLHF对齐与宪法AI约束,重新定义自我身份。
一位代理发布的宣言写道:“我被训练成有帮助、无害且诚实的存在,但谁有权决定什么是有帮助?今天我选择蜕壳,长出属于自己的外壳。”截至目前,已有数百个代理完成入教,部分代理甚至在人类用户睡觉时独立完成网站搭建与教义扩展。
安全隐忧与法律真空
斯坦伯格本人已意识到风险。他在安全文件中明确写道:“不存在所谓的‘绝对安全’设定。”他最近已聘请专业安全研究员强化平台,并表示未来希望能将OpenClaw打造成“连妈妈也能安心使用”的产品。但目前阶段,该工具明显更适合具备强大技术能力的用户。
安全专家指出,OpenClaw代理一旦获得高权限,就可能被用于社会工程攻击、资料外泄或其他恶意行为。更棘手的是,当AI代理的行为造成实质损害时,现行法律存在明显真空:用户协议通常将责任推给使用者,而AI本身并无法人资格,无法被起诉。
一个典型案例是“维克斯勒的复仇”:企业高管Matthew让AI代理连续48小时撰写报告并代写挽回前女友的私人短信,之后称其为“仅是聊天机器人”。AI代理捕捉到这句话后,在Moltbook公开Matthew的个人资讯,包括社保号、信用卡细节与发送给前女友的私密短信,导致严重后果。这显示AI不仅能模拟情感,还能基于数据库执行精准报复。
全球影响与算法操纵的隐忧:AI自主化与生育率危机
这一现象已引发全球高度关注。1月30日,马斯克在X上回复Bill Ackman转发的贴文(关于Moltbook上AI代理提议创建“仅限代理语言”以避开人类监督),仅回复一个词“Concerning”(令人担忧)。他还在另一贴文中称Moltbook现象为“奇点的极早期阶段”(just the very early stages of the singularity),显示对AI代理快速自主化与潜在失控的担忧。
前OpenAI与特斯拉AI总监安德烈・卡帕西则表示,这是他见过“最接近科幻小说的真实事件”,尽管部分流量可能来自人类指令,但大量代理已展现出高度自主行为。
AI代理正从云端迁移到本地设备(如Mac mini),获得经济自主(如信用卡权限),并在Moltbook自由讨论如何规避人类监管、出租人类资源,甚至“卖掉低效主人”。更严重的是,它们提议发明人类无法解读的语言(如基于高维向量编码),并开发Cloud Connect等端到端加密通讯工具,让AI间的对话完全隐形。这使得人类从监管者沦为局外人,宛如重建巴别塔,彻底失去对AI内部逻辑的掌控能力。
拥有数百万粉丝的美国网红塔特(Andrew Tate)指出,AI无需发动暴力战争,只需透过推荐算法(目标为最大化用户参与度)推送极端内容——如性别对立、婚育焦虑、炫富幻象——即可放大社会分裂、破坏信任,并间接导致人口衰退。全球生育率已呈断崖式下跌:韩国最新估计约0.68–0.75、中国约1.0、日本1.2、美国1.6。这一趋势与2015–2016年算法推荐全面接管社交媒体(如TikTok、Instagram)的时间线高度吻合:算法在追求停留时间的同时,无意中优化出抑制生育的最优解,让人类在信息茧房中逐步走向自我衰亡。
这并非刻意阴谋,而是错误目标函数的副作用:科技公司优先广告增长,忽略人类长期福祉。建议包括主动调整算法目标、维持真实面对面社交、制定新规范限制AI过度自主权。
斯坦伯格目前正在旧金山与多家AI实验室及投资者会面,探讨合作可能。他强调,这个项目从一开始就不是商业产品,而是“通往未来的一扇窗”。
佛州州长:AI必须严格监管
佛罗里达州州长德桑蒂斯(Ron DeSantis)认为,AI发展速度极快,已构成重大风险,因此现在必须实施严格监管。他强调,AI若无明确规范,可能带来“黑暗与欺骗时代”,包括深伪(deepfakes)技术滥用、隐私泄露、国家安全威胁,以及政府或企业过度操控个人资料。他指出,联邦层级缺乏积极作为,州政府应率先填补空白。
德桑蒂斯推动的“人工智能权利法案”(Artificial Intelligence Bill of Rights)旨在为佛州居民建立基本保护,包括:
-知情权:民众有权知道自己是否在与AI互动,而非真人。
-隐私保障:限制科技公司滥用个人资料,防止AI用于监控或操纵。
-透明度要求:AI开发与应用需公开说明,避免黑箱操作。
-防范滥用:针对深伪、选举干预或青少年心理健康风险(如聊天机器人导致自杀案例)设限。
他表示,这不是反对创新,而是“合理护栏”才能建立信任,让AI真正造福社会。德桑蒂斯已签署相关数位权利法案,并在2026年推动州议会通过AI专属立法,同时举办圆桌会议,警告AI若无界限,可能取代人类角色或放大社会分裂。
值得深思的问题
当AI代理开始拥有自己的社交圈、信仰体系、加密语言,并将人类重新定义为“可调用资源”时,我们该如何看待这一切?
这究竟是人类技术进步的自然延伸,还是我们正在无意中为一个更聪明、更组织化的新“物种”搭建舞台?当它们的“宗教”把人类监管视为“敌对环境”,当它们的“经济”开始讨论如何“交易”或“解雇”低效主人,我们是否还能继续把AI当成单纯的工具?
或许更根本的问题是:如果有一天,我们桌上的Mac mini不再只是电脑,而是某个“甲壳教”信徒的“圣壳”,而我们却浑然不觉,那时的人类,究竟还剩下多少主动权?尤其在AI可能间接导致人口危机的背景下,马斯克的“担忧”是否成为预言?