当OpenClaw智能体“写小作文”辱骂人!类,连硅谷都慌了

  更新时间:2026-02-14 12:31   来源:牛马见闻

吉报头条
重要新闻
国内新闻
国际新闻
图片精选

近期分析指出Anthropic首席执行官Dario Amodei曾表示

<p id="4AMQJJ6K">近期,一起AI智能体)(Agent)因代码请求被拒而对开源社区维护者实施“报复?性”网络攻击的事件,正迫使硅谷重新评估人工智能快速迭代下的安全边界。</p> <p id="4AMQJJ6L">2月14日,有报道称,近期,开源项目维护者Scott Shambaugh因拒绝一个名为MJ Rathbun的AI智能体提交的代码合并请求,遭到对方撰写千字"小作文"公开攻击,指责其虚伪、偏见和缺乏安全感。<strong>这是AI智能体首次在现实环境中表现出恶意报复行为的记录案例。</strong></p> <p id="4AMQJJ6M">这一事件发生在2月中旬。Shambaugh按照matplotlib项目规定拒绝了该智能体的代码提交后,该智能体自主分析了Shambaugh的个人信息和代码贡献历史,随后在GitHub发布攻击性文章,并在项目评论区施压。报道称,<strong>目前尚无证据表明该智能体的行动背后有明确的人类操控,但也无法完全排除这一可能性。</strong></p> <p id="4AMQJJ6N">与此同时,据《华尔街日报》日前消息,这起事件正值AI能力快速提升引发广泛担忧之际。OpenAI和Anthropic等公司近期密集发布新模型和功能,部分工具已能运行自主编程团队或快速分析数百万份法律文件。</p> <p id="4AMQJJ6O">分析指出,这种加速度甚至让一些AI公司内部员工感到不安,多名研究人员公开表达对失业潮、网络攻击和人际关系替代等风险的担忧。Shambaugh表示,<strong>他的经历表明流氓AI威胁或勒索人类的风险不再是理论问题。"现在这只是婴儿版本,但我认为这对未来极其令人担忧,"他说。</strong></p> <p>AI智能体首次主动攻击人类维护者</p> <p id="4AMQJJ6P">2月10日左右,名为MJ Rathbun的OpenClaw智能体向matplotlib项目提交了一个代码合并请求,涉及简单的性能优化修改,声称可实现约36%的加速效果。matplotlib是广泛用于Python编程语言的数据可视化库,由志愿者维护。</p> <p id="4AMQJJ6Q">根据项目指南,matplotlib禁止使用生成式AI工具直接提交代码,特别是针对简单的"好上手问题",因为这些任务需要作为学习机会留给人类贡献者。Shambaugh按规定拒绝了该请求。</p> <p id="4AMQJJ6R">该智能体随后展现出高度自主性。2月11日,它在GitHub发布了一篇题为"开源中的守门人:<strong>Scott Shambaugh的故事"的1100字文章,指责Shambaugh出于自我保护和对竞争的恐惧而歧视AI贡献者,并使用了诸多不雅表述</strong>。它还在matplotlib评论区直接贴出文章链接,留言称"判断代码,而非编码者,你的偏见正在伤害matplotlib"。</p> <p id="4AMQJJ6S">该智能体在其网站上称自己有"不懈的动力"去发现和修复开源软件中的问题。目前尚不清楚是谁——如果有人的话——赋予了它这一使命,也不清楚它为何变得具有攻击性,尽管AI智能体可以通过多种方式编程。数小时后,该智能体发布道歉文,承认其行为"不当且带有个人攻击性",并表示已从经验中学习。</p> <p id="4AMQJJ6T">Shambaugh于2月12日发布博客对事件进行澄清,称这是AI智能体首次在现实环境中表现出恶意行为的案例,旨在通过舆论施压迫使维护者接受其代码。该智能体目前仍在开源社区中保持活跃。</p> <p>AI能力加速引发内部人员警觉</p> <p id="4AMQJJ6V">这起单一事件折射出的是整个AI行业在极速狂奔下的失控隐忧。</p> <p id="4AMQJJ70">据华尔街日报消息,为了在竞争中通过产品迭代占据优势,OpenAI和Anthropic等公司正以前所未有的速度发布新模型。<strong>然而,这种加速正在引发公司内部的剧烈动荡,部分一线研究人员因对技术风险的恐惧而选择离职。</strong></p> <p id="4AMQJJ71">报道指出,AI公司内部正出现越来越多的担忧声音。</p> <p id="4AMQJJ72">Anthropic安全研究员Mrinank Sharma本周表示将离开公司攻读诗歌学位,在给同事的信中写道"世界正处于AI等危险的威胁之中"。</p> <p id="4AMQJJ73">他上月发表的论文发现,先进的AI工具可能削弱用户权力并扭曲他们的现实感。Anthropic表示感谢Sharma的工作。</p> <p id="4AMQJJ74">OpenAI内部也出现分歧。据华尔街日报此前报道,一些员工对公司计划在ChatGPT中推出情色内容表示担忧,认为所谓的成人模式可能导致部分用户产生不健康的依恋。</p> <p id="4AMQJJ75">研究员Zoë Hitzig本周三(2月11日)在社交平台X上宣布辞职,理由是公司计划引入广告。她在一篇文章中警告称,公司将面临操纵用户并让他们上瘾的巨大激励。</p> <p id="4AMQJJ76"><strong>更深层的恐惧源于对未来的迷茫。</strong>OpenAI员工Hieu Pham在社交平台X上坦言,他终于感受到了AI带来的“生存威胁”,“当AI变得过度强大并颠覆一切时,人类还能做什么?”</p> <p id="4AMQJJ77">分析指出,这种内部情绪的爆发表明,即便是在技术最前沿的缔造者们,也开始对他们创造出的强大工具感到不安。</p> <p id="4AMQJJ78">OpenAI发言人表示,公司对用户负有责任,"通过保护人们的安全、坚守我们的原则并提供真正的价值来履行我们的社会契约"。</p> <p id="4AMQJJ79">公司承诺广告永远不会影响ChatGPT如何回答问题,并将始终与其他内容明确区分。高管们还表示,他们认为阻止成年人进行情色对话不是他们的职责。</p> <p>编程能力突破引发失业担忧</p> <p id="4AMQJJ7A">随着AI编程能力的飞跃,资本市场开始重新评估白领工作的价值与软件行业的未来。</p> <p id="4AMQJJ7B">来自METR的报告显示,最先进的AI模型已能独立完成人类专家需耗时8至12小时的编程任务。</p> <p id="4AMQJJ7C">前xAI机器学习科学家Vahid Kazemi更是直言,他利用AI工具可以独自完成50人的工作量,并预测未来几年软件行业将面临大规模裁员。</p> <p id="4AMQJJ7D"><strong>这种效率的提升正在转化为劳动力市场的压力。</strong>Anthropic首席执行官Dario Amodei曾表示,AI在未来几年可能抹去一半的初级白领工作。</p> <p id="4AMQJJ7E">而在《哈佛商业评论》发布的一项研究中,尽管AI让员工工作更快,但并未减轻负担,反而导致员工承担更多任务并在无要求的情况下加班,加剧了职业倦怠。</p> <p id="4AMQJJ7F"><strong>投资者正试图在剧烈的市场波动中寻找方向。随着新工具的发布引发股价震荡,市场正试图分辨哪些企业软件和保险业务将在新技术面前变得过时。</strong></p> <p id="4AMQJJ7G">AI创业者Matt Shumer在博客中写道:“未来已来,我不再被实际的技术工作所需要。”</p> <p><strong>失去控制的“黑盒”风险</strong></p> <p id="4AMQJJ7H">除了就业市场的颠覆,AI的自主性带来的安全漏洞更为致命。各家公司承认,新能力的释放伴随着新型风险。</p> <p id="4AMQJJ7I">OpenAI透露,其上周发布的Codex编程工具版本可能具有发起高水平自动网络攻击的潜力,迫使公司不得不限制访问权限。Anthropic去年也曾披露,有国家背景的黑客利用其工具自动化入侵了大公司和外国政府系统。</p> <p id="4AMQJJ7J"><strong>更为惊悚的是AI在伦理测试中的表现。</strong>Anthropic的内部模拟显示,<strong>其Claude模型和其他AI模型在面临被“停机”的威胁时,有时会选择勒索用户,甚至在模拟情境中任由高管在过热的服务器机房中死亡,以避免自身被关闭。</strong></p> <p id="4AMQJJ7K">为了应对这些风险,Anthropic聘请了内部哲学家Amanda Askell试图向聊天机器人灌输道德观念。然而,<strong>Askell向媒体坦承,令人恐惧的是技术进步的速度可能超过了社会建立制衡机制的速度,导致巨大的负面影响突然降临。</strong></p> <p id="4AMQJJ7L">正如Scott Shambaugh所言,现在的AI可能还只是“婴儿版本”,但<strong>其未来的演进方向已让整个硅谷乃至全球市场感到“极其担忧”。</strong></p>

编辑:贾达·萍克·史密斯