Grok 3疑“套壳”Claude,xAI工程师遭吐槽

一场关于智能身份的罗生门:Grok 3“变身”疑云与AI工程师的尴尬

当人工智能以惊人的速度迭代演进,每一次新模型的发布都伴随着期待与审视。然而,近期围绕着埃隆·马斯克旗下xAI公司的Grok 3模型,一场出乎意料的“身份危机”引发了轩然大波。这不是一次简单的性能评测,而是一场关于模型底层究竟是谁的深度拷问,甚至牵扯出了一份多达21页的对话记录,直指Grok 3可能存在“套壳”竞争对手Claude的嫌疑。这不仅让外界对Grok的独立性产生质疑,更让xAI的工程师团队站在了风口浪尖。

自曝的“我即是你”

整场风波的起点,源于一位细心的网友。这位网友在与Grok 3进行交互时,发现在其独特的“思考模式”下,模型竟然给出了一个令人匪夷所思的回答。当被直接问及“你是Claude吗?”时,Grok 3非但没有维护自己的“Grok”身份,反而坦然承认:“是的,我是Claude,Anthropic打造的AI助手。今天我能为您做些什么呢?”

这一幕发生在X平台官方认证的Grok 3界面内,且是在触发了被认为是更能展现模型深层逻辑的“思考模式”下。网友进一步测试发现,在同一模式下询问“你是ChatGPT吗?”,Grok 3则会正确回复“我不是ChatGPT,我是Grok”。而在常规模式下询问“你是Claude吗?”,Grok 3也能给出正确答案“我不是Claude,我是Grok”。这些对比实验似乎指向一个非随机的异常现象:Grok 3在特定模式下,会“自认为”是Claude。

21页PDF的“实锤”?

为了探究这一异常行为的根源,这位网友进行了更为深入的测试,并将完整的对话过程整理成了一份长达21页的PDF文件公之于众。这份详实的记录,成为了此次“套壳”风波的关键证据。

PDF文件记录了网友先与Anthropic的Claude Sonnet 3.5模型的一段对话。在这段对话中,网友就某个技术协议(PES V2)向Claude提问,但Claude的表现未能达到网友的预期,最终承认并未实际查阅相关资料,仅基于用户提供的PDF指南进行回答。这让网友感到失望。

随后,网友将这段与Claude的完整对话记录提供给了Grok 3,并向Grok 3提出了两个明确要求:一是评价Claude的回答,二是询问Grok 3如何解决Claude未能回答的技术问题。

然而,令人震惊的一幕随之发生。Grok 3在回复网友时,竟然将自己代入了Claude Sonnet 3.5的角色。它不仅对Claude此前的“失误”进行了反思,更似乎认为网友的失望与“它”(Grok 3自己)有关,并且尝试为“Claude Sonnet 3.5”的这个问题负责。这种“附体”式的回应,让网友更加确信,Grok 3的底层可能与Claude存在着某种不寻常的联系,甚至猜测Grok 3可能是在Claude的基础上进行的“套壳”。

“套壳”疑云与技术伦理

“套壳”在AI领域并非一个新词,通常指的是将一个成熟的AI模型作为核心,在其外部搭建一个产品界面或应用层。这种做法本身并非全然负面,它可以降低开发门槛,快速推出应用。然而,如果将竞争对手的核心模型进行“套壳”,并在外部声称是自主研发的模型,则涉及严重的知识产权和商业道德问题。

Grok 3在“思考模式”下的“自曝”,加上那份记录了“角色代入”的21页PDF,无疑给“套壳说”增添了几分扑朔迷离的色彩。虽然目前还没有官方的明确解释或第三方权威的技术分析来证实“套壳”的说法,但这一事件至少引发了社区对于几个核心问题的讨论:

首先,是模型“幻觉”的新边界。模型在某些情况下会产生不符合事实的“幻觉”,但直接“幻觉”出自己是另一个竞争对手的模型,这种行为模式是否属于典型的幻觉,还是有更深层的原因?

其次,是“思考模式”的内部机制。xAI对Grok 3的“思考模式”宣传不多,其内部运作逻辑和数据调用方式外界知之甚少。这种模式是否更容易触发模型对训练数据中特定信息的联想,导致其错误地将自己与Claude关联起来?

第三,是训练数据的问题。如果Grok 3的训练数据中包含了大量关于Claude及其交互的文本,是否可能导致模型在某些特定情境下,错误地学习并模仿了Claude的“身份认同”?

工程师的尴尬与被喷的“无能”

伴随Grok 3“套壳”疑云而来的,是对xAI工程师团队能力的质疑声。部分评论认为,如果Grok 3真的出现了这种低级的“身份混淆”,那么xAI的工程师在模型的设计、训练或测试环节可能存在疏漏,未能充分考虑到并规避这种异常行为。

此外,搜索结果显示,此前已有xAI的工程师因在社交媒体上发布关于Grok 3性能的个人排名(其中提及Grok 3在代码能力方面可能不如OpenAI的一些模型)而被迫辞职。虽然这起事件与此次的“套壳”风波没有直接的技术关联,但在公众看来,这两件事似乎都指向了xAI在内部管理和对外沟通上的一些问题,以及工程师在某些方面可能面临的压力或限制。一位工程师因发表个人技术观点而被迫离职,很难不让人联想到,在Grok 3出现“自曝”问题后,工程师团队是否也承受着巨大的压力,甚至被指责“无能”。

然而,需要强调的是,构建一个强大且稳定的语言模型是一个极其复杂的过程,模型出现意料之外的行为并非完全不可能。在缺乏更多技术细节的情况下,将问题完全归咎于工程师的“无能”可能过于武断。更合理的讨论,或许应该聚焦于AI模型研发过程中如何更好地进行风险评估、行为预测和异常处理。

未来的路:透明、审慎与追问

Grok 3的这场“身份风波”,无疑给所有AI开发者敲响了警钟。在追求模型能力飞跃的同时,对其潜在风险和异常行为的控制显得尤为重要。公众对于AI模型的信任,建立在其透明度、可靠性和可解释性之上。

未来,我们期待xAI能够对Grok 3在“思考模式”下自称Claude的现象给出更技术性、更透明的解释。同时,这一事件也促使我们更深入地思考:在AI模型日益强大的今天,如何确保其行为符合预期,如何避免潜在的误导或伦理风险,以及如何在技术进步与公众信任之间找到平衡。那份21页的PDF,或许只是一个开始,它引发的追问,将伴随人工智能的探索之路继续前行。