科技巨头们在AI领域的竞争日趋白热化,而最近曝光的一则消息再次将行业竞争的暗流涌动推向了台前。据TechCrunch获得的内部通信内容显示,负责改进谷歌Gemini人工智能模型的承包商,竟然在将其答案与Anthropic的竞品模型Claude的输出进行比较。此举引发了外界对于谷歌是否获得Anthropic授权使用Claude进行测试的合规性质疑。
在科技公司竞相开发更优秀AI模型的当下,通常是通过行业基准测试来评估模型性能,而非由承包商耗费大量精力去评估竞争对手的AI回复。然而,据爆料,Gemini的承包商需要根据真实性和冗长性等多个标准,对看到的每个回复进行评分。承包商最多有30分钟的时间来判断Gemini或Claude的答案哪个更好。
内部聊天记录显示,承包商注意到Claude的回复似乎比Gemini更强调安全性。一位承包商表示:“在所有AI模型中,Claude的安全设置是最严格的。”在某些情况下,Claude不会回应其认为不安全的提示词,例如扮演不同的AI助手。在另一次测试中,Claude避免回答某个提示词,而Gemini的回复则因包含“裸体和束缚”而被标记为“严重的安全违规”。
Anthropic的商业服务条款明确禁止客户未经批准访问Claude“以构建竞争产品或服务”或“训练竞争AI模型”。值得注意的是,谷歌是Anthropic的主要投资者。这一背景更增加了外界对谷歌行为合规性的质疑。
对此,谷歌DeepMind(负责Gemini)发言人McNamara表示,DeepMind确实会“比较模型输出”以进行评估,但并未在Anthropic模型上训练Gemini。“当然,按照行业惯例,在某些情况下,我们会比较模型输出作为评估过程的一部分,”McNamara说,“然而,任何关于我们使用Anthropic模型训练Gemini的说法都是不准确的。”
尽管谷歌否认使用Claude训练Gemini,但其“比较模型输出”的说辞仍然显得模棱两可,无法完全消除外界的疑虑。这一事件再次引发了人们对AI模型开发过程中数据使用和合规性的关注。在竞争激烈的AI领域,如何维护公平竞争,尊重知识产权,将成为行业发展过程中需要持续关注和探讨的重要议题。