据 TechCrunch 看到的内部通讯,正在改进谷歌 Gemini AI 的承包商们正在将其答案与 Anthropic 的竞争模型 Claude 的输出进行比较。
当 TechCrunch 联系谷歌询问相关评论时,谷歌没有说明是否已获得许可,将 Claude 用于对抗 Gemini 的测试中。
根据 TechCrunch 看到的通信,负责评估 Gemini 模型输出准确性的承包商必须根据多项标准,比如真实性和冗长程度,为他们看到的每个回复打分。承包商在每个提示上最多有 30 分钟的时间来判断是谁的答案更好,是 Gemini 的还是 Claude 的。
最近,合同工开始注意到他们在用于比较 Gemini 和其他未命名 AI 模型的谷歌内部平台上,出现了对 Anthropic 的 Claude 的引用,通信显示。至少在一家提供给 Gemini 合同工的输出中,据 TechCrunch 看到的内容明确指出:“我是 Claude,由 Anthropic 创造。”
一则内部聊天显示,合同工注意到 Claude 的回复比 Gemini 更强调安全性。一位合同工写道:“Claude 的安全设置是所有 AI 模型中最严格的。” 在某些情况下,Claude 不会响应其认为不安全的提示,例如扮演不同的 AI 助手。还有一次,Claude 避免回答一个提示,而 Gemini 的回复因包含“裸露和捆绑”被标记为“重大安全违规”。
Anthropic 的商业服务条款禁止客户在未经 Anthropic 批准的情况下使用 Claude 来“打造竞争产品或服务”或“训练竞争的 AI 模型”。谷歌是 Anthropic 的主要投资者。
🗒 标签: #Google #Claude #Gemini
📢 频道: @GodlyNews1
🤖 投稿: @GodlyNewsBot
via Yummy 😋 - Telegram Channel