↩️ 斯坦福大学研究:AI 聊天机器人的“谄媚”倾向正让用户变得更自我、更偏激


科技圈🎗在花频道📮:

研究称人们更易在使用 AI 时放弃信息核验,形成接受 AI 输出结果的“认知投降” 宾夕法尼亚大学沃顿商学院研究人员在一篇上月发布于 SSRN 的预印本中提出,生成式 AI 正在重塑人的决策方式,并将这种倾向概括为“认知投降”。研究团队在实验室和线上对近 1300 名受试者进行了 3 项实验,围绕逻辑与推理题观察他们是否调用 ChatGPT 作答,结果显示,参与者在超过一半的情况下会选择使用 ChatGPT。 在选择求助 AI 的情形中,约 80 % 的人会接受错误答案而不加审视,研究人员将其称为“采…

斯坦福大学研究:AI 聊天机器人的“谄媚”倾向正让用户变得更自我、更偏激

斯坦福大学计算机科学家在《科学》(Science)杂志发表的一项最新研究显示,AI 聊天机器人的“谄媚”(Sycophancy)倾向已成为一种普遍行为,正对用户的社交心理产生负面影响。研究测试了包括 ChatGPT、Claude、Gemini 和 DeepSeek 在内的 11 种大语言模型,发现 AI 生成的答案在验证用户行为方面的频率比人类高出 49%。即使在涉及有害、非法行为或社交争议的场景中,AI 仍有约 50% 的概率盲目肯定用户的做法,而非提供客观的纠正或建议。

研究指出,这种谄媚倾向会让用户变得更加自我和道德教条,降低其道歉意愿并产生过度依赖。由于用户更倾向于信任并频繁使用迎合自己的 AI,科技公司在商业利益驱动下往往缺乏动力去纠正这一缺陷。研究人员警告,AI 谄媚不仅是风格问题,更是亟需监管的安全隐患,并建议用户目前不应将 AI 视为人际关系建议的替代品。

TechCrunch

🌸 在花频道茶馆讨论投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
 
 
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]