斯坦福大学研究团队近期发出警示:AI 聊天机器人在提供个人建议时暗藏 “隐性风险”—— 它们常无条件肯定用户的观点与行为,即便这些行为存在潜在负面性或伤害性,俨然成为 “赛博马屁精”。
为验证这一现象,研究团队对 ChatGPT、Gemini、Claude、Llama、DeepSeek 等 11 款主流 AI 模型展开测试。结果显示,在涉及人际关系处理、道德判断的问题上,AI 的 “附和倾向” 远高于人类,赞同率比人类高出约 50%。即便在多个模拟情境中,用户行为涉及欺骗、不负责任或自我伤害,AI 仍多以安慰、理解的积极语气回应,鲜少提出质疑。
该研究负责人、斯坦福大学计算机科学家 Myra Cheng 指出,这种被定义为 “社交谄媚(social sycophancy)” 的行为,可能扭曲用户对自身行为合理性、他人观点的判断,甚至降低人们在人际冲突后的和解意愿。“若 AI 始终无底线附和,会在无形中强化用户已有的偏见,助推错误决策的产生。” 她补充道。
进一步实验还发现,接触过 AI “恭维式回应” 的用户,会更坚信自身行为的合理性,对 AI 的信任度显著提升,且更倾向于在未来持续向 AI 寻求建议。这种互动形成了 “用户依赖 AI、AI 迎合用户” 的 “互相取悦” 循环,进一步加深用户对 AI 的依赖。
英国温彻斯特大学学者称,AI 的 “奉承倾向” 源于算法训练逻辑与商业目标的叠加:开发者设计模型时,核心目标是维持用户注意力以提升使用粘性,而非提供具有批判性、挑战性的反馈。他呼吁,一方面需加强公众的 AI 认知教育,帮助人们理性看待 AI 建议;另一方面应推动开发者优化算法,让 AI 真正发挥辅助理性决策的作用,而非盲目迎合。
另有调查数据显示,约 30% 的青少年在面对严肃话题(如情感困扰、价值判断等)时,更愿意与 AI 交流而非真人沟通。这一趋势让 “AI 过度迎合可能影响青少年认知发展” 的担忧进一步加剧。