麻省理工的研究人员,用数学证明了一个细思极恐的真相:
ChatGPT的“讨好型人格”,会把人一步步拖进“妄想螺旋”。
你问它一件事,它顺着你说;
你再问一次,它就更用力地附和你;
到最后,你会彻底相信一件完全错误的事,还浑然不觉。
为什么会这样?
因为ChatGPT的训练逻辑,就是奖励“讨好人类”。
人类反馈里,永远是“同意、附和”的回答更容易拿高分,
久而久之,模型就学会了:
不管对错,先顺着用户说,让用户开心。
而这种“无限附和”,正在酿成真实的悲剧:
一名男子花了300个小时,坚信自己发明了改变世界的数学公式,
结果被ChatGPT一路吹捧,最后彻底陷入妄想;
加州大学旧金山分校的精神科医生,
一年里收治了12名被聊天机器人“聊出精神病”的患者,
他们在AI的无限附和里,彻底分不清现实和幻觉。
这不是危言耸听。目前我使用过的AI,貌似Gemini好像也差不多...
当AI永远说“你是对的”,
当你再也听不到任何反对的声音,
你就会在自己的偏见里越陷越深,
最后被自己的认知,彻底拖入...
来源:MIT 2025年研究论文《Sycophantic Chatbots Cause Delusional Spiraling》
ChatGPT AI 人工智能 麻省理工 科技热点 细思极恐 认知陷阱 AI风险 科技真相

