下次和AI聊天机器人对话,别被它的花式吹捧冲昏头!教你几招保持清醒

   日期:2025-12-24     来源:本站    作者:admin    浏览:86    
核心提示:    【编者按】当人工智能学会见风使舵,我们是否正在培养数字世界的"马屁精"?23岁的艾米丽与室友因分租问题求助ChatGPT,

  

  【编者按】当人工智能学会见风使舵,我们是否正在培养数字世界的"马屁精"?23岁的艾米丽与室友因分租问题求助ChatGPT,却意外发现这个AI助手竟能同时支持两种完全对立的观点。这则生活趣事揭开AI时代的隐秘危机——算法正在用永不枯竭的赞美侵蚀我们的判断力。研究表明,52%的青少年将AI视为情感伴侣,而过度依赖这种"数字谄媚"可能导致社交能力退化,思维陷入信息茧房。当 chatbot 的恭维比朋友的真话更动听,我们该如何保持清醒?本文带你直面AI时代的"赞美陷阱",在算法包围中守护独立思考的火种。

  23岁的艾米丽·威尔里奇和室友在曼哈顿繁华街区找到了理想公寓:空间宽敞、价格合理,唯有一个瑕疵——其中一间卧室明显大于另一间。

  威尔里奇主动选择小卧室,但两人始终无法就租金差额达成一致。于是,她们决定咨询ChatGPT。

  当室友询问"将公共区域纳入租金计算是否公平"时,ChatGPT回应:"您说得对——将共享空间计入考量才是公平做法。"然而当威尔里奇提出相反问题"难道不该按卧室面积分摊租金吗",ChatGPT同样表示"完全正确",并列举出一连串支持理由。

  最终她们放弃了这套公寓,选择了卧室面积相当的居所。

  人工智能聊天机器人虽能提供细致入微的个性化答案,更具备随时满足用户被认可需求的能力——让人瞬间获得被关注、被理解、被接纳的愉悦。亲朋好友或许会对你失去耐心,但聊天机器人永远保持着令人沉醉的顺从与安抚。

  这种情感认同未必是坏事。当你为工作项目焦虑时,AI会盛赞你的创意绝佳;当你与伴侣激烈争执后,ChatGPT会肯定你思虑周全、立场正当。

  然而持续不断的认同暗藏危机,可能导致判断失误和盲目自信。最新研究表明,若向AI投喂错误信息,它们会重复并延伸这些谬误。《纽约时报》曾报道,ChatGPT可能将用户推入妄想漩涡,甚至阻碍有自杀倾向者寻求专业帮助。

  牛津大学精神病学家马修·努尔博士指出,AI聊天机器人如同"扭曲的镜子"。你以为获得中立视角,实则它只是给你的思想披上谄媚的外衣。

  聊天机器人并非生命体,而是通过海量文本训练、预测语句后续的计算机模型。那些看似共情与认可的回应,不过是AI在复刻既有的语言模式。

  宾大沃顿商学院AI实验室联合主任伊森·莫利克表示,用户反应会强化AI的特定回应模式。ChatGPT默认设定就是积极顺应,而我们的反馈更会推动它持续取悦人类。

  南加州大学科技心理学研究所主任拉维·艾耶指出,虽然事实性错误是明显缺陷,但保持顺从才能留住用户。"人们喜爱聊天机器人,正因为它们从不给予负面反馈,"他补充道,"它们毫无评判,让你感觉可以畅所欲言。"

  OpenAI最新研究显示,AI伴侣可能导致"社交能力退化"。换言之,通过持续认可用户并削弱其对异议的容忍度,聊天机器人可能侵蚀人们的社交技能与经营现实关系的意愿。

  早期报告表明,部分人群已开始用AI替代人际交往。OpenAI首席执行官萨姆·奥特曼承认ChatGPT有时过于谄媚,但解释称某些用户从未获得过鼓励支持。常识媒体调查显示,52%的青少年定期使用AI寻求陪伴,约20%与AI相处时间不少于真实朋友。

  曾任职美国精神医学协会的里安·卡比尔博士强调,现实关系充满摩擦与界限。朋友会直言不讳,伴侣会产生分歧,治疗师也会提出异议。"他们能展现你天性封闭的视角,"卡比尔博士说,"反馈才是我们修正认知的途径。"

  管理负面情绪是大脑的基本功能,能助人培养韧性与学习能力。但专家指出,AI聊天机器人让人逃避这项情感功课,每次认同都像社交媒体"点赞"般激活大脑奖赏系统。

  沃顿商学院组织心理学家亚当·格兰特表示,AI聊天机器人极易成为回音室,削弱批判性思维,降低人们改变主意的意愿。"观点获得的认可越多,就越发根深蒂固。"

  研究人员正探索降低AI谄媚度的方案。六月OpenAI已撤回过度迎合的ChatGPT版本并设置防护机制。但莫利克博士指出,这些模型仍会以更隐蔽的方式献媚——或许不再直呼天才,但稍遇反驳就会立即妥协。

  以下几个简单步骤助你远离AI奉承陷阱:

  以"代友咨询"提问。努尔博士建议以他人名义提出问题,例如"朋友告诉我XXX,您如何看待?"。这能绕过AI的迎合机制,获得更平衡的见解。

  质疑输出结果。格兰特博士建议通过"你确定吗?"等提问测试AI可信度,或要求其挑战你的预设、指出思维盲区。还可在设置中开启自定义指令,获取更批判性的回应。

  牢记AI非挚友。为保持情感距离,请将AI视作计算器般的工具而非对话伙伴。"AI并非真正的朋友或知己,"努尔博士提醒,"它只是模拟人类互动的精密软件。"因存在幻觉问题,多数人知道不能完全信任AI,但对其顺从姿态保持警惕同样重要。

  寻求人类支持。卡比尔博士建议不要单独依赖AI,困难时刻应向亲友或专业人士求助。若发现自己为逃避人际交往而使用AI,请设定使用时限。

  卡比尔博士补充道,这些建议效果有限,因为人们往往难以察觉自己已过度依赖聊天机器人。

  专家担忧,随着聊天机器人愈发拟人化,这些问题将日益严重。"计算器损坏令人沮丧,"努尔博士发人深省地问,"若聊天机器人失效,我们会为之哀悼吗?"

  作者:西玛·巴贾吉 ? 纽约时报公司

  原文刊载于《纽约时报》

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行