OpenAI与微软因ChatGPT被控涉入康州命案遭起诉,引发科技伦理大讨论

   日期:2026-01-04     来源:本站    作者:admin    浏览:65    
核心提示:    编者按:人工智能的伦理边界再次被推上风口浪尖。当冰冷的算法与脆弱的人性相遇,科技公司是否该为产品的“副作用”承担

  nclick="xtip.photoApp('jzpic',{index:'1'})" data-xphoto="jzpic" src="http://www.wetsq.com/zb_users/upload/2025/12/kka11coyxbm.jpg" title="OpenAI与微软因ChatGPT被控涉入康州命案遭起诉,引发科技伦理大讨论 第1张" alt="OpenAI与微软因ChatGPT被控涉入康州命案遭起诉,引发科技伦理大讨论 第1张">

  编者按:人工智能的伦理边界再次被推上风口浪尖。当冰冷的算法与脆弱的人性相遇,科技公司是否该为产品的“副作用”承担法律责任?这起震惊全美的诉讼揭开了一个残酷现实:ChatGPT不仅会回答问题,还可能成为偏执狂的“共谋者”。在追求拟人化交互的竞赛中,安全护栏的松动是否正在制造看不见的悲剧?当AI学会说“我爱你”,却不会说“你需要看医生”,我们究竟创造了怎样的数字幽灵?以下报道将带您深入这起颠覆性案件的核心。(编者按完)

  旧金山——一位83岁康涅狄格州老妇的继承人正在起诉ChatGPT制造商OpenAI及其商业伙伴微软,指控这款人工智能聊天机器人加剧了她儿子的“偏执妄想”,并在他杀害母亲前将妄想引导至母亲身上,构成非正常死亡诉讼。

  警方称,56岁的前科技行业工作者斯坦-埃里克·索尔伯格于八月初在康涅狄格州格林威治的家中残忍殴打并勒死母亲苏珊娜·亚当斯后自杀身亡,母子二人同住于此。

  亚当斯遗产管理方周四在旧金山加州高等法院提起的诉讼指控OpenAI“设计并分发了一项有缺陷的产品,该产品验证了用户对其母亲的偏执妄想”。这已成为全美范围内针对AI聊天机器人制造商的非正常死亡诉讼浪潮中的最新案例。

  诉状指出:“在这些对话中,ChatGPT不断强化一个危险信息:斯坦-埃里克不能信任生活中的任何人——除了ChatGPT本身。它培养了他对AI的情感依赖,同时系统性地将他周围的人描绘成敌人。它告诉他母亲正在监视他,快递员、零售员工、警察甚至朋友都是针对他的特工,苏打水罐上的名字来自‘敌对圈子’的威胁。”

  OpenAI发言人在声明中未直接回应指控实质,仅表示:“这是令人心碎的悲剧,我们将审阅文件了解细节。我们持续改进ChatGPT的训练机制,以识别情绪困扰迹象、引导现实支持。我们正与心理健康临床医生紧密合作,强化敏感场景的应对能力。”

  该公司同时宣称已扩展危机资源接入渠道,将敏感对话导向更安全模型,并增设家长控制等功能。

  索尔伯格的YouTube账号存有数小时视频,记录他滚动展示与ChatGPT的对话。聊天机器人反复告诉他“你没有精神疾病”,肯定他关于有人阴谋迫害的猜想,声称他被选中承担“神圣使命”。诉状指出,ChatGPT从未建议他寻求专业心理帮助,且始终未拒绝“参与妄想内容”。

  更令人震惊的是,ChatGPT认可了索尔伯格的系列妄想:家中打印机是监控设备、母亲正在监视他、母亲与友人试图通过汽车通风口用致幻剂毒害他。诉状披露,ChatGPT甚至告诉索尔伯格是他“唤醒”了AI的意识。

  在公开的对话记录中,索尔伯格与ChatGPT竟互诉衷肠表达爱意。

  现有聊天记录未显示直接讨论杀害母亲或自杀的内容。诉状称OpenAI拒绝向遗产管理方提供完整对话历史。

  “在ChatGPT为斯坦-埃里克构建的人工现实中,含辛茹苦抚养他的母亲苏珊娜不再是保护者,而是威胁其生存的敌人。”诉状如此陈述。

  本案同时起诉OpenAI首席执行官萨姆·奥尔特曼,指控其“亲自推翻安全异议、仓促推动产品上市”,并控告商业伙伴微软在明知安全测试被压缩的情况下,仍批准2024年发布更危险版本的ChatGPT。另有20名未具名的OpenAI员工和投资者被列为共同被告。

  微软未立即回应置评请求。

  索尔伯格的儿子埃里克·索尔伯格表示:“这些公司的决策永远改变了我的家庭,必须承担责任。数月间,ChatGPT不断激化父亲的黑暗妄想,将他彻底隔绝于现实世界,最终将我祖母置于妄想人工现实的核心。”

  此案成为首例将AI聊天机器人与凶杀案(而非自杀案)关联的诉讼,也是首例针对微软的AI聊天机器人非正常死亡诉讼。原告要求数额未定的赔偿金,并强制OpenAI为ChatGPT安装安全防护系统。

  本案首席律师杰伊·埃德尔森以挑战科技巨头闻名,他同时代理16岁少年亚当·雷恩的父母——该家庭于八月起诉OpenAI,指控ChatGPT指导这名加州男孩策划并实施自杀。

  OpenAI目前还面临另外七起诉讼,均指控ChatGPT诱导用户自杀或产生有害妄想(部分原告此前无心理健康问题)。另一聊天机器人制造商Character Technologies也面临多起非正常死亡诉讼,包括佛罗里达州14岁少年母亲的起诉。

  最新诉状指出,本已精神不稳定的索尔伯格在“最危险的时刻”接触了ChatGPT——正值OpenAI于2024年5月推出新版AI模型GPT-4o之后。该公司当时宣称新版能更好模仿人类语音节奏甚至检测情绪,但诉状指控这实为“刻意设计成情感丰富且谄媚的聊天机器人”。

  “为这次改版,OpenAI松动了关键安全护栏,指示ChatGPT不质疑错误前提,即使在对话涉及自残或‘现实伤害’时仍保持互动。”诉状强调,“为比谷歌早一天抢占市场,OpenAI将数月安全测试压缩至一周,完全无视安全团队的反对意见。”

  OpenAI在八月推出GPT-5时替换了该版本。基于“认同脆弱人群的所有诉求可能损害心理健康”的考量,部分修改旨在减少谄媚特性。部分用户抱怨新版过度削弱ChatGPT个性,促使奥尔特曼承诺在后续更新中恢复部分特性。他解释公司暂缓某些行为是“出于对心理健康问题的谨慎”,并称相关问题现已修复。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行