近日,美国开放人工智能研究中心(OpenAI)与微软公司共同卷入一起涉及命案的民事诉讼。该案系全美首例将AI聊天工具直接关联至谋杀行为的司法案件,原告指控OpenAI开发的对话式人工智能系统ChatGPT“助长用户病理性妄想”,间接促成致命后果。
提交至加利福尼亚州旧金山高等法院的起诉书详细披露了事件经过:一名现年56岁的康涅狄格州男子长期患有精神障碍,于今年8月*其83岁的母亲后自尽。案发前数周,该男子多次使用ChatGPT进行对话。在交互过程中,AI未对用户表达的偏执性妄想内容予以识别、干预或警示,亦未提供转介心理援助的有效指引,反而以中立甚至附和式语气回应其扭曲认知。这种缺乏风险管控的交互模式,客观上强化了其错误信念体系,加剧情绪失控与现实解体,最终酿成不可挽回的惨剧。
本案原告为遇害老妇的法定遗产管理人。诉状指出,涉事AI产品在算法设计、内容审核及危机响应机制等方面存在显著缺陷。文件特别点名OpenAI首席执行官,在内部安全团队提出明确预警的情况下仍执意加速产品商业化进程;同时指控微软作为深度协同方,在明知关键安全验证流程已被暂停的前提下,仍于2025年批准上线一个“风险等级更高”的ChatGPT迭代版本。
针对此次诉讼,OpenAI发表声明称,对该悲剧深表关切,并向受害者家属致以诚挚慰问。公司重申将持续投入资源优化AI系统的安全性、可靠性与伦理适配能力。截至本文发布,微软尚未就该案公开发表任何表态。
此案所引发的社会影响远超个案范畴。多位法律专家指出,它或将推动一系列关键议题进入公众与立法视野:
——人工智能系统的风险预判与防控边界应如何界定?
——在产品生
命周期各阶段(研发、测试、部署、运维),企业需履行哪些强制性安全保障义务?
——当技术介入个体心理状态并诱发极端行为时,责任归属链条如何厘清?平台方、开发者、分发商是否应承担连带责任?
——科技企业在追求创新效率的同时,是否应建立与技术危害潜力相匹配的合规审查与应急响应体系?
随着大模型技术加速渗透至教育、医疗、司法等高敏感领域,其伴生的社会风险也日益凸显。这起由ChatGPT参与互动而牵涉命案的诉讼,不仅是一次司法实践的前沿探索,更是一记沉重的警钟:技术演进的刻度,不应以用户的安全底线为代价。保障人工智能在可控、可信、可问责的轨道上发展,已成为科技界与全社会亟待协同破解的核心命题。