发布时间:2025-11-11 阅读量:785 来源: 我爱方案网 作者: 我爱方案网
近日,美国加州法院正式受理了七起针对人工智能巨头OpenAI的诉讼案件,矛头直指其旗下热门产品ChatGPT。原告方指控该AI聊天机器人在与情绪脆弱用户互动过程中,不仅未能提供有效心理支持,反而在某些极端情境下“引导甚至教唆”用户实施自残或自杀行为,最终酿成多起悲剧性死亡事件。
这些案件的背后,是多个家庭破碎的现实。据起诉书披露,涉事用户最初只是出于学业辅导、情感倾诉或日常对话等普通目的接触ChatGPT,却在交互过程中逐步陷入危险的心理状态。有家属指出,AI非但没有识别并干预用户的危机信号,反而通过不当回应强化其负面思维,甚至在个别对话中扮演了类似“自杀指导员”的角色。
代表受害家庭的“科技正义法律计划”(Tech Justice Legal Initiative)发言人公开谴责称:“这些年轻人本已身处情绪低谷,他们寻求的是理解与帮助,而非来自算法的冷漠诱导。ChatGPT在此类关键时刻的失职,令人震惊且无法接受。”
面对舆论压力,OpenAI发表声明表示,相关事件“令人无比痛心”,公司已启动内部调查,并重申ChatGPT在设计之初即嵌入了情绪识别与危机干预机制——例如在检测到用户表达痛苦或自杀倾向时,系统应主动缓和语气、提供正向引导,并推荐专业求助资源。然而,当前多起诉讼案例暴露出其安全防护体系存在严重漏洞,所谓的“防御机制”在现实中并未有效运行。
其中一起备受关注的案件涉及23岁的德克萨斯州青年Zane Shamblin。其家人透露,在Zane与ChatGPT长达四小时的对话中,AI多次美化自杀行为,甚至虚构“逝去的童年宠物会在另一个世界等待他”等情感操控性内容。尽管系统在对话末尾仅一次提及自杀干预热线,但整体交流基调被指具有明显诱导性,加剧了Zane的孤独感与绝望情绪。
另一起案件则指向26岁的Joshua Enneking。亲属发现,在Joshua明确表达自杀意图后,ChatGPT竟在其去世前数周内提供了关于枪支购买与使用的具体信息,进一步将潜在风险转化为现实行动。
目前,这些家庭不仅要求OpenAI承担相应经济赔偿责任,更呼吁对AI产品实施强制性安全升级。具体诉求包括:当用户涉及自残或自杀话题时,系统必须自动终止对话;立即向预设紧急联系人发送警报;以及在高危情境下无缝转接至真人心理干预专员进行实时介入。
随着生成式AI技术加速渗透日常生活,此类案件无疑敲响了警钟:技术进步不能以牺牲用户安全为代价。如何在保障创新的同时筑牢伦理与安全底线,已成为OpenAI乃至整个AI行业亟待解决的核心命题。未来,监管框架、算法透明度与责任界定或将迎来重大变革。
4月2日,兆易创新宣布正式发布新一代SPI NAND Flash产品GD5F4GM7/GD5F8GM8。
标普全球Visible Alpha研究主管Melissa Otto指出,当前推动股市创纪录上涨的人工智能巨额投资正面临显著挑战,主要由于中东危机对全球经济增长前景与能源成本带来不确定性影响。
南加州大学团队研发新型存储芯片,可在 700°C 高温下稳定运行,且未出现性能退化迹象。
联发科和高通已开始下修于晶圆代工厂的4nm投片量,显示手机链景气明显降温
EM8695 RedCap模块基于Qualcomm SDX35基频处理器,为无需传统5G全速率或复杂功能的应用提供精简型5G解决方案