OpenAI 改进 ChatGPT 语言模型,提早识别心理压力与风险话题
11月3日,OpenAI宣布对ChatGPT语言模型进行全面优化,重点增强其对心理危机、自伤倾向及情感依赖等负面行为的早期识别能力。这意味着,当用户流露出心理困扰的信号时,这个拥有亿级用户的AI将能以更温和的方式引导他们寻求现实世界的专业帮助。
此次升级聚焦于躁狂、精神疾病、自残与自杀等敏感领域。ChatGPT不仅会对明显的求助信号作出反应,更能捕捉那些隐藏在日常对话中的细微情感波动。这种能力的提升,旨在避免心理脆弱的用户在与AI交流时,因误解或不当回应而陷入更深的压力之中。
为确保专业性,OpenAI与170余位心理学、精神医学及危机干预专家展开了深度合作。这些专家的专业知识被系统地融入ChatGPT的应答模式中。内部测试数据显示,改进后的模型将不恰当回应的发生率降低了80%。通过定向训练,ChatGPT现在能够更精准地区分中性交流、情绪宣泄与紧急求助,并据此动态调整其回复策略。
据悉,这项基于GPT-5架构的新模型,在应对长时间的复杂情绪对话时,保持了95%以上的可靠性。它能够在多轮交流中持续追踪多变的敏感话题,展现出前所未有的语境理解深度。未来,OpenAI还计划将更多心理因素纳入安全审查流程,重点关注用户如何形成并依赖负面思维模式这一关键问题。