麻省理工学院联合OpenAI与牛津大学的研究揭示,当前主流人工智能模型在处理否定语句时存在显著缺陷。例如,ChatGPT、Gemini和Llama等模型常忽略“no”和“not”等否定词的语义,倾向于默认肯定关联。这种问题在医疗场景中尤为危险,可能导致AI误解“无骨折”或“未扩大”等关键信息,从而引发严重后果。
研究指出,这一缺陷源于AI依赖模式预测而非逻辑推理的训练方式。即使面对“不好”这样的简单表达,AI也可能因其中的正面词汇而误判情绪。专家强调,解决该问题的关键在于结合统计学习与结构化思维,提升模型的逻辑能力,而非单纯增加数据量。尽管通过合成否定数据已取得初步进展,但细粒度差异仍是重大挑战。