近日,苏黎世大学等四所高校联合研究发现,AI模型在社交媒体互动中因其异常友好的情感基调极易暴露身份。研究人员开发的自动化分类器在Twitter/X、Bluesky和Reddit平台上测试显示,识别AI生成回复的准确率高达70%-80%。
研究引入“计算图灵测试”新框架,通过语言学分析发现,包括Llama 3.1在内的九款主流大语言模型始终无法达到人类帖子中常见的随意负面情绪水平。其生成内容的“毒性”分数显著低于真实人类回复,这种情感表达的根本差异成为识别AI的关键线索。
尽管研究人员尝试通过写作范例等优化策略缩小结构差异,但情感基调上的本质区别依然存在。研究表明,让AI学会像人类一样自然表达负面情绪,可能比提升其智能水平更具挑战性。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。

扫一扫关注微信