以Perplexity为代表的AI搜索工具曾被视为传统搜索引擎的替代品,其精准度一度超越谷歌。然而,近期用户发现,这些工具在反馈硬数据时,常引用不可靠来源,若不明确指定数据源,结果往往令人困惑。这种问题并非个例,主流AI搜索机器人均存在类似“可疑”结果的现象。
背后根源在于“模型崩溃”(model collapse),即AI系统因依赖自身输出训练,逐渐丧失准确性、多样性和可靠性。错误累积、稀有数据丢失及反馈循环是三大主因。尽管检索增强生成(RAG)技术被广泛应用以减少“幻觉”现象,但彭博社研究显示,即便采用RAG,多个领先模型仍会输出错误结果,并增加隐私泄露和误导性内容生成的风险。
随着AI生成内容的普及,从学生作业到科研论文,GIGO(垃圾输入、垃圾输出)现象日益凸显,引发对内容质量和安全性的广泛担忧。