苹果公司与俄亥俄州立大学合作,近日推出名为“少步离散流匹配”(FS-DFM)的新型语言模型。该扩散模型变体仅需8轮迭代,即可生成与传统模型上千步迭代质量相当的文本,效率提升高达128倍。
与传统逐字生成的自回归模型不同,FS-DFM采用并行策略,通过教师模型引导和迭代机制优化,在保证文本质量的同时大幅缩短生成时间。测试显示,参数量仅1.7亿至17亿的FS-DFM变体,在困惑度和熵值两项关键指标上均优于参数量更大的同类模型。
这项突破有望解决长文本生成的效率瓶颈,为自然语言处理领域带来新的发展契机。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。