新浪微博近日推出首个开源大语言模型VibeThinker-1.5B,以15亿参数规模实现远超预期的智能表现。该模型在AIME24、AIME25和HMMT25数学测试中超越参数量达其400倍的DeepSeek-R1版本,性能接近456B规模的MiniMax-M1。在编程算法测试LiveCodeBench v6中,亦媲美数十倍参数的国际先进模型。其突破源于创新的“频谱到信号原理”(SSP)训练方法,通过先发散探索再强化优化策略,显著提升效率。单次后训练成本不足8000美元,远低于同类模型数十倍。此举为资源有限的中小企业与科研机构提供高性价比技术路径,推动AI democratization进程。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。

扫一扫关注微信