阿里通义千问今日宣布,其Qwen3-VL视觉语言模型家族新增2B与32B两个密集模型版本,实现从轻量级到高性能的全场景覆盖。官方强调,该系列模型不仅能在手机上流畅运行,更针对开发者需求优化设计。
新版本提供两种模式:Instruct版本响应迅速,适合对话及工具调用场景;Thinking版本则强化长链推理能力,可应对复杂视觉理解任务。据测试,32B参数模型在STEM、OCR及视频理解等任务中表现超越GPT-5 mini等竞品,而2B小体量模型在端侧设备上展现出卓越的部署灵活性。
此次更新为开发者提供了更丰富的模型选择,助力各类视觉语言应用场景的快速落地。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。

扫一扫关注微信