Qwen2.5-VL开源,斩获多榜单冠军!
2025年2月,阿里云通义千问开源全新的视觉模型Qwen2.5-VL,推出3B、7B和72B三个尺寸版本。其中,旗舰版Qwen2.5-VL-72B在13项权威评测中夺得视觉理解冠军,全面超越GPT-4o与Claude3.5。新的Qwen2.5-VL能够更准确地解析图像内容,突破性地支持超1小时的视频理解,无需微调就可变身为一个能操控手机和电脑的AI视觉智能体(Visual Agents),实现给指定朋友送祝福、电脑修图、手机订票等多步骤复杂操作。

通义团队此前曾开源Qwen-VL及Qwen2-VL两代模型,支持开发者在手机、汽车、教育、金融、天文等不同场景进行AI探索,Qwen-VL系列模型全球总下载量超过3200万次,是业界最受欢迎的多模态模型。Qwen-VL再度全新升级到第三代版本。根据评估,此次发布的旗舰型模型Qwen2.5-VL-72B-Instruct斩获OCRBenchV2、MMStar、MathVista等13项评测冠军,在包括大学水平的问答、数学、文档理解、视觉问答、视频理解和视觉智能体方面表现出色,全面超越GPT-4o与Claude3.5;Qwen2.5-VL-7B-Instruct 在多个任务中超越了 GPT-4o-mini。
新的Qwen2.5-VL视觉知识解析能力实现了巨大飞跃:
- 可解析图像中的复杂内容。在此前精准确识别万物的基础上,还能解析图像的布局结构及其中的文本、图表、图标等复杂内容,从一张app截图中就能分析出插图和可点按钮等元素;
- 精准定位视觉元素,拥有强大的关键信息抽取能力。比如准确识别和定位马路上骑摩托车未戴头盔的人,或是以多种格式提取发票中的核心信息并做结构化的推理输出;
- OCR能力提升到全新水平,更擅长理解图表并拥有更全面的文档解析能力,在精准识别的内容同时还能完美还原文档版面和格式。

自2023年8月以来,阿里云通义累计推出数十款不同类型的大模型,从Qwen、Qwen1.5、Qwen2到Qwen2.5,囊括大语言模型、多模态模型、数学模型和代码模型,数次登顶HuggingFace的Open LLM Leaderboard、司南OpenCompass等多个国内外权威大模型榜单,在业界率先实现“全尺寸、全模态、多场景”开源。目前,海内外开源社区中Qwen的衍生模型数量已突破9万个,成长为世界最大的AI模型族群。
