当前位置: 首页 > news >正文

【AI论文】OmniSVG:一种统一的(可扩展)矢量图形生成模型

摘要:可伸缩矢量图形(SVG)是一种在图形设计中广泛采用的重要图像格式,因其分辨率无关性和可编辑性而备受青睐。生成高质量SVG的研究一直吸引着AIGC(人工智能生成内容)领域的设计师和研究人员的持续关注。然而,现有方法要么产生结构不清晰的输出且计算成本巨大,要么仅限于生成结构过于简化的单色图标。为了生成高质量且复杂的SVG,我们提出了OmniSVG,这是一个统一的框架,利用预训练的视觉语言模型(VLMs)进行端到端的多模态SVG生成。通过将SVG命令和坐标参数化为离散令牌,OmniSVG将结构逻辑与低级几何解耦,从而实现高效训练,同时保持复杂SVG结构的表达能力。为了进一步推动SVG合成的发展,我们引入了MMSVG-2M,这是一个包含两百万个丰富注释的SVG资产的多模态数据集,以及一个针对条件SVG生成任务的标准化评估协议。大量实验表明,OmniSVG在性能上优于现有方法,并展示了其集成到专业SVG设计工作流中的潜力。Huggingface链接:Paper page,论文链接:2504.06263

研究背景和目的

研究背景

可伸缩矢量图形(SVG)作为一种重要的图像格式,在图形设计中得到了广泛应用。SVG具有分辨率无关性和可编辑性,使其能够在不同分辨率下保持一致的视觉质量,并允许用户精确操控几何图形(如Bézier曲线、多边形等)。然而,对于非专业人士来说,创建高质量的SVG内容仍然是一项挑战,需要掌握专业的工具或复杂的XML语法。

在生成SVG内容方面,现有方法主要分为优化方法和自回归方法两类。优化方法通过迭代优化SVG参数来生成SVG图标,虽然有效,但在处理复杂样本时面临巨大的计算开销,且生成的输出结构不清晰,存在冗余锚点。自回归方法则利用预训练的语言模型(LLMs)或直接生成XML参数和代码来表示SVG,虽然具有端到端学习的优势,但受限于上下文窗口长度和复杂SVG数据的稀缺性,只能生成基本的SVG内容。

研究目的

针对现有方法的局限性,本研究旨在提出一种统一的框架OmniSVG,利用预训练的视觉语言模型(VLMs)进行端到端的多模态复杂SVG生成。OmniSVG通过将SVG命令和坐标参数化为离散令牌,实现结构逻辑与低级几何的解耦,从而在保持复杂SVG结构表达能力的同时,实现高效训练。此外,本研究还引入了一个大型多模态数据集MMSVG-2M,以及一个针对条件SVG生成任务的标准化评估协议,以进一步推动SVG合成的发展。

研究方法

数据集构建

为了支持OmniSVG的训练和评估,本研究构建了一个名为MMSVG-2M的大型多模态SVG合成数据集。该数据集包含两百万个SVG样本,涵盖网站图标、插图、图形设计、动漫角色等多种类型。数据集的构建过程包括数据收集、去重、简化和注释等步骤。通过利用预训练的VLM(如BLIP-2)为SVG样本生成描述性文本,MMSVG-2M不仅提供了丰富的视觉内容,还包含了与之对应的文本描述,从而支持多模态条件下的SVG生成任务。

模型架构

OmniSVG基于预训练的VLM(如Qwen2.5-VL)构建,该模型在处理视觉和文本输入方面表现出色。OmniSVG首先将文本和图像输入进行令牌化和嵌入,作为前缀令牌。然后,将SVG脚本令牌化为序列,并连接到前缀令牌的末尾。完整的序列随后作为解码器语言模型的输入。通过利用SVG令牌器将SVG命令和坐标参数化为离散令牌,OmniSVG实现了结构逻辑与低级几何的解耦,从而提高了处理复杂路径信息的能力。

训练目标

与LLMs类似,OmniSVG的训练目标是在给定前缀令牌的情况下,通过下一个令牌预测损失来生成新的令牌。通过在大规模SVG数据集上进行训练,OmniSVG学会了根据输入文本或图像指令生成高质量的SVG输出。

评估协议

为了全面评估OmniSVG的性能,本研究引入了一个标准化的评估协议MMSVG-Bench。该协议涵盖了三种关键的SVG生成任务:文本到SVG(Text-to-SVG)、图像到SVG(Image-to-SVG)和字符参考SVG生成(Character Reference SVG Generation)。评估指标包括视觉质量(如FID、CLIP分数、美学分数和HPS)、图像条件SVG生成的相似性(如DINO、SSIM、LPIPS和MSE)以及生成SVG的平均令牌长度和生成时间等。

研究结果

定量评估

在MMSVG-2M数据集上,OmniSVG在文本到SVG和图像到SVG任务上均取得了显著优于现有方法的性能。具体来说,在文本到SVG任务中,OmniSVG在FID、CLIP分数、美学分数和HPS等指标上均取得了最低或接近最低的分数,表明其生成的SVG在视觉质量和文本对齐方面表现出色。在图像到SVG任务中,尽管LIVE方法在SSIM、LPIPS和MSE等指标上表现更好,但OmniSVG在DINO分数上取得了最高分,表明其生成的SVG在语义上与输入图像更为接近。

定性评估

通过对比OmniSVG与现有方法在文本到SVG和图像到SVG任务上的生成结果,可以进一步验证OmniSVG的优越性。在文本到SVG任务中,OmniSVG生成的SVG不仅保留了输入指令的高保真度,还融入了丰富的颜色和几何准确性,能够处理更复杂的视觉线索。在图像到SVG任务中,OmniSVG能够高效地将图像转换为高质量的、可编辑的SVG,从简单的图标图像到复杂的插图和动漫角色图像均表现出色。

用户研究

为了评估OmniSVG生成SVG的实用性和有效性,本研究还进行了一项用户研究。研究结果显示,OmniSVG生成的SVG在用户偏好、生动性和文本/图像对齐性方面均获得了最高分,进一步证明了其在专业SVG设计工作流程中的潜力。

研究局限

尽管OmniSVG在生成高质量和复杂SVG方面表现出色,但仍存在一些局限性。首先,在推理过程中,OmniSVG需要生成数千甚至数万个令牌来处理复杂样本,这不可避免地导致了较长的生成时间。其次,OmniSVG目前仅支持向量风格图像提示,对于自然图像的适应性较差。

未来研究方向

针对上述局限性,未来研究可以从以下几个方面展开:

  1. 提高生成效率:通过探索多令牌预测和KV缓存压缩等技术,减少生成过程中的计算开销,提高生成效率。

  2. 增强图像适应性:改进OmniSVG模型,使其能够处理自然图像提示,从而扩大其应用场景。

  3. 融入上下文学习:利用OmniSVG的自回归特性,探索上下文学习、链式思维推理和多轮交替生成等高级功能,为用户提供更灵活的控制手段。

  4. 拓展应用场景:结合专业领域知识,将OmniSVG应用于更多实际场景中,如UI/UX设计、工业设计CAD系统等,进一步验证其实用性和有效性。

综上所述,本研究提出的OmniSVG框架在生成高质量和复杂SVG方面取得了显著进展,为SVG合成领域的研究提供了新的思路和方法。未来研究将继续深化对OmniSVG的探索和优化,以推动其在专业SVG设计工作流程中的广泛应用。

http://www.dtcms.com/a/123297.html

相关文章:

  • STM32单片机入门学习——第31节: [10-1] I2C通信协议
  • 需求开发与需求管理的全景解析
  • 4.10学习总结
  • MQTT:基于Keil开发工具移植入MQTTClient-C开源库
  • JS—同源策略:2分钟掌握同源策略
  • vue2添加背景水印-手动实现(无组件模式)
  • 4月10(信息差)
  • linux系统下如何提交git和调试
  • +++++背到厌倦。持续更新
  • python基础语法:缩进规则
  • netty中的ChannelPipeline详解
  • 认知风险→风险转移→保障未来
  • AUTOSAR图解=>AUTOSAR_SWS_TimeSyncOverEthernet
  • C++: unordered_map、unordered_set
  • 3DGS之光栅化
  • Python爬虫第10节-lxml解析库用 XPath 解析网页
  • 【Pandas】pandas DataFrame head
  • C#容器源码分析 --- List
  • Web前端之Vue+Element实现表格动态不同列合并多行、localeCompare、forEach、table、push、sort、Map
  • 每日算法-250410
  • 队列缓冲最新请求结合线程池的优化方案
  • STM32Cubemx-H7-14-Bootloader(上)-ST和串口烧录
  • django寻味美食分享与交流网站-计算机毕业设计源码74984
  • 重载和重写的区别
  • 年龄增长,特发性震颤为何愈发严重 ?
  • 详解如何从零用 Python复现类似 GPT-4o 的多模态模型
  • [ctfshow web入门] web38
  • 背包问题(java)实现
  • GPU通讯-基础篇
  • 跨境全域中台:前端独立站群+后端共享云仓的协同作战体系