当前位置: 首页 > news >正文

论文阅读:BLIPv1 2022.2

文章目录

    • 一、研究背景与问题
      • 现有方法的局限性
      • 研究目标
    • 二、核心方法与创新点
      • 多模态编码器 - 解码器混合架构(MED)
      • 标题生成与过滤(CapFilt)数据自举方法
    • 三、实验与结果
      • 数据集与训练配置
      • 关键实验发现
      • 与 state-of-the-art 方法的对比
    • 四、结论与未来方向
      • 主要贡献
      • 未来方向
    • 五、资源与代码

论文题目:BLIP: Bootstrapping Language-Image Pre-training for
Unified Vision-Language Understanding and Generation
论文链接:https://arxiv.org/pdf/2201.12086

一、研究背景与问题

本文主要针对现有多模态的来个两个缺点展开。

现有方法的局限性

  • 模型层面:大多数视觉 - 语言预训练(VLP)模型要么基于编码器(如 CLIP),适合理解任务但难以直接用于文本生成;要么基于编码器 - 解码器架构,在图像 - 文本检索等理解任务上表现不佳。
  • 数据层面:现有方法依赖从网络收集的图像 - 文本对,这些数据含有大量噪声,影响模型学习视觉 - 语言对齐的效率。

研究目标

提出一个能同时处理理解与生成任务的统一 VLP 框架,并有效利用噪声网络数据。

二、核心方法与创新点

多模态编码器 - 解码器混合架构(MED)

Multimodal mixture of Encoder-Decoder

  • 三种功能模式
    • 单模态编码器(unimodal encoder):分别编码图像和文本,通过图像 - 文本对比损失(ITC)对齐特征空间。
    • 基于图像的文本编码器(image-grounded text encoder):插入交叉注意力层建模视觉 - 语言交互,通过图像 - 文本匹配损失(ITM)区分正负样本。
    • 基于图像的文本解码器(image-grounded text decoder):将双向自注意力替换为因果自注意力,通过语言建模损失(LM)生成图像描述。

该模型与三个视觉语言目标共同进行预训练,即图像-文本对比学习(image-text contrastive learning), 图像-文本匹配(image-text learning), 图像-条件语言建模(image-conditional language modeling)。

  • 参数共享策略:文本编码器与解码器共享嵌入层、交叉注意力层和前馈网络,仅自注意力层独立,提升训练效率。

三个任务相关的算法模型框架图:
在这里插入图片描述

标题生成与过滤(CapFilt)数据自举方法

一种新的数据集 bootstrapping 的方法。可以用于从噪声图像-文本对中学习。将预训练的 MED 微调为两个模块:一个是给定网络图像产生合成标题的 captioner, 另一个是去除原始网络文本和合成文本中噪声标题的 Filter.

  • 流程
    • 标题生成器(Captioner):基于 MED 解码器,为网络图像生成合成标题。
    • 过滤器(Filter):基于 MED 编码器,移除原始网络文本和合成标题中的噪声样本。
  • 优势:通过自举提升数据质量,生成更多样化的标题,增强模型对视觉 - 语言对齐的学习。

数据清洗框架图:
在这里插入图片描述

三、实验与结果

数据集与训练配置

  • 预训练数据:包含 COCO、Visual Genome 等人工标注数据集,以及 Conceptual Captions、LAION 等网络数据集,总计 14M 至 129M 图像。
  • 模型配置:基于 ViT-B/16 和 ViT-L/16 视觉编码器,文本编码器基于 BERT。

关键实验发现

  • CapFilt 的有效性:同时使用标题生成器和过滤器可显著提升下游任务性能。例如,在 COCO 图像 - 文本检索中,平均召回率 @1 提升 2.7%,图像标题生成的 CIDEr 分数提升 2.8%。
  • 合成标题的多样性:采用核采样(nucleus sampling)生成的多样化标题比波束搜索更有效,尽管噪声率更高,但引入了更多新信息。
  • 参数共享的影响:文本编码器与解码器共享非自注意力层可优化性能,而标题生成器与过滤器共享参数会因确认偏差降低效果。

与 state-of-the-art 方法的对比

  • 图像 - 文本检索:在 COCO 和 Flickr30K 上,BLIP 以更少的预训练数据(14M)超越 ALBEF、CLIP 等方法,零样本迁移至视频 - 文本检索时性能显著优于现有模型。
  • 图像标题生成:在 NoCaps 和 COCO 上,BLIP 的 CIDEr 和 SPICE 分数超过 VinVL、LEMON 等方法,且无需预训练目标检测器。
  • 视觉问答(VQA)与自然语言视觉推理(NLVR²):BLIP 在 VQA 测试集上比 ALBEF 提升 1.6%,在 NLVR² 上接近最优性能。
  • 零样本视频 - 语言任务迁移:直接将图像训练的模型应用于视频 - 文本检索和视频问答,性能超越专门针对视频设计的模型。

四、结论与未来方向

主要贡献

BLIP 通过统一的 MED 架构和 CapFilt 数据自举方法,实现了视觉 - 语言理解与生成任务的高性能统一,在多个下游任务上达到 state-of-the-art。

未来方向

  • 多轮数据自举。
  • 单图像多合成标题生成。
  • 模型集成等,进一步提升模型性能。

五、资源与代码

论文提供了预训练模型、代码和自举数据集,支持后续研究。

http://www.dtcms.com/a/264100.html

相关文章:

  • Java 大视界 -- Java 大数据在智能交通共享单车智能调度与停放管理中的应用(329)
  • 基于Pandas和FineBI的昆明职位数据分析与可视化实现(四)- 职位数据可视化(FineBI)
  • 解决leetcode第3597题分割字符串
  • 【一起来学AI大模型】模型上下文协议(MCP)详解:背景、架构与应用
  • 从0开始学习R语言--Day35--核密度动态估计
  • Node.js-path模块
  • 12【进程间通信——管道】
  • 记本好书:矩阵力量:线性代数全彩图解+微课+Python编程
  • 【Go-策略模式】告别if/else hell,拥抱 Go 语言策略模式
  • js基础知识
  • 【组合数学】P11362 [NOIP2024] 遗失的赋值|普及+
  • 事务隔离级别深度解析:机制、语法与实战指
  • 力扣74 搜索二维矩阵
  • [密码学实战]深入解析ASN.1和DER编码:以数字签名值为例(三十一)
  • UniApp完全支持快应用QUICKAPP-以及如何采用 Uni 模式开发发行快应用优雅草卓伊凡
  • 从 Copilot 到 通用 Agent : 大厂在 AI Coding 上的应用和挑战
  • 华为云开始了“开发者空间 AI Agent 开发”活动
  • Anthropic 开源 LLM“电路追踪器”:首次可视化语言模型的“推理路径”!
  • SQLite与MySQL:嵌入式与客户端-服务器数据库的权衡
  • 使用mavros启动多机SITL仿真
  • 9-2 MySQL 分析查询语句:EXPLAIN(详细说明)
  • react-数据Mock实现——json-server
  • Jenkins 插件深度应用:让你的CI/CD流水线如虎添翼 [特殊字符]
  • 华锐互动:全方位定制化 VR 内容制作服务流程剖析​
  • [Python 基础课程]字符串
  • Redis集群数据流解析:从分层设计到一致性难题破解
  • Vue3 中 Excel 导出的性能优化与实战指南
  • A模块 系统与网络安全 第三门课 网络通信原理-3
  • Badoo×亚矩云手机:社交约会革命的“云端心跳加速剂“
  • 论文阅读:Align and Prompt (ALPRO 2021.12)