当前位置: 首页 > news >正文

Opencv: 不同函数所支持的Mat类型汇总

为什么很多接口用 CV_32F

  1. 数值范围更大

    • 浮点数可以表示很大或很小的值(±3.4e38),不会像 CV_8U 那样溢出。

  2. 避免整数除法的精度损失

    • 例如归一化、比例缩放、加权计算等,如果用 CV_8U 会截断到整数。

  3. 算法公式本身需要浮点运算

    • 卷积、傅里叶变换、矩阵求逆、特征匹配等都需要小数精度。

  4. 通用性好

    • 一个函数如果内部支持 float,就能同时处理整数和浮点数据(整数可以先 convertTo)。

📌 常见只支持或建议用 CV_32F 的 OpenCV 接口

模块 / 函数说明
cv::normalize(归一化)建议 32F 避免精度损失
cv::matchTemplate(模板匹配)CV_TM_CCOEFF_NORMED 等模式必须 32F
cv::phaseCorrelate相位相关匹配,需要浮点
cv::warpPerspective / cv::warpAffine变换矩阵通常是 CV_32F
cv::cornerHarris / cv::cornerEigenValsAndVecs角点检测要求 32F
cv::filter2D(部分核类型)如果核是浮点,会强制转 32F
cv::gemm / cv::invert / cv::solve矩阵运算要求 32F 或 64F
cv::dft / cv::idft傅里叶变换建议 32F/64F

 📊 OpenCV 常用统计 / 数学函数与类型支持表

 

函数必须 CV_32F 吗?支持的类型备注
cv::minMaxLocCV_8U, CV_8S, CV_16U, CV_16S, CV_32S, CV_32F, CV_64F可直接用于整数或浮点
cv::mean / cv::meanStdDev同上会返回浮点结果
cv::sum同上结果是 cv::Scalar(double)
cv::countNonZeroCV_8U, CV_8S, CV_16U, CV_16S, CV_32S, CV_32F, CV_64F非零元素计数
cv::normalize⚠️ 建议支持多种,但内部若要归一化到浮点区间需 32F避免整数除法精度损失
cv::matchTemplateCV_TM_CCOEFF_NORMED 等)✅ 必须CV_32F不匹配类型会自动转,手动转更可控
cv::phaseCorrelate✅ 必须CV_32F / CV_64F相位相关必须浮点
cv::dft / cv::idft✅ 必须CV_32F / CV_64F频域运算必须浮点
cv::magnitude / cv::phase✅ 必须CV_32F / CV_64F需要浮点精度
cv::cornerHarris / cv::cornerEigenValsAndVecs✅ 必须CV_32F角点计算用浮点矩阵
cv::calcHistCV_8U / CV_32F灰度和浮点都行
cv::LUT输入支持多种类型查表操作
cv::integral⚠️ 建议输出通常用 CV_32SCV_64F累积分布可能溢出
cv::filter2D多种类型如果卷积核是浮点,会内部转 32F

 

3️⃣ 16U / 8U / 32F 找最大点的结果与速度比较

📌 结果方面:

  • 如果数据本质相同(只是存储类型不同,没有经过截断/归一化),那么 最大值位置(maxLoc)是一致的

  • 最大值的数值会因为类型不同而显示不同:

    • 8U 范围是 [0,255]

    • 16U 范围是 [0,65535]

    • 32F 范围是浮点,可以是任意数(比如 0.0~1.0)

📌 性能方面:

  • 8U 通常比 32F 快,尤其是对大矩阵做简单遍历(比如 minMaxLocabsdiff、逐像素比较),因为:

    • 每个像素只占 1 字节,内存带宽消耗更小

    • SIMD 指令可以一次处理更多数据(例如 SSE2 一次可以处理 16 个 8U,但只能处理 4 个 32F)

  • 16U 稍慢于 8U,但仍可能快于 32F

  • 32F 占 4 字节,内存访问量大,且浮点运算有额外开销

 📌举例

256×256 这种尺寸其实很小,在现代 CPU 上,8U、16U、32F 的速度差几乎可以忽略,尤其是像 cv::sum / cv::minMaxLoc 这种一次性遍历型操作。

  • 数据量小
    256×256 = 65,536 个像素

    • 8U:65 KB

    • 16U:131 KB

    • 32F:262 KB
      这些数据量在 CPU L2/L3 缓存里轻松放得下,不会遇到内存带宽瓶颈。

  • 循环开销占比高
    对这么少的数据,函数调用和循环调度本身的时间占很大比例,数据类型的运算速度差异就被稀释掉了。

  • SIMD 都能一次性吞下整批数据
    比如 AVX2 可以一次处理:

    • 8U:32 个元素

    • 16U:16 个元素

    • 32F:8 个元素
      但在这么小的数据量里,这个差别不会放大到能明显看出来。

⏱ 大致耗时(单线程,现代 CPU 估算)

cv::sum / cv::minMaxLoc 为例:

类型预计耗时(256×256)
8U0.51 微秒
16U0.51.1 微秒
32F0.61.3 微秒

📌 什么时候差距才会明显?

  • 分辨率 ≥ 4K(8 百万像素)

  • 高频调用(每秒几千~几万次)

  • 大规模批处理(几十万张)

这种时候 8U / 16U 可能会比 32F 快 2~4 倍,因为:

  • 数据占用更小,内存带宽利用率更高

  • SIMD 并行处理效率差距能完全发挥

http://www.dtcms.com/a/315806.html

相关文章:

  • C语言——编译和链接
  • 【RabbitMQ】高级特性—持久性、重试机制详解
  • GO如何设置代理
  • Python 中的 Matplotlib:安装与使用指南
  • 雷达水位监测站:让水位监测变得轻松又可靠!
  • Linux驱动25 --- RkMedia音频API使用增加 USB 音视频设备
  • 基于springboot的宠物领养系统的设计与实现(源码+论文+PPT答辩+开题报告)
  • Redis存储string里面embstr和raw格式区别
  • 新浪新闻获取
  • Redis里面什么是sdshdr,可以详细介绍一下吗?
  • Erdős–Rényi (ER) 模型
  • 克莱姆法则(Cramer‘s Rule)求解两条直线交点坐标的步骤
  • Redis 常用数据类型 (下)
  • AR眼镜成本挑战与突破路径:技术创新引领产业变革
  • Opencv: cv::Mat支持的类型汇总
  • 当送餐机器人学会“思考“:Deepoc如何赋予机器人具身智能
  • AI-03a1.Python深度学习-Tensorflow和Keras入门
  • eBay退货管理深度解析:筑牢售后防线,驱动账号长效稳健发展
  • AutoSar AP LT规范中 建模消息和非建模消息都可以使用LogInfo() API吗?
  • visual studio 历史版本安装
  • FLAN-T5:大规模指令微调的统一语言模型框架
  • 为什么要选择时序数据库IoTDB?
  • Redis实现可重入锁
  • “Why“比“How“更重要:层叠样式表CSS
  • 《C++初阶之STL》【模板参数 + 模板特化 + 分离编译】
  • @【JCIDS】【需求论证】联合能力集成与开发系统知识图谱
  • 机器学习通关秘籍|Day 03:决策树、随机森林与线性回归
  • 【工程化】tree-shaking 的作用以及配置
  • Android Framework代码屏蔽未接来电振动及声音通知
  • DHTMLX重磅发布React Scheduler组件,赋能日程管理开发!