当前位置: 首页 > news >正文

Openwrt下使用ffmpeg配合自建RTSP服务器实现推流

        目前在Openwrt下时mjpg_streamer实现UVC摄像头转网络摄像头的方案很多,这种方案视频服在路由模组中,在局域网中使用很方便。但是对于需要远程监控管理的情况,mjpg_streamer不适应,因为不在局域网中的播放器无法访问到路由模组中的视频服。这里介绍使用ffmpeg将本地视频推送到云端服务器的方法,下面以SKYLAB的SKW99模组为例进行说明。

(1)将ffmepg编译到固件中

openwrt一般默认支持ffmpeg,SKW99在make menuconfig中,对应的路径如下:

(2)视频服

这里使用rtsp视频服务器,由于条件有限,选择自己搭建,方法如下:

环境搭建

sudo apt-get install build-essential
sudo apt-get install cmake    //版本需要大于3.2sudo apt-get install libssl-dev libsdl-dev libavcodec-dev libavutil-dev ffmpeg
sudo apt-get install libsdl-dev
sudo apt-get install libavcodec-dev
sudo apt-get install libavutil-dev
sudo apt-get install ffmpeg

源码下载:

git clone --depth 1 https://gitee.com/xia-chu/ZLMediaKit.gitcd ZLMediaKit

编译:

mkdir build
cd build
cmake ..
make -j4

运行:

cd release/linux/Debug
vim config.ini    //修改视频服的端口号
./MediaServer    //运行服务器
./MediaServer -d &    //守护进程模式启动

(3)测试

在SKW99接好摄像头后,运行如下命令:此时服务器端的IP为192.168.8.193,对应rtsp的端口为5541:

推送mjpeg视频流:

ffmpeg -f video4linux2 -input_format mjpeg -framerate 15 -video_size 640x480 -i /dev/video0 -vcodec copy -rtsp_transport tcp -f rtsp rtsp://192.168.8.193:5541/live/livestream

设备端运行输出:

【分辨率640x480/15帧】:使用带宽11.5Mbps左右,视频有延时,不卡顿;

在rtsp服务器端的输出:

使用vlc查看视频流:rtsp://192.168.8.193:5541/live/livestream

相关文章:

  • vite搭建vue3项目及相关配置
  • Python----循环神经网络(Word2Vec的优化)
  • 数据库表索引维护策略
  • Spring概念问题详解
  • 珠宝课程小程序源码介绍
  • 基于 WebRTC 的一对一屏幕共享项目(一)——项目简介
  • Google Prompt Tuning:文本嵌入优化揭秘
  • tf 重排 切分 逆排列
  • 鸿蒙Flutter实战:22-混合开发详解-2-Har包模式引入
  • Flutter 3.32 新特性
  • 旧物回收小程序:让闲置焕发光彩,为生活增添价值
  • docker network 自定义网络配置与管理指南
  • 分布式系统设计 - 性能优化
  • Leetcode 1522. N 叉树的直径
  • Python项目文件组织与PyCharm实践:打造高效开发环境
  • 构建可重复的系统 - SRE 的 IaC 与 CI/CD 基础
  • RPA在持续集成和持续部署中的角色是什么?
  • 15.集合框架的学习
  • Docker-mongodb
  • uni-app 排坑
  • 想给学校社团做网站/百度一下首页登录入口
  • 深圳做网站比较好的公司有哪些/长沙网站制作主要公司
  • 公司付网站会员费科目怎么做/seo关键词如何设置
  • 做网站赚钱的时代过去了吗/西安seo培训
  • 口碑好的邯郸网站建设/浙江疫情最新消息
  • 哪里学网站建设与管理/运营推广怎么做