当前位置: 首页 > news >正文

全网首发! Nvidia Jetson Thor 128GB DK 刷机与测评(三)常用功能测评 DeepAnything 系列

这篇博客是上一篇博客的续集,所有测试和评测均基于第一篇刷机博客的环境上完成的测测试。博客对 DeepAnything 系列工程在 Nvidia Jetson Thor 上进行部署与测试。

  • 《全网首发! Nvidia Jetson Thor 128GB DK 刷机与测评(一)刷机与 OpenCV-CUDA、pytorch CUDA13.0+ 使用》
  • 《全网首发! Nvidia Jetson Thor 128GB DK 刷机与测评(二)常用功能测评 Ollama、ChatTTS、Yolov13》

【Note】:除了源码外,这篇博客涉及到的资源我都放在了百度网盘中,你可以直接从网盘内下载:

通过网盘分享的文件:DepthAnything
链接: https://pan.baidu.com/s/18S8WZQnSDEMtznl_g-StyQ?pwd=p285 提取码: p285 
--来自百度网盘超级会员v5的分享

【注意】:不必每一个工程都执行,文档在撰写的时候确保单独某个工程通过我们提供的步骤均可独立运行。例如,如果你只想部署 PromptDA,那么你只需要按照 PromptDA 这一小节的内容操作即可,前面的内容可以跳过。

该系列的部署和应用整体而言比较简单,没有核心操作是 避开工程 requlrements.txt 文件中的 torch 安装


Depth-Anything Series

Depth Anything 系列在这两年有了多次迭代,从最基础的单帧图片的 Depth AnythingV2 到视频的 Video Depth Anything,再到 4K 加速的 PromptDA,这篇博客将对这三个主要工作在 Thor 上部署与测试进行记录。

  • Depth-AnythingV2 Github 连接:https://github.com/DepthAnything/Depth-Anything-V2
  • Video Depth Anything Github 连接:https://github.com/DepthAnything/Video-Depth-Anything
  • PromptDA Github 连接:https://github.com/DepthAnything/PromptDA

Depth-AnythingV2

由于 Depth-AnythingV2 相比较于 V1 版本在性能和细节上均有较大提升,因此这里直接跳过 V1 版本的模型直接测试 V2。

  • Depth-AnythingV2 Github 连接:https://github.com/DepthAnything/Depth-Anything-V2

Step1. 创建工作空间

首先创建一个工作空间用来在容器内做路径映射,这里假设为 Desktop/depth_ws

$ cd Desktop
$ mkdir depth_ws

Step2. 下载源码与资源

进入到 depth_ws 工作空间中拉取源码:

$ cd depth_ws
$ git clone https://github.com/DepthAnything/Depth-Anything-V2.git

然后进入到 Depth-Anything-V2 文件夹创建一个 checkpoints 的文件夹:

$ cd Depth-Anything-V2
$ mkdir checkpoints

可以直接点击下面的链接进行下载模型文件,也可以从我的网盘链接中下载。此处以 Depth-Anything-V2-Large 为例,将下载好的模型文件放在刚才新建的 checkpoints 目录下:

ModelParamsCheckpointSize
Depth-Anything-V2-Small24.8MDownload99.2 MB
Depth-Anything-V2-Base97.5MDownload390 MB
Depth-Anything-V2-Large335.3MDownload1.34 GB
Depth-Anything-V2-Giant1.3BComing soon

官方在仓库中提供了一些示例存放在 Depth-Anything-V2/assets 目录下,我在网盘中也存放了一张图片和一段景区视频可以直接从我的网盘中下载 dining-table.jpglandscape.mp4 这两个文件,这两个文件均为我自己拍摄,不涉及任何版权问题,一张是餐桌照片,另一个是一段景区视频:

在这里插入图片描述

这两个资源放在任何位置都可以,只不过在运行的时候需要指明,此处在Depth-Anything-V2 文件夹创建一个 resources 的文件夹用来存放这两个文件。此时你的 Depth-Anything-V2 文件目录结构应该如下:

$ cd Desktop/depth_ws/Depth-Anything-V2
$ tree -L 2

在这里插入图片描述

然后修改 Depth-Anything-V2/requirements.txt 文件,将 torchtorchvision
这两行注释掉,效果如下:

在这里插入图片描述


Step3. 启动容器

进入到创建的工作空间中使用下面的命令启动容器:

$ cd Desktop/depth_ws
$ docker run -dit \--net=host \--runtime nvidia \--privileged \--ipc=host \--ulimit memlock=-1 \--ulimit stack=67108864 -v $(pwd):/workspace nvcr.io/nvidia/pytorch:25.08-py3 bash

查看正在运行的容器后直接进入即可:

$ docker ps -aCONTAINER ID   IMAGE                              COMMAND                  CREATED         STATUS         PORTS     NAMES
66bbc89f7b87   nvcr.io/nvidia/pytorch:25.08-py3   "/opt/nvidia/nvidia_…"   7 seconds ago   Up 6 seconds             hungry_dewdney$ sudo docker exec -it hungry_dewdney /bin/bash

在这里插入图片描述

进入到 Depth-Anything-V2 目录下安装依赖环境:

$ pip install -r requirements.txt

还需要安装 libgl 库:

$ apt-get update
$ apt-get install libgl1 -y

Step4. 转换图像化和视频

转换图像

首先演示官方仓库中提供的示例,位置在 assets/examples 目录下,这里以 Depth-Anything-V2/assets/examples/demo01.jpg 文件为例:

$ python run.py --img-path ./assets/examples/demo01.jpg

图像会保存到 Depth-Anything-V2/vis_depth 路径下:

在这里插入图片描述

如果你在上面下载了我网盘中的示例,那么使用下面的命令进行转换:

$ python run.py --img-path ./resources/dining-table.jpg

图像会保存到 Depth-Anything-V2/vis_depth 路径下:

在这里插入图片描述

转换视频

首先演示官方仓库中提供的示例,位置在 assets/examples 目录下,这里以 Depth-Anything-V2/assets/examples_video/ferris_wheel.mp4 文件为例:

$ python run_video.py --video-path ./assets/examples_video/ferris_wheel.mp4

视频会保存到 Depth-Anything-V2/vis_video_depth 路径下:

在这里插入图片描述

如果你在上面下载了我网盘中的示例,那么使用下面的命令进行转换:

$ python run_video.py --video-path ./resources/landscape.mp4

视频会保存到 Depth-Anything-V2/vis_video_depth 路径下:

在这里插入图片描述

【Note】:图像转换的耗时可能不易察觉,但视频转换时就很容易发现时间有些过长,因此他们团队推出了专供视频转换的仓库 Video Depth Anything


Step5. [可选] 保存容器

如果你将上面的环境配置完成并且后面还会继续使用,那么强烈建议将当前的容器进行保存。

首先使用 Ctrl+C 退出容器并暂停容器并查看容器 ID:

$ docker ps -aCONTAINER ID   IMAGE                              COMMAND                  CREATED          STATUS          PORTS     NAMES
66bbc89f7b87   nvcr.io/nvidia/pytorch:25.08-py3   "/opt/nvidia/nvidia_…"   20 minutes ago   Up 20 minutes             hungry_dewdney$ sudo docker stop hungry_dewdney

然后提交这个容器的信息,附上自己的名字和 commit:

在这里插入图片描述


Video Depth Anything

  • Video Depth Anything Github 连接:https://github.com/DepthAnything/Video-Depth-Anything

Step1. 创建工作空间

首先创建一个工作空间用来在容器内做路径映射,这里假设为 Desktop/depth_ws

$ cd Desktop
$ mkdir depth_ws

Step2. 下载源码与资源

进入到 depth_ws 工作空间中拉取源码:

$ cd depth_ws
$ git clone https://github.com/DepthAnything/Video-Depth-Anything.git

然后进入到 Depth-Anything-V2 文件夹创建一个 checkpoints 的文件夹:

$ cd Video-Depth-Anything
$ mkdir checkpoints

可以直接点击下面的链接进行下载模型文件,也可以从我的网盘链接中下载。此处以 Video-Depth-Anything-Large 为例,将下载好的模型文件放在刚才新建的 checkpoints 目录下:

ModelParamsCheckpointSize
Video-Depth-Anything-Small28.4MDownload111.05 MB
Video-Depth-Anything-Base113.1MDownload437.02 MB
Video-Depth-Anything-Large381.8MDownload1.43 GB
Metric-Video-Depth-Anything-Small28.4MDownload111.05 MB
Metric-Video-Depth-Anything-Base113.1MDownload437.02 MB
Metric-Video-Depth-Anything-Large381.8MDownload1.43 GB

准备一个图片和视频资源,你可以直接从我的网盘中下载 dining-table.jpglandscape.mp4 这两个文件,这两个文件均为我自己拍摄,不涉及任何版权问题,一张是餐桌照片,另一个是一段景区视频:

在这里插入图片描述

这两个资源放在任何位置都可以,只不过在运行的时候需要指明,此处在Depth-Anything-V2 文件夹创建一个 resources 的文件夹用来存放这两个文件。此时你的 Depth-Anything-V2 文件目录结构应该如下:

$ cd Desktop/depth_ws/Video-Depth-Anything
$ tree -L 2

在这里插入图片描述

未完待续,预计 09月14日


[预计09月14日] PromptDA


文章转载自:

http://PlOjDGVe.wkmrL.cn
http://Z4bRakZP.wkmrL.cn
http://8F32anpz.wkmrL.cn
http://NkRNpCZp.wkmrL.cn
http://GMAiQ8Xw.wkmrL.cn
http://Kz1xlvp5.wkmrL.cn
http://7jbMg89P.wkmrL.cn
http://ICMMYTYV.wkmrL.cn
http://xLXban7L.wkmrL.cn
http://kWTDGlgo.wkmrL.cn
http://yDQtqN3f.wkmrL.cn
http://ERb5lmyM.wkmrL.cn
http://pSRrUQ5W.wkmrL.cn
http://fsXyfBpL.wkmrL.cn
http://4dGaA1mx.wkmrL.cn
http://yWzPIRXo.wkmrL.cn
http://RaLvod3n.wkmrL.cn
http://GKHltSam.wkmrL.cn
http://phgNgMPU.wkmrL.cn
http://h4KB1yL9.wkmrL.cn
http://7HvCVUB4.wkmrL.cn
http://XEWfLke1.wkmrL.cn
http://6XkrKCYN.wkmrL.cn
http://vfzlmtjX.wkmrL.cn
http://HnlwRG9U.wkmrL.cn
http://sGMCNE2N.wkmrL.cn
http://2O6CCCzo.wkmrL.cn
http://t8G90UoD.wkmrL.cn
http://CvCPdJqp.wkmrL.cn
http://U2hXdH9i.wkmrL.cn
http://www.dtcms.com/a/382687.html

相关文章:

  • Python快速入门专业版(二十六):Python函数基础:定义、调用与返回值(Hello函数案例)
  • 【系列文章】Linux中的并发与竞争[03]-自旋锁
  • Web前端面试题(1)
  • 海盗王客户端BMP纹理图片解密
  • FreeRTOS 知识点
  • Mac电脑上如何打印出字体图标
  • 2.2顺序表
  • 如何打造高效AI智能体工具
  • 2025智能制造研发效率提升指南:从“项目-流程-数据”闭环看工具选型
  • 【leetcode】5. 最长回文子串
  • 01trie
  • P4342 [IOI 1998] Polygon -普及+/提高
  • 13.ImGui-搭建内部绘制的ImGui项目框架(无消息循环的简单ImGui实例)
  • 工业互联网与数字孪生:解码产业数字化转型的核心支撑
  • 知识库内容冗余重复该怎么办
  • ScreenToGif:一款免费开源的屏幕录制与GIF制作工具
  • XHR与Fetch取消请求的方法及原理深度解析
  • 除了 transformer 还有哪些 新的 神经网络架构
  • 鸿蒙NEXT的Web组件网络安全与隐私保护实践
  • D. Coprime
  • 利用python pandas库清洗病例处方清洗步骤
  • 数据库在并发访问时,不同隔离级别下脏读幻读问题
  • Python核心技术开发指南(065)——with语句
  • Python核心技术开发指南(064)——析构方法
  • 20250913-01: Langchain概念:Runnable可运行接口
  • 记一次谷歌语法获取路径 针对空白页面
  • Java GC:从GC Roots到分代设计的哲学
  • 一款4000℃高温材料设计方案及性能预测
  • 【leetcode】64. 最小路径和
  • 2.10组件间的通信