当前位置: 首页 > news >正文

【机器人】复现 WMNav 具身导航 | 将VLM集成到世界模型中

WMNav 是由VLM视觉语言模型驱动的,基于世界模型对象目标导航框架

设计一种预测环境状态记忆策略,采用在线好奇心价值图来量化存储,目标在世界模型预测的各种场景中出现的可能性。

本文分享WMNav复现和模型推理的过程~

下面是一个查找床示例:

目录

1、创建Conda环境

2、安装habitat模拟器

3、安装WMNav的src

4、安装依赖库

5、准备数据集HM3D和MP3D

6、准备Gemini VLM

7、修改配置文件

8、进行模型推理


1、创建Conda环境

首先创建一个Conda环境,名字为wmnav,python版本为3.9

进入wmnav环境

conda create -n wmnav python=3.9 cmake=3.14.0
conda activate wmnav

然后下载代码,进入代码工程:https://github.com/B0B8K1ng/WMNavigation

git clone https://github.com/B0B8K1ng/WMNavigation
cd WMNavigation

2、安装habitat模拟器

我需要安装habitat-sim==0.3.1、headless 和 withbullet

conda install habitat-sim=0.3.1 withbullet headless -c conda-forge -c aihabitat

等待安装完成~

3、安装WMNav的src

执行下面命令进行安装:

pip install -e .

使用setup.py文件进行安装的:

from setuptools import setup, find_packagessetup(name='WMNav',version='0.1',packages=find_packages('src'),package_dir={'': 'src'},
)

 对应的源码文件:

4、安装依赖库

执行下面命令进行安装:

pip install -r requirements.txt

主要依赖下面的库(torch==2.2.2、python-dotenv==1.0.1、Flask==3.0.3等)

Flask==3.0.3
magnum==0.0.0
matplotlib==3.8.4
networkx==3.2.1
numpy==1.23.5
numpy_quaternion==2023.0.3
opencv_python==4.9.0.80
opencv_python_headless==4.10.0.84
pandas==2.2.3
Pillow==11.0.0
protobuf==3.20.3
python-dotenv==1.0.1
PyYAML==6.0.2
regex==2024.4.16
Requests==2.32.3
scipy==1.13.1
seaborn==0.13.2
sympy==1.12
torch==2.2.2
transformers==4.43.3
google-generativeai==0.8.3
wandb==0.18.5

等待安装完成~

5、准备数据集HM3D和MP3D

该工程代码是基于 Habitat 模拟器 ,HM3D 和 MP3D数据集可 在此处 获得。

将下载的 HM3D v0.1、HM3D v0.2 和 MP3D 文件夹移动到以下配置中:

├── data
│  ├── hm3d_v0.1/
│  │  ├── val/
│  │  │  ├── 00800-TEEsavR23oF/
│  │  │  │  ├── TEEsavR23oF.navmesh
│  │  │  │  ├── TEEsavR23oF.glb
│  │  ├── hm3d_annotated_basis.scene_dataset_config.json
│  ├── objectnav_hm3d_v1/
│  │  ├── val/
│  │  │  ├── content/
│  │  │  │  ├──4ok3usBNeis.json.gz
│  │  │  ├── val.json.gz
│  ├── hm3d_v0.2/
│  │  ├── val/
│  │  │  ├── 00800-TEEsavR23oF/
│  │  │  │  ├── TEEsavR23oF.basis.navmesh
│  │  │  │  ├── TEEsavR23oF.basis.glb
│  │  ├── hm3d_annotated_basis.scene_dataset_config.json
│  ├── objectnav_hm3d_v2/
│  │  ├── val/
│  │  │  ├── content/
│  │  │  │  ├──4ok3usBNeis.json.gz
│  │  │  ├── val.json.gz

│  ├── mp3d/
│  │  ├── 17DRP5sb8fy/
│  │  │  ├── 17DRP5sb8fy.glb
│  │  │  ├── 17DRP5sb8fy.house
│  │  │  ├── 17DRP5sb8fy.navmesh
│  │  │  ├── 17DRP5sb8fy_semantic.ply
│  │  ├── mp3d_annotated_basis.scene_dataset_config.json
│  ├── objectnav_mp3d/
│  │  ├── val/
│  │  │  ├── content/
│  │  │  │  ├──2azQ1b91cZZ.json.gz
│  │  │  ├── val.json.gz

这里可以准备三个数据集,然后逐个测试和验证;

也可以下载其中一个进行验证,比如 HM3D v0.2

hm3d_v0.2下载地址:https://github.com/matterport/habitat-matterport-3dresearch

选择的下载文件:hm3d-val-habitat-v0.2.tar

然后需要下载对应的objectnav_hm3d_v2, 下载地址:

https://github.com/facebookresearch/habitat-lab/blob/main/DATASETS.md

6、准备Gemini VLM

默认使用Gemini VLM,需要将基本 URL 和 api 密钥粘贴到 .env 文件 名为 GEMINI_BASE_URL 和 GEMINI_API_KEY 的变量的 中。 

我们还可以尝试其他 VLM,方法是修改 api.py(使用 OpenAI 库)

api的申请地址:https://aistudio.google.com/app/apikey

需要使用谷歌帐号登陆,然后点击“创建API密码”进行创建API密匙

后面需要填写:GEMINI_BASE_URL、GEMINI_API_KEY

7、修改配置文件

修改.env文件的,主要是GEMINI_BASE_URL、GEMINI_API_KEY、DATASET_ROOT

GEMINI_BASE_URL= "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=GEMINI_API_KEY"GEMINI_API_KEY= "AIzaSyA-DDe-xxxxxxxxxxxxx" #INSERT API KEY
DATASET_ROOT= "./data/"
MAGNUM_LOG=quiet
GLOG_minloglevel=4
HABITAT_SIM_LOG=quiet
HABITAT_LOG_LEVEL=error

修改 config/WMNav.yaml配置文件(可选)

# 任务类型:目标导航任务
task: ObjectNav
# 使用的智能体类
agent_cls: WMNavAgent
# 使用的环境类
env_cls: WMNavEnv# 智能体配置
agent_cfg:# 导航性模式:'none'(无导航能力),'depth_estimate'(使用 ZoeDepth 进行深度估计),'segmentation'(使用 Segformer 进行分割),'depth_sensor'(使用深度传感器)navigability_mode: 'depth_sensor'  # 上下文历史记录数量,这里设置为 0context_history: 0# 探索偏差,用于调整智能体的行为explore_bias: 4 # 智能体可执行的最大动作距离max_action_dist: 1.7# 智能体可执行的最小动作距离min_action_dist: 0.5# 动作距离裁剪比例,避免智能体过于靠近障碍物clip_frac: 0.66 # 智能体停止后继续执行的动作长度stopping_action_dist: 1.5 # 默认动作距离,当 VLM 选择的动作无效时,智能体向前移动的距离default_action: 0.2 # 视野范围与角度增量的比率spacing_ratio: 360 # 考虑的动作角度数量num_theta: 60 # 图像边缘阈值,当动作投影在图像边缘的 4% 范围内时不进行投影image_edge_threshold: 0.04 # 智能体转向冷却时间,即智能体在转向后需要等待的步数turn_around_cooldown: 3 # 可导航性高度阈值,从地面开始计算的可导航性高度navigability_height_threshold: 0.2 # 地图比例尺,每米对应的像素数量map_scale: 100 # 视觉语言模型(VLM)配置vlm_cfg:# 使用的模型类model_cls: GeminiVLM# 模型参数model_kwargs:# 使用的模型名称model: gemini-1.5-pro# 是否启用全景填充panoramic_padding: False# 仿真环境配置
sim_cfg:# 智能体的高度agent_height: 0.88# 智能体的半径agent_radius: 0.18# 是否允许滑动allow_slide: true# 是否使用目标图像智能体use_goal_image_agent: false# 传感器配置sensor_cfg:# 传感器高度height: 0.88# 传感器俯仰角pitch: -0.25# 传感器视野范围fov: 79# 传感器图像高度img_height: 480# 传感器图像宽度img_width: 640# 环境配置
env_cfg:# 总共的剧集数量(任务数量)num_episodes: 1# 每个剧集的最大步数max_steps: 40# 日志记录频率log_freq: 1# 数据集划分方式,这里使用验证集split: val# 成功阈值,智能体与目标之间的距离小于该值时认为任务成功success_threshold: 1.0# 数据集实例数量,将数据集划分为多个实例instances: 1 # 当前运行的实例编号instance: 0 # 是否并行运行parallel: false# 环境名称name: default# Flask 服务器端口,用于聚合来自不同实例的结果port: 5000 

8、进行模型推理

执行下面命令:

python scripts/main.py

在logs目录下,运行结果示例:

 分享完成~

相关文章推荐:

UniGoal 具身导航 | 通用零样本目标导航 CVPR 2025-CSDN博客

【机器人】复现 UniGoal 具身导航 | 通用零样本目标导航 CVPR 2025-CSDN博客

【机器人】复现 ECoT 具身思维链推理-CSDN博客

【机器人】复现 SG-Nav 具身导航 | 零样本对象导航的 在线3D场景图提示-CSDN博客

相关文章:

  • Spring Boot 项目的计算机专业论文参考文献
  • 创建react工程并集成tailwindcss
  • React中useState中更新是同步的还是异步的?
  • 文件读取漏洞路径与防御总结
  • c++重要知识点汇总(不定期更新)
  • 机器学习 day04
  • leetcode 239. 滑动窗口最大值
  • gcc/g++常用参数
  • linux-yum-异常
  • 【Docker】docker compose和docker swarm区别
  • UDP的单播组播与广播
  • Vue框架
  • vue2 切换主题色以及单页面好使方法
  • 【HCIA】聚合VLAN
  • QT+Visual Studio 配置开发环境教程
  • Java—异常体系
  • 如何开发专业小模型
  • windows触摸板快捷指南
  • 杭电多校10 : 1007 小塔的魔法树
  • 分糖果--思维+while判断
  • 广西鹿寨一水文站“倒刺扶手”存安全隐患,官方通报处理情况
  • 小米汽车回应部分SU7前保险杠形变
  • 国际金价下跌,中概股多数上涨,穆迪下调美国主权信用评级
  • 陕西旱情实探:大型灌区农业供水有保障,大旱之年无旱象
  • 牛市早报|中方调整对美加征关税措施,五部门约谈外卖平台企业
  • 经济日报整版聚焦:上海构建法治化营商环境,交出高分答卷