nvidia gr00t运行服务和客户端,以及模型微调的时候碰到模型无法下载的问题,解决方法是下载离线的模型,然后修改路径,nvidia gr00t模型微调
步骤1:
nvidia gr00t运行服务和客户端,以及模型微调的时候碰到模型无法下载的问题,解决方法是下载离线的模型,然后修改路径
(gr00t) honor@honor-HP-Z6-G4-Workstation:~/Isaac-GR00T$ python scripts/inference_service.py --model-path ./nvidia/GR00T-N1.5-3B --server
官方给出的的执行指令是这样:
(gr00t) honor@honor-HP-Z6-G4-Workstation:~/Isaac-GR00T$ python scripts/inference_service.py --model-path nvidia/GR00T-N1.5-3B --server
\\\没有./这样就必须用官方的下载指令下载,但是一般情况很难下载下这个模型,因为比较大一共大概6G(2+2+1.8GB)
步骤二:
使用模型微调的指令的时候,需要修改一下gr00t_finetune.py中70行,关于调用模型的配置文件的位置,具体修改为如下:
base_model_path: str = "./nvidia/GR00T-N1.5-3B"
"""Path or HuggingFace model ID for the base model."""
原来是这样:
base_model_path: str = "nvidia