AutoDL内网穿透、SSH连接本地VSCode
1、配置LlamaFactory
# 拉取LLamaFactory
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
# 进入LLamaFactory目录
cd LLaMA-Factory
# 安装依赖
pip install -e ".[torch,metrics]"
2、启动WebUI
llamafactory-cli webui
3、在本地配置端口
容器–》自定义服务–〉将端口好更改为7860
4、SSH连接本地VSCode(MAC)
打开Vscode
command+enter+P–》输入“添加新的SSH”–〉复制AutoDL中服务器的SSH登录指令
5、下载模型
⚠️ 关于AutoDL的地址路径
万恶之源“/root”
export HF_ENDPOINT=https://hf-mirror.com
export HF_HOME=/root/autodl-tmp/huffingface_models
huggingface-cli download --resume-download deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B
6、在LlamaFactory验证模型
注意在无卡模式无法运行模型