本地部署DeepSeek大模型的基本方法
正常安装Ollama程序
然后点击下图中的内容,然后随便在文本框里面输入一句话,则程序会自动下载DeepSeek的模型
下载完成后,输入如下指令让外部的设备也能访问改机器,记得要重启哦
##在Window环境中输入如下两个指令就可以直接ollama访问方式对外了
setx OLLAMA_HOST "0.0.0.0"
setx OLLAMA_ORIGINS "*"
客户端访问方法
在微软的edge浏览器的地址栏中输入如下的插件下载地址
Page Assist - A Web UI for Local AI Models - Microsoft Edge AddonsMake Microsoft Edge your own with extensions that help you personalize the browser and be more productive.https://microsoftedge.microsoft.com/addons/detail/page-assist-a-web-ui-fo/ogkogooadflifpmmidmhjedogicnhooa?hl=zh-CN安装完成后,就可以在打开的插件中使用了,记得要换对应架设服务器的对应的IP地址,如果是本地的访问,就可以直接用该插件自己带的地址就可以了
例如我架设的远程服务器地址:http://10.100.183.50:11434/
上面的表示ollama的服务已经在运行了,左上角选择对应的deepseek的模型就可以了;