当前位置: 首页 > news >正文

Ollama进行DeepSeek本地部署存在安全风险解决方案,nginx反向代理配置

文章目录

    • 概要
    • 整体架构流程
    • 技术细节
    • **## 1.下载nginx [https://nginx.org/en/download.html](https://nginx.org/en/download.html),推荐Stable version稳定版**
    • 2.下载完成解压文件,打开conf文件夹下的nginx.conf,贴上反向代理配置
    • 3.然后点击解压文件夹下的nginx.exe,启动成功是如下页面,默认是本机ip地址80端口,80端口可以省略。
    • 4.关闭ollama,右键菜单栏选择任务管理器,关闭这两个进程
    • 5.查看ollama配置,电脑右击属性,高级系统设置,环境变量,用户变量中,如果是0.0.0.0(是指默认所有ip都可以访问)的修改为127.0.0.1
    • 6.启动ollama,打开cmd
    • 7.在需要访问大模型的机器上输入192.168.xx.xx2:8088即可访问

概要

3月3日,国家网络安全通报中心发布关于大模型工具Ollama存在安全风险的情况通报,内容如下:
据清华大学网络空间测绘联合研究中心分析,开源跨平台大模型工具Ollama默认配置存在未授权访问与模型窃取等安全隐患。鉴于目前DeepSeek等大模型的研究部署和应用非常广泛,多数用户使用Ollama私有化部署且未修改默认配置,存在数据泄露、算力盗取、服务中断等安全风险,极易引发网络和数据安全事件。

整体架构流程

解决流程就是配置ollama环境变量,使用nginx反向代理。

技术细节

## 1.下载nginx https://nginx.org/en/download.html,推荐Stable version稳定版

在这里插入图片描述

2.下载完成解压文件,打开conf文件夹下的nginx.conf,贴上反向代理配置

worker_processes  1;

events {
    worker_connections  1024;
}

http {
    include       mime.types;
    default_ty

相关文章:

  • 2025 电商新航道:AI 多模态交互领航,元宇宙商品展示赋能
  • 【第一章、北海渔村】AI写作效果预览 【AI小说+AI人物图】评论区点赞留言 告知工具
  • 微软发布Dragon Copilot,打造医疗行业首款AI语音助手
  • 19.5-STM32接收数据-根据状态控制电机
  • 利用Git和wget批量下载网页数据
  • 【LangChain】对话历史管理
  • Celia智能助手2.0架构演进与性能突破
  • 网络安全中分区分域
  • 18.1 大模型时代的开源与数据协议:合规之路与技术突
  • 【网络安全】SSL重协商原理、过程、防范详解(含案例)
  • 如何将ConfigMap中的内容挂载为容器内的文件
  • 计算机视觉算法实战——医学影像分割(主页有源码)
  • 大模型笔记_大模型不是靠记忆回答问题
  • C++20 标准化有符号整数:迈向更可预测的整数运算
  • 《深度学习进阶》第9集:自监督学习与无监督学习
  • ES检索elasticsearch实现python库方法
  • 基于微信小程序的停车场管理系统的设计与实现
  • 【论文带读(3)】《Real-Time Flying Object Detection with YOLOv8》带读笔记翻译
  • R语言 | 在图形上标注P值的R包
  • QTcpSocket使用指南与实践
  • 阿里巴巴网页版/搜索引擎推广seo
  • 企业网站开发/谷歌搜索引擎入口363
  • 北京做网站比较有名的公司有哪些/济南网站制作平台
  • 贵阳优化网站建设/宁波免费seo排名优化
  • 网页设制作与网站建设宝典 pdf/seo数据是什么
  • 广州的企业网站建设/百度小说免费阅读