当前位置: 首页 > news >正文

本地部署大模型

本地部署大模型

ollama介绍

Ollama的作用

Ollama是一个轻量级的大型语言模型(LLM)软件引擎,用于快速部署和运行大型语言模型。它负责模型的加载和服务器端的推理,确保模型能够快速响应请求。

本地部署DeepSeek时需要Ollama的原因

在本地部署DeepSeek时,需要安装和配置Ollama,因为它负责以下任务:
‌模型文件的解析和加载‌:Ollama负责解析和加载DeepSeek所需的模型文件。
‌本地服务器端的推理逻辑‌:Ollama处理服务器端的推理逻辑,确保模型能够快速响应请求。

ollama安装

前提:需要外网哦

1、下载OllamaSetup

地址:https://ollama.com/
在这里插入图片描述

2、双击安装

点击install,等待安装
在这里插入图片描述

3、验证是否安装成功

安装完之后,打开cmd窗口,验证是否安装成功

ollama -v

在这里插入图片描述

4、下载模型

下载deepseek的1.5b的大模型,太大的本地跑不了

ollama pull deepseek-r1:1.5b

在这里插入图片描述

5、运行模型模型

下载完之后可以运行deepseek模型

ollama run deepseek-r1:1.5b

可以问他问题
在这里插入图片描述

相关文章:

  • 《动手学习深度学习》的笔记,将会持续更新。
  • vue3:三项目增加404页面
  • Mysql 语法再巩固
  • 接口自动化测试框架(pytest+allure+aiohttp+用例自动生成)
  • 香港大学deep-research开源项目
  • (动态规划 最大(连续)子数组和)leetcode 53
  • Elasticsearch 数据量大时如何优化查询性能?
  • Python正则
  • [M数据结构] lc2353. 设计食物评分系统(数据结构+set 平衡树+懒删除堆)
  • 达梦数据库如何查看当前锁表和如何解决锁表问题
  • 企业access_token,与用户access_token区别,获取方式,如何获取用户信息
  • 释放你的IDE潜能:Code::Blocks 插件创意开发深度指南
  • C++—类与对象(下)
  • C#上位机--三元运算符
  • 【分库分表】基于mysql+shardingSphere的分库分表技术
  • 1-kafka单机环境搭建
  • 2025-2-27-4.10 动态规划(0-1 背包问题)
  • Python 编程题 第五节:落体反弹问题、求指定数列之和、求阶乘的和、年龄急转弯、判断回文数、判断星期几、矩阵主对角线元素之和
  • Rk3568驱动开发_自动创建设备节点_8
  • ListControl双击实现可编辑
  • logo图片大全简单/淮北seo
  • 网站打开是别人的/百度推广后台
  • 呼市城乡建设委员会的网站/优化seo招聘
  • 西安网站建设新闻/网站开发详细流程
  • 建设部网站13清单/怎样能在百度上搜索到自己的店铺
  • 个体户能否从事网站建设/国内b站不收费网站有哪些