当前位置: 首页 > news >正文

当Ollama遇上划词翻译:我的Windows本地AI服务搭建日记

🚀 实现Windows本地大模型翻译服务 - 基于Ollama+Flask的划词翻译实践

    • 🛠️ 步骤概要
      • 1️⃣ python 环境准备
      • 2️⃣ Ollama 安装
      • 3️⃣ 一个 Flask 服务
      • 4️⃣ Windows 服务化封装
      • 5️⃣ 测试本地接口
      • 6️⃣ 配置划词翻译自定义翻译源
      • 7️⃣ 效果展示
      • 8️⃣ debug 历程
      • 💡 技术亮点

🛠️ 步骤概要

参考 API 文档:

  • Ollama API
  • 划词翻译自定义翻译源

1️⃣ python 环境准备

# 虚拟环境
conda create -n ollama_trans
conda activate ollama_trans
pip install flask flask-cors pywin32 requests waitress
# 请确保完成 pywin32_postinstall.py 的安装步骤。:
python path\to\your\envs\ollama_trans\Scripts\pywin32_postinstall.py -install

2️⃣ Ollama 安装

安装 Ollama 最好提前设置安装路径和模型下载路径,否则它都一股脑干到 C 盘。可以参考前一篇博客 《本地投喂deepseek》:

  • 设置模型保存路径:新增环境变量 OLLAMA_MODELS,值为目标地址,似乎要 重启电脑生效
  • 指定安装目录:OllamaSetup.exe /DIR=“D:\some\location”
  • ollama默认在 11434 端口提供 REST API,比如通过 curl 发送请求到 /api/generate 来生成文本:
curl http://localhost:11434/api/generate -d "{\"model\": \"deepseek-r1:14b\", \"prompt\": \"Why is the sky blue?\", \"stream\": false}"
  • 我们的目的就是用 flask 写一个服务器适配 Ollama 和划词翻译的 API

3️⃣ 一个 Flask 服务

遇事不决问 DS

# translation_service.py
import re
import win32serviceutil
import win32service
import win32event
import servicemanager
import socket
from flask import Flask, request, jsonify
from flask_cors import CORS
from waitress import serve
import requests
import logging
import sys
import os

app = Flask(__name__)
CORS(app)

# 获取当前脚本所在的目录
current_directory = os.path.dirname(os.path.abspath(__file__))
# 定义日志文件名
log_file_path = os.path.join(current_directory, 'flask_svc.log')
# 配置日志记录器
logging.basicConfig(
    level=logging.INFO,
    format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s',
    datefmt='%a, %d %b %Y %H:%M:%S',
    filename=log_file_path,
    filemode='a'  # 使用 'a' 表示追加模式,'w' 表示覆盖模式
)
logger = logging.getLogger(__name__)

# 选择ollama的模型
MODEL_NAME = {
    "qwen": "qwen2.5:7b-instruct-q8_0",
    "llama": "llama3.2:3b",
    "deepseek": "deepseek-r1:14b"  # 其实 deepseek-r1 擅长推理,并不适合翻译,有点慢
}

# 语言映射
LANGUAGE_MAP = {
    "中文(简体)": "中文",
    "英语": "英文",
    "日语": "日文"
}

def clean_response(text):
    """清除<think>标签内容"""
    # 过滤DeepSeek思考过程的正则表达式
    THINK_PATTERN = re.compile(r'<think>.*?</think>', re.DOTALL)
    return THINK_PATTERN.sub('', text).strip()

def build_prompt(text, source, target):
    source_lang = LANGUAGE_MAP.get(source, source)
    target_lang = LANGUAGE_MAP.get(target, target)
    return f"作为专业翻译官,请将以下{source_lang}内容精准翻译为{target_lang},仅输出译文:\n{text}"

@app.route('/translate', methods=['POST'])
def translate():
    try:
        data = request.json
        logger.info(f"收到请求: {data}")

        # 提取必要参数
        model_name = data['name'].lower()
        text = data["text"]
        dest_langs = data["destination"]
        source_lang = data.get("source") or "auto"

        if source_lang == dest_langs[0] and len(dest_langs) > 1:
            target_lang = dest_langs[1]
        else:
            target_lang = dest_langs[0]

        response = requests.post(
            "http://localhost:11434/api/generate",
            json={
                "model": MODEL_NAME.get(model_name, model_name),
                "prompt": build_prompt(text, source_lang, target_lang),
                "stream": False,
                "options": {"temperature": 0.3}
            }
        )

        # 处理翻译结果
        raw_response = response.json()["response"]
        translated_text = clean_response(raw_response)

        return jsonify({
            "text": text,
            "from": source_lang,
            "to": target_lang,
            "result": [translated_text]
        })

    except Exception as e:
        logger.error(f"翻译失败: {str(e)}")
        return jsonify({"error": str(e)}), 500


class TranslationService(win32serviceutil.ServiceFramework):
    _svc_name_ = "LocalOllamaTranslationService"  # 服务名称(唯一)
    _svc_display_name_ = "Ollama本地翻译服务"
    _svc_description_ = "为划词翻译提供基于Ollama中运行的大模型的本地翻译服务"  # 服务描述

    logger.info(f"svc_name: {_svc_name_}, model_name: {MODEL_NAME}")

    def __init__(self, args):
        win32serviceutil.ServiceFramework.__init__(self, args)
        self.hWaitStop = win32event.CreateEvent(None, 0, 0, None)
        socket.setdefaulttimeout(60)

    def SvcStop(self):
        self.ReportServiceStatus(win32service.SERVICE_STOP_PENDING)
        logger.info("Stopping Ollama Translation Service...")
        win32event.SetEvent(self.hWaitStop)
        servicemanager.LogInfoMsg("服务正在停止...")
        logger.info("Service stopped successfully.")

    def SvcDoRun(self):
        logger.info("Starting Ollama Translation Service...")
        try:
            self.main()
            logger.info("Service started successfully.")
        except Exception as e:
            logger.error(f"Failed to start service: {str(e)}")
            self.ReportServiceStatus(win32service.SERVICE_STOPPED)

    def main(self):
        serve(app, host='127.0.0.1', port=5000)


if __name__ == '__main__':
    if len(sys.argv) == 1:
        servicemanager.Initialize()
        servicemanager.PrepareToHostSingle(TranslationService)
        servicemanager.StartServiceCtrlDispatcher()
    else:
        win32serviceutil.HandleCommandLine(TranslationService)

4️⃣ Windows 服务化封装

以下脚本都需要以管理员身份运行

  • 启动服务脚本 install_service.bat
:: install_service.bat
@echo off
# 这里的 python 解释器要填虚拟环境那个,否则找不到包
set PYTHON_PATH=path\to\your\envs\ollama_trans\python.exe
set SCRIPT_PATH=%~dp0translation_service.py

%PYTHON_PATH% %SCRIPT_PATH% --startup=auto install
# 这里的服务名称 LocalOllamaTranslationService 要跟上面程序里面的一致,是唯一的
net start LocalOllamaTranslationService
  • 关闭服务脚本 uninstall_service.bat
:: uninstall_service.bat
@echo off
net stop LocalOllamaTranslationService
set PYTHON_PATH=path\to\your\envs\ollama_trans\python.exe
set SCRIPT_PATH=%~dp0translation_service.py

%PYTHON_PATH% %SCRIPT_PATH% remove
  • 最终的文件结构:
├── translation_service.py    # 主服务程序
├── install_service.bat       # 服务安装脚本
├── uninstall_service.bat     # 服务卸载脚本
└── flask_svc.log             # python 日志

5️⃣ 测试本地接口

现在我们请求的是 flask 服务的端口,我这里指定了模型名称是 qwen,ollama 中也下载了 qwen2.5:7b-instruct-q8_0

curl -X POST http://localhost:5000/translate -H "Content-Type: application/json" -d "{\"name\": \"qwen\",\"text\": \"人工智能的发展前景\", \"destination\": [\"中文(简体)\", \"英语\"], \"source\": \"中文(简体)\"}"

返回:

{"from":"\u4e2d\u6587(\u7b80\u4f53)","result":["The Prospects for the Development of Artificial Intelligence"],"text":"\u4eba\u5de5\u667a\u80fd\u7684\u53d1\u5c55\u524d\u666f","to":"\u82f1\u8bed"}

6️⃣ 配置划词翻译自定义翻译源

插件设置
在这里插入图片描述

自定义翻译源

  • 接口地址:http://localhost:5000/translate

  • 翻译源名称:qwen,然后回车

  • 测试

根据上面的程序逻辑,翻译源名称最好跟 ollama 下载的模型名称一致

7️⃣ 效果展示

  • 划词翻译
    在这里插入图片描述
  • windows 服务
    在这里插入图片描述

8️⃣ debug 历程

  • 日志的重要性
    • 一开始 deepseek 生成的 py 程序都没写日志,启动服务一直失败,报错:pywintypes.error: (1063, 'StartServiceCtrlDispatcher', '服务进程无法连接到服务控制器上。'),再拿这些报错去问它,给了一堆方案都没解决问题 😄
    • 写了 logger 才发现问题所在:
Sat, 15 Feb 2025 21:19:16 wasyncore.py[line:449] INFO Serving on http://127.0.0.1:5001
Sat, 15 Feb 2025 21:22:47 app.py[line:875] ERROR Exception on /translate [POST]
Traceback (most recent call last):
  File "D:\dev\miniconda\miniconda3\envs\flask\Lib\site-packages\flask\app.py", line 1511, in wsgi_app
    response = self.full_dispatch_request()
  File "D:\dev\miniconda\miniconda3\envs\flask\Lib\site-packages\flask\app.py", line 919, in full_dispatch_request
    rv = self.handle_user_exception(e)
  File "D:\dev\miniconda\miniconda3\envs\flask\Lib\site-packages\flask_cors\extension.py", line 165, in wrapped_function
    return cors_after_request(app.make_response(f(*args, **kwargs)))
                                                ~^^^^^^^^^^^^^^^^^
  File "D:\dev\miniconda\miniconda3\envs\flask\Lib\site-packages\flask\app.py", line 917, in full_dispatch_request
    rv = self.dispatch_request()
  File "D:\dev\miniconda\miniconda3\envs\flask\Lib\site-packages\flask\app.py", line 902, in dispatch_request
    return self.ensure_sync(self.view_functions[rule.endpoint])(**view_args)  # type: ignore[no-any-return]
           ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~^^^^^^^^^^^^^
TypeError: TranslationService.translate() missing 1 required positional argument: 'self'
  • 服务启停
    • cmd 中的双引号是需要用反斜杠 \ 转义的,在 powershell 中不需要
    • debug 过程中需要起了又删掉 LocalOllamaTranslationService 服务:
    • sc queryex LocalOllamaTranslationService 得到 PID
    • taskkill /f /pid <PID> 强行停止
    • sc delete LocalOllamaTranslationService 删掉这个服务 ID 后才能再启动程序,否则会报错服务已存在
    • 或者以管理员身份打开 cmd 或者 VS Code,执行 python:
    • python translation_service.py stop 停止服务
    • python translation_service.py remove 删除服务
    • python translation_service.py install 安装服务
    • python translation_service.py start 启动服务

💡 技术亮点

  • 完全离线: 从模型推理到翻译服务全程本地运行

  • 隐私保护: 敏感文本无需离开本地设备

  • 低延迟: 省去网络传输耗时,平均响应<500ms

  • 可扩展架构: 轻松切换不同大语言模型

相关文章:

  • 一些常用的Yum源
  • 项目版本号生成
  • 嵌入式玩具--无人机字幕
  • 【C++】32.C++11​(4)
  • 了解module_driver宏
  • Flask中获取请求参数的一些方式总结
  • 什么是GraphQL?
  • Day45(补)【软考】2022年下半年软考软件设计师综合知识真题-计算机软件知识1
  • 电子制造企业数字化转型实战:基于Odoo构建MES平台的深度解决方案
  • DC-7靶机渗透测试全过程
  • 学习数据结构(10)栈和队列下+二叉树(堆)上
  • 机器学习实战(2):数据预处理——机器学习的第一步
  • C++效率掌握之STL库:string底层剖析
  • Zotero7 从下载到安装
  • K-均值(K-means)
  • LM Studio笔记
  • 使用 Vite + React 19 集成 Tailwind CSS 与 shadcn/ui 组件库完整指南
  • 日常知识点之遗留问题梳理(被问到用uml画设计模式)
  • Promise详解大全:介绍、九个方法使用和区别、返回值详解
  • 全面理解-c++11的引用折叠
  • 孙卫东会见巴基斯坦驻华大使:支持巴印两国实现全面持久停火
  • 中巴续签双边本币互换协议,进一步深化金融战略合作
  • “一码难求”的Manus开放注册但价格不菲,智能体距离“实用”还有多远
  • “远践”项目启动公益生态圈,上海青少年公益力量蓬勃生长
  • 商务部召开外贸企业圆桌会:全力为外贸企业纾困解难,提供更多支持
  • 中国目的地·入境游简报006|外国网红游中国启示录