当前位置: 首页 > wzjs >正文

中国移动视频网站建设电脑培训机构哪个好

中国移动视频网站建设,电脑培训机构哪个好,工厂弄个网站做外贸如何处理,网络广告推广实施计划前言 测试工程师在管理测试资产时,需要面对多种文档格式、大量文件分类及知识库的构建任务。为了解决这些问题,我们升级了 DeepSeek智能测试知识库助手,不仅支持更多文档格式,还加入了 多线程并发处理 和 可扩展格式支持,大幅提升处理性能和灵活性。 主要功能亮点: 多格…

前言

测试工程师在管理测试资产时,需要面对多种文档格式、大量文件分类及知识库的构建任务。为了解决这些问题,我们升级了 DeepSeek智能测试知识库助手,不仅支持更多文档格式,还加入了 多线程并发处理可扩展格式支持,大幅提升处理性能和灵活性。

主要功能亮点:

  1. 多格式支持:扩展支持 .md.csv 文件,兼容 docxpdftxtxlsx 等常见类型。
  2. 多线程并发处理:利用多线程加速文件处理,以应对大文件或批量文件的高效分类和存储。
  3. 智能清洗与分词:清理无用内容、提取高价值文本并分词,为 DeepSeek 提供更优质的输入。
  4. DeepSeek分类接口:结合 AI 模型精准分类,自动归档到知识库。
  5. 结构化存储:处理后的内容以 JSON 格式存储,便于后续扩展和检索。

知识库层级设计

与之前版本一致,知识库结构继续按 类型项目模块 分类,支持扩展到更多类别:

知识库/
├── 测试策略和计划/
│   ├── 测试策略.json
│   ├── 测试计划.json
├── 测试用例和脚本/
│   ├── 登录模块用例.json
│   ├── 自动化脚本.json
├── 测试工具和框架/
│   ├── 工具指南.json
│   ├── 框架文档.json
├── 缺陷管理/
│   ├── 缺陷报告模板.json
│   ├── 缺陷跟踪.json
├── 测试方法和技术/
├── 版本控制和发布管理/
├── 学习资源和培训材料/
├── 常见问题和解答/
└── 参考文档/

升级实现方案

1. 支持更多文档格式

扩展文档内容提取支持

扩展支持 .md(Markdown)和 .csv(表格文件)格式,统一处理接口,增加灵活性。

import pandas as pd
from PyPDF2 import PdfReader
from docx import Documentdef extract_text(file_path):"""根据文件类型提取内容:param file_path: 文件路径:return: 文本内容"""ext = file_path.split(".")[-1].lower()if ext == "txt":with open(file_path, "r", encoding="utf-8") as f:return f.read()elif ext == "docx":return "\n".join([paragraph.text for paragraph in Document(file_path).paragraphs])elif ext == "pdf":reader = PdfReader(file_path)return "\n".join([page.extract_text() for page in reader.pages])elif ext == "xlsx":df = pd.read_excel(file_path)return df.to_csv(index=False)  # 转换为 CSV 格式文本elif ext == "md":with open(file_path, "r", encoding="utf-8") as f:return f.read()elif ext == "csv":df = pd.read_csv(file_path)return df.to_csv(index=False)else:return "Unsupported file format."

2. 文档清洗和分词

智能清洗代码实现

使用正则表达式去除无关内容(如页眉页脚、空行、多余标点等),并对文本内容进行分词处理。此处需将NLTK对应的包放置在指定位置。

获取位置:

import nltk
nltk.find('.')

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

文件下载路径:

https://github.com/nltk/nltk_data/tree/gh-pages/packages/tokenizers

已上传云盘,也可联系获取云盘资源~

import re
from nltk.tokenize import word_tokenize
from nltk.corpus import stopwords
import nltk# 下载 NLTK 数据(首次运行时需要)
nltk.download("punkt")
nltk.download("stopwords")def clean_and_tokenize(text):"""清洗文本并进行分词:param text: 原始文本:return: 清洗后的文本和分词结果"""# 清洗文本cleaned_text = re.sub(r"\s+", " ", text)  # 去除多余空格cleaned_text = re.sub(r"[^\w\s,。!?:;、]", "", cleaned_text)  # 保留常见标点和文字cleaned_text = cleaned_text.strip()# 分词处理stop_words = set(stopwords.words("english") + stopwords.words("chinese"))  # 停用词tokens = [word for word in word_tokenize(cleaned_text) if word not in stop_words]return cleaned_text, tokens

3. 并发处理优化

多线程实现

利用 Python 的 concurrent.futures 模块,实现文件的并发处理,提升性能。

from concurrent.futures import ThreadPoolExecutordef process_single_file(file_path, knowledge_base_dir="知识库/"):"""处理单个文件:清洗、分类、存储:param file_path: 文件路径:param knowledge_base_dir: 知识库根目录"""try:# 提取内容content 
http://www.dtcms.com/wzjs/502163.html

相关文章:

  • 住房和城乡建设部网站职责东莞网络营销全网推广
  • 百度搜索网站的图片百度关键词快速排名
  • 手机网站制作注意事项免费建站工具
  • 网站建设 策划方案书2024近期新闻
  • 网站上的弹框如何做网页文案短句干净治愈
  • 如何维护建设网站怎么推广引流客户
  • 怎么找人做网站啊百度地图导航
  • linux系统网站空间百度公司销售卖什么的
  • 天津建设工程信息网咨询电话seo免费诊断
  • 做网站窗体属性栏设置文字居中郑州seo教程
  • php做网站开发有什么框架济南头条新闻热点
  • 怎么做猫的静态网站百度一下你就知道官网
  • 无印良品vi设计分析seo外链工具
  • 如何建设高等数学课程网站bt磁力种子
  • 网站联系我们页面国外域名注册
  • 提供网站制作做小程序公司哪家好
  • 合肥城乡建设委员会网站微信如何引流推广精准加人
  • 360极速浏览器网站开发缓存软文范例大全
  • 网站开发谷歌关键词
  • 河南网站建设yipinpaiseo网络优化
  • 莱芜中考网站百度指数功能有哪些
  • 亚马逊欧洲站vat怎么申请怎么做线上销售
  • 网站建设与推广策划书网站优化推广服务
  • 如何提升网站访问速度百度统计api
  • wordpress修改网站icon网络推广平台有哪些渠道
  • 淮南appseo快速排名案例
  • 澄城县城乡建设局网站网络营销推广策划
  • 国家建设标准网站湖北荆门今日头条
  • 永年网站建设b站视频推广网站动漫
  • 邯郸做网站公司网络营销知识