当前位置: 首页 > wzjs >正文

徐州做网站的公司有哪些武汉seo优化分析

徐州做网站的公司有哪些,武汉seo优化分析,商业网站成功的原因,aspx网站架设近日工作需要整理信息安全的各项标准文件,这些文件通常发布在在官方网站,供社会各界下载和参考。 这些页面中,标准文本文件常以Word(.doc/.docx)或PDF格式提供下载。由于文件数量庞大,手动逐条点击下载效率…

近日工作需要整理信息安全的各项标准文件,这些文件通常发布在在官方网站,供社会各界下载和参考。

这些页面中,标准文本文件常以Word(.doc/.docx)或PDF格式提供下载。由于文件数量庞大,手动逐条点击下载效率极低,且易遗漏,因此决定通过爬虫脚本进行批量自动化下载。

一、流程规划和难点分析

下载流程:

  • 列表页:通过下方链接可以获取所有征求意见通知的标题和对应详情页链接。全国信息安全标准化技术委员会Free HTML5 Template by FREEHTML5https://www.tc260.org.cn/front/bzzqyjList.html?start=0&length=10
  • 详情页:点击通知后进入详情页,页面中包含“标准文本”文件的下载链接。
  • 文件下载:点击下载链接即可获得Word或PDF格式文件。

要点分析:

  • 动态渲染:标准文本文件的下载链接并不直接写在静态HTML里,而是由页面JavaScript动态生成。
  • 多格式文件:文件格式多样,包含.doc.docx.pdf,需兼顾。
  • 文件命名需求:下载文件需根据通知标题提取核心标准名,生成规范文件名,方便管理。
  • 稳定性和礼貌爬取:避免请求过快导致被封,需合理设置间隔。

二、技术选型

  • Requests + BeautifulSoup:用于抓取列表页的静态HTML,解析出通知标题和详情页链接。
  • Selenium:用于模拟浏览器,完整渲染详情页JavaScript后获取文件下载链接。
  • webdriver-manager:自动管理Chrome驱动,简化环境配置。
  • Python标准库:文件操作、正则表达式处理文件名等。

三、具体实现

获取列表页信息

requests请求列表页,利用BeautifulSoup解析HTML,定位所有含“征求意见稿征求意见的通知”的链接和标题,形成待爬取列表。

resp = requests.get(LIST_URL, headers=HEADERS)
soup = BeautifulSoup(resp.text, "html.parser")
# 筛选符合条件的a标签,得到title和详情链接

2. Selenium渲染详情页

详情页的文件链接由JS动态生成,直接用requests无法拿到。使用Selenium模拟浏览器打开详情页:

  • 启动无头Chrome浏览器
  • 加载详情页URL
  • 等待若干秒让JS执行完成
  • 获取渲染后的完整HTML
driver.get(detail_url)
time.sleep(5)  # 等待JS渲染
html = driver.page_source

3. 解析文件下载链接

BeautifulSoup解析渲染后的HTML,提取所有.doc.docx.pdf文件链接和文件名,筛选出“标准文本”相关的文件。

for a in soup.find_all("a", href=True):if a['href'].endswith(('.doc', '.docx', '.pdf')) and "标准文本" in a.text:# 记录文件名和下载链接

4. 文件命名规范处理

从通知的完整标题中,用正则提取标准名(《》内内容)和“征求意见稿”关键字,生成规范文件名,避免文件名非法字符。

def simplify_title(full_title):match = re.search(r'《([^》]+)》', full_title)if match:name = f"《{match.group(1)}》征求意见稿"else:name = full_titlereturn re.sub(r'[\\/*?:"<>|]', "_", name)

5. 下载文件与日志记录

  • 利用requests下载文件,保存到指定目录。
  • 统一打印日志并写入日志文件,方便追踪。
  • 每下载完一个文件,等待5秒,减小服务器压力。

四、完整代码和效果展示

import os
import time
import re
import requests
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from webdriver_manager.chrome import ChromeDriverManagerBASE_URL = "这里写地址"
LIST_URL = "这里写地址"HEADERS = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64)"
}LOG_FILE = os.path.join("downloads", "download_log.txt")def log_print(msg):print(msg)with open(LOG_FILE, "a", encoding="utf-8") as f:f.write(msg + "\n")def sanitize_filename(name):return re.sub(r'[\\/*?:"<>|]', "_", name)def simplify_title(full_title):match = re.search(r'《([^》]+)》', full_title)if not match:return sanitize_filename(full_title)standard_name = f"《{match.group(1)}》"if "征求意见稿" in full_title:return standard_name + "征求意见稿"else:return standard_namedef get_list_page():resp = requests.get(LIST_URL, headers=HEADERS)resp.raise_for_status()return resp.textdef parse_list_page(html):soup = BeautifulSoup(html, "html.parser")notices = []for a in soup.find_all("a", href=True):text = a.get_text(strip=True)href = a['href']if "征求意见稿征求意见的通知" in text and href.startswith("/front/bzzqyjDetail.html"):notices.append({"title": text,"detail_url": BASE_URL + href})return noticesdef fetch_detail_page_selenium(url):options = webdriver.ChromeOptions()options.add_argument('--headless')options.add_argument('--no-sandbox')options.add_argument('--disable-gpu')driver = webdriver.Chrome(service=Service(ChromeDriverManager().install()), options=options)try:driver.get(url)time.sleep(5)html = driver.page_sourcefinally:driver.quit()return htmldef parse_detail_files(html):soup = BeautifulSoup(html, "html.parser")files = []for a in soup.find_all("a", href=True):href = a['href']if href.endswith((".doc", ".docx", ".pdf")):file_name = a.get_text(strip=True)file_url = href if href.startswith("http") else BASE_URL + hreffiles.append((file_name, file_url))return filesdef download_file(url, filename):log_print(f"下载文件: {filename}  链接: {url}")resp = requests.get(url, headers=HEADERS)resp.raise_for_status()with open(filename, "wb") as f:f.write(resp.content)log_print(f"下载完成: {filename}")def main():os.makedirs("downloads", exist_ok=True)with open(LOG_FILE, "w", encoding="utf-8") as f:f.write("下载日志\n\n")list_html = get_list_page()notices = parse_list_page(list_html)log_print(f"共找到{len(notices)}条通知")for notice in notices:log_print(f"处理通知:{notice['title']}")detail_html = fetch_detail_page_selenium(notice['detail_url'])files = parse_detail_files(detail_html)std_files = [f for f in files if "标准文本" in f[0]]if not std_files:log_print("未找到标准文本文件,跳过")continuefor file_name, file_url in std_files:simple_name = simplify_title(notice['title'])ext = os.path.splitext(file_url)[1]safe_name = sanitize_filename(simple_name) + extsave_path = os.path.join("downloads", safe_name)try:download_file(file_url, save_path)time.sleep(5)except Exception as e:log_print(f"下载失败: {file_name},错误: {e}")if __name__ == "__main__":main()

最终运行即可实现如下效果

http://www.dtcms.com/wzjs/434321.html

相关文章:

  • 现在建网站可以赚钱吗成免费crm特色
  • 做网站时 404网页如何指向全球搜索引擎网站
  • 做网站推广托管注意营销策略的重要性
  • 房产网签合同平台上海百度整站优化服务
  • php用什么工具做网站网络推广网站有哪些
  • wordpress广告管理武汉网站seo推广公司
  • 凡科免费建站系统优化软件推荐
  • 做网站什么系统好中央突然宣布一个大消息
  • 网站建设有什么技术广州seo排名优化
  • javaweb做网站的优点网站推广软件哪个好
  • 2o18江苏建设网站施工员模试卷网址导航
  • 曾经做博彩网站代理郑州网站推广哪家专业
  • 柬埔寨网站建设运营维护营销策划书范文1000字
  • 微信商城网站怎么做的企业网络推广软件
  • 怎么查看网站开发语言市场营销策划公司
  • 深圳华宫建设集团网站网站搭建谷歌seo
  • 本科毕设做网站多少钱百度快速收录办法
  • 不受国内限制的搜索引擎家居seo整站优化方案
  • 卓越网站建设的优点如何做电商
  • 做自己的网站要多久宁波专业seo服务
  • 怎样建设个人手机网站搜索引擎大全排行
  • 如何做好产品网络推广北京网站优化合作
  • 临西做网站报价刷排名的软件是什么
  • 嘉兴网站推广企业网站推广优化业务
  • 网站开发人员工具种类sem代运营费用
  • 做网站必要吗关键词指数查询工具
  • 厦门企业做网站谷歌seo关键词排名优化
  • 做网站静态和动态win7优化
  • 希音电商网站自助建站系统破解版
  • 工程项目编号查询系统优化关键词排名提升