当前位置: 首页 > news >正文

spider分享--图片

免责声明:本文仅作分享!!!

# -*- coding: utf-8 -*-
import os
import requests
import urllib.parse
from concurrent.futures import ThreadPoolExecutor
from time import sleep# 请求的基本 URL 和用户代理
url0 = 'https://image.baidu.com/search/acjson?'
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) ''AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.6261.95 Safari/537.36'
}# 定义爬虫的主函数
def fetch_image(url, save_dir, image_index):try:# 请求图片的JSON数据response = requests.get(url, headers=headers)response.raise_for_status()data = response.json()# 遍历获取到的图片链接for i in range(30):try:image_url = data['data'][i]['middleURL']print(f"图片链接获取:{image_url}")# 下载图片image_data = requests.get(image_url, headers=headers, timeout=5)image_data.raise_for_status()# 图片保存路径image_path = os.path.join(save_dir, f"{image_index}图片.png")with open(image_path, 'wb') as file:file.write(image_data.content)print(f"正在下载:{image_index}")image_index += 1sleep(0.5)  # 为了避免请求过快,加入短暂延时except requests.exceptions.RequestException as e:print(f"下载图片时发生错误: {e}")except requests.exceptions.RequestException as e:print(f"请求图片数据时发生错误: {e}")# 获取用户输入并验证
def get_user_input():name = input("请输入查询内容(如:猫,狗,风景等):")while True:try:shnm = int(input('请输入爬取的页数:'))if shnm <= 0:raise ValueError("页数必须大于 0")return name, shnmexcept ValueError as e:print(f"无效输入:{e}, 请重新输入")# 创建文件夹(如不存在)
def create_directory(dir_name):if not os.path.exists(dir_name):os.mkdir(dir_name)return dir_name# 主函数
def main():# 获取用户输入name, shnm = get_user_input()save_dir = create_directory(name)  # 创建保存图片的文件夹nums = 120  # 每页返回的图片数量page_executor = ThreadPoolExecutor(max_workers=5)  # 限制最大并发请求数为 5image_index = 1for s in range(shnm):nums += 30  # 每页加30,翻到下一页data = {"tn": "resultjson_com", "logid": "", "ipn": "rj", "ct": "201326592", "is": "","fp": "result", "fr": "", "word": name, "cg": "head", "queryWord": name,"cl": "", "lm": "", "ie": "utf-8", "oe": "utf-8","adpicid": "", "st": "", "z": "", "ic": "", "hd": "","latest": "", "copyright": "", "s": "", "se": "", "tab": "", "width": "","height": "", "face": "", "istype": "", "qc": "", "nc": "", "expermode": "","nojc": "", "isAsync": "", "pn": nums, "rn": "30", "gsm": "78",}da = urllib.parse.urlencode(data)  # 将参数转换为 URL 编码url = url0 + da  # 拼接完整的 URL# 提交请求到线程池page_executor.submit(fetch_image, url, save_dir, image_index)page_executor.shutdown(wait=True)  # 等待所有线程执行完成print("爬虫任务完成!")# 执行主函数
if __name__ == "__main__":main()

相关文章:

  • 时间同步技术在电力系统中的应用二
  • 讲一件Java虚拟线程
  • 英一真题阅读单词笔记 09年
  • 第三章支线六 ·数据幻域 · 状态管理与数据流
  • 面向异构系统的多面体编译优化关键技术研究——李颖颖博士
  • 2025武汉考研形势分析,趋势、挑战与应对策略
  • 【实习总结】C++ 通过pugi::xml库对xml文件进行操作
  • Spring Boot + MyBatis Plus 项目中,entity和 XML 映射文件的查找机制
  • CSS“多列布局”
  • 从代码学习深度强学习 - Dyna-Q 算法 PyTorch版
  • SnapViewer:解决PyTorch官方内存工具卡死问题,实现高效可视化
  • 一站式了解单例模式
  • 每天五分钟深度学习PyTorch:卷积和池化后图片会有什么变化?
  • 【Rust UDP编程】rust udp编程方法解析与应用实战
  • 【凌智视觉模块】rv1106 部署 ppocrv4 检测模型 rknn 推理
  • 行为模式-责任链模式
  • 宁德时代电解液创新研究荣登《自然》顶刊,案例解析电解液成分分析方法
  • Oracle 的AHF (Automatic Health Framework) 工具
  • ElasticSearch 操作索引与映射的API
  • JS开发node包并发布流程
  • 网站建设品牌公司推荐/郑州网站技术顾问
  • wordpress读取文件内容/广州网站优化
  • 新闻发布会稿件/青岛网站seo诊断
  • 在常州青之锋做网站客服怎么样/seo搜索引擎优化公司
  • 吉林门户网站建设/南宁百度推广排名优化
  • 网站开发能不能用win7系统/seo实战培训王乃用