当前位置: 首页 > news >正文

Python爬虫入门:从零开始抓取网页数据

本文将介绍Python爬虫的核心概念和实现方法,通过一个完整的项目案例(抓取豆瓣电影Top250数据),带你掌握爬虫开发的核心技能。


一、爬虫的核心价值
  1. 数据采集:获取公开网页信息(商品价格、新闻、影评等)

  2. 自动化处理:定期监控网站内容变化

  3. 数据分析基础:为数据科学提供原始材料

  4. 行业应用:搜索引擎索引、价格监控、舆情分析

⚠️ 重要原则:遵守robots.txt协议,限制请求频率(>1秒/次),不抓取敏感数据


二、准备工作

安装必备库:

bash

pip install requests beautifulsoup4 pandas

三、完整爬虫项目:豆瓣电影Top250

python

import requests
from bs4 import BeautifulSoup
import pandas as pd
import time
import randomdef scrape_douban_top250():# 配置请求头和参数headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36','Accept-Language': 'zh-CN,zh;q=0.9'}base_url = "https://movie.douban.com/top250?start={}"movies = []# 遍历10页数据for page in range(0, 250, 25):url = base_url.format(page)try:response = requests.get(url, headers=headers, timeout=10)response.raise_for_status()  # 检查HTTP错误soup = BeautifulSoup(response.text, 'html.parser')# 解析电影条目items = soup.select('.item')for item in items:title = item.select_one('.title').text.strip()rating = item.select_one('.rating_num').text.strip()info = item.select_one('.bd p').text.strip().split('\n')[0]quote_tag = item.select_one('.quote')quote = quote_tag.text.strip() if quote_tag else "无"movies.append({'排名': len(movies) + 1,'标题': title,'评分': rating,'信息': info,'经典台词': quote})# 随机延迟防止被封IPtime.sleep(random.uniform(1.0, 2.5))print(f"已抓取第{page//25 + 1}页数据")except Exception as e:print(f"第{page//25 + 1}页抓取出错: {str(e)}")# 保存数据到CSVdf = pd.DataFrame(movies)df.to_csv('douban_top250.csv', index=False, encoding='utf_8_sig')print("数据已保存到 douban_top250.csv")return df# 执行爬虫
if __name__ == "__main__":movie_data = scrape_douban_top250()print(f"成功抓取{len(movie_data)}部电影数据")print(movie_data.head(3))  # 预览前3条数据

四、技术要点解析
  1. 请求伪装

    • User-Agent模拟浏览器访问

    • 随机延迟避免触发反爬机制

  2. 精准数据提取

    python

    # CSS选择器定位元素
    item.select_one('.title').text.strip()
  3. 错误处理

    python

    try:response.raise_for_status()
    except Exception as e:print(f"出错: {str(e)}")
  4. 数据存储

    • 使用Pandas保存结构化数据

    • CSV文件保证数据通用性


五、进阶技巧
  1. 动态页面处理:使用Selenium处理JavaScript渲染

  2. API逆向工程:直接调用网站数据接口

  3. 分布式爬虫:Scrapy-Redis架构实现

  4. 验证码破解:OCR识别或第三方打码平台


六、法律与道德边界
  1. ✅ 允许:公开数据、无访问限制内容

  2. ❌ 禁止:

    • 绕过付费墙抓取内容

    • 抓取用户隐私数据

    • 对网站造成流量压力(每秒请求>3次)

    • 违反网站robots.txt规定

提示:商业级爬虫需考虑IP代理池、验证码识别、User-Agent轮换等高级技术


七、运行结果示例

text

排名 | 标题           | 评分 | 信息                             | 经典台词
-------------------------------------------------------------------
1   | 肖申克的救赎 | 9.7  | 导演: 弗兰克·德拉邦特...      | 希望让人自由
2   | 霸王别姬     | 9.6  | 导演: 陈凯歌...                | 不疯魔不成活
3   | 阿甘正传     | 9.5  | 导演: 罗伯特·泽米吉斯...      | 生活就像一盒巧克力...

通过这个项目,你可以掌握爬虫开发全流程。实际应用中请根据目标网站结构调整解析逻辑,并始终遵循合法合规原则。

http://www.dtcms.com/a/301219.html

相关文章:

  • 每日一讲——Podman
  • 分布式事务-MQ事务消息学习与落地方案
  • 前端面试专栏-前沿技术:32.AI辅助开发工具应用
  • 0-1BFS(双端队列,洛谷P4667 [BalticOI 2011] Switch the Lamp On 电路维修 (Day1)题解)
  • 用 Flask 打造宠物店线上平台:从 0 到 1 的全栈开发实践
  • 电商项目_核心业务_数据归档
  • esp32-使用虚拟机开发-部署esp32的linux的环境
  • 如何关闭浏览器的迅雷图标 - 去掉浏览器左下角的迅雷图标 - chrome - 关闭迅雷检测
  • C/C++核心知识点详解
  • 剑指offer——搜索算法:数字序列中某一位的数字
  • Python操作Excel文件完整指南
  • 深度强化学习走向多智能体:从AlphaGo到智能车队
  • AtCoder Beginner Contest 416(A~D)
  • Leetcode 3629. Minimum Jumps to Reach End via Prime Teleportation
  • 由于主库切换归档路径导致的 Oracle DG 无法同步问题的解决过程
  • Java异常处理
  • 使用Python,OpenCV计算跑图的图像彩色度
  • 移植pbrt中的并行化到ray trace in weeks中
  • JVM内存结构
  • 零基础学习性能测试第五章:JVM性能分析与调优-JVM运行时内存区域介绍
  • 企业级数据架构构建之道
  • Unity FXAA
  • SQL注入SQLi-LABS 靶场less21-25详细通关攻略
  • Ubuntu普通用户环境异常问题
  • Linux->自定义shell
  • Acrobat 文件夹级脚本扩展表单功能
  • 【奔跑吧!Linux 内核(第二版)】第4章:内核编译和调试
  • 物联网安装调试-物联网网关
  • Python数据分析基础(二)
  • 两个函数的卷积