当前位置: 首页 > news >正文

【Python网络爬虫笔记】14-使用代理绕过访问限制

【Python网络爬虫笔记】14-网络代理

    • 目录
    • 什么是代理?
    • 为什么需要使用代理?
    • 代理的类型
    • 如何在Python中使用代理?
      • 使用`requests`库设置代理
      • 使用`urllib`库设置代理
      • 使用`scrapy`框架设置代理
    • 典型案例:使用代理爬取豆瓣电影Top250
      • 步骤1:安装依赖库
      • 步骤2:编写爬虫代码
      • 步骤3:运行代码
    • 总结

在网络爬虫开发中,代理(Proxy)是一个非常重要的工具。它可以帮助我们隐藏真实IP地址、绕过访问限制、提高爬取效率等。本文将详细介绍如何在Python网络爬虫中使用代理,并提供一个典型案例来帮助大家更好地理解代理的应用。

目录

  1. 什么是代理?
  2. 为什么需要使用代理?
  3. 代理的类型
  4. 如何在Python中使用代理?
  5. 典型案例:使用代理爬取豆瓣电影Top250
  6. 总结

什么是代理?

代理服务器(Proxy Server)是位于客户端和目标服务器之间的中间服务器。当我们通过代理服务器发送请求时,目标服务器看到的是代理服务器的IP地址,而不是我们的真实IP地址。这样,代理服务器可以起到隐藏真实IP、缓存数据、过滤内容等作用。
免费代理网站:
在这里插入图片描述

为什么需要使用代理?

在网络爬虫中,使用代理有以下几个主要原因:

  1. 隐藏真实IP:防止目标网站封禁我们的IP地址。
  2. 绕过访问限制:有些网站会根据IP地址限制访问频率或地区,使用代理可以绕过这些限制。
  3. 提高爬取效率:通过多个代理IP轮换请求,可以避免因频繁请求而被封禁。
  4. 数据采集:有些网站会根据用户的地理位置显示不同的内容,使用代理可以获取不同地区的数据。

代理的类型

代理服务器可以根据不同的标准进行分类,常见的分类方式有:

  1. 匿名性

    • 透明代理:目标服务器可以识别出我们使用了代理,并且知道我们的真实IP。
    • 匿名代理:目标服务器知道我们使用了代理,但不知道我们的真实IP。
    • 高匿代理:目标服务器无法识别出我们使用了代理,也无法获取我们的真实IP。
  2. 协议

    • HTTP代理:主要用于HTTP请求。
    • HTTPS代理:主要用于HTTPS请求。
    • SOCKS代理:支持多种协议,包括HTTP、HTTPS、FTP等。
  3. 来源

    • 免费代理:免费提供的代理IP,通常不稳定且速度较慢。
    • 付费代理:付费使用的代理IP,通常更稳定、速度更快。

如何在Python中使用代理?

在Python中,使用代理非常简单。我们可以通过requests库或urllib库来设置代理。下面是一些常见的用法示例。

使用requests库设置代理

requests库是Python中最常用的HTTP库之一,它提供了非常简单的接口来设置代理。

import requests

# 设置代理
proxies = {
    'http': 'http://10.10.1.10:3128',
    'https': 'http://10.10.1.10:1080',
}

# 发送请求
response = requests.get('http://example.com', proxies=proxies)

# 输出响应内容
print(response.text)

在这里插入图片描述

使用urllib库设置代理

urllib是Python标准库中的一个模块,也可以用来设置代理。

import urllib.request

# 设置代理
proxy_handler = urllib.request.ProxyHandler({
    'http': 'http://10.10.1.10:3128',
    'https': 'http://10.10.1.10:1080',
})

# 创建opener
opener = urllib.request.build_opener(proxy_handler)

# 发送请求
response = opener.open('http://example.com')

# 输出响应内容
print(response.read().decode('utf-8'))

使用scrapy框架设置代理

如果我们使用的是scrapy框架,可以通过在settings.py中设置代理。

# settings.py
PROXY = 'http://10.10.1.10:3128'

# 在middleware中使用代理
class ProxyMiddleware(object):
    def process_request(self, request, spider):
        request.meta['proxy'] = PROXY

# 启用middleware
DOWNLOADER_MIDDLEWARES = {
    'myproject.middlewares.ProxyMiddleware': 350,
}

典型案例:使用代理爬取豆瓣电影Top250

下面我们通过一个典型案例来演示如何在Python网络爬虫中使用代理。我们将使用requests库和代理来爬取豆瓣电影Top250的数据。

步骤1:安装依赖库

首先,我们需要安装requests库和BeautifulSoup库。

pip install requests beautifulsoup4

步骤2:编写爬虫代码

import requests
from bs4 import BeautifulSoup

# 设置代理
proxies = {
    'http': 'http://your-proxy-ip:port',
    'https': 'http://your-proxy-ip:port',
}

# 豆瓣电影Top250的URL
url = 'https://movie.douban.com/top250'

# 发送请求
try:
    response = requests.get(url, proxies=proxies, headers={
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
    })
    response.raise_for_status()
except requests.exceptions.RequestException as e:
    print("请求失败:", e)
    exit()

# 解析HTML内容
soup = BeautifulSoup(response.text, 'html.parser')

# 提取电影信息
movies = soup.find_all('div', class_='hd')
for movie in movies:
    title = movie.a.span.text
    print("电影标题:", title)

步骤3:运行代码

运行上述代码后,我们将看到豆瓣电影Top250的电影标题被成功爬取并打印出来。通过使用代理,我们可以有效地隐藏真实IP地址,避免被目标网站封禁。

总结

在Python网络爬虫中使用代理是一个非常实用的技巧,可以帮助我们隐藏真实IP、绕过访问限制、提高爬取效率等。本文介绍了代理的基本概念、类型以及在Python中使用代理的方法,并通过一个典型案例演示了如何在实际项目中应用代理。

希望这些内容对大家有所帮助!如果大家有任何问题或建议,欢迎在评论区留言讨论。


参考资料

  • Requests库官方文档
  • urllib官方文档
  • Scrapy官方文档

标签:Python, 网络爬虫, 代理, requests, BeautifulSoup, 豆瓣电影

相关文章:

  • [java基础-JVM篇]2_垃圾收集器与内存分配策略
  • Jmeter聚合报告导出log文档,Jmeter聚合报告导出到CSV
  • 量子计算可能改变世界的四种方式
  • 基于Spring Security 6的OAuth2 系列之二十四 -响应式编程之一
  • 图像处理之图像边缘检测算法
  • 数据结构之各类排序算法代码及其详解
  • 【合作-互信不需要到的做前提 关键字摘取】
  • 英伟达 Isaac Sim仿真平台体验【2】
  • 生成对抗网络(GAN)
  • Java调用DeepSeek官方API实战全解析:从原理到性能优化
  • 项目经理如何处理资源不足与分配矛盾的问题
  • 长文本切割实现流式调用文本合成语音
  • QT mac系统下qml实现的菜单栏,标准快捷键Delete无作用或失灵的处理
  • 渗透测试--HOST注入原理和利用
  • Linux运维——硬件管理
  • 第二十四:5.2【搭建 pinia 环境】axios 异步调用数据
  • HTML——前端基础1
  • threejs:document.createElement创建标签后css设置失效
  • 一周学会Flask3 Python Web开发-Jinja2模板继承和include标签使用
  • nss刷题5(misc)
  • 长三角议事厅| AI作曲时代:长三角如何奏响数字音乐乐章
  • 韩国代总统、国务总理韩德洙宣布辞职
  • 视频丨英伟达总裁黄仁勋:美勿幻想AI领域速胜中国
  • 马克思主义理论研究教学名师系列访谈|丁晓强:马克思主义学者要更关注社会现实的需要
  • 央行就《关于规范供应链金融业务引导供应链信息服务机构更好服务中小企业融资有关事宜的通知》答问
  • 民生访谈|支持外贸企业拓内销,上海正抓紧制定便利措施