当前位置: 首页 > news >正文

网络请求requests模块(爬虫)-15

文章目录

  • 1.requests
  • 2.基本get请求(headers参数和parmas参数)
    • 2.1 最基本的get请求去可以直接用get方法
    • 2.2 get请求中添加headers
    • 2.3 get请求中添加parmas
  • 3.基本POST请求(data参数)
  • 4.代理(proxies参数)
  • 5.私密代理验证(特定格式)和Web客户端验证(auth参数)
  • 6.Cookies 和 Session
    • 6.1 Cookies
    • 6.2 Session
  • 7.处理HTTPS请求(SSL证书验证)

1.requests

Requests 继承了urllib2 的所有特性。Requests支持HTTP连接保持和连接池,支持使用 cookie 保持会话,支持文件上传,支持自动确定响应内容的编码,支持国际化的URL和POST数据自动编码。

Requests 的底层实现其实就是 urllib3

Requests 的文档非常完善。Requests能够完全满足当前网络的需求,支持Python2-3,而且能在Pypy下完美运行。

https://requests.readthedocs.io/en/latest/index.html

安装Requests

pip install requests

2.基本get请求(headers参数和parmas参数)

2.1 最基本的get请求去可以直接用get方法

import requests

# 最基本的get请求
url = 'http://www.baidu.com'

response = requests.get(url)

# 也可以这样写
response = requests.request("GET", url)

2.2 get请求中添加headers

如果想添加 headers,可以传入 headers 参数来增加请求头中的 headers信息。

import requests

# 最基本的get请求
url = 'http://www.douban.com'

# 也可以这样写
# response = requests.request("GET", url)

headers = {
   
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/131.0.0.0 Safari/537.36'
}
response = requests.get(url, headers=headers)
# 查看响应内容, response.text 返回的是Unicode格式的数据
print(response.text)

# 查看你响应内容,response.content 返回的是字节流数据
print(response.content)

# 查看完整URL地址
print

相关文章:

  • bbbbb
  • html-to-image的使用及图片变形和无图问题修复
  • python如何查看版本号
  • 冯 • 诺依曼体系结构
  • JS做贪吃蛇小游戏(源码)
  • Ubuntu 安装Mujoco3.3.0
  • 防止用户调试网页的若干方法
  • 思维训练让你更高、更强 |【逻辑思维能力】「刷题训练笔记」假设法模式逻辑训练题(6-16)
  • 简单以太网配置
  • 【算法】分治-快排 算法专题
  • 第十三天-搜索算法:开启探索之门
  • 【css酷炫效果】纯CSS实现瀑布流加载动画
  • Swift 并发中的任务让步(Yielding)和防抖(Debouncing)
  • 多机调度问题(C语言)
  • 《大语言模型》学习笔记(三)
  • LeetCode[42] 接雨水
  • Java设计模式建模语言面向对象设计原则
  • C#本地将labelme数据集转换为机器视觉yolo数据集格式
  • 数据库练习3
  • final 在 java 中有什么作用?
  • 俄乌直接谈判结束,乌称“毫无成果”
  • 马上评|重病老人取款身亡,如何避免类似悲剧?
  • 中方是否计划解除或调整稀土出口管制?外交部回应
  • 商务部召开全国离境退税工作推进会:提高退税商店覆盖面,扩大入境消费
  • 王东杰评《国家与学术》︱不“国”不“故”的“国学”
  • 恒生银行回应裁员传闻:受影响的员工数目占银行核心业务员工总数约1%