当前位置: 首页 > wzjs >正文

南京百度网站建设网络推广培训班

南京百度网站建设,网络推广培训班,免费音乐网站建设,性价比最高的网络营销方式1、Scrapy框架初识 2、Scrapy框架持久化存储(点击前往查阅) 3、Scrapy框架内置管道(点击前往查阅) 4、Scrapy框架中间件(点击前往查阅) Scrapy 是一个开源的、基于Python的爬虫框架,它提供了…

1、Scrapy框架初识

2、Scrapy框架持久化存储(点击前往查阅)

3、Scrapy框架内置管道(点击前往查阅)

4、Scrapy框架中间件(点击前往查阅)

Scrapy 是一个开源的、基于Python的爬虫框架,它提供了强大而灵活的工具,用于快速、高效地提取信息。Scrapy包含了自动处理请求、处理Cookies、自动跟踪链接、下载中间件等功能。

Scrapy框架的架构图(先学会再来看,就能看懂了!)

一、安装

在Pycharm终端中使用以下命令安装 Scrapy:

pip install scrapy

二、创建 Scrapy 项目

在Pycharm终端中使用以下命令创建一个 Scrapy 项目:

scrapy startproject project_name

其中 project_name 是你文件夹的名字文件名只能以字母开头,只能包含数字、字母、下划线),下面是创建好的目录结构(.venv 这个文件无视,这个是我配置的虚拟环境,这个地方不做多讲解,想了解点击这:虚拟环境讲解)。

三、创建爬虫项目

在Pycharm终端中使用以下命令创建一个 Scrapy 项目:

scrapy genspider spider_name example.com

命令讲解:

  •  spider_name:是你的爬虫文件名(名字不能和scrapy项目重复
  • example.com:初始设置的网址(这个随便填写,等下可以改的,可以设置www.xxx.com)

注意:需要先进入你创建的Scrapy项目中,例如:我这个文件名是:CSDN

对比下绿色横线的文件目录就发现不一样了。

⬇️⬇️⬇️执行的命令演示⬇️⬇️⬇️

3.1:创建好的目录结构

 四、编写爬虫

4.1:setting设置

设置 setting 中需要改动的地方(这个是基本的设置,其他的根据需要来开启)

4.2:代码初识

打开创建好的爬虫文件(baidu.py)进入编写我们的程序:

初始的是这样的

代码的含义:          

4.3:数据解析(parse函数)

演示网站:(不可干预人家网站的正常运行!!!家常菜做法大全有图_家常菜菜谱大全做法_好吃的家常菜_下厨房【下厨房】家常菜栏目为您提供最新的家常菜做法大全、家常菜菜谱大全和步骤,让你也可以轻松做出好吃的家常菜icon-default.png?t=N7T8https://www.xiachufang.com/category/40076/

需求:第一页的所有的菜名和作者

最终代码:

import scrapyclass BaiduSpider(scrapy.Spider):# 爬虫文件的唯一标识(就是你创建的爬虫文件夹名字)name = "baidu"# 允许的域名,这个代表你只能访问这个网址的子域名,其他的都会禁止(这个我们会注释掉,不会打开)# allowed_domains = ["www.xxx.com"]# 起始的url列表,网址可以随便放,可以放多个,列表中的url都会被框架进行异步请求发送。start_urls = ["https://www.xiachufang.com/category/40076/"]# 数据解析:parse调用的次数取决于start_urls列表元素的个数def parse(self, response):  # response参数就表示响应对象# 利用xpath解析:(scrapy内置xpath,无需另外导入)li_list = response.xpath('//div[@class="pure-u-3-4 category-recipe-list"]//ul/li')for li in li_list:# 1、scrapy中的xpath会返回Selector对象,我们需要的数据在该对象data属性中(extract可以实现该功能,)# 2、extract_first()就是取第一个,因为文本两边有空格,所以.strip() 可以去除两侧的空格title = li.xpath('.//p[1]/a/text()').extract_first().strip()author = li.xpath('.//p[4]/a/text()').extract_first().strip()print(title, author)

输出结果:

五、运行爬虫

使用以下命令运行你的 Scrapy 爬虫:

scrapy crawl myspider

命令讲解

  • myspider:你的爬虫文件名字(例如我的是:baidu)

http://www.dtcms.com/wzjs/543234.html

相关文章:

  • 佛山微信网站开发公众号小程序商城怎么制作
  • 青岛网站运营推广网站的站点建设分为
  • 网站服务器哪里的好专业做室内设计的网站有哪些
  • 做博客网站的空间容量需要多少网站首页适配规则
  • 哪个网站做照片书最好看微信小程序后端开发教程
  • 数字博物馆网站建设刚刚合肥最新通告
  • 企业网站建设设计公司河北京电电力建设有限公司网站
  • 账号注册网站wordpress主题很卡
  • 做ppt介绍网站网站建设合同书注意事项
  • 高端网站建设哪家公司好免费网址怎么申请注册
  • 织梦建站教程下载wordpress 无图插件
  • 商城网站建设天软科技汕头仿站定制模板建站
  • 楚雄做网站建设的公司商标注册查询官网中国商标网
  • 中国数据统计网站甘肃网站备案
  • 北京建设网站公司网页传奇游戏排行榜九点开服
  • 做电池的有哪些网站网站主题及风格
  • 分类网站营销做游戏门户网站要注意什么意思
  • 珠海网站管理公司智慧团建密码一般是什么
  • 东莞企石网站建设展示型网站模板源码
  • 网站内容建设ppt模板佛山百度快照优化排名
  • 鞍山网站建设优化wordpress多个域名
  • 网站好的案例广告设计培训班有用吗
  • 江苏同隆建设集团有限公司网站网易网站开发语言
  • 垦利网站设计网址入口
  • 自己用电脑做网站服务器吗别墅装修设计公司哪家好
  • 网站怎么样做采集别人网站的文章网站建设商标保护
  • 网站页面框架设计影响用户怎样在百度上打广告
  • 四大门户网站是哪些网站后台管理系统制作
  • 吉安永新哪里做网站文化传媒可以做网站吗
  • 邢台做网站哪家公司好网站10m数据库