当前位置: 首页 > wzjs >正文

购物类网站建设方案手游免费0加盟代理

购物类网站建设方案,手游免费0加盟代理,安徽建网站公司,幼儿做爰网站scrapy pipelines过滤重复数据 方法 1:基于内存的简单去重(适合小规模数据)方法 2:基于持久化存储去重(适合大规模数据/重启恢复)方法 3:使用 Scrapy 内置的 dupefilter(针对请求去重…

scrapy pipelines过滤重复数据

    • 方法 1:基于内存的简单去重(适合小规模数据)
    • 方法 2:基于持久化存储去重(适合大规模数据/重启恢复)
    • 方法 3:使用 Scrapy 内置的 dupefilter(针对请求去重)
    • 方法 4:布隆过滤器(超大数据集优化)
    • 方法 5:分布式去重(Redis)
    • 关键点总结

方法 1:基于内存的简单去重(适合小规模数据)

使用 Python 的 set 或 dict 存储已抓取数据的唯一标识(如 URL、ID),在 Pipeline 中检查是否重复。

# pipelines.py
from scrapy.exceptions import DropItemclass DuplicatesPipeline:def __init__(self):self.seen_ids = set()  # 存储已处理的唯一标识def process_item(self, item, spider):# 假设 item 中有唯一标识字段 'id'unique_id = item['id']if unique_id in self.seen_ids:raise DropItem(f"Duplicate item found: {item}")self.seen_ids.add(unique_id)return item

配置启用 Pipeline:

# settings.py
ITEM_PIPELINES = {'your_project.pipelines.DuplicatesPipeline': 300,
}

方法 2:基于持久化存储去重(适合大规模数据/重启恢复)

当数据量较大或需要持久化时,可以使用数据库(如 SQLite、Redis)或文件存储唯一标识。
示例:使用 SQLite

# pipelines.py
import sqlite3
from scrapy.exceptions import DropItemclass SQLiteDuplicatesPipeline:def __init__(self):self.conn = sqlite3.connect('scrapy_data.db')self.cursor = self.conn.cursor()self.cursor.execute('CREATE TABLE IF NOT EXISTS seen_ids (id TEXT PRIMARY KEY)')def process_item(self, item, spider):unique_id = item['id']self.cursor.execute('SELECT id FROM seen_ids WHERE id=?', (unique_id,))if self.cursor.fetchone():raise DropItem(f"Duplicate item found: {item}")else:self.cursor.execute('INSERT INTO seen_ids VALUES (?)', (unique_id,))self.conn.commit()return itemdef close_spider(self, spider):self.conn.close()

方法 3:使用 Scrapy 内置的 dupefilter(针对请求去重)

Scrapy 默认通过 DUPEFILTER_CLASS 过滤重复请求(基于 URL),但如果你需要更细粒度的 Item 去重,仍需自定义 Pipeline。

方法 4:布隆过滤器(超大数据集优化)

使用布隆过滤器(Bloom Filter)降低内存占用,适合海量数据去重,但有一定误判率。

# 安装:pip install pybloom-live
from pybloom_live import ScalableBloomFilter
from scrapy.exceptions import DropItemclass BloomDuplicatesPipeline:def __init__(self):self.bf = ScalableBloomFilter(initial_capacity=1000, mode=ScalableBloomFilter.SMALL_SET_GROWTH)def process_item(self, item, spider):unique_id = item['id']if unique_id in self.bf:raise DropItem(f"Duplicate item found: {item}")self.bf.add(unique_id)return item

配置启用 Pipeline:

# settings.py
ITEM_PIPELINES = {'your_project.pipelines.BloomDuplicatesPipeline': 200,
}

方法 5:分布式去重(Redis)

分布式爬虫中,使用 Redis 存储全局唯一标识,支持多爬虫实例共享去重数据。

# pipelines.py
import redis
from scrapy.exceptions import DropItemclass RedisDuplicatesPipeline:def __init__(self, redis_host, redis_port):self.redis = redis.StrictRedis(host=redis_host, port=redis_port, db=0)@classmethoddef from_crawler(cls, crawler):return cls(redis_host=crawler.settings.get('REDIS_HOST'),redis_port=crawler.settings.get('REDIS_PORT'))def process_item(self, item, spider):unique_id = item['id']if self.redis.sismember('seen_ids', unique_id):raise DropItem(f"Duplicate item found: {item}")self.redis.sadd('seen_ids', unique_id)return item

关键点总结

  1. 唯一标识选择:根据业务选择唯一字段(如 URL、商品 ID、哈希值)。
  2. 内存 vs 持久化:小数据用内存结构(set),大数据用数据库或布隆过滤器。
  3. 分布式需求:使用 Redis 或类似工具实现全局去重。
  4. 异常处理:发现重复时抛出 DropItem 终止后续 Pipeline 处理。

根据实际场景选择最适合的方案!

http://www.dtcms.com/wzjs/437140.html

相关文章:

  • 用什么网站做pathway分析企业官网定制设计
  • jsp网站建设期末作业郑州网络推广公司排名
  • 网络营销推广活动有哪些百度词条优化工作
  • 洛阳 网站建设公司哪家好怎么创建公司网站
  • 合肥网站设计高端公司百度可以发布广告吗
  • 大型房产网站建设成都竞价托管多少钱
  • 重庆网站开发设计公司软文广告示范
  • 石家庄营销网站建设多少钱软文写作平台发稿
  • 平台和网站有什么区别百度竞价排名收费
  • 上海做高端网站制java成品网站
  • 寮步网站建设高性能手机百度搜索引擎
  • 安徽方圆建设有限公司网站网络怎样做推广
  • 做计算机模拟ie题模拟网站打不开长沙网站推广
  • 如何在工信部网站查询icpip长春seo排名扣费
  • 学校的网站的代码模板nba最新新闻消息
  • 网站热力图工具市场调研报告怎么写范文
  • 建设集团有限公司网站买友情链接有用吗
  • 网站设计师和网页设计师的区别seo推广人员
  • 日本做的中国音乐网站竞价推广平台有哪些
  • 软文推广文案范文搜索引擎优化的方式有哪些
  • 怎么用dede建设网站seo推广优化工具
  • 广东广州快速网站制作企业最近发生的新闻大事
  • 清润邯郸网站天津seo推广软件
  • 北关网站制作seo每日一贴
  • 新洲区城乡建设局网站关键词排名优化怎么做
  • 宁波快速制作网站最新热点新闻事件
  • 桂林做网站百度账号客服24小时人工电话
  • 杭州手机网站建设进入百度官网
  • 漳浦县建设局网站百度推广客户端
  • 唐山丰南建设局网站seo个人博客