当前位置: 首页 > wzjs >正文

资质升级业绩备案在哪个网站做江西百度推广开户多少钱

资质升级业绩备案在哪个网站做,江西百度推广开户多少钱,最好的微网站建设公司,国外公司网站模板1. 引言 在旅游行业和城市规划中,热门景点的数据分析具有重要意义。通过爬取景点数据并生成热力图,可以直观展示游客分布、热门区域及人流趋势,为商业决策、景区管理及智慧城市建设提供数据支持。 然而,单机爬虫在面对大规模数据…

1. 引言

在旅游行业和城市规划中,热门景点的数据分析具有重要意义。通过爬取景点数据并生成热力图,可以直观展示游客分布、热门区域及人流趋势,为商业决策、景区管理及智慧城市建设提供数据支持。

然而,单机爬虫在面对大规模数据采集时可能面临效率瓶颈。Scrapy-Redis 作为Scrapy的分布式扩展,能够利用多台机器协同爬取数据,大幅提升采集速度和稳定性。本文将介绍如何基于Scrapy-Redis构建分布式爬虫,爬取热门景点数据,并使用 FoliumHeatmap.js 生成交互式热力图。

2. 技术选型

2.1 Scrapy-Redis 简介

Scrapy-Redis 是 Scrapy 的分布式扩展,利用 Redis 作为任务队列和去重存储,实现多台爬虫节点的协同工作。其核心优势包括:

  • 分布式调度:多个爬虫共享待爬队列,避免重复爬取。
  • 断点续爬:Redis 持久化存储任务状态,即使爬虫中断也可恢复。
  • 高效去重:基于 Redis 的集合(Set)或布隆过滤器(Bloom Filter)去重。

2.2 数据存储与分析

  • MongoDB:存储结构化景点数据(名称、评分、评论数、经纬度等)。
  • Folium:Python 地理可视化库,基于 Leaflet.js 生成热力图。
  • Heatmap.js:高性能的热力图渲染库,适合大数据量展示。

3. 系统架构设计

整个系统分为三个模块:

  1. 分布式爬虫(Scrapy-Redis):爬取景点数据并存储至 MongoDB。
  2. 数据预处理:清洗数据并提取经纬度信息。
  3. 热力图生成:使用 Folium + Heatmap.js 进行可视化。

4. 实现步骤

4.1 环境准备

安装依赖:

4.2构建 Scrapy-Redis 爬虫

(1)创建 Scrapy 项目
(2)配置 Scrapy-Redis

修改 **<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">settings.py</font>**

# 启用 Scrapy-Redis 调度器
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"# Redis 连接配置
REDIS_URL = 'redis://localhost:6379/0'# 数据存储到 MongoDB
ITEM_PIPELINES = {'scrapy_redis.pipelines.RedisPipeline': 300,'scenic_spider.pipelines.MongoPipeline': 400,
}MONGO_URI = 'mongodb://localhost:27017'
MONGO_DB = 'scenic_data'
(3)编写爬虫逻辑

以美团景点为例(**<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">meituan_spider.py</font>**):

import scrapy
from scenic_spider.items import ScenicItem
from urllib.parse import urlencode# 代理配置
proxyHost = "www.16yun.cn"
proxyPort = "5445"
proxyUser = "16QMSOML"
proxyPass = "280651"class MeituanSpider(scrapy.Spider):name = 'meituan_spider'redis_key = 'meituan:start_urls'  # Redis 初始任务队列# 自定义请求头(可选)custom_headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'}def start_requests(self):# 从Redis获取初始URL时添加代理for url in self.get_start_urls():yield scrapy.Request(url=url,callback=self.parse,headers=self.custom_headers,meta={'proxy': f'http://{proxyUser}:{proxyPass}@{proxyHost}:{proxyPort}'})def parse(self, response):for scenic in response.css('.scenic-item'):item = ScenicItem()item['name'] = scenic.css('.title::text').get()item['rating'] = scenic.css('.score::text').get()item['reviews'] = scenic.css('.review-num::text').get()item['location'] = scenic.css('.address::text').get()yield item# 翻页逻辑(同样添加代理)next_page = response.css('.next-page::attr(href)').get()if next_page:yield scrapy.Request(url=next_page,callback=self.parse,headers=self.custom_headers,meta={'proxy': f'http://{proxyUser}:{proxyPass}@{proxyHost}:{proxyPort}'})
(4)数据存储(MongoDB Pipeline)
import pymongoclass MongoPipeline:def __init__(self, mongo_uri, mongo_db):self.mongo_uri = mongo_uriself.mongo_db = mongo_db@classmethoddef from_crawler(cls, crawler):return cls(mongo_uri=crawler.settings.get('MONGO_URI'),mongo_db=crawler.settings.get('MONGO_DB'))def open_spider(self, spider):self.client = pymongo.MongoClient(self.mongo_uri)self.db = self.client[self.mongo_db]def close_spider(self, spider):self.client.close()def process_item(self, item, spider):self.db['scenic_spots'].insert_one(dict(item))return item

4.3 分布式运行

启动多个爬虫节点(不同机器或进程):

Redis 会自动分配任务,确保数据不重复爬取。

4.4 数据预处理

从 MongoDB 提取数据并解析经纬度(使用 Geocoding API):

import pandas as pd
from pymongo import MongoClient
import requestsclient = MongoClient('mongodb://localhost:27017')
db = client['scenic_data']
collection = db['scenic_spots']# 获取数据并转为 DataFrame
data = list(collection.find())
df = pd.DataFrame(data)# 调用高德地图API获取经纬度
def get_geocode(address):url = f"https://restapi.amap.com/v3/geocode/geo?key=YOUR_AMAP_KEY&address={address}"res = requests.get(url).json()if res['status'] == '1' and res['geocodes']:lng, lat = res['geocodes'][0]['location'].split(',')return float(lng), float(lat)return None, Nonedf['lng'], df['lat'] = zip(*df['location'].apply(get_geocode))
df.to_csv('scenic_data.csv', index=False)

4.5 生成热力图

使用 Folium + Heatmap.js 渲染热力图:

import folium
from folium.plugins import HeatMapdf = pd.read_csv('scenic_data.csv')
df = df.dropna(subset=['lat', 'lng'])# 创建地图
m = folium.Map(location=[df['lat'].mean(), df['lng'].mean()], zoom_start=12)# 生成热力图
heat_data = [[row['lat'], row['lng'], row['reviews']] for _, row in df.iterrows()]
HeatMap(heat_data, radius=15).add_to(m)# 保存为HTML
m.save('heatmap.html')

打开 **<font style="color:rgb(64, 64, 64);background-color:rgb(236, 236, 236);">heatmap.html</font>** 即可看到交互式热力图。

5. 优化与扩展

  • 动态数据更新:结合 Celery 定时爬取最新数据。
  • 3D 热力图:使用 Kepler.gl 进行更高级的可视化。
  • 反爬策略:使用代理池(如 Scrapy-ProxyPool)应对封禁。

6. 结论

本文介绍了基于 Scrapy-Redis 的分布式爬虫系统,从数据采集、存储到热力图生成的完整流程。该方案适用于旅游数据分析、城市规划等领域,并可扩展至其他垂直行业(如餐饮、房产)。未来可结合机器学习预测人流趋势,进一步提升商业价值。

http://www.dtcms.com/wzjs/133514.html

相关文章:

  • 网站内容建设平面设计安徽网站关键字优化
  • 郑州高新区做网站开发的公司网店推广渠道有哪些
  • 嵌入式培训心得武威网站seo
  • 外贸专业网站制作seo关键词布局
  • 做pc端网站多少钱搜索引擎怎么做
  • 网站开发比较流行的框架百度一下百度官网
  • b站怎么看视频分区网站关键词排名怎么优化
  • 响应式网站和不响应式哪家公司建设网站好
  • 网络工程技术seo发帖网站
  • 最贵网站建设多少钱搜索引擎优化规则
  • 有经验的企业网站建设专业网站推广引流
  • 网站网站制作400多少钱口碑营销的步骤
  • 扶风高端企业网站建设外贸网站建设案例
  • php网站开发个人职责创建网页步骤
  • 太原市做网站好的科技公司郑州高端网站制作
  • 网站ui设计公司网络销售技巧
  • 赣州企业做网站真正免费的网站建站平台推荐
  • 网站建设公司 佛山推广竞价托管费用
  • 南通市住房建设局网站外贸独立站建站
  • 泰州哪家做网站建设比较好百度推广要自己建站吗
  • 中国建设银行购物网站南宁seo外包服务
  • 龙华专业网站建设免费b站动漫推广网站2023
  • 深圳做门户网站的网络公司怎么做链接推广产品
  • 乐山网站制作公司北京网站seo服务
  • 招远网站建设招聘百度写作助手
  • 网站根目录文件网络推广专员岗位职责
  • 怎么做网页版网站百度个人中心登录
  • 重庆医疗网站建设莆田百度快照优化
  • 做网站和做推广的区别seo搜索引擎优化招聘
  • 个人网站建设方案书seo优化搜索推广