当前位置: 首页 > wzjs >正文

兴化网站开发深圳防疫政策最新

兴化网站开发,深圳防疫政策最新,网络广告的特点,高端网站建设哪家便宜一、常见的异常类型 在爬虫开发中,可能会遇到以下几种常见的异常情况: 网络请求失败:目标服务器不可用或网络连接问题。 页面结构变化:目标网站更新了HTML结构,导致选择器无法正确匹配。 反爬机制触发:请…

一、常见的异常类型

在爬虫开发中,可能会遇到以下几种常见的异常情况:

  1. 网络请求失败:目标服务器不可用或网络连接问题。

  2. 页面结构变化:目标网站更新了HTML结构,导致选择器无法正确匹配。

  3. 反爬机制触发:请求频率过高或被识别为爬虫,导致被限制访问。

  4. 数据解析错误:页面内容缺失或格式不符合预期,导致解析失败。

二、异常处理机制

(一)使用try-catch块捕获异常

在PHP中,可以使用try-catch块来捕获和处理异常。以下是一个示例:

<?php
require 'vendor/autoload.php';use GuzzleHttp\Client;
use Symfony\Component\DomCrawler\Crawler;function get_html($url) {$client = new Client();try {$response = $client->request('GET', $url, ['headers' => ['User-Agent' => 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/123.0.0.0 Safari/537.36']]);return $response->getBody()->getContents();} catch (Exception $e) {echo "请求失败: " . $e->getMessage() . "\n";return null;}
}function parse_html($html) {try {$crawler = new Crawler($html);$products = [];$crawler->filter('div.product-item')->each(function (Crawler $node) use (&$products) {$title = $node->filter('h3.product-title')->text();$price = $node->filter('span.product-price')->text();$link = $node->filter('a.product-link')->attr('href');$products[] = ['title' => $title,'price' => $price,'link' => $link];});return $products;} catch (Exception $e) {echo "解析失败: " . $e->getMessage() . "\n";return [];}
}function get_product_list($keyword, $page = 1) {$base_url = "https://www.17zwd.com/search";$url = $base_url . "?q=" . urlencode($keyword) . "&page=" . $page;$html = get_html($url);if ($html) {return parse_html($html);}return [];
}try {$keyword = "书籍"; // 替换为实际关键词$products = get_product_list($keyword);foreach ($products as $product) {echo "商品名称: " . $product['title'] . "\n";echo "商品价格: " . $product['price'] . "\n";echo "商品链接: " . $product['link'] . "\n";echo "----------------------\n";}
} catch (Exception $e) {echo "发生错误: " . $e->getMessage() . "\n";
}

(二)记录日志

在生产环境中,仅仅打印错误信息是不够的。建议将错误信息记录到日志文件中,以便后续分析和排查问题。可以使用PHP的error_log函数或第三方日志库(如monolog)来记录日志。

使用error_log记录日志:

function log_error($message) {error_log($message . "\n", 3, "/path/to/error.log");
}function get_html($url) {$client = new Client();try {$response = $client->request('GET', $url, ['headers' => ['User-Agent' => 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/123.0.0.0 Safari/537.36']]);return $response->getBody()->getContents();} catch (Exception $e) {log_error("请求失败: " . $e->getMessage());return null;}
}
使用monolog记录日志:

composer require monolog/monolog

<?php
require 'vendor/autoload.php';use Monolog\Logger;
use Monolog\Handler\StreamHandler;function get_logger() {$logger = new Logger('crawler');$logger->pushHandler(new StreamHandler('/path/to/error.log', Logger::WARNING));return $logger;
}function get_html($url) {$client = new Client();$logger = get_logger();try {$response = $client->request('GET', $url, ['headers' => ['User-Agent' => 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/123.0.0.0 Safari/537.36']]);return $response->getBody()->getContents();} catch (Exception $e) {$logger->error("请求失败: " . $e->getMessage());return null;}
}

(三)重试机制

在网络请求失败时,可以设置重试机制,尝试重新发送请求。可以通过递归或循环实现重试逻辑。

function get_html($url, $retry = 3) {$client = new Client();try {$response = $client->request('GET', $url, ['headers' => ['User-Agent' => 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/123.0.0.0 Safari/537.36']]);return $response->getBody()->getContents();} catch (Exception $e) {if ($retry > 0) {echo "请求失败,正在重试... ($retry)\n";return get_html($url, $retry - 1);} else {echo "请求失败: " . $e->getMessage() . "\n";return null;}}
}

(四)优雅地处理反爬机制

如果被目标网站识别为爬虫并限制访问,可以尝试以下策略:

  1. 降低请求频率:增加请求间隔时间。

  2. 更换User-Agent:随机选择不同的User-Agent。

  3. 使用代理服务器:通过代理服务器发送请求,避免被封禁IP。

function get_html($url) {$client = new Client();$user_agents = ["Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/123.0.0.0 Safari/537.36","Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:123.0) Gecko/20100101 Firefox/123.0","Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/16.0 Safari/605.1.15"];try {$response = $client->request('GET', $url, ['headers' => ['User-Agent' => $user_agents[array_rand($user_agents)]]]);return $response->getBody()->getContents();} catch (Exception $e) {echo "请求失败: " . $e->getMessage() . "\n";return null;}
}

三、总结

通过上述方法,可以高效地处理PHP爬虫中的异常情况,确保程序的稳定运行。在开发过程中,务必注意以下几点:

  1. 使用try-catch块捕获并处理异常。

  2. 记录错误信息到日志文件,便于后续分析。

  3. 设置重试机制,避免因网络问题导致请求失败。

  4. 优雅地处理反爬机制,避免被目标网站封禁。

希望本文能为你提供有价值的参考,帮助你更好地利用PHP爬虫技术获取电商平台数据。

http://www.dtcms.com/wzjs/813449.html

相关文章:

  • 深圳网站设计 工作室如何成功开展网络营销
  • 如何用云指做自己的网站校园网站建设详细的设计方案
  • 德清网站建设ps制作网页步骤
  • 广州建设工程合同备案系统网站丽水市做网站的
  • 中小学网站建设处理器优化软件
  • 手机站点图文设计
  • app和网站开发语言的区别做网站必须有云虚拟主机
  • 营销网站建设的公司叫什么h5制作软件免费 fou
  • 杭州 建设网站制作织梦网站怎么做404页面
  • 网站源码查看北京海淀建设部邮编
  • 网站开发课程培训游戏推广引流软件
  • 网站建设培训费用多少长治网站建设收费多少
  • 网站上的二维码怎么做手机网站关键词快速排名
  • 菜鸟教程网站做标书分享网站
  • 有什么网站做统计图的工业设计创意产品
  • 乔拓云智能建站平台物联网应用技术是干什么的
  • 网站域名有哪些网站设为主页功能怎么做
  • 做贺卡的网站wordpress按最后评论排序
  • 自己做轴承网站wordpress 笔记本主题下载失败
  • 泉州网站wordpress使用缩略
  • 外贸网站优化服务怎么删除安装wordpress
  • 建网站定制新农村基础设施建设网站
  • 做网站电脑配置要求个高吗中国企业网络营销现状
  • 广西网站建设设计php不用框架怎么做网站
  • python 做 网站wordpress快速网店主题
  • 长沙市做网站的好医生网站怎么做不了题目了
  • 济南住建局官方网站穿衣打扮 wordpress
  • 自己公司怎么做网站网站视频下载方法
  • 综合性门户网站是什么意思想建立一个网站
  • 企业网站建设联系电话自己做的网站 打开了没有图片