当前位置: 首页 > wzjs >正文

淘宝网页设计与制作教程seo管家

淘宝网页设计与制作教程,seo管家,简单的网页设计模板,基于web的在线电影网站设计论文一、背景介绍:你被自动化检测拒之门外了吗? 在使用 Selenium 或 Playwright 等浏览器自动化工具爬取数据时,经常会遇到「被检测」问题,尤其像 Amazon 这样反爬策略严密的网站。常见的检测机制之一就是检查 JavaScript 中的 navig…

爬虫代理


一、背景介绍:你被自动化检测拒之门外了吗?

在使用 Selenium 或 Playwright 等浏览器自动化工具爬取数据时,经常会遇到「被检测」问题,尤其像 Amazon 这样反爬策略严密的网站。常见的检测机制之一就是检查 JavaScript 中的 navigator.webdriver 属性:

console.log(navigator.webdriver); // true:表明是自动化工具

因此,本文将带你深入了解如何在浏览器中底层修改该属性,并结合代理、Cookie、User-Agent 技术,实现一个能顺利爬取 Amazon 网站商品信息的反检测爬虫。


二、环境准备

1. 安装依赖

pip install undetected-chromedriver selenium requests

我们使用 undetected-chromedriver 代替原生 Selenium 驱动,内置多种反检测机制,更适合应对大型网站的反爬。

2. 爬虫代理信息(请替换为你的真实账户信息)

# 配置代理 亿牛云爬虫代理 www.16yun.cn
proxy_host = "proxy.16yun.cn"
proxy_port = "8010"
proxy_user = "16YUN"
proxy_pass = "16IP"

三、核心步骤

✅ 第一步:配置无痕浏览器并隐藏 webdriver

from selenium import webdriver
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.common.by import By
import timedef create_stealth_driver(proxy_host, proxy_port, proxy_user, proxy_pass, user_agent, cookies):options = Options()options.add_argument(f"user-agent={user_agent}")options.add_argument("--disable-blink-features=AutomationControlled")# 配置爬虫代理options.add_argument(f'--proxy-server=http://{proxy_user}:{proxy_pass}@{proxy_host}:{proxy_port}')# 启动无头浏览器(也可以关闭无头方便调试)# options.add_argument('--headless')# 创建驱动import undetected_chromedriver as ucdriver = uc.Chrome(options=options)# 修改 webdriver 属性(核心)driver.execute_script("Object.defineProperty(navigator, 'webdriver', {get: () => undefined})")# 设置 cookiedriver.get("https://www.amazon.com")for cookie in cookies:driver.add_cookie(cookie)return driver

✅ 第二步:模拟搜索关键词并采集信息

def scrape_amazon(keyword):user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36"cookies = []  # 可以从浏览器复制一组,也可通过登录获取driver = create_stealth_driver(proxy_host, proxy_port, proxy_user, proxy_pass, user_agent, cookies)driver.get(f"https://www.amazon.com/s?k={keyword}")time.sleep(3)products = driver.find_elements(By.XPATH, "//div[@data-component-type='s-search-result']")for product in products[:10]:  # 只取前10条数据举例try:title = product.find_element(By.TAG_NAME, "h2").textprice_whole = product.find_element(By.CLASS_NAME, "a-price-whole").textprice_frac = product.find_element(By.CLASS_NAME, "a-price-fraction").textprice = f"{price_whole}.{price_frac}"reviews = product.find_element(By.XPATH, ".//span[@class='a-size-base']").textprint(f"名称: {title}")print(f"价格: ${price}")print(f"评论: {reviews}")print("=" * 30)except Exception as e:continuedriver.quit()

四、完整代码汇总

# 请整合以上两个函数并在此调用
if __name__ == "__main__":keyword = "wireless earbuds"scrape_amazon(keyword)

五、常见错误分析

错误提示原因解决方案
selenium.common.exceptions.WebDriverException驱动不匹配使用 undetected-chromedriver 自动管理版本
网页元素找不到页面尚未完全加载time.sleep() 或 WebDriverWait
显示“访问过于频繁”IP 被封更换代理 IP,使用优质高匿代理
无法设置 Cookie页面未打开或未加载完成先访问目标页面,再添加 Cookie

六、总结与提升

本文以 Amazon 网站为例,讲解了如何通过底层 JS 技巧对抗自动化检测,关键点在于:

  • 使用 undetected-chromedriver 替代传统 Selenium;
  • 修改 navigator.webdriver 属性隐藏自动化痕迹;
  • 配合代理、User-Agent 和 Cookie 构建可信环境;
  • 页面加载等待 + XPath 精准提取实现结构化采集。
http://www.dtcms.com/wzjs/111150.html

相关文章:

  • 怎么做网站源码黄页网络的推广
  • 多边形网站西地那非片吃了多久会硬起来
  • 哪家公司建网站最好最佳的资源搜索引擎
  • 沧州高端网站建设公司今天高清视频免费播放
  • 注销网站 取消接入草根seo视频大全
  • 上蔡县住房和城乡建设局网站个人推广app的妙招
  • 南京哪里有做网站的旺道seo怎么优化网站
  • 网站推广是做什么工作百度搜图片功能
  • 做网站要多钱网络营销的定义
  • 西安微网站制作网站优化推广方法
  • 在互联网公司做网站搜索引擎营销特点是什么
  • 网站关键词优化公司哪家好网络推广的方法包括
  • 自己做培训需要网站吗如何做seo整站优化
  • 凡科网站为什么免费做网站太原百度seo
  • vultr怎么建设影视网站沈阳关键词优化报价
  • 网站直播间 是怎么做的网站怎么营销推广
  • 佛山茂名网站建设企业网络营销策划方案
  • 电子商城网站开发与设计中国站长
  • 可视化网站建设软件网上销售平台怎么做
  • 赤峰市建设委员会网站免费源码网站
  • 长春标准网站建设图片识别
  • 做电子外贸网站搜seo
  • 上海做外贸网站的公司seo推广营销靠谱
  • 免费网站建设专业的公司北京计算机培训机构前十名
  • ftp文件导入wordpress晋城seo
  • 小猪会飞网站建设厦门谷歌seo公司有哪些
  • 高端品牌网站有哪些重庆小潘seo
  • 做网站 设备小学生摘抄新闻
  • 用网页制作个人网站最新国际新闻头条今日国际大事件
  • b2b网站开发公司如何创建个人网页