当前位置: 首页 > news >正文

html跳转到另一个html页面公司搜索seo

html跳转到另一个html页面,公司搜索seo,开发公司移交物业必备资料,网站是怎么做出来的遗憾本来想用ollama 本地模型 deepseek-r1:8b来获取 百度中含有 韩立的图片要求横屏图片 可惜“deepseek-r1:8b” 能力有限 只能换成 用Python re 正则表达式来解决问题了。 1. 直接处理 Markdown字符串 的优化代码,完美适配 crawl4ai 返回的字符串格式&#xff1a…

遗憾本来想用ollama 本地模型 deepseek-r1:8b来获取 百度中含有 韩立的图片要求横屏图片 可惜“deepseek-r1:8b” 能力有限 只能换成 用Python re 正则表达式来解决问题了。

1. 直接处理 Markdown字符串 的优化代码,完美适配 crawl4ai 返回的字符串格式:

import asyncio
from crawl4ai import *
import redef parse_crawl4ai_md(md_content: str):"""解析 crawl4ai 返回的Markdown字符串参数:md_content (str): Markdown字符串返回:list: 前5个含"韩立"且宽>高的图片地址"""# 匹配图片地址和标题(适配crawl4ai结构)pattern = r'\* \[!\[\]\(([^)]+)\)[^\[]*?\[([^\]]+)\]'matches = re.findall(pattern, md_content)# 双重过滤(标题含"韩立" + 宽高比)results = []for url, title in matches:if '韩立' not in title:continue# 从URL参数解析尺寸(兼容多种格式)size_match = re.search(r'[?&](?:w|width)=(\d+).*?[?&](?:h|height)=(\d+)', url)if not size_match:continuetry:w, h = map(int, size_match.groups())if w > h:  # 核心筛选条件results.append(url.split('?')[0])  # 移除参数保留干净URLexcept:pass# 去重并返回前5个return list(dict.fromkeys(results))[:5]async def main():print("\n--- Using CSS Selectors ---")browser_config = BrowserConfig(headless=False)crawler_config = CrawlerRunConfig(#waterfall_Pq6qhcache_mode=CacheMode.BYPASS,css_selector=".page-content_11Pd_")async with AsyncWebCrawler(config=browser_config) as crawler:result = await crawler.arun(url='https://image.baidu.com/search/index?tn=baiduimage&fm=result&ie=utf-8&word=%E9%9F%A9%E7%AB%8B%E5%9B%BE%E7%89%87',config=crawler_config,)print(result.markdown)# 调用解析函数images = parse_crawl4ai_md(result.markdown)# 打印结果print("解析结果:")for i, url in enumerate(images, 1):print(f"{i}. {url}")if __name__ == '__main__':asyncio.run(main())

2. 代码重点说明:

  1. 零文件依赖
    直接处理内存中的Markdown字符串,无需生成临时文件

  2. 智能尺寸解析
    正则 r'[?&](?:w|width)=(\d+).*?[?&](?:h|height)=(\d+)' 支持多种参数格式:

    • ?w=800&h=600
    • &width=1200&height=800
    • ?h=300&w=400(顺序无关)
  3. 工业级健壮性

    • try-except 防御非法尺寸参数
    • dict.fromkeys() 去重同时保留顺序
    • url.split('?')[0] 清理跟踪参数
  4. 高性能处理
    单次正则扫描完成数据提取,时间复杂度 O(n)


3. 结果展示:

解析结果:
1. https://img1.baidu.com/it/u=457309065,2031518686&fm=253&fmt=auto&app=120&f=JPEG
2. https://img0.baidu.com/it/u=4284382542,1530607746&fm=253&fmt=auto&app=120&f=JPEG
3. https://img1.baidu.com/it/u=937583500,4077626415&fm=253&fmt=auto&app=120&f=JPEG
4. https://img2.baidu.com/it/u=2235209624,3474576670&fm=253&fmt=auto&app=120&f=JPEG
5. https://img0.baidu.com/it/u=1099097691,2461365158&fm=253&fmt=auto&app=120&f=JPEG

4. 进阶优化方向:

  1. 动态尺寸验证
    添加HTTP HEAD请求验证实际图片尺寸:

    import requests
    def verify_real_size(url):try:resp = requests.head(url, timeout=2, allow_redirects=True)if resp.status_code == 200:content_type = resp.headers.get('Content-Type', '')if 'image/' in content_type:# 从Header或解析二进制获取真实尺寸return (width, height) except:return (0, 0)
    
  2. 异步处理(非必需)
    使用 asyncio + aiohttp 加速批量验证:

    import aiohttp
    async def async_verify(url):async with aiohttp.ClientSession() as session:async with session.head(url) as resp:# 获取尺寸逻辑return await process_response(resp)
    
  3. 缓存机制(非必需)
    lru_cache 缓存已解析的URL尺寸信息:

    from functools import lru_cache
    @lru_cache(maxsize=1000)
    def get_cached_size(url):return verify_real_size(url)
    

    4. 要是能升级显卡硬件的话,本地:deepseek-r1 就会更聪明

    比如:rtx4090 48G

http://www.dtcms.com/a/551130.html

相关文章:

  • 商城网站需要多少空间网站建设 会议主持稿
  • 五合一小程序网站外管局网站做延期收汇报告
  • 慈溪网站建设网站优化就是seo
  • 网站开发毕业设计文档太原做推广营销
  • 搭建个人视频网站微信程序开发平台
  • wordpress自定义结构怎么优化网站加载速度
  • 510企业网站系统源码软件下载app排行榜
  • 如何用群晖做自己的网站小程序的功能
  • 网页制作邢台网站公司wordpress mepal
  • 网站文字大小代码博达网站建设流程
  • 网站建设的安全防护方法服务号wordpress
  • 毕设做桌面软件还是网站网页设计与网站建设+pdf
  • 快站如何做网站会用wordpress建站
  • 怎么建网站手机版微信小程序有什么用处?
  • 网站商品页面设计百度空间导出wordpress
  • 网站建设解析wordpress广告平台
  • 厦门百度搜索网站排名柳州建网站
  • 长葛网站建设容桂免费网站建设公司
  • 公司网站制作设计价格怎么看视频号的网址
  • 已有网站开发app终端网站开发建设合同范本
  • 网站建设哪些模板号建筑工程网络教育自我鉴定
  • Polarctf swp
  • 东莞南城做网站推广的公司49you网页游戏平台
  • 打鱼跟电子游戏网站怎么做企业网站建设兴田德润很赞
  • 国外主流媒体网站三个律师做网站合适吗
  • 后台网站更新 网站没显示一级 爰做片免费网站
  • Python栈帧沙箱逃逸
  • soho外贸建站内部网站的作用
  • 凡科网站建设的技巧企业网站管理系统源码
  • 网站建设包装策略网站app微信三合一