当前位置: 首页 > news >正文

python 实现一个简单的网页爬虫程序

最近在学习python,以下为网页爬虫代码,供参考

1、爬取指定网页的标题和所有的连接

2、并将这些信息保存到一个文件中。

前置:因使用到网页相关的功能,故需导入requests、BeautifulSoup 库来完成

#导入网页相关的库

import requests

from bs4 import BeautifulSoup

#定义一个函数get_page()

def get_page(url):

        response = requests.get(url)        # 发送HTTP的get请求

        # 解析响应内容为HTML(此处使用*.content,否则使用*.text有乱码)

        soup = BeautifulSoup(response.content, 'html.parser')  

  

        # 获取链接的文本内容,即标题

        # *.title代表HTML文档中<title>标签,*.string属于则用于获取该标签内的直接文本内容

        title = soup.title.string      

        links = soup.find_all('a')              # 找到所有的<a>标签,即链接  

        

        # 打开文件用于保存
        with open('results.txt', 'w', encoding='utf-8') as file:

                file.write(f"网页标题:{title}")             # 保存标题到文件

                # 遍历所有连接
                for link in links:       

                        # 获取链接的href属性,即URL;  # 保存链接到文件

                        file.write("\n\nURL:")

                        file.write(link.get('href'))
 
# 使用方法
get_page('https://mail.163.com')

3、远行后,可在“results.txt”文件查看到网页标题及URL

特别注意python的格式要求较高

相关文章:

  • Python编程的特点
  • 一文教你编写有效提示词,了解常用提示词工具—Prompt Engineering for Gen AI
  • 解决MAC电脑SVN Android studio不能提交.so文件相关
  • python创建虚拟环境并在pycharm引用
  • 网络安全售前入门05安全服务——渗透测试服务方案
  • 【软件文档】项目总结报告编制模板(Word原件参考)
  • hdfs的慢盘检测
  • Nacos2.4.1安装
  • Stable Diffusion详解
  • Javaweb学习之Vue数据绑定(五)
  • 经验笔记:选择消息中间件——RabbitMQ vs RocketMQ vs Apache Kafka
  • 【自动化】考试答题自动化完成答案,如何实现100%正确呢
  • springsecurity 在web中如何获取用户信息(后端/前端)
  • 普通项目解决跨域问题,springSecurity解决跨域问题以及文件配置
  • C++ 设计模式——迭代器模式
  • ATL宁德新能源25届校招社招:Verify测评及四色测评考什么?真题分析
  • es集群详解
  • Eureka的生命周期管理:服务注册、续约与下线的完整流程解析
  • Visual Basic调试全景:解锁高效开发的秘密武器
  • 数据结构——队的基本操作
  • 家政阿姨如何炼成全国劳模?做饭、收纳、养老、外语样样都会
  • 北京亦庄启动青年人才创新创业生态示范区
  • 黄育奇当选福建惠安县人民政府县长
  • 违规行为屡禁不止、责任边界模糊不清,法治日报:洞穴探险,谁为安全事故买单?
  • 探索演艺产业新路径,2万观众走进音乐科技融创节
  • 比熬夜更伤肝的事,你可能每天都在做