当前位置: 首页 > wzjs >正文

利用国外网站文章图片做书营利网络营销策划需要包括哪些内容

利用国外网站文章图片做书营利,网络营销策划需要包括哪些内容,新网站备案查询,网站制作软件教程1. 起因, 目的: 继续爬上海新闻, 增加新闻来源。昨天写了: 东方网 澎湃新闻今天增加2个来源: 上观新闻 腾讯新闻此时有4个来源,我觉得已经差不多了。 2. 先看效果 3. 过程: 代码 1, 上观新闻 这里也有一个有趣的…

1. 起因, 目的:

  • 继续爬上海新闻, 增加新闻来源。
  • 昨天写了: 东方网 + 澎湃新闻
  • 今天增加2个来源: 上观新闻 + 腾讯新闻
  • 此时有4个来源,我觉得已经差不多了。

2. 先看效果

在这里插入图片描述

3. 过程:

代码 1, 上观新闻

这里也有一个有趣的地方。

图片链接是:
https://images.shobserver.com/news/900_507/2025/05/09/l_cb20250509100210436048.jpg
注意url 中包含一段数字是, 900_507, 然而,图片的实际尺寸是 899 * 506
是巧合吗? 我觉得是细腻。

import os
import csv
import time
import requests
from datetime import datetime, timedelta"""
# 上观新闻 shobserver.com       与解放日报关联,报道上海本地案件。
# home: https://www.shobserver.com/staticsg/home
# 1. 标题, url, 来源,时间# api 类似这样:
post: https://www.shobserver.com/news/homeMoreNews?ver=1746801768088请求荷载是:
- 查询字符串参数是 ver=1746801768088
- 表单数据是: page=4&lastpublishtime=1746797627000# 每个 api 相应,包含 12 条新闻。
"""# 请求头
headers = {"Accept": "application/json, text/javascript, */*; q=0.01",'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8','User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/136.0.0.0 Safari/537.36','Content-Type': 'application/x-www-form-urlencoded; charset=UTF-8',  # 表单数据'Referer': 'https://www.shobserver.com/staticsg/home',  # 引荐来源'Origin': 'https://www.shobserver.com'  # 跨域请求
}def get_shobserver_data(file_name='shang_guan_400.csv', max_pages=100):"""爬取上观新闻数据,保存到 CSV 文件参数:file_name: 输出 CSV 文件名max_pages: 最大爬取页数"""# 检查文件是否存在has_file = os.path.exists(file_name)# 打开 CSV 文件,追加模式with open(file_name, 'a', newline='', encoding='utf-8') as file:columns = ['title', 'url', 'time', 'source']writer = csv.DictWriter(file, fieldnames=columns)if not has_file:writer.writeheader()# 计算 lastpublishtime(当前时间戳)lastpublishtime = int(time.time() * 1000)  # 当前毫秒时间戳# 爬取数据for page in range(1, max_pages + 1):time.sleep(0.5)  # 请求间隔# 动态生成 ver(当前毫秒时间戳)ver = int(time.time() * 1000)# 表单数据form_data = {'page': str(page),'lastpublishtime': str(lastpublishtime)}url = 'https://www.shobserver.com/news/homeMoreNews'resp = requests.post(url, headers=headers, params={'ver': ver}, data=form_data, timeout=10)print(f"请求 {url}, 页码: {page}")print(f"请求参数:{form_data}")print()if resp.status_code != 200:print(f"请求失败:{url}, 状态码: {resp.status_code}, 页码: {page}")breakret = resp.json()# print(f"页面 {page} 响应:{ret}")news_list = ret['object']for item in news_list:# print(item)news = {}news['title'] = item.get('title', '')# https://www.shobserver.com/staticsg/res/html/web/newsDetail.html?id=907694&sid=11# 养老智能体能当数字养老师?沪上“校企医”共建智慧康养与教育学院补人才缺口news['url'] = f"https://www.shobserver.com/staticsg/res/html/web/newsDetail.html?id={item.get('id', '')}"news['time'] = item.get('addtime', 0)news['source'] = item.get('author', '上观新闻')news['time'] = datetime.fromtimestamp(news['time'] / 1000).strftime('%Y-%m-%d %H:%M:%S')# 直接写入,不去重writer.writerow(news)print(f"保存新闻:{news}")if __name__ == "__main__":# 20 * 12 = 240 条新闻get_shobserver_data(file_name='shang_guan_400.csv', max_pages=20)# 899 * 506
# https://images.shobserver.com/news/900_507/2025/05/09/l_cb20250509100210436048.jpg
代码 2, 腾讯新闻

举个例子:

上海一男程序员被刑拘!为了打赏主播,差点把公司搬空了
https://news.qq.com/rain/a/20250508A03GCG00

这个url 中的 rain, 我估计指的是瀑布流。。。
起名字真有趣。

import os
import csv
import time
import requests
from datetime import datetime"""
每个 api 返回 12个新闻!请求参数是:
{"base_req":{"from":"pc"},"forward":"1","qimei36":"0_NhDQ1xCnBNZ70","device_id":"0_NhDQ1xCnBNZ70","flush_num":7,"channel_id":"news_news_sh","item_count":12,"is_local_chlid":"1"}"""# 请求头
headers = {'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8','User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/136.0.0.0 Safari/537.36','Content-Type': 'application/json','Referer': 'https://news.qq.com/','Origin': 'https://news.qq.com'
}def get_tencent_data(file_name='qq_news_400.csv', max_pages=100, channel_id='news_news_sh'):"""爬取腾讯新闻数据,保存到 CSV 文件参数:file_name: 输出 CSV 文件名max_pages: 最大爬取页数channel_id: 新闻频道 ID"""# 检查文件是否存在has_file = os.path.exists(file_name)# 打开 CSV 文件,追加模式with open(file_name, 'a', newline='', encoding='utf-8') as file:columns = ['title', 'url', 'time', 'source']writer = csv.DictWriter(file, fieldnames=columns)if not has_file:writer.writeheader()# 爬取数据for page in range(1, max_pages + 1):time.sleep(0.5)  # 请求间隔payload = {"base_req": {"from": "pc"},"forward": "1","qimei36": "0_NhDQ1xCnBNZ70","device_id": "0_NhDQ1xCnBNZ70","flush_num": page,  # 使用 page 模拟分页"channel_id": channel_id,"item_count": 12,"is_local_chlid": "1"}url = 'https://i.news.qq.com/web_feed/getPCList'resp = requests.post(url, headers=headers, json=payload, timeout=10)if resp.status_code != 200:print(f"请求失败:{url}, 状态码: {resp.status_code}, 页码: {page}")breakret = resp.json()news_list = ret['data']for item in news_list:# print(f"新闻:{item}")news = {}news['title'] = item.get('title', '')# 20250509A07HJ500news['url'] = f"https://news.qq.com/rain/a/" + item.get('id', '')news['time'] = item.get('update_time', '')news['source'] = item.get('media_info', '腾讯新闻').get('chl_name', '')# 直接写入,不去重writer.writerow(news)print(f"保存新闻:{news}")if __name__ == "__main__":get_tencent_data(file_name='tencent_400.csv', max_pages=2, channel_id='news_news_sh')

4. 结论 + todo

  • 下一步, 过滤出某一个类别的新闻。

希望对大家有帮助。

http://www.dtcms.com/wzjs/172560.html

相关文章:

  • 公益网站建设的意义嘉兴seo排名外包
  • wordpress 电影站主题网站域名服务器查询
  • 如何做网站的推广教程智能营销系统开发
  • 布吉做棋牌网站建设找哪家效益快优化大师有必要花钱吗
  • 宣武青岛网站建设怎么建网页
  • 自学网站开发哪个网站好网络推广网上营销
  • 做网站被忽悠算诈骗吗网络软文是什么意思
  • 显示佣金的网站是怎么做的站长之家关键词挖掘
  • 外贸小网站建设广州seo招聘信息
  • 网站开发用到哪些技术竞价托管外包费用
  • 自己做网站平台需要服务器重庆网站开发公司
  • 投资企业网站备案要前置认证电脑培训班
  • app网站开发报价深圳seo优化外包公司
  • 深圳网站建设 设计科技有限公司教育培训机构排名前十
  • 做网站盈利方式兰州网络推广新手
  • 海外贸易在什么网站做郑州今天刚刚发生的新闻
  • 长沙网页网站制作百度推广关键词价格查询
  • 做网站都去哪申请网址seo含义
  • 做网站要有哪些知识网站策划方案范文
  • 佛山网站建设乐云seo在线制作龙华网站建设
  • 网站备案帐户有什么用搜索引擎网站推广如何优化
  • 网站开发后期维护更新搜索引擎优化seo专员
  • 做网站几百块可信吗新闻热点大事件
  • 自己做的网站怎么上传网络电话营销
  • 淘宝怎么做网站百度2022年版本下载
  • wordpress安装插件导致网站百度搜索首页
  • 网站开发项目背景淘宝运营培训班去哪里学
  • 网站建设报表明细长尾关键词
  • 网站建设 海口市场调研怎么写
  • nas做流媒体网站中国最大的企业培训公司