当前位置: 首页 > wzjs >正文

深圳做响应式网站百度站长工具网站

深圳做响应式网站,百度站长工具网站,沈阳网页模板建站,商业网站建设规划范文本文将详细解析一段用于从 PDF 文件中提取文本,对文本进行处理、词频统计,过滤排除词,排序输出结果并生成词云的 Python 代码。 1. 导入必要的库 python import jieba import fitz from wordcloud import WordCloud import matplotlib.pypl…

本文将详细解析一段用于从 PDF 文件中提取文本,对文本进行处理、词频统计,过滤排除词,排序输出结果并生成词云的 Python 代码。

1. 导入必要的库

python

import jieba
import fitz
from wordcloud import WordCloud
import matplotlib.pyplot as plt

  • jieba:用于中文分词,将文本拆分成单个词语。
  • fitz:是 PyMuPDF 库的别名,用于读取 PDF 文件并提取文本。
  • WordCloud:用于生成词云图。
  • matplotlib.pyplot:用于展示生成的词云图。

2. 词云生成函数 createWordCloud

python

def createWordCloud(items):word_freq = {name: count for name, count in items}font_path = 'simhei.ttf'  # 按需修改字体路径wc = WordCloud(font_path=font_path,background_color='white',width=500,height=300,max_font_size=100,margin=1,relative_scaling=0.4,scale=3,prefer_horizontal=0.8)wordcloud = wc.generate_from_frequencies(word_freq)plt.imshow(wordcloud, interpolation='bilinear')plt.axis('off')plt.show()

  • 此函数接收一个元素为元组的列表 items,每个元组包含词语和其对应的词频。
  • 首先将 items 转换为字典 word_freq,键为词语,值为词频。
  • 接着创建 WordCloud 对象 wc,设置字体路径、背景颜色、宽度、高度等参数。
  • 调用 generate_from_frequencies 方法根据词频生成词云图。
  • 最后使用 matplotlib 展示词云图,同时关闭坐标轴显示。

3. 辅助排序函数 takeSecond

python

def takeSecond(elem):return elem[1]

此函数用于返回元素的第二个值,在后续排序操作中作为排序的依据。

4. PDF 文本提取函数 extract_text_from_pdf

python

def extract_text_from_pdf(path):doc = fitz.open(path)text = ""for page in doc:text += page.get_text()return text

  • 该函数接收 PDF 文件的路径 path 作为参数。
  • 使用 fitz.open 打开 PDF 文件,得到一个文档对象 doc
  • 遍历文档的每一页,使用 page.get_text 方法提取文本,并将其累加到字符串 text 中。
  • 最后返回提取的文本。

5. 文本处理与词频统计函数 process_text

python

def process_text(text):words = jieba.lcut(text)counts = {}# 角色名称合并role_mapping = {"宝玉": ["二爷","绛洞花主", "富贵闲人"],"黛玉": ["林姑娘", "颦儿", "林妹妹"],"宝钗": ["宝姐姐", "宝姑娘", "蘅芜君"],"熙凤": ["凤姐", "琏二奶奶", "凤辣子"],"贾母": ["老祖宗", "史太君"],"湘云": ["云妹妹", "枕霞旧友"]}# 使用字典推导式生成同义词映射synonym_map = {alias: role for role, aliases in role_mapping.items() for alias in aliases}for word in words:if len(word) == 1:continuerword = synonym_map.get(word, word)counts[rword] = counts.get(rword, 0) + 1return counts

  • 首先使用 jieba.lcut 对输入的文本 text 进行分词,得到词语列表 words
  • 创建一个空字典 counts 用于存储词频。
  • 定义一个 role_mapping 字典,用于将同义词映射到统一的名称。
  • 使用字典推导式生成 synonym_map,键为同义词,值为统一名称。
  • 遍历词语列表 words,过滤掉单个字符的词语。
  • 对于每个词语,通过 synonym_map 查找其统一名称 rword,若不存在则使用原词。
  • 更新 counts 字典中该词语的词频。
  • 最后返回词频统计结果。

6. 过滤排除词函数 filter_excluded_words

python

def filter_excluded_words(counts):file = open("excludes.txt", "r", encoding='utf-8')excludes = file.read().split(",")file.close  # 保持原始实现方式for word in excludes:if word in counts:del counts[word]

  • 此函数接收词频统计结果 counts 作为参数。
  • 打开 excludes.txt 文件,读取其中的排除词,以中文逗号分割成列表 excludes
  • 遍历 excludes 列表,若某个排除词存在于 counts 字典中,则将其删除。

7. 排序并输出结果函数 sort_and_print_results

python

def sort_and_print_results(counts, top_n=36):items = list(counts.items())items.sort(key=takeSecond, reverse=True)print("频率TOP{}词汇:".format(top_n))for i in range(top_n):item = items[i]print("{0:<10}{1:>5}".format(item[0], item[1]))return items[:top_n]

  • 该函数接收词频统计结果 counts 和要输出的前 top_n 个词语(默认为 36)作为参数。
  • 将 counts 字典转换为元素为元组的列表 items
  • 使用 sort 方法对 items 列表进行排序,排序依据为每个元组的第二个元素(词频),并按降序排列。
  • 打印前 top_n 个词语及其词频。
  • 最后返回前 top_n 个词语及其词频的列表。

8. 主流程函数 main

python

def main():path = '红楼梦.pdf'text = extract_text_from_pdf(path)counts = process_text(text)filter_excluded_words(counts)top_items = sort_and_print_results(counts)createWordCloud(top_items)if __name__ == "__main__":main()

  • 定义 PDF 文件的路径 path
  • 调用 extract_text_from_pdf 函数提取 PDF 文本。
  • 调用 process_text 函数对文本进行处理并统计词频。
  • 调用 filter_excluded_words 函数过滤排除词。
  • 调用 sort_and_print_results 函数排序并输出前 top_n 个词语及其词频。
  • 调用 createWordCloud 函数生成并展示词云图。

通过以上核心代码,我们可以从 PDF 文件中提取文本,进行一系列处理后生成词云图,直观地展示文本中高频词汇的分布情况。

最后输出:

频率TOP36词汇:
宝玉         4129
贾母         2278
熙凤         1150
王夫人        1016
黛玉          834
贾琏          679
宝钗          667
袭人          607
平儿          590
凤姐儿         436
薛姨妈         433
探春          424
鸳鸯          419
贾政          361
晴雯          331
湘云          331
贾珍          292
刘姥姥         278
紫鹃          278
邢夫人         267
香菱          265
尤氏          238
林黛玉         204
薛蟠          190
贾赦          184
周瑞家         162
贾蓉          151
贾芸          145
迎春          143
林之孝         138
雨村          136
大爷          130
赵姨娘         128
贾环          103
金桂           96
芳官           94

完整代码下载地址:https://download.csdn.net/download/u011321546/90705070

http://www.dtcms.com/wzjs/242981.html

相关文章:

  • soho外贸网站建设企业网站推广模式
  • 政府网站建设8大要求网络营销策划模板
  • 软件开发方法有几种seo是做什么工作的
  • 济宁网站建设多少钱全网营销系统怎么样
  • 网站如何买空间手机优化软件下载
  • 温州科技网站建设简述获得友情链接的途径
  • 服装设计师必看的网站福州外包seo公司
  • 网站建设与小程序开发熊掌号黑马教育培训官网
  • 淮北建网站费用游戏推广代理加盟
  • 提供手机网站建设哪家好自媒体推广渠道有哪些
  • 微信小程序引流推广软件郑州seo排名工具
  • 东莞视频网站制作提高seo排名
  • 用html做网站步骤seo关键字优化教程
  • 做网站用哪个预装系统seo资讯推推蛙
  • 做网站是买服务器还是买cdn网络营销的整体概念
  • 如何k掉别人的网站手机优化大师为什么扣钱
  • 日照房产建设信息网站seo专业培训技术
  • 中国安能建设总公司网站aso优化违法吗
  • h5网站价格方案友情链接检查工具
  • 六安网站定制兰州网络推广电话
  • 哪里有营销型网站制作网站注册流程和费用
  • 国内网站空间 linuxsem推广软件选哪家
  • wordpress主题 破解主题下载西安seo培训学校
  • 网页设计专业大学排名seo优化网站的注意事项
  • 毕业设计论文网站二级域名免费分发
  • 描述photoshop在网站建设中的作用与特点.百度行发代理商
  • 免得做网站外链价格
  • 域名如何绑定网站关键词挖掘长尾词工具
  • 浙江省建设工程检测协会网站优化seo哪家好
  • 蓬莱做网站那家好网络推广预算方案