1500字范文,内容丰富有趣,写作好帮手!
1500字范文 > python怎么统计文本中的字频_【python】实现文档中的多频词统计

python怎么统计文本中的字频_【python】实现文档中的多频词统计

时间:2019-11-22 07:08:16

相关推荐

python怎么统计文本中的字频_【python】实现文档中的多频词统计

案例:三国小说主要人物出场频率统计

首先导入必要的模块:

import jieba

from collections import Counter

from wordcloud import WordCloud

注释:导入模块之前,需要先下载 jieba模块 和 WordCloud模块

pip install jieba

pip install WordCloud

先举个栗子:

import jieba

# 使用 jieba 分词

txt = '我来到北京清华大学'

seg_list = jieba.lcut(txt)

print(seg_list)

这个代码块主要使用了 jieba库 来实现对字符串的分割

输出:

Building prefix dict from the default dictionary ...

Building prefix dict from the default dictionary ...

Loading model from cache C:\Users\ADMINI~1\AppData\Local\Temp\jieba.cache

Loading model cost 0.810 seconds.

Prefix dict has been built succesfully.

['我', '来到', '北京', '清华大学']

Process finished with exit code 0

那么,说完了上面的基本操作,现在进入正题。

第一步:导入电子版文档,存储在sanguo.txt中(当然,也可以使用迭代对象来分次导入,好处是节约内存)

with open('sanguo.txt','r', encoding='utf-8') as f:

# 打开文件路径

txt = f.read() # 这里直接导入

第二步:将字符串分割成等量的中文

words = jieba.lcut(txt)

print(words)

# ‘人物名字’:出现次数

输出:

', '汉中', ';', '达', '与', '李严', '曾结', '生死之交', ';', '臣', '回', '成都', '时留', '李', '严守', '永安', '宫', ';', '臣', '已作', '一书', '、', '只', '做', '李严', '亲笔', '令人', '送与', '孟达',, ';', '达', '必然', '推病', '不出', '以慢', '军心', ':', '此', '一路', '又', '不足', '忧', '矣', '。', '又', '知', '曹真', '引兵', '犯', '阳平关', ';', '此地', '险峻', # 这里只是一部分

第三步:一个小说中,按照常理,主角的名字不会是一个字,所以要筛选出大于1的字符串

counts = {} #创建空字典

for word in words: # 遍历字典

if len(word) == 1:

continue

else:

# 往字典里添加元素

#counts['key'] = 888

counts[word] = counts.get(word, 0) + 1

# counts['曹操'] = counts.get('曹操', 0) + 1

print(counts)

输出:

{'正文': 1, '第一回': 1, '桃园': 19, '豪杰': 22, '结义': 14, '黄巾': 40, '英雄': 82, '立功': 22, '滚滚': 5, '长江': 25, '逝水': 1, '浪花': 1, '淘尽': 1, '是非成败': 1, '转头': 2, '青山': 1, '依旧': 11, '几度': 1, '夕阳红': 1, '渔樵': 1, '江渚': 2, '上惯': 1, '秋月春风': 1, } # 这里只是一部分

第四步:删除 无关词。例如:将军", "却说", "丞相", "二人", "不可", "荆州", "不能", "如此", "商议", "如何", "主公", "军士", "军马", "左右", "次日", "引兵", "大喜", "天下","东吴", "于是", "今日", "不敢", "魏兵", "陛下", "都督", "人马", "不知",...等。

在一篇文章中,除一个字符之外的其他多字符若不是人物名字,需要删除

# 定义无关词集合

excludes = {"将军", "却说", "丞相", "二人", "不可", "荆州", "不能", "如此", "商议",

"如何", "主公", "军士", "军马", "左右", "次日", "引兵", "大喜", "天下",

"东吴", "于是", "今日", "不敢", "魏兵", "陛下", "都督", "人马", "不知",

'玄德曰', '孔明曰', '刘备', '关公', '孔明曰', '玄德曰', '先主', '此人',

'上马', '大叫', '后主', '众将', '只见', '一人', '汉中', '太守', '天子',}

for word in excludes:

del counts[word]

第五步:将一些字符串整合在一起,比如‘孔明’和‘孔明曰’,‘玄德’和‘玄德曰’等等

counts['孔明'] = counts.get('孔明') + counts.get('孔明曰')

counts['玄德'] = counts.get('玄德') + counts.get('玄德曰')

counts['玄德'] = counts.get('玄德') + counts.get('刘备')

counts['云长'] = counts.get('关公') + counts.get('云长')

第六步:统计出现频率最高的前10个词

items = list(counts.items())

items.sort(key=lambda x: x[1], reverse=True) # 使用了隐函数

# print('排序后:', items)

for i in range(10):

character, count = items[i]

print(character, count)

输出:

孔明 1204

玄德 1159

曹操 910

张飞 340

孙权 259

吕布 258

赵云 254

云长 241

司马懿 221

周瑜 216

拓展 : 统计出现频率最高的前10个词--方法2

roles = Counter(counts)

role = roles.most_common(10)

print(role)

输出:

[('孔明', 1204), ('玄德', 1159), ('曹操', 910), ('张飞', 340), ('孙权', 259), ('吕布', 258), ('赵云', 254), ('云长', 241), ('司马懿', 221), ('周瑜', 216)]

第七步:构造词云字符串

li =[]

for i in range(10):

character, count = items[i]

for _ in range(count):

li.append(character)

# print(li)

cloud_txt = " ".join(li)

wc = WordCloud(

background_color='white',

font_path='msyh.ttc',

collocations=False # 是否包含两个词的搭配,默认为Ture

).generate(cloud_txt)

wc.to_file('三国中出现的前十大人物.png')

生成图片如下:

三国中出现的前十大人物.png

完整代码如下:

# 案例:三国小说人物出场词频率统计

import jieba

from collections import Counter

from wordcloud import WordCloud

def parse():

# 定义无关词集合

excludes = {"将军", "却说", "丞相", "二人", "不可", "荆州", "不能", "如此", "商议",

"如何", "主公", "军士", "军马", "左右", "次日", "引兵", "大喜", "天下",

"东吴", "于是", "今日", "不敢", "魏兵", "陛下", "都督", "人马", "不知",

'玄德曰', '孔明曰', '刘备', '关公', '孔明曰', '玄德曰', '先主', '此人',

'上马', '大叫', '后主', '众将', '只见', '一人', '汉中', '太守', '天子',}

"""三国小说人物出场词频率统计"""

with open('sanguo.txt','r', encoding='utf-8') as f:

# 打开文件路径

txt = f.read()

# print(txt)

# 将字符串分割成等量的中文

words = jieba.lcut(txt)

print(words)

# ‘人物名字’:出现次数

counts = {} #创建空字典

for word in words: # 遍历字典

if len(word) == 1:

continue

else:

# 往字典里添加元素

#counts['key'] = 888

counts[word] = counts.get(word, 0) + 1

# counts['曹操'] = counts.get('曹操', 0) + 1

print(counts)

counts['孔明'] = counts.get('孔明') + counts.get('孔明曰')

counts['玄德'] = counts.get('玄德') + counts.get('玄德曰')

counts['玄德'] = counts.get('玄德') + counts.get('刘备')

counts['关公'] = counts.get('关公') + counts.get('云长')

# 删除 无关词

for word in excludes:

del counts[word]

# 统计出现频率最高的前20个词

items = list(counts.items())

items.sort(key=lambda x: x[1], reverse=True) # 使用了隐函数

# print('排序后:', items)

for i in range(10):

character, count = items[i]

print(character, count)

# 统计出现频率最高的前20个词--方法2(拓展)

roles = Counter(counts)

role = roles.most_common(10)

print(role)

# 构造词云字符串

li =[]

for i in range(10):

character, count = items[i]

for _ in range(count):

li.append(character)

# print(li)

cloud_txt = " ".join(li)

wc = WordCloud(

background_color='white',

font_path='msyh.ttc',

collocations=False # 是否包含两个词的搭配,默认为Ture

).generate(cloud_txt)

wc.to_file('三国中出现的前十大人物.png')

parse()

孔明 1204

玄德 1159

曹操 910

张飞 340

孙权 259

吕布 258

赵云 254

云长 241

司马懿 221

周瑜 216

[('孔明', 1204), ('玄德', 1159), ('曹操', 910), ('张飞', 340), ('孙权', 259), ('吕布', 258), ('赵云', 254), ('云长', 241), ('司马懿', 221), ('周瑜', 216)]

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。