相信很多人在第一眼看到下面这些图时,都会被其牛逼的视觉效果所吸引,这篇文章就教大家怎么用Python画出这种图。
前期准备上面的这种图叫做词云图,主要用途是将文本数据中出现频率较高的关键词以可视化的形式展现出来,使人一眼就可以领略文本数据的主要表达意思。词云图中,词的大小代表了其词频,越大的字代表其出现频率更高。
那生成一张词云图的主要步骤有哪些?过程中又需要用到哪些Python库呢?
- 首先需要一份待分析的文本数据,由于文本数据都是一段一段的,所以第一步要将这些句子或者段落划分成词,这个过程称之为分词,需要用到Python中的分词库jieba。
- 分词之后,就需要根据分词结果生成词云,这个过程需要用到wordcloud库
- 最后需要将生成的词云展现出来,用到大家比较熟悉的matplotlib
理清了词云图绘制的主要脉络之后,下面就用代码操作起来。
小试牛刀明天就过年了,所以我也特地去找了几首新年歌,将它们的歌词汇总起来作为本次展示用的文本数据,大家可以看看新年歌中哪些词的出现频率比较高。我们先绘制一个比较简单的词云图:
# 导入相应的库
import jieba
from wordcloud import WordCloud
import matplotlib.pyplot as plt
# 导入文本数据并进行简单的文本处理
# 去掉换行符和空格
text = open("./data/新年歌.txt",encoding='utf8').read()
text = text.replace('\n',"").replace("\u3000","")
# 分词,返回结果为词的列表
text_cut = jieba.lcut(text)
# 将分好的词用某个符号分割开连成字符串
text_cut = ' '.join(text_cut)
# 导入停词
# 用于去掉文本中类似于'啊'、'你','我'之类的词
stop_words = open("F:/NLP/chinese corpus/stopwords/stop_words_zh.txt",encoding="utf8").read().split("\n")
# 使用WordCloud生成词云
word_cloud = WordCloud(font_path="simsun.ttc", # 设置词云字体
background_color="white", # 词云图的背景颜色
stopwords=stop_words) # 去掉的停词
word_cloud.generate(text_cut)
# 运用matplotlib展现结果
plt.subplots(figsize=(12,8))
plt.imshow(word_cloud)
plt.axis("off")