中文分词的优秀库。
安装:pip install jieba
主要有三种模式,但是最主要有一个函数
模式:精确模式:把文本精确的切分开,不存在冗余单词
全模式:把文本中所有可能的词语都扫描出来,有冗余
搜索引擎模式:在精确模式上,对长词再次切分
函数:jieba.lcut(str):精确模式,返回一个列表
jieba.lcut(str,cut_all=True):就变成全模式,存在冗余
jieba.lcut_for_search(str):搜索引擎模式,返回列表,有冗余
jieba.add_word(str):向分词词典增加新的分词str
词云优秀库。
安装:pip insatll wordcloud
wordcloud将词云视为WordCloud对象
w = wordcloud.WordCloud()代表一个文本对应的词云
有两个可选参数,width=400,height=200,min_font_size=字体最小默认4,max_font_size=字体最大,根据高度自动调节,
font_step=2字体间隔,font_path=‘‘字体路径,max_words=200词云数量,stop_words={‘str‘}排除词,background_color=‘white‘词云背景颜色默认黑色
w.generate(txt) # txt是str,向w对象中加载txt文本
w.tofile(filename) # 将词云输出为图像文件,为png/jpg文件,默认400*200像素(分隔,统计,字体,布局)
对于显示非矩形词云,需要使用mask
from scipy.misc import imread
mk = imread(‘pic.png‘) # 形状的图片,背景白色。
w = wordcloud.WordCloud(mask=mk)