FastText是一个三层的神经网络,输入层、隐含层和输出层。
FastText的优点:
使用浅层的神经网络实现了word2vec以及文本分类功能,效果与深层网络差不多,节约资源,且有百倍的速度提升
深度学习和机器学习的区别:
与传统机器学习不同,深度学习既提供特征提取功能,也可以完成分类的功能。机器学习需要再根据提取到的特征再进行分类。
安装FastText
使用pip安装
pip install fasttext
因为FastText依赖C++的环境,安装的时候可能会报错,有的是C++ 11
有的是C++14看报错里面缺少那个版本的C++环境就安装那个版本的环境就可以了
使用FastText进行文本分类的一般步骤
数据格式的要求:
__label__标签 文本内容 或 文本内容 __label__标签
__label__标签\t文本内容 或 文本内容\t__label__标签
文本内容和标签之间用\t或空格都可以
目前这几种形式都支持
数据预处理:
将原数据处理为数据要求的格式,分词以后词于词之间用空格连接
这个根据自己数据的情况自己进行处理
训练模型
import fasttext model = fasttext.train_supervised('train.csv', lr=1.0, wordNgrams=2, verbose=2, minCount=1, epoch=25, loss="hs") # 训练模型 # train.csv 文件路径,也可以是txt文件,里面的参数根据需要调 """ 训练一个监督模型, 返回一个模型对象 input: 训练数据文件路径 lr: 学习率 dim: 向量维度 ws: cbow模型时使用 epoch: 次数 minCount: 词频阈值, 小于该值在初始化时会过滤掉 minCountLabel: 类别阈值,类别小于该值初始化时会过滤掉 minn: 构造subword时最小char个数 maxn: 构造subword时最大char个数 neg: 负采样 wordNgrams: n-gram个数 loss: 损失函数类型, softmax, ns: 负采样, hs: 分层softmax bucket: 词扩充大小, [A, B]: A语料中包含的词向量, B不在语料中的词向量 thread: 线程个数, 每个线程处理输入数据的一段, 0号线程负责loss输出 lrUpdateRate: 学习率更新 t: 负采样阈值 label: 类别前缀 verbose: ?? pretrainedVectors: 预训练的词向量文件路径, 如果word出现在文件夹中初始化不再随机 model object """
预测数据
使用predict
预测数据,预测一段文本属于的类别
model.predict(x) # x文本内容 返回的数据格式(('__label__4',), array([0.99441689])) # 可能性最大的标签和准确率
使用test
验证模型的准确率,传入的是一个文件,文件的格式和训练集一样
返回一个元组(样本数,精确率,找回率)
模型的保存
model.save_model("model_cooking.bin") # 文件路径
模型读取
fasttext.load_model("model_cooking.bin") # 读取模型
模型的优化
直接使用默认参数去训练模型一般都得不到特别好的结果,可以通过一些手段来优化模型。第一种可以采取的手段是去掉语料库当中的停止词,对于英文的语料库来说,还可以把所有的大写字母都转化成小写字母。另一种可以采取的手段是调整超参数,比如说修改学习速率、修改epoch等,大家可以参照着fastTest的文档去进行相应的调整,fastText的文档中介绍了一种更加方便的自动调参方法,只要我们同时提供训练集和测试集就可以了,带来的精确度提升还是非常显著的:
model = fasttext.train_supervised(input='train.csv', autotuneValidationFile='test.csv', autotuneDuration=600) """ autotuneValidationFile='test.csv', 测试集数据集 autotuneDuration=600 时间限制,单位为秒,默认为5分钟 """ # 如果想查看对应的参数,可以使用 对象.属性的方式进行查看
举例:
使用FastText进行文本分类的基本操作就是这些内容,关于深层次的学习大家可以参考
传送门
到此这篇关于Python深度学习之FastText实现文本分类详解的文章就介绍到这了,更多相关Python FastText内容请搜索自由互联以前的文章或继续浏览下面的相关文章希望大家以后多多支持自由互联!