[不分词版]Chinese-Text-Classification: Tensorflow CNN 模型实现的中文文本分类器
从现在的结果来看,分词的版本( https://www.v2ex.com/t/404977#reply6 )准确率稍微高一点。
项目地址: https://github.com/fendouai/Chinese-Text-Classification
jieba 分词的版本在 master 分支,不分词的版本在 dev 分支。
训练过程:
模型评估:
实验三,准备换一下数据集,用这里的数据集来跑这个模型: https://zhuanlan.zhihu.com/p/30736422
----------------------- 以下是精选回复-----------------------
答:很好
答:前段时间尝试过几个中文分类的模型,你可以尝试下分词后使用训练好的 word2vec,我这边测试这样的效果会好一些。
DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » [不分词版]Chinese-Text-Classification: Tensorflow CNN 模型实现的中文文本分类器
网站模板库 » [不分词版]Chinese-Text-Classification: Tensorflow CNN 模型实现的中文文本分类器
0条评论