中文自动分词---HanLP+jieba

孤街浪徒 提交于 2019-11-29 18:53:06

HanLp

主要功能包括分词、词性标注、关键词提取、自动摘要、依存句法分析、命名实体识别、短语提取、拼音转换、简繁转换等等。

Github地址:

https://github.com/hankcs/HanLP

安装教程:

https://mp.weixin.qq.com/s/RQ2o15Bm_6qEGEBj3YR_kQ

demo地址:

https://github.com/hankcs/pyhanlp/tree/master/tests/demos

 

jieba

“结巴”中文分词:做最好的 Python 中文分词组件。

GitHub地址:

https://github.com/fxsjy/jieba

安装方法:

easy_install jieba 或者 pip install jieba / pip3 install jieba

demo地址:

https://github.com/fxsjy/jieba

 

入门的知识繁杂,广大前辈的资料充足,站在前人的肩膀上,事倍功半!

贴一个前辈的地址!

博客地址:https://blog.csdn.net/m0_37306360/column/info/30073/2

 

 

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!