中文自动分词---HanLP+jieba
HanLp 主要功能包括分词、词性标注、关键词提取、自动摘要、依存句法分析、命名实体识别、短语提取、拼音转换、简繁转换等等。 Github地址: https://github.com/hankcs/HanLP 安装教程: https://mp.weixin.qq.com/s/RQ2o15Bm_6qEGEBj3YR_kQ demo地址: https://github.com/hankcs/pyhanlp/tree/master/tests/demos jieba “结巴”中文分词:做最好的 Python 中文分词组件。 GitHub地址: https://github.com/fxsjy/jieba 安装方法: easy_install jieba 或者 pip install jieba / pip3 install jieba demo地址: https://github.com/fxsjy/jieba 入门的知识繁杂,广大前辈的资料充足,站在前人的肩膀上,事倍功半! 贴一个前辈的地址! 博客地址: https://blog.csdn.net/m0_37306360/column/info/30073/2 来源: CSDN 作者: 锅巴QAQ 链接: https://blog.csdn.net/Pit3369/article/details/94880693