Python jieba库的使用
1、jieba库基本介绍 jieba库概述 jieba是优秀的中文分词第三方库 - 中文文本需要通过分词获得单个的词语 jieba是优秀的中文分词第三方库,需要额外安装 jieba库提供三种分词模式,最简单只需掌握一个函数 Jieba分词依靠中文词库 - 利用一个中文词库,确定汉字之间的关联概率 汉字间概率大的组成词组,形成分词结果 除了分词,用户还可以添加自定义的词组 2、jieba库使用说明 jieba分词的三种模式 精确模式、全模式、搜索引擎模式 - 精确模式:把文本精确的切分开,不存在冗余单词 全模式:把文本中所有可能的词语都扫描出来,有冗余 搜索引擎模式:在精确模式基础上,对长词再次切分 函数 描述 jieba.lcut(s) 精确模式,返回一个列表类型的分词结果 >>> jieba.lcut( " 中国是一个伟大的国家 " ) [' 中国 ', ' 是 ', ' 一个 ', ' 伟大 ', ' 的 ', ' 国家 '] jieba.lcut(s, cut_all=True) 全模式,返回一个列表类型的分词结果,存在冗余 >>> jieba.lcut( " 中国是一个伟大的国家 " ,cut_all=True) [' 中国 ', ' 国是 ', ' 一个 ', ' 伟大 ', ' 的 ', ' 国家 '] 函数 描述 jieba.lcut_for_sear ch(s)