分词

中文自动分词---HanLP+jieba

孤街浪徒 提交于 2019-11-29 18:53:06
HanLp 主要功能包括分词、词性标注、关键词提取、自动摘要、依存句法分析、命名实体识别、短语提取、拼音转换、简繁转换等等。 Github地址: https://github.com/hankcs/HanLP 安装教程: https://mp.weixin.qq.com/s/RQ2o15Bm_6qEGEBj3YR_kQ demo地址: https://github.com/hankcs/pyhanlp/tree/master/tests/demos jieba “结巴”中文分词:做最好的 Python 中文分词组件。 GitHub地址: https://github.com/fxsjy/jieba 安装方法: easy_install jieba 或者 pip install jieba / pip3 install jieba demo地址: https://github.com/fxsjy/jieba 入门的知识繁杂,广大前辈的资料充足,站在前人的肩膀上,事倍功半! 贴一个前辈的地址! 博客地址: https://blog.csdn.net/m0_37306360/column/info/30073/2 来源: CSDN 作者: 锅巴QAQ 链接: https://blog.csdn.net/Pit3369/article/details/94880693

Java中文分词组件 - word分词(skycto JEEditor)

匆匆过客 提交于 2019-11-29 17:11:45
转自:https://my.oschina.net/apdplat/blog/228619#OSC_h4_8 Java 分布式中文分词组件 - word分词 word 分词是一个Java实现的分布式的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。能通过自定义配置文件来改变组件行为,能自定义用户词库、自动检测词库变化、支持大规模分布式环境,能灵活指定多种分词算法,能使用refine功能灵活控制分词结果,还能使用词性标注、同义标注、反义标注、拼音标注等功能。同时还无缝和Lucene、Solr、ElasticSearch、Luke集成。注意:word1.3需要JDK1.8 Maven 依赖: 在 pom.xml 中指定 dependency ,可用版本有 1.0 、 1.1 、 1.2 : < dependencies > < dependency > < groupId >org.apdplat</ groupId > < artifactId >word</ artifactId > < version >1.2</ version > </ dependency > </ dependencies > 分词使用方法: 1 、快速体验 运行项目根目录下的脚本 demo

基于深度学习的中文评论情感分类和智能客服回复

强颜欢笑 提交于 2019-11-29 14:59:15
TextCommentSentimentAnalysis 项目源码: TextCommentSentimentAnalysis 一、项目说明    中文文本情感分类:   基于深度学习的情感分类和智能客服研究与实现。主要是酒店和书店的评论情感分析(二分类+九分类),可以判定积极和消极,对于消极评论,还可以判断其具体类别,比如物流不好或者服务差等等。   项目具体使用说明请参考文件: ./sentimentAnalysis/项目使用说明文档   项目开发过程记录参考: ./sentimentAnalysis/实验报告 二、项目基础   开发环境和开发工具: Python 3.7.3, TensorFlow 1.14.0, Flask 1.1.1, PyCharm 2019.1.3 (Professional Edition), JRE: 11.0.2+9-b159.60 amd64, JVM: OpenJDK 64-Bit Server VM by JetBrains s.r.o, Windows 10 10.0   开发时间:2019.7.1–2019.7.12   开发者:Summer   参考视频: 用tensorflow进行中文自然语言处理中的情感分析         源码(用tensorflow进行中文自然语言处理中的情感分析) 三、演示demo 四、开发流程 4.1

分布式全文搜索引擎ES

醉酒当歌 提交于 2019-11-29 12:26:06
                                 ES 什么是ES文档操作:   1.ES 是面向文档 (document oriented) 的,这意味着它可以存储整个对象或文档 (document) 。然而它不仅仅是存储,还会索引 (index) 每个文档的内容使之可以被搜索。在 ES 中,你可以对文档(而非成行成列的数据)进行索引、搜索、排序、过滤。   2.ES文档元素:     1._index :索引库,类似于关系型数据库里的“数据库”—它是我们存储和索引关联数据的地方。     2._type :在应用中,我们使用对象表示一些“事物” 。     3.id: 与 _index 和 _type 组合时,就可以在 ELasticsearch 中唯一标识一个文档 。     4._source :文档原始数据 。     5._all :所有字段的连接字符串 文档的增删改操作(resfoull风格):   1.PUT {index}/{type}/{id}   2.POST {index}/{type}   3.GET itsource/employee/1?employee DSL查询过滤:   什么是查询过滤:只查出你想要的信息 屏蔽多余的信息   DSL(Domain Specific Language 特定领域语言 ) 以 JSON 请求体的形式出现

ElasticSearch全文检索引擎-安装

江枫思渺然 提交于 2019-11-28 18:22:43
文章目录 ElasticSearch安装 安装JDK 安装ElasticSearch 安装ik中文分词 ElasticSearch和ik分词安装成功 ElasticSearch安装 安装JDK 下载rpm包 wget --no-cookies --no-check-certificate --header "Cookie: gpw_e24=http%3A%2F%2Fwww.oracle.com%2F; oraclelicense=accept-securebackup-cookie" "https://download.oracle.com/otn-pub/java/jdk/8u201-b09/42970487e3af4f5aa5bca3f542482c60/jdk-8u201-linux-x64.rpm" rpm安装 rpm -ivh jdk-8u201-linux-x64.rpm 安装成功后测试 java javac java -version 命令都能使用 安装ElasticSearch 官网 ElasticSearch 下载 这里我下载的2.4.6版本 wget https://download.elastic.co/elasticsearch/release/org/elasticsearch/distribution/rpm/elasticsearch/2.4.6

solr笔记

北城余情 提交于 2019-11-28 18:15:12
安装jdk 上传jdk安装包到/usr/local/src/java/目录,解压 配置jdk环境变量,vim /etc/profile,添加下面配置 #set java env JAVA_HOME=/usr/local/src/java/jdk1.8.0_51 JAVA_BIN=/usr/local/src/java/jdk1.8.0_51/bin PATH=$JAVA_HOME/bin:$PATH CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export JAVA_HOME JAVA_BIN PATH CLASSPATH 保存后 source /etc/profile 让配置生效 java -version 查看jdk是否安装好 安装solr solr各版本下载地址 http://archive.apache.org/dist/lucene/solr/ 下载后上传到服务器解压 cd /usr/local/src # 上传 solr-8.1.1.tgz 到 /usr/local/src 目录 # 并解压缩 tar -xzf solr-8.1.1.tgz 启动solr cd /usr/local/src/solr-8.1.1   进入solr根目录 bin/solr start -force     

ElasticSearch安装中文分词器

拈花ヽ惹草 提交于 2019-11-28 16:10:42
下载并安装ik分词插件。 ik分词官网: https://github.com/medcl/elasticsearch-analysis-ik 方式一: ./elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.2.0/elasticsearch-analysis-ik-7.2.0.zip 方式二: a. 在plugins目录下创建目录ik, 并把上述的zip压缩包里的内容解压到ik目录中。 b. 更改ik目录的所有者为ElasticSearch的启动账号 chown -R es ./ik/ c. 修改ik分词器下面的plugin-descriptor.properties文件 vim ./plugin-descriptor.properties 将其中的 elasticsearch.version=7.2.0 改成ElasticSearch的版本, 如 elasticsearch.version=7.2.1 1 2 3 4 5 6 7 8 9 10 11 12 13 重启ElasticSearch IK分词器提供了两种analyzer,分别是ik_max_word和ik_smart ik_max_word: 会将文本做最细粒度的拆分

jieba分词/jieba-analysis(java版)

北战南征 提交于 2019-11-28 15:45:05
简介 支持分词模式 Search模式,用于对用户查询词分词 Index模式,用于对索引文档分词 特性 支持多种分词模式 全角统一转成半角 用户词典功能 conf 目录有整理的搜狗细胞词库 因为性能原因,最新的快照版本去除词性标注,也希望有更好的 Pull Request 可以提供该功能。 简单使用 获取jieba-analysis <dependency> <groupId>com.huaban</groupId> <artifactId>jieba-analysis</artifactId> <version>1.0.2</version> </dependency> 案例 @Test public void testDemo() { JiebaSegmenter segmenter = new JiebaSegmenter(); String[] sentences = new String[] {"这是一个伸手不见五指的黑夜。我叫孙悟空,我爱北京,我爱Python和C++。", "我不喜欢日本和服。", "雷猴回归人间。", "工信处女干事每月经过下属科室都要亲口交代24口交换机等技术性器件的安装工作", "结果婚的和尚未结过婚的"}; for (String sentence : sentences) { System.out.println(segmenter

IK分词器 原理分析 源码解析

风格不统一 提交于 2019-11-28 15:40:34
IK分词器在是一款 基于词典和规则 的中文分词器。本文讲解的IK分词器是独立于elasticsearch、Lucene、solr,可以直接用在java代码中的部分。关于如何开发es分词插件,后续会有文章介绍。 IK分词器的源码: Google Code ,直接下载请点击 这里 。 一、两种分词模式 IK提供两种分词模式:智能模式和细粒度模式(智能:对应es的IK插件的ik_smart,细粒度:对应es的IK插件的ik_max_word)。 先看两种分词模式的demo和效果 import org.wltea.analyzer.core.IKSegmenter;import org.wltea.analyzer.core.Lexeme;import java.io.IOException;import java.io.StringReader; public class IKSegmenterTest { static String text = "IK Analyzer是一个结合词典分词和文法分词的中文分词开源工具包。它使用了全新的正向迭代最细粒度切分算法。"; public static void main(String[] args) throws IOException { IKSegmenter segmenter = new IKSegmenter(new

IKAnalyzer中文分词器

不想你离开。 提交于 2019-11-28 14:45:06
1. IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文本分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.1 IKAnalyzer3.0特性 采用了特有的“正向迭代最细粒度切分算法“,具有50万字/秒的高速处理能力。 采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。 优化的词典存储,更小的内存占用。支持用户词典扩展定义 针对Lucene全文检索优化的查询分析器IKQueryParser(作者吐血推荐);采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的命中率。 1.2 分词效果示例 文本原文1: IK-Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。分词结果: ik-analyzer|是|一个|一|个|开源|的|基于|java