本分词器工具是采用IK分词器,主要词库为sougou.dic

中文分词器 IK Analyzer 3.0 简介

  • IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。

  • IK Analyzer 3.0结构设计

    ik 分词器结构图

    IK Analyzer 3.0特性

  • 采用了特有的“正向迭代最细粒度切分算法“,具有50万字/秒的高速处理能力。

  • 采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。

  • 优化的词典存储,更小的内存占用。支持用户词典扩展定义

  • 针对Lucene全文检索优化的查询分析器IKQueryParser;采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的命中率。

  • IK Analyzer下载地址

  • GoogleCode开源项目 :http://code.google.com/p/ik-analyzer/

  • GoogleCode SVN下载:http://ik-analyzer.googlecode.com/svn/trunk/

  • Elasticsearch安装IK Analyzer:https://www.jsonla.com /blog/84.html

支付扫码

所有赞助/开支都讲公开明细,用于网站维护

查看我的收藏

正在加载... ...