2 xuzhongxian xuzhongxian 于 2016.01.20 22:30 提问

关于安卓编程访问服务器端的IK分词工具的问题

本人想在服务器端接收安卓端传过来的关键词然后惊醒IK的分词和倒排索引的处理。在服务器端运行
函数是可以运行处结果的,但是通过安卓端传送回数据后调用总是卡住,卡在 Analyzer analyzer = new IKAnalyzer();

2个回答

oyljerry
oyljerry   Ds   Rxr 2016.01.20 22:40

这个是初始化 不太像是跟数据有关 要看看你服务器运行时的状态

devmiao
devmiao   Ds   Rxr 2016.01.20 22:40
Csdn user default icon
上传中...
上传图片
插入图片
准确详细的回答,更有利于被提问者采纳,从而获得C币。复制、灌水、广告等回答会被删除,是时候展现真正的技术了!
其他相关推荐
IK分词加入标点符号
IK分词加入标点符号
IKAnalyzerNet-C#中文分词工具包
从2006年12月推出1.0版开始,IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Lucene为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。 采用了多子处理器分析
IK分词组件大小写的问题
IK分词器在加载词典时, 词典中的大小写字符加载到内存时一律变为小写, 但是在分词时大小写是不会转换的, 所以就有以下情况发生: 当词典中有"HL定理", 对"HL定理的应用"分词时是不能分出"HL定理"的, 处理办法:在讲要分词的句子输入分词器前, 先将所有的大些字母转化为小写, 这样分词出来的就是 "hl定理"
中文分词器IK和Paoding技术对比
 1.    IK和Paoding的技术介绍 一、Ik分词器介绍: 优点: 采用了特有的“正向迭代最细粒度切分算法”,具有60万字/秒的高速处理能力。 采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。 优化的词典存储,更小的内存占用
IKAnalyzer 分词工具的使用与问题
IKAnalyzer 用来对一段文集进行分词 IKAnalyzer.cfg.xml 文件必须放在classpath的根目录下,可以在源码中修改这个配置文件的位置,但是没有必要去修改。 IK Analyzer 扩展配置 /ikdic/ext_keyword.dic;//在classpath根目录下的ikdic包下的ext_keyword.dic,为扩展字典 /ikdi
中文分词工具-IKAnalyzer下载及使用
http://lxw1234.com/archives/2015/07/422.htm
IK分词使用示例
创建一个索引,使用 ik创建一个名叫 iktest 的索引,设置它的分析器用 ik ,分词器用 ik_max_word,并创建一个 article 的类型,里面有一个 subject 的字段,指定其使用 ik_max_word 分词器curl -XPUT 'http://localhost:9200/iktest?pretty' -d '{ "settings" : { "a
ElasticSearch5.4.3 环境搭建 2017 (6-IK中文分词插件)
默认ElasticSearch不支持中文分词,所以在使用他的全文搜索时搜索中文是无法模糊查询的。 IK插件Github: IK 里面教程里有两种方式,一种是下载zip放到elasticsearch根目录/plugins下,一种是使用他那个install方法,但是install方法应该是需要es>5.5.1,我这是5.4.3所以采用第一种方式。 下载zip文件:5.4.3 我服务
使用IK Analyzer实现中文分词之Java实现(包含所有工具包)
1、lucene-core-3.6.0.jar 2、IKAnalyzer2012.jar(主jar包) 3、IKAnalyzer.cfg.xml(分词器扩展配置文件) 4、stopword.dic(停止词典) 5、IkSegmentation.java(样例类)
IK中文分词扩展自定义词典!!!
1.基于分布式系统的自定义分词要求与流程设计   (见图)E:\plan\readingnote\分词与索引\分词\2012-4-20 2.分词实现原理——词典的加载过程   2.1.分词词典的加载过程涉及到3个类,分别是Configuration类,Directory类,以及DictSegment类。 其中前两个类是获得配置文件,获得分词词典的,为词典内容的加载做准备