
搜索引擎
yunshouhu
爱Java,更爱Android,学VC,搞c/c++的我。专注移动安全,游戏安全,逆向安全!十年戎马成神路,君临天下风雷动! https://github.com/yunshouhu
展开
-
搜索引擎之猎兔分词实例
import java.io.IOException;import java.io.Reader;import java.io.StringReader;import org.apache.lucene.analysis.Analyzer;import org.apache.lucene.analysis.Token;import org.apache.lucene.analysis.原创 2014-08-19 14:42:20 · 1344 阅读 · 0 评论 -
elasticsearch使用
http://es.xiaoleilu.com/010_Intro/10_Installing_ES.htmlhttp://www.ibm.com/developerworks/cn/java/j-javadev2-24/http://www.elasticsearch.cn/ps -aux | grep elasticsearch 查看进程功能模块:Elasticsearch原创 2015-08-19 17:07:27 · 8683 阅读 · 0 评论 -
Elasticsearch Java API之清空索引
package com.nerve.core.test;import java.io.IOException;import java.io.InputStream;import java.net.URL;import java.util.Properties;import org.elasticsearch.action.admin.cluster.state.ClusterStat原创 2015-08-05 22:09:50 · 8710 阅读 · 3 评论 -
Elasticsearch安装中文分词插件ik
http://blog.youkuaiyun.com/liuzhenfeng/article/details/39404435Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词。例如:[html] view plaincopyprint?curl -XPOST "http://localhost:9200/userinfo/_ana转载 2015-08-13 18:01:46 · 1311 阅读 · 0 评论 -
lucene分词器分词demo
package com.jiepu.lucene_49;//lucene不同分词测试,来至:http://blog.zzzhc.com/blogs/86/import java.io.IOException;import java.io.StringReader;import java.util.HashSet;import java.util.Iterator;i原创 2015-08-13 16:36:25 · 1098 阅读 · 0 评论 -
ElasticSearch 简单入门
简介ElasticSearch是一个开源的分布式搜索引擎,具备高可靠性,支持非常多的企业级搜索用例。像Solr4一样,是基于Lucene构建的。支持时间时间索引和全文检索。官网:http://www.elasticsearch.org它对外提供一系列基于java和http的api,用于索引、检索、修改大多数配置。写这篇博客的的主要原因是ElasticSearch的网站只有一转载 2015-04-23 17:41:00 · 814 阅读 · 0 评论 -
java分词器大全
java分词器大全http://www.oschina.net/project/tag/264/segmentjcseg分词器http://git.oschina.net/lionsoul/jcsegIK Analyzerhttp://www.oschina.net/p/ikanalyzer庖丁中文分词库http://www.oschina.net/p/paoding原创 2014-12-12 10:44:29 · 7149 阅读 · 1 评论 -
lucene 高亮实例
package lia.tools;/** * Copyright Manning Publications Co. * * Licensed under the Apache License, Version 2.0 (the "License"); * you may not use this file except in compliance with the License.原创 2015-02-01 22:24:19 · 706 阅读 · 0 评论 -
搜索引擎智能提示的实现-基于Lucene拼音检查库
package lia.tools;/** * Copyright Manning Publications Co. * * Licensed under the Apache License, Version 2.0 (the "License"); * you may not use this file except in compliance with the License.原创 2015-02-01 21:47:11 · 4579 阅读 · 5 评论 -
lucene 4.x 使用N-Gram模型分词器实例。
N-Gram模型:N-Gram是大词汇连续语音识别中常用的一种语言模型,对中文而言,我们称之为汉语语言模型(CLM, Chinese Language Model)。汉语语言模型利用上下文中相邻词间的搭配信息,在需要把连续无空格的拼音、笔划,或代表字母或笔划的数字,转换成汉字串(即句子)时,可以计算出具有最大概率的句子,从而实现到汉字的自动转换,无需用户手动选择,避开了许多汉字对应一个相同原创 2014-12-02 11:37:20 · 7067 阅读 · 2 评论 -
lucene 4.8.1官方索引查找例子
package org.apache.lucene.demo;/* * Licensed to the Apache Software Foundation (ASF) under one or more * contributor license agreements. See the NOTICE file distributed with * this work for addi原创 2014-12-02 14:13:34 · 1941 阅读 · 0 评论 -
elasticsearch elk资料
重建索引reindex:http://kibana.logstash.es/content/elasticsearch/api/reindex.html原创 2015-10-22 16:49:29 · 847 阅读 · 0 评论