1、ik分词器是作为elasticsearch的插件进行使用,可以在ik的配置文件夹下(config)新建一个dic文件(自己要作为一个分词的存储文件),然后在IKAnalyzer.cfg.xml文件下做如下配置:
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!--用户可以在这里配置自己的扩展字典 -->
<entry key="ext_dict">miao.dic</entry>
<!--用户可以在这里配置自己的扩展停止词字典-->
<entry key="ext_stopwords"></entry>
<!--用户可以在这里配置远程扩展字典 -->
<!-- <entry key="remote_ext_dict">words_location</entry> -->
<!--用户可以在这里配置远程扩展停止词字典-->
<!-- <entry key="remote_ext_stopwords">words_location</entry> -->
</properties>
2、elasticsearch解决跨域问题:
需要配置elasticsearch.yml文件,添加如下内容即可:
http.cors.enabled: true
http.cors.allow-origin: "*"
3、kibana的汉化
kibana 的配置文件下,修改kibana.yml文件:添加 : i18n.locale: "zh-CN"
本文详细介绍了如何配置IK分词器以自定义分词,通过在IKAnalyzer.cfg.xml中添加自定义字典实现。同时,讲解了Elasticsearch解决跨域问题的方法,只需在elasticsearch.yml中设置http.cors.enabled和http.cors.allow-origin即可。此外,还指导了如何将Kibana汉化,只需在kibana.yml中设置i18n.locale为'zh-CN'。
4733

被折叠的 条评论
为什么被折叠?



