Elasticsearch5.1.1 安装

本文详细介绍Elasticsearch的安装步骤、配置文件解析及常见错误处理方法,包括环境搭建、用户权限设置、集群配置等内容。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.下载安装包
        wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.1.1.tar.gz
    2.解压文件
        tar -zxvf elasticsearch-5.1.1.tar.gz
    3.创建es用户
        useradd  es    创建 es 账户
        passwd es      设置密码
        su  es        切换es  用户
        注意:
            不能以root用户运行elasticsearch
            需要将elasticsearch解压过后的文件放入到当前新建的用户目录下   /home/es
            文件的权限要分配给es用户 chown -R es /home/downloads/es/elasticsearch  -R 递归

清空es数据:

    curl -XDELETE 'http://192.168.23.154:9200/*'
    4.修改配置文件
        [root@Linux config]# vim elasticsearch.yml
        启用如下代码:
             cluster.name: my-application
             node.name: node-1
             network.host: 192.168.127.155  这是当前主机IP
        注意:
            需要将el文件的权限设置给当前创建的用户
            还有就是要设置bin目录下面所有的文件的执行权限
            chmod  -R a+x bin
    5.启动、关闭、重启
       ./elasticsearch 启动
       ./elasticsearch - d 后台启动
       ps -ef | grep elastic 查找ES进程
       kill -9 2382(进程号)杀掉ES进程
    注意:
        当集群时先将防火墙关闭(centos7 有两道防火墙) 然后才开放9200和9300端口
    6.启动es中 错误解
        错误一、警告、不用修改
                [2016-12-20T22:37:28,543][INFO ][o.e.b.BootstrapCheck     ] [elk-node1] bound or publishing to a non-loopback or non-link-local address, enforcing bootstrap checks
                [2016-12-20T22:37:28,552][ERROR][o.e.b.Bootstrap          ] [elk-node1] node validation exception
                bootstrap checks failed
                max number of threads [1024] for user [elasticsearch] is too low, increase to at least [2048]
                [2016-12-20T22:37:28,560][INFO ][o.e.n.Node               ] [elk-node1] stopping ...
                [2016-12-20T22:37:28,628][INFO ][o.e.n.Node               ] [elk-node1] stopped
                [2016-12-20T22:37:28,629][INFO ][o.e.n.Node               ] [elk-node1] closing ...
                [2016-12-20T22:37:28,677][INFO ][o.e.n.Node               ] [elk-node1] closed
        *    错误二
                ERROR: bootstrap checks failed
                max file descriptors [4096] for elasticsearch process likely too low, increase to at least [65536]
                max number of threads [1024] for user [lishang] likely too low, increase to at least [2048]
            解决办法
                解决:切换到root用户,编辑limits.conf 添加类似如下内容
                vi /etc/security/limits.conf 
                添加如下内容:
                * soft nofile 65536
                * hard nofile 131072
                * soft nproc 2048
                * hard nproc 4096
            错误三
                max number of threads [1024] for user [lish] likely too low, increase to at least [2048]
            解决办法
                切换到root用户,进入limits.d目录下修改配置文件
                vi /etc/security/limits.d/90-nproc.conf 
                修改如下内容:
                * soft nproc 1024
                #修改为
                * soft nproc 2048
        *    错误四
                max virtual memory areas vm.max_map_count [65530] likely too low, increase to at least [262144]
            解决办法
                切换到root用户修改配置sysctl.conf
                vi /etc/sysctl.conf 
                添加下面配置:
                vm.max_map_count=655360
                并执行命令:
                sysctl -p
                然后,重新启动elasticsearch,即可启动成功
            错误五
                Java HotSpot(TM) 64-Bit Server VM warning: INFO: os::commit_memory(0x0000000085330000, 2060255232, 0) failed;
                error='Cannot allocate memory' (errno=12)
                #
                # There is insufficient memory for the Java Runtime Environment to continue.
                # Native memory allocation (mmap) failed to map 2060255232 bytes for committing reserved memory.
                # An error report file with more information is saved as:
                # /home/es/elasticsearch/bin/hs_err_pid4411.log
        #    解决办法
                由于elasticsearch5.1.1默认分配jvm空间大小为2g,修改jvm空间分配
                    # vim config/jvm.options  
                    -Xms2g
                    -Xmx2g
                修改为
                    -Xms512m
                    -Xmx512m
            错误六
                max number of threads [1024] for user [elasticsearch] is too low, increase to at least [2048]
            解决办法
                修改 /etc/security/limits.d/90-nproc.conf 
                    *          soft    nproc     1024
                    *          soft    nproc     2048
            错误七
                max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
            解决办法
                修改/etc/sysctl.conf配置文件,
                cat /etc/sysctl.conf | grep vm.max_map_count
                vm.max_map_count=262144
                如果不存在则添加
                echo "vm.max_map_count=262144" >>/etc/sysctl.conf
            错误八
                max file descriptors [65535] for elasticsearch process likely too low, increase to at least [65536]
            解决办法
                ulimit -n 65536
            错误九
                memory locking requested for elasticsearch process but memory is not locked 
            解决办法
                修改elasticsearch.yml文件
                bootstrap.memory_lock : false
    7.ElasticSearch_Head配置
       一、下载安装包
    git clone git://github.com/mobz/elasticsearch-head.git
二、安装node、npm、grunt
    地址:https://nodejs.org/en/download/
        解压
            xz -d  node
            tar -xvf node
    1.建立软连接
        ln -s /usr/local/node/bin/node /usr/local/bin/
        ln -s /usr/local/node/bin/npm /usr/local/bin/

   2.配置node.js环境变量
                vim /etc/profile
                export PATH=/data/elasticsearch/node-v4.6.1-linux-x64/bin:$PATH
                 执行source /etc/profile使环境变量生效

    使用npm安装grunt:
        npm install -g grunt-cli
    查看是否安装成功
        node -v
        npm -v
三、npm 安装依赖
    到elasticsearch-head-master目录下,运行命令:
        npm install
    如果速度较慢或者安装失败,可以使用国内镜像:
        npm install -g cnpm --registry=https://registry.npm.taobao.org
四、修改Elasticsearch配置文件
    编辑elasticsearch-5.1.1/config/elasticsearch.yml,加入以下内容: 表示支持Head插件
        http.cors.enabled: true
        http.cors.allow-origin: "*"
五、修改head源码
            ①修改服务器监听地址
                [root@linux-node1 elasticsearch-head]# pwd
                 /usr/local/elasticsearch-head/
                [root@linux-node1 elasticsearch-head]# vim Gruntfile.js   #添加上下面的内容
                connect: {
                    server: {        
                        options: {
                                port: 9100,
                                hostname: '192.168.127.169',
                                base: '.',
                                keepalive: true
                        }
                    }
                }
                增加hostname属性,设置为自己的IP
            ②修改连接地址:
                [root@linux-node1 _site]# pwd
                /usr/local/elasticsearch-head/_site
                 
                [root@linux-node1 _site]# vim app.js      #修改head的连接地址
                this.base_uri = this.config.base_uri || this.prefs.get("app-base_uri") || "http://localhost:9200";
                把localhost修改成你es的服务器地址,如:
                this.base_uri = this.config.base_uri || this.prefs.get("app-base_uri") || "http://192.168.127.169:9200";
六、启动elasticsearch-head
    在elasticsearch-head-master/目录下,运行启动命令:
        grunt server
        nohup grunt server &exit 后台启动

    如果启动不了 就手动安装grunt 然后会报错就将其逐一安装

    npm install grunt

七、后台启动elasticsearch-head

后台启动grunt server命令;

nohup grunt server &exit

如果想关闭head插件,使用Linux查找进程命令:

ps aux|grep head

结束进程:

kill - 9 进程号

    8.ElasticSearch5.1.1集群 三台服务器
        ----------------------------节点一 主节点----------------------------------------------------

##################### Elasticsearch Configuration Example ##################### 
# 只是挑些重要的配置选项进行注释,其实自带的已经有非常细致的英文注释了.有理解偏差的地方请以官方原版解释为准. 

################################### Cluster ################################### 
# 代表一个集群,集群中有多个节点,其中有一个为主节点,这个主节点是可以通过选举产生的,主从节点是对于集群内部来说的. 
# es的一个概念就是去中心化,字面上理解就是无中心节点,这是对于集群外部来说的,因为从外部来看es集群,在逻辑上是个整体,你与任何一个节点的通信和与整个es集群通信是等价的。 
# cluster.name可以确定你的集群名称,当你的elasticsearch集群在同一个网段中elasticsearch会自动的找到具有相同cluster.name的elasticsearch服务. 
# 所以当同一个网段具有多个elasticsearch集群时cluster.name就成为同一个集群的标识. 

 cluster.name: es-cat

#################################### Node ##################################### 
# 节点名称同理,可自动生成也可手动配置. 
 node.name: node-1

# 允许一个节点是否可以成为一个master节点,es是默认集群中的第一台机器为master,如果这台机器停止就会重新选举master. 
 node.master: true 

# 允许该节点存储数据(默认开启) 
 node.data: true 

# 配置文件中给出了三种配置高性能集群拓扑结构的模式,如下: 
# 1. 如果你想让节点从不选举为主节点,只用来存储数据,可作为负载器 
# node.master: false 
# node.data: true 

# 2. 如果想让节点成为主节点,且不存储任何数据,并保有空闲资源,可作为协调器 
# node.master: true 
# node.data: false 

# 3. 如果想让节点既不称为主节点,又不成为数据节点,那么可将他作为搜索器,从节点中获取数据,生成搜索结果等 
# node.master: false 
# node.data: false 

# 监控集群状态有一下插件和API可以使用: 
# Use the Cluster Health API [http://localhost:9200/_cluster/health], the 
# Node Info API [http://localhost:9200/_nodes] or GUI tools # such as <http://www.elasticsearch.org/overview/marvel/>, 
# <http://github.com/karmi/elasticsearch-paramedic>, 
# <http://github.com/lukas-vlcek/bigdesk> and 
# <http://mobz.github.com/elasticsearch-head> to inspect the cluster state. 

# A node can have generic attributes associated with it, which can later be used 
# for customized shard allocation filtering, or allocation awareness. An attribute 
# is a simple key value pair, similar to node.key: value, here is an example: 
# 每个节点都可以定义一些与之关联的通用属性,用于后期集群进行碎片分配时的过滤
# node.rack: rack314 

# 默认情况下,多个节点可以在同一个安装路径启动,如果你想让你的es只启动一个节点,可以进行如下设置
# node.max_local_storage_nodes: 1 

#################################### Index #################################### 
# 设置索引的分片数,默认为5 
# index.number_of_shards: 6

# 设置索引的副本数,默认为1: 
# index.number_of_replicas: 1 

# 配置文件中提到的最佳实践是,如果服务器够多,可以将分片提高,尽量将数据平均分布到大集群中去
# 同时,如果增加副本数量可以有效的提高搜索性能 
# 需要注意的是,"number_of_shards" 是索引创建后一次生成的,后续不可更改设置 
# "number_of_replicas" 是可以通过API去实时修改设置的 

#################################### Paths #################################### 
# 配置文件存储位置 
# path.conf: /path/to/conf 

# 数据存储位置(单个目录设置) 
# path.data: /path/to/data 
# 多个数据存储位置,有利于性能提升 
# path.data: /path/to/data1,/path/to/data2 

# 临时文件的路径 
# path.work: /path/to/work 

# 日志文件的路径 
# path.logs: /path/to/logs 

# 插件安装路径 
# path.plugins: /path/to/plugins 

#################################### Plugin ################################### 
# 设置插件作为启动条件,如果一下插件没有安装,则该节点服务不会启动 
# plugin.mandatory: mapper-attachments,lang-groovy 

################################### Memory #################################### 
# 当JVM开始写入交换空间时(swapping)ElasticSearch性能会低下,你应该保证它不会写入交换空间 
# 设置这个属性为true来锁定内存,同时也要允许elasticsearch的进程可以锁住内存,linux下可以通过 `ulimit -l unlimited` 命令 
# bootstrap.mlockall: true 

# 确保 ES_MIN_MEM 和 ES_MAX_MEM 环境变量设置为相同的值,以及机器有足够的内存分配给Elasticsearch 
# 注意:内存也不是越大越好,一般64位机器,最大分配内存别才超过32G 

############################## Network And HTTP ############################### 
# 设置绑定的ip地址,可以是ipv4或ipv6的,默认为0.0.0.0 
# network.bind_host: 192.168.241.177

# 设置其它节点和该节点交互的ip地址,如果不设置它会自动设置,值必须是个真实的ip地址 
# network.publish_host: 192.168.241.177
 
# 同时设置bind_host和publish_host上面两个参数 
 network.host: 192.168.241.177

# 设置节点间交互的tcp端口,默认是9300 
# transport.tcp.port: 9300

# 设置是否压缩tcp传输时的数据,默认为false,不压缩
# transport.tcp.compress: true 

# 设置对外服务的http端口,默认为9200 
# http.port: 9200 

# 设置请求内容的最大容量,默认100mb 
# http.max_content_length: 100mb 

# 使用http协议对外提供服务,默认为true,开启 
# http.enabled: false 

################################### Gateway ################################### 
# gateway的类型,默认为local即为本地文件系统,可以设置为本地文件系统 
# gateway.type: local 

# 下面的配置控制怎样以及何时启动一整个集群重启的初始化恢复过程 
# (当使用shard gateway时,是为了尽可能的重用local data(本地数据)) 

# 一个集群中的N个节点启动后,才允许进行恢复处理 
# gateway.recover_after_nodes: 1 

# 设置初始化恢复过程的超时时间,超时时间从上一个配置中配置的N个节点启动后算起 
# gateway.recover_after_time: 5m 

# 设置这个集群中期望有多少个节点.一旦这N个节点启动(并且recover_after_nodes也符合), 
# 立即开始恢复过程(不等待recover_after_time超时) 
# gateway.expected_nodes: 2

 ############################# Recovery Throttling ############################# 
# 下面这些配置允许在初始化恢复,副本分配,再平衡,或者添加和删除节点时控制节点间的分片分配 
# 设置一个节点的并行恢复数 
# 1.初始化数据恢复时,并发恢复线程的个数,默认为4 
# cluster.routing.allocation.node_initial_primaries_recoveries: 4 
 
# 2.添加删除节点或负载均衡时并发恢复线程的个数,默认为2 
# cluster.routing.allocation.node_concurrent_recoveries: 2 

# 设置恢复时的吞吐量(例如:100mb,默认为0无限制.如果机器还有其他业务在跑的话还是限制一下的好) 
# indices.recovery.max_bytes_per_sec: 20mb 

# 设置来限制从其它分片恢复数据时最大同时打开并发流的个数,默认为5 
# indices.recovery.concurrent_streams: 5 
# 注意: 合理的设置以上参数能有效的提高集群节点的数据恢复以及初始化速度 

################################## Discovery ################################## 
# 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点.默认为1,对于大的集群来说,可以设置大一点的值(2-4) 
 discovery.zen.minimum_master_nodes: 2
# 探查的超时时间,默认3秒,提高一点以应对网络不好的时候,防止脑裂 
# discovery.zen.ping.timeout: 10s 

# For more information, see 
# <http://elasticsearch.org/guide/en/elasticsearch/reference/current/modules-discovery-zen.html> 

# 设置是否打开多播发现节点.默认是true. 
# 当多播不可用或者集群跨网段的时候集群通信还是用单播吧 
# discovery.zen.ping.multicast.enabled: false 

# 这是一个集群中的主节点的初始列表,当节点(主节点或者数据节点)启动时使用这个列表进行探测 
 discovery.zen.ping.unicast.hosts: ["192.168.241.177","192.168.235.160"] 

# Slow Log部分与GC log部分略,不过可以通过相关日志优化搜索查询速度 

############## Memory(重点需要调优的部分) ################ 
# Cache部分: 
# es有很多种方式来缓存其内部与索引有关的数据.其中包括filter cache 

# filter cache部分: 
# filter cache是用来缓存filters的结果的.默认的cache type是node type.node type的机制是所有的索引内部的分片共享filter cache.node type采用的方式是LRU方式.即:当缓存达到了某个临界值之后,es会将最近没有使用的数据清除出filter cache.使让新的数据进入es. 

# 这个临界值的设置方法如下:indices.cache.filter.size 值类型:eg.:512mb 20%。默认的值是10%。 

# out of memory错误避免过于频繁的查询时集群假死 
# 1.设置es的缓存类型为Soft Reference,它的主要特点是据有较强的引用功能.只有当内存不够的时候,才进行回收这类内存,因此在内存足够的时候,它们通常不被回收.另外,这些引用对象还能保证在Java抛出OutOfMemory异常之前,被设置为null.它可以用于实现一些常用图片的缓存,实现Cache的功能,保证最大限度的使用内存而不引起OutOfMemory.在es的配置文件加上index.cache.field.type: soft即可. 

# 2.设置es最大缓存数据条数和缓存失效时间,通过设置index.cache.field.max_size: 50000来把缓存field的最大值设置为50000,设置index.cache.field.expire: 10m把过期时间设置成10分钟. 
# index.cache.field.max_size: 50000 
# index.cache.field.expire: 10m 
# index.cache.field.type: soft 

# field data部分&&circuit breaker部分: 
# 用于fielddata缓存的内存数量,主要用于当使用排序,faceting操作时,elasticsearch会将一些热点数据加载到内存中来提供给客户端访问,但是这种缓存是比较珍贵的,所以对它进行合理的设置. 

# 可以使用值:eg:50mb 或者 30%(节点 node heap内存量),默认是:unbounded #indices.fielddata.cache.size: unbounded 
# field的超时时间.默认是-1,可以设置的值类型: 5m #indices.fielddata.cache.expire: -1 

# circuit breaker部分: 
# 断路器是elasticsearch为了防止内存溢出的一种操作,每一种circuit breaker都可以指定一个内存界限触发此操作,这种circuit breaker的设定有一个最高级别的设定:indices.breaker.total.limit 默认值是JVM heap的70%.当内存达到这个数量的时候会触发内存回收

# 另外还有两组子设置: 
#indices.breaker.fielddata.limit:当系统发现fielddata的数量达到一定数量时会触发内存回收.默认值是JVM heap的70% 
#indices.breaker.fielddata.overhead:在系统要加载fielddata时会进行预先估计,当系统发现要加载进内存的值超过limit * overhead时会进行进行内存回收.默认是1.03 
#indices.breaker.request.limit:这种断路器是elasticsearch为了防止OOM(内存溢出),在每次请求数据时设定了一个固定的内存数量.默认值是40% 
#indices.breaker.request.overhead:同上,也是elasticsearch在发送请求时设定的一个预估系数,用来防止内存溢出.默认值是1 

# Translog部分: 
# 每一个分片(shard)都有一个transaction log或者是与它有关的预写日志,(write log),在es进行索引(index)或者删除(delete)操作时会将没有提交的数据记录在translog之中,当进行flush 操作的时候会将tranlog中的数据发送给Lucene进行相关的操作.一次flush操作的发生基于如下的几个配置 
#index.translog.flush_threshold_ops:当发生多少次操作时进行一次flush.默认是 unlimited #index.translog.flush_threshold_size:当translog的大小达到此值时会进行一次flush操作.默认是512mb 
#index.translog.flush_threshold_period:在指定的时间间隔内如果没有进行flush操作,会进行一次强制flush操作.默认是30m #index.translog.interval:多少时间间隔内会检查一次translog,来进行一次flush操作.es会随机的在这个值到这个值的2倍大小之间进行一次操作,默认是5s 
#index.gateway.local.sync:多少时间进行一次的写磁盘操作,默认是5s 

# 以上的translog配置都可以通过API进行动态的设置 - See more at: http://bigbo.github.io/pages/2015/04/10/elasticsearch_config/#sthash.AvOSUcQ4.dpuf
#配置插件访问
 http.cors.enabled: true
 http.cors.allow-origin: "*"

#设置分页查询的最大值
#curl -XPUT 'http://192.168.5.179:9200/_all/_settings?preserve_existing=true' -d '{"index.max_result_window" : "200000"}'

        ----------------------------解释----------------------------------------------------
        
        cluster.name: my-application #要和需要集群的es名字一样
        node.name: node-1 #表示当前es节点
        node.master: true //该节点是否用做管理节点
        node.data: true //该节点是否用做数据节点
        #设置集群的IP 有几个就需要配置几个、当前也需要配置进去 注意:默认端口是9300 这个是TCP端口
        discovery.zen.ping.unicast.hosts: ["192.168.127.169", "192.168.127.167"] 
        discovery.zen.minimum_master_nodes: 1     # 由于只部署两个节点,因此设置为1,否则当master宕机,将无法重新选取master
        
        Elasticsearch集群中的三种角色
            master node:master几点主要用于元数据(metadata)的处理,比如索引的新增、删除、分片分配等。
            data node:data 节点上保存了数据分片。它负责数据相关操作,比如分片的 CRUD,以及搜索和整合操作。这些操作都比较消耗 CPU、内存和 I/O 资源;
            client node:client 节点起到路由请求的作用,实际上可以看做负载均衡器。
        其对应的高性能集群拓扑结构模式为:
            # 配置文件中给出了三种配置高性能集群拓扑结构的模式,如下: 
            # 1. 如果你想让节点从不选举为主节点,只用来存储数据,可作为负载器 
            # node.master: false 
            # node.data: true 
            # 2. 如果想让节点成为主节点,且不存储任何数据,并保有空闲资源,可作为协调器
            # node.master: true
            # node.data: false
            # 3. 如果想让节点既不称为主节点,又不成为数据节点,那么可将他作为搜索器,从节点中获取数据,生成搜索结果等 
            # node.master: false 
            # node.data: false
    9.配置文件解释
        cluster.name: elasticsearch
        配置的集群名称,默认是elasticsearch,es服务会通过广播方式自动连接在同一网段下的es服务,通过多播方式进行通信,
        同一网段下可以有多个集群,通过集群名称这个属性来区分不同的集群。

        node.name: "Franz Kafka"
        当前配置所在机器的节点名,你不设置就默认随机指定一个name列表中名字,该name列表在es的jar包中config文件夹里name.txt文件中,
        其中有很多作者添加的有趣名字。

        node.master: true
        指定该节点是否有资格被选举成为node(注意这里只是设置成有资格, 不代表该node一定就是master),
        默认是true,es是默认集群中的第一台机器为master,如果这台机挂了就会重新选举master。

        node.data: true
        指定该节点是否存储索引数据,默认为true。

        index.number_of_shards: 5
        设置默认索引分片个数,默认为5片。

        index.number_of_replicas: 1
        设置默认索引副本个数,默认为1个副本。如果采用默认设置,而你集群只配置了一台机器,那么集群的健康度为yellow,
        也就是所有的数据都是可用的,但是某些复制没有被分配(

        健康度可用 curl 'localhost:9200/_cat/health?v' 查看, 分为绿色、黄色或红色。绿色代表一切正常,集群功能齐全,
        黄色意味着所有的数据都是可用的,但是某些复制没有被分配,红色则代表因为某些原因,某些数据不可用)。

        path.conf: /path/to/conf
        设置配置文件的存储路径,默认是es根目录下的config文件夹。

        path.data: /path/to/data
        设置索引数据的存储路径,默认是es根目录下的data文件夹,可以设置多个存储路径,用逗号隔开,例:

        path.data: /path/to/data1,/path/to/data2

        path.work: /path/to/work
        设置临时文件的存储路径,默认是es根目录下的work文件夹。

        path.logs: /path/to/logs
        设置日志文件的存储路径,默认是es根目录下的logs文件夹

        path.plugins: /path/to/plugins
        设置插件的存放路径,默认是es根目录下的plugins文件夹, 插件在es里面普遍使用,用来增强原系统核心功能。

        bootstrap.mlockall: true
        设置为true来锁住内存不进行swapping。因为当jvm开始swapping时es的效率 会降低,所以要保证它不swap,
        可以把ES_MIN_MEM和ES_MAX_MEM两个环境变量设置成同一个值,并且保证机器有足够的内存分配给es。
        同时也要允许elasticsearch的进程可以锁住内存,linux下启动es之前可以通过`ulimit -l unlimited`命令设置。

        network.bind_host: 192.168.0.1
        设置绑定的ip地址,可以是ipv4或ipv6的,默认为0.0.0.0,绑定这台机器的任何一个ip。

        network.publish_host: 192.168.0.1
        设置其它节点和该节点交互的ip地址,如果不设置它会自动判断,值必须是个真实的ip地址。

        network.host: 192.168.0.1
        这个参数是用来同时设置bind_host和publish_host上面两个参数。

        transport.tcp.port: 9300
        设置节点之间交互的tcp端口,默认是9300。

        transport.tcp.compress: true
        设置是否压缩tcp传输时的数据,默认为false,不压缩。

        http.port: 9200
        设置对外服务的http端口,默认为9200。

        http.max_content_length: 100mb
        设置内容的最大容量,默认100mb

        http.enabled: false
        是否使用http协议对外提供服务,默认为true,开启。

        gateway.type: local
        gateway的类型,默认为local即为本地文件系统,可以设置为本地文件系统,分布式文件系统,hadoop的HDFS,和amazon的s3服务器等。

        gateway.recover_after_nodes: 1
        设置集群中N个节点启动时进行数据恢复,默认为1。

        gateway.recover_after_time: 5m
        设置初始化数据恢复进程的超时时间,默认是5分钟。

        gateway.expected_nodes: 2
        设置这个集群中节点的数量,默认为2,一旦这N个节点启动,就会立即进行数据恢复。

        cluster.routing.allocation.node_initial_primaries_recoveries: 4
        初始化数据恢复时,并发恢复线程的个数,默认为4。

        cluster.routing.allocation.node_concurrent_recoveries: 2
        添加删除节点或负载均衡时并发恢复线程的个数,默认为4。

        indices.recovery.max_size_per_sec: 0
        设置数据恢复时限制的带宽,如入100mb,默认为0,即无限制。

        indices.recovery.concurrent_streams: 5
        设置这个参数来限制从其它分片恢复数据时最大同时打开并发流的个数,默认为5。

        discovery.zen.minimum_master_nodes: 1
        设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)

        discovery.zen.ping.timeout: 3s
        设置集群中自动发现其它节点时ping连接超时时间,默认为3秒,对于比较差的网络环境可以高点的值来防止自动发现时出错。

        discovery.zen.ping.multicast.enabled: false
        设置是否打开多播发现节点,默认是true。

        discovery.zen.ping.unicast.hosts: ["host1", "host2:port", "host3[portX-portY]"]
        设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点。

--------------------------------------------模板------------------------------------------------------------

##################### Elasticsearch Configuration Example ##################### 
# 只是挑些重要的配置选项进行注释,其实自带的已经有非常细致的英文注释了.有理解偏差的地方请以官方原版解释为准. 

################################### Cluster ################################### 
# 代表一个集群,集群中有多个节点,其中有一个为主节点,这个主节点是可以通过选举产生的,主从节点是对于集群内部来说的. 
# es的一个概念就是去中心化,字面上理解就是无中心节点,这是对于集群外部来说的,因为从外部来看es集群,在逻辑上是个整体,你与任何一个节点的通信和与整个es集群通信是等价的。 
# cluster.name可以确定你的集群名称,当你的elasticsearch集群在同一个网段中elasticsearch会自动的找到具有相同cluster.name的elasticsearch服务. 
# 所以当同一个网段具有多个elasticsearch集群时cluster.name就成为同一个集群的标识. 

 cluster.name: es-cat

#################################### Node ##################################### 
# 节点名称同理,可自动生成也可手动配置. 
 node.name: node-1

# 允许一个节点是否可以成为一个master节点,es是默认集群中的第一台机器为master,如果这台机器停止就会重新选举master. 
 node.master: true 

# 允许该节点存储数据(默认开启) 
 node.data: true 

# 配置文件中给出了三种配置高性能集群拓扑结构的模式,如下: 
# 1. 如果你想让节点从不选举为主节点,只用来存储数据,可作为负载器 
# node.master: false 
# node.data: true 

# 2. 如果想让节点成为主节点,且不存储任何数据,并保有空闲资源,可作为协调器 
# node.master: true 
# node.data: false 

# 3. 如果想让节点既不称为主节点,又不成为数据节点,那么可将他作为搜索器,从节点中获取数据,生成搜索结果等 
# node.master: false 
# node.data: false 

# 监控集群状态有一下插件和API可以使用: 
# Use the Cluster Health API [http://localhost:9200/_cluster/health], the 
# Node Info API [http://localhost:9200/_nodes] or GUI tools # such as <http://www.elasticsearch.org/overview/marvel/>, 
# <http://github.com/karmi/elasticsearch-paramedic>, 
# <http://github.com/lukas-vlcek/bigdesk> and 
# <http://mobz.github.com/elasticsearch-head> to inspect the cluster state. 

# A node can have generic attributes associated with it, which can later be used 
# for customized shard allocation filtering, or allocation awareness. An attribute 
# is a simple key value pair, similar to node.key: value, here is an example: 
# 每个节点都可以定义一些与之关联的通用属性,用于后期集群进行碎片分配时的过滤
# node.rack: rack314 

# 默认情况下,多个节点可以在同一个安装路径启动,如果你想让你的es只启动一个节点,可以进行如下设置
# node.max_local_storage_nodes: 1 

#################################### Index #################################### 
# 设置索引的分片数,默认为5 
# index.number_of_shards: 6

# 设置索引的副本数,默认为1: 
# index.number_of_replicas: 1 

# 配置文件中提到的最佳实践是,如果服务器够多,可以将分片提高,尽量将数据平均分布到大集群中去
# 同时,如果增加副本数量可以有效的提高搜索性能 
# 需要注意的是,"number_of_shards" 是索引创建后一次生成的,后续不可更改设置 
# "number_of_replicas" 是可以通过API去实时修改设置的 

#################################### Paths #################################### 
# 配置文件存储位置 
# path.conf: /path/to/conf 

# 数据存储位置(单个目录设置) 
# path.data: /path/to/data 
# 多个数据存储位置,有利于性能提升 
# path.data: /path/to/data1,/path/to/data2 

# 临时文件的路径 
# path.work: /path/to/work 

# 日志文件的路径 
# path.logs: /path/to/logs 

# 插件安装路径 
# path.plugins: /path/to/plugins 

#################################### Plugin ################################### 
# 设置插件作为启动条件,如果一下插件没有安装,则该节点服务不会启动 
# plugin.mandatory: mapper-attachments,lang-groovy 

################################### Memory #################################### 
# 当JVM开始写入交换空间时(swapping)ElasticSearch性能会低下,你应该保证它不会写入交换空间 
# 设置这个属性为true来锁定内存,同时也要允许elasticsearch的进程可以锁住内存,linux下可以通过 `ulimit -l unlimited` 命令 
# bootstrap.mlockall: true 

# 确保 ES_MIN_MEM 和 ES_MAX_MEM 环境变量设置为相同的值,以及机器有足够的内存分配给Elasticsearch 
# 注意:内存也不是越大越好,一般64位机器,最大分配内存别才超过32G 

############################## Network And HTTP ############################### 
# 设置绑定的ip地址,可以是ipv4或ipv6的,默认为0.0.0.0 
# network.bind_host: 192.168.5.179

# 设置其它节点和该节点交互的ip地址,如果不设置它会自动设置,值必须是个真实的ip地址 
# network.publish_host: 192.168.10.125
 
# 同时设置bind_host和publish_host上面两个参数 
 network.host: 192.168.5.179

# 设置节点间交互的tcp端口,默认是9300 
# transport.tcp.port: 9300

# 设置是否压缩tcp传输时的数据,默认为false,不压缩
# transport.tcp.compress: true 

# 设置对外服务的http端口,默认为9200 
# http.port: 9200 

# 设置请求内容的最大容量,默认100mb 
# http.max_content_length: 100mb 

# 使用http协议对外提供服务,默认为true,开启 
# http.enabled: false 

################################### Gateway ################################### 
# gateway的类型,默认为local即为本地文件系统,可以设置为本地文件系统 
# gateway.type: local 

# 下面的配置控制怎样以及何时启动一整个集群重启的初始化恢复过程 
# (当使用shard gateway时,是为了尽可能的重用local data(本地数据)) 

# 一个集群中的N个节点启动后,才允许进行恢复处理 
# gateway.recover_after_nodes: 1 

# 设置初始化恢复过程的超时时间,超时时间从上一个配置中配置的N个节点启动后算起 
# gateway.recover_after_time: 5m 

# 设置这个集群中期望有多少个节点.一旦这N个节点启动(并且recover_after_nodes也符合), 
# 立即开始恢复过程(不等待recover_after_time超时) 
# gateway.expected_nodes: 2

 ############################# Recovery Throttling ############################# 
# 下面这些配置允许在初始化恢复,副本分配,再平衡,或者添加和删除节点时控制节点间的分片分配 
# 设置一个节点的并行恢复数 
# 1.初始化数据恢复时,并发恢复线程的个数,默认为4 
# cluster.routing.allocation.node_initial_primaries_recoveries: 4 
 
# 2.添加删除节点或负载均衡时并发恢复线程的个数,默认为2 
# cluster.routing.allocation.node_concurrent_recoveries: 2 

# 设置恢复时的吞吐量(例如:100mb,默认为0无限制.如果机器还有其他业务在跑的话还是限制一下的好) 
# indices.recovery.max_bytes_per_sec: 20mb 

# 设置来限制从其它分片恢复数据时最大同时打开并发流的个数,默认为5 
# indices.recovery.concurrent_streams: 5 
# 注意: 合理的设置以上参数能有效的提高集群节点的数据恢复以及初始化速度 

################################## Discovery ################################## 
# 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点.默认为1,对于大的集群来说,可以设置大一点的值(2-4) 
 discovery.zen.minimum_master_nodes: 2
# 探查的超时时间,默认3秒,提高一点以应对网络不好的时候,防止脑裂 
# discovery.zen.ping.timeout: 10s 

# For more information, see 
# <http://elasticsearch.org/guide/en/elasticsearch/reference/current/modules-discovery-zen.html> 

# 设置是否打开多播发现节点.默认是true. 
# 当多播不可用或者集群跨网段的时候集群通信还是用单播吧 
# discovery.zen.ping.multicast.enabled: false 

# 这是一个集群中的主节点的初始列表,当节点(主节点或者数据节点)启动时使用这个列表进行探测 
 discovery.zen.ping.unicast.hosts: ["192.168.5.179","192.168.23.182","192.168.23.154"] 

# Slow Log部分与GC log部分略,不过可以通过相关日志优化搜索查询速度 

############## Memory(重点需要调优的部分) ################ 
# Cache部分: 
# es有很多种方式来缓存其内部与索引有关的数据.其中包括filter cache 

# filter cache部分: 
# filter cache是用来缓存filters的结果的.默认的cache type是node type.node type的机制是所有的索引内部的分片共享filter cache.node type采用的方式是LRU方式.即:当缓存达到了某个临界值之后,es会将最近没有使用的数据清除出filter cache.使让新的数据进入es. 

# 这个临界值的设置方法如下:indices.cache.filter.size 值类型:eg.:512mb 20%。默认的值是10%。 

# out of memory错误避免过于频繁的查询时集群假死 
# 1.设置es的缓存类型为Soft Reference,它的主要特点是据有较强的引用功能.只有当内存不够的时候,才进行回收这类内存,因此在内存足够的时候,它们通常不被回收.另外,这些引用对象还能保证在Java抛出OutOfMemory异常之前,被设置为null.它可以用于实现一些常用图片的缓存,实现Cache的功能,保证最大限度的使用内存而不引起OutOfMemory.在es的配置文件加上index.cache.field.type: soft即可. 

# 2.设置es最大缓存数据条数和缓存失效时间,通过设置index.cache.field.max_size: 50000来把缓存field的最大值设置为50000,设置index.cache.field.expire: 10m把过期时间设置成10分钟. 
# index.cache.field.max_size: 50000 
# index.cache.field.expire: 10m 
# index.cache.field.type: soft 

# field data部分&&circuit breaker部分: 
# 用于fielddata缓存的内存数量,主要用于当使用排序,faceting操作时,elasticsearch会将一些热点数据加载到内存中来提供给客户端访问,但是这种缓存是比较珍贵的,所以对它进行合理的设置. 

# 可以使用值:eg:50mb 或者 30%(节点 node heap内存量),默认是:unbounded #indices.fielddata.cache.size: unbounded 
# field的超时时间.默认是-1,可以设置的值类型: 5m #indices.fielddata.cache.expire: -1 

# circuit breaker部分: 
# 断路器是elasticsearch为了防止内存溢出的一种操作,每一种circuit breaker都可以指定一个内存界限触发此操作,这种circuit breaker的设定有一个最高级别的设定:indices.breaker.total.limit 默认值是JVM heap的70%.当内存达到这个数量的时候会触发内存回收

# 另外还有两组子设置: 
#indices.breaker.fielddata.limit:当系统发现fielddata的数量达到一定数量时会触发内存回收.默认值是JVM heap的70% 
#indices.breaker.fielddata.overhead:在系统要加载fielddata时会进行预先估计,当系统发现要加载进内存的值超过limit * overhead时会进行进行内存回收.默认是1.03 
#indices.breaker.request.limit:这种断路器是elasticsearch为了防止OOM(内存溢出),在每次请求数据时设定了一个固定的内存数量.默认值是40% 
#indices.breaker.request.overhead:同上,也是elasticsearch在发送请求时设定的一个预估系数,用来防止内存溢出.默认值是1 

# Translog部分: 
# 每一个分片(shard)都有一个transaction log或者是与它有关的预写日志,(write log),在es进行索引(index)或者删除(delete)操作时会将没有提交的数据记录在translog之中,当进行flush 操作的时候会将tranlog中的数据发送给Lucene进行相关的操作.一次flush操作的发生基于如下的几个配置 
#index.translog.flush_threshold_ops:当发生多少次操作时进行一次flush.默认是 unlimited #index.translog.flush_threshold_size:当translog的大小达到此值时会进行一次flush操作.默认是512mb 
#index.translog.flush_threshold_period:在指定的时间间隔内如果没有进行flush操作,会进行一次强制flush操作.默认是30m #index.translog.interval:多少时间间隔内会检查一次translog,来进行一次flush操作.es会随机的在这个值到这个值的2倍大小之间进行一次操作,默认是5s 
#index.gateway.local.sync:多少时间进行一次的写磁盘操作,默认是5s 

# 以上的translog配置都可以通过API进行动态的设置 - See more at: http://bigbo.github.io/pages/2015/04/10/elasticsearch_config/#sthash.AvOSUcQ4.dpuf
#配置插件访问
 http.cors.enabled: true
 http.cors.allow-origin: "*"

#设置分页查询的最大值
#curl -XPUT 'http://localhost:9200/_all/_settings?preserve_existing=true' -d '{"index.max_result_window" : "200000"}'

转载于:https://my.oschina.net/gibbons/blog/890941

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值