ThinkChat2.0新版上线,更智能更精彩,支持会话、画图、阅读、搜索等,送10W Token,即刻开启你的AI之旅 广告
elasticsearch.yml配置详解 ~~~ # 变量可以用${}这样的形式赋予 #node.rack: ${RACK_ENV_VAR} ~~~ ~~~ # 集群的名称 cluster.name: jdxia ~~~ ~~~ # 节点名称 node.name: "w1" # 1. You want this node to never become a master node, only to hold data. # This will be the "workhorse" of your cluster. # 他是子节点,存储数据 #node.master: false #node.data: true # 2. You want this node to only serve as a master: to not store any data and # to have free resources. This will be the "coordinator" of your cluster. # 假如你的设置是这样,他只做master,不做索引和分片,master节点就是协调各个节点 #node.master: true #node.data: false # # 3. You want this node to be neither master nor data node, but # to act as a "search load balancer" (fetching data from nodes, # aggregating results, etc.) # 都设置为false,他是做了个负载均衡器 #node.master: false #node.data: false ~~~ 数据读取是由集群中各个节点共同完成的,而数据的修改是由集群的master来完成的 ~~~ # 每个节点定义与之关联的属性,进行碎片分配时的过滤,这边使用默认值就行 #node.rack: rack314 # 设置一台服务器能运行的节点数目,一般一台服务器就部署1台 #node.max_local_storage_nodes: 1 ~~~ ~~~ #定义碎片的数量 #index.number_of_shards: 5 #定义副本的数量 #index.number_of_replicas: 1 ~~~ ~~~ #定义配置文件的位置 #path.conf: /path/to/conf #定义索引数据存放的位置 #path.data: /path/to/data #也可以定义多个路径 #path.data: /path/to/data1,/path/to/data2 #定义临时文件的路径 #path.work: /path/to/work #定义日志文件的路径 #path.logs: /path/to/logs #定义插件的位置 #path.plugins: /path/to/plugins ~~~ ~~~ # 插件的名字,如果这个节点这个插件没有安装就不能启动 #plugin.mandatory: mapper-attachments,lang-groovy ~~~ ~~~ # 设为true表示会锁定一些内存给es,一般这个内存是给jvm的 bootstrap.mlockall: true ~~~ ~~~ # elasticsearch绑定的地址,可以(IPv4 or IPv6) #network.bind_host: 192.168.0.1 # es发布的地址,就是和其他节点通信的地址 #network.publish_host: 192.168.0.1 # 如果这边设置,上面的2个设置可以都不用设置了 #network.host: 192.168.0.1 # 定义是否压缩tcp传输的数据 #transport.tcp.compress: true # http协议的端口 #http.port: 9200 # 设置http交互中传输内容的最大长度 #http.max_content_length: 100mb # 禁用和启用http协议 #http.enabled: false ~~~ ~~~ # es的持久化存储,local是本地文件 gateway.type: local # 控制集群在达到多少个节点后才会开始数据恢复功能,可以避免集群初期自动发现share分片不全的问题,比如设置5,集群必须有5个节点才能进行数据分片 #gateway.recover_after_nodes: 1 # 初始化数据恢复过程的超时时间 #gateway.recover_after_time: 5m # 初始化数据恢复过程的超时时间,这个具体是节点都启动成功,过了5分钟才能进行数据恢复 #gateway.recover_after_time: 5m # 设置在集群中多少个节点启动成功后就马上开始数据恢复 #gateway.expected_nodes: 2 ~~~ ~~~ #是设置一个节点的并发数量,初始恢复过程中 #cluster.routing.allocation.node_initial_primaries_recoveries: 4 # 添加删除节点和负载均衡时的个数 #cluster.routing.allocation.node_concurrent_recoveries: 2 #设置恢复时限制的宽带,0就是无限制 #indices.recovery.max_bytes_per_sec: 20mb # 限制从其他分片,最大打开并发流的限制 #indices.recovery.concurrent_streams: 5 ~~~ ~~~ # 设置多少个节点,可以成为候选节点的个数,如果你集群中节点数量比较多可以设置为2~4 #discovery.zen.minimum_master_nodes: 1 #自动发现其他节点的,超时时间,网络环境比较差可以设置高点 #discovery.zen.ping.timeout: 3s # 设置是否打开多播协议发现其他节点 discovery.zen.ping.multicast.enabled: true # 设置集群中master节点,初始化列表,里面的host用来自动发现加入集群的节点 #discovery.zen.ping.unicast.hosts: ["host1", "host2:port"] # 设置log,debug的打印四份 # # query查询 #index.search.slowlog.threshold.query.warn: 10s #index.search.slowlog.threshold.query.info: 5s #index.search.slowlog.threshold.query.debug: 2s #index.search.slowlog.threshold.query.trace: 500ms # fetch获取 #index.search.slowlog.threshold.fetch.warn: 1s #index.search.slowlog.threshold.fetch.info: 800ms #index.search.slowlog.threshold.fetch.debug: 500ms #index.search.slowlog.threshold.fetch.trace: 200ms #index.indexing.slowlog.threshold.index.warn: 10s #index.indexing.slowlog.threshold.index.info: 5s #index.indexing.slowlog.threshold.index.debug: 2s #index.indexing.slowlog.threshold.index.trace: 500ms # 设置jvm的gc打印时间 #monitor.jvm.gc.young.warn: 1000ms #monitor.jvm.gc.young.info: 700ms #monitor.jvm.gc.young.debug: 400ms #monitor.jvm.gc.old.warn: 10s #monitor.jvm.gc.old.info: 5s #monitor.jvm.gc.old.debug: 2s # 开始jsonp的数据交换格式 http.jsonp.enable: true ~~~