elasticsearch.yml配置详解
~~~
# 变量可以用${}这样的形式赋予
#node.rack: ${RACK_ENV_VAR}
~~~
~~~
# 集群的名称
cluster.name: jdxia
~~~
~~~
# 节点名称
node.name: "w1"
# 1. You want this node to never become a master node, only to hold data.
# This will be the "workhorse" of your cluster.
# 他是子节点,存储数据
#node.master: false
#node.data: true
# 2. You want this node to only serve as a master: to not store any data and
# to have free resources. This will be the "coordinator" of your cluster.
# 假如你的设置是这样,他只做master,不做索引和分片,master节点就是协调各个节点
#node.master: true
#node.data: false
#
# 3. You want this node to be neither master nor data node, but
# to act as a "search load balancer" (fetching data from nodes,
# aggregating results, etc.)
# 都设置为false,他是做了个负载均衡器
#node.master: false
#node.data: false
~~~
数据读取是由集群中各个节点共同完成的,而数据的修改是由集群的master来完成的
~~~
# 每个节点定义与之关联的属性,进行碎片分配时的过滤,这边使用默认值就行
#node.rack: rack314
# 设置一台服务器能运行的节点数目,一般一台服务器就部署1台
#node.max_local_storage_nodes: 1
~~~
~~~
#定义碎片的数量
#index.number_of_shards: 5
#定义副本的数量
#index.number_of_replicas: 1
~~~
~~~
#定义配置文件的位置
#path.conf: /path/to/conf
#定义索引数据存放的位置
#path.data: /path/to/data
#也可以定义多个路径
#path.data: /path/to/data1,/path/to/data2
#定义临时文件的路径
#path.work: /path/to/work
#定义日志文件的路径
#path.logs: /path/to/logs
#定义插件的位置
#path.plugins: /path/to/plugins
~~~
~~~
# 插件的名字,如果这个节点这个插件没有安装就不能启动
#plugin.mandatory: mapper-attachments,lang-groovy
~~~
~~~
# 设为true表示会锁定一些内存给es,一般这个内存是给jvm的
bootstrap.mlockall: true
~~~
~~~
# elasticsearch绑定的地址,可以(IPv4 or IPv6)
#network.bind_host: 192.168.0.1
# es发布的地址,就是和其他节点通信的地址
#network.publish_host: 192.168.0.1
# 如果这边设置,上面的2个设置可以都不用设置了
#network.host: 192.168.0.1
# 定义是否压缩tcp传输的数据
#transport.tcp.compress: true
# http协议的端口
#http.port: 9200
# 设置http交互中传输内容的最大长度
#http.max_content_length: 100mb
# 禁用和启用http协议
#http.enabled: false
~~~
~~~
# es的持久化存储,local是本地文件
gateway.type: local
# 控制集群在达到多少个节点后才会开始数据恢复功能,可以避免集群初期自动发现share分片不全的问题,比如设置5,集群必须有5个节点才能进行数据分片
#gateway.recover_after_nodes: 1
# 初始化数据恢复过程的超时时间
#gateway.recover_after_time: 5m
# 初始化数据恢复过程的超时时间,这个具体是节点都启动成功,过了5分钟才能进行数据恢复
#gateway.recover_after_time: 5m
# 设置在集群中多少个节点启动成功后就马上开始数据恢复
#gateway.expected_nodes: 2
~~~
~~~
#是设置一个节点的并发数量,初始恢复过程中
#cluster.routing.allocation.node_initial_primaries_recoveries: 4
# 添加删除节点和负载均衡时的个数
#cluster.routing.allocation.node_concurrent_recoveries: 2
#设置恢复时限制的宽带,0就是无限制
#indices.recovery.max_bytes_per_sec: 20mb
# 限制从其他分片,最大打开并发流的限制
#indices.recovery.concurrent_streams: 5
~~~
~~~
# 设置多少个节点,可以成为候选节点的个数,如果你集群中节点数量比较多可以设置为2~4
#discovery.zen.minimum_master_nodes: 1
#自动发现其他节点的,超时时间,网络环境比较差可以设置高点
#discovery.zen.ping.timeout: 3s
# 设置是否打开多播协议发现其他节点
discovery.zen.ping.multicast.enabled: true
# 设置集群中master节点,初始化列表,里面的host用来自动发现加入集群的节点
#discovery.zen.ping.unicast.hosts: ["host1", "host2:port"]
# 设置log,debug的打印四份
# # query查询
#index.search.slowlog.threshold.query.warn: 10s
#index.search.slowlog.threshold.query.info: 5s
#index.search.slowlog.threshold.query.debug: 2s
#index.search.slowlog.threshold.query.trace: 500ms
# fetch获取
#index.search.slowlog.threshold.fetch.warn: 1s
#index.search.slowlog.threshold.fetch.info: 800ms
#index.search.slowlog.threshold.fetch.debug: 500ms
#index.search.slowlog.threshold.fetch.trace: 200ms
#index.indexing.slowlog.threshold.index.warn: 10s
#index.indexing.slowlog.threshold.index.info: 5s
#index.indexing.slowlog.threshold.index.debug: 2s
#index.indexing.slowlog.threshold.index.trace: 500ms
# 设置jvm的gc打印时间
#monitor.jvm.gc.young.warn: 1000ms
#monitor.jvm.gc.young.info: 700ms
#monitor.jvm.gc.young.debug: 400ms
#monitor.jvm.gc.old.warn: 10s
#monitor.jvm.gc.old.info: 5s
#monitor.jvm.gc.old.debug: 2s
# 开始jsonp的数据交换格式
http.jsonp.enable: true
~~~
- SQL
- 名词
- mysql
- 初识mysql
- 备份和恢复
- 存储引擎
- 数据表损坏和修复
- mysql工具
- 数据库操作
- 增
- 删
- 改
- 查
- 数据类型
- 整数类型
- 小数类型
- 日期时间类型
- 字符和文本型
- enum类型
- set类型
- 时间类型
- null与not null和null与空值''的区别
- 数据表操作
- 创建
- 索引
- 约束
- 表选项列表
- 表的其他语句
- 视图
- sql增删改查
- sql增
- sql删
- sql改
- sql查
- sql语句练习
- 连接查询和更新
- 常用sql语句集锦
- 函数
- 字符函数
- 数值运算符
- 比较运算符与函数
- 日期时间函数
- 信息函数
- 聚合函数
- 加密函数
- null函数
- 用户权限管理
- 用户管理
- 权限管理
- pdo
- 与pdo相关的几个类
- 连接数据库
- 使用
- pdo的错误处理
- pdo结果集对象
- pdo结果集对象常用方法
- pdo预处理
- 常用属性
- mysql编程
- 事务
- 语句块
- mysql中的变量
- 存储函数
- 存储过程
- 触发器
- mysql优化
- 存储引擎
- 字段类型
- 三范式和逆范式
- 索引
- 查询缓存
- limit分页优化
- 分区
- 介绍
- 分区算法
- list分区
- range范围
- Hash哈希
- key键值
- 分区管理
- 特别注意
- 分表
- 数据碎片与维护
- innodb表压缩
- 慢查询
- explain执行计划
- count和max,groupby优化
- 子查询优化
- mysql锁机制
- 介绍
- 演示
- 总结
- 乐观锁和悲观锁
- 扛得住的mysql
- 实例和故事
- 系统参数优化
- mysql体系结构
- mysql基准测试
- 索引
- mysql的复制
- win配置MySQL主从
- mysql5.7新特性
- 常见问题
- general log
- 忘记密码
- uodo log与redo log
- 事务隔离级别
- mysql8密码登录
- explain
- 高效的Tree表
- on delete cascade 总结
- mongod
- 简介
- 集合文档操作语句
- 增删改查
- 索引
- 数据导入和导出
- 主从复制
- php7操作mongod
- 权限管理
- redis
- redis简介
- 3.2版本配置文件
- 3.0版本配置文件
- 2.8版本配置文件
- 配置文件总结
- 外网连接
- 持久化
- RDB备份方式保存数据
- AOF备份方式保存数据
- 总结
- win安装redis和sentinel部署
- 事务
- Sentinel模式配置
- 分布式锁
- 管道
- php中redis代码
- 发布订阅
- slowlog
- Redis4.0
- scan和keys
- elasticsearch
- 配置说明
- 启动
- kibana
- kibana下载
- kibana配置文件
- kibana常用功能
- 常用术语
- Beats
- Beats简介
- Filebeat
- Packetbeat
- Logstash
- 配置
- elasticsearch架构
- es1.7
- head和bigdesk插件
- 插件大全
- 倒排索引
- 单模式下API增删改查
- mget获取多个文档
- 批量操作bulk
- 版本控制
- Mapping映射
- 基本查询
- Filter过滤
- 组合查询
- es配置文件
- es集群优化和管理
- logstash
- kibana
- es5.2
- 安装
- 冲突处理
- 数据备份
- 缺陷不足
- 集群管理api
- 分布式事务
- CAP理论
- BASE模型
- 两阶段提交(2PC)
- TCC (Try-Confirm-Cancle)
- 异步确保型
- 最大努力通知型
- 总结