参考文章:
[Filebeat 模块与配置](https://www.cnblogs.com/cjsblog/p/9495024.html)
[开始使用Filebeat](https://www.cnblogs.com/cjsblog/p/9445792.html)
[https://www.cnblogs.com/cjsblog/p/9517060.html](https://www.cnblogs.com/cjsblog/p/9517060.html)
[TOC]
# filebeat配置文件模块
filebeat配置文件主要分如下三块
| 模块 | 模块用途 |
| --- | --- |
| modules | 自带的常用日志格式的模块 |
| input | 日志输入模块 |
| output | 日志输出模块 |
## A modules模块(nginx模块为例)
Filebeat提供了一组预先构建的模块,可以使用这些模块快速实现并部署一个日志监控解决方案,,支持常见的日志格式,如Nginx、Apache2和MySQL等。
### **1 nginx模块说明**
nginx模块解析Nginx创建的access和error日志,当运行模块的时候,它在底层执行一些任务:
* 设置默认的日志文件路径
* 确保将每个多行日志事件作为单个事件发送
* 使用ingest节点解析和处理日志行,将数据塑造成适合在Kibana中可视化的结构
* 部署显示日志数据的dashboards
>这个模块需要**ingest-user-agent**和**ingest-geoip**两个Elasticsearch插件
### **2 设置并运行模块**
第1步:配置文件启用modules和指定output
output一定要指定,至于是输出到reids,还是logstash或是es,就看具体需要了
```sh
[root@file_redis ~]# cat /etc/filebeat/filebeat.yml
filebeat.config.modules:
path: ${path.config}/modules.d/*.yml
reload.enabled: false
output.redis:
hosts: ["10.0.0.11"]
port: 6379
password : 'abcd1234e'
key: "filebeat-1101"
db: 3
timeout: 5
```
第2步:加载nginx模块并重启filebeat
```
filebeat modules enable nginx
systemctl restart filebeat.service
```
第3步:访问nginx并查看redis第3个库是否有日志产生
```
curl 127.0.0.1
redis-cli -h 10.0.0.11 -a abcd1234e
10.0.0.11:6379> select 3
OK
10.0.0.11:6379[3]> KEYS *
1) "filebeat-1101"
10.0.0.11:6379[3]> lrange filebeat-1101 0 1
...很多数据,省略显示...
```
### **3 重新指定模块中的变量**
通过在配置文件中指定变量设置,可以覆盖模块文件中的默认设置,如nginx日志路径:
```
- module: nginx
access:
enabled: true
var.paths: ["/path/to/log/nginx/access.log*"]
error:
enabled: true
var.paths: ["/path/to/log/nginx/error.log*"]
```
其它模块配置大同小异,不再赘述,更多请参考 [filebeat日志模块](https://www.elastic.co/guide/en/beats/filebeat/current/filebeat-modules.html)
## B input日志输入模块
除了使用自带的模块读入日志数据外,更多的是自己写input模块按自己的需要读取日志,一个配置文件中,可以指定多个日志输入源:
~~~
filebeat.inputs:
- type: log
paths:
- /var/log/system.log
- /var/log/wifi.log
- type: log
paths:
- "/var/log/apache2/*"
~~~
### **1 排除行和包含行**
默认情况下,没有行被删除,所有的行都会被导出。空行被忽略。
* exclude_lines 排除行
一组正则表达式,用于匹配想要排除的行。Filebeat会丢弃匹配的行。
下面的例子配置Filebeat删除以DBG开头的行:
~~~
filebeat.inputs:
- type: log
...
exclude_lines: ['^DBG']
~~~
* include_lines 包含行
一组正则表达式,用于匹配想要包含的行。Filebeat只会导出那些匹配这组正则表达式的行。
下面是一个例子,配置Filebeat导出以ERR或者WARN开头的行:
~~~
filebeat.inputs:
- type: log
...
include_lines: ['^ERR', '^WARN']
~~~
* 排除行和包含航同时被定义
如果 include\_lines 和 exclude\_lines 都被定义了,那么Filebeat先执行 include\_lines 后执行 exclude\_lines,而与这两个选项在配置文件中被定义的顺序没有关系。
下面的例子导出那些除了以DGB开头的所有包含sometext的行:
~~~sh
filebeat.inputs:
- type: log
...
include_lines: ['sometext']
exclude_lines: ['^DBG']
~~~
### **2 json格式日志**
这些选项使得Filebeat将日志作为JSON消息来解析。例如:
~~~sh
json.keys_under_root: true
json.add_error_key: true
json.message_key: log
~~~
为了启用JSON解析模式,必须至少指定下列设置项中的一个:
* keys\_under\_root
默认情况下,解码后的JSON被放置在一个以"json"为key的输出文档中。
如果启用这个设置,那么这个key在文档中被复制为顶级。默认是false。
* overwrite\_keys
如果keys\_under\_root被启用,那么在key冲突的情况下,解码后的JSON对象将覆盖Filebeat正常的字段
* add\_error\_key
如果启用,则当JSON反编排出现错误的时候Filebeat添加 "error.message" 和 "error.type: json"两个key
* message\_key
可选的配置,在应用行过滤和多行设置的时候指定一个JSON key。
指定的这个key必须在JSON对象中是顶级的,而且其关联的值必须是一个字符串
* ignore\_decoding\_error
可选的配置,指定是否JSON解码错误应该被记录到日志中。默认是false。
### **3 multiline多行日志处理**
典型的java错误日志,都是由很多行组成的,如果按单行收集,就不能正确的处理日志,需要用到多行处理功能,需要用到一下设置.
* **multiline.pattern**
指定用于匹配多行的正则表达式
* **multiline.negate**
定义模式是否被否定。默认false。
* **multiline.match**
指定Filebeat如何把多行合并成一个事件。可选的值是**after**或者**before**
* **multiline.flush\_pattern**
指定一个正则表达式,多行将从内存刷新到磁盘。
* **multiline.max\_lines**
可以合并成一个事件的最大行数。如果一个多行消息包含的行数超过max\_lines,则超过的行被丢弃。默认是500。
案例1:简单的java多行日志
~~~sh
Exception in thread "main" java.lang.NullPointerException
at com.example.myproject.Book.getTitle(Book.java:16)
at com.example.myproject.Author.getBookTitles(Author.java:25)
at com.example.myproject.Bootstrap.main(Bootstrap.java:14)
~~~
为了把这些行合并成单个事件,用写了多行配置:
~~~sh
multiline.pattern: '^[[:space:]]'
multiline.negate: false
multiline.match: after
~~~
>这个配置将任意以空格开始的行合并到前一行
案例2:更复杂的例子
~~~java
Exception in thread "main" java.lang.IllegalStateException: A book has a null property
at com.example.myproject.Author.getBookIds(Author.java:38)
at com.example.myproject.Bootstrap.main(Bootstrap.java:14)
Caused by: java.lang.NullPointerException
at com.example.myproject.Book.getId(Book.java:22)
at com.example.myproject.Author.getBookIds(Author.java:35)
... 1 more
~~~
为了合并这个,用下面的配置:
~~~sh
multiline.pattern: '^[[:space:]]+(at|\.{3})\b|^Caused by:'
multiline.negate: false
multiline.match: after
~~~
> 在这个例子中,模式匹配下列行:
> * 以空格开头,后面跟 at 或者 ... 的行
> * 以 Caused by: 开头的行
## C output输出模块
### 1. **配置Elasticsearch output**
当指定Elasticsearch作为output时,Filebeat通过Elasticsearch提供的HTTP API向其发送数据。例如:
~~~sh
output.elasticsearch:
hosts: ["https://localhost:9200"]
~~~
如果es开启了认证,则需要添加如下配置
~~~sh
output.elasticsearch:
hosts: ["https://localhost:9200"]
username: "filebeat_internal"
password: "YOUR_PASSWORD"
~~~
### 2. **index和indices指定索引名**
索引名字默认是"filebeat-%{\[beat.version\]}-%{+yyyy.MM.dd}"(例如,"filebeat-6.3.2-2017.04.26")。
如果想改变这个设置,需要配置 setup.template.name 和 setup.template.pattern 选项。
如果想要根据日志中不同的内容行,生产不同的索引,就需要用到`indices`的条件格式
~~~sh
output.elasticsearch:
hosts: ["http://localhost:9200"]
index: "logs-%{[beat.version]}-%{+yyyy.MM.dd}"
indices:
- index: "critical-%{[beat.version]}-%{+yyyy.MM.dd}"
when.contains:
message: "CRITICAL"
- index: "error-%{[beat.version]}-%{+yyyy.MM.dd}"
when.contains:
message: "ERR"
~~~
### 3. **配置Logstash output**
~~~
output.logstash:
hosts: ["127.0.0.1:5044"]
~~~
上面是配置Filebeat输出到Logstash,那么Logstash本身也可以有输出配置,例如:
~~~
input {
beats {
port => 5044
}
}
output {
elasticsearch {
hosts => ["http://localhost:9200"]
index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
}
}
~~~
### 4. **配置redis output**
~~~
output.redis:
hosts: ["10.0.0.11"]
port: 6379
password : 'abcd1234e'
key: "filebeat-1101"
db: 3
timeout: 5
~~~
- shell编程
- 变量1-规范-环境变量-普通变量
- 变量2-位置-状态-特殊变量
- 变量3-变量子串
- 变量4-变量赋值三种方法
- 变量5-数组相关
- 计算1-数值计算命令和案例
- 计算2-expr命令举例
- 计算3-条件表达式和各种操作符
- 计算4-条件表达式和操作符案例
- 循环1-函数的概念与作用
- 循环2-if与case语法
- 循环3-while语法
- 循环4-for循环
- 其他1-判断传入的参数为0或整数的多种思路
- 其他2-while+read按行读取文件
- 其他3-给输出内容加颜色
- 其他4-shell脚本后台运行知识
- 其他5-6种产生随机数的方法
- 其他6-break,continue,exit,return区别
- if语法案例
- case语法案例
- 函数语法案例
- WEB服务软件
- nginx相关
- 01-简介与对比
- 02-日志说明
- 03-配置文件和虚拟主机
- 04-location模块和访问控制
- 05-status状态模块
- 06-rewrite重写模块
- 07-负载均衡和反向代理
- 08-反向代理监控虚拟IP地址
- nginx与https自签发证书
- php-nginx-mysql联动
- Nginx编译安装[1.12.2]
- 案例
- 不同客户端显示不同信息
- 上传和访问资源池分离
- 配置文件
- nginx转发解决跨域问题
- 反向代理典型配置
- php相关
- C6编译安装php.5.5.32
- C7编译php5
- C6/7yum安装PHP指定版本
- tomcxat相关
- 01-jkd与tomcat部署
- 02-目录-日志-配置文件介绍
- 03-tomcat配置文件详解
- 04-tomcat多实例和集群
- 05-tomcat监控和调优
- 06-Tomcat安全管理规范
- show-busy-java-threads脚本
- LVS与keepalived
- keepalived
- keepalived介绍和部署
- keepalived脑裂控制
- keepalived与nginx联动-监控
- keepalived与nginx联动-双主
- LVS负载均衡
- 01-LVS相关概念
- 02-LVS部署实践-ipvsadm
- 03-LVS+keepalived部署实践
- 04-LVS的一些问题和思路
- mysql数据库
- 配置和脚本
- 5.6基础my.cnf
- 5.7基础my.cnf
- 多种安装方式
- 详细用法和命令
- 高可用和读写分离
- 优化和压测
- docker与k8s
- docker容器技术
- 1-容器和docker基础知识
- 2-docker软件部署
- 3-docker基础操作命令
- 4-数据的持久化和共享互连
- 5-docker镜像构建
- 6-docker镜像仓库和标签tag
- 7-docker容器的网络通信
- 9-企业级私有仓库harbor
- docker单机编排技术
- 1-docker-compose快速入门
- 2-compose命令和yaml模板
- 3-docker-compose命令
- 4-compose/stack/swarm集群
- 5-命令补全和资源限制
- k8s容器编排工具
- mvn的dockerfile打包插件
- openstack与KVM
- kvm虚拟化
- 1-KVM基础与快速部署
- 2-KVM日常管理命令
- 3-磁盘格式-快照和克隆
- 4-桥接网络-热添加与热迁移
- openstack云平台
- 1-openstack基础知识
- 2-搭建环境准备
- 3-keystone认证服务部署
- 4-glance镜像服务部署
- 5-nova计算服务部署
- 6-neutron网络服务部署
- 7-horizon仪表盘服务部署
- 8-启动openstack实例
- 9-添加计算节点流程
- 10-迁移glance镜像服务
- 11-cinder块存储服务部署
- 12-cinder服务支持NFS存储
- 13-新增一个网络类型
- 14-云主机冷迁移前提设置
- 15-VXALN网络类型配置
- 未分类杂项
- 部署环境准备
- 监控
- https证书
- python3.6编译安装
- 编译安装curl[7.59.0]
- 修改Redhat7默认yum源为阿里云
- 升级glibc至2.17
- rabbitmq安装和启动
- rabbitmq多实例部署[命令方式]
- mysql5.6基础my.cnf
- centos6[upstart]/7[systemd]创建守护进程
- Java启动参数详解
- 权限控制方案
- app发包仓库
- 版本发布流程
- elk日志系统
- rsyslog日志统一收集系统
- ELK系统介绍及YUM源
- 快速安装部署ELK
- Filebeat模块讲解
- logstash的in/output模块
- logstash的filter模块
- Elasticsearch相关操作
- ES6.X集群及head插件
- elk收集nginx日志(json格式)
- kibana说明-汉化-安全
- ES安装IK分词器
- zabbix监控
- zabbix自动注册模板实现监控项自动注册
- hadoop大数据集群
- hadoop部署
- https证书
- certbot网站
- jenkins与CI/CD
- 01-Jenkins部署和初始化
- 02-Jenkins三种插件安装方式
- 03-Jenkins目录说明和备份
- 04-git与gitlab项目准备
- 05-构建自由风格项目和相关知识
- 06-构建html静态网页项目
- 07-gitlab自动触发项目构建
- 08-pipelinel流水线构建项目
- 09-用maven构建java项目
- iptables
- 01-知识概念
- 02-常规命令实战
- 03-企业应用模板
- 04-企业应用模板[1键脚本]
- 05-企业案例-共享上网和端口映射
- SSH与VPN
- 常用VPN
- VPN概念和常用软件
- VPN之PPTP部署[6.x][7.x]
- 使用docker部署softether vpn
- softEther-vpn静态路由表推送
- SSH服务
- SSH介绍和部署
- SSH批量分发脚本
- 开启sftp日志并限制sftp访问目录
- sftp账号权限分离-开发平台
- ssh配置文件最佳实践
- git-github-gitlab
- git安装部署
- git详细用法
- github使用说明
- gitlab部署和使用
- 缓存数据库
- zookeeper草稿
- mongodb数据库系列
- mongodb基本使用
- mongodb常用命令
- MongoDB配置文件详解
- mongodb用户认证管理
- mongodb备份与恢复
- mongodb复制集群
- mongodb分片集群
- docker部署mongodb
- memcached
- memcached基本概念
- memcached部署[6.x][7.x]
- memcached参数和命令
- memcached状态和监控
- 会话共享和集群-优化-持久化
- memcached客户端-web端
- PHP测试代码
- redis
- 1安装和使用
- 2持久化-事务-锁
- 3数据类型和发布订阅
- 4主从复制和高可用
- 5redis集群
- 6工具-安全-pythonl连接
- redis配置文件详解
- 磁盘管理和存储
- Glusterfs分布式存储
- GlusterFS 4.1 版本选择和部署
- Glusterfs常用命令整理
- GlusterFS 4.1 深入使用
- NFS文件存储
- NFS操作和部署
- NFS文件系统-挂载和优化
- sersync与inotify
- rsync同步服务
- rsyncd.conf
- rsync操作和部署文档
- rsync常见错误处理
- inotify+sersync同步服务
- inotify安装部署
- inotify最佳脚本
- sersync安装部署
- 时间服务ntp和chrony
- 时间服务器部署
- 修改utc时间为cst时间
- 批量操作与自动化
- cobbler与kickstart
- KS+COBBLER文件
- cobbler部署[7.x]
- kickstart部署[7.x]
- kickstar-KS文件和语法解析
- kickstart-PXE配置文件解析
- 自动化之ansible
- ansible部署和实践
- ansible剧本编写规范
- 配置文件示例
- 内网DNS服务
- 压力测试
- 压测工具-qpefr测试带宽和延时