## 简介
awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在其对数据分析并生成报告时,显得尤为强大。简单来说awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行各种分析处理。
awk有3个不同版本: awk、nawk和gawk,未作特别说明,一般指gawk,gawk 是 AWK 的 GNU 版本。
awk其名称得自于它的创始人 Alfred Aho 、Peter Weinberger 和 Brian Kernighan 姓氏的首个字母。实际上 AWK 的确拥有自己的语言: AWK 程序设计语言 , 三位创建者已将它正式定义为“样式扫描和处理语言”。它允许您创建简短的程序,这些程序读取输入文件、为数据排序、处理数据、对输入执行计算以及生成报表,还有无数其他的功能。
## 使用方法
~~~shell
awk 'BEGIN{ print "start" } pattern{ commands } END{ print "end" }' file
~~~
尽管操作可能会很复杂,但语法总是这样,其中 pattern 表示 AWK 在数据中查找的内容,而 action 是在找到匹配内容时所执行的一系列命令。花括号({})不需要在程序中始终出现,但它们用于根据特定的模式对一系列指令进行分组。 pattern就是要表示的正则表达式,用斜杠括起来。
awk语言的最基本功能是在文件或者字符串中基于指定规则浏览和抽取信息,awk抽取信息后,才能进行其他文本操作。完整的awk脚本通常用来格式化文本文件中的信息。
通常,awk是以文件的一行为处理单位的。awk每接收文件的一行,然后执行相应的命令,来处理文本。
### 调用awk的方式
**1.命令行方式**
```
awk [-F field-separator] 'commands' input-file(s)
```
其中,commands 是真正awk命令,[-F域分隔符]是可选的。 input-file(s) 是待处理的文件。
在awk中,文件的每一行中,由域分隔符分开的每一项称为一个域。通常,在不指名-F域分隔符的情况下,默认的域分隔符是空格。
**2.shell脚本方式**
将所有的awk命令插入一个文件,并使awk程序可执行,然后awk命令解释器作为脚本的首行,一遍通过键入脚本名称来调用。
相当于shell脚本首行的:#!/bin/sh
可以换成:#!/bin/awk
**3.将所有的awk命令插入一个单独文件,然后调用:**
```
awk -f awk-script-file input-file(s)
```
其中,-f选项加载awk-script-file中的awk脚本,input-file(s)跟上面的是一样的。
### 入门实例
假设last -n 5的输出如下
```
[root@www ~]# last -n 5 # 仅取出前五行
root pts/1 192.168.1.100 Tue Feb 10 11:21 still logged in
root pts/1 192.168.1.100 Tue Feb 10 00:46 - 02:28 (01:41)
root pts/1 192.168.1.100 Mon Feb 9 11:41 - 18:30 (06:48)
dmtsai pts/1 192.168.1.100 Mon Feb 9 11:41 - 11:41 (00:00)
root tty1 Fri Sep 5 14:09 - 14:10 (00:01)
```
如果只是显示最近登录的5个帐号
```
#last -n 5 | awk '{print $1}'
root
root
root
dmtsai
root
```
awk工作流程是这样的:读入有'\n'换行符分割的一条记录,然后将记录按指定的域分隔符划分域,填充域,\$0则表示所有域,\$1表示第一个域,\$n表示第n个域。默认域分隔符是"空白键" 或 "[tab]键",所以\$1表示登录用户,\$3表示登录用户ip,以此类推。
如果只是显示/etc/passwd的账户
```
#cat /etc/passwd |awk -F ':' '{print $1}'
root
daemon
bin
sys
```
如果只是显示/etc/passwd的账户和账户对应的shell,而账户与shell之间以tab键分割
```
#cat /etc/passwd |awk -F ':' '{print $1"\t"$7}'
root /bin/bash
daemon /bin/sh
bin /bin/sh
sys /bin/sh
```
如果只是显示/etc/passwd的账户和账户对应的shell,而账户与shell之间以逗号分割,而且在所有行添加列名name,shell,在最后一行添加"blue,/bin/nosh"。
```
cat /etc/passwd |awk -F ':' 'BEGIN {print "name,shell"} {print $1","$7} END {print "blue,/bin/nosh"}'
name,shell
root,/bin/bash
daemon,/bin/sh
bin,/bin/sh
sys,/bin/sh
....
blue,/bin/nosh
```
awk工作流程是这样的:先执行BEGING,然后读取文件,读入有/n换行符分割的一条记录,然后将记录按指定的域分隔符划分域,填充域,\$0则表示所有域,\$1表示第一个域,\$n表示第n个域,随后开始执行模式所对应的动作action。接着开始读入第二条记录······直到所有的记录都读完,最后执行END操作。
搜索/etc/passwd有root关键字的所有行
```
#awk -F: '/root/' /etc/passwd
root:x:0:0:root:/root:/bin/bash
```
这种是pattern的使用示例,匹配了pattern(这里是root)的行才会执行action(没有指定action,默认输出每行的内容)。
搜索支持正则,例如找root开头的:``awk -F: '/^root/' /etc/passwd``
搜索/etc/passwd有root关键字的所有行,并显示对应的shell
```
# awk -F: '/root/{print $7}' /etc/passwd
/bin/bash
```
这里指定了action{print \$7}
```
awk 'length($0)>80 {print NR}' myfile # 该命令行将显示文本myfile中所有超过80个字符的行号,在这里,用$0表示整个记录(行),同时,内置变量NR不使用标志符'$'。
# 假设要对UNIX中的用户进行安全性检查,方法是考察/etc下的passwd文件,检查其中的passwd字段(第二字段)是否为"*",如不为"*",则表示该用户没有设置密码,显示出这些用户名(第一字段)。我们可以用如下语句实现:
awk -F: '$2=="" {printf("%s no password!",$1)' /etc/passwd
```
### 内置变量
awk有许多内置变量用来设置环境信息,这些变量可以被改变,下面给出了最常用的一些变量。
ARGC 命令行参数个数
ARGV 命令行参数排列
ENVIRON 支持队列中系统环境变量的使用
FILENAME awk浏览的文件名
FNR 浏览文件的记录数
FS 设置输入域分隔符,等价于命令行 -F选项
NF 浏览记录的域的个数(列数)
NR 已读的记录数(行数)
OFS 输出域分隔符
ORS 输出记录分隔符
RS 控制记录分隔符
此外,\$0变量是指整条记录。\$1表示当前行的第一个域,\$2表示当前行的第二个域,......以此类推。
```
awk '/api\.php/{print}' log_file #在缺省格式下模式是$0,即打印出全条
awk '/api\.php/' log_file # 甚至还可以忽略action部分,默认是print打印
```
统计/etc/passwd:文件名,每行的行号,每行的列数,对应的完整行内容:
```
#awk -F ':' '{print "filename:" FILENAME ",linenumber:" NR ",columns:" NF ",linecontent:"$0}' /etc/passwd
filename:/etc/passwd,linenumber:1,columns:7,linecontent:root:x:0:0:root:/root:/bin/bash
filename:/etc/passwd,linenumber:2,columns:7,linecontent:daemon:x:1:1:daemon:/usr/sbin:/bin/sh
filename:/etc/passwd,linenumber:3,columns:7,linecontent:bin:x:2:2:bin:/bin:/bin/sh
filename:/etc/passwd,linenumber:4,columns:7,linecontent:sys:x:3:3:sys:/dev:/bin/sh
```
使用printf替代print,可以让代码更加简洁,易读
```
awk -F ':' '{printf("filename:%10s,linenumber:%s,columns:%s,linecontent:%s\n",FILENAME,NR,NF,$0)}' /etc/passwd
```
### print和printf
awk中同时提供了print和printf两种打印输出的函数。
其中print函数的参数可以是变量、数值或者字符串。字符串必须用双引号引用,参数用逗号分隔。如果没有逗号,参数就串联在一起而无法区分。这里,逗号的作用与输出文件的分隔符的作用是一样的,只是后者是空格而已。
printf函数,其用法和c语言中printf基本相似,可以格式化字符串,输出复杂时,printf更加好用,代码更易懂。
```
head -10 log_file | awk '{printf "%03d %s\n",NR,$1}'
# "%03d %s\n" 是格式,其中NR替换%03成为前导0的三位数字,$1替换%s成为字符串
001 220.181.108.180
002 220.181.108.180
003 220.181.108.150
004 123.125.71.45
005 220.181.108.142
006 220.181.108.162
007 151.80.31.110
008 220.181.108.82
009 220.181.108.185
010 151.80.31.112
```
## awk编程
### 变量和赋值
除了awk的内置变量,awk还可以自定义变量。
下面统计/etc/passwd的账户人数
```
awk '{count++;print $0;} END{print "user count is ", count}' /etc/passwd
root:x:0:0:root:/root:/bin/bash
......
user count is 40
```
count是自定义变量。之前的action{}里都是只有一个print,其实print只是一个语句,而action{}可以有多个语句,以;号隔开。
这里没有初始化count,虽然默认是0,但是妥当的做法还是初始化为0:
```
awk 'BEGIN {count=0;print "[start]user count is ", count} {count=count+1;print $0;} END{print "[end]user count is ", count}' /etc/passwd
[start]user count is 0
root:x:0:0:root:/root:/bin/bash
...
[end]user count is 40
```
统计某个文件夹下的文件占用的字节数
```
ls -l |awk 'BEGIN {size=0;} {size=size+$5;} END{print "[end]size is ", size}'
[end]size is 8657198
# 以兆来显示
ls -l |awk 'BEGIN {size=0;} {size=size+$5;} END{print "[end]size is ", size/1024/1024,"M"}'
[end]size is 8.25889 M
```
### BEGIN和END
在awk中两个特别的表达式,BEGIN和END,这两者都可用于pattern中(参考前面的awk语法),提供BEGIN和END的作用是给 程序赋予初始状态和在程序结束之后执行一些扫尾的工作。任何在BEGIN之后列出的操作(在{}内)将在awk开始扫描输入之前执行,而END之后列出的 操作将在扫描完全部的输入之后执行。因此,通常使用BEGIN来显示变量和预置(初始化)变量,使用END来输出最终结果。
```
awk
>'BEGIN { FS=":";print "统计销售金额";total=0}
>{print $3;total=total+$3;}
>END {printf "销售金额总计:%.2f",total}'
# 注:>是shell提供的第二提示符,如要在shell程序awk语句和awk语言中换行,则需在行尾加反斜杠
# 在这里,BEGIN预置了内部变量FS(字段分隔符)和自定义变量total,同时在扫描之前显示出输出行头。而END则在扫描完成后打印出总合计。
```
### 条件语句
```
if (expression) {
statement;
statement;
... ...
}
if (expression) {
statement;
} else {
statement2;
}
if (expression) {
statement1;
} else if (expression1) {
statement2;
} else {
statement3;
}
```
统计某个文件夹下的文件占用的字节数,过滤4096大小的文件(一般都是文件夹):
```
ls -l |awk 'BEGIN {size=0;print "[start]size is ", size} {if($5!=4096){size=size+$5;}} END{print "[end]size is ", size/1024/1024,"M"}'
[end]size is 8.22339 M
```
`~ !~` 判断正则,其他和PHP一样。
### 循环语句
awk中的循环语句同样借鉴于C语言,支持while、do/while、for、break、continue,这些关键字的语义和C语言中的语义完全相同。
```
awk -F ':' 'BEGIN {count=0;} {name[count] = $1;count++;}; END{for (i = 0; i < NR; i++) print i, name[i]}' /etc/passwd
0 root
1 daemon
2 bin
3 sys
4 sync
5 games
......
```
先把用户名放在name的这个数组里面,执行完awk的隐式迭代后,最后的END部分通过for循环输出;
## 常用示例
~~~shell
# 删除重复行
awk '!($0 in array) { array[$0]; print }' temp
awk '!array[$1]++' file.txt
# 查看最长使用的10个unix命令
awk '{print $1}' ~/.bash_history | sort | uniq -c | sort -rn | head -n 10
# 查看机器的ip列表
ifconfig -a | awk '/Bcast/{print $2}' | cut -c 5-19
# 批量重命名文件
find . -name '*.jpg' | awk 'BEGIN{ a=0 }{ printf "mv %s name%01d.jpg\n", $0, a++ }' | bash
~~~
## link
1. [一线运维不得不会的awk妙用汇总(2022)](https://mp.weixin.qq.com/s/SPHeJ_nwu7BsDBHQc2UmNA)
2.
更多请参考: http://www.gnu.org/software/gawk/manual/gawk.html
- Apache
- 【Apache运维基础(1)】Apache的安装与使用
- 【Apache运维基础(2)】主配置文件说明
- 【Apache运维基础(3)】虚拟主机配置说明
- 【Apache运维基础(4)】Apache的Rewrite攻略(1)
- 【Apache运维基础(5)】Apache的Rewrite攻略(2).htaccess文件
- 【Apache运维基础(6)】Apache的日志管理与分析
- 工具篇
- supervisor进程管理器
- Haproxy安装与配置
- Nginx
- 【nginx网站性能优化篇(1)】gzip压缩与expire浏览器缓存
- 【nginx网站性能优化篇(2)】反向代理实现Apache与Nginx的动静分离(LNMPA)
- 【nginx网站性能优化篇(3)】反向代理实现负载均衡
- 【nginx网站性能优化篇(4)】理解nginx的高并发原理及其配置调优
- 【nginx运维基础(1)】Nginx的编译安装与使用
- 【nginx运维基础(2)】Nginx的配置文件说明及虚拟主机配置示例
- 【nginx运维基础(3)】Nginx的编译PHP
- 【nginx运维基础(4)】Nginx的日志管理(日志格式与定时分割日志)
- 【nginx运维基础(5)】Nginx的location攻略
- 【nginx运维基础(6)】Nginx的Rewrite语法详解
- 【nginx运维基础(7)】配置SSL支持https访问
- 【nginx运维基础(8)】配置支持http2协议
- 【nginx运维基础(9)】了解PHP-FPM 与 Nginx 的通信机制
- 其它
- Apache与Nginx下php隐藏http头部版本信息的实现方法
- CURL与PHP-CLI的应用【CLI篇】
- CURL与PHP-CLI的应用【Curl篇】
- Linux之SAMBA共享服务
- 【Linux常识篇(1)】所谓的正向代理与反向代理
- 【Linux常识篇(2)】理解inode
- 【Linux常识篇(3)】文件及文件夹的ctime atime mtime的含义详解
- centOS使用手记
- 服务器日志分析
- 高频命令
- df
- mv
- gzip
- cp
- tar
- touch
- cat
- uniq
- nl
- more
- rmdir
- less
- mkdir
- head
- rm
- tail
- 五大查询命令
- vi&vim
- ls与目录结构
- grep
- awk
- sed
- 其他高频命令