目录

awk基本语法

awk输出某几列

awk遍历文件行处理

awk中运行shell命令

方法1:awk 内置函数system

方法2 通过awk  print 交给bash

awk中运行shell命令并用awk的参数

awk命令获取文本的某一行,某一列

AWK 技巧(取倒列,过滤行,匹配,不匹配,内置变量等)

通过第一个域找出字符长度为4的

当第二列值大于3时,创建空白文件,文件名为当前行第一个域$1 (touch $1)

将文档中 liu 字符串替换为 hong

求第二列的和

求第二列的平均值

求第二列中的最大值

将第一列过滤重复后,列出每一项,每一项的出现次数,每一项的大小总和

定义分隔符|多个分隔符[]

使用awk取某一行数据中的倒数第N列:$(NF-(n-1))

将每一行中相同第一列对应的其他列进行拼接

Awk取文件中的指定数据

linux文件按大小来排序

awk 获取某些列的某些行(打印或不打印第几行)

awk中的"匹配"与"不匹配"

AWK的内置变量(NF、NR、FNR、FS、OFS、RS、ORS)

AWK对文件的"某一列进行去重"的做法      (命令: awk '{a[$n]=$0}END{for(i in a)print a[i]}' filename)

AWK 将列转为行的做法

shell将多行转为一行(或将多行中的某一列转化为行)的做法

shell去掉最后一个字符的做法


awk基本语法

awk 'BEGIN{//begin code }            pattern1{//pattern1 code}             pattern2{//pattern2 code}          END{//end code }'

BEGIN部分的代码,最先执行

然后循环从管道中读取的每行文本,如果匹配pattern1 ,则执行pattern1 code的代码,匹配pattern2,则执行pattern2 code代码
最后,执行END部分的代码end code

如下所示,分别求奇数行与偶数行的和:
$ seq 1 5
1
2
3
4
5

$ seq 1 5|awk 'BEGIN{print "odd","even"}    NR%2==1{odd+=$0}    NR%2==0{even+=$0}    END{print odd,even}'
odd even
9 6

原文链接:https://blog.csdn.net/weixin_31201737/article/details/113045998

awk输出某几列

有这样一个文本,需要截取前5列

[root@SH]# cat test.txt 
 2      3651415576       940761              0            0 0000000000000000
 3      3532686312       939551              0            0 0000000000000000
 4      3873453656       984285              0            0 0000000000000000
 5      3884604640       970761              0            0 0000000000000000
 6      2116906224       493295              0            0 0000000000000000
 7      1760674752       480700              0            0 0000000000000000
 8               0            0       29979808         6002 0000000000000000
 10              0            0        3299944         1433 0000000000000000
 11              0            0     2199434640       312565 0000000000000000

方法一:

awk '{print $1,$2,$3,$4,$5}  #(别忘了“,”,否则黏在一起,$1 $2 $3与$1$2$3没什么不同.)

另外一种实现方法awk '{NF-=2}1',这里的1换成别的数字也可以,NF-=2表示倒数第二列
https://my.oschina.net/u/3746745/blog/1923899

linux下统计某个进程的CPU占用和内存使用

#!/bin/bash
# while loop
 
CpuMemStat=""
datemk=""
while true
do
CpuMemStat=` ps aux |grep -i server |grep redis |grep -v py`
datemk=`date "+%Y-%m-%d %H:%M:%S"`
echo $datemk $CpuMemStat >> result.txt
#echo $datemk $CpuMemStat
sleep 20s
done

上面的遇到CpuMemStat结果是多行的就歇菜了,改成

#!/bin/bash
# while loop 
CpuMemStat=""
datemk=""
 
CpuMemStat=`ps aux |sed -n '1p'|awk '{print $1,$2,$3,$4,$5}'`
datemk=`date "+%Y-%m-%d %H:%M:%S"`
echo $datemk $CpuMemStat >> result.txt
 
while true
do
    #CpuMemStat=` ps aux |grep -i redis-server|awk '{print $1,$2,$3,$4,$5}'`
    datemk=`date "+%Y-%m-%d %H:%M:%S"`
 
 
ps aux |grep -i redis-server|awk '{print $1,$2,$3,$4,$5}'|while read line
do
 echo $line
 echo $datemk $line >> result.txt
    #echo $datemk $CpuMemStat
done 
 
    sleep 1s
done
(一行一行读,不能用for 必须用while,因为in操作符以任意空白字符作为分割, 而read line是以回车符作为分割。)

有一文本文件如下,每行有两个字符串/空格分开。

$ cat list.txt 
Gly G
Ala A
Val V
Leu L
Ile I
Phe F

for line in `cat list.txt`
do
echo $line
done

得到结果如下:

Gly
G
Ala
A
Val
V
Leu
L
Ile
I
Phe
F

============
while read line
do 
echo $line
done list.txt

运行得到结果如下:

Gly G
Ala A
Val V
Leu L
Ile I
Phe F

awk遍历文件行处理

awk基本语法如下:

awk 'BEGIN{//begin code }            pattern1{//pattern1 code}             pattern2{//pattern2 code}          END{//end code }'

BEGIN部分的代码,最先执行

然后循环从管道中读取的每行文本,如果匹配pattern1 ,则执行pattern1 code的代码,匹配pattern2,则执行pattern2 code代码
最后,执行END部分的代码end code

如下所示,分别求奇数行与偶数行的和:
$ seq 1 5
1
2
3
4
5

$ seq 1 5|awk 'BEGIN{print "odd","even"}    NR%2==1{odd+=$0}    NR%2==0{even+=$0}    END{print odd,even}'
odd even
9 6

原文链接:https://blog.csdn.net/weixin_31201737/article/details/113045998

实战:

OSD 删除黑名单的命令是:ceph osd blacklist rm  192.168.31.66:6800/2776253500

OSD 列出黑名单的命令是: ceph osd blacklist ls

192.168.31.109:6800/3185421984
192.168.31.66:6800/2776253500
192.168.31.109:6800/1802746272
192.168.31.66:6800/3330484028
192.168.31.109:6800/3170500668
192.168.31.66:6849/4132697147
192.168.31.65:6849/579778875

我们需要 遍历黑名单执行 ceph osd blacklist rm  xxxxx

ceph osd blacklist ls |awk '{system("ceph osd blacklist rm " $1)}'

(ceph osd blacklist rm 不是awk的内置命令,所有用system)

info.txt

-5        10.47839 root ssdpool                                        
-25        10.47839     rack rack.ssdpool                               
-28         3.49280         host rdma61.ssdpool                         
 18   ssd   0.87320             osd.18              up  1.00000 1.00000 
 21   ssd   0.87320             osd.21              up  1.00000 1.00000 
 24   ssd   0.87320             osd.24              up  1.00000 1.00000 
 28   ssd   0.87320             osd.28              up  1.00000 1.00000 
-31         3.49280         host rdma63.ssdpool                         
 20   ssd   0.87320             osd.20              up  1.00000 1.00000 
 22   ssd   0.87320             osd.22              up  1.00000 1.00000 
 25   ssd   0.87320             osd.25              up  1.00000 1.00000 
 27   ssd   0.87320             osd.27              up  1.00000 1.00000 
-34         3.49280         host rdma64.ssdpool                         
 19   ssd   0.87320             osd.19              up  1.00000 1.00000 
 23   ssd   0.87320             osd.23              up  1.00000 1.00000 
 26   ssd   0.87320             osd.26              up  1.00000 1.00000 
 29   ssd   0.87320             osd.29            down        0 1.00000

写一个shell脚本 run.sh,我给它参数61(或者63或64), 它就读取host rdma61.ssdpool下面的行文字的第一个字段,并逐一输出log+字段,直至遇到下一个host rdma 停止。

如: run.sh 61

输出:

log18.txt
log21.txt
log24.txt
log28.txt

如: run.sh 63

log20.txt
log22.txt
log25.txt
log27.txt

脚本

awk -v flag=0 '
/host rdma'$1'/ {flag=1; next}
flag == 1 && /host rdma/ {flage=0; exit}
flag == 1 {print "log"$1".txt"}
' info.txt

说明

-v flag=0 # 设置变量flag=0

/host rdma'$1'/ {flag=1; next}                   #匹配到host rdma'$1'执行flag=1; next,netx 表示不匹配本文本行后面的内容,直接跳到下一行文本

flag == 1 && /host rdma/ {flage=0; exit}  #flag == 1 且匹配到host rdma,则执行{flage=0; exit} ,exit 退出结束

flag == 1 {print "log"$1".txt"}                  #flag == 1 且匹配到host rdma,则执行print "log"$1".txt"

原文链接:https://blog.csdn.net/bandaoyu/article/details/103190949

awk中运行shell命令

有两种方法:

1.awk内置函数system

2.通过awk print出要执行的命令 然后交给/bin/bash 执行

方法1:awk 内置函数system

执行方法  awk ‘BEGIN{system(“shell命令)}’ 就行

[root@CHSHA-CT-WWW-249 ~]# awk ‘BEGIN{system(“hostname”)}’

CHSHA-CT-WWW-249.360buy.com

[root@CHSHA-CT-WWW-249 ~]# awk ‘BEGIN{system(“df -h”)}’

文件系统 容量 已用 可用 已用% 挂载点
/dev/sda1 19G 2.9G 16G 16% /
/dev/sda3 236G 215M 223G 1% /export
tmpfs 16G 0 16G 0% /dev/shm

[root@CHSHA-CT-WWW-249 ~]# awk ‘BEGIN {system(“echo \”input one number:\”"); getline d;print “you input number is”,d}’

input one number:
12
you input number is 12   #这个采用了awk getline取前面的输入

方法2 通过awk  print 交给bash

[root@CHSHA-CT-WWW-249 ~]# awk ‘BEGIN{print “echo”,”cange”}’|sh
cange
[root@CHSHA-CT-WWW-249 ~]# awk ‘BEGIN{print “echo”,”cange”|”bash”}’
cange
[root@CHSHA-CT-WWW-249 ~]# awk ‘BEGIN{print “df -h”|”bash”}’
文件系统 容量 已用 可用 已用% 挂载点
/dev/sda1 19G 2.9G 16G 16% /
/dev/sda3 236G 215M 223G 1% /export
tmpfs 16G 0 16G 0% /dev/shm
[root@CHSHA-CT-WWW-249 ~]# awk ‘BEGIN{print “hostname”|”bash”}’
CHSHA-CT-WWW-249.360buy.com

可能上面的例子很简单, 确实  但是原理就是这样 可能工作上你们的需求不同 整个过程不可能这么简单 但是按照这种方式进行处理就行 , 例如对一下文件的重命名 那就可以

pirnt  mv  一个原始文件 跟你要改成的文件 交给bash就行了。

[root@CHSHA-CT-WWW-249 test]# ls|awk ‘{print “mv “$0″ A_”$0}’
mv 1.jpp A_1.jpp
mv 2.jpp A_2.jpp
mv 3.jpp A_3.jpp
[root@CHSHA-CT-WWW-249 test]# ls|awk ‘{print “mv “$0″ A_”$0}’|bash
[root@CHSHA-CT-WWW-249 test]# ls
A_1.jpp A_2.jpp A_3.jpp

awk中运行shell命令并用awk的参数

awk '{system(“ls ” $1)'| some.txt

即 sytem()括号内,加双引号的“”看待成shell命令,不加双引号的看待成awk环境变量,system("echo "$1"\"-->\"") shell命令内有双引号的,需要\转译。

ibv_devices

device                 node GUID
    ------              ----------------
    rocep24s0f2         b69691fffea59b5e
    rocep24s0f1         b69691fffea59b5d
    rocep24s0f3         b69691fffea59b5f
    rocep24s0f0         b69691fffea59b5c

ibv_devices|awk 'BEGIN{ echo "--"}  /rocep/{system("echo "$1"\"-->\"`ls /sys/class/infiniband/"$1"/device/net`")} END{echo "--"}'

rocep24s0f2-->ens2f2
rocep24s0f1-->ens2f1
rocep24s0f3-->ens2f3
rocep24s0f0-->ens2f0

awk命令获取文本的某一行,某一列

NF代表一行的字段个数,NR代表文本文件的行数

1、打印文件的第一列(域)                 : awk '{print $1}' filename
2、打印文件的前两列(域)                 : awk '{print $1,$2}' filename
3、打印完第一列,然后打印第二列  : awk '{print $1 $2}' filename
4、打印文本文件的总行数                : awk 'END{print NR}' filename
5、打印文本第一行                          :awk 'NR==1{print}' filename
6、打印文本第二行第一列                :sed -n "2, 1p" filename | awk 'print $1'

#(获取test文件的第4行)

#cat test| awk 'NR==4'或cat test|sed -n '4p'直接获取某一行的数据

shell里面的赋值方法有两种,格式为
    1) arg=`(命令)`
    2) arg=$(命令)
因此,如果想要把某一文件的总行数赋值给变量nlines,可以表达为:
    1) nlines=`(awk 'END{print NR}' filename)`
或者

2) nlines=$(awk 'END{print NR}' filename)

AWK 技巧(取倒列,过滤行,匹配,不匹配,内置变量等)

wang     4
   cui      3
   zhao     4
   liu      3
   liu      3
   chang    5
   li       2

   通过第一个域找出字符长度为4的

awk 'length($1)=="4"{print $1}'

    当第二列值大于3时,创建空白文件,文件名为当前行第一个域$1 (touch $1)

执行系统命令
    awk '{if($2>3){system ("touch "$1)}}'

   将文档中 liu 字符串替换为 hong

gsub(/r/,"s",域) 在指定域(默认$0)中用s替代r  (sed 's///g')
    awk '{gsub(/liu/,"hong",$1);print $0}' a.txt

    求第二列的和

列求和
    df -h | awk '{a+=$2}END{print a}'

    求第二列的平均值

列求平均值
    df -h | awk '{a+=$2}END{print a/NR}'
    df -h | awk '{a+=$2;b++}END{print a,a/b}'

   求第二列中的最大值

列求最大值
    df -h | awk 'BEGIN{a=0}{if($2>a) a=$2 }END{print a}'

    将第一列过滤重复后,列出每一项,每一项的出现次数,每一项的大小总和

将第一列过滤重复列出每一项,每一项的出现次数,每一项的大小总和
    awk '{a[$1]++;b[$1]+=$2}END{for(i in a){print i,a[i],b[i]}}'

定义分隔符|多个分隔符[]

ifconfig eth0|awk -F "[ :]+" 'NR==2{print $4 "/" $NF}'中"[ :]+" 是什么意思?

"[ :]+"这个是正则表达式(注意[]中的内容是 空格和:),+表示一个或多个,这里就表示一个或多个空格或冒号

1。内建变量FS保存输入域分隔符的值,默认是空格或tab。我们可以通过-F命令行选项修改FS的值。如$ awk -F: '{print $1,$5}' test将打印以冒号为分隔符的第一,第五列的内容。

2。-F指定分隔符,指定同时使用多个域分隔符时,应该把分隔符放到方括号中,如$awk -F'[ :\t]' '{print $1,$3}' test,表示以空格、冒号和tab作为分隔符。

下面我们来举个例子:

[root@master ~]# echo "inet addr:192.168.55.229 Bcast:192.168.55.255 Mask:255.255.255.0"|awk -F"[ :]" '{print $3}'
192.168.55.229
([]中分别有 空格、: 两种分隔符)

ibv_devinfo|grep -A 17 rocep216s0f2 |grep active_mtu|awk '{print $3}'|awk -F "[()]" '{print $2}'

AWK 技巧(取倒列,过滤行,匹配,不匹配,内置变量等)

原文:AWK 技巧(取倒列,过滤行,匹配,不匹配,内置变量等) - 散尽浮华 - 博客园

使用awk取某一行数据中的倒数第N列$(NF-(n-1))

比如取/etc/passwd文件中的第2列、倒数第1、倒数第2、倒数第4列(以冒号为分隔符)。($NF表示倒数第一列,$(NF-1)表示倒数第二列)

[root@ipsan-node06 ~]# awk -F":" '{print $2,$(NF),$(NF-1),$(NF-3)}' /etc/passwd

将每一行中相同第一列对应的其他列进行拼接

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

[root@jump-v4 ~]# sort b.txt|uniq

1    34

1    49

2    45

2    48

3    54

3    57

3    89

[root@jump-v4 ~]# sort b.txt|uniq|awk '{a[$1]=(a[$1]" "$2);} END{for(i in a) print i ":"a[i]}'

1: 34 49

2: 45 48

3: 54 57 89

命令解析:

1)首先sort test|uniq实现对test文件的去重,去掉了重复的 1 49,保留不同的行;

2)awk '{a[$1]=(a[$1]" "$2);} END{for(i in a) print i ":"a[i]}' 表示的含义是: 将每一行的第一列最为数组a的key,

   第二列作为a的value,同时碰到相同的key,就把其值进行拼接,linux的shell的字符串拼接形式为str = (str  “ ” $var),

   最后遍历数组a,其中i为数组a的每一个key,a[i]为key对应的值;

Awk取文件中的指定数据

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

[root@jump-v4 ~]# cat a.txt

123.122.123.12 12121212

121.2332.121.11 232323

255.255.255.255 21321

123.122.123.12 12121212

123.122.123.12 1212121er2

123.122.123.12 12121212eer

123.122.123.12 12121212ere

255.255.255.255 21321

121.2332.121.11 232323

255.255.255.255 21321

[root@jump-v4 ~]# cat a.txt|awk '{print $1}'

123.122.123.12

121.2332.121.11

255.255.255.255

123.122.123.12

123.122.123.12

123.122.123.12

123.122.123.12

255.255.255.255

121.2332.121.11

255.255.255.255

[root@jump-v4 ~]# cat a.txt|awk '{print $1}'|sort|uniq -c

      2 121.2332.121.11

      5 123.122.123.12

      3 255.255.255.255

[root@jump-v4 ~]# cat a.txt|awk '{print $1}'|sort|uniq -c|awk '{print $2,$1}'

121.2332.121.11 2

123.122.123.12 5

255.255.255.255 3

[root@jump-v4 ~]# cat a.txt|awk '{print $1}'|sort|uniq -c|awk '{print $2,$1}'|sort -k2 -rn

123.122.123.12 5

255.255.255.255 3

121.2332.121.11 2

linux文件按大小来排序

1

2

3

4

5

6

[root@cdn ~]# ls -s | sort -k 1 -n

表示对第一个字段(即文件大小)按数值大小进行排序;

如果想倒序,可以增加-r参数;

sort命令可进行排序;

-k参数表示对第几个字段进行排序;

ls -s:第一列显示的是文件大小

定时删除resin日志的脚本,每小时删除一次

1

2

3

4

5

6

[root@cdn ~]# cat resin-log.sh

#!/bin/bash

cd /data/log/resin && find /data/log/resin \( -name "*jvm-app-0.log.*" -a ! -name "*.gz" \) -a -mmin +30 -exec gzip  {} \;

[root@cdn ~]# crontab -l

0 * * * * /bin/bash -x /root/resin-log.sh >/dev/null 2>&1

awk 获取某些列的某些行(打印或不打印第几行)

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

NR==n 表示打印第n行

NR!=n 表示不打印第n行

1)取test.txt文件中的第1,2列,不打印第一行

[root@bz4citestap1014 app_zhibiao.sh]# cat test.txt

wang 11 aa

shi  22 bb

kevin 33 cc

grace 44 dd

hui 55 ee

[root@bz4citestap1014 app_zhibiao.sh]# awk 'NR!=1 {print $1,$2}' test.txt

shi 22

kevin 33

grace 44

hui 55

2)取test.txt文件中的第3列的第2行

[root@bz4citestap1014 app_zhibiao.sh]# awk 'NR==2 {print $3}' test.txt 

bb

awk中的"匹配"与"不匹配"

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

~ 匹配正则

!~ 不匹配正则

== 等于

!= 不等于

[root@kevin~]# cat test.txt

afjdkj 80

lkdjfkja 8080

dfjj 80

jdsalfj 808080

jasj 80

jg 80

linuxidc 80

80 ajfkj

asf 80

80 linuxidc

wang bo

kevin grace

ha  80880

1) 打印上面test文件中第二列匹配80开头并以80结束的行

[root@kevin~]# awk '{if($2~/^80$/)print}' test.txt

afjdkj 80

dfjj 80

jasj 80

jg 80

linuxidc 80

asf 80

2)打印上面test文件中第二列中不匹配80开头并以80结束的行

[root@kevin~]# awk '{if($2!~/^80$/)print}' test.txt

lkdjfkja 8080

jdsalfj 808080

80 ajfkj

80 linuxidc

wang bo

kevin grace

ha  80880

3)打印上面test文件中第二列是"bo"的行

[root@kevin~]# cat test.txt |awk '{if($2=="bo")print}'

wang bo

AWK的内置变量(NF、NR、FNR、FS、OFS、RS、ORS)

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

81

82

83

84

85

86

87

88

89

90

91

92

93

94

95

96

97

98

99

100

101

102

103

104

105

106

107

108

109

110

111

112

113

114

115

116

117

118

119

120

121

122

123

124

125

126

127

128

129

130

131

132

133

134

135

136

137

138

139

140

141

142

143

144

145

146

147

148

149

150

151

152

153

154

155

156

157

158

159

160

161

162

163

164

165

166

167

168

169

170

171

172

173

174

175

176

177

178

179

180

181

182

183

184

185

186

187

188

189

190

191

192

193

194

195

196

197

198

199

200

NF   字段个数,(读取的列数)

NR   记录数(行号),从1开始,新的文件延续上面的计数,新文件不从1开始

FNR  读取文件的记录数(行号),从1开始,新的文件重新从1开始计数

FS   输入字段分隔符,默认是空格

OFS  输出字段分隔符 默认也是空格

RS   输入行分隔符,默认为换行符

ORS  输出行分隔符,默认为换行符

示例文件test

[rootkevin ~]# cat test

zhong guo ren is noce!

beijing is a good city。

sheg as juf 88u kk

halt:x:7:0:halt /sbin:/sbin/halt

operator x 0:operator /root:/sbin/nologin

1)NF:读取记录的字段数(列数)

[rootkevin ~]# awk -F" " '{print "字段数: " NF}' test

字段数: 5

字段数: 5

字段数: 5

字段数: 2

字段数: 4

如上,awk在读取文件时,按行读取,每一行的字段数(列数),赋值给内置变量NF,打印出来的就是每行的字段总数。

[rootkevin ~]# awk '{print $NF}' test

noce!

city。

kk

/sbin:/sbin/halt

/root:/sbin/nologin

如果有需求,只需要最后一列的数据,由于每一行的列数不一,最后一列无法指定固定的列数,可以使用NF来表示列数$NF表示打印出等于总列数的那一列的数据,

显而易见就是打印最后一列的数据。

2)NR:读取文件的行数(在某些应用场景中可以当作行号来使用)

[rootkevin ~]# awk '{print "行号为:" NR}' test

行号为:1

行号为:2

行号为:3

行号为:4

行号为:5

如上,打印出读取文件的行数,因为是按行读取,在应用场景中,行数可以等同于行号,用来输出对应行的行号,NR 还可以用作判断输出,如下简单例子:

[rootkevin ~]# awk '{if(NR>2)print "行号为:" NR }' test

行号为:3

行号为:4

行号为:5

3)FNR:读取文件的行数,但是和"NR"不同的是当读取的文件有两个或两个以上时,NR读取完一个文件,行数继续增加 而FNR重新从1开始记录

[rootkevin ~]# cp test test1

[rootkevin ~]# awk '{print "NR:"NR "FNR:"FNR}' test test1     

NR:1FNR:1

NR:2FNR:2

NR:3FNR:3

NR:4FNR:4

NR:5FNR:5

NR:6FNR:1

NR:7FNR:2

NR:8FNR:3

NR:9FNR:4

NR:10FNR:5

打印的两列之间加上空格

[rootkevin ~]# awk '{print "NR:"NR " " "FNR:"FNR}' test test1

NR:1 FNR:1

NR:2 FNR:2

NR:3 FNR:3

NR:4 FNR:4

NR:5 FNR:5

NR:6 FNR:1

NR:7 FNR:2

NR:8 FNR:3

NR:9 FNR:4

NR:10 FNR:5

由上可知,NR从一开始一直增加,FNR每读取到一个新的文件,行数重新从一开始增加。

有一个有趣的应用,比较两个文件A,B是否一致,以A作为参考,不一致的输出行号

[rootkevin ~]# cat A

a aa aaa 1

b bb bbb 2

c cc ccc

dd ddd 4

e ee eee 5

[rootkevin ~]# cat B

a aa aaa 1

b bb bbb 2

c cc ccc 3

dd ddd 4

e ee eee 5

[rootkevin ~]# awk '{if(NR==FNR){arry[NR]=$0}else{if(arry[FNR]!=$0){print FNR}}}' A B

3

4)FS:输入字段分割符,默认是以空格为分隔符,在日常中常常文本里面不都以空格分隔,此时就要指定分割符来格式化输入。

[rootkevin ~]# cat test2

a,b,c

1,2,3

aa,dd,ee

[rootkevin ~]# awk '{print $1}' test2            

a,b,c

1,2,3

aa,dd,ee

[rootkevin ~]# awk 'BEGIN{FS=","}{print $1}' test2

a

1

aa

使用-F参数也可以

[rootkevin ~]# awk -F"," '{print $1}' test2

a

1

aa

5)OFS:输出字段分割符,默认为空格,如果读进来的数据是以空格分割,为了需求可能要求输出是以"-"分割,可以使用OFS进行格式化输出。

[rootkevin ~]# cat test3

a aa aaa 1

b bb bbb 2

c cc ccc

dd ddd 4

e ee eee 5

[rootkevin ~]# awk 'BEGIN{FS=" ";OFS="--"}{print $1,$2,$3}' test3

a--aa--aaa

b--bb--bbb

c--cc--ccc

d--dd--ddd

e--ee--eee

[rootkevin ~]# awk -vOFS="|" 'NF+=0' test3

a|aa|aaa|1

b|bb|bbb|2

c|cc|ccc

d|dd|ddd|4

e|ee|eee|5

[rootkevin ~]# cat test6

172.10.10.10

172.10.10.11

172.10.10.12

172.10.10.13

172.10.10.14

[rootkevin ~]# awk 'BEGIN{FS=".";OFS="--"}{print $1,$2,$3}' test6     

172--10--10

172--10--10

172--10--10

172--10--10

172--10--10

6)RS:输入行分隔符,判断输入部分的行的起始位置,默认是换行符

[rootkevin ~]# cat test4

a,b,c

d,e,f

g,h,i

j,k,l

[rootkevin ~]# awk 'BEGIN{RS=","}{print}' test4

a

b

c

d

e

f

g

h

i

j

k

l

[rootkevin ~]#

这里说明一下,RS=","将以,为分割当作一行,即a被当作一行,b也被当作一行,但是细心的会发现和d之间是没有","的为什么也当作一行了呢,

是因为输入中c后面还有一个换行符\n 即,输入应该是a,b,c\n只不过\n我们看不到,输入中,a一行,b一行,c\nd一行但是输出的时候系统会将\n视为换行符,

所以看上去c和d是两行,实际上是一行。

7)ORS:输出行分割符,默认的是换行符,它的机制和OFS机制一样,对输出格式有要求时,可以进行格式化输出

[rootkevin ~]# cat test5

1 22,aa:bb

haha,hehe

aa bb cc

[rootkevin ~]# awk 'BEGIN{ORS=" "}{print}' test5

1 22,aa:bb haha,hehe aa bb cc

[rootkevin ~]# cat test6

172.10.10.10

172.10.10.11

172.10.10.12

172.10.10.13

172.10.10.14

[rootkevin ~]# awk 'BEGIN{ORS=","}{print}' test6

172.10.10.10,172.10.10.11,172.10.10.12,172.10.10.13,172.10.10.14,

也可以如下实现以","隔开放在一行

[rootkevin ~]# cat test6|xargs

172.10.10.10 172.10.10.11 172.10.10.12 172.10.10.13 172.10.10.14

[rootkevin ~]# cat test6|xargs|sed 's/ /,/g'

172.10.10.10,172.10.10.11,172.10.10.12,172.10.10.13,172.10.10.14

AWK对文件的"某一列进行去重"的做法      (命令: awk '{a[$n]=$0}END{for(i in a)print a[i]}' filename)

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

命令:awk '{a[$n]=$0}END{for(i in a)print a[i]}' filename

解释:对filename文件的第n列进行去重

举例:

1)对kevin.txt文件的第一列进行去重

[root@bobo tmp]# cat kevin.txt

ABB-仓库系统 ABB-pay-ce 2019-11-08 23:30:40

ABB-仓库系统 ABB-pay-ce 2019-11-08 23:31:14

ABB-仓库系统 ABB-pay-ce 2019-11-08 23:31:13

ABB-仓库系统 ABB-pay-ce 2019-11-08 23:31:13

ABB-仓库系统 ABB-pay-ce 2019-11-08 23:31:12

FFM_理财平台系统 FFM_scial 2019-11-09 11:34:37

ASI_账管服务整合 ASI-OPsmart 2019-11-09 13:12:34

ICS_智能客服系统 ICS_basic-pass 2019-11-11 15:01:53

IID_智惠存 IID_wmpayment 2019-11-12 15:38:53

SIX_安全基础工具 SIX_microservice_config 2019-11-11 19:34:45

DDI_茹能 DDI_from 2019-11-13 21:09:13

FFM_理财平台系统 FFM_scial 2019-11-13 21:27:08

SCC_信贷系统 SCC-index 2019-11-12 21:29:59

GGA_账务管理中心 GGA_IFPmar 2019-11-13 22:01:48

UPI_智能用户平台 UPI_CMSO 2019-11-13 22:23:26

UPI_智能用户平台 UPI_CMSO 2019-11-13 22:51:13

PMS_项目信息管理系统 PMS_PMSConsole 2019-11-13 10:10:16

FFM_理财平台系统 FFM_scial 2019-11-08 17:17:04

MPB_手机银行APP MPB_bizzManagement 2019-11-08 18:49:27

SIX_安全基础工具 SIX_microservice_config 2019-11-12 15:50:57

PMS_项目信息管理系统 PMS_PMSConsole 2019-11-08 21:27:22

CIM_渠道内部管理系统 CIM_cimservice 2019-11-13 17:06:27

CIM_渠道内部管理系统 CIM_cimbizz 2019-11-13 17:06:26

ASI_账管服务整合 ASI-OPsmart 2019-11-13 19:34:07

[root@bobo tmp]# awk '{a[$1]=$0}END{for(i in a)print a[i]}' kevin.txt

PMS_项目信息管理系统 PMS_PMSConsole 2019-11-08 21:27:22

ICS_智能客服系统 ICS_basic-pass 2019-11-11 15:01:53

CIM_渠道内部管理系统 CIM_cimbizz 2019-11-13 17:06:26

ASI_账管服务整合 ASI-OPsmart 2019-11-13 19:34:07

FFM_理财平台系统 FFM_scial 2019-11-08 17:17:04

SIX_安全基础工具 SIX_microservice_config 2019-11-12 15:50:57

ABB-仓库系统 ABB-pay-ce 2019-11-08 23:31:12

UPI_智能用户平台 UPI_CMSO 2019-11-13 22:51:13

DDI_茹能 DDI_from 2019-11-13 21:09:13

MPB_手机银行APP MPB_bizzManagement 2019-11-08 18:49:27

GGA_账务管理中心 GGA_IFPmar 2019-11-13 22:01:48

SCC_信贷系统 SCC-index 2019-11-12 21:29:59

2)对test.txt文件的第三列进行去重

[root@bobo tmp]# cat test.txt

1 anhui wangbo 90

2 henan hexin  78

3 shenzhen wangbo 89

4 shanghai zhoumen 98

5 liuzhou  hexin  96

6 xinhuang wangbo 77

7 suzhou  zhupin  95

8 ningbo  niuping 100

9 chongqing wangbo 93

10 meizhou  lishuyan 98

[root@bobo tmp]# awk '{a[$3]=$0}END{for(i in a)print a[i]}' test.txt

8 ningbo  niuping 100

9 chongqing wangbo 93

4 shanghai zhoumen 98

7 suzhou  zhupin  95

5 liuzhou  hexin  96

10 meizhou  lishuyan 98

AWK 将列转为行的做法

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

1)如下,将a1.txt文件中的列转为行,并用逗号隔开

[root@bobo tmp]# cat a1.txt              

1

2

3

4

5

[root@bobo tmp]# awk '{printf "%s,",$1}' a1.txt

1,2,3,4,5,

上面列转为行后,去掉最后一个逗号

[root@bobo tmp]# awk '{printf "%s,",$1}' a1.txt|sed 's/.$//'

1,2,3,4,5

[root@bobo tmp]# awk '{printf "%s,",$1}' a1.txt | awk '{sub(/.$/,"")}1'

1,2,3,4,5

# awk '{printf "%s,",$1}' a1.txt | awk '{printf $0"\b \n"}'

1,2,3,4,5

也就是说,shell去掉最后一个字符,有下面三种方式实现:

sed 's/.$//'

awk '{sub(/.$/,"")}1'

awk '{printf $0"\b \n"}' ufile

2)如下,将a2.txt文件中的列转为行,并用冒号隔开。

[root@bobo tmp]# cat a2.txt

a 1

b 2

c 3

d 4

注意下面实现的几种效果。

可以用$1,$2,...$n,也可以使用$0表示文件全部列转为行。

每列转为行后,行与行之间的隔开形式

[root@bobo tmp]# awk '{printf "%s,",$1$2}' a2.txt 

a1,b2,c3,d4,

[root@bobo tmp]# awk '{printf "%s,",$1,$2}' a2.txt 

a,b,c,d,

[root@bobo tmp]# awk '{printf "%s,",$1" "$2" "}' a2.txt

a 1 ,b 2 ,c 3 ,d 4 ,

[root@bobo tmp]# awk '{printf "%s,",$0}' a2.txt          

a 1,b 2,c 3,d 4,

[root@bobo tmp]# awk '{printf "%s,",$0}' a2.txt |sed 's/.$//'

a 1,b 2,c 3,d 4

3)将下面test.list文件中的列转为行,并逗号隔开

[root@bobo tmp]# cat test.list

PMS_项目信息管理系统 PMS_PMSConsole 2019-11-08 21:27:22

ICS_智能客服系统 ICS_basic-pass 2019-11-11 15:01:53

CIM_渠道内部管理系统 CIM_cimbizz 2019-11-13 17:06:26

下面两种方式实现效果一样

[root@bobo tmp]# awk '{printf "%s,",$1" "$2" "$3" "$4}' test.list

PMS_项目信息管理系统 PMS_PMSConsole 2019-11-08 21:27:22,ICS_智能客服系统 ICS_basic-pass 2019-11-11 15:01:53,CIM_渠道内部管理系统 CIM_cimbizz 2019-11-13 17:06:26,

[root@bobo tmp]# awk '{printf "%s,",$0}' test.list               

PMS_项目信息管理系统 PMS_PMSConsole 2019-11-08 21:27:22,ICS_智能客服系统 ICS_basic-pass 2019-11-11 15:01:53,CIM_渠道内部管理系统 CIM_cimbizz 2019-11-13 17:06:26,

去掉最后一个逗号

[root@bobo tmp]# awk '{printf "%s,",$0}' test.list|sed 's/.$//'

PMS_项目信息管理系统 PMS_PMSConsole 2019-11-08 21:27:22,ICS_智能客服系统 ICS_basic-pass 2019-11-11 15:01:53,CIM_渠道内部管理系统 CIM_cimbizz 2019-11-13 17:06:26

shell将多行转为一行(或将多行中的某一列转化为行)的做法

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

81

82

83

84

85

常习惯于使用xargs将多行转为一行,示例如下:

1)将ip.list文件中的每行ip转化到一行里面,并使用逗号隔开:

[root@localhost ~]# cat ip.list

192.168.10.10

192.168.10.11

192.168.10.12

192.168.10.13

192.168.10.14

192.168.10.15

192.168.10.16

192.168.10.17

192.168.10.18

192.168.10.19

192.168.10.20

使用xargs命令就会将管道符|前面输出内容放在一行,并默认使用空格隔开

[root@localhost ~]# cat ip.list|xargs

192.168.10.10 192.168.10.11 192.168.10.12 192.168.10.13 192.168.10.14 192.168.10.15 192.168.10.16 192.168.10.17 192.168.10.18 192.168.10.19 192.168.10.20

再结合sed将空格替换为逗号

[root@localhost ~]# cat ip.list|xargs|sed -i 's/ /,/g'

sed: no input files

xargsecho: terminated by signal 13

注意:

sed使用-i参数时,后面必须要跟具体的文件名,-i参数表示替换效果已在文件中生效!

如果不使用-i参数,则表示替换效果仅仅在当前终端展示里生效,并不会在文件中生效!

[root@localhost ~]# cat ip.list|xargs|sed 's/ /,/g'  

192.168.10.10,192.168.10.11,192.168.10.12,192.168.10.13,192.168.10.14,192.168.10.15,192.168.10.16,192.168.10.17,192.168.10.18,192.168.10.19,192.168.10.20

注意:

这里替换结果不能直接重定向到原来的文件ip.list中,因为前面cat命令正在读,这里如果将替换结果重定向到ip.list文件中,会造成ip.list文件为空!

应该重定向到别的一个文件中,然后再mv到原来的ip.list文件

[root@localhost ~]# cat ip.list|xargs|sed 's/ /,/g' > ip.list_tmp

[root@localhost ~]# mv ip.list_tmp ip.list

mv: overwrite ‘ip.list’? y

[root@localhost ~]# cat ip.list

192.168.10.10,192.168.10.11,192.168.10.12,192.168.10.13,192.168.10.14,192.168.10.15,192.168.10.16,192.168.10.17,192.168.10.18,192.168.10.19,192.168.10.20

2)将test.txt文件中的内容放在一行,并使用<<<<<<隔开

[root@localhost ~]# cat test.txt

root:x:0:0:root:/root:/bin/bash

bin:x:1:1:bin:/bin:/sbin/nologin

daemon:x:2:2:daemon:/sbin:/sbin/nologin

adm:x:3:4:adm:/var/adm:/sbin/nologin

[root@localhost ~]# cat test.txt|xargs|sed 's/ /<<<<<'          

root:x:0:0:root:/root:/bin/bash<<<<</bin:/sbin/nologin<<<<</sbin:/sbin/nologin<<<<</var/adm:/sbin/nologin

3)将kevin.txt文件中的第二列内容放在一行,并使用分开隔开

[root@localhost ~]# cat kevin.txt

wangbo 90 abc

zhangkai 93 ccs

liuru 88 ffn

mamin 95 efe

huomei 85 cbs

haoke 91 mmn

[root@localhost ~]# cat kevin.txt|awk '{print $2}'|xargs

90 93 88 95 85 91

[root@localhost ~]# cat kevin.txt|awk '{print $2}'|xargs|sed 's/ /;/g'

90;93;88;95;85;91

再看看下面的转化

[root@localhost ~]# cat kevin.txt

wangbo 90 abc

zhangkai 93 ccs

liuru 88 ffn

mamin 95 efe

huomei 85 cbs

haoke 91 mmn

[root@localhost ~]# cat kevin.txt|awk '{print $1":"$2}'

wangbo:90

zhangkai:93

liuru:88

mamin:95

huomei:85

haoke:91

[root@localhost ~]# cat kevin.txt|awk '{print $1":"$2}'|xargs

wangbo:90 zhangkai:93 liuru:88 mamin:95 huomei:85 haoke:91

[root@localhost ~]# cat kevin.txt|awk '{print $1":"$2}'|xargs|sed 's/ /,/g'

wangbo:90,zhangkai:93,liuru:88,mamin:95,huomei:85,haoke:91

shell去掉最后一个字符的做法

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

删除最后的那个字符,下面三种方法可以实现:

1)sed 's/.$//'

2)awk '{sub(/.$/,"")}1'

3)awk '{printf $0"\b \n"}' ufile

举例如下:

1)删除test.txt 文件中所有行的最后一个字符

[root@bobo tmp]# cat test.txt

www.kevin.com/

www.haha.com//uh

www.hehe.com/a

[root@bobo tmp]# cat test.txt|sed 's/.$//'

www.kevin.com

www.haha.com//u

www.hehe.com/

[root@bobo tmp]# cat test.txt|awk '{sub(/.$/,"")}1'

www.kevin.com

www.haha.com//u

www.hehe.com/

[root@bobo tmp]# awk '{printf $0"\b \n"}' test.txt

www.kevin.com

www.haha.com//u

www.hehe.com/

2)删除bo.txt 文件中所有行的最后一个字符

[root@bobo tmp]# cat bo.txt

192.168.10.154

192.168.10.159

192.168.10.160

model_C

model_D

stop_time_out=120

start_time_out=400

[root@bobo tmp]# cat bo.txt|sed 's/.$//'

192.168.10.15

192.168.10.15

192.168.10.16

model_

model_

stop_time_out=12

start_time_out=40

[root@bobo tmp]# cat bo.txt|awk '{sub(/.$/,"")}1'

192.168.10.15

192.168.10.15

192.168.10.16

model_

model_

stop_time_out=12

start_time_out=40

[root@bobo tmp]# awk '{printf $0"\b \n"}' bo.txt

192.168.10.15

192.168.10.15

192.168.10.16

model_

model_

stop_time_out=12

start_time_out=40

shell取匹配行的前后n行

【shell】用 grep 查找包含字符串的文件|grep 过滤|取匹配行的前后n行_bandaoyu的note-CSDN博客_grep查询包含关键字的文件

awk如何调用带参数的自定义shell函数

刚刚有个网友问到在awk中如何调用shell自定义函数,之前没有用过,摸索了下,创建函数后只需要设置成全局函数就可以直接使用awk的两种方式调用了,代码如下:

点击(此处)折叠或打开

  1. #!/bin/bash
  2. a(){
  3. echo "hello admin";
  4. }
  5. export -f a
  6. awk 'BEGIN{"a"|getline test;print test }'
  7. awk 'BEGIN{system("a")}'

function add1()
{
result=`expr $1 + 1`
echo $result
}

export -f add1
awk 'BEGIN{p=3;"add1 "p|getline result;print result }'

awk格式化输出

和C语言的printf一样用

BEGIN { printf("%s:%-5.2f \n",“name”, 33.698); };

【Shell】awk命令--输出某列,列求和,列求平均值,列最大值,列去重复,取倒列,过滤行,匹配,不匹配,内置变量|定义分隔符|多个分隔符相关推荐

  1. 【Shell】awk命令--输出某列,列求和,列求平均值,列最大值,列去重复,取倒列,过滤行,匹配,不匹配,内置变量|定义分隔符|多个分隔符...

    目录 awk基本语法 awk输出某几列 awk遍历文件行处理 awk中运行shell命令 方法1:awk 内置函数system 方法2 通过awk  print 交给bash awk中运行shell命 ...

  2. awk取文本列_awk命令结构/内置变量/获取文本某行或某列

    awk脚本基本结构 awk 'BEGIN{ print "start" }pattern{ commands }END{ print "end" }' file ...

  3. shell awk命令详解

    shell awk命令详解 awk原理 格式 实操 相关内建变量 简易需求 进阶操作 高阶操作 awk原理 逐行读取文本,默认时以空格或tab键为分隔符进行分隔,将分隔所得的各个字段保存到内建变量中, ...

  4. linux awk拼接字符串,shell awk命令字符串拼接

    摘要 腾兴网为您分享:shell awk命令字符串拼接,智联招聘,心视界,同花顺,手机管家等软件知识,以及一师一优课一课一名师登录,去视频水印,防沉迷解除,兼职猫招聘网,c4d渲染插件,社会实践活动登 ...

  5. 命令 —— awk内置变量(NF,NR,FS,FILENAME)

    关于awk命令的几个内置变量(NF,NR,FS,FILENAME) 1.NF:支持记录域个数,在记录被读之后再设置例1 [root@redhat wilsontest]# pwd /tmp/wilso ...

  6. linux awk 内置变量实例

    awk 是一门非常优秀的文本处理工具,甚至可以上升作为一门程序设计语言. 它处理文本的速度是快得惊人的,现在很多基于shell 日志分析工具都可以用它完成.特点是设计简单,速度表现很好,本文将介绍aw ...

  7. awk 内置变量与自定义变量

    点击上方"生信科技爱好者",马上关注真爱,请置顶或星标 作者:ghostwu 原文:https://www.cnblogs.com/ghostwu/p/9085653.html A ...

  8. linux awk 内置变量使用介绍

    awk是个优秀文本处理工具,可以说是一门程序设计语言.下面是awk内置变量. 一.内置变量表 属性 说明 $0 当前记录(作为单个变量) $1~$n 当前记录的第n个字段,字段间由FS分隔 FS 输入 ...

  9. linux内置变量大全,(转)linux awk 内置变量使用介绍

    awk是个优秀文本处理工具,可以说是一门程序设计语言.下面是awk内置变量. 一.内置变量表 属性 说明 $0 当前记录(作为单个变量) $1~$n 当前记录的第n个字段,字段间由FS分隔 FS 输入 ...

最新文章

  1. C#读写xml文件最简单方法(操作配置文件)
  2. linux下iptables讲解
  3. BZOJ 2045 容斥原理
  4. 理论基础 —— 线性表 —— 顺序表
  5. STM8单片机 PWM无波形输出解决方法
  6. 关于hadoop2.4.1伪分布式系统的搭建
  7. mysql单个表_mysql – 哪个更有效:一个长单表还是分布表?为什么?
  8. sprint冲刺(第二天)
  9. 企业如何选择SSL证书?
  10. win版mysql下载_MYSQL下载及安装--windows版本
  11. 75道面试逻辑智力测试题内附详细答案
  12. C/C++语言经典、实用、趣味程序设计编程百例精解
  13. CCS 报警告 #10247-D
  14. 微服务网关SIA-GateWay使用指南 ===
  15. redis之AOF和RDB持久化
  16. 解决wordcloud导出图片不清楚
  17. matlab nlm,NLM.m · hr_yang/MatlabCode - Gitee.com
  18. “如果没有从事研发,学习自动化的我可能在装水表”
  19. python去掉两边空格,Python去除字符串两端空格的方法
  20. mysql8.0源代码解析_源码解读:MySQL 8.0 InnoDB无锁化设计的日志系统

热门文章

  1. 使用 egrep 过滤 MAC 地址
  2. MYCCL特征码定位器的详细使用
  3. NAT、V*N、隧道技术
  4. 邓白氏全球编码查询方法
  5. iOS 开发----个人开发者帐号升级为公司开发者帐号
  6. 五种常见的电子商务模式
  7. oracle 当前top sql,Oracle top 查询TOP SQL
  8. 三十多岁就别转行做算法了
  9. js websocket onClose 回调问题
  10. 2016全国大学生信息安全竞赛-web-WriteUp