Shell的操作说明书:https://www.runoob.com/linux/linux-shell.html

Shell的简介

Shell 是一个用 C 语言编写的程序,它是用户使用 Linux 的桥梁。Shell 既是一种命令语言,又是一种程序设计语言。Shell 是指一种应用程序,这个应用程序提供了一个界面,用户通过这个界面访问操作系统内核的服务。Ken Thompson 的 sh 是第一种 Unix Shell,Windows Explorer 是一个典型的图形界面 Shell。

Shell的解析器

Linux提供的Shell解析器有:

[hadoop101 ~]$ cat /etc/shells
/bin/sh
/bin/bash
/sbin/nologin
/bin/dash
/bin/tcsh
/bin/cshbash和sh的关系
[hadoop101 bin]$ ll | grep bash
-rwxr-xr-x. 1 root root 941880 5月  11 2016 bash
lrwxrwxrwx. 1 root root      4 5月  27 2017 sh -> bashCentos默认的解析器是bash
[hadoop102 bin]$ echo $SHELL
/bin/bash

Shell脚本入门

脚本以#!/bin/bash开头(指定解析器)

第一个Shell脚本:helloworld
(1)需求:创建一个Shell脚本,输出helloworld
(2)案例实操:
[hadoop101 datas]$ touch helloworld.sh
[hadoop101 datas]$ vi helloworld.sh在helloworld.sh中输入如下内容
#!/bin/bash
echo "helloworld"
(3)脚本的常用执行方式
第一种:采用bash或sh+脚本的相对路径或绝对路径(不用赋予脚本+x权限)
sh+脚本的相对路径[hadoop101 datas]$ sh helloworld.sh Helloworld
sh+脚本的绝对路径[hadoop101 datas]$ sh /home/atguigu/datas/helloworld.sh helloworld
bash+脚本的相对路径[hadoop101 datas]$ bash helloworld.sh Helloworld
bash+脚本的绝对路径[hadoop101 datas]$ bash /home/atguigu/datas/helloworld.sh Helloworld第二种:采用输入脚本的绝对路径或相对路径执行脚本(必须具有可执行权限+x)
(a)首先要赋予helloworld.sh 脚本的+x权限
[hadoop101 datas]$ chmod 777 helloworld.sh
(b)执行脚本相对路径[hadoop101 datas]$ ./helloworld.sh Helloworld绝对路径[hadoop101 datas]$ /home/atguigu/datas/helloworld.sh Helloworld
注意:第一种执行方法,本质是bash解析器帮你执行脚本,所以脚本本身不需要执行权限。第二种执行方法,本质是脚本需要自己执行,所以需要执行权限。第二个Shell脚本:多命令处理
(1)需求: 在/home/atguigu/目录下创建一个banzhang.txt,在banzhang.txt文件中增加“I love cls”。
(2)案例实操:
[hadoop101 datas]$ touch batch.sh
[hadoop101 datas]$ vi batch.sh在batch.sh中输入如下内容
#!/bin/bashcd /home/atguigu
touch cls.txt
echo "I love cls" >>cls.txt

Shell中的变量

系统变量

1. 常用系统变量:$HOME、$PWD、$SHELL、$USER等

自定义变量

1.基本语法

(1)定义变量:变量=值

(2)撤销变量:unset 变量

(3)声明静态变量:readonly变量,注意:不能unset

2.变量定义规则:

(1)变量名称可以由字母、数字和下划线组成,但是不能以数字开头,环境变量名建议大写。

(2)等号两侧不能有空格

(3)在bash中,变量默认类型都是字符串类型,无法直接进行数值运算。

(4)变量的值如果有空格,需要使用双引号或单引号括起来。

特殊变量:$n

1 、$n   (功能描述:n为数字,$0代表该脚本名称,$1-$9代表第一到第九个参数,十以上的参数,十以上的参数需要用大括号包含,如${10})。

特殊变量:$#

$#   (功能描述:获取所有输入参数个数,常用于循环)。

特殊变量:$*、$@

$*   (功能描述:这个变量代表命令行中所有的参数,$*把所有的参数看成一个整体)

$@  (功能描述:这个变量也代表命令行中所有的参数,不过$@把每个参数区分对待)

特殊变量:$?

$?  (功能描述:最后一次执行的命令的返回状态。如果这个变量的值为0,证明上一个命令正确执行;如果这个变量的值为非0(具体是哪个数,由命令自己来决定),则证明上一个命令执行不正确了。)

运算符

(1)“$((运算式))”或“$[运算式]”

(2)expr  + , - , \*,  /,  %    加,减,乘,除,取余

注意:expr运算符间要有空格

条件判断

[ condition ](注意condition前后要有空格)

注意:条件非空即为true,[ atguigu ]返回true,[] 返回false。

常用判断条件

(1)两个整数之间比较

= 字符串比较

-lt 小于(less than)                  -le 小于等于(less equal)

-eq 等于(equal)                     -gt 大于(greater than)

-ge 大于等于(greater equal)   -ne 不等于(Not equal)

(2)按照文件权限进行判断

-r 有读的权限(read)              -w 有写的权限(write)

-x 有执行的权限(execute)

(3)按照文件类型进行判断

-f 文件存在并且是一个常规的文件(file)

-e 文件存在(existence)          -d 文件存在并是一个目录(directory)

函数

basename基本语法:basename [string / pathname] [suffix]

功能描述:basename命令会删掉所有的前缀包括最后一个(‘/’)字符,然后将字符串显示出来。

选项:suffix为后缀,如果suffix被指定了,basename会将pathname或string中的suffix去掉。

[hadoop101 datas]$ basename /home/atguigu/banzhang.txt
banzhang.txt
[hadoop101 datas]$ basename /home/atguigu/banzhang.txt .txt
banzhang

dirname基本语法: dirname 文件绝对路径       (功能描述:从给定的包含绝对路径的文件名中去除文件名(非目录的部分),然后返回剩下的路径(目录的部分))

[hadoop101 ~]$ dirname /home/atguigu/banzhang.txt
/home/atguigu

自定义的函数

[ function ] funname[()]
{Action;[return int;]
}funname经验技巧
(1)必须在调用函数地方之前,先声明函数,shell脚本是逐行运行。不会像其它语言一样先编译。
(2)函数返回值,只能通过$?系统变量获得,可以显示加:return返回,如果不加,将以最后一条命令运行结果,作为返回值。return后跟数值n(0-255)

Shell工具(重点)

cut:cut的工作就是“剪”,具体的说就是在文件中负责剪切数据用的。cut 命令从文件的每一行剪切字节、字符和字段并将这些字节、字符和字段输出。

1.基本用法

cut [选项参数]  filename                         说明:默认分隔符是制表符

2.选项参数说明

选项参数

功能

-f

列号,提取第几列

-d

分隔符,按照指定分隔符分割列

[hadoop101 datas]$ touch cut.txt
[hadoop101 datas]$ vim cut.txt
dong shen
guan zhen
wo  wo
lai  lai
le  le切割cut.txt第一列
[hadoop101 datas]$ cut -d " " -f 1 cut.txt
dong
guan
wo
lai
le切割cut.txt第二、三列
[atguigu@hadoop101 datas]$ cut -d " " -f 2,3 cut.txt
shen
zhenwolaile切割ifconfig 后打印的IP地址
[atguigu@hadoop101 datas]$ ifconfig eth0 | grep "inet addr" | cut -d: -f 2 | cut -d" " -f1
192.168.1.102

sed:sed是一种流编辑器,它一次处理一行内容。处理时,把当前处理的行存储在临时缓冲区中,称为“模式空间”,接着用sed命令处理缓冲区中的内容,处理完成后,把缓冲区的内容送往屏幕。接着处理下一行,这样不断重复,直到文件末尾。文件内容并没有改变,除非你使用重定向存储输出。

  1. 基本用法

sed [选项参数]  ‘command’  filename

  1. 选项参数说明

选项参数

功能

-e

直接在指令列模式上进行sed的动作编辑。

  1. 命令功能描述

命令

功能描述

a

新增,a的后面可以接字串,在下一行出现

d

删除

s

查找并替换

awk:一个强大的文本分析工具,把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行分析处理。

  1. 基本用法

awk [选项参数] ‘pattern1{action1}  pattern2{action2}...’ filename

pattern:表示AWK在数据中查找的内容,就是匹配模式

action:在找到匹配内容时所执行的一系列命令

  1. 选项参数说明

选项参数

功能

-F

指定输入文件折分隔符

-v

赋值一个用户定义变量

awk的内置变量

变量

说明

FILENAME

文件名

NR

已读的记录数

NF

浏览记录的域的个数(切割后,列的个数)

sort

sort命令是在Linux里非常有用,它将文件进行排序,并将排序结果标准输出。

  1. 基本语法

sort(选项)(参数)

选项

说明

-n

依照数值的大小排序

-r

以相反的顺序来排序

-t

设置排序时所用的分隔字符

-k

指定需要排序的列

参数:指定待排序的文件列表

sort:sort命令是在Linux里非常有用,它将文件进行排序,并将排序结果标准输出。

  1. 基本语法     sort(选项)(参数)

选项

说明

-n

依照数值的大小排序

-r

以相反的顺序来排序

-t

设置排序时所用的分隔字符

-k

指定需要排序的列

参数:指定待排序的文件列表

Shell面试

问题1:使用Linux命令查询file1中空行所在的行号

答案:[hadoop102 datas]$ awk '/^$/{print NR}' sed.txt5

问题2:有文件chengji.txt内容如下:

张三 40

李四 50

王五 60

使用Linux命令计算第二列的和并输出

[hadoop102 datas]$ cat chengji.txt | awk -F " " '{sum+=$2} END{print sum}'150

问题1:Shell脚本里如何检查一个文件是否存在?如果不存在该如何处理?

#!/bin/bashif [ -f file.txt ]; thenecho "文件存在!"elseecho "文件不存在!"fi

问题1:用shell写一个脚本,对文本中无序的一列数字排序


SUM=55[root@CentOS6-2 ~]# sort -n test.txt|awk '{a+=$0;print $0}END{print "SUM="a}'12345678910SUM=55

问题1:请用shell脚本写出查找当前文件夹(/home)下所有的文本文件内容中包含有字符”shen”的文件名称

[hadoop102 datas]$ grep -r "shen" /home | cut -d ":" -f 1/home/atguigu/datas/sed.txt/home/atguigu/datas/cut.txt

read读取控制台输入

基本语法

read(选项)(参数)

选项:-p:指定读取值时的提示符;-t:指定读取值时等待的时间(秒)。

参数:       变量:指定读取值的变量名

[hadoop101 datas]$ touch read.sh
[hadoop101 datas]$ vim read.sh#!/bin/bash
read -t 7 -p "Enter your name in 7 seconds " NAME
echo $NAME
[hadoop101 datas]$ ./read.sh
Enter your name in 7 seconds xiaoze
xiaoze

大数据云计算——shell组件相关推荐

  1. 大数据云计算——Oozie组件

    Oozie Oozie的简介 是一个轻量的架构.一个基于工作流引擎的开源框架,由Cloudera公司贡献给Apache,提供对Hadoop MapReduce.Pig Jobs的任务调度与协调.Ooz ...

  2. 大数据云计算学习路线

    大数据.云计算系统顶级架构师课程学习路线图 大数据之Linux+大数据开发篇 Java Linux基础 Shell编程 Hadoop2.x HDFS YARN  MapReduce ETL数据清洗Hi ...

  3. 大数据生态圈常用组件(二):概括介绍、功能特性、适用场景

    三更灯火五更鸡,正是男儿读书时. 小编整理了一些常用的大数据组件,使用场景及功能特性,希望对后浪有所帮助. 分类 名称 简介 功能特点 使用场景 大数据存储 HDFS HDFS是一个分布式的文件系统, ...

  4. 大数据云计算技术概述_云计算–概述,类型,优势和未来范围

    大数据云计算技术概述 Cloud Computing is a type of online on-demand service that includes resources like comput ...

  5. 网易微专业python数据分析统计服_40套大数据云计算高级实战精品,数据分析,数据仓库,数据爬虫,项目实战,用户画像, ......

    40套大数据云计算高级实战精品,数据分析,数据仓库,数据爬虫,项目实战,用户画像,日志分析,Hadoop,Flink,Spark,Kafka,Storm,Docker,ElaticStack等视频教程 ...

  6. 软件开发全套视频教程汇总(javaSE,javaEE,linux,android开发,C# ,web前端,大数据云计算,数据挖掘,web前端,php开发,UI设计,C++开发,3D视频)

    软件开发全套视频教程汇总(javaSE,javaEE,linux,android开发,C# ,web前端,大数据云计算,数据挖掘,web前端,php开发,UI设计,C++开发,3D视频) 这是我以前学 ...

  7. 辽宁鞍山与中国联通签订智慧城市大数据云计算中心项目

    日前,鞍山市政府与中国联通辽宁省分公司<鞍山市智慧城市大数据云计算中心项目>签约仪式在胜利宾馆举行.市长赵爱军出席签约仪式并会见中国联通辽宁省分公司党委书记.总经理买彦州. 赵爱军在会见中 ...

  8. 马云致投资者公开信:大数据云计算是阿里未来十年核心战略之一

    与此同时,阿里巴巴董事局主席马云以"一指禅"的电脑输入方式亲自写就一篇致股东公开信,详细阐述了阿里未来战略.平台优势.资本市场乃至竞争对手等外界关心的问题. 其中,特别指出全球化. ...

  9. 鹿晓亮:基于大数据云计算的语音识别深度平台

    2019独角兽企业重金招聘Python工程师标准>>> 鹿晓亮:基于大数据云计算的语音识别深度平台 近几年,由于深度学习.大数据以及云计算在语音识别中得到广泛应用,语音识别的核心效果 ...

最新文章

  1. 沃顿商学院:价格杠杆,企业竞争的底层逻辑
  2. 全新的 Fragment 通信方式
  3. 第一句就是定义了一种ptrfun的C++类型
  4. wordpress如何使用vim和markdown写blog
  5. Javascript:学习笔记
  6. 协同oa办公系统在线演示下载地址
  7. 彻底卸载VS2015的工具及使用方法,亲测有效!!!
  8. 使用ExtendSim进行可靠性分析仿真
  9. python制作电子签名
  10. Knowledge Graph Embedding: A Survey of Approaches and Applications (2)
  11. 云学堂丁云鹏:变成别人,还不如成为自己!
  12. Word文档中怎么删除空白页?删除空白页的五种方法
  13. HDU:1998 奇数阶魔方(规律填数)
  14. VVC帧内预测(一)
  15. Python:实现floor向下取整算法(附完整源码)
  16. Matlab_逐步回归
  17. 解决Swagger-ui.html弹窗问题
  18. 企业电子招标采购源码之电子招标投标全流程!
  19. CRC16_MODBUS
  20. CMM与CMMI的关系软件全面质量管理的思想体系

热门文章

  1. 揭秘世界上那些被埋藏地下最古老的酒!
  2. 几种常见的IPC(进程间通信)学习笔记
  3. AidLux“实时头发分割”案例源码详解
  4. 植物微生物组文章目录(181123)
  5. 2021年茶艺师(中级)考试报名及茶艺师(中级)复审考试
  6. word2vec相关论文
  7. matlab中trapz的用,matlab使用trapz函数对积分的运算
  8. HTML如何做出分割线效果
  9. Android 信号量signal使用注意的问题
  10. 明日之后android和ios,明日之后ios和安卓能一起玩吗