docker容器网络及其配置


文章目录

  • docker容器网络及其配置
    • 虚拟化网络
    • 单主机与多主机的Docker网络
    • 单节点容器间通信
    • 不同节点容器间通信
    • Docker网络驱动
    • 选择Docker网络驱动的基本原则
    • docker容器网络
    • docker的4种网络模式
      • bridge模式
      • container模式
      • host模式
      • none模式
    • Linux内核实现名称空间的创建
      • ip netns命令
      • 创建Network Namespace
      • 操作Network Namespace
      • 转移设备
      • veth pair
      • 创建veth pair
      • 实现Network Namespace间通信
      • veth设备重命名
    • 四种网络模式配置
      • bridge模式配置
  • 在创建容器时添加--network bridge与不加--network选项效果是一致的
      • none模式配置
      • container模式配置
      • host模式配置
    • 容器的常用操作
      • 查看容器的主机名
      • 在容器启动时注入主机名
      • 手动指定容器要使用的DNS
      • 手动往/etc/hosts文件中注入主机名到IP地址的映射
    • 自定义docker0桥的网络属性信息
      • docker远程连接
      • docker创建自定义桥

虚拟化网络

Network Namespace 是 Linux 内核提供的功能,是实现网络虚拟化的重要功能,它能创建多个隔离的网络空间,它们有独自网络栈信息。不管是虚拟机还是容器,运行的时候仿佛自己都在独立的网络中。而且不同Network Namespace的资源相互不可见,彼此之间无法通信。

假如我们的物理机有4块物理网卡,我们要创建4个名称空间,而这些设备是可以单独关联至某个单独的名称空间使用的

如上图所示,把第一块网卡分配给第一个名称空间,第二块分给第二个名称空间,第三块分给第三个名称空间,第四块分给第四个名称空间。此时其它名称空间都是看不见当前所在名称空间的,因为一个设备只能属于一个名称空间。

这种方式使得每一个名称空间都能配置IP地址,并且与外部网络直接通信,因为它们使用的是物理网卡。

但如果我们所拥有的名称空间数量超过物理网卡数量呢?此时我们可以使用虚拟网卡设备,用纯软件的方式来模拟一组设备来使用。Linux内核级支持2种级别设备的模拟,一种是二层设备,一种是三层设备。

Linux内核模拟的二层设备,每个网络接口设备是成对出现的,可以模拟为一根网线的两端,其中一端模拟主机的虚拟网卡,另一端模拟虚拟交换机,就相当于让一个主机连到一个交换机上去。Linux内核原生支持二层虚拟网桥设备,即用软件虚拟交换机的功能。如下图所示:

那么此时如果再有一个名称空间,它有创建了一对虚拟网卡,一端连接名称空间,一端连接虚拟交换机,此时就相当于两个名称空间连接到了同一个交换机网络中,此时如果两个名称空间的网卡地址配置在同一网段,那么很显然他们之间是可以互相通信的。如下图所示:

从网络通信的物理设备到网卡都是用纯软件的方式来实现,这种实现方式就叫做虚拟化网络。

单主机与多主机的Docker网络

  • 从覆盖范围上可以将Docker网络划分为单主机上的网络和跨主机的网络。
  • 对于大多数单主机部署来说,可以使用网络在容器之间、容器与主机之间进行数据交换。
  • 在多主机部署中,除了需要考虑单主机上容器之间的通信,更重要的是要解决多主机之间的通信。
  • Docker网络作用域可以是local(本地)或swarm(集群)。local作用域仅在Docker主机范围内提供连接和网络服务。swarm作用域则提供集群范围的连接和网络服务。

单节点容器间通信

如果在同一个物理机上的两个容器想通信,我们的办法就是在这台主机上建立一个虚拟交换机,而后让两个容器各自用纯软件的方式创建一对虚拟网卡,一半在容器上,一半在虚拟交换机上,从而实现通信。如下图所示:

这就是单节点上两个容器间的通信方式。单节点上两个容器之间的通信也有一些复杂情况,比如我们期望构建的容器要跨交换机通信呢?

我们做两个虚拟交换机,两个交换机上各自连接不同的容器,如上图所示,此时如果要C1和C3通信又该如何实现呢?其实我们可以通过名称空间创建一对网卡,一端连SW1,另一端连SW2,这样一来两个交换机就连起来了,照理说这样一来C1和C3这两个处于不同交换机的容器就可以实现通信了,但是这样一来又存在另一个问题,那就是如果C1和C3在不同网络呢?如果不在同一网络我们就必须要通过路由转发才能使其通信,也就是我们得在两台交换机之间加一个路由器,其实Linux内核本身就是支持路由转发的,只需要我们将路由转发功能打开即可。此时我们可以再启动一个容器,这个容器里面就跑一个内核,并将其转发功能打开,这样一来就模拟了一台路由器,通过这台路由器来实现路由转发。

不同节点容器间通信

如上图所示,此时如果C1要与C5进行通信又该如何实现呢?如果我们采用桥接的方式,很容易产生广播风暴,因此,在大规模的虚拟机或容器的场景中,使用桥接的方式无疑是自取灭亡,所以我们不应该使用桥接的方式来实现通信。

如果一来,我们既不能桥接,又需要与外部来实现通信,那就只能使用NAT技术了。通过DNAT将容器的端口暴露到宿主机上,通过访问宿主机的端口来实现访问容器内部的目的,而在请求端我们需要做SNAT将数据包通过宿主机的真实网卡转发出去。但这样做的话,因为要进行两次NAT转换,所以效率会比较低。

此时我们可以采用一种叫做Overlay Network(叠加网络)的技术来实现不同节点间容器的相互通信功能。

Overlay Network会将报文进行隧道转发,也就是在报文发出去之前要为其添加一个IP首部,也就是上图的1.1和1.2这部分,这里的1.1是源,1.2是目标,当宿主机2收到报文后解封装发现要找的目标容器是C2,于是把包转发给C2。

Docker网络驱动

  • bridge:桥接网络,这是默认的网络驱动程序。
  • host:主机网络。
  • overlay:覆盖网络。
  • macvlan:将MAC地址分配给容器,使容器作为网络上的物理设备。
  • none:表示关闭容器的所有网络连接。
    网络插件:可以通过Docker安装和使用第三方网络插件。

选择Docker网络驱动的基本原则

  • 用户自定义桥接网络最适合用于同一个Docker主机上运行的多个容器之间需要通信的场景。
  • host网络最适用于当网络栈不能与Docker主机隔离,而容器的其他方面需要被隔离的场景。
  • overlay网络适用于不同Docker主机上运行的容器需要通信的场景,或者多个应用程序通过Swarm集群服务一起工作的场景。
  • macvlan网络适用于从虚拟机迁移过来的场景,或者容器需要像网络上的物理机一样,拥有独立MAC地址的场景。
  • 第三方网络插件适用于将Docker与专用网络栈进行集成的场景。

docker容器网络

Docker在安装后自动提供3种网络,可以使用docker network ls命令查看

[root@localhost ~]# docker network ls
NETWORK ID     NAME      DRIVER    SCOPE
cc99e2970450   bridge    bridge    local
251fadf495db   host      host      local
886d7812e11c   none      null      local

Docker使用Linux桥接,在宿主机虚拟一个Docker容器网桥(docker0),Docker启动一个容器时会根据Docker网桥的网段分配给容器一个IP地址,称为Container-IP,同时Docker网桥是每个容器的默认网关。因为在同一宿主机内的容器都接入同一个网桥,这样容器之间就能够通过容器的Container-IP直接通信。

docker的4种网络模式

网络模式 配置 说明
host –network host 容器和宿主机共享Network namespace
container –network container:NAME_OR_ID 容器和另外一个容器共享Network namespace
none –network none 容器有独立的Network namespace,但并没有对其进行任何网络设置,如分配veth pair 和网桥连接,配置IP等
bridge –network bridge 默认模式

bridge模式

当Docker进程启动时,会在主机上创建一个名为docker0的虚拟网桥,此主机上启动的Docker容器会连接到这个虚拟网桥上。虚拟网桥的工作方式和物理交换机类似,这样主机上的所有容器就通过交换机连在了一个二层网络中。

从docker0子网中分配一个IP给容器使用,并设置docker0的IP地址为容器的默认网关。在主机上创建一对虚拟网卡veth pair设备,Docker将veth pair设备的一端放在新创建的容器中,并命名为eth0(容器的网卡),另一端放在主机中,以vethxxx这样类似的名字命名,并将这个网络设备加入到docker0网桥中。可以通过brctl show命令查看。

bridge模式是docker的默认网络模式,不写–network参数,就是bridge模式。使用docker run -p时,docker实际是在iptables做了DNAT规则,实现端口转发功能。可以使用iptables -t nat -vnL查看。

bridge模式如下图所示:

假设上图的docker2中运行了一个nginx,大家来想几个问题:

  • 同主机间两个容器间是否可以直接通信?比如在docker1上能不能直接访问到docker2的nginx站点?
  • 在宿主机上能否直接访问到docker2的nginx站点?
  • 在另一台主机上如何访问node1上的这个nginx站点呢?DNAT发布?

Docker网桥是宿主机虚拟出来的,并不是真实存在的网络设备,外部网络是无法寻址到的,这也意味着外部网络无法通过直接Container-IP访问到容器。如果容器希望外部访问能够访问到,可以通过映射容器端口到宿主主机(端口映射),即docker run创建容器时候通过 -p 或 -P 参数来启用,访问容器的时候就通过[宿主机IP]:[容器端口]访问容器。

container模式

这个模式指定新创建的容器和已经存在的一个容器共享一个 Network Namespace,而不是和宿主机共享。新创建的容器不会创建自己的网卡,配置自己的 IP,而是和一个指定的容器共享 IP、端口范围等。同样,两个容器除了网络方面,其他的如文件系统、进程列表等还是隔离的。两个容器的进程可以通过 lo 网卡设备通信。

container模式如下图所示:

host模式

如果启动容器的时候使用host模式,那么这个容器将不会获得一个独立的Network Namespace,而是和宿主机共用一个Network Namespace。容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口。但是,容器的其他方面,如文件系统、进程列表等还是和宿主机隔离的。

使用host模式的容器可以直接使用宿主机的IP地址与外界通信,容器内部的服务端口也可以使用宿主机的端口,不需要进行NAT,host最大的优势就是网络性能比较好,但是docker host上已经使用的端口就不能再用了,网络的隔离性不好。

Host模式如下图所示:

none模式

使用none模式,Docker容器拥有自己的Network Namespace,但是,并不为Docker容器进行任何网络配置。也就是说,这个Docker容器没有网卡、IP、路由等信息。需要我们自己为Docker容器添加网卡、配置IP等。

这种网络模式下容器只有lo回环网络,没有其他网卡。none模式可以在容器创建时通过–network none来指定。这种类型的网络没有办法联网,封闭的网络能很好的保证容器的安全性。

应用场景:

  • 启动一个容器处理数据,比如转换数据格式
  • 一些后台的计算和处理任务

none模式如下图所示:

docker network inspect bridge #查看bridge网络的详细配置

[root@localhost ~]# docker network inspect bridge
[{"Name": "bridge","Id": "c31a5817d93d3962a40f97de7632ebf9527dcdcfa62e436acf88929263533295","Created": "2022-08-28T14:57:26.526859183+08:00","Scope": "local","Driver": "bridge","EnableIPv6": false,

Linux内核实现名称空间的创建

ip netns命令

可以借助ip netns命令来完成对 Network Namespace 的各种操作。ip netns命令来自于iproute安装包,一般系统会默认安装,如果没有的话,请自行安装。

注意:ip netns命令修改网络配置时需要 sudo 权限。

可以通过ip netns命令完成对Network Namespace 的相关操作,可以通过ip netns help查看命令帮助信息:

[root@localhost ~]# ip netns help
Usage:  ip netns listip netns add NAMEip netns attach NAME PIDip netns set NAME NETNSIDip [-all] netns delete [NAME]ip netns identify [PID]ip netns pids NAMEip [-all] netns exec [NAME] cmd ...ip netns monitorip netns list-id [target-nsid POSITIVE-INT] [nsid POSITIVE-INT]
NETNSID := auto | POSITIVE-INT

默认情况下,Linux系统中是没有任何 Network Namespace的,所以ip netns list命令不会返回任何信息。

创建Network Namespace

通过命令创建一个名为ns0的命名空间:

[root@localhost ~]# ip netns list
[root@localhost ~]# ip netns add ns0
[root@localhost ~]# ip netns list
ns0

新创建的 Network Namespace 会出现在/var/run/netns/目录下。如果相同名字的 namespace 已经存在,命令会报Cannot create namespace file “/var/run/netns/ns0”: File exists的错误。

[root@localhost ~]# ls /var/run/netns/
ns0[root@localhost ~]# ip netns add ns0
Cannot create namespace file "/var/run/netns/ns0": File exists

对于每个 Network Namespace 来说,它会有自己独立的网卡、路由表、ARP 表、iptables 等和网络相关的资源。

操作Network Namespace

ip命令提供了ip netns exec子命令可以在对应的 Network Namespace 中执行命令。

查看新创建 Network Namespace 的网卡信息

[root@localhost ~]# ip netns exec ns0 ip a
1: lo: <LOOPBACK> mtu 65536 qdisc noop state DOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00

可以看到,新创建的Network Namespace中会默认创建一个lo回环网卡,此时网卡处于关闭状态。此时,尝试去 ping 该lo回环网卡,会提示Network is unreachable

[root@localhost ~]# ip netns exec ns0 ping 127.0.0.1
connect: Network is unreachable

通过下面的命令启用lo回环网卡:

[root@localhost ~]# ip netns exec ns0 ip link set lo up
[root@localhost ~]# ip netns exec ns0 ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host valid_lft forever preferred_lft forever[root@localhost ~]# ip netns exec ns0 ping 127.0.0.1
PING 127.0.0.1 (127.0.0.1) 56(84) bytes of data.
64 bytes from 127.0.0.1: icmp_seq=1 ttl=64 time=0.042 ms
64 bytes from 127.0.0.1: icmp_seq=2 ttl=64 time=0.051 ms
64 bytes from 127.0.0.1: icmp_seq=3 ttl=64 time=0.038 ms
64 bytes from 127.0.0.1: icmp_seq=4 ttl=64 time=0.052 ms
^C
--- 127.0.0.1 ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3076ms
rtt min/avg/max/mdev = 0.038/0.045/0.052/0.010 ms[root@localhost ~]# ip netns exec ns1 ip link set lo up
[root@localhost ~]# ip netns exec ns1 ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host valid_lft forever preferred_lft forever[root@localhost ~]# ip netns exec ns1 ping 127.0.0.1
PING 127.0.0.1 (127.0.0.1) 56(84) bytes of data.
64 bytes from 127.0.0.1: icmp_seq=1 ttl=64 time=0.039 ms
64 bytes from 127.0.0.1: icmp_seq=2 ttl=64 time=0.055 ms
64 bytes from 127.0.0.1: icmp_seq=3 ttl=64 time=0.035 ms
^C
--- 127.0.0.1 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2037ms
rtt min/avg/max/mdev = 0.035/0.043/0.055/0.008 ms

转移设备

我们可以在不同的 Network Namespace 之间转移设备(如veth)。由于一个设备只能属于一个 Network Namespace ,所以转移后在这个 Network Namespace 内就看不到这个设备了。

其中,veth设备属于可转移设备,而很多其它设备(如lo、vxlan、ppp、bridge等)是不可以转移的。

veth pair

veth pair 全称是 Virtual Ethernet Pair,是一个成对的端口,所有从这对端口一 端进入的数据包都将从另一端出来,反之也是一样。
引入veth pair是为了在不同的 Network Namespace 直接进行通信,利用它可以直接将两个 Network Namespace 连接起来。

创建veth pair

[root@localhost ~]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000link/ether 00:0c:29:34:3c:77 brd ff:ff:ff:ff:ff:ffinet 192.168.56.162/24 brd 192.168.56.255 scope global dynamic noprefixroute ens33valid_lft 1137sec preferred_lft 1137secinet6 fe80::a1b6:458c:3113:acc5/64 scope link noprefixroute valid_lft forever preferred_lft forever
3: docker0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default link/ether 02:42:4d:60:34:17 brd ff:ff:ff:ff:ff:ffinet 172.17.0.1/16 brd 172.17.255.255 scope global docker0valid_lft forever preferred_lft foreverinet6 fe80::42:4dff:fe60:3417/64 scope link valid_lft forever preferred_lft forever
5: veth61ff69a@if4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master docker0 state UP group default link/ether d2:fa:45:c1:bd:78 brd ff:ff:ff:ff:ff:ff link-netnsid 0inet6 fe80::d0fa:45ff:fec1:bd78/64 scope link valid_lft forever preferred_lft forever
13: veth7bccb86@if12: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master docker0 state UP group default link/ether 8e:40:95:9b:df:fb brd ff:ff:ff:ff:ff:ff link-netnsid 1inet6 fe80::8c40:95ff:fe9b:dffb/64 scope link valid_lft forever preferred_lft forever
[root@localhost ~]# ip link add type veth
[root@localhost ~]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000link/ether 00:0c:29:34:3c:77 brd ff:ff:ff:ff:ff:ffinet 192.168.56.162/24 brd 192.168.56.255 scope global dynamic noprefixroute ens33valid_lft 1053sec preferred_lft 1053secinet6 fe80::a1b6:458c:3113:acc5/64 scope link noprefixroute valid_lft forever preferred_lft forever
3: docker0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default link/ether 02:42:4d:60:34:17 brd ff:ff:ff:ff:ff:ffinet 172.17.0.1/16 brd 172.17.255.255 scope global docker0valid_lft forever preferred_lft foreverinet6 fe80::42:4dff:fe60:3417/64 scope link valid_lft forever preferred_lft forever
5: veth61ff69a@if4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master docker0 state UP group default link/ether d2:fa:45:c1:bd:78 brd ff:ff:ff:ff:ff:ff link-netnsid 0inet6 fe80::d0fa:45ff:fec1:bd78/64 scope link valid_lft forever preferred_lft forever
13: veth7bccb86@if12: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master docker0 state UP group default link/ether 8e:40:95:9b:df:fb brd ff:ff:ff:ff:ff:ff link-netnsid 1inet6 fe80::8c40:95ff:fe9b:dffb/64 scope link valid_lft forever preferred_lft forever
16: veth0@veth1: <BROADCAST,MULTICAST,M-DOWN> mtu 1500 qdisc noop state DOWN group default qlen 1000link/ether 7a:1e:d3:7c:f8:1a brd ff:ff:ff:ff:ff:ff
17: veth1@veth0: <BROADCAST,MULTICAST,M-DOWN> mtu 1500 qdisc noop state DOWN group default qlen 1000link/ether 06:6c:76:c6:b3:f4 brd ff:ff:ff:ff:ff:ff

可以看到,此时系统中新增了一对veth pair,将veth0和veth1两个虚拟网卡连接了起来,此时这对 veth pair 处于”未启用“状态。

实现Network Namespace间通信

下面我们利用veth pair实现两个不同的 Network Namespace 之间的通信。刚才我们已经创建了一个名为ns0的 Network Namespace,下面再创建一个信息Network Namespace,命名为ns1

[root@localhost ~]# ip netns list
ns1
ns0

然后我们将veth0加入到ns0,将veth1加入到ns1

[root@localhost ~]# ip link set veth0 netns ns0
[root@localhost ~]# ip link set veth1 netns ns1

然后我们分别为这对veth pair配置上ip地址,并启用它们

[root@localhost ~]# ip netns exec ns0 ip link set veth0 up
[root@localhost ~]# ip netns exec ns0 ip addr add 192.168.1.1/24 dev veth0
[root@localhost ~]# ip netns exec ns1 ip link set lo up
[root@localhost ~]# ip netns exec ns1 ip link set veth1 up
[root@localhost ~]# ip netns exec ns1 ip addr add 192.168.1.2/24 dev veth1

查看这对veth pair的状态

[root@localhost ~]# ip netns exec ns0 ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host valid_lft forever preferred_lft forever
16: veth0@if17: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000link/ether 7a:1e:d3:7c:f8:1a brd ff:ff:ff:ff:ff:ff link-netns ns1inet 192.168.1.1/24 scope global veth0valid_lft forever preferred_lft foreverinet6 fe80::781e:d3ff:fe7c:f81a/64 scope link valid_lft forever preferred_lft forever[root@localhost ~]# ip netns exec ns1 ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host valid_lft forever preferred_lft forever
17: veth1@if16: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000link/ether 06:6c:76:c6:b3:f4 brd ff:ff:ff:ff:ff:ff link-netns ns0inet 192.168.1.2/24 scope global veth1valid_lft forever preferred_lft foreverinet6 fe80::46c:76ff:fec6:b3f4/64 scope link valid_lft forever preferred_lft forever

从上面可以看出,我们已经成功启用了这个veth pair,并为每个veth设备分配了对应的ip地址。我们尝试在ns1中访问ns0中的ip地址:

[root@localhost ~]# ip netns exec ns1 ping 192.168.1.1
PING 192.168.1.1 (192.168.1.1) 56(84) bytes of data.
64 bytes from 192.168.1.1: icmp_seq=1 ttl=64 time=0.098 ms
64 bytes from 192.168.1.1: icmp_seq=2 ttl=64 time=0.057 ms
64 bytes from 192.168.1.1: icmp_seq=3 ttl=64 time=0.062 ms
64 bytes from 192.168.1.1: icmp_seq=4 ttl=64 time=0.041 ms
^C
--- 192.168.1.1 ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3100ms
rtt min/avg/max/mdev = 0.041/0.064/0.098/0.022 ms

可以看到,veth pair成功实现了两个不同Network Namespace之间的网络交互。

veth设备重命名

[root@localhost ~]# ip netns exec ns0 ip link set veth0 down
[root@localhost ~]# ip netns exec ns0 ip link set dev veth0 name eth0
[root@localhost ~]# ip netns exec ns0 ifconfig -a
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500inet 192.168.1.1  netmask 255.255.255.0  broadcast 0.0.0.0inet6 fe80::30c4:23ff:fedd:a71c  prefixlen 64  scopeid 0x20<link>ether 32:c4:23:dd:a7:1c  txqueuelen 1000  (Ethernet)RX packets 12  bytes 928 (928.0 B)RX errors 0  dropped 0  overruns 0  frame 0TX packets 20  bytes 1576 (1.5 KiB)
[root@localhost ~]# ip netns exec ns0 ip link set eth0 up

四种网络模式配置

bridge模式配置

[root@localhost ~]# docker run -it --name t1 --rm busybox /bin/sh
Unable to find image 'busybox:latest' locally
latest: Pulling from library/busybox
5cc84ad355aa: Pull complete
Digest: sha256:5acba83a746c7608ed544dc1533b87c737a0b0fb730301639a0179f9344b1678
Status: Downloaded newer image for busybox:latest
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft forever
18: eth0@if19: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue link/ether 02:42:ac:11:00:04 brd ff:ff:ff:ff:ff:ffinet 172.17.0.4/16 brd 172.17.255.255 scope global eth0valid_lft forever preferred_lft forever
/ # ifconfig
eth0      Link encap:Ethernet  HWaddr 02:42:AC:11:00:04  inet addr:172.17.0.4  Bcast:172.17.255.255  Mask:255.255.0.0UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1RX packets:8 errors:0 dropped:0 overruns:0 frame:0TX packets:0 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0 RX bytes:656 (656.0 B)  TX bytes:0 (0.0 B)lo        Link encap:Local Loopback  inet addr:127.0.0.1  Mask:255.0.0.0UP LOOPBACK RUNNING  MTU:65536  Metric:1RX packets:0 errors:0 dropped:0 overruns:0 frame:0TX packets:0 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000 RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)/ # exit
[root@localhost ~]# docker container ls -a

在创建容器时添加–network bridge与不加–network选项效果是一致的

[root@localhost ~]# docker run -it --name t1 --network bridge --rm busybox
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft forever
20: eth0@if21: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue link/ether 02:42:ac:11:00:04 brd ff:ff:ff:ff:ff:ffinet 172.17.0.4/16 brd 172.17.255.255 scope global eth0valid_lft forever preferred_lft forever
/ # ifconfig
eth0      Link encap:Ethernet  HWaddr 02:42:AC:11:00:04  inet addr:172.17.0.4  Bcast:172.17.255.255  Mask:255.255.0.0UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1RX packets:8 errors:0 dropped:0 overruns:0 frame:0TX packets:0 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0 RX bytes:656 (656.0 B)  TX bytes:0 (0.0 B)lo        Link encap:Local Loopback  inet addr:127.0.0.1  Mask:255.0.0.0UP LOOPBACK RUNNING  MTU:65536  Metric:1RX packets:0 errors:0 dropped:0 overruns:0 frame:0TX packets:0 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000 RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)/ # exit

none模式配置

[root@localhost ~]# docker run -it --rm --network none busybox
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft forever
/ # ifconfig
lo        Link encap:Local Loopback  inet addr:127.0.0.1  Mask:255.0.0.0UP LOOPBACK RUNNING  MTU:65536  Metric:1RX packets:0 errors:0 dropped:0 overruns:0 frame:0TX packets:0 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000 RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)/ # exit

container模式配置

启动第一个容器

[root@localhost ~]# docker run -it --rm --name b1 busybox
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft forever
22: eth0@if23: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue link/ether 02:42:ac:11:00:04 brd ff:ff:ff:ff:ff:ffinet 172.17.0.4/16 brd 172.17.255.255 scope global eth0valid_lft forever preferred_lft forever

启动第二个容器

[root@localhost ~]# docker run -it --rm --name b2 busybox
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft forever
24: eth0@if25: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue link/ether 02:42:ac:11:00:05 brd ff:ff:ff:ff:ff:ffinet 172.17.0.5/16 brd 172.17.255.255 scope global eth0valid_lft forever preferred_lft forever

可以看到名为b2的容器IP地址是127.17.0.5,与第一个容器的IP地址不是一样的,也就是说并没有共享网络,此时如果我们将第二个容器的启动方式改变一下,就可以使名为b2的容器IP与B1容器IP一致,也即共享IP,但不共享文件系统。

[root@localhost ~]# docker run -it --rm --network container:b1 busybox
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft forever
26: eth0@if27: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue link/ether 02:42:ac:11:00:04 brd ff:ff:ff:ff:ff:ffinet 172.17.0.4/16 brd 172.17.255.255 scope global eth0valid_lft forever preferred_lft forever

此时我们在b1容器上创建一个目录

/ # ls
bin   dev   etc   home  proc  root  sys   tmp   usr   var
/ # mkdir data
/ # ls
bin   data  dev   etc   home  proc  root  sys   tmp   usr   var

到b2容器上检查/tmp目录会发现并没有这个目录,因为文件系统是处于隔离状态,仅仅是共享了网络而已。

/ # ls
bin   dev   etc   home  proc  root  sys   tmp   usr   var

在b2容器上部署一个站点

/ # echo 'hello world' >  /tmp/index.html
/ # ls /tmp
index.html
/ # httpd -h /tmp
/ # netstat -antl
Active Internet connections (servers and established)
Proto Recv-Q Send-Q Local Address           Foreign Address         State
tcp        0      0 :::80                   :::*                    LISTEN

在b1容器上用本地地址去访问此站点

/ # wget -O - -q 127.0.0.1:80
hello world

由此可见,container模式下的容器间关系就相当于一台主机上的两个不同进程

host模式配置

启动容器时直接指明模式为host

[root@localhost ~]# docker run -it --name b3 --rm --network host busybox
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel qlen 1000link/ether 00:0c:29:34:3c:77 brd ff:ff:ff:ff:ff:ffinet 192.168.56.162/24 brd 192.168.56.255 scope global dynamic noprefixroute ens33valid_lft 1006sec preferred_lft 1006secinet6 fe80::a1b6:458c:3113:acc5/64 scope link noprefixroute valid_lft forever preferred_lft forever
3: docker0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue link/ether 02:42:4d:60:34:17 brd ff:ff:ff:ff:ff:ffinet 172.17.0.1/16 brd 172.17.255.255 scope global docker0valid_lft forever preferred_lft foreverinet6 fe80::42:4dff:fe60:3417/64 scope link valid_lft forever preferred_lft forever
5: veth61ff69a@if4: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue master docker0 link/ether d2:fa:45:c1:bd:78 brd ff:ff:ff:ff:ff:ffinet6 fe80::d0fa:45ff:fec1:bd78/64 scope link valid_lft forever preferred_lft forever
13: veth7bccb86@if12: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue master docker0 link/ether 8e:40:95:9b:df:fb brd ff:ff:ff:ff:ff:ffinet6 fe80::8c40:95ff:fe9b:dffb/64 scope link valid_lft forever preferred_lft forever
25: veth290f868@if24: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue master docker0 link/ether 92:88:66:8a:97:6c brd ff:ff:ff:ff:ff:ffinet6 fe80::9088:66ff:fe8a:976c/64 scope link valid_lft forever preferred_lft forever
27: veth52731cc@if26: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue master docker0 link/ether f6:15:82:e1:96:c1 brd ff:ff:ff:ff:ff:ffinet6 fe80::f415:82ff:fee1:96c1/64 scope link valid_lft forever preferred_lft forever
/ # ifconfig
docker0   Link encap:Ethernet  HWaddr 02:42:4D:60:34:17  inet addr:172.17.0.1  Bcast:172.17.255.255  Mask:255.255.0.0inet6 addr: fe80::42:4dff:fe60:3417/64 Scope:LinkUP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1RX packets:5443 errors:0 dropped:0 overruns:0 frame:0TX packets:9826 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0 RX bytes:243257 (237.5 KiB)  TX bytes:96801550 (92.3 MiB)ens33     Link encap:Ethernet  HWaddr 00:0C:29:34:3C:77  inet addr:192.168.56.162  Bcast:192.168.56.255  Mask:255.255.255.0inet6 addr: fe80::a1b6:458c:3113:acc5/64 Scope:LinkUP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1RX packets:485928 errors:0 dropped:0 overruns:0 frame:0TX packets:51303 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000 RX bytes:703569909 (670.9 MiB)  TX bytes:4833353 (4.6 MiB)lo        Link encap:Local Loopback  inet addr:127.0.0.1  Mask:255.0.0.0inet6 addr: ::1/128 Scope:HostUP LOOPBACK RUNNING  MTU:65536  Metric:1RX packets:132 errors:0 dropped:0 overruns:0 frame:0TX packets:132 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000 RX bytes:17424 (17.0 KiB)  TX bytes:17424 (17.0 KiB)veth290f868 Link encap:Ethernet  HWaddr 92:88:66:8A:97:6C  inet6 addr: fe80::9088:66ff:fe8a:976c/64 Scope:LinkUP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1RX packets:0 errors:0 dropped:0 overruns:0 frame:0TX packets:13 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0 RX bytes:0 (0.0 B)  TX bytes:1006 (1006.0 B)veth52731cc Link encap:Ethernet  HWaddr F6:15:82:E1:96:C1  inet6 addr: fe80::f415:82ff:fee1:96c1/64 Scope:LinkUP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1RX packets:0 errors:0 dropped:0 overruns:0 frame:0TX packets:13 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0 RX bytes:0 (0.0 B)  TX bytes:1006 (1006.0 B)veth61ff69a Link encap:Ethernet  HWaddr D2:FA:45:C1:BD:78  inet6 addr: fe80::d0fa:45ff:fec1:bd78/64 Scope:LinkUP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1RX packets:5437 errors:0 dropped:0 overruns:0 frame:0TX packets:9861 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0 RX bytes:318833 (311.3 KiB)  TX bytes:96804066 (92.3 MiB)veth7bccb86 Link encap:Ethernet  HWaddr 8E:40:95:9B:DF:FB  inet6 addr: fe80::8c40:95ff:fe9b:dffb/64 Scope:LinkUP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1RX packets:6 errors:0 dropped:0 overruns:0 frame:0TX packets:49 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0 RX bytes:626 (626.0 B)  TX bytes:3528 (3.4 KiB)

此时如果我们在这个容器中启动一个http站点,我们就可以直接用宿主机的IP直接在浏览器中访问这个容器中的站点了。

容器的常用操作

查看容器的主机名

[root@localhost ~]# docker run -it --rm busybox
/ # hostname
d1286faa6b18

在容器启动时注入主机名

[root@localhost ~]# docker run -it --rm --hostname node1 busybox
/ # hostname
node1
/ # cat /etc/hostname
node1
/ # cat /etc/hosts
127.0.0.1   localhost
::1 localhost ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
172.17.0.4  node1      # 注入主机名时会自动创建主机名到IP的映射关系
/ # mkdir /data
/ # echo 'hello world' > /data/index.html
/ # /bin/httpd -h /data/
/ # netstat -antl
Active Internet connections (servers and established)
Proto Recv-Q Send-Q Local Address           Foreign Address         State
tcp        0      0 :::80                   :::*                    LISTEN
/ # wget -O - -q node1
hello world

手动指定容器要使用的DNS

[root@localhost ~]# docker run -it --rm --hostname node1 --dns 8.8.8.8 busybox
/ # cat /etc/resolv.conf
search localdomain
nameserver 8.8.8.8
/ # nslookup -type=a www.baidu.com
Server:     8.8.8.8
Address:    8.8.8.8:53Non-authoritative answer:
www.baidu.com   canonical name = www.a.shifen.com
Name:   www.a.shifen.com
Address: 14.215.177.38
Name:   www.a.shifen.com
Address: 14.215.177.39

手动往/etc/hosts文件中注入主机名到IP地址的映射

[root@localhost ~]# docker run -it --rm --hostname node1 --dns 8.8.8.8 busybox
/ # cat /etc/resolv.conf
search localdomain
nameserver 8.8.8.8
//在第一个终端里
/ # mkdir /data
/ # echo 'hello world' > data/index.html
/ # /bin/httpd -f -h /data//另起一个终端
[root@localhost ~]# docker run -it --rm --hostname node2 --add-host node1:172.17.0.2 busybox
/ # cat /etc/hosts
127.0.0.1   localhost
::1 localhost ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
172.17.0.2  node1
172.17.0.5  node2

开放容器端口
执行docker run的时候有个-p选项,可以将容器中的应用端口映射到宿主机中,从而实现让外部主机可以通过访问宿主机的某端口来访问容器内应用的目的。

-p选项能够使用多次,其所能够暴露的端口必须是容器确实在监听的端口。

-p选项的使用格式:

  • -p

    • 将指定的容器端口映射至主机所有地址的一个动态端口
[root@localhost ~]# docker run -d --rm --name web -p 80 httpd
Unable to find image 'httpd:latest' locally
latest: Pulling from library/httpd
a2abf6c4d29d: Pull complete
dcc4698797c8: Pull complete
41c22baa66ec: Pull complete
67283bbdd4a0: Pull complete
d982c879c57e: Pull complete
Digest: sha256:0954cc1af252d824860b2c5dc0a10720af2b7a3d3435581ca788dff8480c7b32
Status: Downloaded newer image for httpd:latest
f2c51aea098e61a7c24032477415b93d9a03be9b982c582983033d19fbeb20b2
[root@localhost ~]# docker ps
CONTAINER ID   IMAGE               COMMAND                  CREATED          STATUS          PORTS                                     NAMES
f2c51aea098e   httpd               "httpd-foreground"       22 seconds ago   Up 19 seconds   0.0.0.0:49153->80/tcp, :::49153->80/tcp   web
  • -p :
    将容器端口映射至指定的主机端口
[root@localhost ~]# docker run -d --rm --name web7 -p 80:80 httpd
0ce29fa372263561bc93c4be4227a4167d603855f3db8d1ca14f2cf729343bf4
[root@localhost ~]# docker ps
CONTAINER ID   IMAGE               COMMAND                  CREATED          STATUS          PORTS                                     NAMES
0ce29fa37226   httpd               "httpd-foreground"       10 seconds ago   Up 8 seconds    0.0.0.0:80->80/tcp, :::80->80/tcp         web7
  • -p ::
    将指定的容器端口映射至主机指定的动态端口
[root@localhost ~]# ip addr add 192.168.56.163/24 dev ens33
[root@localhost ~]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000link/ether 00:0c:29:34:3c:77 brd ff:ff:ff:ff:ff:ffinet 192.168.56.162/24 brd 192.168.56.255 scope global dynamic noprefixroute ens33valid_lft 1320sec preferred_lft 1320secinet 192.168.56.163/24 scope global secondary ens33valid_lft forever preferred_lft foreverinet6 fe80::a1b6:458c:3113:acc5/64 scope link noprefixroute valid_lft forever preferred_lft forever
......
[root@localhost ~]# docker run -d --rm --name web8 -p 192.168.56.162::80 httpd
8242b9ba50caa0258b97cebd60c2b05d745c89dc3306b0bb1f9b00d1e6286f91
[root@localhost ~]# ss -antl
State                Recv-Q               Send-Q                              Local Address:Port                              Peer Address:Port               Process
LISTEN               0                    128                                       0.0.0.0:80                                     0.0.0.0:*
LISTEN               0                    128                                       0.0.0.0:22                                     0.0.0.0:*
LISTEN               0                    128                                       0.0.0.0:49153                                  0.0.0.0:*
LISTEN               0                    128                                192.168.56.162:49154                                  0.0.0.0:*
LISTEN               0                    128                                          [::]:80                                        [::]:*
LISTEN               0                    128                                          [::]:22                                        [::]:*
LISTEN               0                    128                                          [::]:49153                                     [::]:*

  • -p ::
    将指定的容器端口映射至主机指定的端口
[root@localhost ~]# docker run -d --rm --name web9 -p 192.168.56.162:80:80 httpd
1850ac9ee558dfcffb9a977980d9629aabbdb78ab72ba64e24d1fecb00a62f29
[root@localhost ~]# ss -antl
State  Recv-Q Send-Q  Local Address:Port  Peer Address:Port Process
LISTEN 0      128    192.168.56.162:80         0.0.0.0:*
LISTEN 0      128           0.0.0.0:22         0.0.0.0:*
LISTEN 0      128              [::]:22            [::]:*
[root@localhost ~]# docker port web   //查看容器的80端口被映射到了宿主机的什么端口上
80/tcp -> 192.168.56.162:80

动态端口指的是随机端口,具体的映射结果可使用docker port命令查看。

[root@localhost ~]# docker run --rm --name w1 -p 80 httpd
AH00558: httpd: Could not reliably determine the server's fully qualified domain name, using 172.17.0.9. Set the 'ServerName' directive globally to suppress this message
AH00558: httpd: Could not reliably determine the server's fully qualified domain name, using 172.17.0.9. Set the 'ServerName' directive globally to suppress this message
[Tue Aug 09 13:45:18.303400 2022] [mpm_event:notice] [pid 1:tid 139876420373824] AH00489: Apache/2.4.52 (Unix) configured -- resuming normal operations
[Tue Aug 09 13:45:18.303863 2022] [core:notice] [pid 1:tid 139876420373824] AH00094: Command line: 'httpd -D FOREGROUND'

以上命令执行后会一直占用着前端,我们新开一个终端连接来看一下容器的80端口被映射到了宿主机的什么端口上

[root@localhost ~]# docker port w1
80/tcp -> 0.0.0.0:49155
80/tcp -> :::49154

由此可见,容器的80端口被暴露到了宿主机的32769端口上,此时我们在宿主机上访问一下这个端口看是否能访问到容器内的站点

[root@localhost ~]# curl http://127.0.0.1:49155
<html><body><h1>It works!</h1></body></html>

iptables防火墙规则将随容器的创建自动生成,随容器的删除自动删除规则。

将容器端口映射到指定IP的随机端口

[root@localhost ~]# docker run --name w2 --rm -p 192.168.56.163::80 httpd

在另一个终端上查看端口映射情况

[root@localhost ~]# docker port w2
80/tcp -> 192.168.56.163:49154

将容器端口映射到宿主机的指定端口

[root@localhost ~]# docker run --name w3 --rm -p 80:80 httpd

在另一个终端上查看端口映射情况

[root@localhost ~]# docker port w3
80/tcp -> 0.0.0.0:80

自定义docker0桥的网络属性信息

[root@localhost ~]# vi /etc/docke r/daemon . j son
{"registry-mirrors": ["https://glvnpwyn.mirror.aliyuncs.com"],                       "bip": "192.168.56.162/24"
}
[root@localhost ~]# systemctl daemon-reload
[root@localhost ~]# systemctl restart docker.service

核心选项为bip,即bridge ip之意,用于指定docker0桥自身的IP地址;其它选项可通过此地址计算得出。

docker远程连接

dockerd守护进程的C/S,其默认仅监听Unix Socket格式的地址(/var/run/docker.sock),如果要使用TCP套接字,则需要修改/etc/docker/daemon.json配置文件,添加如下内容,然后重启docker服务:

[root@localhost ~]# vim /lib/systemd/system/docker.service
......
ExecStart=/usr/bin/dockerd -H fd:// --containerd=/run/containerd/containerd.sock   -H tcp://0.0.0.0:2375 -H unix:///var/run/docker.sock

在客户端上向dockerd直接传递“-H|–host”选项指定要控制哪台主机上的docker容器

[root@localhost ~]# docker -H 192.168.56.162:2375 ps

docker创建自定义桥

创建一个额外的自定义桥,区别于docker0

[root@localhost ~]# docker network create -d bridge --subnet "192.168.2.0/24" --gateway "192.168.2.1" br0
2cfa0aec4c80d026c63c60cf2a040e598ded2615d46f9c70a6b076eab4484c7f
[root@localhost ~]# docker network ls
NETWORK ID     NAME      DRIVER    SCOPE
2cfa0aec4c80   br0       bridge    local
81fbea69c45d   bridge    bridge    local
251fadf495db   host      host      local
886d7812e11c   none      null      local
[root@localhost ~]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft foreverinet6 ::1/128 scope host valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000link/ether 00:0c:29:34:3c:77 brd ff:ff:ff:ff:ff:ffinet 192.168.56.162/24 brd 192.168.56.255 scope global dynamic noprefixroute ens33valid_lft 1139sec preferred_lft 1139secinet 192.168.56.163/24 scope global secondary ens33valid_lft forever preferred_lft foreverinet6 fe80::a1b6:458c:3113:acc5/64 scope link noprefixroute valid_lft forever preferred_lft forever
3: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default link/ether 02:42:4d:60:34:17 brd ff:ff:ff:ff:ff:ffinet 172.17.0.1/16 brd 172.17.255.255 scope global docker0valid_lft forever preferred_lft foreverinet6 fe80::42:4dff:fe60:3417/64 scope link valid_lft forever preferred_lft forever
56: br-2cfa0aec4c80: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default link/ether 02:42:d7:2f:d4:fa brd ff:ff:ff:ff:ff:ffinet 192.168.2.1/24 brd 192.168.2.255 scope global br-2cfa0aec4c80valid_lft forever preferred_lft forever

使用新创建的自定义桥来创建容器:

[root@localhost ~]# docker run -it --rm --network br0 busybox
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft forever
57: eth0@if58: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue link/ether 02:42:c0:a8:02:02 brd ff:ff:ff:ff:ff:ffinet 192.168.2.2/24 brd 192.168.2.255 scope global eth0valid_lft forever preferred_lft forever

再创建一个容器,使用默认的bridge桥:

[root@localhost ~]# docker run -it --rm --name b1 busybox
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft forever
59: eth0@if60: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue link/ether 02:42:ac:11:00:02 brd ff:ff:ff:ff:ff:ffinet 172.17.0.2/16 brd 172.17.255.255 scope global eth0valid_lft forever preferred_lft forever
//另起第三个终端进行操作
[root@localhost ~]# docker network connect br0 b1//第二个终端b1容器上操作
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft forever
59: eth0@if60: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue link/ether 02:42:ac:11:00:02 brd ff:ff:ff:ff:ff:ffinet 172.17.0.2/16 brd 172.17.255.255 scope global eth0valid_lft forever preferred_lft forever
61: eth1@if62: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue link/ether 02:42:c0:a8:02:03 brd ff:ff:ff:ff:ff:ffinet 192.168.2.3/24 brd 192.168.2.255 scope global eth1valid_lft forever preferred_lft forever
/ # ping 192.168.2.2
PING 192.168.2.2 (192.168.2.2): 56 data bytes
64 bytes from 192.168.2.2: seq=0 ttl=64 time=0.163 ms
64 bytes from 192.168.2.2: seq=1 ttl=64 time=0.119 ms
64 bytes from 192.168.2.2: seq=2 ttl=64 time=0.153 ms
^C
--- 192.168.2.2 ping statistics ---
3 packets transmitted, 3 packets received, 0% packet loss
round-trip min/avg/max = 0.119/0.145/0.163 ms//在第一个终端上的操作
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft forever
57: eth0@if58: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue link/ether 02:42:c0:a8:02:02 brd ff:ff:ff:ff:ff:ffinet 192.168.2.2/24 brd 192.168.2.255 scope global eth0valid_lft forever preferred_lft forever
/ # ping 192.168.2.3
PING 192.168.2.3 (192.168.2.3): 56 data bytes
64 bytes from 192.168.2.3: seq=0 ttl=64 time=0.134 ms
64 bytes from 192.168.2.3: seq=1 ttl=64 time=0.264 ms
64 bytes from 192.168.2.3: seq=2 ttl=64 time=0.141 ms
64 bytes from 192.168.2.3: seq=3 ttl=64 time=0.079 ms
^C
--- 192.168.2.3 ping statistics ---
4 packets transmitted, 4 packets received, 0% packet loss
round-trip min/avg/max = 0.079/0.154/0.264 ms//第三个终端上
[root@localhost ~]# docker network disconnect br0 b1//在b1上
/ # ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00inet 127.0.0.1/8 scope host lovalid_lft forever preferred_lft forever
59: eth0@if60: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue link/ether 02:42:ac:11:00:02 brd ff:ff:ff:ff:ff:ffinet 172.17.0.2/16 brd 172.17.255.255 scope global eth0valid_lft forever preferred_lft forever

docker容器网络及其配置相关推荐

  1. docker容器网络的配置及常用操作

    Linux内核实现名称空间的创建 ip netns命令 可以借助ip netns命令来完成对 Network Namespace 的各种操作.ip netns命令来自于iproute安装包,一般系统会 ...

  2. 【Kubernetes】k8s网络概念和实操详细说明【calico网络】【含docker不同容器网络互通配置,k8s网络互通配置】【1】

    文章目录 calico网络之间通信配置[docker容器互通流程配置] calico网络原理分析 一.Calico基本介绍 二.Calico结构组成 三.Calico 工作原理 四.Calico网络方 ...

  3. docker的网络架构配置

    http://xiaorenwutest.blog.51cto.com                  docker 网络架构模 默认情况下,容器可以建立到外部网络的连接,但是外部网络无法连接到容器 ...

  4. 手工模拟实现 Docker 容器网络!

    大家好,我是飞哥! 如今服务器虚拟化技术已经发展到了深水区.现在业界已经有很多公司都迁移到容器上了.我们的开发写出来的代码大概率是要运行在容器上的.因此深刻理解容器网络的工作原理非常的重要.只有这样将 ...

  5. Docker容器网络解析

    Docker 容器网络的发展历史 在 Dokcer 发布之初,Docker 是将网络.管理.安全等集成在一起的,其中网络模块可以为容器提供桥接网络.主机网络等简单的网络功能. 从 1.7 版本开始,D ...

  6. Docker容器网络

    Docker的技术依赖于Linux内核的虚拟化技术的发展,Docker使用到的网络技术有Network Namespace.Veth设备对.Iptables/Netfilter.网桥.路由等.接下来, ...

  7. Docker容器网络实例管理

    Docker容器网络实例管理 Linux内核实现名称空间的创建 ip netns命令 可以借助ip netns命令来完成对 Network Namespace 的各种操作.ip netns命令来自于i ...

  8. 解锁TrueNAS SCALE 三方docker容器网络访问限制,默认是关闭的;并添加Portainer-CE容器webGUI管理器

    解锁TrueNAS SCALE 三方docker容器网络访问限制,默认是关闭的:并添加Portainer-CE容器webGUI管理器 本教程环境版本:TrueNAS-SCALE-21.06-BETA. ...

  9. docker容器网络 - 同一个host下的容器间通信

    2019独角兽企业重金招聘Python工程师标准>>> 对于复杂的应用,不可避免需要多个服务部署在多个容器中,并且服务间存在相互间通信的情况.比如服务A需要连接mysql的容器.本文 ...

最新文章

  1. 滨州行谋定乡音叙乡情-农业大健康·万祥军:考察特色产业
  2. 文件上传案例——客户端和服务端套接字
  3. ubuntu c++检测usb口事件变化_拆解报告:美式双USBA口充电插座
  4. Redis的超时命令和垃圾回收策略
  5. mysql实现行转列功能
  6. net 架构师-数据库-sql server-002-工具
  7. java笔试题(1)
  8. JavaScript高级程序设计(2)在HTML中使用JavaScript
  9. UOJ#422 小Z的礼物
  10. 2017-2018-1 JAVA实验站 第四、五周作业
  11. 由最近Win10升级事故,回忆一次经历
  12. 2022好用的手机库存管理软件排行榜前十名 手机库存管理app
  13. 关于修复Office图标白色的问题
  14. Modelica生态工具开发利器——MWorks.SDK 2.0
  15. wxPython中按钮、文本控件的简单运用
  16. YY频道美化,模板修改工具【免费】可以闪动
  17. Python数据分析(五) —— 绘制直方图
  18. scratch算立方根
  19. 八种网络攻击类型,你了解多少?
  20. 止咳绝招 献给身边咳嗽的人

热门文章

  1. Nginx+Tomcat实现负载均衡与动静分离
  2. 和姜昆平起平坐,任北京曲艺团副团长,李菁离开德云社进入主流界
  3. 人体中数量最多的神经元,人体内有多少个神经元
  4. 重庆网络公司的几种死法
  5. 超星阅读器必须使用下载用户才能阅读的问题
  6. EasyPR--开发详解(9)文字定位
  7. 【小技巧】如何向论文原作者索要数据集和源码
  8. 使用Socks5代理保障Windows网络安全
  9. 1060显卡用什么软件测试,科技 篇七:有了它,GTX1060竟变智商检测卡!
  10. 电磁场与电磁波(10)——电容与部分电容