Docker 新网络 overlay 网络
Overlay网络是指在不改变现有网络基础设施的前提下,通过某种约定通信协议,把二层报文封装在IP报文之上的新的数据格式。
这样不但能够充分利用成熟的IP路由协议进程数据分发,而且在Overlay技术中采用扩展的隔离标识位数,能够突破VLAN的4000数量限制,
支持高达16M的用户,并在必要时可将广播流量转化为组播流量,避免广播数据泛滥。
因此,Overlay网络实际上是目前最主流的容器跨节点数据传输和路由方案。
Overlay网络的实现方式可以有许多种,其中IETF(国际互联网工程任务组)制定了三种Overlay的实现标准
1. 虚拟可扩展LAN(VXLAN)
2. 采用通用路由封装的网络虚拟化(NVGRE)
3. 无状态传输协议(SST)
Docker内置的Overlay网络是采用IETF标准的VXLAN方式,并且是VXLAN中普遍认为最适合大规模的云计算虚拟化环境的SDN Controller模式。
Docker的Overlay网络功能与其Swarm集群是紧密整合的,因此为了使用Docker的内置跨节点通信功能,最简单的方式就是采纳Swarm作为集群的解决方案。
在 docker 1.9 中,要使用 Swarm + overlay 网络架构,还需要以下几个条件:
1. 所有Swarm节点的Linux系统内核版本不低于3.16 (在 docker 1.10 后面版本中,已经支持内核3.10,升级内核实在是一个麻烦事情)
2. 需要一个额外的配置存储服务,例如Consul、Etcd或ZooKeeper
3. 所有的节点都能够正常连接到配置存储服务的IP和端口
4. 所有节点运行的Docker后台进程需要使用『--cluster-store』和『--cluster-advertise』参数指定所使用的配置存储服务地址
-------------------------------------------------------------------------------------------
服务器3台 如下:
10.6.17.12
10.6.17.13
10.6.17.14
------------------------------------------------------------------------------------------
docker version
Client:
Version: 1.10.0-rc1
API version: 1.22
Go version: go1.5.3
Git commit: 677c593
Built: Fri Jan 15 20:50:15 2016
OS/Arch: linux/amd64
------------------------------------------------------------------------------------------
首先要做的是 修改主机名
10.6.17.12 管理节点可不修改
10.6.17.13 = hostnamectl --static set-hostname swarm-node-1
10.6.17.14 = hostnamectl --static set-hostname swarm-node-2
------------------------------------------------------------------------------------------
上面的4个条件中,第一个条件在docker 1.10 RC 版本中已经默认就满足了。
下面我们来创建第二个条件中的 配置存储服务,配置存储服务按照大家的使用习惯,自己选择一个配置存储。
由于我们java 项目一直在使用 ZooKeeper ,所以这边选择 ZooKeeper 作为存储服务,为了方便测试,这边只配置 单机的 ZooKeeper 服务
-------------------------------------------------------------------------------------------
pull 一个 centos 的镜像下来
[10.6.17.12]# docker pull centos
以下是 zookeeper 的 Dockerfile
-------------------------------------------------------------------------------------------
FROM centos
MAINTAINER jicki@qq.com
USER root
# 添加erepo 源
RUN rpm --import https://www.elrepo.org/RPM-GPG-KEY-elrepo.org && rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-2.el7.elrepo.noarch.rpm
RUN yum -y install --enablerepo base wget java tar.x86_64 && mkdir -p /opt/local && wget -q -O - http://apache.fayea.com/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz | tar -xzf - -C /opt/local/ && mv /opt/local/zookeeper-3.4.6 /opt/local/zookeeper && cp /opt/local/zookeeper/conf/zoo_sample.cfg /opt/local/zookeeper/conf/zoo.cfg && mkdir -p /opt/local/zookeeper/data && mkdir -p /opt/local/zookeeper/log
ENV JAVA_HOME /usr/
ADD start.sh /start.sh
WORKDIR /opt/local/zookeeper
#修改配置文件
RUN sed -i 's/dataDir=\/tmp\/zookeeper/dataDir=\/opt\/local\/zookeeper\/data/g' /opt/local/zookeeper/conf/zoo.cfg
ENTRYPOINT ["/start.sh"]
# 保证前台运行
CMD ["start-foreground"]
-------------------------------------------------------------------------------------------
[10.6.17.12]# docker build -t="zookeeper" .
[10.6.17.12]# docker run --restart=always -d -v /opt/data/zookeeper/data:/opt/local/zookeeper/data -v /opt/data/zookeeper/log:/opt/local/zookeeper/log -p 2181:2181 zookeeper
zookeeper 创建完以后,需要修改每个主机Docker后台进程启动脚本里的变量内容,并配置swarm节点.
[10.6.17.12]# sed -i 's/-H fd:\/\//-H tcp:\/\/10.6.17.12:2375 --cluster-store=zk:\/\/10.6.17.12:2181/store --cluster-advertise=10.6.17.12:2376/g' /lib/systemd/system/docker.service
[10.6.17.13]# sed -i 's/-H fd:\/\//-H tcp:\/\/10.6.17.13:2375 --cluster-store=zk:\/\/10.6.17.12:2181/store --cluster-advertise=10.6.17.13:2376/g' /lib/systemd/system/docker.service
[10.6.17.14]# sed -i 's/-H fd:\/\//-H tcp:\/\/10.6.17.14:2375 --cluster-store=zk:\/\/10.6.17.12:2181/store --cluster-advertise=10.6.17.14:2376/g' /lib/systemd/system/docker.service
修改完 变量内容,执行
systemctl daemon-reload
并 重启 docker
systemctl restart docker.service
由于修改和重启Docker后台进程本身是比较麻烦的事情,如果用户业务可能会使用到跨节点网络通信,建议在架设Docker集群的时候就事先准备配置存储服务,然后直接在添加主机节点时就可以将相应参数加入到Docker的启动配置中了。
接下来创建Overlay网络,我们要建的这个网络是横跨所有节点的,也就是说在每个节点都应该有一个名称、ID和属性完全一致的网络,它们之间还要相互认可对方为自己在不同节点的副本。如何实现这种效果呢?目前的Docker network命令还无法做到,因此只能借助于Swarm,下面我们创建Swarm 群集
首先我们选择 10.6.17.12 这台机器做为 master 节点 创建 swarm:
[10.6.17.12]# docker -H tcp://10.6.17.12:2375 run --name master --restart=always -d -p 8888:2375 swarm manage zk://10.6.17.12:2181/swarm
在其他两台Docker业务容器运行的节点上运行Swarm Agent服务:
[10.6.17.13]# docker -H tcp://10.6.17.13:2375 run --name node_1 --restart=always -d swarm join --addr=10.6.17.13:2375 zk://10.6.17.12:2181/swarm
[10.6.17.14]# docker -H tcp://10.6.17.14:2375 run --name node_2 --restart=always -d swarm join --addr=10.6.17.14:2375 zk://10.6.17.12:2181/swarm
查看所有节点上的信息:
[10.6.17.12]# docker -H tcp://10.6.17.12:8888 ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
5fc7753caa2c swarm "/swarm join --addr=1" Less than a second ago Up Less than a second 2375/tcp swarm-node-1/node_1
330b964ba732 swarm "/swarm join --addr=1" Less than a second ago Up Less than a second 2375/tcp swarm-node-2/node_2
至此 swarm 集群已经搭建完成了。
Swarm提供与Docker服务完全兼容的API,因此可以直接使用docker命令进行操作。
注意上面命令中创建Master服务时指定的外部端口号8888,它就是用来连接Swarm服务的地址。
现在我们就可以创建一个Overlay类型的网络了:
[10.6.17.12]# docker -H tcp://10.6.17.12:8888 network create --driver=overlay ovr0
这个命令被发送给了Swarm服务,Swarm会在所有Agent节点上添加一个属性完全相同的Overlay类型网络。
在每个节点上面 使用 docker network ls 可以查看 到已经有一个 ovr0 的 overlay 网络
在Swarm的网络里面,每个网络的名字都会加上节点名称作为前缀,
如: swarm-node-1/node_1
swarm-node-2/node_2
但Overlay类型的网络是没有这个前缀的,这也说明了这类网络是被所有节点共有的。
下面我们在Swarm中创建两个连接到Overlay网络的容器,并用Swarm的过滤器限制这两个容器分别运行在不同的节点上。
-------------------------------------------------------------------------------------------
FROM centos
MAINTAINER jicki@qq.com
RUN yum -y update; yum clean all
RUN yum -y install epel-release; yum clean all
RUN yum -y install wget; yum clean all
ADD ./nginx.sh /root/
RUN /bin/bash /root/nginx.sh
RUN rm -rf /root/nginx.sh
RUN rm -rf /opt/local/nginx/conf/nginx.conf
ADD ./nginx.conf /opt/local/nginx/conf/
RUN mkdir -p /opt/local/nginx/conf/vhost
ADD ./docker.conf /opt/local/nginx/conf/vhost
RUN chown -R upload:upload /opt/htdocs/web
EXPOSE 80 443
CMD ["/opt/local/nginx/sbin/nginx", "-g", "daemon off;"]
-------------------------------------------------------------------------------------------
[10.6.17.12]# docker -H tcp://10.6.17.12:8888 run --name nginx_web_1 --net ovr0 --env="constraint:node==swarm-node-1" -d -v /opt/data/nginx/logs:/opt/local/nginx/logs nginx
[10.6.17.12]# docker -H tcp://10.6.17.12:8888 run --name nginx_web_2 --net ovr0 --env="constraint:node==swarm-node-2" -d -v /opt/data/nginx/logs:/opt/local/nginx/logs nginx
创建完两个容器以后,下面来来测试一下 ovr0 这个网络的连通性
[10.6.17.12]# docker -H tcp://10.6.17.12:8888 exec -it nginx_web_1 ping nginx_web_2
PING nginx_web_2 (10.0.0.3) 56(84) bytes of data.
64 bytes from nginx_web_2.ovr0 (10.0.0.3): icmp_seq=1 ttl=64 time=0.360 ms
64 bytes from nginx_web_2.ovr0 (10.0.0.3): icmp_seq=2 ttl=64 time=0.247 ms
64 bytes from nginx_web_2.ovr0 (10.0.0.3): icmp_seq=3 ttl=64 time=0.234 ms
64 bytes from nginx_web_2.ovr0 (10.0.0.3): icmp_seq=4 ttl=64 time=0.241 ms
64 bytes from nginx_web_2.ovr0 (10.0.0.3): icmp_seq=5 ttl=64 time=0.212 ms
如上所示 我们已经在Docker的Overlay网络上成功的进行了跨节点的数据通信。
测试两个 ssh 的服务,创建两个 容器,查看容器所属 IP 。
[10.6.17.12]# docker -H tcp://10.6.17.12:8888 run --name ssh-1 --net ovr0 --env="constraint:node==swarm-node-1" -d -p 8001:22 ssh
[10.6.17.12]# docker -H tcp://10.6.17.12:8888 run --name ssh-2 --net ovr0 --env="constraint:node==swarm-node-2" -d -p 8001:22 ssh
创建容器 IP 为 DHCP 分配, 按照从下向上分配, 重启不会改变overlay 的IP 。
首先创建 ssh-1 分配IP为 10.0.0.4 创建 ssh-2 分配IP为 10.0.0.5
销毁 ssh-1 再次创建 分配IP 为 10.0.0.4
销毁 ssh-1 ssh-2 先创建 ssh-2 分配 IP 为 10.0.0.4
在 docker 1.10 后面的版本中 --net-alias=[] 的使用!!
在docker run 的时候 可指定相同的 alias ,可以实现 故障切换的效果。。
具体命令如:
[10.6.17.12]# docker -H tcp://10.6.17.12:8888 run --name nginx_web_1 --net ovr0 --net-alias="nginx" --env="constraint:node==swarm-node-1" -d -v /opt/data/nginx/logs:/opt/local/nginx/logs nginx
[10.6.17.12]# docker -H tcp://10.6.17.12:8888 run --name nginx_web_2 --net ovr0 --net-alias="nginx" --env="constraint:node==swarm-node-2" -d -v /opt/data/nginx/logs:/opt/local/nginx/logs nginx
当我们进入 机器里面的时候 使用 dig 查看 nginx A记录 看到的是一个,但是 一个容器 挂掉以后
A记录会自动绑定到另外一台机器中。
在 docker 1.11 后面的版本中 --net-alias=[] 已经支持 负载均衡。
当我们使用 dig 查看 A记录 时可以看到多个 A记录
docker network disconnect 与 docker network connect 命令的使用! 使用这两个命令可达到 A B 测试 以及 快速 回滚 的效果。
docker network connect ----> 加入 指定网络
docker network disconnect ----> 退出 指定网络
具体命令使用:
docker network disconnect ovr0 nginx_web_2 nginx_web_2 这个容器退出 ovr0 这个网络。
docker network connect ovr0 nginx_web_2 nginx_web_2 这个容器重新加入 ovr0 这个网络。
转载于:https://www.cnblogs.com/jicki/p/5548610.html
Docker 新网络 overlay 网络相关推荐
- PPTV Docker集群的网络方案选型
原作者:李周 转载来源:http://dockone.io/article/1673 PPTV Docker集群的网络方案选型 作者介绍:李周,现PPTVDCOS技术主要负责人.专注于Doc ...
- Overlay 网络
1. Overlay 网络 Overlay 技术概述 Overlay 在网络技术领域,指的是一种网络架构上叠加的虚拟化技术模式,其大体框架是对基础网络不进行大规模修改的条件下,实现应用在网络上的承载, ...
- Overlay 网络 — Overview
目录 文章目录 目录 云计算虚拟化对传统网络带来的挑战 虚拟机迁移范围受到网络架构限制 虚拟机规模受网络设备表项规格的限制 网络隔离/分离能力限制 Overlay 网络 Overlay 网络的三类核心 ...
- 虚拟网络overlay、underlay
虚拟网络技术:overlay和underlay实现网路承载和隔离 overlay在网络技术领域,指的是在网络架构上叠加的虚拟化技术,其大体是对基础网络不进行大规模修改的条件下,实现应用在网络上的承载, ...
- 创建 overlay 网络 - 每天5分钟玩转 Docker 容器技术(50)
上一节我们搭建好实验环境,配置并运行了consul,今天开始创建 overlay 网络. 在 host1 中创建 overlay 网络 ov_net1: -d overlay 指定 driver 为 ...
- 【Docker之Swarm详细讲解Swarm集群搭建管理节点工作节点Raft一致性协议overlay网络Docker结合Swarm部署WordPress个人博客实战】
一.知识回顾 之前的内容都帮你整理好了,在这里哟! [0.Docker相关目录文章整理,可自行查看,包含多节内容] [1.Docker详细安装部署&阿里镜像地址配置] [2.Docker架构& ...
- Docker 配置网络教程 - overlay 网络
原文地址 这部分教程是关于 swarm 服务相关的网络.分为四部分,可以在 Linux.Windows 或 Mac 上运行,但对于后面两部分,需要另一个运行在其他地方的 Docker 主机. 如何使用 ...
- 准备 overlay 网络实验环境 - 每天5分钟玩转 Docker 容器技术(49)
为支持容器跨主机通信,Docker 提供了 overlay driver,使用户可以创建基于 VxLAN 的 overlay 网络.VxLAN 可将二层数据封装到 UDP 进行传输,VxLAN 提供与 ...
- CrateDB三机三节点部署(Docker Overlay网络)
CrateDB三机三节点部署(Docker Overlay网络) 1.基础环境 三台服务器 vm01: 192.168.1.101 vm02: 192.168.1.102 vm03: 192.168. ...
最新文章
- 一种注册表沙箱的思路、实现——注册表的一些基础知识
- 哪些软件问题也可导致硬盘录像机死机
- mysql share mode_mysql锁:mysql lock in share mode 和 select for update
- order by 中 使用decode
- greendao3.2.3配置时遇到的问题
- jsp实现简单购物车页面
- js自动弹窗被拦截 html,JS打开新窗口防止被浏览器阻止的方法
- weblogic安装及部署
- 3DMAX渲染很卡很慢?8个3dsMax中节省建模和渲染时间的技巧-瑞云渲染
- python websocket服务器端_python实现websocket服务器
- 《特征值与特征向量》定义、意义及例子
- 【详解】为何三元一次方程可以表示一个平面
- MFC对话框程序添加弹窗进度条提示
- 抢先服服务器维修什么时候玩,王者荣耀抢先服能和那些服务器匹配?匹配开放时间详解介绍...
- vscode terminal主题配色
- [数据库基础篇]——数据库系统概述、数据模型、数据库系统的结构、数据库系统的组成
- IBM “New Power”五大新计划
- WPF编写的txt阅读器(自适应各种编码,解决显示大数据量txt卡顿的问题)
- 九种js弹出对话框的方法
- Cesiumlab2中通用模型处理添加属性