作者:知乎令孤无忌

前言

知乎在 2016 年已经完成了全量业务的容器化,并在自研容器平台上以原生镜像的方式部署和运行,并在后续陆续实施了 CI、Cron、Kafka、HAProxy、HBase、Twemproxy 等系列核心服务和基础组件的容器化。知乎既是容器技术的重度依赖者,也是容器技术的深度实践者,我们会陆续把容器技术的实践经验通过专栏和大家进行分享,本篇文章来分享知乎在镜像仓库这个容器技术核心组件的生产实践。

基础背景

容器的核心理念在于通过镜像将运行环境打包,实现“一次构建,处处运行”,从而避免了运行环境不一致导致的各种异常。在容器镜像的发布流程中,镜像仓库扮演了镜像的存储和分发角色,并且通过 tag 支持镜像的版本管理,类似于 Git 仓库在代码开发过程中所扮演的角色,是整个容器环境中不可缺少的组成部分。

镜像仓库实现方式按使用范围可以分为 Docker Hub 和 Docker Registry 两类,前者是在公网环境下面向所有容器使用者开放的镜像服务,后者是供开发者或公司在内部环境下搭建镜像仓库服务,由于公网下载镜像的网络带宽、延迟限制以及可控性的角度考虑,在私有云环境下通常需要采用 Docker Registry 来搭建自己的镜像仓库服务。

Docker Registry 本身开源,当前接口版本为 V2 (以下描述均针对该版本),支持多种存储后端,如:

  • inmemory: A temporary storage driver using a local inmemory map. This exists solely for reference and testing.
  • filesystem: A local storage driver configured to use a directory tree in the local filesystem.
  • s3: A driver storing objects in an Amazon Simple Storage Service (S3) bucket.azure: A driver storing objects in Microsoft Azure Blob Storage.
  • swift: A driver storing objects in Openstack Swift.
  • oss: A driver storing objects in Aliyun OSS.
  • gcs: A driver storing objects in a Google Cloud Storage bucket.

默认使用本地磁盘作为 Docker Registry 的存储,用下面的配置即可本地启动一个镜像仓库服务:

$ docker run -d \-p 5000:5000 \--restart=always \--name registry \-v /mnt/registry:/var/lib/registry \registry:2

生产环境挑战

很显然,以上面的方式启动的镜像仓库是无法在生产环境中使用的,问题如下:

  1. 性能问题:基于磁盘文件系统的 Docker Registry 进程读取延迟大,无法满足高并发高吞吐镜像请求需要,且受限于单机磁盘,CPU,网络资源限制,无法满足上百台机器同时拉取镜像的负载压力。
  2. 容量问题:单机磁盘容量有限,存储容量存在瓶颈。知乎生产环境中现有的不同版本镜像大概有上万个,单备份的容量在 15T 左右,加上备份这个容量还要增加不少。
  3. 权限控制:在生产环境中,需要对镜像仓库配置相应的权限认证。缺少权限认证的镜像仓库就如同没有认证的 Git 仓库一样,很容易造成信息泄露或者代码污染。

知乎的生产环境中,有几百个业务以及几万个容器运行在我们的容器平台上,繁忙时每日创建容器数近十万,每个镜像的平均大小在 1G 左右,部署高峰期对镜像仓库的压力是非常大的,上述性能和容量问题也表现的尤为明显。

知乎解决方案

为了解决上述的性能和容量等问题,需要将 Docker Registry 构造为一个分布式服务,实现服务能力和存储容量的水平扩展。这其中最重要的一点是为 Docker Registry 选择一个共享的分布式存储后端,例如 S3,Azure,OSS,GCS 等云存储。这样 Docker Registry 本身就可以成为无状态服务从而水平扩展。实现架构如下:

该方案主要有以下几个特点:

  • 客户端流量负载均衡

为了实现对多个 Docker Registry 的流量负载均衡,需要引入 Load Balance 模块。常见的 Load Balance 组件,如 LVS,HAProxy,Nginx 等代理方案都存在单机性能瓶颈,无法满足上百台机器同时拉取镜像的带宽压力。因此我们采用客户端负载均衡方案,DNS 负载均衡:在 Docker daemon 解析 Registry 域名时,即通过 DNS 解析到某个 Docker Registry 实例 IP 上,这样不同机器从不同的 Docker Registry 拉取镜像,实现负载均衡。而且由于 Docker daemon 每次拉取镜像时只需解析一次 Registry 域名,对于 DNS 负载压力本身也很小。从上图可以看出,我们每一个 Docker Registry 实例对应一个 Nginx,部署在同一台主机上,对 Registry 的访问必须通过 Nginx,Nginx 这里并没有起到负载均衡的作用,其具体的作用将在下文描述。这种基于 DNS 的客户端负载均衡存在的主要问题是无法自动摘掉挂掉的后端。当某台 Nginx 挂掉时,镜像仓库的可用性就会受到比较严重的影响。因此需要有一个第三方的健康检查服务来对 Docker Registry 的节点进行检查,健康检查失败时,将对应的 A 记录摘掉,健康检查恢复,再将 A 记录加回来。

  • Nginx 权限控制

由于是完全的私有云,加上维护成本的考虑,我们的 Docker Registry 之前并没有做任何权限相关的配置。后来随着公司的发展,安全问题也变的越来越重要,Docker Registry 的权限控制也提上了日程。对于 Docker Registry 的权限管理,官方主要提供了两种方式,一种是简单的 basic auth,一种是比较复杂的token auth。我们对 Docker Registry 权限控制的主要需求是提供基本的认证和鉴权,并且对现有系统的改动尽量最小。basic auth 的方式只提供了基本的认证功能,不包含鉴权。而 token auth 的方式又过于复杂,需要维护单独的 token 服务,除非你需要相当全面精细的 ACL 控制并且想跟现有的认证鉴权系统相整合,否则官方并不推荐使用 token auth 的方式。这两种方式对我们而言都不是很适合。我们最后采用了 basic auth + Nginx 的权限控制方式。basic auth 用来提供基本的认证,OpenRestry + lua 只需要少量的代码,就可以灵活配置不同 URL 的路由鉴权策略。我们目前实现的鉴权策略主要有以下几种:

  • 基于仓库目录的权限管理:针对不同的仓库目录,提供不同的权限控制,例如 /v2/path1 作为公有仓库目录,可以直接进行访问,而 /v2/path2 作为私有仓库目录,必须经过认证才能访问。基于机器的权限管理:只允许某些特定的机器有 pull/push 镜像的权限。Nginx 镜像缓存

Docker Registry 本身基于文件系统,响应延迟大,并发能力差。为了减少延迟提升并发,同时减轻对后端存储的负载压力,需要给 Docker Registry 增加缓存。Docker Registry 目前只支持将镜像层级 meta 信息缓存到内存或者 Redis 中,但是对于镜像数据本身无法缓存。我们同样利用 Nginx 来实现 URL 接口数据的 cache。为了避免 cache 过大,可以配置缓存失效时间,只缓存最近读取的镜像数据。主要的配置如下所示:

proxy_cache_path /dev/shm/registry-cache levels=1:2 keys_zone=registry-cache:10m max_size=124G;

加了缓存之后,Docker Registry 性能跟之前相比有了明显的提升。经过测试,100 台机器并行拉取一个 1.2G 的 image layer,不加缓存平均需要 1m50s,花费最长时间为 2m30s,添加缓存配置之后,平均的下载时间为 40s 左右,花费最长时间为 58s,可见对镜像并发下载性能的提升还是相当明显的。

  • HDFS 存储后端

Docker Registry 的后端分布式存储,我们选择使用 HDFS,因为在私有云场景下访问诸如 S3 等公有云存储网络带宽和时延都无法接受。HDFS 本身也是一个稳定的分布式存储系统,广泛应用在大数据存储领域,其可靠性满足生产环境的要求。但 Registry 的官方版本里并没有提供 HDFS 的 Storage Driver, 所以我们根据官方的接口要求及示例,实现了 Docker Registry 的 HDFS Storage Driver。出于性能考虑,我们选用了一个 Golang 实现的原生 HDFS Client (colinmarc/hdfs)。Storage Driver 的实现比较简单,只需要实现 StorageDriver 以及 FileWriter 这两个 interface 就可以了,具体的接口如下:

type StorageDriver interface {// Name returns the human-readable "name" of the driver。

Name() string// GetContent retrieves the content stored at "path" as a []byte.

GetContent(ctx context.Context, path string) ([]byte, error)// PutContent stores the []byte content at a location designated by "path".

PutContent(ctx context.Context, path string, content []byte) error// Reader retrieves an io.ReadCloser for the content stored at "path"// with a given byte offset.

Reader(ctx context.Context, path string, offset int64) (io.ReadCloser, error)// Writer returns a FileWriter which will store the content written to it// at the location designated by "path" after the call to Commit.

Writer(ctx context.Context, path string, append bool) (FileWriter, error)// Stat retrieves the FileInfo for the given path, including the current// size in bytes and the creation time.

Stat(ctx context.Context, path string) (FileInfo, error)// List returns a list of the objects that are direct descendants of the//given path.

List(ctx context.Context, path string) ([]string, error)// Move moves an object stored at sourcePath to destPath, removing the// original object.

Move(ctx context.Context, sourcePath string, destPath string) error// Delete recursively deletes all objects stored at "path" and its subpaths.

Delete(ctx context.Context, path string) errorURLFor(ctx context.Context, path string, options map[string]interface{}) (string, error)}type FileWriter interface {io.WriteCloser// Size returns the number of bytes written to this FileWriter.

Size() int64// Cancel removes any written content from this FileWriter.

Cancel() error// Commit flushes all content written to this FileWriter and makes it// available for future calls to StorageDriver.GetContent and// StorageDriver.Reader.

Commit() error}

其中需要注意的是 StorageDriver 的 Writer 方法里的 append 参数,这就要求存储后端及其客户端必须提供相应的 append 方法,colinmarc/hdfs 这个 HDFS 客户端中没有实现 append 方法,我们补充实现了这个方法。

  • 镜像清理

持续集成系统中,每次生产环境代码发布都对应有容器镜像的构建和发布,会导致镜像仓库存储空间的持续上涨,需要及时清理不用的镜像释放存储空间。但 Docker Registry 本身并没有配置镜像 TTL 的机制,需要自己开发定时清理脚本。

Docker Registry 删除镜像有两种方式,一种是删除镜像:

DELETE /v2/<name>/manifests/<reference>

另一种是直接删除镜像层 blob 数据:

DELETE /v2/<name>/blobs/<digest>

由于容器镜像层级间存在依赖引用关系,所以推荐使用第一种方式清理过期镜像的引用,然后由 Docker Registry 自身判断镜像层数据没有被引用后再执行物理删除。

未来展望

通过适当的开发和改造,我们实现了一套分布式的镜像仓库服务,可以通过水平扩容来解决单机性能瓶颈和存储容量问题,很好的满足了我们现有生产环境需求。但是在生产环境大规模分发镜像时,服务端(存储、带宽等)依然有较大的负载压力,因此在大规模镜像分发场景下,采用 P2P 的模式分发传输镜像更加合适,例如阿里开源的 Dragonfly 和腾讯开发的 FID 项目。知乎当前几乎所有的业务都运行在容器上,随着业务的快速增长,该分布式镜像仓库方案也会越来越接近性能瓶颈,因此我们在后续也会尝试引入 P2P 的镜像分发方案,以满足知乎快速增长的业务需求。

团队介绍

知乎架构平台团队是支撑整个知乎业务的基础技术团队,开发和维护着知乎几乎全量的核心基础组件,包括容器、Redis、MySQL、Kafka、LB、HBase 等核心基础设施,团队小而精,每个同学都独当一面负责上面提到的某个核心系统。

转载于:https://www.cnblogs.com/yuxiang1/p/9274394.html

知乎十万级容器规模的Java分布式镜像仓库实践相关推荐

  1. 知乎技术分享:知乎千万级并发的高性能长连接网关技术实践

    本文来自知乎官方技术团队的"知乎技术专栏",感谢原作者faceair的无私分享. 1.引言 实时的响应总是让人兴奋的,就如你在微信里看到对方正在输入,如你在王者峡谷里一呼百应,如你 ...

  2. 容器技术-部署企业级Docker镜像仓库Harbor

    在网上找了个 k8s 教程,觉得挺全的,分享给大家. 链接: https://pan.baidu.com/s/19ECniUoF243Vn9sQF6cXpA 密码: v98f –来自百度网盘超级会员V ...

  3. 腾讯T14级SQL首席专家开源分布式数据库架构实践手册

    "软件吞噬世界,开源吞噬软件,云原生吞噬开源",这是全球技术界流传的三句话. 而随着互联网在线业务的蓬勃发展,数据库面临着数据量大.高并发和超高峰值等诸多挑战.分布式数据库已成为业 ...

  4. GitHub腾讯T14级SQL首席专家开源分布式数据库架构实践手册

    "软件吞噬世界,开源吞噬软件,云原生吞噬开源",这是全球技术界流传的三句话. 而随着互联网在线业务的蓬勃发展,数据库面临着数据量大.高并发和超高峰值等诸多挑战.分布式数据库已成为业 ...

  5. 惊爆GitHub!腾讯T14级SQL首席专家开源分布式数据库架构实践手册

    "软件吞噬世界,开源吞噬软件,云原生吞噬开源",这是全球技术界流传的三句话. 而随着互联网在线业务的蓬勃发展,数据库面临着数据量大.高并发和超高峰值等诸多挑战.分布式数据库已成为业 ...

  6. Docker容器内部署Java微服务的内存限制问题

    1. 前言 文末有福利 前两天有同事发现,通过华为云 ServiceStage 的流水线部署基于模板创建的 CSEJavaSDK demo 服务时,会在容器启动过程中报错.初步排查是由于 JVM 占用 ...

  7. Karmada 千级容器集群:工商银行业务容灾管理设计利器

    文章目录 前言 一.工行业务背景 1.1.工行云计算架构组成 1.2.工行云平台技术栈 1.3.工行金融云成效 1.3.1.入云规模同业最大 1.3.2.业务如云场景广 1.4.容灾及高可用保障 1. ...

  8. Spark灰度发布在十万级节点上的实践

    Spark CI 持续集成实践 CI 介绍 持续集成是指,及时地将最新开发的且经过测试的代码集成到主干分支中. 持续集成的优点 快速发现错误 每次更新都及时集成到主干分支中,并进行测试,可以快速发现错 ...

  9. 千万级PV规模高性能高并发网站架构详解

    1.缓存(expires) 2.deflate压缩 3.Apache/nginx静态服务器提供html页面内容 4.CDN/cache缓存静态内容如:html.jpg.gif.js等 5.MYSQL数 ...

  10. 曾经“杀手级”的桌面语言 Java 将要退隐江湖?

    [CSDN 编者按]Java最初被吹捧为"杀手级"的桌面语言,但在21世纪初,它逐渐走向默默无闻.这篇文章是Java开发者所写的回顾桌面Java历史的系列文章的首篇.他认为Java ...

最新文章

  1. 刚进美团,就被各种Code Review,真的有必要吗?
  2. PMCAFF|盘点2016最值得突击的七大海外市场:最后一年窗口期,不出海就出局!...
  3. 计算机应用网站设计,《计算机应用基础》课程网站的设计与实现
  4. newcoder Tachibana Kanade Loves Probability(小数点后第k位)题解
  5. php项目技术选型方案,php-现有资源下,项目技术选型求助
  6. Wargame.kr_Web:already got
  7. 最惨2019:超300家创业公司死亡名录
  8. 洛谷 P3732 [HAOI2017]供给侧改革【trie树】
  9. Leetcode每日一题:面试题02.02.kth-node-from-end-of-list-lcci(返回倒数第k个节点)
  10. org.apache.ibatis.binding.BindingException: Parameter '1' not found. Available parameters are [arg3,
  11. vbs 窗体文字获取文档_MDI类型窗体设置背景图片
  12. 6.关于 MySQL
  13. xiaomi手机因小米账户密码遗失而无法激活手机的解决方案
  14. 慧都与数据库厂商Devart进一步提升合作层次
  15. linux dbm数据库,Linux dbm遇到的一些问题
  16. 深度调查:危险的“360安全卫士”!
  17. 加密艺术,当AI遇上区块链 |Mixlab跨学科
  18. Netgear wndr3700v2 路由器刷OpenWrt打造全能服务器(一)序章
  19. 高德地图 街道范围_高德地图推出货车导航,解决3000万货车司机出行痛点
  20. 《Adobe Fireworks CS5中文版经典教程》——1.7复习

热门文章

  1. PyQt+QtDesigner及相关插件的安装和设置
  2. python iotextwrapp执行不动_Python tkinter - 第10章 文本控件(Text)方法
  3. 永磁同步电机转子磁链_采用冻结磁导率的瞬态场永磁同步电机交直轴电感计算...
  4. 爱河许云上计算机乐谱,神马乐团爱河简谱
  5. java调用linux系统命令_java 调用linux系统命令
  6. java 运动_java web 运动前端
  7. Codeforces 888E - Maximum Subsequence
  8. 加速晶圆代工业务创新 开创智能互联世界
  9. iptables conntrack有什么用
  10. is-is中通告默认路由