Tanzu Kubernetes Grid (TKG) 是 Tanzu 产品家族中的运行时基石,作为VMware 的 Kubernetes 企业发行版本,可以在私有云和公有云多种云环境中部署,为用户提供一致的 Kubernetes 使用体验。为了满足学习,开发、测试、生产部署等多样化的需求,VMware 也推出了TKG 对应的社区版本TCE (TanzuCommunity Edition),采用相应的开源组件替代 TKG 中的企业组件。

VMware Tanzu 社区版 (Tanzu Community Edition,简称TCE)是一个功能齐全、易于管理的 Kubernetes 平台,适用于学习者和用户。它是一个免费的、社区支持的 VMware Tanzu 开源发行版,可以在几分钟内在本地工作站或者云上安装和配置。该项目支持创建应用程序平台。它利用 Cluster API 提供 Kubernetes 集群的声明式部署和管理来做到这一点。

Kubernetes 是我们编排工作负载的基础。有了这个基础,VMware Tanzu 社区版就可以安装支持在集群中运行的应用程序的平台包。VMware Tanzu 社区版通过提供一组经过验证的组件实现。

此外,它使您能够使用自己的组件添加或替换这些组件。这种灵活性能够满足生产独特要求的应用程序平台,而无需从头开始。借助 VMware Tanzu 社区版,云原生从业者可以轻松地在社区支持的环境中独立学习、评估或使用 Kubernetes 和其他云原生技术。

项目地址:

https://github.com/vmware-tanzu/community-edition

https://tanzucommunityedition.io/

TCE (Tanzu Community Edition) 架构

Tanzu社区版由各种组件组成,这些组件支持 Kubernetes 集群的引导和管理,并在其上运行各种平台服务。下面详细介绍了TCE架构:


1

TCE Tanzu CLI

每个子命令都为 Tanzu 社区版本(TCE)提供相应功能。此功能的范围可以从创建集群到管理在集群中运行的软件。子命令 tanzu 是托管在客户端系统上的独立静态二进制文件。这实现了一个可插入的架构,其中插件可以相互独立地添加、删除和更新。该tanzu命令预计将安装在机器的路径中。每个子命令都应该安装在 ${XDG_DATA_HOME}/tanzu-cli 。这种关系如下所示。

Tanzu社区版附带TanzuCLI和一组精选插件。一些插件可能位于 vmware-tanzu/community-edition存储库中,而其他插件可能位于vmware-tanzu/tanzu-framework中。vmware-tanzu/tanzu-framework 中的插件可用于多个 Tanzu 版本。位于 vmware-tanzu/community-edition 中的插件仅在 Tanzu 社区版中使用。vmware-tanzu/community-edition中的插件可能会升级(移动)到 vmware-tanznu/tanzu-framework。此举不影响 Tanzu 社区版用户;它只会影响插件的贡献者。此外,插件可能存在于vmware-tanzu/community-edition和 vmware-tanzu/tanzu-framework 之外的存储库中

2

Managed Clusters 托管集群部署方式

托管集群是由管理集群部署和管理,使用该 tanzu management-cluster create 命令,运行该命令时,会在 bootstrap 主机创建一个 bootstrap 集群,用于创建管理集群,如下图所示

创建管理集群后,bootstrap集群将执行所有管理对象到管理集群的移动。管理集群负责管理自身和创建的任何新集群。这些由管理集群管理的新集群称为工作负载集群。下图显示了这种端到端的关系。

托管集群是一种具有1个管理集群和N工作负载集群的部署模型。管理集群为 Tanzu 提供管理和操作。它运行 Cluster-API,用于管理工作负载集群和多集群服务。工作负载集群是开发人员的工作负载运行的地方。

创建管理集群时,会在本地计算机上创建kind bootstrap集群。这是一个基于Kind的集群,通过Docker运行。bootstrap集群在指定的提供程序上创建一个管理集群。然后将有关如何在目标环境中管理集群的信息转入管理集群。至此,本地bootstrap集群被删除。

管理集群现在可以创建工作负载集群。工作负载集群由管理集群部署。工作负载集群用于运行您的应用程序工作负载。使用 Tanzu CLI 部署工作负载集群。

3

Unmanaged Clusters 独立集群部署模式

独立集群部署模式提供适用于开发/测试环境的单节点本地工作站集群。它需要最少的本地资源,并且部署速度很快。它为运行多个集群提供了支持。部署独立集群时会自动安装默认的 Tanzu 社区版软件包存储库

独立集群为开发和实验提供Tanzu环境。默认情况下,它们通过安装了Tanzu 件的kind在本地运行。独立集群提供适用于开发/测试环境的单节点本地工作站集群。它需要最少的本地资源,并且部署速度很快。它为运行多个集群提供了支持。

独立集群定位与Docker desktop ,Minikube 竞争桌面市场,培养用户的使用习惯。

4

软件包管理

Tanzu 社区版通过Tanzu CLI 为用户提供软件软件包管理。包管理定义为发现、安装、升级和删除在Tanzu集群上运行的软件。每个包都是使用carvel tools 创建的,并遵循我们的packaging流程。包被放入一个单独的包中,称为包存储库并推送到符合 OCI 镜像仓库。

在 Tanzu 集群中, kapp-controller一直在监视包存储库。当集群被告知这个包存储库(可能通过tanzu package repository命令)时,kapp-controller 可以拉下该存储库并使所有包对集群可用。这种关系如下所示。

使用集群中可用的软件包,用户 tanzu 可以安装各种软件包。在集群中,会创建一个 Package Install 资源,它会指示 kapp-controller 下载软件包并在集群中安装软件。此流程如下所示。

注意:如果部署独立集群,则会自动安装默认的Tanzu社区版软件包存储库“tce-repo”

软件包管理扩展了 Tanzu 社区版的功能。您可以通过 Tanzu CLI 发现和部署包。Tanzu 包是 Kubernetes 配置及其关联的软件容器映像的聚合,形成一个版本化和可分发的捆绑包,可以部署为OCI 容器映像。软件包安装到 Tanzu集群中。

用户管理包:部署到集群中,包的生命周期独立于集群进行管理。核心包:部署到集群中,通常在集群启动之后。生命周期作为集群的一部分进行管理。包仓库 包存储库是包的集合。包存储库定义了元数据信息,使您可以在集群上发现、安装、管理和升级包。在可以将包部署到集群中之前,必须通过包存储库使其可被发现。

包存储库是由 Tanzu 社区版 kapp-controller 处理的 Kubernetes 自定义资源的集合。与 Linux 包存储库类似,Tanzu 包存储库以声明方式定义元数据信息,使在运行的集群上发现、安装、管理和升级软件包成为可能。

Tanzu社区版提供了一个名为的包存储库tce-repo,它提供了开始在 Kubernetes 上构建应用程序平台所需的包集合。您可以创建自己的软件包存储库来分发不同的软件。

5

kube-vip 项目

Tanzu社区版默认使用 kube-vip 实现控制节点的高可用 (也支持用NSX AVI进行替换)

kube-vip 可以在你的控制平面节点上提供一个 Kubernetes 原生的 HA 负载均衡,不需要再在外部设置 HAProxy 和 Keepalived 来实现集群的高可用了。

kube-vip 是一个为 Kubernetes 集群内部和外部提供高可用和负载均衡的开源项目,在 Vmware 的 Tanzu 项目中已经使用 kube-vip 替换了用于 vSphere 部署的 HAProxy 负载均衡器,本文我们将先来了解 kube-vip 如何用于 Kubernetes 控制平面的高可用和负载均衡功能。

Kube-Vip 最初是为 Kubernetes 控制平面提供 HA 解决方案而创建的,随着时间的推移,它已经发展为将相同的功能合并到Kubernetes的 LoadBalancer 类型的 Service 中了。

当前TCE 没有使用kube-vip发布LoadBalancer 类型的Service。

项目地址

https://github.com/kube-vip/kube-vip

https://kube-vip.chipzoller.dev/docs/

测试拓扑

部署步骤

托管集群方式部署步骤

1

下载TCE相关软件

首先需要下载Tanzu CLi,可以从以下地址下载,当前最新版本为0.12.1

https://github.com/vmware-tanzu/community-edition/releases/download/v0.12.1/tce-linux-amd64-v0.12.1.tar.gz

另外,托管集群模式需要使用 OVF 模版,VMware Customer Connect 帐户才能下载 OVA,请在此处注册,模版可以到TKG项目下进行下载最新的

https://customerconnect.vmware.com/account-registration

2

准备bootstrap主机

部署托管集群,需要准备bootstrap 主机,安装向导会临时构建bootstrap本地集群,用于创建管理集群。建议采用centos7.x vcpu>=2 内存>=4g

3

配置dns,ntp ,dhcp服务器

配置过程参考 拙文 《Tanzu学习系列之TKGm 1.4 for vSphere 快速部署 》

4

bootstrap 主机安装docker 和 kubectl

[root@tanzu-cli-tce ~]# curl -LO https://dl.k8s.io/release/v1.20.1/bin/linux/amd64/kubectl% Total    % Received % Xferd  Average Speed   Time    Time     Time  CurrentDload  Upload   Total   Spent    Left  Speed
100   154  100   154    0     0    161      0 --:--:-- --:--:-- --:--:--   161
100 38.3M  100 38.3M    0     0  9779k      0  0:00:04  0:00:04 --:--:-- 24.6M
[root@tanzu-cli-tce ~]# sudo install -o root -g root -m 0755 kubectl /usr/local/bin/kubectl# kubectl version
Client Version: version.Info{Major:"1", Minor:"20", GitVersion:"v1.20.1", GitCommit:"c4d752765b3bbac2237bf87cf0b1c2e307844666", GitTreeState:"clean", BuildDate:"2020-12-18T12:09:25Z", GoVersion:"go1.15.5", Compiler:"gc", Platform:"linux/amd64"}
The connection to the server localhost:8080 was refused - did you specify the right host or port?

5

bootstrap 主机安装TCE tanzu cli

1) 解压下载的tar xzvf tce-linux-amd64-v0.12.1.tar.gz

默认是非root账户进行安装可以通过解压之后的 install.sh文件 ,去掉!= "true"的 !,允许root用户进行安装

ALLOW_INSTALL_AS_ROOT="${ALLOW_INSTALL_AS_ROOT:-""}"
if [[ "$EUID" -eq 0 && "${ALLOW_INSTALL_AS_ROOT}" = "true" ]]; thenerror_exit "Do not run this script as root"
fi
[root@tanzu-cli-tce tce-linux-amd64-v0.12.1]# ./install.sh
+ set +x
====================================Installing Tanzu Community Edition
====================================Installing tanzu cli to /usr/local/bin/tanzuChecking for required plugins...
Installing plugin 'apps:v0.6.0'
Installing plugin 'builder:v0.11.4'
Installing plugin 'cluster:v0.11.4'
Installing plugin 'codegen:v0.11.4'
Installing plugin 'conformance:v0.12.1'
Installing plugin 'diagnostics:v0.12.1'
Installing plugin 'kubernetes-release:v0.11.4'
Installing plugin 'login:v0.11.4'
Installing plugin 'management-cluster:v0.11.4'
Installing plugin 'package:v0.11.4'
Installing plugin 'pinniped-auth:v0.11.4'
Installing plugin 'secret:v0.11.4'
Installing plugin 'unmanaged-cluster:v0.12.1'
Successfully installed all required plugins
✔  successfully initialized CLIInstallation complete!

2)安装完成之后,查看当前Tanzucli plugin

[root@tanzu-cli-tce tce-linux-amd64-v0.12.1]# /usr/local/bin/tanzu version
version: v0.11.4
buildDate: 2022-05-17
sha: a9b8f3a
[root@tanzu-cli-tce tce-linux-amd64-v0.12.1]# tanzu plugin listNAME                DESCRIPTION                                                        SCOPE       DISCOVERY      VERSION  STATUSapps                Applications on Kubernetes                                         Standalone  default-local  v0.6.0   installedbuilder             Build Tanzu components                                             Standalone  default-local  v0.11.4  installedcluster             Kubernetes cluster operations                                      Standalone  default-local  v0.11.4  installedcodegen             Tanzu code generation tool                                         Standalone  default-local  v0.11.4  installedconformance         Run Sonobuoy conformance tests against clusters                    Standalone  default-local  v0.12.1  installeddiagnostics         Cluster diagnostics                                                Standalone  default-local  v0.12.1  installedkubernetes-release  Kubernetes release operations                                      Standalone  default-local  v0.11.4  installedlogin               Login to the platform                                              Standalone  default-local  v0.11.4  installedmanagement-cluster  Kubernetes management cluster operations                           Standalone  default-local  v0.11.4  installedpackage             Tanzu package management                                           Standalone  default-local  v0.11.4  installedpinniped-auth       Pinniped authentication operations (usually not directly invoked)  Standalone  default-local  v0.11.4  installedsecret              Tanzu secret management                                            Standalone  default-local  v0.11.4  installedunmanaged-cluster   Deploy and manage single-node, static, Tanzu clusters.             Standalone  default-local  v0.12.1  installed

6

在bootstrap 主机生成ssh public key

备注:安装过程中会注入到集群,用于ssh免密方式登陆集群节点

[root@tanzu-cli-tce ~]# ssh-keygen -t rsa -b 4096 -C "tkg@tanzu.com"
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa):
Created directory '/root/.ssh'.
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:c79LZWg8QCGWOPErhnkbEpa+2YtSBNHjtkoisAsnX2A tkg@tanzu.com
The key's randomart image is:
+---[RSA 4096]----+
|  .o  .oo.o.     |
|  . o.oo.o       |
|   o+. .. .      |
|. Eo++   . o .   |
|.o +=.= S . = o  |
|* o +B + o o +   |
|oB +o o     o    |
|. +  . .   . .   |
|   .. .     o.   |
+----[SHA256]-----+# cat /root/.ssh/id_rsa.pub
ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAACAQDCCsTJRjEiWsjs9SJ+5s4PDLYpaE25R9i1Ihh+PUdczFdOYIjsm50BYB2AvjY+u4Du7kCS+S3oZqom+WJ8DG1ljoDJ+3LW3INu0eg85v5Qkh+txbrYLArW4vZL5ON4kd9TZyZFpStKph0J8mqHgLEFnzHCF1xs3E6/Y4gwj1nXe80PFpl9CgiDz0ESbKp71KUJImIBlhEqADxnnSAmWvuyT6y2PbnvBFQO8s2AmGrzNEOKec0qyMWsrW7hYsmnquTXPuorGSVxre7OlEzKxgP2CstYvcdeEUeHUGpvQdfrzn6f/xa1PxPx+2x1mlpsLiYRMfFe//2RHGN1nEH4hcD+GG9X6NlseqHClScXKDD13CkZP6LL3cJwv661PBXPbCxMjdgUmZj3Y+sClwTU0gEw1KHnnTZR2gosCA6t/iV3d25BoqjXGfpVIu9Tlh3xZo8mNSDcFk4kEY9XlB7mRTUvUAGSWQsWu8Fq0U5j2IrUr9Ir/SM7fiSGs7PNGNzrgtkbAO1u2f5zCUjDJ/0SgV1Aoc55sgbXrzMBC03IvDqX3hpK6RPcIuMsLtEQGEbQg+lshgU3f4xX+CGXTOAj9PaPe5diMP/gF+CNgG0TL36B0U2xlizOMQj32lux9f19lEpcw7OJbyB82DpeY10gbrtlkxCyMSTuvT2WTNvMqSbWrw== tkg@tanzu.com

7

TCE托管集群 for vsphere 方式安装

1) 在bootstrap主机 启动安装向导

# tanzu management-cluster create --ui --bind 10.105.148.83:8088 --browser none --timeout 2h0m0sValidating the pre-requisites...
Serving kickstart UI at http://10.105.148.83:8088

2)使用浏览器打开UIhttp://10.105.148.83:8088,选择部署在VMware vSphere 平台

3)输入vcenter server IP,用户名和密码,把bootstrap主机的ssh的 /root/.ssh/id_rsa.pub 内容输入到 SSH PUBLIC KEY 框

4) 选择TCE 管理集群模式,测试方便,选择开发模式,选择kube-vip 模式 (如果已经购买AVI,可以选择AVI)作为控制节点高可用方案

5)没有购买AVI,可以直接下一步

6)默认下一步

7)vsphere资源选择

8) TCE 集群集群网络设置

9)认证模式,本次测试选择不配置

备注:如果需要配置可以参考拙文《Tanzu学习系列之TKGm 1.4 for vSphere 组件集成(三)》

10)选择OS image 镜像,是前文下载的OVA 模式导入之后转成的模版

备注:部署模版

11) Review 前序输入配置信息,并拷贝CLI命令行

12) 用上一步拷贝的命令行方式创建TCE 管理集群集群,设置日志级别为v9

注意交互式输入

[root@tanzu-cli-tce ~]# tanzu management-cluster create tcem  --file /root/.config/tanzu/tkg/clusterconfigs/8rr2wgggqy.yaml -v 9
compatibility file (/root/.config/tanzu/tkg/compatibility/tkg-compatibility.yaml) already exists, skipping download
BOM files inside /root/.config/tanzu/tkg/bom already exists, skipping download
CEIP Opt-in status: falseValidating the pre-requisites...vSphere 7.0 with Tanzu Detected.You have connected to a vSphere 7.0 with Tanzu environment that includes an integrated Tanzu Kubernetes Grid Service which
turns a vSphere cluster into a platform for running Kubernetes workloads in dedicated resource pools. Configuring Tanzu
Kubernetes Grid Service is done through the vSphere HTML5 Client.Tanzu Kubernetes Grid Service is the preferred way to consume Tanzu Kubernetes Grid in vSphere 7.0 environments. Alternatively you may
deploy a non-integrated Tanzu Kubernetes Grid instance on vSphere 7.0.
Note: To skip the prompts and directly deploy a non-integrated Tanzu Kubernetes Grid instance on vSphere 7.0, you can set the 'DEPLOY_TKG_ON_VSPHERE7' configuration variable to 'true'Do you want to configure vSphere with Tanzu? [y/N]: n
Would you like to deploy a non-integrated Tanzu Kubernetes Grid management cluster on vSphere 7.0? [y/N]: y
Deploying TKG management cluster on vSphere 7.0 ...
Identity Provider not configured. Some authentication features won't work.
Using default value for CONTROL_PLANE_MACHINE_COUNT = 1. Reason: CONTROL_PLANE_MACHINE_COUNT variable is not set
Using default value for WORKER_MACHINE_COUNT = 1. Reason: WORKER_MACHINE_COUNT variable is not set
Checking if VSPHERE_CONTROL_PLANE_ENDPOINT 10.105.148.84 is already in useSetting up management cluster...
Validating configuration...
Using infrastructure provider vsphere:v1.0.3
Generating cluster configuration...
Using default value for CONTROL_PLANE_MACHINE_COUNT = 1. Reason: CONTROL_PLANE_MACHINE_COUNT variable is not set
Using default value for WORKER_MACHINE_COUNT = 1. Reason: WORKER_MACHINE_COUNT variable is not set
Setting up bootstrapper...
Fetching configuration for kind node image...
kindConfig:&{{Cluster kind.x-k8s.io/v1alpha4}  [{  map[] [{/var/run/docker.sock /var/run/docker.sock false false }] [] [] []}] {ipv4 0  100.96.0.0/11 100.64.0.0/13 false } map[] map[] [apiVersion: kubeadm.k8s.io/v1beta2
kind: ClusterConfiguration
imageRepository: projects.registry.vmware.com/tkg
etcd:local:imageRepository: projects.registry.vmware.com/tkgimageTag: v3.5.2_vmware.3
dns:type: CoreDNSimageRepository: projects.registry.vmware.com/tkgimageTag: v1.8.4_vmware.9] [] [] []}
Creating kind cluster: tkg-kind-ca54ujvv4sotkob7j3r0
Creating cluster "tkg-kind-ca54ujvv4sotkob7j3r0" ...
Ensuring node image (projects.registry.vmware.com/tkg/tanzu-framework-release/kind/node:v1.22.8_vmware.1-tkg.1_v0.11.1) ...
Pulling image: projects.registry.vmware.com/tkg/tanzu-framework-release/kind/node:v1.22.8_vmware.1-tkg.1_v0.11.1 ...

13)TCE管理集群创建成功之后,以下命令获得管理集群kubeconfig文件,并切换到管理集群的context进行查看

# 获取管理集群kubeconfig文件
[root@tanzu-cli-tce cluster]# tanzu mc kubeconfig get --admin
Credentials of cluster 'tcem' have been saved
You can now access the cluster by running 'kubectl config use-context tcem-admin@tcem'
[root@tanzu-cli-tce cluster]# kubectl config use-context tcem-admin@tcem
Switched to context "tcem-admin@tcem".
# 查看集群[root@tanzu-cli-tce cluster]# kubectl get node -o wide
NAME                        STATUS   ROLES                  AGE   VERSION            INTERNAL-IP      EXTERNAL-IP      OS-IMAGE             KERNEL-VERSION      CONTAINER-RUNTIME
tcem-control-plane-7ws9r    Ready    control-plane,master   11h   v1.22.8+vmware.1   10.105.148.162   10.105.148.162   Ubuntu 20.04.4 LTS   5.4.0-107-generic   containerd://1.5.9
tcem-md-0-89c575f99-mpvrx   Ready    <none>                 11h   v1.22.8+vmware.1   10.105.148.166   10.105.148.166   Ubuntu 20.04.4 LTS   5.4.0-107-generic   containerd://1.5.9
[root@tanzu-cli-tce cluster]#

8

通过TCE管理集群,创建TCE工作集群

创建工作集群yaml配置文件,模版来自创建TCE管理集群的配置文件

本次测试为 /root/.config/tanzu/tkg/clusterconfigs/8rr2wgggqy.yaml

# 编辑工作集群yaml文件
[root@tanzu-cli-tce cluster]# cat w01.yaml
CLUSTER_NAME: tcew01
CLUSTER_PLAN: prod
CNI: antrea
CONTROL_PLANE_MACHINE_COUNT: 3
WORKER_MACHINE_COUNT: 3
VSPHERE_CONTROL_PLANE_DISK_GIB: "20"
VSPHERE_CONTROL_PLANE_ENDPOINT: 10.105.148.85
VSPHERE_CONTROL_PLANE_MEM_MIB: "4096"
VSPHERE_CONTROL_PLANE_NUM_CPUS: "2"
VSPHERE_DATACENTER: /WestDC
VSPHERE_DATASTORE: /WestDC/datastore/vsanDatastore
VSPHERE_FOLDER: /WestDC/vm
VSPHERE_INSECURE: "true"
VSPHERE_NETWORK: /WestDC/network/test
VSPHERE_PASSWORD: <encoded:Vk13YXJlMTIzIQ==>
VSPHERE_RESOURCE_POOL: /WestDC/host/westcluster/Resources/west-tkgm
VSPHERE_SERVER: 10.105.146.50
VSPHERE_SSH_AUTHORIZED_KEY: ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAACAQDCCsTJRjEiWsjs9SJ+5s4PDLYpaE25R9i1Ihh+PUdczFdOYIjsm50BYB2AvjY+u4Du7kCS+S3oZqom+WJ8DG1ljoDJ+3LW3INu0eg85v5Qkh+txbrYLArW4vZL5ON4kd9TZyZFpStKph0J8mqHgLEFnzHCF1xs3E6/Y4gwj1nXe80PFpl9CgiDz0ESbKp71KUJImIBlhEqADxnnSAmWvuyT6y2PbnvBFQO8s2AmGrzNEOKec0qyMWsrW7hYsmnquTXPuorGSVxre7OlEzKxgP2CstYvcdeEUeHUGpvQdfrzn6f/xa1PxPx+2x1mlpsLiYRMfFe//2RHGN1nEH4hcD+GG9X6NlseqHClScXKDD13CkZP6LL3cJwv661PBXPbCxMjdgUmZj3Y+sClwTU0gEw1KHnnTZR2gosCA6t/iV3d25BoqjXGfpVIu9Tlh3xZo8mNSDcFk4kEY9XlB7mRTUvUAGSWQsWu8Fq0U5j2IrUr9Ir/SM7fiSGs7PNGNzrgtkbAO1u2f5zCUjDJ/0SgV1Aoc55sgbXrzMBC03IvDqX3hpK6RPcIuMsLtEQGEbQg+lshgU3f4xX+CGXTOAj9PaPe5diMP/gF+CNgG0TL36B0U2xlizOMQj32lux9f19lEpcw7OJbyB82DpeY10gbrtlkxCyMSTuvT2WTNvMqSbWrw== tkg@tanzu.com
VSPHERE_TLS_THUMBPRINT: ""
VSPHERE_USERNAME: administrator@vsphere.local
VSPHERE_WORKER_DISK_GIB: "20"
VSPHERE_WORKER_MEM_MIB: "4096"
VSPHERE_WORKER_NUM_CPUS: "2"# 创建工作集群
tanzu cluster create -f w01.yaml -v 9# 集群创建成功,查看集群# tanzu cluster listNAME    NAMESPACE  STATUS   CONTROLPLANE  WORKERS  KUBERNETES        ROLES   PLANtcew01  default    running  3/3           3/3      v1.22.8+vmware.1  <none>  prod# 获取工作集群kubeconfig文件[root@tanzu-cli-tce cluster]# tanzu cluster kubeconfig get tcew01 --admin
Credentials of cluster 'tcew01' have been saved
You can now access the cluster by running 'kubectl config use-context tcew01-admin@tcew01'# 切换到工作集群context
[root@tanzu-cli-tce cluster]# kubectl config use-context tcew01-admin@tcew01
Switched to context "tcew01-admin@tcew01".# 查看工作集群状态
[root@tanzu-cli-tce cluster]# kubectl get node -o wide
NAME                           STATUS   ROLES                  AGE   VERSION            INTERNAL-IP      EXTERNAL-IP      OS-IMAGE             KERNEL-VERSION      CONTAINER-RUNTIME
tcew01-control-plane-2xtgz     Ready    control-plane,master   10h   v1.22.8+vmware.1   10.105.148.172   10.105.148.172   Ubuntu 20.04.4 LTS   5.4.0-107-generic   containerd://1.5.9
tcew01-control-plane-8gwgf     Ready    control-plane,master   10h   v1.22.8+vmware.1   10.105.148.167   10.105.148.167   Ubuntu 20.04.4 LTS   5.4.0-107-generic   containerd://1.5.9
tcew01-control-plane-wwzzp     Ready    control-plane,master   10h   v1.22.8+vmware.1   10.105.148.171   10.105.148.171   Ubuntu 20.04.4 LTS   5.4.0-107-generic   containerd://1.5.9
tcew01-md-0-d59d7d994-tqnrm    Ready    <none>                 10h   v1.22.8+vmware.1   10.105.148.168   10.105.148.168   Ubuntu 20.04.4 LTS   5.4.0-107-generic   containerd://1.5.9
tcew01-md-1-7b7d98b898-qb6kw   Ready    <none>                 10h   v1.22.8+vmware.1   10.105.148.169   10.105.148.169   Ubuntu 20.04.4 LTS   5.4.0-107-generic   containerd://1.5.9
tcew01-md-2-5bfdc65b44-zt7ds   Ready    <none>                 10h   v1.22.8+vmware.1   10.105.148.170   10.105.148.170   Ubuntu 20.04.4 LTS   5.4.0-107-generic   containerd://1.5.9

9

在TCE工作集群中使用 MetalLB 作为负载均衡器

TCE 作为TKG开源版,既可以使用企业级负载均衡NSX AVI,也可以使用免费的负载均衡 MetalLB 进行替换

MetalLB 是一种在 Kubernetes 集群中实现对 LoadBalancer 服务类型支持的简单方法。它可以与大多数网络设置很好地集成在一起。

kubernetes 本身并没有实现 LoadBalancer;如果是公有云,可以使用云服务商提供的 provider;TKG 可以使用 NSX AVI 实现,而对于bare metal或者TCE来说,则可以使用 MetalLB 来达到相同的目的。

MetalLB 提供了两个功能:

  • 地址分配:当创建 LoadBalancer Service 时,MetalLB 会为其分配 IP 地址。这个 IP 地址是从预先配置的 IP 地址库获取的。同样,当 Service 删除后,已分配的 IP 地址会重新回到地址库。

  • 对外广播:分配了 IP 地址之后,需要让集群外的网络知道这个地址的存在。MetalLB 使用了标准路由协议实现:ARP、NDP 或者 BGP。

广播的方式有两种,第一种是Layer 2 模式,使用 ARP(ipv4)/NDP(ipv6) 协议;第二种是 BPG。

MetalLB 运行时有两种工作负载:

Controler:Deployment,用于监听 Service 的变更,分配/回收 IP 地址。

Speaker:DaemonSet,对外广播 Service 的 IP 地址。

Layer2 模式并不是真正意义上的负载均衡,因为流量都会先经过1个 node 后,再通过 kube-proxy 转给多个 end points。如果该 node 故障,MetalLB 会迁移 IP 到另一个 node,并重新发送免费 ARP 告知客户端迁移。现代操作系统基本都能正确处理免费 ARP,因此 failover 不会产生太大问题。

Layer2 模式更为通用,不需要用户有额外的设备;但由于Layer2 模式使用ARP/NDP,地址池分配需要跟客户端在同一子网,地址分配略为繁琐,建议作为测试使用。

BGP模式:BGP模式下,集群中所有node都会跟上联路由器建立BGP连接,并且会告知路由器应该如何转发service的流量。

BGP模式可以使MetaLB实现真正的LoadBalancer。

项目地址:

https://github.com/metallb/metallb

https://metallb.universe.tf/installation/

1)本次测试安装配置 MetalLB Layer 2模式

[root@tanzu-cli-tce cluster]# kubectl apply -f https://raw.githubusercontent.com/metallb/metallb/v0.12.1/manifests/namespace.yaml
namespace/metallb-system created
[root@tanzu-cli-tce cluster]# kubectl apply -f https://raw.githubusercontent.com/metallb/metallb/v0.12.1/manifests/metallb.yaml
Warning: policy/v1beta1 PodSecurityPolicy is deprecated in v1.21+, unavailable in v1.25+
podsecuritypolicy.policy/controller created
podsecuritypolicy.policy/speaker created
serviceaccount/controller created
serviceaccount/speaker created
clusterrole.rbac.authorization.k8s.io/metallb-system:controller created
clusterrole.rbac.authorization.k8s.io/metallb-system:speaker created
role.rbac.authorization.k8s.io/config-watcher created
role.rbac.authorization.k8s.io/pod-lister created
role.rbac.authorization.k8s.io/controller created
clusterrolebinding.rbac.authorization.k8s.io/metallb-system:controller created
clusterrolebinding.rbac.authorization.k8s.io/metallb-system:speaker created
rolebinding.rbac.authorization.k8s.io/config-watcher created
rolebinding.rbac.authorization.k8s.io/pod-lister created
rolebinding.rbac.authorization.k8s.io/controller created
daemonset.apps/speaker created
deployment.apps/controller created

2)配置MetalLB Layer 2 模式,设置地址范围,并应用配置文件

[root@tanzu-cli-tce cluster]# cat metalbl2.yaml
apiVersion: v1
kind: ConfigMap
metadata:namespace: metallb-systemname: config
data:config: |address-pools:- name: defaultprotocol: layer2addresses:- 10.105.148.145-10.105.148.150[root@tanzu-cli-tce cluster]# kubectl  apply -f metalbl2.yaml
configmap/config created

3)确认MetalLB 运行状态

[root@tanzu-cli-tce cluster]# kubectl get all -n metallb-system
NAME                              READY   STATUS    RESTARTS   AGE
pod/controller-66445f859d-tcnnf   1/1     Running   0          41m
pod/speaker-9fsbh                 1/1     Running   0          41m
pod/speaker-c84gk                 1/1     Running   0          41m
pod/speaker-dn6h8                 1/1     Running   0          41m
pod/speaker-pnv26                 1/1     Running   0          41m
pod/speaker-sxzk5                 1/1     Running   0          41m
pod/speaker-vst6z                 1/1     Running   0          41mNAME                     DESIRED   CURRENT   READY   UP-TO-DATE   AVAILABLE   NODE SELECTOR            AGE
daemonset.apps/speaker   6         6         6       6            6           kubernetes.io/os=linux   41mNAME                         READY   UP-TO-DATE   AVAILABLE   AGE
deployment.apps/controller   1/1     1            1           41mNAME                                    DESIRED   CURRENT   READY   AGE
replicaset.apps/controller-66445f859d   1         1         1       41m

4)测试MetalLB Layer 2模式 LoadBalancer 功能

[root@tanzu-cli-tce cluster]# kubectl create deployment nginx --image=nginx
deployment.apps/nginx created
[root@tanzu-cli-tce cluster]# kubectl get pod
NAME                     READY   STATUS    RESTARTS   AGE
nginx-6799fc88d8-wgqzg   1/1     Running   0          29s
[root@tanzu-cli-tce cluster]# kubectl expose deployment nginx --type=LoadBalancer --port=80
service/nginx exposed
[root@tanzu-cli-tce cluster]# kubectl get svc
NAME         TYPE           CLUSTER-IP       EXTERNAL-IP      PORT(S)        AGE
kubernetes   ClusterIP      100.64.0.1       <none>           443/TCP        11h
nginx        LoadBalancer   100.69.250.215   10.105.148.145   80:30138/TCP   5s

独立集群方式Linux平台部署

Tanzu 社区版独立集群提供适用于开发/测试环境的单节点本地工作站集群。它需要最少的本地资源,并且部署速度很快。

Tanzu 社区版支持两个独立集群提供程序:Kind 和 minikube,支持部署在Linux,Mac,Windows 平台。

Kind 是默认的集群提供程序,默认包含在独立集群二进制文件中,只需要安装Docker。Minikube 是一个替代的集群提供者,如果你打算使用 minikube 作为你的集群提供者,你必须首先安装 minikube 和一个 minikube 支持的容器或虚拟机管理器,比如 Docker。

1) 在Linux平台安装独立集群(Linux 需要安装Docker引擎),本次测试在bootstrap主机上进行安装测试

[root@tanzu-cli-tce cluster]# tanzu unmanaged-cluster create  tceu -v 9												

玩转 Tanzu Community Edition(社区版)相关推荐

  1. Keil5 MDK(MDK-Community edition)社区版安装教程

    2022年3月,Keil官方推送了一个MDK新版本:Keil5社区版 MDK(MDK-Community edition),该版本完全免费,没有代码大小限制,可供电子爱好者.学生等群体非商业免费评估和 ...

  2. GitLab企业版和社区版的功能对比

    http://www.shcsinfo.com/china/git_features.html#compare GITLAB社区版 功能丰富: 包括Git仓库管理.代码审查.问题跟踪.动态订阅.wik ...

  3. 【Tanzu 社区版=TCE】 Mac 笔记本快速部署安装体验-(一)

    Tanzu 社区版 Mac笔记本快速部署安装体验 VMware Tanzu Community Edition Mac环境准备 电脑环境 下载docker desktop K8S v1.24.0 可选 ...

  4. 我在腾讯做运维--快速玩转蓝鲸社区版6.0【直播公开课】

    本次蓝鲸直播系列公开课特邀腾讯运维专家来到直播间,分享蓝鲸产品的设计理念和场景案例,快来一起来围观"我在腾讯做运维--快速玩转蓝鲸社区版6.0",抓住时机预约报名! 温馨提示:参与 ...

  5. 【Tanzu 社区版=TCE】 Mac 笔记本快速部署安装体验-(二)

    @[TOC](Tanzu 社区版( TCE )Mac 笔记本快速部署安装体验) 下载镜像比较慢一些,耐心等待15-25分钟 对TCE集群验证.查看 命令操作如下: ➜ ~ kubectl config ...

  6. 云原生爱好者周刊:VMware Tanzu 社区版发布,无任何限制!

    云原生一周动态要闻: VMware Tanzu 推出社区版 Kubernetes Cluster API 1.0 版已生产就绪 Linkerd 2.11 发布 Cartografos 工作组推出云原生 ...

  7. IDEA社区版(Community Edition)创建Springboot-Web项目,Java

    IDEA社区版(Community Edition)创建Springboot-Web项目,Java 一般开发springring企业级web服务器端项目需要IDEA的企业版,IDEA社区版默认是不能直 ...

  8. mysql社区版与cluster 区别_MySQL版本Enterprise/Community/Cluster等版本的区别

    MySQL分为多种版本如Community.Enterprise.Cluster和Workbench等,MySQL不同版本有什么区别?LAMPLNMP分享: MySQL版本区别 ● MySQL Com ...

  9. Nutanix 将社区版代码带入云中

    据了解,Nutanix很快会实现在Amazon Web Services或者Google Cloud Platform云中部署该软件. Nutanix销售基于Hyper-V.vSphere或者基于KV ...

最新文章

  1. pytorch训练过程中loss出现NaN的原因及可采取的方法
  2. sihpostreboot 权限_记一次使用post请求重启TP-LINK TL-WDR7661路由
  3. android申请权限一次性申请多个,Android 批量申请权限
  4. Ctrl与Caps Lock键的交换
  5. 安卓代码还是xml绘制页面_我们应该绘制实际还是预测,预测还是实际还是无关紧要?
  6. webpack-dev-server 搭建本地服务以及浏览器实时刷新
  7. [Leetcode][第410题][JAVA][分割数组的最大值][动态规划][二分]
  8. python中math函数库矩阵_Python中矩阵库Numpy基本操作详解
  9. eigrp配置实验_来,太阁带你做实验
  10. eclipse中出现代码覆盖的颜色信息,如何去掉
  11. .Net Frame安装心得
  12. [Excel函数]--intercept函数
  13. 查询正在使用的用户(删除用户时)
  14. 网页设计作业-HTML5+CSS大作业——端午节日(25页) 图片滚动
  15. 2022 年值得安装的几个 chrome/edge 扩展神器
  16. 【帝国CMS】灵动标签循环调用广告
  17. windows快捷键之打开网络连接
  18. OFD文件打开、打印设置,看这篇就够了
  19. ALESA切削刀具1355.3904-01
  20. strtodate mysql_MySQL str_to_date()函数

热门文章

  1. GTK+编程入门(1)—简介与glib库
  2. Unity UGUI 鼠标悬停一段时间显示Text文字
  3. 用python实现带有透明通道的图片像PS图层那样进行叠加
  4. 互联网络-多级混洗交换互联网络
  5. JavaWeb购物系统(二)购物登陆、注册
  6. 计算机视觉系列-业界动态-AI快车道-PaddleOCR最新进展
  7. “神仙打架”的预制菜赛道,国联水产携手盒马能否“C”位出道?
  8. 我目前所见过的最难的IQ测试题
  9. 散人霸业iOS客户端技术支持
  10. Python实现外部排序