CNI 란 무엇입니까? Cloud Native Computing Foundation 프로젝트인 CNI(Container Network Interface)는 Linux 컨테이너에서 네트워크 인터페이스를 구성하기 위한 플러그인을 작성하기 위한 사양 및 라이브러리와 여러 플러그인으로 구성됩니다. CNI는 컨테이너의 네트워크 연결과 컨테이너가 삭제될 때 할당된 리소스 제거에만 관련됩니다.
Kubernetes는 네트워크 공급자와 Kubernetes Pod 네트워킹 간의 인터페이스로 CNI를 사용합니다.
CNI(Container Network Interface)는 Calico, Flannel, weave 및 Terway와 같은 많은 CNI 플러그인이 있습니다.
다양한 CNI 구현 모드를 살펴보겠습니다.
CNI 플러그인은 오버레이, 라우팅 및 언더레이의 세 가지 구현 모드가 있습니다.
오버레이 모드에서 컨테이너는 호스트의 IP 주소 범위와 무관합니다. 호스트 간 통신 중에 호스트 간에 터널이 설정되고 컨테이너 CIDR 블록의 모든 패킷은 기본 물리적 네트워크의 호스트 간에 교환되는 패킷으로 캡슐화됩니다. 이 모드는 기본 네트워크에 대한 종속성을 제거합니다.
라우팅 모드에서 호스트와 컨테이너는 서로 다른 CIDR 블록에 속합니다. 호스트 간 통신은 라우팅을 통해 구현됩니다. 패킷 캡슐화를 위해 서로 다른 호스트 간에 터널이 설정되지 않습니다. 그러나 경로 상호 연결은 기본 네트워크에 부분적으로 의존합니다. 예를 들어, 기본 네트워크에서 레이어 2로 연결 가능한 경로가 있어야 합니다.
Underlay 모드에서 컨테이너와 호스트는 동일한 네트워크 계층에 있으며 동일한 위치를 공유합니다. 컨테이너 간의 네트워크 상호 연결은 기본 네트워크에 따라 다릅니다. 따라서 이 모드는 기본 기능에 크게 의존합니다.
CNI network providers using this network model include Flannel, Canal, and Weave.
CNI network providers using this network model include Calico and Romana.
Bash용 kubectl 완료 스크립트는 kubectl completion bash 명령을 사용하여 생성할 수 있습니다. 셸에서 완성 스크립트를 소싱하면 kubectl 자동 완성이 활성화됩니다.
그러나 완료 스크립트는 bash-completion 에 따라 다르므로 이 소프트웨어를 먼저 설치해야 합니다(bash-completion을 실행하여 이미 설치되어 있는지 테스트할 수 있음kubectl completion bash).
$ type _init_completion
_init_completion is a function
_init_completion ()
{
local exclude= flag outx errx inx OPTIND=1;
while getopts "n:e:o:i:s" flag "$@"; do
...
오류가 발생할 경우 bash-completion을 설치합니다.
bash-completion 설치
bash-completion은 많은 패키지 관리자가 제공합니다. apt-get install bash-completion또는 yum install bash-completion등 으로 설치할 수 있습니다 .
위의 명령어는 /usr/share/bash-completion/bash_completion을 생성합니다.
셸을 다시 로드하고 type _init_completion 명령이 성공하면 이미 설정된 것입니다. 그렇지 않으면 ~/.bashrc파일에 다음을 추가합니다.
source /usr/share/bash-completion/bash_completion
type _init_completion을 입력하여 bash-completion이 올바르게 설치되었는지 확인합니다.
클러스터 외부 네트워킹 이 섹션에서는 클러스터 외부의 트래픽이 Kubernetes 클러스터 내에서 실행되는 애플리케이션에 도달하는 방법을 설명합니다. 이 정보는 클러스터의 애플리케이션 및 워크로드를 설계할 때 중요합니다. Kubernetes가 서비스를 사용하여 Pod 내에서 실행되는 애플리케이션에 안정적인 IP 주소를 제공하는 방법에 대해 이미 읽었습니다. kube-proxy가 각 노드의 모든 트래픽을 관리하기 때문에 기본적으로 Pod는 외부 IP 주소를 노출하지 않습니다. Pod와 해당 컨테이너는 자유롭게 통신할 수 있지만 클러스터 외부의 연결은 서비스에 액세스할 수 없습니다. 예를 들어, 이전 그림에서 클러스터 외부의 클라이언트는 해당 ClusterIP를 통해 프런트엔드 서비스에 액세스할 수 없습니다. GKE는 액세스를 제어하고 클러스터 전체에 가능한 한 균등하게 들어오는 트래픽을 분산하기 위해 세 가지 유형의 부하 분산기를 제공합니다. 여러 유형의 로드 밸런서를 동시에 사용하도록 하나의 서비스를 구성할 수 있습니다.
External Load Balancers: 외부 부하 분산기는 클러스터 외부 및 Google Cloud Virtual Private Cloud(VPC) 네트워크 외부에서 들어오는 트래픽을 관리합니다. GCP 네트워크와 연결된 전달 규칙을 사용하여 트래픽을 Kubernetes 노드로 라우팅합니다.
Internal Load Balancers : 내부 부하 분산기는 동일한 VPC 네트워크 내에서 들어오는 트래픽을 관리합니다. 외부 부하 분산기와 마찬가지로 GCP 네트워크와 연결된 전달 규칙을 사용하여 트래픽을 Kubernetes 노드로 라우팅합니다.
HTTP(S) Load Balancers : HTTP(S) 로드 밸런서는 HTTP(S) 트래픽에 사용되는 특수 외부 로드 밸런서입니다. 트래픽을 Kubernetes 노드로 라우팅하기 위해 전달 규칙 대신 Ingress 리소스를 사용합니다.
트래픽이 Kubernetes 노드에 도달하면 로드 밸런서 유형에 관계없이 동일한 방식으로 처리됩니다. 로드 밸런서는 클러스터의 어떤 노드가 해당 서비스에 대해 포드를 실행하고 있는지 인식하지 못합니다. 대신 관련 Pod를 실행하지 않는 노드를 포함하여 클러스터의 모든 노드에서 트래픽의 균형을 유지합니다. 지역 클러스터에서 로드는 클러스터 지역의 모든 영역에 있는 모든 노드에 분산됩니다. 트래픽이 노드로 라우팅되면 노드는 트래픽을 동일한 노드 또는 다른 노드에서 실행 중인 Pod로 라우팅합니다. 노드는 kube-proxy가 노드에서 관리하는 iptables 규칙을 사용하여 무작위로 선택된 파드로 트래픽을 전달합니다.
Container-native load balancing
컨테이너 네이티브 로드 밸런싱을 사용하면 여러 종류의 로드 밸런서가 Pod를 직접 대상으로 지정하고 해당 트래픽을 Pod에 고르게 분산할 수 있습니다. 컨테이너 네이티브 로드 밸런싱은 NEG(네트워크 엔드포인트 그룹)라는 데이터 모델을 활용합니다. NEG는 IP 포트 쌍으로 표시되는 네트워크 끝점의 모음입니다. NEG를 GKE 인그레스와 함께 사용하면 인그레스 컨트롤러가 L7 부하 분산기의 모든 측면을 쉽게 생성할 수 있습니다. 여기에는 가상 IP 주소 생성, 전달 규칙, 상태 확인, 방화벽 규칙 등이 포함됩니다. 유연성을 높이기 위해 독립 실행형 NEG를 만들 수도 있습니다. 이 경우 L7 로드 밸런서의 모든 측면을 만들고 관리해야 합니다.
control-plane 노드는 etcd(클러스터 데이터베이스) 및 API 서버(kubectl 명령줄 도구가 통신함)를 포함하여 control-plane 구성 요소가 실행되는 시스템입니다. control-plane node를 초기화합니다. master node에서만 실행합니다.
sudo kubeadm init
[init] Using Kubernetes version: v1.23.6
[preflight] Running pre-flight checks
[WARNING SystemVerification]: missing optional cgroups: hugetlb
error execution phase preflight: [preflight] Some fatal errors occurred:
[ERROR NumCPU]: the number of available CPUs 1 is less than the required 2
[ERROR FileContent--proc-sys-net-ipv4-ip_forward]: /proc/sys/net/ipv4/ip_forward contents are not set to 1
[preflight] If you know what you are doing, you can make a check non-fatal with `--ignore-preflight-errors=...`
To see the stack trace of this error execute with --v=5 or higher
ip_forward 설정
위와 같이 /proc/sys/net/ipv4/ip_forward contents are not set to 1 오류가 발생하면 아래 명령어를 수행합니다.
kubectl get nodes
NAME STATUS ROLES AGE VERSION
master NotReady control-plane 4m11s v1.24.0
root 유저로 수행하려면 아래를 설정합니다.
# export KUBECONFIG=/etc/kubernetes/admin.conf
root@instance-2:~# kubectl get nodes
NAME STATUS ROLES AGE VERSION
instance-2 NotReady control-plane,master 9m30s v1.23.6
위에서 STATUS 를 보변 NotReady 인데 이는 CNI(Container Network Interface)가 설치가 안되어 있어서 그렇습니다.
Pod network add-on 설치
pod 네트워크 애드온 종류는 많습니다(calico, canal, flannel, romana, weave net 등).
본 문서에서는 weave network add on 을 설치합니다.
Weave Net을 설치하기 전에 TCP 6783 및 UDP 6783/6784 포트가 방화벽에 의해 차단되지 않았는지 확인해야 합니다.
아래 명령어로 weave network add-on을 설치합니다.
kubectl apply -f "https://cloud.weave.works/k8s/net?k8s-version=$(kubectl version | base64 | tr -d '\n')"
## 실행결과
serviceaccount/weave-net created
clusterrole.rbac.authorization.k8s.io/weave-net created
clusterrolebinding.rbac.authorization.k8s.io/weave-net created
role.rbac.authorization.k8s.io/weave-net created
rolebinding.rbac.authorization.k8s.io/weave-net created
daemonset.apps/weave-net created
kubectl get nodes 명령어를 수행하면 status 가 Ready 상태가 됩니다.
kubectl get nodes
NAME STATUS ROLES AGE VERSION
instance-2 Ready control-plane,master 14m v1.23.6
worker node 구성
위에서 저장한 token.txt 내용을 복사합니다.
복사한 내용을 worker node에서 수행합니다.
에러 1) 처음 worker node 구성 시 아래와 같은 오류가 발생했는데, 이는 방화벽 때문에 발생한 오류입니다. 마스터 노드와 6443 port로 통신할 수 있는지 확인해 봅니다. 통신이 안될 경우 통신이 되도록 방화벽을 해제합니다.
sudo kubeadm join 10.10.10.210:6443 --token j0vdns.lqbq17k0rwbuvwqj \
> --discovery-token-ca-cert-hash sha256:acfc34d9d77a3b0b326de55f969f95f34779853ac34720526eef99357982750d
[preflight] Running pre-flight checks
[WARNING SystemVerification]: missing optional cgroups: hugetlb
error execution phase preflight: couldn't validate the identity of the API Server: Get "https://10.10.1.21:6443/api/v1/namespaces/kube-public/configmaps/cluster-info?timeout=10s": net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers)
To see the stack trace of this error execute with --v=5 or higher
에러 2) woker node를 master node에 join 시 아래 오류가 발생하고,
kubeadm token list 명령어 수행 시 아무런 데이터가 조회되지 않을 경우에 대한 해결 방법입니다.
error execution phase preflight: couldn't validate the identity of the API Server:
could not find a JWS signature in the cluster-info ConfigMap for token ID "j0vdns"
해결방법 1) kubeadm reset 후 kubeadm init을 실행하여 token을 다시 생성한다.
$ kubeadm reset
$ kubeadm init
kubeadm join 10.10.1.21:6443 --token j0vdns.lqbq17k0rwbuvwqj \
--discovery-token-ca-cert-hash sha256:acfc34d9d77a3b0b326de55f969f95f34779853ac34720526eef99357982750d
## token list 확인
$ kubeadm token list
TOKEN TTL EXPIRES USAGES DESCRIPTION EXTRA GROUPS
b962zm.9d6jh1g9dq0oroaq 23h 2022-05-03T14:00:04Z authentication,signing The default bootstrap token generated by 'kubeadm init'. system:bootstrappers:kubeadm:default-node-token
해결방법 2) token 생성 후 hash 값을 확인한 다음 worker node를 join 합니다.
## token 생성
$ kubeadm token create
## hash 확인
$ openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'
## node 조인
kubeadm join <Kubernetes API Server:PORT> --token <Token 값> --discovery-token-ca-cert-hash sha256:<Hash 값>
worker node를 master에 join 시키기.
필요한 수 만큼 worker node를 추가합니다. 단, 위에서 설치한 순서대로 설치를 하고 worker node를 추가합니다.
kubeadm join 10.10.1.21:6443 --token b962zm.9d6jh1g9dq0oroaq \
--discovery-token-ca-cert-hash sha256:fc41fdaa4dfebf0d2c37a67aef3f3d69e88d9f6e3c9c73b510983dc7eb474276
[preflight] Running pre-flight checks
[preflight] Reading configuration from the cluster...
[preflight] FYI: You can look at this config file with 'kubectl -n kube-system get cm kubeadm-config -o yaml'
[kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
[kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
[kubelet-start] Starting the kubelet
[kubelet-start] Waiting for the kubelet to perform the TLS Bootstrap...
This node has joined the cluster:
* Certificate signing request was sent to apiserver and a response was received.
* The Kubelet was informed of the new secure connection details.
Run 'kubectl get nodes' on the control-plane to see this node join the cluster.
설치 확인
마스터 노드(control-plane 노드)에서 kubectl get nodes 로 node 정보를 확인합니다. 아래와 같이 조회되면 정상입니다.
$ kubectl get nodes
NAME STATUS ROLES AGE VERSION
instance-2 Ready control-plane,master 10h v1.23.6
instance-3 Ready <none> 9h v1.23.6
instance-4 Ready <none> 2m40s v1.23.6
선택사항으로 kubectl 명령어 자동완성 기능을 설정합니다. 명령어의 일부 글자만 타입핑한 후 "탭키"를 누르면 명령어가 완성되는 기능입니다.
## node 정보조회
$ kubectl get nodes
## node 정보 상세조회
$ kubectl get nodes -o wide
컨테이너를 실행하면서 kubectl 명령어 사용하기
아래 명령어는 nginx 1.14 버전의 이미지로 webserver 라는 이름의 pod를 생성하고 실행하라는 내용입니다.
$ kubectl run webserver --image=nginx:1.14 --port 80
pod/webserver created
생성된 pod를 확인합니다. 아래 내용을 보면 현재 상태가 container creating 인 것을 확인할 수 있습니다. 현재 진행되는 상태를 보려면 kubectl describe pods 명령어를 수행합니다.
$ kubectl get pods
NAME READY STATUS RESTARTS AGE
webserver 0/1 ContainerCreating 0 23s
## pods 상태 상세확인
$ kubectl describe pods
상세 정보를 확인하던 중 아래와 같은 오류가 발생했습니다. 방화벽 때문에 발생한 오류입니다. << 상세히 설명>>
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Scheduled 11m default-scheduler Successfully assigned default/webserver to instance-4
Warning FailedCreatePodSandBox 7m26s kubelet Failed to create pod sandbox: rpc error: code = Unknown desc = failed to set up sandbox container "7d2b349d4a7bd47b5561422b67fcc0cef3b9935c034f69d6021077962c1fe807" network for pod "webserver": networkPlugin cni failed to set up pod "webserver_default" network: netplugin failed with no error message: signal: killed
Warning FailedCreatePodSandBox 3m45s kubelet Failed to create pod sandbox: rpc error: code = Unknown desc = failed to set up sandbox container "4c89307a722068dd809a4024ba4a27e8228aa8df46ff06777b9a1a2b9573f201" network for pod "webserver": networkPlugin cni failed to set up pod "webserver_default" network: netplugin failed with no error message: signal: killed
Warning FailedCreatePodSandBox 4s kubelet Failed to create pod sandbox: rpc error: code = Unknown desc = failed to set up sandbox container "a9e40c16daeed29b34607346c2bee142d47a2f4f47da8ba4416e08c6aabe0872" network for pod "webserver": networkPlugin cni failed to set up pod "webserver_default" network: netplugin failed with no error message: signal: killed
Normal SandboxChanged 3s (x3 over 7m26s) kubelet Pod sandbox changed, it will be killed and re-created.
pod 삭제
예제) kubectl delete pods <pod> : <pod> 부분에 삭제할 pod 이름을 입력합니다.
kubectl delete pods webserver
재수행
성공
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Scheduled 62s default-scheduler Successfully assigned default/webserver to instance-4
Normal Pulling 61s kubelet Pulling image "nginx"
Normal Pulled 58s kubelet Successfully pulled image "nginx" in 2.296326487s
Normal Created 58s kubelet Created container webserver
Normal Started 58s kubelet Started container webserver
ypjeong@instance-2:~$ kubectl get pods
NAME READY STATUS RESTARTS AGE
webserver 1/1 Running 0 72s
cgroup 드라이버 구성
컨테이너 런타임과 kubelet은 "cgroup 드라이버"라는 속성을 갖고 있으며, cgroup 드라이버는 리눅스 머신의 cgroup 관리 측면에 있어서 중요하다.
kubeadm으로 클러스터 생성하기
Initializing control-plane node
control-plane 노드는 etcd(클러스터 데이터베이스) 및 API 서버(kubectl 명령줄 도구가 통신함)를 포함하여 control-plane 구성 요소가 실행되는 시스템입니다.
1. (권장) 이 단일 control-plane kubeadm 클러스터를 고가용성으로 업그레이드할 계획이 있는 경우 --control-plane-endpoint를 지정하여 모든 control-plane 노드에 대한 endpoint 설정해야 합니다. 이러한 endpoint 는 DNS 이름 또는 로드 밸런서의 IP 주소일 수 있습니다.
2. Pod 네트워크 추가 기능을 선택하고 kubeadm init에 전달되는 인수가 필요한지 확인합니다. 선택한 타사 공급자에 따라 --pod-network-cidr을 공급자별 값으로 설정해야 할 수도 있습니다.
3.
# initialize kubernetes with a Flannel compatible pod network CIDR kubeadm init --pod-network-cidr=10.244.0.0/16;
쿠버네티스는 컨테이너화된 워크로드와 서비스를 관리하기 위한 이식성이 있고, 확장가능한 오픈소스 플랫폼이다. 쿠버네티스는 선언적 구성과 자동화를 모두 용이하게 해준다. 쿠버네티스는 크고, 빠르게 성장하는 생태계를 가지고 있다. 쿠버네티스 서비스, 기술 지원 및 도구는 어디서나 쉽게 이용할 수 있다.
쿠버네티스란 명칭은 키잡이(helmsman)나 파일럿을 뜻하는 그리스어에서 유래했다. K8s라는 표기는 "K"와 "s"와 그 사이에 있는 8글자를 나타내는 약식 표기이다. 구글이 2014년에 쿠버네티스 프로젝트를 오픈소스화했다. 쿠버네티스는 프로덕션 워크로드를 대규모로 운영하는15년 이상의 구글 경험과 커뮤니티의 최고의 아이디어와 적용 사례가 결합되어 있다
minikube란
katacoda 접속 및 실습
하나의 node에 쿠버네티스 클러스터를 실행하는 실습입니다.
katacoda 접속
아래 ULR(katacoda 홈페이지)에 접속한 후 계정이 있을 경우 기존 계정을 사용하고 계정이 없을 경우 신규 계정을 생성하여 로그인합니다.
sh : 새 셸을 여는 스크립트를 실행할 때 새 셸에 명령을 입력하고 출력을 다시 현재 셸로 복사한 다음 새 셸을 닫습니다. 환경에 대한 모든 변경 사항은 새 셸에서만 적용되며 새 셸이 닫히면 손실됩니다.
source : 스크립트를 소싱할 때 현재 쉘에 명령을 입력하는 것입니다. 환경에 대한 모든 변경 사항은 적용되고 현재 셸에 유지됩니다.
위에서의 "환경"은 현재 작업 디렉토리, 환경 변수, 쉘 설정(history and completion features) 과 같은 것입니다.
현재 실행 중인 쉘에서 환경을 변경하도록 하려면 source를 사용하고 그렇지 않으면 shell을 사용합니다.
파일이 실행 가능하고 현재 디렉토리에 있는 경우 myscript를 실행합니다. 선행 점과 슬래시(./)는 현재 디렉토리를 나타냅니다. 이것은 현재 디렉토리가 $PATH에 등록되어 있을 경우에는 점과 슬래시(./)가 필요없습니다.
./myscript
파일이 실행 가능하고 $PATH의 일부 디렉토리에 있는 경우 myscript를 실행합니다.
myscript
아래 명령어는 myscript를 소싱합니다. 파일은 실행 가능하지 않아도 되지만 유효한 쉘 스크립트여야 합니다. 파일은 현재 디렉토리 또는 $PATH의 디렉토리에 있을 수 있습니다.
source myscript
아래 명령어도 myscript를 소싱합니다. 이 명령어는 POSIX에서 정의한 것입니다. Bash는 점(.)에 대한 별칭으로 source를 정의했습니다.
. myscript
예제)
야래 내용의 pid.sh 파일이 있습니다.($$는 현재 실행 중인 셸 프로세스의 PID를 나타냅니다.)
#!/bin/sh
echo $$
현재 쉘의 PID를 출력합니다.
$ echo $$
1676
스크립트를 source
$ source pid.sh
1676
스크립트를 실행하고 PID를 확인합니다. 아래와 같이 pid 가 변경 된 것을 확인할 수 있습니다.
$ ./pid.sh
1944
쉘을 다시한 번 수행합니다. 아래와 같이 pid 가 변경되는 것을 확인할 수 있습니다.
$ ./pid.sh
1945
스크립트를 실행하면 매번 새로운 프로세스가 생성되는 동안 스크립트를 소싱하면 동일한 프로세스에서 실행되는 것을 볼 수 있습니다. 그 새로운 프로세스는 스크립트 실행을 위해 생성된 새로운 쉘입니다. 스크립트를 소싱하면 새 쉘이 생성되지 않으므로 PID가 동일하게 유지됩니다.
sh는 별개의 프로세스가 생성됩니다. 즉, 서브 쉘이 생성됩니다. 설정 값의 변경이 sub 쉘에만 적용되게 됩니다.
쿠버네티스는 컨테이너화된 워크로드와 서비스를 관리하기 위한 이식성이 있고, 확장가능한 오픈소스 플랫폼이다. 쿠버네티스는 선언적 구성과 자동화를 모두 용이하게 해준다. 쿠버네티스는 크고, 빠르게 성장하는 생태계를 가지고 있다. 쿠버네티스 서비스, 기술 지원 및 도구는 어디서나 쉽게 이용할 수 있다.
쿠버네티스란 명칭은 키잡이(helmsman)나 파일럿을 뜻하는 그리스어에서 유래했다. K8s라는 표기는 "K"와 "s"와 그 사이에 있는 8글자를 나타내는 약식 표기이다. 구글이 2014년에 쿠버네티스 프로젝트를 오픈소스화했다. 쿠버네티스는 프로덕션 워크로드를 대규모로 운영하는 15년 이상의 구글 경험과 커뮤니티의 최고의 아이디어와 적용 사례가 결합되어 있다.
여정 돌아보기
시간이 지나면서 쿠버네티스가 왜 유용하게 되었는지 살펴보자.
전통적인 배포 시대: 초기 조직은 애플리케이션을 물리 서버에서 실행했었다. 한 물리 서버에서 여러 애플리케이션의 리소스 한계를 정의할 방법이 없었기에, 리소스 할당의 문제가 발생했다. 예를 들어 물리 서버 하나에서 여러 애플리케이션을 실행하면, 리소스 전부를 차지하는 애플리케이션 인스턴스가 있을 수 있고, 결과적으로는 다른 애플리케이션의 성능이 저하될 수 있었다. 이에 대한 해결책은 서로 다른 여러 물리 서버에서 각 애플리케이션을 실행하는 것이 있다. 그러나 이는 리소스가 충분히 활용되지 않는다는 점에서 확장 가능하지 않았으므로, 물리 서버를 많이 유지하기 위해서 조직에게 많은 비용이 들었다.
가상화된 배포 시대: 그 해결책으로 가상화가 도입되었다. 이는 단일 물리 서버의 CPU에서 여러 가상 시스템 (VM)을 실행할 수 있게 한다. 가상화를 사용하면 VM간에 애플리케이션을 격리하고 애플리케이션의 정보를 다른 애플리케이션에서 자유롭게 액세스 할 수 없으므로, 일정 수준의 보안성을 제공할 수 있다.
가상화를 사용하면 물리 서버에서 리소스를 보다 효율적으로 활용할 수 있으며, 쉽게 애플리케이션을 추가하거나 업데이트할 수 있고 하드웨어 비용을 절감할 수 있어 더 나은 확장성을 제공한다. 가상화를 통해 일련의 물리 리소스를 폐기 가능한(disposable) 가상 머신으로 구성된 클러스터로 만들 수 있다.
각 VM은 가상화된 하드웨어 상에서 자체 운영체제를 포함한 모든 구성 요소를 실행하는 하나의 완전한 머신이다.
컨테이너 개발 시대: 컨테이너는 VM과 유사하지만 격리 속성을 완화하여 애플리케이션 간에 운영체제(OS)를 공유한다. 그러므로 컨테이너는 가볍다고 여겨진다. VM과 마찬가지로 컨테이너에는 자체 파일 시스템, CPU 점유율, 메모리, 프로세스 공간 등이 있다. 기본 인프라와의 종속성을 끊었기 때문에, 클라우드나 OS 배포본에 모두 이식할 수 있다.
컨테이너는 다음과 같은 추가적인 혜택을 제공하기 때문에 인기가 있다.
기민한 애플리케이션 생성과 배포: VM 이미지를 사용하는 것에 비해 컨테이너 이미지 생성이 보다 쉽고 효율적임.
지속적인 개발, 통합 및 배포: 안정적이고 주기적으로 컨테이너 이미지를 빌드해서 배포할 수 있고 (이미지의 불변성 덕에) 빠르고 효율적으로 롤백할 수 있다.
개발과 운영의 관심사 분리: 배포 시점이 아닌 빌드/릴리스 시점에 애플리케이션 컨테이너 이미지를 만들기 때문에, 애플리케이션이 인프라스트럭처에서 분리된다.
가시성(observability): OS 수준의 정보와 메트릭에 머무르지 않고, 애플리케이션의 헬스와 그 밖의 시그널을 볼 수 있다.
개발, 테스팅 및 운영 환경에 걸친 일관성: 랩탑에서도 클라우드에서와 동일하게 구동된다.
클라우드 및 OS 배포판 간 이식성: Ubuntu, RHEL, CoreOS, 온-프레미스, 주요 퍼블릭 클라우드와 어디에서든 구동된다.
애플리케이션 중심 관리: 가상 하드웨어 상에서 OS를 실행하는 수준에서 논리적인 리소스를 사용하는 OS 상에서 애플리케이션을 실행하는 수준으로 추상화 수준이 높아진다.
느슨하게 커플되고, 분산되고, 유연하며, 자유로운 마이크로서비스: 애플리케이션은 단일 목적의 머신에서 모놀리식 스택으로 구동되지 않고 보다 작고 독립적인 단위로 쪼개져서 동적으로 배포되고 관리될 수 있다.
리소스 격리: 애플리케이션 성능을 예측할 수 있다.
자원 사용량: 리소스 사용량: 고효율 고집적.
쿠버네티스가 왜 필요하고 무엇을 할 수 있나
컨테이너는 애플리케이션을 포장하고 실행하는 좋은 방법이다. 프로덕션 환경에서는 애플리케이션을 실행하는 컨테이너를 관리하고 가동 중지 시간이 없는지 확인해야 한다. 예를 들어 컨테이너가 다운되면 다른 컨테이너를 다시 시작해야 한다. 이 문제를 시스템에 의해 처리한다면 더 쉽지 않을까?
그것이 쿠버네티스가 필요한 이유이다!쿠버네티스는 분산 시스템을 탄력적으로 실행하기 위한 프레임 워크를 제공한다. 애플리케이션의 확장과 장애 조치를 처리하고, 배포 패턴 등을 제공한다. 예를 들어, 쿠버네티스는 시스템의 카나리아 배포를 쉽게 관리 할 수 있다.
쿠버네티스는 다음을 제공한다.
서비스 디스커버리와 로드 밸런싱 쿠버네티스는 DNS 이름을 사용하거나 자체 IP 주소를 사용하여 컨테이너를 노출할 수 있다. 컨테이너에 대한 트래픽이 많으면, 쿠버네티스는 네트워크 트래픽을 로드밸런싱하고 배포하여 배포가 안정적으로 이루어질 수 있다.
스토리지 오케스트레이션 쿠버네티스를 사용하면 로컬 저장소, 공용 클라우드 공급자 등과 같이 원하는 저장소 시스템을 자동으로 탑재 할 수 있다.
자동화된 롤아웃과 롤백 쿠버네티스를 사용하여 배포된 컨테이너의 원하는 상태를 서술할 수 있으며 현재 상태를 원하는 상태로 설정한 속도에 따라 변경할 수 있다. 예를 들어 쿠버네티스를 자동화해서 배포용 새 컨테이너를 만들고, 기존 컨테이너를 제거하고, 모든 리소스를 새 컨테이너에 적용할 수 있다.
자동화된 빈 패킹(bin packing) 컨테이너화된 작업을 실행하는데 사용할 수 있는 쿠버네티스 클러스터 노드를 제공한다. 각 컨테이너가 필요로 하는 CPU와 메모리(RAM)를 쿠버네티스에게 지시한다. 쿠버네티스는 컨테이너를 노드에 맞추어서 리소스를 가장 잘 사용할 수 있도록 해준다.
자동화된 복구(self-healing) 쿠버네티스는 실패한 컨테이너를 다시 시작하고, 컨테이너를 교체하며, '사용자 정의 상태 검사'에 응답하지 않는 컨테이너를 죽이고, 서비스 준비가 끝날 때까지 그러한 과정을 클라이언트에 보여주지 않는다.
시크릿과 구성 관리 쿠버네티스를 사용하면 암호, OAuth 토큰 및 SSH 키와 같은 중요한 정보를 저장하고 관리 할 수 있다. 컨테이너 이미지를 재구성하지 않고 스택 구성에 시크릿을 노출하지 않고도 시크릿 및 애플리케이션 구성을 배포 및 업데이트 할 수 있다.
쿠버네티스가 아닌 것
쿠버네티스는 전통적인, 모든 것이 포함된 Platform as a Service(PaaS)가 아니다. 쿠버네티스는 하드웨어 수준보다는 컨테이너 수준에서 운영되기 때문에, PaaS가 일반적으로 제공하는 배포, 스케일링, 로드 밸런싱과 같은 기능을 제공하며, 사용자가 로깅, 모니터링 및 알림 솔루션을 통합할 수 있다. 하지만, 쿠버네티스는 모놀리식(monolithic)이 아니어서, 이런 기본 솔루션이 선택적이며 추가나 제거가 용이하다. 쿠버네티스는 개발자 플랫폼을 만드는 구성 요소를 제공하지만, 필요한 경우 사용자의 선택권과 유연성을 지켜준다.
쿠버네티스는:
지원하는 애플리케이션의 유형을 제약하지 않는다. 쿠버네티스는 상태 유지가 필요 없는(stateless) 워크로드, 상태 유지가 필요한(stateful) 워크로드, 데이터 처리를 위한 워크로드를 포함해서 극단적으로 다양한 워크로드를 지원하는 것을 목표로 한다. 애플리케이션이 컨테이너에서 구동될 수 있다면, 쿠버네티스에서도 잘 동작할 것이다.
소스 코드를 배포하지 않으며 애플리케이션을 빌드하지 않는다. 지속적인 통합과 전달과 배포, 곧 CI/CD 워크플로우는 조직 문화와 취향에 따를 뿐만 아니라 기술적인 요구사항으로 결정된다.
애플리케이션 레벨의 서비스를 제공하지 않는다. 애플리케이션 레벨의 서비스에는 미들웨어(예, 메시지 버스), 데이터 처리 프레임워크(예, Spark), 데이터베이스(예, MySQL), 캐시 또는 클러스터 스토리지 시스템(예, Ceph) 등이 있다. 이런 컴포넌트는 쿠버네티스 상에서 구동될 수 있고, 쿠버네티스 상에서 구동 중인 애플리케이션이 Open Service Broker 와 같은 이식 가능한 메커니즘을 통해 접근할 수도 있다.
로깅, 모니터링 또는 경보 솔루션을 포함하지 않는다. 개념 증명을 위한 일부 통합이나, 메트릭을 수집하고 노출하는 메커니즘을 제공한다.
기본 설정 언어/시스템(예, Jsonnet)을 제공하거나 요구하지 않는다. 선언적 명세의 임의적인 형식을 목적으로 하는 선언적 API를 제공한다.
포괄적인 머신 설정, 유지보수, 관리, 자동 복구 시스템을 제공하거나 채택하지 않는다.
추가로, 쿠버네티스는 단순한 오케스트레이션 시스템이 아니다. 사실, 쿠버네티스는 오케스트레이션의 필요성을 없애준다. 오케스트레이션의 기술적인 정의는 A를 먼저 한 다음, B를 하고, C를 하는 것과 같이 정의된 워크플로우를 수행하는 것이다. 반면에, 쿠버네티스는 독립적이고 조합 가능한 제어 프로세스들로 구성되어 있다. 이 프로세스는 지속적으로 현재 상태를 입력받은 의도한 상태로 나아가도록 한다. A에서 C로 어떻게 갔는지는 상관이 없다. 중앙화된 제어도 필요치 않다. 이로써 시스템이 보다 더 사용하기 쉬워지고, 강력해지며, 견고하고, 회복력을 갖추게 되며, 확장 가능해진다.