CONTAINERD – KUBERNETES 표준 컨테이너 런타임

containerd는 Docker 사에서 moby project 와 함께  발표하여  CNCF 에 기증한  오픈소스 입니다.

moby project는 Docker 사에서 2017 년에 발표 한 오픈소스 소프트웨어  프로젝트로서  Docker를  구성하는 기능들 중에 일부를 공개한 것입니다.

Containerd 는 Kubernetes 의 하이 레벨 런타임 표준인 CRI 런타임으로  현재는 CRI-O 와 함께 두 가지 구현체가 있습니다.

컨테이너 기술로 주목받은 Docker 사는 2016 년 12 월 컨테이너 런타임 부분을 독립적인 오픈 소스 프로젝트인 “containerd” 로 분리하여 마이크로 소프트, Google, AWS, IBM 등과 공동으로 개발하기로 발표하였습니다.

이것은 Docker 의해 빠르게 확산되기 시작한 컨테이너형 가상화 환경에서 컨테이너 런타임을 특정 벤더에 의존하지 않고 중립적인 입장에서 컨테이너 표준인 OCI (Open Container Initiative) 에 기준으로 구현하는 것을 목적으로 합니다.

그 3 개월 후 2017 년 3 월에는 containerd 오픈 소스 프로젝트 CNCF (Cloud Native Computing Foundation)에 기증받아 2017 년 12월 버전 1.0 을 출시하였습니다 .

 

containerd는 kebernetes 표준 컨테이너 런타임

CONTAINERD 는 ?

 

Containerd는 컨테이너를 실행하고 노드에서 이미지를 관리하는 데 필요한 최소한의 기능 세트를 제공하는 OCI 호환 코어 컨테이너 런타임 중 하나 입니다.

 

containerd는 Docker 1.11 이후 Docker 코어 컨테이너 런타임 입니다.

RunC 기반이며, 컨테이너 표준 인 OCI (Open Container Initiative)을 준수하고 있습니다.

containerd  1.1 버전은  Kubernetes를 기본적으로 지원하여, Containerd는 사실상 표준 컨테이너 런타임이라고 할 수 있습니다.

또한 OpenStack Foundation 에서 오픈 소스로 개발하고있는 컨테이너 런타임 “Kata Container” 과 Google은 오픈 소스로 공개 한 ‘gVisor ” 등 다양한 옵션이  등장하고 있습니다.

 

KUBERNETES 와 CONTAINERD 통합 아키텍처의 발전

일반적으로 Kubernetes로 구축하는 클러스터에서는 Docker를 이용하여 컨테이너를 실행합니다.

이때 Kubernetes과 Docker 사이에서는 Kubernetes에서 표준화 된 API 인 CRI (Container Runtime Interface) 에 의해 교환이 이루어집니다.

그러나 Docker는 현재 CRI를 기본적으로는 지원하지 않기 때문에 Kubernets과 Docker는 “dockershim”라는 다리를 통해 교환이 이루어지고 있습니다.

2017 년 12 월 CNCF에서 버전 1.0에 도달 한 containerd는 kubelet과 containerd사이에서 작동하려면 cri-containerd라는 데몬이 필요했습니다.

Cri-containerd 는 Kubelet의 CRI (Container Runtime Interface) 서비스 요청을 처리하고 containerd를 사용하여 해당 컨테이너 및 컨테이너 이미지를 관리합니다.

containerd1.1에서는 cri-containerd 데몬이 이제 containerd CRI 플러그인으로 리팩터링됩니다.

CRI 플러그인은 containerd1.1에 내장되어 있으며 기본적으로 활성화되어 있습니다.

cri-containerd와 달리 CRI 플러그인은 직접 함수 호출을 통해 containerd와 상호 작용합니다.

사용자는 이제 containerd1.1과 함께 Kubernetes를 직접 사용할 수 있습니다.

cri-containerd 데몬은 더 이상 필요하지 않습니다.

 

CLOUD NATIVE COMPUTING FOUNDATION 는?

2015 년 7 월에 발표된 2016 년 1 월에 정식 출범 한 Cloud Native Computing Foundation (이하 CNCF)는 혼돈스러운 컨테이너와 관련된 다양한 기술적인 문제들을 오픈소스로 해결하는 하는 것을 목표로하고 있습니다.

Cloud Native Computing Foundation 는 대표적으로 Kubernetes 와 Prometheus 와 같은 클라우드 네이티브 오픈소스 기술들을 추진하고 관리하는 단체입니다.

 

원문 : http://www.opennaru.com/kubernetes/containerd/

 

CNI 란 무엇입니까?
Cloud Native Computing Foundation 프로젝트인 CNI(Container Network Interface)는 Linux 컨테이너에서 네트워크 인터페이스를 구성하기 위한 플러그인을 작성하기 위한 사양 및 라이브러리와 여러 플러그인으로 구성됩니다. CNI는 컨테이너의 네트워크 연결과 컨테이너가 삭제될 때 할당된 리소스 제거에만 관련됩니다.

Kubernetes는 네트워크 공급자와 Kubernetes Pod 네트워킹 간의 인터페이스로 CNI를 사용합니다.

 

CNI(Container Network Interface)는 Calico, Flannel, weave 및 Terway와 같은 많은 CNI 플러그인이 있습니다.

다양한 CNI 구현 모드를 살펴보겠습니다.

CNI 플러그인은 오버레이, 라우팅 및 언더레이의 세 가지 구현 모드가 있습니다.

 

  • 오버레이 모드에서 컨테이너는 호스트의 IP 주소 범위와 무관합니다. 호스트 간 통신 중에 호스트 간에 터널이 설정되고 컨테이너 CIDR 블록의 모든 패킷은 기본 물리적 네트워크의 호스트 간에 교환되는 패킷으로 캡슐화됩니다. 이 모드는 기본 네트워크에 대한 종속성을 제거합니다.
  • 라우팅 모드에서 호스트와 컨테이너는 서로 다른 CIDR 블록에 속합니다. 호스트 간 통신은 라우팅을 통해 구현됩니다. 패킷 캡슐화를 위해 서로 다른 호스트 간에 터널이 설정되지 않습니다. 그러나 경로 상호 연결은 기본 네트워크에 부분적으로 의존합니다. 예를 들어, 기본 네트워크에서 레이어 2로 연결 가능한 경로가 있어야 합니다.
  • Underlay 모드에서 컨테이너와 호스트는 동일한 네트워크 계층에 있으며 동일한 위치를 공유합니다. 컨테이너 간의 네트워크 상호 연결은 기본 네트워크에 따라 다릅니다. 따라서 이 모드는 기본 기능에 크게 의존합니다.

 

CNI network providers using this network model include Flannel, Canal, and Weave.

CNI network providers using this network model include Calico and Romana.

'쿠버네티스' 카테고리의 다른 글

쿠버네티스 아키텍처  (0) 2022.05.09
쿠버네티스 Cluster 설치하기 - on ubuntu linux  (0) 2022.05.05
쿠버네티스 - 로드 밸런싱  (0) 2022.04.27
쿠버네티스 - katacoda  (0) 2022.04.26
쿠버네티스란 무엇인가?  (0) 2022.04.25

소개

Bash용 kubectl 완료 스크립트는 kubectl completion bash 명령을 사용하여 생성할 수 있습니다. 셸에서 완성 스크립트를 소싱하면 kubectl 자동 완성이 활성화됩니다.

그러나 완료 스크립트는 bash-completion 에 따라 다르므로 이 소프트웨어를 먼저 설치해야 합니다(bash-completion을 실행하여 이미 설치되어 있는지 테스트할 수 있음kubectl completion bash).

$ type _init_completion
_init_completion is a function
_init_completion () 
{ 
    local exclude= flag outx errx inx OPTIND=1;
    while getopts "n:e:o:i:s" flag "$@"; do
...

오류가 발생할 경우 bash-completion을 설치합니다.

 

bash-completion 설치

bash-completion은 많은 패키지 관리자가 제공합니다. apt-get install bash-completion또는 yum install bash-completion등 으로 설치할 수 있습니다 .

위의 명령어는 /usr/share/bash-completion/bash_completion을 생성합니다.

셸을 다시 로드하고 type _init_completion 명령이 성공하면 이미 설정된 것입니다. 그렇지 않으면 ~/.bashrc파일에 다음을 추가합니다.

source /usr/share/bash-completion/bash_completion

type _init_completion을 입력하여 bash-completion이 올바르게 설치되었는지 확인합니다.

kubectl 자동 완성 활성화

kubectl 자동완성 스크립트가 쉘 로그인 시 적용되도록 설정합니다.

bash

echo 'source <(kubectl completion bash)' >>~/.bashrc
echo 'source <(kubeadm completion bash)' >>~/.bashrc

kubectl에 대한 별칭이 있는 경우 해당 별칭으로 작업하도록 셸 완성을 설정합니다.

echo 'alias k=kubectl' >>~/.bashrc
echo 'complete -F __start_kubectl k' >>~/.bashrc

 

클러스터 외부 네트워킹
이 섹션에서는 클러스터 외부의 트래픽이 Kubernetes 클러스터 내에서 실행되는 애플리케이션에 도달하는 방법을 설명합니다. 이 정보는 클러스터의 애플리케이션 및 워크로드를 설계할 때 중요합니다.
Kubernetes가 서비스를 사용하여 Pod 내에서 실행되는 애플리케이션에 안정적인 IP 주소를 제공하는 방법에 대해 이미 읽었습니다. kube-proxy가 각 노드의 모든 트래픽을 관리하기 때문에 기본적으로 Pod는 외부 IP 주소를 노출하지 않습니다. Pod와 해당 컨테이너는 자유롭게 통신할 수 있지만 클러스터 외부의 연결은 서비스에 액세스할 수 없습니다. 예를 들어, 이전 그림에서 클러스터 외부의 클라이언트는 해당 ClusterIP를 통해 프런트엔드 서비스에 액세스할 수 없습니다.
GKE는 액세스를 제어하고 클러스터 전체에 가능한 한 균등하게 들어오는 트래픽을 분산하기 위해 세 가지 유형의 부하 분산기를 제공합니다. 여러 유형의 로드 밸런서를 동시에 사용하도록 하나의 서비스를 구성할 수 있습니다.

 

  • External Load Balancers : 외부 부하 분산기는 클러스터 외부 및 Google Cloud Virtual Private Cloud(VPC) 네트워크 외부에서 들어오는 트래픽을 관리합니다. GCP 네트워크와 연결된 전달 규칙을 사용하여 트래픽을 Kubernetes 노드로 라우팅합니다.
  • Internal Load Balancers  : 내부 부하 분산기는 동일한 VPC 네트워크 내에서 들어오는 트래픽을 관리합니다. 외부 부하 분산기와 마찬가지로 GCP 네트워크와 연결된 전달 규칙을 사용하여 트래픽을 Kubernetes 노드로 라우팅합니다.
  • HTTP(S) Load Balancers  : HTTP(S) 로드 밸런서는 HTTP(S) 트래픽에 사용되는 특수 외부 로드 밸런서입니다. 트래픽을 Kubernetes 노드로 라우팅하기 위해 전달 규칙 대신 Ingress 리소스를 사용합니다.

 

트래픽이 Kubernetes 노드에 도달하면 로드 밸런서 유형에 관계없이 동일한 방식으로 처리됩니다. 로드 밸런서는 클러스터의 어떤 노드가 해당 서비스에 대해 포드를 실행하고 있는지 인식하지 못합니다. 대신 관련 Pod를 실행하지 않는 노드를 포함하여 클러스터의 모든 노드에서 트래픽의 균형을 유지합니다. 지역 클러스터에서 로드는 클러스터 지역의 모든 영역에 있는 모든 노드에 분산됩니다. 트래픽이 노드로 라우팅되면 노드는 트래픽을 동일한 노드 또는 다른 노드에서 실행 중인 Pod로 라우팅합니다. 노드는 kube-proxy가 노드에서 관리하는 iptables 규칙을 사용하여 무작위로 선택된 파드로 트래픽을 전달합니다.

 

Container-native load balancing

컨테이너 네이티브 로드 밸런싱을 사용하면 여러 종류의 로드 밸런서가 Pod를 직접 대상으로 지정하고 해당 트래픽을 Pod에 고르게 분산할 수 있습니다.
컨테이너 네이티브 로드 밸런싱은 NEG(네트워크 엔드포인트 그룹)라는 데이터 모델을 활용합니다. NEG는 IP 포트 쌍으로 표시되는 네트워크 끝점의 모음입니다.
NEG를 GKE 인그레스와 함께 사용하면 인그레스 컨트롤러가 L7 부하 분산기의 모든 측면을 쉽게 생성할 수 있습니다. 여기에는 가상 IP 주소 생성, 전달 규칙, 상태 확인, 방화벽 규칙 등이 포함됩니다.
유연성을 높이기 위해 독립 실행형 NEG를 만들 수도 있습니다. 이 경우 L7 로드 밸런서의 모든 측면을 만들고 관리해야 합니다.

 

'쿠버네티스' 카테고리의 다른 글

쿠버네티스 Cluster 설치하기 - on ubuntu linux  (0) 2022.05.05
CNI 플러그인 모드  (0) 2022.05.04
쿠버네티스 - katacoda  (0) 2022.04.26
쿠버네티스란 무엇인가?  (0) 2022.04.25
GCP - Kubernetes Engine(GKE)  (0) 2022.03.22

설치환경

OS : Ubuntu 20.04.4 LTS(2 CPU, 4GB Memory)

 

 

 

시작하기 전에

  • 호환되는 리눅스 머신. 쿠버네티스 프로젝트는 데비안 기반 배포판, 레드햇 기반 배포판, 그리고 패키지 매니저를 사용하지 않는 경우에 대한 일반적인 가이드를 제공한다.
  • 2 GB 이상의 램(이 보다 작으면 사용자의 앱을 위한 공간이 거의 남지 않음)
  • 2 개 이상의 CPU
  • 클러스터의 모든 머신에 걸친 전체 네트워크 연결(공용 또는 사설 네트워크면 괜찮음). CNI 설치
  • 모든 노드에 대해 고유한 호스트 이름, MAC 주소 및 product_uuid. 자세한 내용은 여기를 참고한다.
  • 컴퓨터의 특정 포트들 개방. 자세한 내용은 여기를 참고한다.
  • 스왑의 비활성화. kubelet이 제대로 작동하게 하려면 반드시 스왑을 사용하지 않도록 설정한다.(전체 서버)

 

iptables가 브리지된 트래픽을 보게 하기

br_netfilter 모듈이 로드되었는지 확인한다. lsmod | grep br_netfilter 를 실행하면 된다. 명시적으로 로드하려면 sudo modprobe br_netfilter 를 실행한다.

리눅스 노드의 iptables가 브리지된 트래픽을 올바르게 보기 위한 요구 사항으로, sysctl 구성에서 net.bridge.bridge-nf-call-iptables 가 1로 설정되어 있는지 확인해야 한다.

cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
br_netfilter
EOF

cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sudo sysctl --system

필수 포트 확인

필수 포트들은 쿠버네티스 컴포넌트들이 서로 통신하기 위해서 열려 있어야 한다. 다음과 같이 telnet 명령을 이용하여 포트가 열려 있는지 확인해 볼 수 있다. 아래는 마스터 노드 IP가 10.10.1.21 인 경우에 대한 예시입니다.

telnet 10.10.1.21 6443

- 서버 방화벽이 있는 경우에는 방화벽을 disable 합니다.

systemctl stop firewalld
systemctl disable firewalld

 

swap 메모리 비활성화

$ sudo swapoff -a

swap 메모리 상태 확인

#출력값이 없으면 swap 메모리가 비활성화된 상태입니다. 
$ sudo swapon -s
# 아래와 같이 출력되면 swap 메모리가 0이면 비활성화된 상태입니다.
$ free -h   
              total        used        free      shared  buff/cache   available
Mem:           3.9G        266M        3.4G        8.8M        232M        3.4G
Swap:            0B          0B          0B

 

docker 설치

docs.docker.com 참조하여 설치합니다. 참고로, 현재 도커 엔진 패키지는 docker-ce라고 부릅니다.

구버전 도커 Uninstall

이전 버전의 Docker는 docker, docker.io 또는 docker-engine이라고 했습니다. 이러한 항목이 설치된 경우 제거합니다.

$ sudo apt-get remove docker docker-engine docker.io containerd runc

저장소를 사용하여 설치

Docker 저장소를 설정해야 합니다. 그런 다음 저장소에서 Docker를 설치하고 업데이트할 수 있습니다.

저장소 설정

apt 패키지 인덱스를 업데이트하고 apt가 HTTPS를 통해 리포지토리를 사용할 수 있도록 패키지를 설치합니다.

$ sudo apt-get update

$ sudo apt-get install \
    ca-certificates \
    curl \
    gnupg \
    lsb-release

도커 공식 GPG 키를 추가합니다.

 curl -fsSL https://download.docker.com/linux/debian/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg

다음 명령어를 사용하여 저장소를 설정합니다. 

echo \
  "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/debian \
  $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null

 

Docker Engine 설치

apt 패키지 인덱스를 업데이트하고 최신 버전의 Docker Engine, containerd 및 Docker Compose를 설치합니다.

$ sudo apt-get update
$ sudo apt-get install docker-ce docker-ce-cli containerd.io docker-compose-plugin

 

hello-world 이미지를 실행하여 Docker 엔진이 올바르게 설치되었는지 확인합니다. 

sudo docker run hello-world

 

Docker 엔진을 설치하면 도커 그룹이 생성되지만 사용자가 추가되지 않습니다. 일반 사용자가 Docker 명령을 실행하려면 sudo를 사용해야 합니다. 일반 사용자가 sudo 명령어없이 Docker 명령을 실행할 수 있도록 아래 명령어를 수행합니다.

  1. docker를 사용할 user를 docker 그룹에 추가합니다.(참고 docker를 설치하면 docker group 이 생성됩니다.)
    $ sudo usermod -aG docker $USER
  2. 추가된 그룹을 적용하기 위해 로그아웃했다가 다시 로그인합니다. 또는 아래와 같이 명령어를 수행하여 변경된 그룹을 적용합니다.
 newgrp docker

아래와 같이 sudo 없이 docker 명령어를 수행합니다. 아래 처럼 "Hello from Docker!" 내용이 보여집니다.

$  docker run hello-world

Hello from Docker!
This message shows that your installation appears to be working correctly.

재부팅 시 docker 자동 기동

$ sudo systemctl enable docker.service
$ sudo systemctl enable containerd.service

 

 

쿠버네티스 설정

kubernetes.io 사이트에 접속하여 각자의 OS에 맞는 설치 방법에 따라 설치한다.

document에서 "Set up cluster"를 클릭한다. install the kubeadm setup tool 를 클락한 후 설명대로 진행한다.

  • 설치전 환경 설정 : 위에서 설명
  • kubeadm, kubectl, kubelet
  • control plane 구성
  • worker node 구성
  • 설치 확인

kubeadm, kubelet 및 kubectl 설치

모든 머신에 다음 패키지들을 설치한다.

  • kubeadm: 클러스터를 부트스트랩하는 명령이다.
  • kubelet: 클러스터의 모든 머신에서 실행되는 파드와 컨테이너 시작과 같은 작업을 수행하는 컴포넌트이다.
  • kubectl: 클러스터와 통신하기 위한 커맨드 라인 유틸리티이다.


# NOTE: "xenial" is correct here. Kubernetes publishes the Debian-based packages at kubernetes-xenial.
# reference: https://kubernetes.io/docs/tasks/tools/install-kubectl/#install-using-native-package-management

 

apt 패키지 색인을 업데이트하고, 쿠버네티스 apt 리포지터리를 사용하는 데 필요한 패키지를 설치한다.

sudo apt-get update
sudo apt-get install -y apt-transport-https ca-certificates curl

 

구글 클라우드의 공개 사이닝 키를 다운로드 한다.

sudo curl -fsSLo /usr/share/keyrings/kubernetes-archive-keyring.gpg https://packages.cloud.google.com/apt/doc/apt-key.gpg

또는 아래 명령어를 수행합니다.

sudo curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | apt-key add -

 

쿠버네티스 apt 리포지터리를 추가한다.

echo "deb [signed-by=/usr/share/keyrings/kubernetes-archive-keyring.gpg] https://apt.kubernetes.io/ kubernetes-xenial main" | sudo tee /etc/apt/sources.list.d/kubernetes.list
echo 1 > sudo tee /proc/sys/net/ipv4/ip_forward

 

apt 패키지 색인을 업데이트하고, kubelet, kubeadm, kubectl을 설치하고 해당 버전을 고정한다.

모든 노드에 설치한다.

sudo apt-get update
sudo apt-get install -y kubelet kubeadm kubectl
sudo apt-mark hold kubelet kubeadm kubectl

 

 

 

kubeadm으로 클러스터 생성(control plane 구성)

control-plane node 초기화

control-plane 노드는 etcd(클러스터 데이터베이스) 및 API 서버(kubectl 명령줄 도구가 통신함)를 포함하여 control-plane 구성 요소가 실행되는 시스템입니다. control-plane node를 초기화합니다. master node에서만 실행합니다.

sudo kubeadm init

[init] Using Kubernetes version: v1.23.6
[preflight] Running pre-flight checks
        [WARNING SystemVerification]: missing optional cgroups: hugetlb
error execution phase preflight: [preflight] Some fatal errors occurred:
        [ERROR NumCPU]: the number of available CPUs 1 is less than the required 2
        [ERROR FileContent--proc-sys-net-ipv4-ip_forward]: /proc/sys/net/ipv4/ip_forward contents are not set to 1
[preflight] If you know what you are doing, you can make a check non-fatal with `--ignore-preflight-errors=...`
To see the stack trace of this error execute with --v=5 or higher

 ip_forward 설정

위와 같이 /proc/sys/net/ipv4/ip_forward contents are not set to 1 오류가 발생하면 아래 명령어를 수행합니다.

echo 1 | sudo tee /proc/sys/net/ipv4/ip_forward

 

/etc/sysctl.conf 파일을 열어

net.ipv4.ip_forward=1    이 부분을 주석 해제한다.

 

확인 다음 명령으로 확인 해보면, 변경된 걸 볼 수 있다.

$ sudo sysctl -p

 

참고) pod 생성 시 네트워크 대역을 설정할 수 있습니다.

kubeadm init --pod-network-cidr=10.244.0.0/16;

 

kubeadm init 실행시 에러 : 'curl -sSL http://localhost:10248/healthz' failed with error

발생 시

/etc/docker 디렉토리에 daemon.json 파일을 아래와 같이 만들어줍니다.

{
"exec-opts": ["native.cgroupdriver=systemd"],
"log-driver": "json-file",
"log-opts": {
"max-size": "100m"
},
"storage-driver": "overlay2"
}

 

daemon.json 파일 생성 후 아래 명령어를 실행해 줍니다.
sudo systemctl enable docker
sudo systemctl daemon-reload
sudo systemctl restart docker

 

위 조치 방법은 쿠버네티스 공식 홈페이지에 나와 있는 내용 그대롭니다.

  => https://kubernetes.io/docs/setup/production-environment/container-runtimes/#docker

 

사실은, 원래 쿠버네티스 설치전에 Container runtime 을 먼저 설치해줘야 하는데(여기서는 docker 부분..)

이 부분을 빠뜨리고 진행한 경우 이런 에러상황을 만나게 되는 겁니다.

위와 같이 daemon.json 파일을 만들어주고나서, kubeadm reset 하고 init 해주니 정상적으로 잘 되네요~

kubeadm reset
kubeadm init

 

에러 유형 3) 

init] Using Kubernetes version: v1.24.0
[preflight] Running pre-flight checks
	[WARNING SystemVerification]: missing optional cgroups: blkio
error execution phase preflight: [preflight] Some fatal errors occurred:
	[ERROR CRI]: container runtime is not running: output: time="2022-05-04T10:21:27Z" level=fatal msg="getting status of runtime: rpc error: code = Unimplemented desc = unknown service runtime.v1alpha2.RuntimeService"
, error: exit status 1

조치내용 : config.toml 파일 삭제, 컨테이너 엔진 재실행 후 kubeadm init 를 실행합니다.

sudo rm /etc/containerd/config.toml
sudo systemctl restart containerd
sudo kubeadm init

kubeadm init 이 완료되면 제일 아래 줄에 아래와 같이 token 이 나타납니다. master node와 연결 시 필요하므로 별도로 저장해 둡니다.

## kubeadm init 실행 결과
......
kubeadm join 10.10.1.21:6443 --token j0vdns.lqbq17k0rwbuvwqj \
        --discovery-token-ca-cert-hash sha256:acfc34d9d77a3b0b326de55f969f95f34779853ac34720526eef99357982750d

kubectl get nodes 명령어를 수행해 봅니다. 오류가 발생하는데, 

# kubectl get nodes

The connection to the server localhost:8080 was refused - did you specify the right host or port?


오류 발생 시 아래 내용을 참조해서 명령어를 수행합니다.

cluster 를 일반 유저로 실행하려면 일반 유저 계정에서 아래를 실행합니다.

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

일반 유저로 다시 node를 조회해 봅니다.

kubectl get nodes

NAME     STATUS     ROLES           AGE     VERSION
master   NotReady   control-plane   4m11s   v1.24.0

 

root 유저로 수행하려면 아래를 설정합니다.

# export KUBECONFIG=/etc/kubernetes/admin.conf
root@instance-2:~# kubectl get nodes
NAME         STATUS     ROLES                  AGE     VERSION
instance-2   NotReady   control-plane,master   9m30s   v1.23.6

위에서 STATUS 를 보변 NotReady 인데 이는 CNI(Container Network Interface)가 설치가 안되어 있어서 그렇습니다.

 

Pod network add-on 설치

pod 네트워크 애드온 종류는 많습니다(calico, canal, flannel, romana, weave net 등).

본 문서에서는 weave network add on 을 설치합니다. 

Weave Net을 설치하기 전에 TCP 6783 및 UDP 6783/6784 포트가 방화벽에 의해 차단되지 않았는지 확인해야 합니다.

아래 명령어로 weave network add-on을 설치합니다.

kubectl apply -f "https://cloud.weave.works/k8s/net?k8s-version=$(kubectl version | base64 | tr -d '\n')"

## 실행결과
serviceaccount/weave-net created
clusterrole.rbac.authorization.k8s.io/weave-net created
clusterrolebinding.rbac.authorization.k8s.io/weave-net created
role.rbac.authorization.k8s.io/weave-net created
rolebinding.rbac.authorization.k8s.io/weave-net created
daemonset.apps/weave-net created

참고) weave network를 삭제 방법

kubectl delete -f "https://cloud.weave.works/k8s/net?k8s-version=$(kubectl version | base64 | tr -d '\n')"

serviceaccount "weave-net" deleted
clusterrole.rbac.authorization.k8s.io "weave-net" deleted
clusterrolebinding.rbac.authorization.k8s.io "weave-net" deleted
role.rbac.authorization.k8s.io "weave-net" deleted
rolebinding.rbac.authorization.k8s.io "weave-net" deleted
daemonset.apps "weave-net" deleted

 

weave network 가 설치되었는지 확인합니다. 아래 결과를 보면 weave-net-s6g8g 처럼 CNI가 설치된 것을 확인할 수 있습니다.

$ kubectl get pod --all-namespaces

## 명령어 수행결과
NAMESPACE     NAME                                 READY   STATUS              RESTARTS     AGE
kube-system   coredns-64897985d-ph9hp              0/1     ContainerCreating   0            32m
kube-system   coredns-64897985d-rhz7x              0/1     ContainerCreating   0            32m
kube-system   etcd-instance-2                      1/1     Running             3            32m
kube-system   kube-apiserver-instance-2            1/1     Running             3            32m
kube-system   kube-controller-manager-instance-2   1/1     Running             3            32m
kube-system   kube-proxy-n5ml2                     1/1     Running             0            32m
kube-system   kube-scheduler-instance-2            1/1     Running             3            32m
kube-system   weave-net-s6g8g                      2/2     Running             1 (4s ago)   7s

 

 

kubectl get nodes 명령어를 수행하면 status 가 Ready 상태가 됩니다.

kubectl get nodes
NAME         STATUS   ROLES                  AGE   VERSION
instance-2   Ready    control-plane,master   14m   v1.23.6

 

worker node 구성

위에서 저장한 token.txt 내용을 복사합니다.

복사한 내용을 worker node에서 수행합니다.

 

에러 1) 처음 worker node 구성 시 아래와 같은 오류가 발생했는데, 이는 방화벽 때문에 발생한 오류입니다. 마스터 노드와 6443 port로 통신할 수 있는지 확인해 봅니다. 통신이 안될 경우 통신이 되도록 방화벽을 해제합니다.

sudo kubeadm join 10.10.10.210:6443 --token j0vdns.lqbq17k0rwbuvwqj \
>         --discovery-token-ca-cert-hash sha256:acfc34d9d77a3b0b326de55f969f95f34779853ac34720526eef99357982750d
[preflight] Running pre-flight checks
        [WARNING SystemVerification]: missing optional cgroups: hugetlb
error execution phase preflight: couldn't validate the identity of the API Server: Get "https://10.10.1.21:6443/api/v1/namespaces/kube-public/configmaps/cluster-info?timeout=10s": net/http: request canceled while waiting for connection (Client.Timeout exceeded while awaiting headers)
To see the stack trace of this error execute with --v=5 or higher

 

에러 2) woker node를 master node에 join 시 아래 오류가 발생하고,

kubeadm token list 명령어 수행 시 아무런 데이터가 조회되지 않을 경우에 대한 해결 방법입니다.

error execution phase preflight: couldn't validate the identity of the API Server: 
could not find a JWS signature in the cluster-info ConfigMap for token ID "j0vdns"

해결방법 1) kubeadm reset 후 kubeadm init을 실행하여 token을 다시 생성한다.

$ kubeadm reset
$ kubeadm init

kubeadm join 10.10.1.21:6443 --token j0vdns.lqbq17k0rwbuvwqj \
        --discovery-token-ca-cert-hash sha256:acfc34d9d77a3b0b326de55f969f95f34779853ac34720526eef99357982750d

## token list 확인
$ kubeadm token list
 TOKEN                     TTL         EXPIRES                USAGES                   DESCRIPTION                                                EXTRA GROUPS
b962zm.9d6jh1g9dq0oroaq   23h         2022-05-03T14:00:04Z   authentication,signing   The default bootstrap token generated by 'kubeadm init'.   system:bootstrappers:kubeadm:default-node-token

재생성된 token으로 다시 worker node에서 실행합니다.

sudo kubeadm join 10.10.1.21:6443 --token j0vdns.lqbq17k0rwbuvwqj \
        --discovery-token-ca-cert-hash sha256:acfc34d9d77a3b0b326de55f969f95f34779853ac34720526eef99357982750d

 

해결방법 2) token 생성 후 hash 값을 확인한 다음 worker node를 join 합니다.

## token 생성
$ kubeadm token create

## hash 확인
$ openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'

## node 조인
kubeadm join <Kubernetes API Server:PORT> --token <Token 값> --discovery-token-ca-cert-hash sha256:<Hash 값>

 

worker node를 master에 join 시키기. 

필요한 수 만큼 worker node를 추가합니다. 단, 위에서 설치한 순서대로 설치를 하고 worker node를 추가합니다.

kubeadm join 10.10.1.21:6443 --token b962zm.9d6jh1g9dq0oroaq \
        --discovery-token-ca-cert-hash sha256:fc41fdaa4dfebf0d2c37a67aef3f3d69e88d9f6e3c9c73b510983dc7eb474276
[preflight] Running pre-flight checks
[preflight] Reading configuration from the cluster...
[preflight] FYI: You can look at this config file with 'kubectl -n kube-system get cm kubeadm-config -o yaml'
[kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
[kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
[kubelet-start] Starting the kubelet
[kubelet-start] Waiting for the kubelet to perform the TLS Bootstrap...

This node has joined the cluster:
* Certificate signing request was sent to apiserver and a response was received.
* The Kubelet was informed of the new secure connection details.

Run 'kubectl get nodes' on the control-plane to see this node join the cluster.

 

설치 확인

마스터 노드(control-plane 노드)에서 kubectl get nodes 로 node 정보를 확인합니다. 아래와 같이 조회되면 정상입니다.

$ kubectl get nodes
NAME         STATUS   ROLES                  AGE     VERSION
instance-2   Ready    control-plane,master   10h     v1.23.6
instance-3   Ready    <none>                 9h      v1.23.6
instance-4   Ready    <none>                 2m40s   v1.23.6

 

 

선택사항으로 kubectl 명령어 자동완성 기능을 설정합니다. 명령어의 일부 글자만 타입핑한 후 "탭키"를 누르면 명령어가 완성되는 기능입니다.

echo "source <(kubectl completion bash)" >> ~/.bashrc
echo "source <(kubeadm completion bash)" >> ~/.bashrc

 

 

kubectl 예제

kubectl get 명령어로 클러스터를 구성하고 있는 node 정보를 볼 수 있습니다.

## node 정보조회
$ kubectl get nodes

## node 정보 상세조회
$ kubectl get nodes -o wide

컨테이너를 실행하면서 kubectl 명령어 사용하기

아래 명령어는 nginx 1.14 버전의 이미지로 webserver 라는 이름의 pod를 생성하고 실행하라는 내용입니다.

$ kubectl run webserver --image=nginx:1.14 --port 80
pod/webserver created

생성된 pod를 확인합니다. 아래 내용을 보면 현재 상태가 container creating 인 것을 확인할 수 있습니다. 현재 진행되는 상태를 보려면 kubectl describe pods 명령어를 수행합니다.

$ kubectl get pods
NAME        READY   STATUS              RESTARTS   AGE
webserver   0/1     ContainerCreating   0          23s

## pods 상태 상세확인
$ kubectl describe pods

 

상세 정보를 확인하던 중 아래와 같은 오류가 발생했습니다. 방화벽 때문에 발생한 오류입니다. << 상세히 설명>>

Events:
  Type     Reason                  Age                 From               Message
  ----     ------                  ----                ----               -------
  Normal   Scheduled               11m                 default-scheduler  Successfully assigned default/webserver to instance-4
  Warning  FailedCreatePodSandBox  7m26s               kubelet            Failed to create pod sandbox: rpc error: code = Unknown desc = failed to set up sandbox container "7d2b349d4a7bd47b5561422b67fcc0cef3b9935c034f69d6021077962c1fe807" network for pod "webserver": networkPlugin cni failed to set up pod "webserver_default" network: netplugin failed with no error message: signal: killed
  Warning  FailedCreatePodSandBox  3m45s               kubelet            Failed to create pod sandbox: rpc error: code = Unknown desc = failed to set up sandbox container "4c89307a722068dd809a4024ba4a27e8228aa8df46ff06777b9a1a2b9573f201" network for pod "webserver": networkPlugin cni failed to set up pod "webserver_default" network: netplugin failed with no error message: signal: killed
  Warning  FailedCreatePodSandBox  4s                  kubelet            Failed to create pod sandbox: rpc error: code = Unknown desc = failed to set up sandbox container "a9e40c16daeed29b34607346c2bee142d47a2f4f47da8ba4416e08c6aabe0872" network for pod "webserver": networkPlugin cni failed to set up pod "webserver_default" network: netplugin failed with no error message: signal: killed
  Normal   SandboxChanged          3s (x3 over 7m26s)  kubelet            Pod sandbox changed, it will be killed and re-created.

 

pod 삭제

예제) kubectl delete pods <pod> : <pod> 부분에 삭제할 pod 이름을 입력합니다.

kubectl delete pods webserver

재수행

성공

  Type    Reason     Age   From               Message
  ----    ------     ----  ----               -------
  Normal  Scheduled  62s   default-scheduler  Successfully assigned default/webserver to instance-4
  Normal  Pulling    61s   kubelet            Pulling image "nginx"
  Normal  Pulled     58s   kubelet            Successfully pulled image "nginx" in 2.296326487s
  Normal  Created    58s   kubelet            Created container webserver
  Normal  Started    58s   kubelet            Started container webserver
ypjeong@instance-2:~$ kubectl get pods
NAME        READY   STATUS    RESTARTS   AGE
webserver   1/1     Running   0          72s

 

cgroup 드라이버 구성

컨테이너 런타임과 kubelet은 "cgroup 드라이버"라는 속성을 갖고 있으며, cgroup 드라이버는 리눅스 머신의 cgroup 관리 측면에 있어서 중요하다.

 

 

kubeadm으로 클러스터 생성하기

 

Initializing control-plane node

control-plane 노드는 etcd(클러스터 데이터베이스) 및 API 서버(kubectl 명령줄 도구가 통신함)를 포함하여 control-plane 구성 요소가 실행되는 시스템입니다.

 

1. (권장) 이 단일 control-plane kubeadm 클러스터를 고가용성으로 업그레이드할 계획이 있는 경우 --control-plane-endpoint를 지정하여 모든 control-plane 노드에 대한 endpoint 설정해야 합니다. 이러한 endpoint 는 DNS 이름 또는 로드 밸런서의 IP 주소일 수 있습니다.

2. Pod 네트워크 추가 기능을 선택하고 kubeadm init에 전달되는 인수가 필요한지 확인합니다. 선택한 타사 공급자에 따라 --pod-network-cidr을 공급자별 값으로 설정해야 할 수도 있습니다.

3. 

 


# initialize kubernetes with a Flannel compatible pod network CIDR
kubeadm init --pod-network-cidr=10.244.0.0/16;

# setup kubectl
mkdir -p $HOME/.kube
cp -i /etc/kubernetes/admin.conf $HOME/.kube/config;

# install Flannel
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml;

# install Dashboard
kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.0-rc2/aio/deploy/recommended.yaml;
cat > dashboard-admin.yaml <<EOF
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: kubernetes-dashboard
  namespace: kubernetes-dashboard
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: cluster-admin
subjects:
  - kind: ServiceAccount
    name: kubernetes-dashboard
    namespace: kubernetes-dashboard
EOF
kubectl delete clusterrolebinding/kubernetes-dashboard;
kubectl apply -f dashboard-admin.yaml;

# get the dashboard secret and display it
kubectl get secret -n kubernetes-dashboard \
| grep kubernetes-dashboard-token- \
| awk '{print $1}' \
| xargs kubectl describe secret -n kubernetes-dashboard;

 

 

 

MAC 주소 및 product_uuid가 모든 노드에 대해 고유한지 확인

 

 

katacoda란

쿠버네티스는 컨테이너화된 워크로드와 서비스를 관리하기 위한 이식성이 있고, 확장가능한 오픈소스 플랫폼이다. 쿠버네티스는 선언적 구성과 자동화를 모두 용이하게 해준다. 쿠버네티스는 크고, 빠르게 성장하는 생태계를 가지고 있다. 쿠버네티스 서비스, 기술 지원 및 도구는 어디서나 쉽게 이용할 수 있다.

쿠버네티스란 명칭은 키잡이(helmsman)나 파일럿을 뜻하는 그리스어에서 유래했다. K8s라는 표기는 "K"와 "s"와 그 사이에 있는 8글자를 나타내는 약식 표기이다. 구글이 2014년에 쿠버네티스 프로젝트를 오픈소스화했다. 쿠버네티스는 프로덕션 워크로드를 대규모로 운영하는 15년 이상의 구글 경험과 커뮤니티의 최고의 아이디어와 적용 사례가 결합되어 있다

 

minikube란

 

 

katacoda 접속 및 실습

하나의 node에 쿠버네티스 클러스터를 실행하는 실습입니다.

 

katacoda 접속

아래 ULR(katacoda 홈페이지)에 접속한 후  계정이 있을 경우 기존 계정을 사용하고 계정이 없을 경우 신규 계정을 생성하여 로그인합니다.

https://www.katacoda.com/ 

 

Katacoda - Interactive Learning Platform for Software Engineers

Learn the latest technologies with our hands-on labs

www.katacoda.com

로그인 후 첫 페이지에서 "Kubernetes Introduction" 강의의 시작하기 위해 [Start Course]를 클릭합니다.

20여개의 시나리오들이 있습니다.

"Launch A Single Node Cluster" 시나리오부터 시작합니다. "Start Scenario"를 클릭합니다.

"Minikube는 Kubernetes를 로컬에서 쉽게 실행할 수 있는 도구입니다.

Minikube는 Kubernetes를 사용해 보거나 일상적으로 개발하려는 사용자를 위해 노트북의 VM 내에서 단일 노드 Kubernetes 클러스터를 실행합니다." 라는 설명이 나오면 "Start Scenario"를 클릭합니다.

 

실습

Step 1 - minikube 시작하기

좌측 화면의 설명을 읽으면서 실습을 진행합니다. Step1은 minikube로 kubernetes cluster를 구성하는 실습입니다.

실습할 때 좌측의 명령어를 클릭하면 우측 터미널창에 명령어가 자동으로 수행됩니다.

또는 우측 터미널창에 직접 타입핑하여 명령어를 입력하고 수행할 수 있습니다.

실습을 완료하였으면 [CONTINUE] 버튼을 클릭합니다.

 

Step 2 - Cluster Info

Kubernetes 클러스터는 kubectl 명령어를 사용하여 상호 작용할 수 있습니다.

클러스터 위에서 실행되는 Kubernetes 및 애플리케이션을 관리하는 데 사용하는 도구입니다.

step 2에서는 kubectl 명령어로 클러스터 정보와 노드 정보를 확인해 봅니다. master node 가 있는 것을 볼 수 있습니다.

 

Step 3 - Deploy Containers

kubectl create 명령어로 클러스터에 컨테이너가 배포될수 있도록

kubectl create 는 파일 또는 표준 입력으로부터 리소스를 생성하는 명령어입니다.

 

[참고]

  • kubectl create : 파일 또는 표준 입력으로부터 리소스를 생성
  • kubectl apply : 파일명 또는 표준 입력으로 리소스에 구성 적용
  • kubectl run : 클러스터에서 특정 이미지 실행

kubectl run 과 kubectl create 차이는?

 

 

Step 4 - Dashboard

 

dashboard를 활성화합니다.

 

'쿠버네티스' 카테고리의 다른 글

CNI 플러그인 모드  (0) 2022.05.04
쿠버네티스 - 로드 밸런싱  (0) 2022.04.27
쿠버네티스란 무엇인가?  (0) 2022.04.25
GCP - Kubernetes Engine(GKE)  (0) 2022.03.22
minikube  (0) 2022.02.21

 

sh와 source( 명령어 차이

  • sh : 새 셸을 여는 스크립트를 실행할 때 새 셸에 명령을 입력하고 출력을 다시 현재 셸로 복사한 다음 새 셸을 닫습니다. 환경에 대한 모든 변경 사항은 새 셸에서만 적용되며 새 셸이 닫히면 손실됩니다.
  • source : 스크립트를 소싱할 때 현재 쉘에 명령을 입력하는 것입니다. 환경에 대한 모든 변경 사항은 적용되고 현재 셸에 유지됩니다.

위에서의 "환경"은 현재 작업 디렉토리, 환경 변수, 쉘 설정(history and completion features) 과 같은 것입니다.

현재 실행 중인 쉘에서 환경을 변경하도록 하려면 source를 사용하고 그렇지 않으면 shell을 사용합니다.

 

파일이 실행 가능하고 현재 디렉토리에 있는 경우 myscript를 실행합니다. 선행 점과 슬래시(./)는 현재 디렉토리를 나타냅니다. 이것은 현재 디렉토리가 $PATH에 등록되어 있을 경우에는 점과 슬래시(./)가 필요없습니다.

./myscript

 

파일이 실행 가능하고 $PATH의 일부 디렉토리에 있는 경우 myscript를 실행합니다.

myscript

 

아래 명령어는 myscript를 소싱합니다. 파일은 실행 가능하지 않아도 되지만 유효한 쉘 스크립트여야 합니다. 파일은 현재 디렉토리 또는 $PATH의 디렉토리에 있을 수 있습니다.

source myscript

 

아래 명령어도 myscript를 소싱합니다. 이 명령어는 POSIX에서 정의한 것입니다. Bash는 점(.)에 대한 별칭으로 source를 정의했습니다.

. myscript

 

예제)

야래 내용의 pid.sh 파일이 있습니다.($$는 현재 실행 중인 셸 프로세스의 PID를 나타냅니다.)

#!/bin/sh
echo $$

 

현재 쉘의 PID를 출력합니다.

$ echo $$
1676

스크립트를 source

$ source pid.sh
1676

 

스크립트를 실행하고 PID를 확인합니다. 아래와 같이 pid 가 변경 된 것을 확인할 수 있습니다.

$ ./pid.sh
1944

 

쉘을 다시한 번 수행합니다. 아래와 같이 pid 가 변경되는 것을 확인할 수 있습니다.

$ ./pid.sh
1945

스크립트를 실행하면 매번 새로운 프로세스가 생성되는 동안 스크립트를 소싱하면 동일한 프로세스에서 실행되는 것을 볼 수 있습니다. 그 새로운 프로세스는 스크립트 실행을 위해 생성된 새로운 쉘입니다. 스크립트를 소싱하면 새 쉘이 생성되지 않으므로 PID가 동일하게 유지됩니다.

 

 

sh는 별개의 프로세스가 생성됩니다. 즉, 서브 쉘이 생성됩니다. 설정 값의 변경이 sub 쉘에만 적용되게 됩니다.  

source는 서브 쉘을 생성하지 않고 현재 쉘에서 스크립트를 실행시킵니다.

 

 

쿠버네티스는 컨테이너화된 워크로드와 서비스를 관리하기 위한 이식성이 있고, 확장가능한 오픈소스 플랫폼이다. 쿠버네티스는 선언적 구성과 자동화를 모두 용이하게 해준다. 쿠버네티스는 크고, 빠르게 성장하는 생태계를 가지고 있다. 쿠버네티스 서비스, 기술 지원 및 도구는 어디서나 쉽게 이용할 수 있다.

쿠버네티스란 명칭은 키잡이(helmsman)나 파일럿을 뜻하는 그리스어에서 유래했다. K8s라는 표기는 "K"와 "s"와 그 사이에 있는 8글자를 나타내는 약식 표기이다. 구글이 2014년에 쿠버네티스 프로젝트를 오픈소스화했다. 쿠버네티스는 프로덕션 워크로드를 대규모로 운영하는 15년 이상의 구글 경험과 커뮤니티의 최고의 아이디어와 적용 사례가 결합되어 있다.

여정 돌아보기

시간이 지나면서 쿠버네티스가 왜 유용하게 되었는지 살펴보자.

전통적인 배포 시대: 초기 조직은 애플리케이션을 물리 서버에서 실행했었다. 한 물리 서버에서 여러 애플리케이션의 리소스 한계를 정의할 방법이 없었기에, 리소스 할당의 문제가 발생했다. 예를 들어 물리 서버 하나에서 여러 애플리케이션을 실행하면, 리소스 전부를 차지하는 애플리케이션 인스턴스가 있을 수 있고, 결과적으로는 다른 애플리케이션의 성능이 저하될 수 있었다. 이에 대한 해결책은 서로 다른 여러 물리 서버에서 각 애플리케이션을 실행하는 것이 있다. 그러나 이는 리소스가 충분히 활용되지 않는다는 점에서 확장 가능하지 않았으므로, 물리 서버를 많이 유지하기 위해서 조직에게 많은 비용이 들었다.

가상화된 배포 시대: 그 해결책으로 가상화가 도입되었다. 이는 단일 물리 서버의 CPU에서 여러 가상 시스템 (VM)을 실행할 수 있게 한다. 가상화를 사용하면 VM간에 애플리케이션을 격리하고 애플리케이션의 정보를 다른 애플리케이션에서 자유롭게 액세스 할 수 없으므로, 일정 수준의 보안성을 제공할 수 있다.

가상화를 사용하면 물리 서버에서 리소스를 보다 효율적으로 활용할 수 있으며, 쉽게 애플리케이션을 추가하거나 업데이트할 수 있고 하드웨어 비용을 절감할 수 있어 더 나은 확장성을 제공한다. 가상화를 통해 일련의 물리 리소스를 폐기 가능한(disposable) 가상 머신으로 구성된 클러스터로 만들 수 있다.

각 VM은 가상화된 하드웨어 상에서 자체 운영체제를 포함한 모든 구성 요소를 실행하는 하나의 완전한 머신이다.

컨테이너 개발 시대: 컨테이너는 VM과 유사하지만 격리 속성을 완화하여 애플리케이션 간에 운영체제(OS)를 공유한다. 그러므로 컨테이너는 가볍다고 여겨진다. VM과 마찬가지로 컨테이너에는 자체 파일 시스템, CPU 점유율, 메모리, 프로세스 공간 등이 있다. 기본 인프라와의 종속성을 끊었기 때문에, 클라우드나 OS 배포본에 모두 이식할 수 있다.

컨테이너는 다음과 같은 추가적인 혜택을 제공하기 때문에 인기가 있다.

  • 기민한 애플리케이션 생성과 배포: VM 이미지를 사용하는 것에 비해 컨테이너 이미지 생성이 보다 쉽고 효율적임.
  • 지속적인 개발, 통합 및 배포: 안정적이고 주기적으로 컨테이너 이미지를 빌드해서 배포할 수 있고 (이미지의 불변성 덕에) 빠르고 효율적으로 롤백할 수 있다.
  • 개발과 운영의 관심사 분리: 배포 시점이 아닌 빌드/릴리스 시점에 애플리케이션 컨테이너 이미지를 만들기 때문에, 애플리케이션이 인프라스트럭처에서 분리된다.
  • 가시성(observability): OS 수준의 정보와 메트릭에 머무르지 않고, 애플리케이션의 헬스와 그 밖의 시그널을 볼 수 있다.
  • 개발, 테스팅 및 운영 환경에 걸친 일관성: 랩탑에서도 클라우드에서와 동일하게 구동된다.
  • 클라우드 및 OS 배포판 간 이식성: Ubuntu, RHEL, CoreOS, 온-프레미스, 주요 퍼블릭 클라우드와 어디에서든 구동된다.
  • 애플리케이션 중심 관리: 가상 하드웨어 상에서 OS를 실행하는 수준에서 논리적인 리소스를 사용하는 OS 상에서 애플리케이션을 실행하는 수준으로 추상화 수준이 높아진다.
  • 느슨하게 커플되고, 분산되고, 유연하며, 자유로운 마이크로서비스: 애플리케이션은 단일 목적의 머신에서 모놀리식 스택으로 구동되지 않고 보다 작고 독립적인 단위로 쪼개져서 동적으로 배포되고 관리될 수 있다.
  • 리소스 격리: 애플리케이션 성능을 예측할 수 있다.
  • 자원 사용량: 리소스 사용량: 고효율 고집적.

쿠버네티스가 왜 필요하고 무엇을 할 수 있나

컨테이너는 애플리케이션을 포장하고 실행하는 좋은 방법이다. 프로덕션 환경에서는 애플리케이션을 실행하는 컨테이너를 관리하고 가동 중지 시간이 없는지 확인해야 한다. 예를 들어 컨테이너가 다운되면 다른 컨테이너를 다시 시작해야 한다. 이 문제를 시스템에 의해 처리한다면 더 쉽지 않을까?

그것이 쿠버네티스가 필요한 이유이다! 쿠버네티스는 분산 시스템을 탄력적으로 실행하기 위한 프레임 워크를 제공한다. 애플리케이션의 확장과 장애 조치를 처리하고, 배포 패턴 등을 제공한다. 예를 들어, 쿠버네티스는 시스템의 카나리아 배포를 쉽게 관리 할 수 있다.

쿠버네티스는 다음을 제공한다.

  • 서비스 디스커버리와 로드 밸런싱 쿠버네티스는 DNS 이름을 사용하거나 자체 IP 주소를 사용하여 컨테이너를 노출할 수 있다. 컨테이너에 대한 트래픽이 많으면, 쿠버네티스는 네트워크 트래픽을 로드밸런싱하고 배포하여 배포가 안정적으로 이루어질 수 있다.
  • 스토리지 오케스트레이션 쿠버네티스를 사용하면 로컬 저장소, 공용 클라우드 공급자 등과 같이 원하는 저장소 시스템을 자동으로 탑재 할 수 있다.
  • 자동화된 롤아웃과 롤백 쿠버네티스를 사용하여 배포된 컨테이너의 원하는 상태를 서술할 수 있으며 현재 상태를 원하는 상태로 설정한 속도에 따라 변경할 수 있다. 예를 들어 쿠버네티스를 자동화해서 배포용 새 컨테이너를 만들고, 기존 컨테이너를 제거하고, 모든 리소스를 새 컨테이너에 적용할 수 있다.
  • 자동화된 빈 패킹(bin packing) 컨테이너화된 작업을 실행하는데 사용할 수 있는 쿠버네티스 클러스터 노드를 제공한다. 각 컨테이너가 필요로 하는 CPU와 메모리(RAM)를 쿠버네티스에게 지시한다. 쿠버네티스는 컨테이너를 노드에 맞추어서 리소스를 가장 잘 사용할 수 있도록 해준다.
  • 자동화된 복구(self-healing) 쿠버네티스는 실패한 컨테이너를 다시 시작하고, 컨테이너를 교체하며, '사용자 정의 상태 검사'에 응답하지 않는 컨테이너를 죽이고, 서비스 준비가 끝날 때까지 그러한 과정을 클라이언트에 보여주지 않는다.
  • 시크릿과 구성 관리 쿠버네티스를 사용하면 암호, OAuth 토큰 및 SSH 키와 같은 중요한 정보를 저장하고 관리 할 수 있다. 컨테이너 이미지를 재구성하지 않고 스택 구성에 시크릿을 노출하지 않고도 시크릿 및 애플리케이션 구성을 배포 및 업데이트 할 수 있다.

쿠버네티스가 아닌 것

쿠버네티스는 전통적인, 모든 것이 포함된 Platform as a Service(PaaS)가 아니다. 쿠버네티스는 하드웨어 수준보다는 컨테이너 수준에서 운영되기 때문에, PaaS가 일반적으로 제공하는 배포, 스케일링, 로드 밸런싱과 같은 기능을 제공하며, 사용자가 로깅, 모니터링 및 알림 솔루션을 통합할 수 있다. 하지만, 쿠버네티스는 모놀리식(monolithic)이 아니어서, 이런 기본 솔루션이 선택적이며 추가나 제거가 용이하다. 쿠버네티스는 개발자 플랫폼을 만드는 구성 요소를 제공하지만, 필요한 경우 사용자의 선택권과 유연성을 지켜준다.

쿠버네티스는:

  • 지원하는 애플리케이션의 유형을 제약하지 않는다. 쿠버네티스는 상태 유지가 필요 없는(stateless) 워크로드, 상태 유지가 필요한(stateful) 워크로드, 데이터 처리를 위한 워크로드를 포함해서 극단적으로 다양한 워크로드를 지원하는 것을 목표로 한다. 애플리케이션이 컨테이너에서 구동될 수 있다면, 쿠버네티스에서도 잘 동작할 것이다.
  • 소스 코드를 배포하지 않으며 애플리케이션을 빌드하지 않는다. 지속적인 통합과 전달과 배포, 곧 CI/CD 워크플로우는 조직 문화와 취향에 따를 뿐만 아니라 기술적인 요구사항으로 결정된다.
  • 애플리케이션 레벨의 서비스를 제공하지 않는다. 애플리케이션 레벨의 서비스에는 미들웨어(예, 메시지 버스), 데이터 처리 프레임워크(예, Spark), 데이터베이스(예, MySQL), 캐시 또는 클러스터 스토리지 시스템(예, Ceph) 등이 있다. 이런 컴포넌트는 쿠버네티스 상에서 구동될 수 있고, 쿠버네티스 상에서 구동 중인 애플리케이션이 Open Service Broker 와 같은 이식 가능한 메커니즘을 통해 접근할 수도 있다.
  • 로깅, 모니터링 또는 경보 솔루션을 포함하지 않는다. 개념 증명을 위한 일부 통합이나, 메트릭을 수집하고 노출하는 메커니즘을 제공한다.
  • 기본 설정 언어/시스템(예, Jsonnet)을 제공하거나 요구하지 않는다. 선언적 명세의 임의적인 형식을 목적으로 하는 선언적 API를 제공한다.
  • 포괄적인 머신 설정, 유지보수, 관리, 자동 복구 시스템을 제공하거나 채택하지 않는다.
  • 추가로, 쿠버네티스는 단순한 오케스트레이션 시스템이 아니다. 사실, 쿠버네티스는 오케스트레이션의 필요성을 없애준다. 오케스트레이션의 기술적인 정의는 A를 먼저 한 다음, B를 하고, C를 하는 것과 같이 정의된 워크플로우를 수행하는 것이다. 반면에, 쿠버네티스는 독립적이고 조합 가능한 제어 프로세스들로 구성되어 있다. 이 프로세스는 지속적으로 현재 상태를 입력받은 의도한 상태로 나아가도록 한다. A에서 C로 어떻게 갔는지는 상관이 없다. 중앙화된 제어도 필요치 않다. 이로써 시스템이 보다 더 사용하기 쉬워지고, 강력해지며, 견고하고, 회복력을 갖추게 되며, 확장 가능해진다.

다음 내용

'쿠버네티스' 카테고리의 다른 글

쿠버네티스 - 로드 밸런싱  (0) 2022.04.27
쿠버네티스 - katacoda  (0) 2022.04.26
GCP - Kubernetes Engine(GKE)  (0) 2022.03.22
minikube  (0) 2022.02.21
구글 쿠버네티스 엔진  (0) 2022.02.17

+ Recent posts