상황
보면 kubeadm init으로 클러스터를 구축 시 발생한 에러들인데 정상적으로 통신이 되다가 갑자기 어느 순간 kubectl 명령어가 잘 안되는 것을 볼 수 있었음
찾아보니 공식문서에서도 명시되어 있었음
https://kubernetes.io/docs/tasks/administer-cluster/kubeadm/configure-cgroup-driver/
CRI 별로 조치가 다르다
vi /etc/docker/daemon.json
{
"exec-opts": ["native.cgroupdriver=systemd"],
"log-driver": "json-file",
"log-opts": {
"max-size": "100m"
},
"storage-driver": "overlay2"
}
#default값 변경
containerd config default > /etc/containerd/config.toml
#config 수정
vi /etc/containerd/config.toml
[plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc]
...
[plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc.options]
SystemdCgroup = true <-- false 에서 true 로 변경
vi /var/lib/kubelet/kubeadm-flags.env
KUBELET_KUBEADM_ARGS="--network-plugin=cni --pod-infra-container-image=k8s.gcr.io/pause:3.6 --container-runtime=remote --container-runtime-endpoint=unix:///run/containerd/containerd.sock --cgroup-driver=systemd"
kubeadm에서 사용하는 kubelet 설정 값
이후 kubeadm init할 시 정상적인 systemctl status값을 확인할 수 있음
감사합니다... 덕분에 해결했습니다..