kakao Cloud school 2기 D+17

LEE EUI JOO·2022년 11월 22일
0

Virtualization

목록 보기
4/11
post-thumbnail

HA ( High Availability) 고가용성

  • 하나의 장비에 문제 발생 시 다른 장비로 대체

1. RAID 5

  • 패리티 비트 1개를 사용
  • 디스크 1개가 문제 발생 시에 복구가 가능함

1-1 RAID 5 실습

> fdisk dev/sdb 부터 sde 
파티션 나누기

> yum -t install mdadm

> mdadm --create /dev/md5 --level=5 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
raid 레벨이 5인 md5 생성

> mdadm -D /dev/md5 
확인

> mkfs.ext4 /dev/md5 
포맷 명령어

> mkdir /raid5
디렉토리 생성

> mount /dev/md5 /raid5
/raid5 에 마운트 해줌

> vi /etc/fstab 
/dev/md5		/raid		ext4		defaults	0 0 
추가

> mdadm --detail /dev/md5
자세히 clean 4개 디바이스 작동

> df -h | grep /raid5
  • power off 후 디스크 하나 삭제
> mdadm --run /dev/md5
> mdadm -D /dev/md5
상태 확인
  • power off 후 디스크 하나 더 삭제
> mdadm -D /dev/md5
상태 확인 -> inactive

> vi /etc/fstab
마운트 한것 주석처리 
재부팅 할 때 오류 안나기 위해서

> init 6

2. RAID 6

  • 패리티 비트 2개 사용
  • 디스크 2개 문제 발생 시에도 복구가 가능함.

2-1. 실습

  • RAID 5 과 이어서 디스크 4개 추가 1GB 짜리
> ls -l /dev/sd*
생성된 디스크 확인
d,e,f,g

> fdsik /dev/sd..
파티션 생성

> mdadm --create /dev/md6 --level=6 --raid-devices=4 /dev/sdd.../dev/sdg1
level 6 짜리 md6 생성

> mkfs.ext4 /dev/md6
파일 포맷

> mkdir /raid6
디렉토리 생성

> mount /dev/md6 /raid6
마운트

> vi /etc/fstab
/dev/md6                /raid6                  ext4    defaults        0 0
추가

> mdadm --detail /dev/md6
raid 디테일 확인, clean

> df -h | grep /raid6
raid 확인

> cp anaconda-ks.cfg /raid6
가장 상위폴더의 아나콘다 파일을 raid6 디렉토리로 복사

> cat /raid6/anaconda-ks.cfg | more
파일 내용 확인

> init 0
디스크 삭제하기 위해서 shut down

  • 디스크 5, 6 제거

  • anaconda-ks.cfg 파일 확인

  • detail 명령어를 통해 clean ,degraded 확인

  • 디스크 복구 하기
    shut down(init 0) 후 디스크 삭제한 만큼의 디스크 추가

> fdisk /dev/sde ~ sdf
파티션 추가

> mdadm /dev/md6 --add /dev/sdf1
> mdadm /dev/md6 --add /dev/sde1
md6에 파티션 추가

> mdadm -D /dev/md6 
> mdadm -D /dev/md6 | grep State 
상태 확인
clear 확인!

3. RAID 10

  • 순서
  1. RAID 1 - /dev/md11 (디스크 2개) , /dev/md12 (디스크2개)
  2. RAID 0 - /dev/md10 (/dev/md11, /dev/md12)
  3. 디스크 2개 삭제
  4. 디스크 파일 보존 (anaconda-ks.cfg 파일)
  5. 복구 해보기 (mdadm add 옵션)

4. RAID 16

  • 순서
  1. RAID 1 - /dev/md21 (디스크2개),/dev/md22 (디스크2개),/dev/md23 (디스크2개),/dev/md24 (디스크2개)
  2. RAID 6 - /dev/md16 (/dev/md21,/dev/md22,/dev/md23,/dev/md24)
  3. 최대한 많이 고장내기6개까지 가능
  4. 디스크 2개 삭제, 데이터 보존
  5. 복구 해보기
  • RAID 1
> yum -y install mdadm

> fdisk /dev/sdb sdc sde sdf sdg sdh sdi
파티션 ->  옵션 : fd 

> mdadm --create /dev/md21 --level=1 --raid-devices=2 /dev/sdb1 /dev/sdc1
mdadm --create /dev/md22 --level=1 --raid-devices=2 /dev/sdd1 /dev/sde1
mdadm --create /dev/md22 --level=1 --raid-devices=2 /dev/sdf1 /dev/sdg1
mdadm --create /dev/md22 --level=1 --raid-devices=2 /dev/sdh1 /dev/sdi1
  • RAID 6
> mdadm --create /dev/md16 --level=6 --raid-devices=4 /dev/md21 /dev/md22 /dev/md23 /dev/md24

>mkfs.ext4 /dev/md16
파일 시스템 포맷

> mkdir /raid16

> mount /dev/md16 /raid16

> vi /etc/fstab 
md16 만 추가 하기
/dev/md16                /raid16                  ext4    defaults        0 0

> mdadm --detail /dev/md16

> df -h | grep /raid16
  • anaconda-ks.cfg 파일 copy 테스트용
> cp anaconda-ks.cfg /raid16

> cat /raid16/anaconda-ks.cfg | more
  • 디스크 6개 삭제
  • DISK 2,3,4,5,6,8 제거
> mdadm --run /dev/md16
> mdadm -D /dev/md16
동작 명령하고 확인 해주기

> ls /raid16
데이터 확인
  • 복구 - 디스크 6개 추가
> ls -l /dev/sd*
디스크 확인 
g, i 가 살아있음 - 내화면 기준

> fdisk /dev/sdX
b,c,d,e,f,h

> mdadm --create 
md 21,22 번 만들어 주기
> mdadm /dev/md23 ~ md24 --add /dev/sdf1 ~ /dev/sdh1
.
.
.
디스크 추가 해주기

> mdadm -D /dev/md21 ~ md24 


> mdadm -D /dev/md16 
확인
profile
무럭무럭 자라볼까

0개의 댓글