AWS skill builder 강의(AWS Cloud Practitioner Essentials)를 듣고 정리한 글입니다 📚
아마존웹서비스(AWS)란 클라우드 컴퓨팅 분야에서 세계 1위 점유율을 차지하고 있는 클라우드 컴퓨팅 서비스이다.
'전 세계에 분포된 데이터 센터에서 다양한 기능을 제공하는 클라우드 플랫폼'
AWS에서는 컴퓨팅, 스토리지, 네트워크 보안 도구와 같은 기본 요소에서부터 블록체인, 기계학습, 인공 지능, 로봇 개발 플랫폼 같은 복잡한 솔루션에 이르기까지 수백개의 다양한 서비스를 제공한다.
IT 리소스를 인터넷을 통해 온디맨드로 제공하며 사용한 만큼만 비용을 제공한다
온디맨드란 사용자에게 필요한 리소스를 필요한 순간에 전달하는 것
클라우드를 필요한 만큼만 사용하고 사용한 만큼만 지불한다
클라우드 기반, 온프레미스, 하이브리드 등 3가지가 존재한다
⚠️ 온프레미스와 온프레미스 배포(프라이빗 클라우드)는 다르다
온프레미스는 기업이 자체적으로 보유하여 운영하는 물리적인 서버(데이터센터)를 말한다. 이는 운영에 필요한 공간과 시스템이 필요하다.반면 프라이빗 클라우드의 경우 기업의 전용 클라우드 환경이라고 생각하면 된다. 자체 데이터 센터 소유는 유지하면서 가상화 및 클라우드 기술을 활용해 리소스를 효율적으로 관리하는 방식이다.
EC2는 가상화된 서버에 엑세스하는 데 사용하는 서비스이다.
AWS는 이미 서버를 구입하여 필요한 제반 작업을 마쳤기 때문에 EC2를 통해 필요할 때만 용량의 일정 부분을 마음껏 사용할 수 있다.
사용은 단지 사용자가 원하는 EC2 인스턴스를 요청하기만 하면 되며, 또한 손쉽게 중단하거나 종료할 수 있다. 이때 중단하거나 종료된 인스턴스를 제외하고 실행 중인 인스턴스의 비용만 청구된다. 이를 온디맨드로 프로비저닝한다고 얘기한다.
EC2를 프로비저닝할 땐 OS 종류를 선택하고 네트워킹 측면을 제어하는 등 원하는 방식으로 조합해 비즈니스에 필요한 다양한 애플리케이션을 가동할 수 있다.
AWS가 관리하고 있는 물리적 호스트 시스템이 존재하며, 이 위에 EC2 인스턴스를 가동시킨다. 이 때 여러 인스턴스를 가동시킬 수 있으며 인스턴스들끼리는 호스트의 리소스를 공유해서 사용하게 된다. 이러한 방식을 가상머신이라고 한다.
하이퍼바이저 - 호스트 머신에서 실행되며 가상 머신끼리 서로 물리적인 리소스를 공유하도록 책임을 지는 소프트웨어
멀티 테넌시 - 여러 가상머신이 기본적인 하드웨어를 공유하는 것
여기서 언급되는 하이퍼바이저는
크게 2가지 역할을 수행한다.
즉, (1) 가상 머신끼리 HW 리소스를 공유하지만, (2)서로를 전혀 인식하지 못하므로 안정성을 높일 수 있다.
프로비저닝 - 사용자의 요구에 맞게 시스템 자원을 할당, 배치, 배포해 두었다가 필요 시 시스템을 즉시 사용할 수 있는 상태로 미리 준비해 두는 것
워크로드 - 주어진 기간에 시스템에 의해 실행되어야 할 작업의 할당량 또는 비즈니스 가치를 창출하는 리소스 및 코드 모음
시작
연결
사용
인스턴스 유형은 다양한 작업에 최적화 되어있다. 커피숍을 예를 들면,
계산원은 메모리 최적화 인스턴스이며 바리스타는 컴퓨팅 최적화 인스턴스 일것이다. 라떼아트직원의 경우 엑셀러레이티크 컴퓨팅 인스턴스를 가리킨다고 볼 수 있겠다.
범용 인스턴스
컴퓨팅 최적화 인스턴스
메모리 최적화 인스턴스
액셀러레이티드 컴퓨팅 인스턴스
스토리지 최적화 인스턴스
초당 입출력 작업수(IOPS) - 스토리지 디바이스 성능을 측정하는 지표
온디맨드
예약 인스턴스
표준 예약 인스턴스
ex. m5.xlarge
ex. Window Server or Red Hat Linux
컨버터블 예약 인스턴스
EC2 Instance Savings Plans
스팟 인스턴스
전용 호스트
확장성을 위해서는 필요한 리소스만으로 시작하고 확장 및 축소를 통해 수요 변화에 자동으로 대응하도록 아키텍처를 설계해야 한다. 이러한 프로세스가 자동으로 수행되기 위해 Amazon EC2 Auto Scaling 서비스를 사용할 수 있다.
Amazon EC2 Auto Scaling을 사용하면 변화하는 애플리케이션 수요에 따라 인스턴스를 자동으로 추가하거나 제거할 수 있다. 이를 통해 애플리케이션 가용성을 효과적으로 유지할 수 있다. 해당 서비스는 2가지 접근 방식을 사용한다.
동적 조정
- 수요 변화에 대응한다예측 조정
- 예측된 수요에 따라 적절한 수의 인스턴스를 자동으로 예약한다.최소 용량
- Auto Scaling 그룹을 생성한 직후 시작되는 EC2 인스턴스의 수희망 용량
- 해당 옵션의 default는 최소용량의 크기이다최대 용량
- 최대로 확장할 수 있는 인스턴스의 개수를 제한할 수 있다.💰 이런 방식을 통해 비용을 줄이면서도 최상의 고객 경험을 제공하는 비용 효율적인 아키텍처를 갖출 수 있다
확장성을 위해선 EC2 Auto Scaling 서비스를 사용할 수 있지만 대규모 트래픽들을 어느 인스턴스로 라우팅해야 할지 즉, 시스템의 트래픽을 적절하게 분산하기 위해서는 Elastic Load Balancing 서비스가 필요하다.
로드 밸런서 - 요청을 받은 다음 처리할 인스턴스로 라우팅하는 애플리케이션
ELB와 EC2 Auto Scaling은 별도의 서비스이지만 서로 연동해서 EC2에서 실행되는 애플리케이션이 뛰어난 성능과 가용성을 제공하도록 돕는다.
보통의 트래픽 수준일 때 기존 Auto Scaling 그룹의 인스턴스로 충분히 서비스 가능하며 ELB를 통해 로드밸런싱을 한다.
위와 같이 트래픽이 급격히 늘어가 새로운 인스턴스가 추가되면 ELB에게 작업하라는 지시를 보내어 ELB-Auto Acaling 간 연동을 시작하게 된다.
로드밸런서는 외부 트래픽 말고 내부 트래픽에서도 사용될 수 있다.
예시로 프론트 서버를 담당하는 주문 계층
과 백엔드 서버를 담당하는 생산 계층
이 있다고 가정할 때 아래와 같이 ELB 서비스를 사용할 수 있다.
여기서 ELB는 백엔드 트래픽 혼란을 해결하기 위해 사용한다.
ELB는 리전구조의 단일 URL로 각 프론트엔드 인스턴스에 사용되며 대기중 요청이 가장 적은 백엔드로 트래픽을 보낸다.
위 구조에서 프론트엔드는 실행중인 백엔드 인스턴스의 개수를 알지 못하며 신경쓰지도 않는다. 이는 진정 분리된 아키텍처라고 말할 수 있다.
☕️ 커피숍에서 계산원이 주문받은 주문서를 바리스타에게 직접 건네준다고 생각해보자. 만약 바리스타가 너무 바쁘다거나 잠시 자리를 비운다면 계산원은 주문서를 전달하기 위해 한없이 기다리게 될 뿐만 아니라 다음 고객을 응대하는 데에도 시간이 오래 걸릴 것이다.
이런 상황을 개선하기 위해 직접 주문서를 전달하지 않고 주문판 같은 일종의 버터에 주문을 게시한다면 어떻게 될까? 바리스타가 현재 너무 바쁘거나 잠시 자리를 비우더라도 주문판에 적혀진 주문 내역을 보고 이어서 커피를 만들어 낼 수 있을 것이다.
이렇게 메시지를 완충 기억 장치에 배치한다는 개념을 메시징 혹은 대기열 이라고 한다.
메시징 대기열을 도입하면 소결합된 상태로 아키텍처를 구상할 수 있다
밀결합된 아키텍처 - 구성 요소 하나가 고장이 나거나 변경되면 다른 구성 요소나 심지어 시스템 전체에 문제가 발생한다 (ex. 모놀리스 애플리케이션)
소결합된 아키텍처 - 특정 구성 요소에 장애가 발생하더라도 장애가 구성 요소 안에 격리 되기 때문에 전체 시스템 장애로 확장되지 않는다. (ex. 마이크로서비스)
즉 메시징 대기열을 도입하여 소결합된 아키텍처를 구상한다면, 각 구성 요소는 서로의 상태와 상관없이 안전하게 대기열에 메시지를 보관해두고 꺼내 쓸 수 있다.
이와 관련된 AWS 서비스로는 Amazon Simple Queue Service (SQS) 와 Amazon Simple notificatoin Service (SNS) 가 있다.
Amazon Simple Queue Service (SQS)를 이용하면
SQS 대기열
- 메시지가 처리되기 전까지 배치되는 곳Amazon Simple notification Service (SNS)를 이용하면
pub(게시)-sub(구독)
구조
서버리스라는 용어는 코드가 서버에서 실행되지만 이러한 서버를 프로비저닝하거나 관리할 필요가 없다는 뜻이다. 이를 사용하면 서버를 유지 관리하는 대신 새로운 제품과 기능을 혁신하는 데 더 집중할 수 있다.
서버리스 컴퓨팅용 AWS 서비스이다. 서버를 프로비저닝하거나 관리할 필요 없이 코드를 실행할 수 있다.또한 사용한 컴퓨팅 시간에 대해서만 비용을 지불할 수 있어 비용 효율적이다.
📷 예를 들어 간단한 Lambda 함수로 업로드되는 이미지의 크기를 AWS 클라우드에 맞춰 자동으로 조정하는 함수가 있다면 새 이미지를 업로드할 때 함수가 트리거 되며 작동 방식(순서)는 아래와 같다.
- 코드를 lambda에 업로드한다.
- AWS 서비스, 모바일 애플리케이션 또는 HTTP 엔드포인트와 같은 이벤트 소스에서 트리거되도록 코드를 설정한다.
- Lambda는 트리거된 경우에만 코드를 실행한다.
- 사용한 컴퓨팅 시간에 대해서만 요금을 지불한다.
EC2 외의 컴퓨팅 서비스를 살펴보자
서버리스 - 기본 인프라를 보거나 액세스할 수 없음 (AWS가 대신 처리) 그렇다면 사용자는 애플리케이션만 신경쓰면 됨
람다에 코드를 올림.
람다함수에서는 서비스가 트리거에 되기를 기다림 -> 가용성이 높음 환경 유지 관리를 모두 ㅣambda에서 사용함
코드가 15분 미만으로 설계되도록 구성됨 따라서 딥러닝 같은 장기 시스템에는 적합하지 않음
웹 서비스 백엔드 처리가 필요할 때 필요함.
그렇다면 스프링을 람다에도 올릴 수 있는 것인가?
기본 환경에 엑세스해야하지만 효율성이 높아지는 경우 AWS elastic elastic kubernated
컨테이너 오케스트레이션 도구
컨테이너-도커
도커- OS 수준의 가상화
컨테이너- 코드 패키지
EC2 - 서버 가상화 (도커와 비슷함)
호스트가 EC2
컨테이너는 애플리케이션의 코드와 종속성을 하나의 객체로 패키징하는 표준 방식을 제공한다. 보안성, 신뢰성, 확장성 요구사항이 매우 중요한 프로세스 및 워크플로우에도 컨테이너를 사용한다.
Amazon Elastic Container Service (ECS)
Docker - 애플리케이션을 신속하게 구축, 테스트, 배포할 수 있는 소트프웨어 플랫폼
Amazon Elastic Kubernetes Servise (EKS)
Kubenetes - 컨테이너식 애플리케이션을 대규모로 배포하고 관리하는 데 사용할 수 있는 오픈 소스 소프트웨어
AWS Fargate
Docker vs Container
도커는 한 개의 컨테이너를 관리하는데 최적화 되어있고, 쿠버네티스는 여러 개의 컨테이너를 서비스 단위로 관리하는 데 최적화 되어있다.
이 글을 참고해보면 좋을 것 같다.