[대규모 시스템 설계] 1. 사용자 수에 따른 규모 확장성
단일 서버

- 사용자는 도메인 이름 (api.mysite.com)을 이용하여 웹 사이트에 접근한다. 이 접속을 위해서 DNS에 질의하여 IP 주소로 변환하는 과정이 필요하다. DNS는 보통 third party가 제공하는 유료 서비스를 이용하게 되므로 시스템에서 제외한다.
- DNS 조회 결과 IP 주소가 반환된다.
- 해당 주소로 HTTP 요청이 전달된다.
- 웹 서버는 HTML 페이지나 JSON 형태의 응답을 반환한다.
데이터베이스

- 전통적인 관계형 데이터베이스와 비-관계형 데이터베이스 사이에서 고를 수 있음.
- 관계형 데이터베이스: 자료를 테이블과 열, 컬럼으로 표현. 여러 테이블을 관계에 따라 join하여 합칠 수 있다. MySQL, 오라클, PostgreSQL 등
- 비 관계형 데이터베이스: NoSQL이라고도 부른다. NoSQL은 키-값 저장소, 그래프 저장소, 컬럼 저장소, 문서 저장소 네 부류로 나눌 수 있다. 조인 연산을 지원하지 않는다.
- 아래와 같은 경우에는 비-관계형 데이터베이스가 바람직한 선택
- 아주 낮은 응답 지연시간(latency)가 요구됨
- 다루는 데이터가 비정형이라 관계형 데이터가 아님
- 데이터(JSON, YAML, XML)을 직렬화하거나 역직렬화 할 수 있기만 하면 됨
- 아주 많은 양의 데이터를 저장할 필요가 있음.
수직적 규모 확장 vs 수평정 규모 확장
- 수직적 규모 확장 (scale up): 서버에 고사양 자원 (CPU, RAM 등)을 추가하는 행위.
- 수평적 규모 확장 (scale out): 더 많은 서버를 추가하여 성능을 개선하는 행위
대규모 애플리케이션을 설계할 때는 어떤 확장을 선택해야 할까?
- 서버로 유입되는 트래픽의 양이 적을 때는 수직적 확장이 좋은 선택이나, 수직적 규모 확장은 아래와 같은 단점이 존재한다.
- 한 대의 서버에 CPU나 메모리를 무한대로 증설할 수 없다.
- 장애에 대한 자동복구(failover) 방안이나 다중화(redundancy) 방안을 제시하지 않는다. 즉, 서버에 장애가 발생하면 웹사이트/앱은 완전히 중단된다.
- 수직적 확장의 이런 단점 때문에, 대규모 애플리케이션을 지원하는 데는 수평적 규모 확장법이 적절하다.
로드밸런서
- 앞의 그림에서 사용자는 웹 서버에 바로 연결된다. 웹 서버가 다운되면 사용자는 웹 사이트에 접속할 수 없다. 또한, 너무 많은 사용자가 접속하여 웹 서버가 한계에 도달하면 응답 속도가 느려지거나 서버 접속이 불가능해질 수도 있다.
- 이런 문제를 해결하는 데는 부하 분산기 또는 로드 밸런서를 도입하는 것이 좋다.

- 사용자는 로드밸런서의 공개 IP 주소 (88.88.88.1)로 접속하고, 로드 밸런서는 적절한 서버를 찾는다.
- 보안을 위해 서버 간 통신에는 사설 IP 주소 (private IP address)가 사용된다. 이는 같은 네트워크에 속한 서버 사이의 통신에만 쓰일 수 있다.
- 이를 통해 장애를 자동복구 할 수 있고, 웹 계층의 가용성이 향상된다.
- 서버 1이 다운되면 모든 트래픽은 서버 2로 전송된다. 즉, 웹 사이트 전체가 다운되는 일이 방지된다. (장애 복구)
- 웹 사이트로 유입되는 트래픽이 가파르게 증가하면 두 대의 서버로 트래픽을 감당할 수 없는 시점이 오는데, 로드밸런서가 있으므로 웹 서버에 더 많은 서버를 추가하기만 하면 된다. 그러면 로드밸런서가 트래픽을 분산할 것이다. (가용성)
데이터베이스 다중화
- 보통 서버 사이에 master-slave 관계를 설정하고 데이터 원본은 master, 사본은 slave에 저장
- 쓰기 연산은 master, 읽기 연산은 slave에서 처리.

- 데이터베이스 다중화의 이점
- 더 나은 성능: 읽기, 쓰기 연산을 처리하는 서버를 각각 두면서 요청을 분산함
- 안정성 (reliability): DB 서버 가운데 일부가 고장나도 데이터는 보존됨.
- 가용성 (availability): 데이터를 여러 지역에 복제해 둠으로써, 하나의 DB에서 장애가 발생하더라도 다른 서버에 있는 데이터를 가져와 계속 서비스한다.
- 데이터베이스의 가용성
- slave 서버가 한 대 뿐인데 다운된 경우: 읽기 연산은 한시적으로 master로 전달되고, 새로운 slave 서버가 다운된 서버를 대체할 것이다.
- master 서버가 다운된 경우: slave 데이터베이스가 master로 승격되고, 새로운 slave 서버가 추가될 것이다.
로드밸런서와 데이터베이스 다중화를 고려한 설계

- 이 설계안은 다음과 같이 동작한다.
- 사용자는 DNS로부터 로드밸런서의 공개 IP 주소를 받는다.
- 사용자는 해당 IP 주소를 통해 로드밸런서에 접속한다.
- HTTP 요청은 서버 1이나 서버 2로 전달된다.
- 웹 서버는 사용자의 데이터를 Slave DB에서 읽고, Master DB에서 쓴다.
캐시
- 캐시는 값비싼 연산이나 자주 참조되는 데이터를 메모리 안에 두고, 뒤이은 요청이 보다 빨리 처리될 수 있도록 하는 저장소다. 주로 Latency를 개선하기 위해 자주 사용된다.
캐시 계층

- 캐시 계층 (cache tier)은 데이터가 잠시 보관되는 곳으로 DB보다 훨씬 빠르다.
- 웹 서버는 캐시에 응답이 저장되어 있는지 확인하고 있으면 캐시, 없으면 DB에 질의해 데이터를 가져온다. 이러한 캐시 전략을 읽기 주도형 캐시 전략 (read-through caching strategy)라 한다.
캐시 사용 시 유의할 점
- 데이터 갱신은 자주 일어나지 않지만 참조는 빈번하게 일어나는 경우
- 어떤 데이터를 캐시에 두어야 하는가?
- 캐시의 만료 (expire) 전략
- 일관성(consistency) 유지
- 시스템을 확장해 나가는 경우 캐시와 DB 사이의 일관성을 유지하는 것은 어려운 문제가 될 수 있다.
- 장애 대처
- 캐시 서버를 한 대만 두는 경우 단일 장애 지점 (Single Point Of Failure)가 될 가능성이 있다.
- SPOF: 특정 지점에서의 장애가 전체 시스템의 동작을 중단시키는 지점.
- 결과적으로 SPOF를 피하기 위해 여러 지역에 걸쳐 캐시 서버를 분산시켜야 한다.
- 캐시 메모리를 얼마나 크게 잡을 것인가.
- 메모리가 너무 작으면 엑세스 패턴에 따라 데이터가 자주 캐시에서 eviction 되어 캐시 성능이 떨어진다.
- 이를 막기 위한 한 가지 방법은 캐시 메모리를 과할당 (overprovision)하는 것이다. 이렇게 하면 캐시에 보관될 데이터가 갑자기 늘어났을 때 생길 문제를 방지할 수 있다.
- 데이터 방출 (eviction) 정책
- 캐시가 꽉 차고 추가로 캐시에 데이터를 넣어야 할 경우 기존 데이터를 내보내야 한다.
- 보통 LRU를 많이 쓰고, LFU나 FIFO 같은 정책도 있으니 상황에 맞게 사용하는 것이 중요하다.
콘텐츠 전송 네트워크 (CDN)
- CDN는 정적 콘텐츠를 전송하는 데 쓰이는, 지리적으로 분산된 서버의 네트워크다. 이미지, 비디오, CSS, JavaScript 파일 등을 캐시할 수 있다.
- 사용자가 웹사이트를 방문하면, 그 사용자에게 가장 가까운 CDN 서버가 정적 콘텐츠를 전달하게 된다. 사용자가 CDN 서버로부터 멀면 멀수록 웹사이트는 천천히 로드 될 것인가.

- CDN의 동작방식은 아래와 같다.
- 사용자 A가 이미지 URL을 이용해 image.png에 접근한다. URL의 도메인은 CDN 서비스 사업자가 제공한다.
- 아래의 URL은 Cloudfront와 Akamai CDN이 제공하는 URL의 예다.
https://mysite.cloudfront.net/logo.jpg
https://mysite.akamai.con/image-manager/img/logo.jpg
- CDN 서버의 캐시에 해당 이미지가 없는 경우, 서버는 원본 (origin) 서버에 요청하여 파일을 가져온다. 원본 서버는 웹 서버일수 있고 Amazon S3 같은 온라인 저장소일 수도 있다.
- 원본 서버가 파일을 CDN 서버에 반환한다. 이때 HTTP 요청의 헤더에 해당 파일이 얼마나 오래 캐시될 수 있는지를 설명하는 TTL 값이 들어있다.
- CDN 서버는 파일을 캐시하고 사용자 A에게 반환한다. 이미지는 TTL에 명시된 시간이 끝날 때 까지 캐시된다.
- 이후 사용자 B가 같은 이미지에 대한 요청을 CDN 서버에 전송하면, CDN은 캐싱된 이미지를 반환한다.
CDN 사용시 고려할 점
- 비용
- 보통 서드파티에 의해 운영되며, CDN으로 들어가고 나가는 데이터 전송 양에 따라 요금을 낸다.
- 자주 사용되는 콘텐츠를 위주로 캐싱을 하여 비용을 줄이자.
- 적절한 만료 시한 설정
- 시간에 민감한 콘텐츠의 경우 만료 시점을 잘 정해야 한다. 너무 길면 콘텐츠의 신선도는 떨어질 것이고, 너무 짧으면 원본 서버에 빈번히 접속하게 되어 좋지 않다.
- CDN 장애에 대한 대처 방한
- CDN 자체가 죽었을 경우 웹사이트/어플리케이션이 어떻게 동작해야 하는지 고려해야 한다. 가령 일시적으로 CDN이 응답하지 않을 경우, 해당 문제를 감지하여 원본 서버로부터 직접 콘텐츠를 가져오도록 클라이언트를 구성해야 한다.
- 콘텐츠 무효화(invalidation) 방법
- 아직 만료되지 않은 콘텐츠라 하더라고 아래 방법 중 가운데 하나를 쓰면 CDN에서 제거할 수 있다.
- CDN 서비스 사업자가 제공하는 API를 이용하여 콘텐츠 무효화
- 콘텐츠의 다른 버전을 서비스하도록 오브젝트 버저닝을 이용.
image.png?v=2
이런 식으로 버전 번호를 인자로 주면 된다.
CDN과 캐시가 추가된 설계

- 정적 콘텐츠는 더 이상 웹 서버를 통해 서비스되지 않으며, CDN을 통해 더 나은 성능을 제공한다.
- 캐시가 DB의 부하를 줄여준다.
무상태(Stateless) 웹 계층
- 웹 계층을 수평적으로 확장하기 위해 상태 정보 (사용자의 세션 데이터 등)을 웹 계층에서 제거하고 데이터를 RDB, NoSQL 같은 지속성 저장소에 보관하고 필요할 때 가져오도록 하는 전략을 취한다. 이렇게 구성된 웹 계층을 무상태 웹 계층이라고 한다.
상태 정보 의존적인 아키텍처

- 사용자 A의 세션 정보는 서버 1에 저장된다. 즉, 사용자 A를 인증하기 위해 HTTP 요청은 반드시 서버 1로 전송되어야 한다. 만약 서버 2로 요청이 가면 인증은 실패할 것이다.
- 같은 클라이언트로부터의 요청은 항상 같은 서버로 전송되어야 하는데, 이를 위해 로드밸런서가 고정 세션 (sticky session)이라는 기능을 지원한다. 하지만 이는 로드밸런서에 부담을 주고, 로드밸런서 뒷단에 서버를 추가하거나 제거하기 까다로워 지고, 서버의 장애를 처리하기도 복잡해진다.
무상태 아키텍처

- 세션 데이터를 웹 계층에서 분리하고 지속성 데이터 보관소에 저장하도록 만들었다.
- 자동규모확장 (Autoscaling)은 트래픽 양에 따라 웹 서버를 자동으로 추가하거나 삭제하는 기능이다. 상태 정보가 웹 서버들로부터 제거되었으므로, 트래픽 양에 따라 웹 서버를 넣거나 빼거나 하면 자동으로 규모를 확장할 수 있게 됐다.
데이터 센터
- 웹사이트가 매우 빨리 성장하여 전 세계 사용자의 이목을 받는 시점이 왔다고 해 보자. 가용성을 높이고 전 세계 어디서도 쾌적하게 사용할 수 있도록 하기 위해서 여러 데이터 센터를 이용하는 것은 필수다.
- 장애가 없는 상황에서 사용자는 가장 가까운 데이터 센터로 안내되는데, 통상 이 절차를 지리적 라우팅 (geoDNS-routing, geo-routing)이라고 부른다.
- geoDNS는 사용자의 위치에 따라 도메인 이름을 어떤 IP 주소로 변환할지 결정할 수 있도록 해 주는 DNS 서비스다. 이 예제의 경우, DNS 서비스의 결과로 x% 사용자는 US-East, (100-x)%의 사용자는 US-West 센터로 안내된다고 가정하자.

- 만약 데이터 센터 중 하나에 장애가 발생하면 모든 트래픽은 장애가 없는 데이터 센터로 전송된다.
- 이 사례와 같은 다중 데이터센터 아키텍처를 만들려면 몇 가지 기술적인 난제를 해결해야 한다.
- 트래픽 우회: 적절한 데이터 센터로 트래픽을 보내는 효율적인 방법을 찾아야 한다.
- 데이터 동기화: 데이터 센터마다 별도의 DB를 사용하는 상황이면, failover 트래픽이 다른 DB로 우회된다 해도, 해당 데이터 센터에는 찾는 데이터가 없을 수 있다. 이런 상황을 막기위한 전략 중 하나는 데이터를 여러 데이터센터에 걸쳐 다중화는 것이다.
- 테스트와 배포: 여러 데이터 센터를 사용하도록 시스템이 구성된 상황이라면 웹 사이트 또는 애플리케이션을 여러 위치에서 테스트해보는 것이 중요하다. 또한, 자동화된 배포 도구는 모든 데이터 센터에 동일한 서비스가 설치되도록 하는데 중요한 역할을 한다.
메시지 큐
- 시스템을 더 큰 규모로 확장하기 위해서는 시스템의 컴포넌트를 분리하여, 독립적으로 확장될 수 있도록 해야 한다. 메시지 큐는 이러한 문제를 해결할 수 있는 전략 중 하나다.
- 메시지 큐는 메시지의 신뢰성 (durabilit)을 보장하는, 비동기 통신을 지원하는 컴포넌트다. 기본 아키텍처는 생산자 또는 발행자 (Producer/Publisher)라고 불리는 입력 서비스가 메시지를 만들어 메시지 큐에 발행한다. 큐에는 보통 소비자 혹은 구독자 (consumer/subscriber)라고 불리는 서비스 혹은 서버가 연결되어 있는데, 메시지를 받아 그에 맞는 동작을 수행한다.
- 메시지 큐를 이용하면 서비스 또는 서버 간 결합이 느슨해져서, 규모 확장성이 보장되어야 하는 안정적 애플리케이션을 구성하기 좋다.
- Producer는 Consumer 프로세스가 다운되어 있어도 메시지를 발행할 수 있고, Consumer는 Producer 서비스가 가용된 상태가 아니라도 메시지를 수신할 수 있다.
- 가령 이미지의 cropping, sharpening, blurring 등을 지원하는 사진 보정 애플리케이션을 만든다고 해보자. 이러한 작업들은 시간이 오래 걸릴 수 있는 프로세스이므로 비동기적으로 처리하면 좋다.

- 웹 서버는 사진 보정 작업을 메시지 큐에 넣고, 사진 보정 작업 프로세스들은 이 작업을 메시지 큐에서 꺼내어 비동기적으로 완료한다. 이렇게 하면 각각의 서비스 규모는 독립적으로 확장할 수 있다. 만약 큐의 크기가 커진다면 더 많은 작업 프로세스를 추가해야 처리 시간을 줄일 수 있다.
로그, 메트릭 그리고 자동화
- 웹 사이트와 함께 사업 규모가 커지고 나면, 해당 도구에 필수적으로 투자해야 한다.
- 로그: 시스템의 오류와 문제들을 쉽게 찾아내기 위해 에러 로그를 모니터링 하는 것은 중요하다. 서버 단위로 모니터링 할 수도 있지만, 로그를 단일 서비스로 모아주는 도구 (ex. ELK(Elasticsearch, Logstash, Kibana))를 활용하면 더 편리하게 검색하고 조회할 수 있다.
- 메트릭: 메트릭을 잘 수집하면 사업 현황에 관한 유용한 정보를 얻을 수도 있고, 시스템의 현재 상태를 손쉽게 파악할 수도 있다.
- 호스트 단위 메트릭: CPU, 메모리, 디스크 I/O
- 종합 메트릭: DB 계층의 성능, 캐시 계층의 선능
- 핵심 비즈니스 메트릭: 일별 능동 사용자(Daily Active User), 수익(Revenue), 재방문(Retention) 등
- 자동화: 시스템이 크고 복잡해지면 생산성을 높이기 위해 자동화 도구를 활용해야 한다. 가령 CI/CD 프로세스를 만들어 버전 관리, 빌드, 테스트, 배포 등의 절차를 자동화할 수 있어 개발 생산성을 크게 향상 시킬 수 있다.
메시지 큐, 로그, 메트릭, 자동화 등을 반영하여 수정한 설계안

- 메시지 큐는 각 컴포넌트 보다 느슨히 결합 (loosely coupled)될 수 있도록 하고, 결함에 대한 내성을 높인다.
- 로그, 모니터링, 메트릭, 자동화 등을 지원하기 위한 장치를 추가했다.
데이터베이스의 규모 확장
- 저장할 데이터가 많아지면 데이터베이스에 대한 부하도 같이 증가한다. 이럴 경우에 데이터베이스를 증설할 방법을 찾아야 한다.

수직적 확장 (Scale Up)
- 기존 서버에 더 많은 또는 고성능의 자원 (CPU, RAM, Disk)을 증설하는 방법이다. 가령 아마존 AWS의 RDB는 24TB RAM을 갖춘 서버도 상품으로 제공하고 있다.
- 예를 들어 스택오버플로는 2013년 한 해동안 방문한 천만 명의 사용자 전부를 단 한 대의 마스터 데이터베이스로 처리하였다. 하지만 이러한 수직적 접근법에는 몇 가지 단점이 있다.
수직적 확장의 단점
- DB 서버 하드웨어는 한계가 있으므로 CPU, RAM 등을 무한 증설할 수 없다.
- SPOF로 인한 위험성
- 비용이 많이 든다.
수평적 확장 (Scale Out)
- DB의 수평적 확장은 샤딩(Sharding)이라고 부르는데, 더 많은 서버를 추가함으로써 성능을 향상시킬 수 있도록 한다.
샤딩 (Sharding)
- 샤딩은 대규모 데이터베이스를 샤드(shard)라고 부르는 작은 단위로 분할하는 기술을 일겉는다. 모든 샤드는 같은 스키마를 쓰지만 샤드에 보관되는 데이터 사이에는 중복이 없다.

- 사용자 데이터를 어느 샤드에 넣을지는 user_id에 따라 결정된다.
user_id % 4
를 해시 함수로 사용하여 데이터가 보관되는 샤드를 정한다.

- 해시 함수에 의해 위와 같이 데이터가 저장된다.
- 샤딩 전략을 구현할 때 가장 중요한 것은 샤딩 키를 어떻게 정하느냐 하는 것이다. 샤딩 키는 파티션 키라고도 부르는데, 데이터가 어떻게 분산될지 정하는 하나 이상의 컬럼으로 구성된다. 그림 1-22의 경우, 샤딩 키는 user_id가 된다.
- 샤딩은 DB 규모 확장을 실현하는 훌륭한 기술이지만 도입하면 시스템이 복잡해지고 아래와 같은 문제도 생긴다.
- 데이터의 재샤딩: 데이터가 너무 많아져서 하나의 샤드로 감당하기 어렵거나, 샤드간 데이터 분포가 균등하지 못하여 특정한 샤드에 할당된 공간 소모가 다른 샤드에 비해 빨리 진행될 때 샤드 키를 계산하는 함수를 변경하고 데이터를 재배치 해야한다. 이런 문제는 5장에서 다룰 안정 해시 기법을 활용하여 해결한다.
- 유명인사(Celebrity) 문제: 핫스팟 키(Hotspot Key)라고도 부른다. 특정 샤드에 질의가 집중되어 서버가 과부하에 걸리는 경우.
- 가령 케이티 페리, 저스틴 비버, 레이디 가가 같은 셀럽들이 같은 샤드에 저장되어 있는 DB가 있고, 이 데이터로 SNS를 구축하면 위의 샤드에서는 read 연산으로 인해 과부하가 걸릴 것이다.
- 이를 해결하기 위해 위의 셀럽들을 각각의 샤드에 할당하거나 더 잘게 쪼갠다.
- 조인과 비정규화: 하나의 데이터베이스를 여러 샤드로 쪼개고 나면, 여러 샤드에 걸친 데이터를 조인하기가 힘들어진다. 이를 해결하는 한 가지 방법은 DB를 비정규화하여 하나의 테이블에서 질의가 수행될 수 있도록 하는 것이다.
샤딩을 적용한 아키텍처

- 샤딩을 적용하여 DB의 부하를 줄이고, RDB가 요구되지 않는 기능들은 NoSQL로 이전했다.
요약
- 시스템 규모 확장을 위해 살펴본 기법들을 요약해보면 아래와 같다.
- 웹 계층은 무상태 계층으로
- 모든 계층에 다중화 도입
- 가능한 많은 데이터를 캐시할 것
- 여러 데이터 센터를 지원할 것
- 정적 콘텐츠를 CDN을 통해 서비스할 것
- 데이터 계층은 샤딩을 통해 그 규모를 확장할 것
- 각 계층은 독립적 서비스로 분할할 것
- 시스템을 지속적으로 모니터링하고, 자동화 도구들을 활용할 것