문제 풀이
- 여러 글로벌 사이트에서 하나의 버킷에 가능한 빨르게 적재
- s3 transfer acceleration을 사용한다. multipart upload 기능을 사용하여 대용량 파일을 병렬로 빠르게 업로드 한다.
- s3에 JSON으로 적재 된 데이터를 분석하기 위한 가장 간단한 방법은?
- AWS Organizations로 서로 다른 부서들을 관리하기 위한 여러 AWS 계정을 사용하는데 Organizations에 계정이 있는 유저만 s3에 접근을 하게 제한하려면?
- S3 버킷 정책에 조직 ID를 참조하는 aws PrincipalOrgID 글로벌 조건 키를 추가한다
- EC2가 S3에 인터넷을 거치지 않고 적재하려면?
- gateway VPC endpiont를 사용하여 s3에 접근한다.
- 기존 EC2와 EBS를 복사하여 다른 AZ에 두고 동일한 ALB에 연결하였다. 다른 subnet이여도 모든 파일이 보이려면 어떻게 해야하는가?
- EBS 데이터를 EFS에 복사하고 데이터가 EFS에 저장되도록 변경한다.
- 1mb부터 500GB까지 총 70TB인 비디오 파일을 가능한 가장 적은 대역폭을 사용하여 S3에 옮기려면?
- AWS Snowball Edge 작업을 생성하고, Snowball Edge 장치를 수령한 후, Snowball Edge 클라이언트를 사용하여 데이터를 장치로 전송하고, 장치를 반환하여 AWS가 데이터를 Amazon S3에 적재한다. (s3 전송 비용은 무료)
- 수십 개의 다른 서비스에서 메시지를 읽어간다. 메시지 수는 크게 변동하며 초당 100,000개로 급증하기도 한다. 솔루션을 분리하고 확장성을 높이려면?
- aws SNS에 여러 토픽으로 publish 하여 SQS에서 읽어가도록 한다.
- 회사가 분산 애플리케이션을 aws로 마이그레이션하려고 한다. 이전 시스템에서는 primary 서버가 여러 컴퓨팅 노드를 관리한다. 복원력과 확장성을 최대화하는 솔루션은?
- 단일 장애 지점인 기본 서버를 제거하고 SQS 큐를 구성 후 ec2 인스턴스로 컴퓨트 노드를 구현하고 auto scaling 그룹에서 관리한다. 큐의 크기에 따라 ec2 auto scaling을 구성한다.
- 생성 된 후 몇일만 보고 7일 후에는 드물게 보게 되는 파일들이 있다.
- 확장을 위해 s3 file gateway를 생성한다. 7일 후 s3 glacier deep archive에 저장되도록 lifecycle policy를 설정한다.
- API gateway에 들어온 것을 순서대로 처리하려면?
- API gateway가 받은 message를 SQS FIFO queue와 연결하여 보내도록 한다. 그리고 lambda로 처리한다.
- EC2와 Aurora db가 연결되어 있고 user name과 비밀번호가 로컬 파일로 관리되고 있다. 자격증명 관리를 최소화 하려면?
- AWS secrets manager를 사용한다. 주기를 지정하여 자동으로 변경 가능
- global 회사가 ALB를 통해 EC2에 웹을 호스팅 중이다. web은 정적,동적 데이터를 갖으며 정적 데이터는 s3에 저장되어 있다. 회사는 데이터에 대한 지연율을 낮추고 성능을 높이고 싶어 한다. Route53을 사용하여 도메인을 설정하고 있다.
- CloudFront 배포를 생성하고 s3 버킷과 alb를 오리진으로 갖도록 설정 후 route53을 사용하여 트래픽을 cloudfront 배포로 라우팅 한다.