AWS SAP 덤프 정리 (101~200)

강재민·2022년 7월 20일
0

AWS SAP 덤프 정리

목록 보기
2/9

1

AWS Data Pipeline은 AWS Data Pipeline에서 유지 관리하는 컴퓨팅 리소스를 언제 종료합니까?

A. AWS Data Pipeline은 2시간마다 AWS Data Pipeline 관리 컴퓨팅 리소스를 종료합니다.
B. 리소스를 사용하는 최종 액티비티가 실행 중일 때
C. AWS Data Pipeline은 12시간마다 AWS Data Pipeline 관리 컴퓨팅 리소스를 종료합니다.
D. 자원을 사용하는 최종 활동이 성공적으로 완료되거나 실패한 경우

2

회사의 각 기술 팀에는 AWS Organizations에 자체 OU가 있습니다. 각 OU에는 여러 AWS 계정이 있습니다. 수백 개의 AWS 계정이 회사에서 사용됩니다.

솔루션 설계자는 각 OU(조직 구성 단위)가 모든 AWS 계정에 대한 AWS 사용 요금 내역을 조사할 수 있는 솔루션을 생성해야 합니다.

이 기준을 충족하는 솔루션은 무엇입니까?

A. AWS Resource Access Manager를 사용하여 각 OU에 대한 AWS 비용 및 사용 보고서(CUR)를 생성합니다. 각 팀이 Amazon QuickSight 대시보드를 통해 CUR을 시각화하도록 허용합니다.
B. AWS Organizations 관리 계정에서 AWS 비용 및 사용 보고서(CUR)를 생성합니다. 각 팀이 Amazon QuickSight 대시보드를 통해 CUR을 시각화하도록 허용합니다.
C. 각 AWS Organizations 회원 계정에서 AWS 비용 및 사용 보고서(CUR)를 생성합니다. 각 팀이 Amazon QuickSight 대시보드를 통해 CUR을 시각화하도록 허용합니다.
D. AWS Systems Manager를 사용하여 AWS 비용 및 사용 보고서(CUR)를 생성합니다. 각 팀은 Systems Manager OpsCenter 대시보드를 통해 CUR을 시각화할 수 있습니다.

3

데이터 분석 조직에는 Amazon Redshift 클러스터에 수많은 예약 노드가 있습니다. 작업자 팀이 상세한 감사 분석 보고서를 생성하고 있기 때문에 클러스터에서 예상치 못한 사용량이 급증하고 있습니다. 보고서의 쿼리는 CPU를 많이 사용하는 복잡한 읽기 쿼리입니다.
비즈니스 요구 사항에 따라 클러스터는 항상 읽기 및 쓰기 요청을 처리할 수 있어야 합니다. 솔루션 설계자는 소비 급증에 견딜 수 있는 시스템을 설계해야 합니다.

비용 효율성 측면에서 이러한 기준에 가장 적합한 옵션은 무엇입니까?

A. Amazon EMR 클러스터를 프로비저닝합니다. 복잡한 데이터 처리 작업의 부담을 덜어줍니다.
B. Amazon CloudWatch에서 클러스터의 CPU 지표가 80%에 도달하면 클래식 크기 조정 작업을 사용하여 Amazon Redshift 클러스터에 용량을 추가하는 AWS Lambda 함수를 배포합니다.
C. Amazon CloudWatch에서 클러스터의 CPU 지표가 80%에 도달하면 탄력적 크기 조정 작업을 사용하여 Amazon Redshift 클러스터에 용량을 추가하는 AWS Lambda 함수를 배포합니다 .
D. Amazon Redshift 클러스터에 대한 동시성 조정 기능을 켭니다.

4

기업에서 온프레미스 데이터 분석 인프라를 AWS로 전환하기를 원합니다. 두 개의 간단한 Node.js 앱이 환경을 구성합니다. 앱 중 하나는 센서 데이터를 수집하고 MySQL 데이터베이스에 저장합니다. 다른 프로그램은 데이터에서 보고서를 생성합니다. 집계 작업을 실행할 때 일부 로드 작업이 제대로 실행되지 않습니다.
회사의 데이터 로딩 문제를 해결해야 합니다. 또한 회사는 회사의 고객에게 중단이나 수정을 가하지 않고 이전이 이루어지도록 요구합니다.

솔루션 설계자는 이러한 기준을 충족하기 위해 어떤 조치를 취해야 합니까?

A. Amazon Aurora MySQL 데이터베이스를 온프레미스 데이터베이스의 복제 대상으로 설정합니다. Aurora MySQL 데이터베이스에 대한 Aurora 복제본을 생성하고 Aurora 복제본에 대해 실행할 집계 작업을 이동합니다. NLB(Network Load Balancer) 뒤의 AWS Lambda 함수로 컬렉션 엔드포인트를 설정하고 Amazon RDS 프록시를 사용하여 Aurora MySQL 데이터베이스에 씁니다. 데이터베이스가 동기화되면 복제 작업을 비활성화하고 Aurora 복제본을 기본 인스턴스로 다시 시작합니다. 수집기 DNS 레코드가 NLB를 가리키도록 합니다.
B. Amazon Aurora MySQL 데이터베이스를 설정합니다. AWS Database Migration Service(AWS DMS)를 사용하여 온프레미스 데이터베이스에서 Aurora로 지속적인 데이터 복제를 수행합니다. Aurora MySQL 데이터베이스에 대해 실행할 집계 작업을 이동합니다. ALB(Application Load Balancer) 뒤의 컬렉션 엔드포인트를 Auto Scaling 그룹의 Amazon EC2 인스턴스로 설정합니다. 데이터베이스가 동기화되면 수집기 DNS 레코드가 ALB를 가리키도록 합니다. 온프레미스에서 AWS로 전환한 후 AWS DMS 동기화 작업을 비활성화합니다.
씨. Amazon Aurora MySQL 데이터베이스를 설정합니다. AWS Database Migration Service(AWS DMS)를 사용하여 온프레미스 데이터베이스에서 Aurora로 지속적인 데이터 복제를 수행합니다. Aurora MySQL 데이터베이스에 대한 Aurora 복제본을 생성하고 Aurora 복제본에 대해 실행할 집계 작업을 이동합니다. 컬렉션 엔드포인트를 ALB(Application Load Balancer) 뒤의 AWS Lambda 함수로 설정하고 Amazon RDS 프록시를 사용하여 Aurora MySQL 데이터베이스에 씁니다. 데이터베이스가 동기화되면 수집기 DNS 레코드가 ALB를 가리키도록 합니다. 온프레미스에서 AWS로 전환한 후 AWS DMS 동기화 작업을 비활성화합니다.
D. Amazon Aurora MySQL 데이터베이스를 설정합니다. Aurora MySQL 데이터베이스에 대한 Aurora 복제본을 생성하고 Aurora 복제본에 대해 실행할 집계 작업을 이동합니다. 컬렉션 엔드포인트를 Amazon Kinesis 데이터 스트림으로 설정합니다. Amazon Kinesis Data Firehose를 사용하여 데이터를 Aurora MySQL 데이터베이스에 복제합니다. 데이터베이스가 동기화되면 복제 작업을 비활성화하고 Aurora 복제본을 기본 인스턴스로 다시 시작합니다. 수집기 DNS 레코드가 Kinesis 데이터 스트림을 가리키도록 합니다.

5

두 번째 VPN 연결을 추가하여 네트워크에 중복 VPN 연결 및 고객 게이트웨이를 생성할 수 있습니다.

다음 중 이것이 제대로 작동한다고 보장하는 것은 무엇입니까?

A. 두 번째 VPN 연결을 위한 고객 게이트웨이 IP 주소는 공개적으로 액세스할 수 있어야 합니다.
B. 두 번째 VPN 연결을 위한 가상 게이트웨이 IP 주소는 공개적으로 액세스할 수 있어야 합니다.
C. 두 번째 VPN 연결을 위한 고객 게이트웨이 IP 주소는 동적 경로를 사용해야 합니다.
D. 두 번째 VPN 연결을 위한 고객 게이트웨이 IP 주소는 비공개로 액세스할 수 있어야 하며 첫 번째 VPN 연결에 사용하는 것과 동일한 공개 IP 주소여야 합니다.

6

Amazon EC2 인스턴스에서 기업은 Apache Hadoop 클러스터를 운영하고 있습니다. Hadoop 클러스터는 주간 운영 보고서를 위해 약 100TB의 데이터를 보유하고 데이터 과학자가 필요에 따라 클러스터에 액세스할 수 있도록 합니다. 이 데이터의 저장 및 제공과 관련된 회사의 비용 및 운영 복잡성을 줄여야 합니다.

이러한 요구를 가장 저렴하게 충족시키는 솔루션은 무엇입니까?

A. Hadoop 클러스터를 EC2 인스턴스에서 Amazon EMR로 이동합니다. 데이터 액세스 패턴이 동일하게 유지되도록 허용합니다.
B. 다운타임 동안 EC2 인스턴스의 크기를 더 작은 인스턴스 유형으로 조정하고 보고서가 생성되기 전에 인스턴스의 크기를 더 큰 인스턴스 유형으로 조정하는 스크립트를 작성합니다.
C. 데이터를 Amazon S3로 이동하고 Amazon Athena를 사용하여 보고서용 데이터를 쿼리합니다. 데이터 과학자가 Amazon S3의 데이터에 직접 액세스할 수 있습니다.
D. 데이터를 Amazon DynamoDB로 마이그레이션하고 보고서를 수정하여 DynamoDB에서 데이터를 가져옵니다. 데이터 과학자가 DynamoDB에서 직접 데이터에 액세스할 수 있습니다.

7

기업은 단기간 내에 온프레미스 설정을 AWS로 전환해야 한다는 압박을 받고 있었습니다. Microsoft SQL Server 및 Microsoft Windows Server를 가져오고 내보내고 가상 머신 가져오기/내보내기 서비스를 활용하여 다른 클라우드 네이티브 앱을 재구축했습니다. 팀은 Amazon EC2와 Amazon RDS를 모두 활용하여 데이터베이스를 개발했습니다.
조직 내 각 팀은 앱 이전을 담당했으며 리소스 격리를 보장하기 위해 별도의 계정을 만들었습니다. 이 회사는 비용을 평가할 시간이 많지 않았지만 이제 AWS 지출을 줄이는 방법에 대한 권장 사항을 찾고 있습니다.

Solutions Architect는 어떤 비용 절감 조치를 취해야 합니까?

A. AWS Business Support를 활성화하고 AWS Trusted Advisor의 비용 확인을 검토하십시오. 수요가 변동하는 애플리케이션을 위해 Amazon EC2 Auto Scaling 그룹을 생성합니다. 추세 분석을 위해 Amazon S3에 AWS Simple Monthly Calculator 보고서를 저장합니다. 조직 아래에 마스터 계정을 만들고 통합 결제를 위해 팀에 참여하도록 합니다.
B. 비용 탐색기 및 AWS Business Support를 활성화합니다. Amazon EC2 및 Amazon RDS DB 인스턴스를 예약합니다. Amazon CloudWatch 및 AWS Trusted Advisor를 사용하여 모니터링하고 비용 절감 제안을 받으십시오. 조직 아래에 마스터 계정을 만들고 통합 결제를 위해 팀에 참여하도록 합니다.
C. Amazon CloudWatch 경보를 기반으로 인스턴스 크기를 변경하는 AWS Lambda 함수를 생성합니다. AWS Simple Monthly Calculator 제안에 따라 인스턴스를 예약합니다. AWS Well-Architected 프레임워크가 권장 사항을 검토하고 적용하도록 합니다. 조직 아래에 마스터 계정을 만들고 통합 결제를 위해 팀에 참여하도록 합니다.
D. 예산을 만들고 예산을 초과하는 비용을 모니터링합니다. 수요가 변동하는 애플리케이션을 위해 Amazon EC2 Auto Scaling 그룹을 생성합니다. Amazon CloudWatch 경보를 기반으로 인스턴스 크기를 변경하는 AWS Lambda 함수를 생성합니다. 팀 지출 분석을 위해 각 팀이 청구서를 Amazon S3 버킷에 업로드하도록 합니다. 야간 일괄 처리 작업에 스팟 인스턴스를 사용합니다.

8

Amazon Virtual Private Cloud(VPC)는 IPSec VPN을 통해 기업 데이터 센터에 연결된 기업 온라인 애플리케이션을 호스팅합니다. 온프레미스 LDAP 서버에 대한 인증이 필요합니다. 인증 후 로그인한 각 사용자는 자신의 Amazon Simple Storage Service(S3) 키스페이스에만 액세스할 수 있습니다.

이러한 목표를 달성할 가능성이 가장 높은 두 가지 기술은 무엇입니까? (2개를 선택하세요.)

A. 임시 AWS 보안 자격 증명을 얻기 위해 IAM 역할을 맡도록 IAM 보안 토큰 서비스에 대해 인증하는 자격 증명 브로커를 개발합니다. 애플리케이션은 자격 증명 브로커를 호출하여 적절한 S3 버킷에 대한 액세스 권한이 있는 AWS 임시 보안 자격 증명을 얻습니다.
B. 애플리케이션은 LDAP에 대해 인증하고 사용자와 연결된 IAM 역할의 이름을 검색합니다. 그런 다음 애플리케이션은 IAM 보안 토큰 서비스를 호출하여 해당 IAM 역할을 수임합니다. 애플리케이션은 임시 자격 증명을 사용하여 적절한 S3 버킷에 액세스할 수 있습니다.
C. LDAP에 대해 인증한 다음 IAM 보안 토큰 서비스를 호출하여 IAM 연동 사용자 자격 증명을 가져오는 자격 증명 브로커를 개발합니다. 애플리케이션은 자격 증명 브로커를 호출하여 적절한 S3 버킷에 대한 액세스 권한이 있는 IAM 연동 사용자 자격 증명을 가져옵니다.
D. 애플리케이션은 LDAP에 대해 인증한 다음 애플리케이션이 IAM 임시 자격 증명을 사용하여 적절한 S3 버킷에 액세스할 수 있는 LDAP 자격 증명을 사용하여 IAM에 로그인하기 위해 AWS 자격 증명 및 액세스 관리(IAM) 보안 서비스를 호출합니다.
E. 애플리케이션은 LDAP 자격 증명을 사용하여 IAM Security Token Service에 대해 인증합니다. 애플리케이션은 이러한 임시 AWS 보안 자격 증명을 사용하여 적절한 S3 버킷에 액세스합니다.

9

미국 기반 AWS Direct Connect를 사용하여 미국의 먼 AWS 리전에 액세스하는 것과 관련된 설명으로 옳지 않은 것은?

A. 미국의 AWS Direct Connect 위치는 미국 리전의 퍼블릭 리소스에 액세스할 수 있습니다.
B. 단일 AWS Direct Connect 연결을 사용하여 다중 리전 서비스를 구축할 수 있습니다.
C. 원격 리전 외부의 모든 데이터 전송 요금은 AWS Direct Connect 데이터 전송 요금이 부과된 위치에서 청구됩니다.
D. 원격 지역의 VPC에 연결하려면 공용 가상 인터페이스를 통해 VPN(가상 사설망) 연결을 사용할 수 있습니다.

10

HTTP 데이터 요청에 대해 CloudWatch의 PutMetricRequest에서 사용자가 제공할 수 있는 데이터 포인트의 최대량은 얼마입니까?

가. 30
나. 50
다. 10
D. 20

11

더 잘 이해하기 위해 JSON 템플릿을 사용하여 CloudFormation에서 스택을 생성하는 실험을 하고 있습니다. 약 5~6개의 스택을 쌓았고 이제 비용이 청구되는지 궁금합니다.

스택 리소스 요금에 대한 AWS의 정책은 무엇입니까?

A. 트래픽을 사용하지 않는 스택 리소스에 대해서는 요금이 부과되지 않습니다.
B. 스택 리소스가 작동한 시간에 대해 비용이 청구됩니다(단, 30분 이내에 스택을 삭제한 경우 제외).
C. 스택 리소스가 작동한 시간 동안 요금이 부과됩니다(단, 60분 이내에 스택을 삭제한 경우 제외).
D. 스택 리소스가 작동한 시간 동안 요금이 부과됩니다(스택을 바로 삭제하더라도).

12

AWS에서 호스팅하는 전자 상거래 웹 사이트는 범용 SSD 스토리지와 함께 Amazon RDS for MySQL 데이터베이스 인스턴스를 사용합니다. 개발자는 수요에 따라 적절한 인스턴스 유형을 선택하고 100GB의 스토리지를 합리적인 여유 공간으로 설정했습니다.
몇 주 동안 웹사이트는 마케팅 활동이 시작될 때까지 정상적으로 운영되었습니다. 사용자들은 프로모션 이틀째에 긴 대기 시간과 시간 초과에 대해 불평했습니다. Amazon CloudWatch 측정에 따르면 데이터베이스 인스턴스에 대한 읽기 및 쓰기 모두 응답 시간이 길었습니다. CloudWatch 데이터에 따르면 CPU와 RAM의 40%에서 50% 사이가 사용되고 있지만 충분한 여유 저장 공간이 여전히 사용 가능합니다. 애플리케이션 서버 로그에 데이터베이스 연결 문제의 징후가 없습니다.

마케팅 캠페인이 실패한 근본적인 이유는 무엇입니까?

A. 설정 단계에서 낮은 디스크 스토리지 프로비저닝으로 인해 I/O 크레딧 밸런스가 소진되었습니다.
B. 테이블의 데이터가 자주 변경되어 쿼리를 최적화하기 위해 인덱스를 다시 작성해야 합니다.
C. 데이터베이스 인스턴스에 허용된 최대 연결 수를 소진했습니다.
D. RDS for MySQL DB 인스턴스에서 사용할 수 있는 네트워크 대역폭이 소진되었습니다.

13

AWS 계정 소유자가 여러 IAM 사용자를 생성했습니다. 이러한 IAM 사용자 중 한 명인 John은 CloudWatch에 액세스할 수 있지만 EC2 서비스에는 액세스할 수 없습니다. John은 CPU 사용량이 사전 정의된 임계값 아래로 떨어지면 EC2 인스턴스를 종료하는 경고 작업을 구성했습니다.

EC2 인스턴스의 CPU 사용률이 John이 지정한 임계값 아래로 떨어지면 어떻게 됩니까?

A. CloudWatch는 작업이 실행될 때 인스턴스를 중지합니다.
B. 아무 일도 일어나지 않을 것입니다. John은 권한이 없기 때문에 EC2에 알람을 설정할 수 없습니다.
C. 아무 일도 일어나지 않을 것입니다. John은 작업을 설정할 수 있지만 IAM 정책을 통한 EC2 액세스 권한이 없기 때문에 실행되지 않습니다.
D. CloudWatch 경보를 사용하여 인스턴스를 중지할 수 없기 때문에 아무 일도 일어나지 않습니다.

14

사용자가 MySQL RDS에 대해 PIOPS를 설정하고 있습니다.

사용자가 제공해야 하는 데이터베이스 스토리지의 최소량은 얼마입니까?

A. 1TB
나. 50GB
C. 5GB
D.100GB _

15

사진 공유를 위한 스마트폰 응용 프로그램을 만들고 있습니다. 모든 이미지는 단일 Amazon S3 버킷에 저장됩니다.
사용자는 모바일 장치에서 Amazon S3로 즉시 이미지를 게시할 수 있을 뿐만 아니라 Amazon S3에서 직접 자신의 이미지를 보고 다운로드할 수 있습니다.
수백만 명의 사용자를 안전하게 관리할 수 있는 방식으로 보안을 설정하려고 합니다.

새로운 사용자가 사진 공유 모바일 애플리케이션에 등록할 때 서버 측 프로그램은 무엇을 해야 합니까?

A. IAM 사용자를 생성합니다. IAM 사용자에 대한 적절한 권한으로 버킷 정책을 업데이트합니다. IAM 사용자에 대한 액세스 키와 비밀 키를 생성하고 모바일 앱에 저장하고 이러한 자격 증명을 사용하여 Amazon S3에 액세스합니다.
B. IAM 사용자를 생성합니다. IAM 사용자에게 적절한 권한을 할당합니다. IAM 사용자에 대한 액세스 키와 비밀 키를 생성하고 모바일 앱에 저장하고 이러한 자격 증명을 사용하여 Amazon S3에 액세스합니다.
C. 적절한 권한이 있는 AWS Security Token Service를 사용하여 장기 자격 증명 세트를 생성합니다. 이러한 자격 증명을 모바일 앱에 저장하고 Amazon S3에 액세스하는 데 사용합니다.
D. Amazon RDS에 사용자 정보를 기록하고 적절한 권한이 있는 IAM에서 역할을 생성합니다. 사용자가 모바일 앱을 사용할 때 AWS Security Token Service "AssumeRole" 기능을 사용하여 임시 자격 증명을 생성합니다. 이러한 자격 증명을 모바일 앱의 메모리에 저장하고 Amazon S3에 액세스하는 데 사용합니다. 다음에 사용자가 모바일 앱을 실행할 때 새 자격 증명을 생성합니다.
E. Amazon DynamoDB에 사용자 정보를 기록합니다. 사용자가 모바일 앱을 사용할 때 적절한 권한이 있는 AWS Security Token Service를 사용하여 임시 자격 증명을 생성합니다. 이러한 자격 증명을 모바일 앱의 메모리에 저장하고 Amazon S3에 액세스하는 데 사용합니다. 다음에 사용자가 모바일 앱을 실행할 때 새 자격 증명을 생성합니다.

16

소매업체의 애플리케이션은 Amazon S3 버킷에 송장 파일을 저장하고 Amazon DynamoDB 테이블에 파일에 대한 정보를 저장합니다. 애플리케이션 소프트웨어의 us-east-1 및 eu-west-1 버전이 모두 지원됩니다. US-east-1은 S3 버킷 및 DynamoDB 데이터베이스의 위치입니다. 회사는 데이터를 보호하고 모든 지역과의 연결을 유지하기를 원합니다.

다음 중 이러한 기준을 충족하는 옵션은 무엇입니까?

A. DynamoDB 전역 테이블을 생성하여 us-east-1과 eu-west-1 간에 데이터를 복제합니다. us-east-1의 DynamoDB 테이블에서 연속 백업을 활성화합니다. S3 버킷에서 버전 관리를 활성화합니다.
B. DynamoDB 테이블을 정기적으로 백업하기 위해 Amazon CloudWatch Events에 의해 트리거되는 AWS Lambda 함수를 생성합니다. us-east-1에서 eu-west-1로 S3 교차 리전 복제를 설정합니다. us-east-1의 S3 버킷에서 MFA 삭제를 설정합니다.
C. DynamoDB 전역 테이블을 생성하여 us-east-1과 eu-west-1 간에 데이터를 복제합니다. S3 버킷에서 버전 관리를 활성화합니다. S3 버킷에 엄격한 ACL을 구현합니다.
D. DynamoDB 전역 테이블을 생성하여 us-east-1과 eu-west-1 간에 데이터를 복제합니다. us-east-1의 DynamoDB 테이블에서 연속 백업을 활성화합니다. us-east-1에서 eu-west-1로 S3 교차 리전 복제를 설정합니다.

17

회사의 다년간 데이터 센터가 여러 독점 데이터 센터에서 AWS로 이동하는 동안 하이브리드 네트워크 아키텍처를 구현해야 합니다. 현재 데이터 센터는 사설 광섬유로 연결되어 있습니다. NAT는 구형 앱의 특성으로 인해 사용할 수 없습니다. 수많은 앱은 전송 시간 동안 데이터 센터와 AWS 모두에 있는 다른 애플리케이션에 연결해야 합니다.

마이그레이션 후 고대역폭 및 다중 지역 배포를 가능하게 하는 안전하고 가용성이 높은 하이브리드 네트워크 아키텍처를 제공하는 대안은 무엇입니까?

A. 서로 다른 ISP의 각 데이터 센터에 AWS Direct Connect를 사용하고, 하나가 실패할 경우 다른 데이터 센터의 Direct Connect로 장애 조치하도록 라우팅을 구성합니다. VPC CIDR 블록이 서로 또는 온프레미스 네트워크와 겹치지 않는지 확인합니다.
B. 온프레미스 데이터 센터에서 AWS로의 여러 하드웨어 VPN 연결을 사용합니다. 서로 다른 VPN 연결을 통해 서로 다른 서브넷 트래픽을 라우팅합니다. VPC CIDR 블록이 서로 또는 온프레미스 네트워크와 겹치지 않는지 확인합니다.
C. AWS와 온프레미스 데이터 센터 모두에서 클러스터링이 있는 소프트웨어 VPN을 사용하고 클러스터를 통해 트래픽을 라우팅합니다. VPC CIDR 블록이 서로 또는 온프레미스 네트워크와 겹치지 않는지 확인합니다.
D. AWS Direct Connect와 VPN을 백업으로 사용하고 동일한 가상 프라이빗 게이트웨이와 BGP를 사용하도록 둘 다 구성합니다. VPC CIDR 블록이 서로 또는 온프레미스 네트워크와 겹치지 않는지 확인합니다.

18

회사에는 여러 부서가 있을 수 있습니다. 각 사업부에는 자체 AWS 계정이 있으며 이를 사용하여 단일 웹 사이트를 호스팅합니다. 또한 회사에는 단일 로깅 계정이 있습니다. 로깅 계정은 각 사업부 웹 사이트의 로그를 단일 Amazon S3 버킷으로 집계합니다. S3 버킷 정책은 각 사업부에 버킷에 대한 액세스 권한을 부여하고 데이터를 암호화하도록 지정합니다.
회사는 단일 AWS Key Management Service(AWS KMS) CMK를 사용하여 버킷에 제출된 로그를 암호화해야 합니다. 365일마다 데이터를 보호하는 CMK를 순환해야 합니다.

조직이 이러한 요구 사항을 충족하기 위해 따라야 하는 운영 관점에서 가장 최적인 계획은 무엇입니까?

A. 로깅 계정에서 고객 관리형 CMK를 생성합니다. 로깅 계정에만 액세스할 수 있도록 CMK 키 정책을 업데이트합니다. 365일마다 CMK를 수동으로 교체합니다.
B. 로깅 계정에서 고객 관리형 CMK를 생성합니다. 로깅 계정 및 사업부 계정에 대한 액세스를 제공하도록 CMK 키 정책을 업데이트합니다. CMK의 자동 교체를 활성화합니다.
C. 로깅 계정에서 AWS 관리형 CMK를 사용합니다. 로깅 계정 및 사업부 계정에 대한 액세스를 제공하도록 CMK 키 정책을 업데이트합니다. 365일마다 CMK를 수동으로 교체합니다.
D. 로깅 계정에서 AWS 관리형 CMK를 사용합니다. 로깅 계정에만 액세스할 수 있도록 CMK 키 정책을 업데이트합니다. CMK의 자동 교체를 활성화합니다.

19

사용자가 EBS에 최적화된 EC2 인스턴스를 시작했습니다. 다음 설명 중 옳은 것은?

A. EBS IO 전용 추가 용량 제공
B. 첨부된 EBS는 더 큰 저장 용량을 갖습니다 .
C. 사용자는 PIOPS 기반 EBS 볼륨을 갖게 됩니다 .
D. VPC의 전용 하드웨어에서 시작됩니다.

20

기업은 온프레미스 Oracle 데이터 웨어하우스에서 30TB Oracle 데이터 웨어하우스인 Amazon Redshift로 이동하려고 합니다. 조직은 AWS Schema Conversion Tool(AWS SCT)을 사용하여 이전 데이터 웨어하우스의 스키마를 Amazon Redshift 스키마로 변환했습니다. 또한 조직은 완료해야 하는 수동 활동을 강조하기 위해 마이그레이션 평가 보고서를 사용했습니다.
조직은 2주간의 데이터 동결에 맞춰 데이터를 새로운 Amazon Redshift 클러스터로 이동해야 합니다. 온프레미스 데이터 웨어하우스와 AWS 간의 유일한 네트워크 링크는 50Mbps 인터넷 연결입니다.

이 기준을 충족하는 마이그레이션 접근 방식은 무엇입니까?

A. AWS Database Migration Service(AWS DMS) 복제 인스턴스를 생성합니다. 복제 인스턴스의 공용 IP 주소가 기업 방화벽을 통해 데이터 웨어하우스에 도달하도록 승인합니다. Fata 동결 기간이 시작될 때 실행할 마이그레이션 작업을 만듭니다.
B. 온프레미스 서버에 AWS SCT 추출 에이전트를 설치합니다. Amazon S3 버킷으로 데이터를 보낼 추출, 업로드 및 복사 작업을 정의합니다. 데이터를 Amazon Redshift 클러스터에 복사합니다. 데이터 동결 기간이 시작될 때 작업을 실행합니다.
C. 온프레미스 서버에 AWS SCT 추출 에이전트를 설치합니다. 사이트 간 VPN 연결을 만듭니다. 적절한 크기의 AWS Database Migration Service(AWS DMS) 복제 인스턴스를 생성합니다. VPN 연결을 통해 온프레미스 데이터 웨어하우스에 액세스할 수 있도록 복제 인스턴스의 IP 주소에 권한을 부여합니다.
D. AWS Snowball Edge에서 작업을 생성하여 데이터를 Amazon S3로 가져옵니다. 온프레미스 서버에 AWS SCT 추출 에이전트를 설치합니다. Snowball Edge 디바이스에 데이터를 보낼 로컬 및 AWS Database Migration Service(AWS DMS) 작업을 정의합니다. Snowball Edge 디바이스가 AWS로 반환되고 데이터가 Amazon S3에서 사용 가능한 경우 AWS DMS 하위 작업을 실행하여 데이터를 Amazon Redshift에 복사합니다.

21

기업은 애플리케이션을 호스팅할 목적으로 가상 사설 클라우드(VPC)를 구축하고 있습니다. 조직은 동일한 AZ 내에 2개의 프라이빗 서브넷을 설정하고 다른 영역에 1개를 설정했습니다.
기업은 내부 ELB를 이용하여 고가용성 시스템을 구축하고자 합니다.

내부 ELB에 관한 이러한 상황에서 다음 중 옳은 것은?

A. ELB는 각 가용 영역에서 하나의 서브넷만 지원할 수 있습니다.
B. ELB는 서브넷 선택을 허용하지 않습니다. 대신 VPC에서 사용 가능한 모든 서브넷을 자동으로 선택합니다.
C. 사용자가 내부 ELB를 생성하는 경우 프라이빗 서브넷만 사용해야 합니다.
D. ELB는 영역에 관계없이 모든 서브넷을 지원할 수 있습니다.

22

SaaS(Software as a Service) 제공업체는 민간 법률 회사와 공공 부문에 클라우드 기반 문서 관리 시스템을 제공합니다. 한 지방 정부 고객은 최근에 국가 외부에 고도의 비밀 데이터를 저장하는 것을 금지하는 지침을 발표했습니다. 회사의 최고 정보 책임자(CIO)는 솔루션 설계자를 고용하여 애플리케이션이 이 새로운 수요에 적응할 수 있는지 확인합니다. 또한 CIO는 이러한 레코드가 백업되지 않기 때문에 적절한 백업 전략을 수립하려고 합니다.

이 기준을 충족하는 솔루션은 무엇입니까?

A. 기밀이 높지 않은 문서는 Amazon S3에서 일반 태그로 지정합니다. 각 사용자에 대해 개별 S3 버킷을 생성합니다. 각 사용자의 버킷에 객체를 업로드합니다. 이러한 버킷의 S3 버킷 복제를 다른 AWS 계정 및 AWS 리전의 중앙 S3 버킷으로 설정합니다. Amazon CloudWatch의 예약된 이벤트에 의해 트리거되는 AWS Lambda 함수를 구성하여 S3 백업 버킷에서 보안으로 태그가 지정된 객체를 삭제합니다.
B. Amazon S3에서 문서를 일반 또는 비밀로 태그 지정합니다. 동일한 AWS 계정 및 AWS 리전에 개별 S3 백업 버킷을 생성합니다. 별도의 AWS 계정에 교차 리전 S3 버킷을 생성합니다. S3 버킷에 대한 교차 리전 권한을 허용하도록 적절한 IAM 역할을 설정합니다. Amazon CloudWatch 예약 이벤트에 의해 트리거된 AWS Lambda 함수를 구성하여 보안으로 태그가 지정된 객체를 S3 백업 버킷에 복사하고 일반으로 태그가 지정된 객체를 교차 리전 S3 버킷에 복사합니다.
C. Amazon S3에서 문서를 일반 또는 비밀로 태그 지정합니다. 동일한 AWS 계정 및 AWS 리전에 개별 S3 백업 버킷을 생성합니다. 객체 태그를 기반으로 하는 S3 선택적 교차 리전 복제를 사용하여 일반 문서를 다른 AWS 리전의 S3 버킷으로 이동합니다. 새 S3 객체가 기본 버킷에 생성될 때 트리거되는 AWS Lambda 함수를 구성하여 동일한 AWS 리전의 S3 버킷에 비밀로 태그가 지정된 문서만 복제합니다.
D. Amazon S3에서 기밀 문서를 비밀로 태그 지정합니다. 동일한 AWS 계정 및 AWS 리전에 개별 S3 백업 버킷을 생성합니다. 객체 태그를 기반으로 하는 S3 선택적 교차 리전 복제를 사용하여 일반 문서를 다른 AWS 리전으로 이동합니다. 보안으로 태그가 지정된 새 S3 객체에 대한 Amazon CloudWatch Events 규칙을 생성하여 AWS Lambda 함수를 트리거하여 동일한 AWS 리전의 별도 버킷에 객체를 복제합니다.

23

많은 AWS 리전에서 전 세계 사용자를 대상으로 하는 웹 애플리케이션을 도메인 name.example.com에 설치했습니다. Route53의 지연 시간 기반 라우팅을 활용하여 지연 시간이 가장 짧은 지역의 사용자에게 웹 요청을 전달하도록 선택합니다. 서버 중단 시 비즈니스 연속성을 보장하기 위해 지역별로 고유한 가용 영역에 있는 두 개의 웹 서버에 연결된 가중치 기반 레코드 세트를 구성합니다. 재해 복구 테스트를 수행할 때 한 지역의 모든 웹 서버가 비활성화된 경우 Route53이 모든 사용자를 다른 지역으로 즉시 리디렉션하지 않는 것을 관찰할 수 있습니다.

무슨 일이? (2개를 선택하세요.)

A. 대기 시간 리소스 레코드 세트는 가중 리소스 레코드 세트와 함께 사용할 수 없습니다.
B. 웹 서버를 비활성화한 나와 연결된 하나 이상의 가중 리소스 레코드 세트에 대한 HTTP 상태 확인을 설정하지 않았습니다.
C. 서버가 비활성화된 지역에 설정된 대기 시간 별칭 리소스 레코드와 관련된 가중치 값이 다른 지역의 가중치보다 높습니다.
D. 다른 지역에서 작동하는 두 웹 서버 중 하나가 HTTP 상태 확인을 통과하지 못했습니다.
E. 서버를 비활성화한 지역의 example com과 연결된 지연 별칭 리소스 레코드 세트에서 "Evaluate Target Health"를 "Yes"로 설정하지 않았습니다.

24

AWS 클라우드에서 기업은 컨테이너화된 애플리케이션을 운영하고 있습니다. Amazon Elastic Container Service(Amazon ECS)는 Amazon EC2 인스턴스 모음에서 애플리케이션을 실행하는 데 사용됩니다. EC2 인스턴스는 Auto Scaling 그룹의 일부로 관리됩니다.
이 회사는 컨테이너 이미지를 Amazon Elastic Container Registry(Amazon ECR)에 저장합니다. 새 사진 버전이 업로드될 때마다 고유한 태그가 할당됩니다.
조직에는 새 이미지 버전에 대한 취약점 및 노출 검사를 수행하는 솔루션이 필요합니다. 솔루션은 위험 또는 높은 심각도 결과를 가진 새 사진 태그를 자동으로 지워야 합니다. 또한 솔루션은 이러한 종류의 삭제가 발생하면 개발 팀에 경고해야 합니다.

이 기준을 충족하는 솔루션은 무엇입니까?

A. 저장소에서 푸시 시 스캔을 구성합니다. 중요 또는 높음 심각도 결과가 있는 이미지에 대한 스캔이 완료되면 Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 AWS Step Functions 상태 시스템을 호출합니다. Step Functions 상태 시스템을 사용하여 해당 이미지에 대한 이미지 태그를 삭제하고 Amazon Simple Notification Service(Amazon SNS)를 통해 개발 팀에 알립니다.
B. 저장소에서 푸시 시 스캔을 구성합니다. Amazon Simple Queue Service(Amazon SQS) 대기열에 푸시할 스캔 결과를 구성합니다. SQS 대기열에 새 메시지가 추가되면 AWS Lambda 함수를 호출합니다. Lambda 함수를 사용하여 Critical 또는 High 심각도 결과가 있는 이미지의 이미지 태그를 삭제합니다. Amazon Simple Email Service(Amazon SES)를 사용하여 개발 팀에 알립니다.
C. AWS Lambda 함수가 매시간 수동 이미지 스캔을 시작하도록 예약합니다. 스캔이 완료되면 다른 Lambda 함수를 호출하도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. 두 번째 Lambda 함수를 사용하여 Critical 또는 High 심각도 결과가 있는 이미지의 이미지 태그를 삭제합니다. Amazon Simple Notification Service(Amazon SNS)를 사용하여 개발 팀에 알립니다.
D. 저장소에 대한 주기적 이미지 스캔을 구성합니다. Amazon Simple Queue Service(Amazon SQS) 대기열에 추가할 스캔 결과를 구성합니다. 새 메시지가 SQS 대기열에 추가되면 AWS Step Functions 상태 시스템을 호출합니다. Step Functions 상태 시스템을 사용하여 Critical 또는 High 심각도 결과가 있는 이미지의 이미지 태그를 삭제합니다. Amazon Simple Email Service(Amazon SES)를 사용하여 개발 팀에 알립니다.

25

사용자가 현재 운영 중인 인스턴스와 동일한 여러 Amazon EC2 인스턴스를 시작하려고 합니다.

다음 중 사용자가 시작 마법사에서 "Launch more like this" 옵션을 선택할 때 Amazon EC2에서 복제하지 않는 설정은 무엇입니까?

A. 종료 보호
나. 임차 설정
다. 보관
D. 종료 동작

26

솔루션 설계자는 영업 데이터가 포함된 50TB Oracle 데이터 웨어하우스를 온프레미스에서 Amazon Redshift로 마이그레이션하는 작업을 받았습니다. 매월 마지막 날은 판매 데이터가 크게 업데이트되는 날입니다. 데이터 웨어하우스는 나머지 한 달 동안 비교적 작은 일일 업데이트를 받고 주로 읽기 및 보고에 활용됩니다. 결과적으로 마이그레이션 프로세스는 매월 1일에 시작되어 다음 일괄 변경 이전에 끝나야 합니다. 이렇게 하면 마이그레이션을 완료하고 작은 일일 업데이트가 Amazon Redshift 데이터 웨어하우스와 동기화되는 데 약 30일이 소요됩니다. 마이그레이션이 일상적인 기업 네트워크 활동을 방해할 수 없기 때문에, 마이그레이션에는 인터넷을 통한 데이터 전송을 위해 50Mbps의 용량이 부여되었습니다. 기업은 데이터 이동 비용을 최소화하기를 원합니다.

솔루션 설계자가 적시에 이동을 완료할 수 있도록 하는 절차는 무엇입니까?

A. Amazon EC2 인스턴스에 Oracle 데이터베이스 소프트웨어를 설치합니다. AWS와 회사 데이터 센터 간의 VPN 연결을 구성합니다. Oracle RAC(Real Application Clusters)에 가입하도록 Amazon EC2에서 실행되는 Oracle 데이터베이스를 구성합니다. Amazon EC2의 Oracle 데이터베이스 동기화가 완료되면 AWS DMS 지속적 복제 작업을 생성하여 Amazon EC2의 Oracle 데이터베이스에서 Amazon Redshift로 데이터를 마이그레이션합니다. 데이터 마이그레이션이 완료되었는지 확인하고 Amazon Redshift로 전환을 수행합니다.
비. AWS Snowball 가져오기 작업을 생성합니다. Oracle 데이터 웨어하우스의 백업을 내보냅니다. 내보낸 데이터를 Snowball 디바이스에 복사합니다. Snowball 디바이스를 AWS로 반환합니다. Oracle 데이터베이스용 Amazon RDS를 생성하고 해당 RDS 인스턴스에 백업 파일을 복원합니다. RDS for Oracle 데이터베이스에서 Amazon Redshift로 데이터를 마이그레이션하는 AWS DMS 작업을 생성합니다. 인터넷을 통해 데이터 센터의 Oracle에서 Oracle용 RDS 데이터베이스로 일일 증분 백업을 복사합니다. 데이터 마이그레이션이 완료되었는지 확인하고 Amazon Redshift로 전환을 수행합니다.
씨. Amazon EC2 인스턴스에 Oracle 데이터베이스 소프트웨어를 설치합니다. 마이그레이션 시간을 최소화하려면 1Gbps AWS Direct Connect 연결을 프로비저닝하여 AWS와 회사 데이터 센터 간의 VPN 연결을 구성하십시오. Amazon EC2에서 실행되는 Oracle 데이터베이스를 데이터 센터 Oracle 데이터베이스의 읽기 전용 복제본으로 구성합니다. 회사의 온프레미스 데이터 센터와 Amazon EC2의 Oracle 데이터베이스 간의 동기화 프로세스를 시작합니다. Amazon EC2의 Oracle 데이터베이스가 온프레미스 데이터베이스와 동기화되면 AWS DMS 지속적 복제 작업을 생성하여 Amazon EC2에서 실행 중인 Oracle 데이터베이스 읽기 전용 복제본에서 Amazon Redshift로 데이터를 마이그레이션합니다.
디. AWS Snowball 가져오기 작업을 생성합니다. 추출 에이전트를 사용하여 회사 데이터 센터에 서버를 구성합니다. AWS SCT를 사용하여 추출 에이전트를 관리하고 Oracle 스키마를 Amazon Redshift 스키마로 변환합니다. 등록된 데이터 추출 에이전트를 사용하여 AWS SCT에서 새 프로젝트를 생성합니다. 진행 중인 변경 사항을 복제하여 AWS SCT에서 로컬 작업 및 AWS DMS 작업을 생성합니다. Snowball 디바이스에 데이터를 복사하고 Snowball 디바이스를 AWS로 반환합니다. AWS DMS가 Amazon S3에서 Amazon Redshift로 데이터를 복사하도록 허용합니다. 데이터 마이그레이션이 완료되었는지 확인하고 Amazon Redshift로 전환을 수행합니다.

27

참 또는 거짓: CloudFormation 템플릿에서 동일한 논리 ID를 여러 번 재사용하여 템플릿의 다른 영역에 있는 리소스를 참조할 수 있습니다.

A. 사실, 논리적 ID는 템플릿의 다른 부분에 있는 리소스를 참조하기 위해 여러 번 사용될 수 있습니다.
B. False, 논리적 ID는 템플릿 내에서 고유해야 합니다.
C. False, 리소스를 한 번만 언급할 수 있으며 템플릿의 다른 부분에서 참조할 수 없습니다.
D. False, 템플릿의 다른 부분을 참조할 수 없습니다.

28

기업은 Redshift에서 실행되는 중앙 데이터 웨어하우스에 공급하기 위해 RDS MySQL 서버에서 실행되는 기본 트랜잭션 데이터베이스에서 매시간 일괄 분석을 실행합니다. 그들의 배치 앱은 실행이 상당히 느립니다. 그런 다음 배치가 완료되면 최고 경영진 대시보드를 새 데이터로 업데이트해야 합니다. 대시보드는 업데이트가 필요함을 나타내는 수동으로 수신된 이메일에 대한 응답으로 이제 시작되는 다른 온프레미스 시스템에 의해 생성됩니다. 온프레미스 시스템은 다른 팀에서 처리하므로 업데이트할 수 없습니다.

가능한 한 많은 프로세스를 자동화하면서 성능 문제를 해결하기 위해 이 상황을 어떻게 개선하시겠습니까?

A. 일괄 분석을 위해 RDS를 Redshift로 교체하고 대시보드 업데이트를 위해 온프레미스 시스템에 알리는 SNS
B. oaten 분석을 위해 RDS를 Redshift로 교체하고 대시보드 업데이트를 위해 온프레미스 시스템에 메시지를 보내는 SQS로 교체
C. 일괄 분석을 위한 RDS 읽기 전용 복제본 생성 및 대시보드 업데이트를 위해 온프레미스 시스템에 알림을 보내는 SNS
D. 일괄 분석을 위한 RDS 읽기 전용 복제본을 생성하고 대시보드를 업데이트하기 위해 온프레미스 시스템에 메시지를 보낼 SQS를 생성합니다.

29

두 개의 Amazon EC2 인스턴스는 조직에서 사용합니다.

✑ 첫 번째는 주문 처리 및 재고 관리 애플리케이션을 운영하는 것입니다. 두 번째는 대기열 메커니즘의 작동입니다.


연중 다양한 계절에 초당 수천 개의 주문이 이루어집니다. 대기열 시스템이 다운되었을 때 여러 주문이 손실되었습니다. 또한 특정 주문의 중복 처리로 인해 조직의 재고 애플리케이션에 부정확한 항목 수가 있습니다.

앱이 증가하는 주문량을 처리할 수 있으려면 어떻게 해야 합니까?

A. 주문 및 인벤토리 애플리케이션을 자체 AWS Lambda 함수에 넣습니다. 주문 애플리케이션이 Amazon SQS FIFO 대기열에 메시지를 쓰도록 합니다.
B. 주문 및 인벤토리 애플리케이션을 자체 Amazon ECS 컨테이너에 넣고 각 애플리케이션에 대한 Auto Scaling 그룹을 생성합니다. 그런 다음 여러 가용 영역에 메시지 대기열 서버를 배포합니다.
C. 주문 및 인벤토리 애플리케이션을 자체 Amazon EC2 인스턴스에 넣고 각 애플리케이션에 대한 Auto Scaling 그룹을 생성합니다. 들어오는 주문에 Amazon SQS 표준 대기열을 사용하고 인벤토리 애플리케이션에서 멱등성을 구현합니다.
D. 주문 및 인벤토리 애플리케이션을 자체 Amazon EC2 인스턴스에 넣습니다. Amazon Kinesis 데이터 스트림에 들어오는 주문을 씁니다. 스트림을 폴링하고 인벤토리 애플리케이션을 업데이트하도록 AWS Lambda를 구성합니다.

30

Amazon Machine Images 반가상화(PV) 가상화에서 부팅 절차 중에 어떤 시스템이 사용됩니까?

A. PV 부팅
나. PV-AMI
C. PV-웜
D. PV-GRUB

31

비즈니스에서 웹 애플리케이션을 AWS로 마이그레이션하려고 합니다. 프로그램이 세션 정보를 각 웹 서버에 로컬로 보관하기 때문에 Auto Scaling이 문제가 됩니다.
애플리케이션은 웹 서버에서 세션 데이터를 분리하기 위한 이동의 일부로 재설계됩니다. 비즈니스에는 짧은 대기 시간, 확장성 및 가용성이 필요합니다.

가장 비용 효율적인 세션 정보 저장에 대한 요구 사항을 충족하는 서비스는 무엇입니까?

A. Memcached 엔진이 있는 Amazon ElastiCache
나. 아마존 S3
C. Amazon RDS MySQL
D. Redis 엔진이 있는 Amazon ElastiCache

32

주요 기업은 최근 Amazon RDS 및 Amazon DynamoDB 가격이 예상치 못한 인상을 받았습니다. AWS Billing and Cost Management의 세부 사항에 대한 회사의 통찰력을 높여야 합니다. AWS Organizations는 여러 개발 및 프로덕션 계정을 포함하여 다양한 계정과 연결되어 있습니다. 비즈니스에는 균일한 태깅 방법이 없지만 요구 사항에 따라 일관된 태깅과 함께 AWS CloudFormation을 사용하여 모든 인프라를 배포해야 합니다. 현재 및 미래의 모든 DynamoDB 테이블과 RDS 인스턴스에 대해 관리에는 비용 센터 및 프로젝트 ID 번호가 필요합니다.

이러한 요구 사항을 달성하려면 어떤 솔루션 아키텍처 접근 방식을 사용해야 합니까?

A. Tag Editor를 사용하여 기존 리소스에 태그를 지정합니다. 비용 할당 태그를 생성하여 비용 센터 및 프로젝트 ID를 정의하고 태그가 기존 리소스에 전파되는 데 24시간을 허용합니다.
B. AWS Config 규칙을 사용하여 태그가 지정되지 않은 리소스를 재무 팀에 알립니다. 교차 계정 역할을 사용하여 태그가 지정되지 않은 RDS 데이터베이스 및 DynamoDB 리소스에 태그를 지정하는 중앙 집중식 AWS Lambda 기반 솔루션을 생성합니다.
C. 태그 편집기를 사용하여 기존 리소스에 태그를 지정합니다. 비용 센터 및 프로젝트 ID를 정의하는 비용 할당 태그를 생성합니다. SCP를 사용하여 리소스에 비용 센터 및 프로젝트 ID가 없는 리소스 생성을 제한합니다.
D. 비용 할당 태그를 생성하여 비용 센터 및 프로젝트 ID를 정의하고 태그가 기존 리소스에 전파되는 데 24시간을 허용합니다. 리소스에 대한 비용 센터 및 프로젝트 ID를 포함하지 않는 리소스를 프로비저닝할 수 있는 권한을 제한하려면 기존 연합 역할을 업데이트하십시오.

33

소프트웨어 비즈니스는 Amazon API Gateway, AWS Lambda 함수 및 Amazon DynamoDB 테이블을 사용하여 REST API를 사용하는 애플리케이션을 생성했습니다. 애플리케이션에서 PUT 요청 실패 횟수가 증가하고 있습니다. 대부분의 PUT 요청은 고유한 API 키를 사용하여 인증된 제한된 수의 고객으로부터 시작됩니다.

솔루션 설계자는 대부분의 PUT 요청이 단일 고객으로부터 온 것이라고 판단했습니다. API는 미션 크리티컬하지 않으며 고객은 실패한 호출 재시도를 수락할 수 있습니다. 그러나 결함은 클라이언트에 표시되어 API의 평판을 위태롭게 합니다.

솔루션 설계자는 고객 경험을 향상시키기 위해 어떤 권장 사항을 제시해야 합니까?

A. 클라이언트 응용 프로그램에서 지수 백오프 및 불규칙한 변동으로 재시도 논리를 구현합니다. 오류가 포착되고 설명 오류 메시지로 처리되는지 확인하십시오.
B. API Gateway 수준에서 사용 계획을 통해 API 조절을 구현합니다. 클라이언트 애플리케이션이 코드 429 응답을 오류 없이 처리하는지 확인하십시오.
C. API 캐싱을 켜서 프로덕션 단계의 응답성을 높입니다. 10분 부하 테스트를 실행합니다. 캐시 용량이 작업 부하에 적합한지 확인합니다.
D. 트래픽이 갑자기 증가할 때 필요한 리소스를 제공하기 위해 Lambda 함수 수준에서 예약된 동시성을 구현합니다.

34

고유한 파이프라인 작업에 대한 다양한 AWS Data Pipeline 일정을 생성하는 임무를 맡았습니다.

다음 중 이 과제를 성공적으로 완료한 것은?

A. 여러 파이프라인 정의 파일 만들기
B. 일정 개체 파일에 여러 파이프라인 정의를 정의하고 일정 필드를 통해 원하는 일정을 올바른 활동에 연결
C. 파이프라인 정의 파일에서 여러 일정 개체를 정의하고 일정 필드를 통해 원하는 일정을 올바른 활동에 연결
D. 일정 필드에 여러 일정 개체 정의

35

다음 명령 중 Amazon ElastiCache CLI와 함께 사용할 때 지난 24시간 동안의 모든 ElastiCache 인스턴스 이벤트를 검사할 수 있는 명령은 무엇입니까?

A. elasticache-events --duration 24
B. elasticache-events --duration 1440
C. elasticache-describe-events --duration 24
D. elasticache 설명 이벤트 --source-type 캐시 클러스터 --duration 1440

36

PIOPS는 MySQL RDS 인스턴스를 설정하는 데 사용되었습니다. 다음 중 사용자가 PIOPS의 이점을 이해하는 데 도움이 되는 설명은 무엇입니까?

A. 사용자는 향상된 RDS 옵션으로 EBS I/O를 위한 추가 전용 용량을 확보할 수 있습니다 .
B. 스택 구성이 최적화된 표준 EBS 볼륨을 사용합니다.
C. 최적화된 EBS 볼륨과 최적화된 구성 스택을 사용합니다 .
D. EBS와 RDS 간의 전용 네트워크 대역폭을 제공합니다.

37

비즈니스는 카탈로그의 각 항목에 대한 정보를 포함하는 미디어 카탈로그를 유지 관리합니다. AWS Lambda 기반 프로그램은 미디어 객체에서 여러 형태의 정보를 추출합니다. 수집된 메타데이터는 일련의 규칙을 사용하여 Redis용 Amazon ElastiCache 클러스터에 저장됩니다. 추출은 배치로 수행되며 완료하는 데 약 40분이 걸립니다.
업데이트 절차는 메타데이터 추출 규칙이 수정될 때마다 수동으로 시작됩니다.
회사는 미디어 인벤토리에서 정보를 추출하는 프로세스의 속도를 높이고자 합니다. 이를 위해 솔루션 설계자는 메타데이터 추출을 위한 단일 Lambda 함수를 각 정보 범주에 대한 Lambda 함수로 나눴습니다.

요구 사항 준수를 보장하기 위해 솔루션 설계자가 취해야 하는 추가 조치는 무엇입니까?

A. AWS Step Functions 워크플로를 생성하여 Lambda 함수를 병렬로 실행합니다. 미디어 항목 목록을 검색하고 각각에 대해 메타데이터 추출 워크플로를 실행하는 또 다른 Step Functions 워크플로를 만듭니다.
B. 각 Lambda 함수에 대한 AWS Batch 컴퓨팅 환경을 생성합니다. 컴퓨팅 환경에 대한 AWS Batch 작업 대기열을 구성합니다. Lambda 함수를 생성하여 미디어 항목 목록을 검색하고 각 항목을 작업 대기열에 씁니다.
C. AWS Step Functions 워크플로를 생성하여 Lambda 함수를 병렬로 실행합니다. Lambda 함수를 생성하여 미디어 항목 목록을 검색하고 각 항목을 Amazon SQS 대기열에 씁니다. SQS 대기열을 Step Functions 워크플로에 대한 입력으로 구성합니다.
D. Lambda 함수를 생성하여 미디어 항목 목록을 검색하고 각 항목을 Amazon SQS 대기열에 씁니다. 배치 크기가 큰 SQS 대기열에 메타데이터 추출 Lambda 함수를 구독합니다.

38

회사에는 많은 LOB(Line of Business)가 있을 수 있으며 모두 모회사에 보고됩니다. 이 회사의 솔루션 설계자는 다음 요구 사항을 충족하는 솔루션을 개발하는 임무를 받았습니다.

✑모든 LOB의 AWS 계정에 대해 단일 AWS 송장을 생성합니다.
✑ 인보이스는 각 LOB 계정에 대한 비용을 구분해야 합니다.
✑ 회사의 지배구조 정책에 따라 LOB 계정의 서비스 및 기능 제한을 허용합니다.
✑ 거버넌스 모델에 관계없이 각 LOB 계정에는 전체 관리자 액세스 권한이 부여되어야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 조치를 취해야 합니까? (2개를 선택하세요.)

A. AWS Organizations를 사용하여 각 LOB의 상위 계정에 조직을 생성합니다. 그런 다음 각 LOB 계정을 해당 조직에 초대합니다.
B. AWS Organizations를 사용하여 상위 계정에 단일 조직을 생성합니다. 그런 다음 각 LOB의 AWS 계정을 초대하여 조직을 고정합니다.
C. 서비스 할당량을 구현하여 허용되는 서비스 및 기능을 정의하고 각 LOB에 할당량을 적절하게 적용합니다.
D. 승인된 서비스 및 기능만 허용하는 SCP를 만든 다음 LOB 계정에 정책을 적용합니다. 상위 계정의 결제 콘솔에서 통합 결제를 활성화하고 LOB 계정을 연결합니다.

39

사용자가 PutMetricData API를 활용하여 CloudWatch에 사용자 지정 지표를 제출하려고 합니다.

CloudWatch에 데이터를 전송하기 전에 사용자가 고려해야 할 사항은 무엇입니까?

A. 요청 크기는 HTTP GET 요청의 경우 8KB, HTTP POST 요청의 경우 40KB로 제한됩니다.
B. 요청 크기는 HTTP GET 요청의 경우 16KB, HTTP POST 요청의 경우 80KB로 제한됩니다.
C. 요청 크기는 HTTP GET 요청의 경우 128KB, HTTP POST 요청의 경우 64KB로 제한됩니다.
D. 요청 크기는 HTTP GET 요청의 경우 40KB, HTTP POST 요청의 경우 8KB로 제한됩니다.

40

기업은 AWS Organizations와 Production이라는 단일 OU를 사용하여 여러 계정을 관리합니다. 각 계정은 Production 조직 구성 단위의 구성원입니다.
관리자는 조직 루트에 있는 거부 목록 SCP를 사용하여 제한된 서비스에 대한 액세스를 규제합니다.
최근에 이 회사는 새 사업부를 구입하고 새 사업부의 기존 Amazon Web Services 계정을 그룹에 환영했습니다. 새 사업부의 관리자가 온보딩되면 회사 요구 사항에 맞게 기존 AWS Config 규칙을 수정할 수 없다는 것을 깨달았습니다.

관리자가 추가 장기 유지 관리 비용을 들이지 않고 기존 규정을 계속 적용하면서 조정할 수 있는 솔루션은 무엇입니까?

A. AWS Config에 대한 액세스를 제한하는 조직의 루트 SCP를 제거합니다. 회사의 표준 AWS Config 규칙에 대한 AWS Service Catalog 제품을 생성하고 새 계정을 포함하여 조직 전체에 배포합니다.
B. 새 계정에 대해 Onboarding이라는 임시 OU를 만듭니다. AWS Config 작업을 허용하려면 SCP를 온보딩 OU에 적용합니다. AWS Config 조정이 완료되면 새 계정을 프로덕션 OU로 이동합니다.
C. 조직의 루트 SCP를 거부 목록 SCP에서 허용 목록 SCP가 필요한 서비스만 허용하도록 변환합니다. 새 계정의 보안 주체에 대해서만 AWS Config 작업을 허용하는 SCP를 조직의 루트에 임시로 적용합니다.
D. 새 계정에 대해 Onboarding이라는 임시 OU를 만듭니다. AWS Config 작업을 허용하려면 SCP를 온보딩 OU에 적용합니다. 조직의 루트 SCP를 프로덕션 OU로 이동합니다. AWS Config 조정이 완료되면 새 계정을 프로덕션 OU로 이동합니다.

41

기업이 AWS CloudFormation을 사용하여 인프라를 배포하고 있습니다. 조직은 프로덕션 CloudFormation 스택을 삭제하면 Amazon RDS 데이터베이스 또는 Amazon EBS 볼륨에 저장된 중요한 데이터가 삭제될 것을 우려하고 있습니다.

조직은 이러한 방식으로 사용자가 실수로 데이터를 삭제하는 것을 어떻게 방지할 수 있습니까?

A. CloudFormation 템플릿을 수정하여 RDS 및 EBS 리소스에 DeletionPolicy 속성을 추가합니다.
B. RDS 및 EBS 리소스 삭제를 허용하지 않는 스택 정책을 구성합니다.
C. ג€aws:cloudformation:stack-nameג€ 태그로 태그가 지정된 RDS 및 EBS 리소스 삭제를 거부하도록 IAM 정책을 수정합니다.
D. AWS Config 규칙을 사용하여 RDS 및 EBS 리소스 삭제를 방지합니다.

42

규제 대상 금융 서비스 고객을 위해 자문 회사는 안전한 데이터 분석 솔루션을 개발하고 있습니다. 사용자는 기본 PutObject 기능이 부여될 Amazon S3 버킷에 원시 데이터를 제출합니다. VPC에 배포된 Amazon EMR 클러스터에서 작동하는 애플리케이션은 데이터를 검사합니다. 회사는 주변 환경이 인터넷과 완전히 분리되어 있다고 규정합니다. 전송 중인 모든 데이터는 회사의 키를 사용하여 암호화되어야 합니다.

사용자의 보안 요구 사항을 충족하기 위해 Solutions Architect는 어떤 단계를 함께 수행해야 합니까? (2개를 선택하세요.)

A. 미사용 데이터 암호화에 AWS KMS CMK를 사용하도록 구성된 프라이빗 서브넷에서 Amazon EMR 클러스터를 시작합니다. Amazon S3용 게이트웨이 VPC 엔드포인트와 AWS KMS용 인터페이스 VPC 엔드포인트를 구성합니다.
B. 미사용 데이터 암호화에 AWS KMS CMK를 사용하도록 구성된 프라이빗 서브넷에서 Amazon EMR 클러스터를 시작합니다. Amazon S3에 대한 게이트웨이 VPC 엔드포인트와 AWS KMS에 액세스하기 위한 NAT 게이트웨이를 구성합니다.
C. 미사용 데이터 암호화에 AWS CloudHSM 어플라이언스를 사용하도록 구성된 프라이빗 서브넷에서 Amazon EMR 클러스터를 시작합니다. Amazon S3용 게이트웨이 VPC 엔드포인트와 CloudHSM용 인터페이스 VPC 엔드포인트를 구성합니다.
D. 필요한 데이터 버킷에 대한 액세스만 허용하도록 S3 엔드포인트 정책을 구성합니다.
E. S3 엔드포인트 ID와 일치하도록 aws:sourceVpce 조건을 사용하여 액세스를 허용하도록 S3 버킷 정책을 구성합니다.

43

회사의 데이터 센터는 Microsoft SQL Server 데이터베이스를 호스팅하고 데이터를 Amazon Aurora MySQL로 이동하려고 합니다. 조직은 이미 AWS Schema Conversion Tool을 사용하여 트리거, 저장 프로시저 및 기타 스키마 객체를 Aurora MySQL로 마이그레이션했습니다. 이제 데이터베이스에는 1TB의 데이터가 포함되며 매일 1MB 미만의 속도로 증가하고 있습니다. 전용 1Gbps AWS Direct Connect 링크는 회사의 데이터 센터를 AWS에 연결합니다.
조직은 데이터를 Aurora MySQL로 이동하고 거의 중단 없이 기존 애플리케이션을 재구성하기를 원합니다.

비즈니스 요구 사항을 가장 잘 충족시키는 옵션은 무엇입니까?

A. 주말 동안 응용 프로그램을 종료하십시오. SQL Server에서 Aurora MySQL로 기존 데이터를 마이그레이션하는 AWS DMS 복제 인스턴스 및 작업을 생성합니다. 애플리케이션 테스트를 수행하고 데이터를 새 데이터베이스 끝점으로 마이그레이션합니다.
B. AWS DMS 복제 인스턴스와 작업을 생성하여 기존 데이터와 지속적인 복제를 SQL Server에서 Aurora MySQL로 마이그레이션합니다. 애플리케이션 테스트를 수행하고 데이터를 새 데이터베이스 끝점으로 마이그레이션합니다.
C. Amazon S3에서 SQL Server의 데이터베이스 스냅샷을 생성합니다. Amazon S3에서 Aurora MySQL로 데이터베이스 스냅샷을 복원합니다. SQL Server에서 Aurora MySQL로의 지속적인 복제를 위한 AWS DMS 복제 인스턴스 및 작업을 생성합니다. 애플리케이션 테스트를 수행하고 데이터를 새 데이터베이스 끝점으로 마이그레이션합니다.
D. Amazon S3에 SQL Server 기본 백업 파일을 생성합니다. AWS DMS 복제 인스턴스 및 작업을 생성하여 SQL Server 백업 파일을 Aurora MySQL로 복원합니다. SQL Server에서 Aurora MySQL로의 지속적인 복제를 위한 다른 AWS DMS 작업을 생성합니다. 애플리케이션 테스트를 수행하고 데이터를 새 데이터베이스 끝점으로 마이그레이션합니다.

44

비즈니스에서 Amazon EC2 인스턴스에서 여러 대규모 워크로드를 실행하고 있습니다. 각 EC2 인스턴스는 수많은 Amazon Elastic Block Store(Amazon EBS) 볼륨과 연결되어 있습니다. AWS Lambda 함수는 하루에 한 번 EBS 볼륨 스냅샷 개발을 트리거합니다. 이러한 사진은 관리자가 수동으로 삭제할 때까지 수집됩니다.
백업은 최소 30일 동안 보관해야 합니다. 솔루션 설계자의 목표는 이 절차와 관련된 비용을 최소화하는 것입니다.

비용 효율성 측면에서 이러한 기준에 가장 적합한 옵션은 무엇입니까?

A. AWS Marketplace를 검색합니다. EBS 볼륨 백업을 자동으로 관리하기 위해 배포할 타사 솔루션을 찾으십시오.
B. 두 번째 Lambda 함수를 생성하여 30일이 지난 EBS 스냅샷을 Amazon S3 Glacier Deep Archive로 이동합니다.
C. 스냅샷이 포함된 $3 버킷에 Amazon S3 수명 주기 정책을 설정합니다. 만료 작업이 포함된 규칙을 생성하여 30일이 지난 EBS 스냅샷을 삭제합니다.
D. 백업 기능을 Amazon Data Lifecycle Manager(Amazon DLM)로 마이그레이션합니다. EBS 볼륨의 일일 백업에 대한 수명 주기 정책을 생성합니다. EBS 스냅샷의 보존 기간을 30일로 설정합니다.

45

한 여행 회사는 Amazon Simple Email Service(Amazon SES)를 통해 소비자에게 이메일 알림을 보내는 웹 애플리케이션을 개발했습니다. 조직은 이메일 전달 문제를 해결하는 데 도움이 되도록 로그인을 허용해야 합니다. 또한 조직은 수신자, 주제, 전송 시간별로 검색할 수 있는 능력이 필요합니다.

이러한 요구 사항을 달성하기 위해 솔루션 설계자는 어떤 조치를 취해야 합니까? (2개를 선택하세요.)

A. Amazon Kinesis Data Firehose를 대상으로 사용하여 Amazon SES 구성 세트를 생성합니다. Amazon S3 버킷으로 로그를 보내도록 선택합니다.
B. AWS CloudTrail 로깅을 활성화합니다. Amazon S3 버킷을 로그의 대상으로 지정합니다.
C. Amazon Athena를 사용하여 Amazon S3 버킷의 로그에서 수신자, 제목 및 보낸 시간을 쿼리합니다.
D. Amazon CloudWatch 로그 그룹을 생성합니다. 로그 그룹에 로그를 보내도록 Amazon SES를 구성합니다.
E. Amazon Athena를 사용하여 Amazon CloudWatch의 로그에서 수신자, 제목 및 보낸 시간을 쿼리합니다.

46

귀하의 조직은 S3에서 사용할 수 있는 상당한 양의 항공 사진 데이터를 만들었습니다. 이전에는 온프레미스 환경에서 이 데이터를 처리하기 위해 특수 서버 세트를 사용하고 오픈 소스 메시징 시스템인 Rabbit MQ를 통해 서버와 통신했습니다. 처리 후 데이터는 테이프에 보관되고 다른 곳으로 전송됩니다. 상사는 AWS 아카이브 스토리지 및 통신 서비스를 사용하여 현재 설계를 유지하고 비용을 절감할 것을 조언했습니다.

둘 중 어느 것이 맞습니까?

A. 작업 메시지 전달에 SQS 사용 Cloud Watch 경보를 사용하여 유휴 상태가 되면 EC2 작업자 인스턴스를 종료합니다. 데이터가 처리되면 S3 객체의 스토리지 클래스를 Reduced Redundancy Storage로 변경합니다.
B. 스폿 인스턴스를 사용하여 SOS에서 메시지를 처리하는 대기열 깊이에 의해 트리거되는 Auto-Scaled 작업자 설정 데이터가 처리되면 S3 객체의 스토리지 클래스를 Reduced Redundancy Storage로 변경합니다.
C. 스폿 인스턴스를 사용하여 SQS의 메시지를 처리하는 대기열 깊이에 의해 트리거되는 Auto-Scaled 작업자 설정 데이터가 처리되면 S3 객체의 스토리지 클래스를 Glacier로 변경합니다.
D. SNS를 사용하여 작업 메시지 전달 Cloud Watch 경보를 사용하여 유휴 상태가 되면 스팟 작업자 인스턴스를 종료합니다. 데이터가 처리되면 S3 객체의 스토리지 클래스를 Glacier로 변경합니다.

47

현재 3계층 전자상거래 웹 애플리케이션이 온프레미스에 설치되어 있으며 확장성과 유연성 향상을 위해 AWS로 이전될 예정입니다. 현재 웹 서버는 네트워크 분산 파일 시스템을 사용하여 읽기 전용 데이터를 전송합니다. 응용 프로그램 서버 계층은 검색 및 공유 세션 상태를 위해 IP 멀티캐스트 기반 클러스터링 기술을 사용합니다. 데이터베이스 계층은 공유 저장소 클러스터링과 많은 읽기 슬레이브를 사용하여 확장됩니다. 매주 오프사이트 테이프 백업은 모든 서버와 분산 파일 시스템 디렉토리에서 수행됩니다.

애플리케이션의 요구 사항을 가장 잘 충족하는 AWS 스토리지 및 데이터베이스 아키텍처는 무엇입니까?

A. 웹 서버: 읽기 전용 데이터를 S3에 저장하고 부팅 시 S3에서 루트 볼륨으로 복사합니다. 앱 서버: DynamoDB와 IP 유니캐스트의 조합을 사용하여 상태를 공유합니다. 데이터베이스: 다중 AZ 배포 및 하나 이상의 읽기 전용 복제본과 함께 RDS를 사용합니다. 백업: 웹 서버, 앱 서버 및 데이터베이스가 스냅샷을 사용하여 매주 Glacier에 백업됩니다.
B. 웹 서버: 읽기 전용 데이터를 EC2 NFS 서버에 저장합니다. 부팅 시 각 웹 서버에 마운트합니다. 앱 서버: DynamoDB와 IP 멀티캐스트의 조합을 사용하여 상태를 공유합니다. 데이터베이스: 다중 AZ 배포 및 하나 이상의 읽기 전용 복제본과 함께 RDS를 사용합니다. 백업: 웹 및 앱 서버는 AMI를 통해 매주 백업되고 데이터베이스는 DB 스냅샷을 통해 백업됩니다.
C. 웹 서버: 읽기 전용 데이터를 S3에 저장하고 부팅 시 S3에서 루트 볼륨으로 복사합니다. 앱 서버: DynamoDB와 IP 유니캐스트의 조합을 사용하여 상태를 공유합니다. 데이터베이스: 다중 AZ 배포 및 하나 이상의 읽기 전용 복제본과 함께 RDS를 사용합니다. 백업: 웹 및 앱 서버는 AMI를 통해 매주 백업되고 데이터베이스는 DB 스냅샷을 통해 백업됩니다.
D. 웹 서버: 읽기 전용 데이터를 S3에 저장하고 부팅 시 S3에서 루트 볼륨으로 복사합니다. 앱 서버: DynamoDB와 IP 유니캐스트의 조합을 사용하여 상태를 공유합니다. 데이터베이스: 다중 AZ 배포와 함께 RDS를 사용합니다. 백업: 웹 및 앱 서버는 AMI를 통해 매주 백업되고 데이터베이스는 DB 스냅샷을 통해 백업됩니다.

48

AWS로의 웹 애플리케이션 전송을 설계해야 합니다. 애플리케이션은 맞춤형 웹 서버를 실행하도록 구성된 Linux 웹 서버로 구성됩니다. 애플리케이션의 로그를 영구적인 위치에 저장해야 합니다.

애플리케이션을 AWS로 마이그레이션하는 데 사용할 수 있는 대안은 무엇입니까? (2개를 선택하세요.)

A. 사용자 지정 웹 서버 플랫폼을 사용하여 AWS Elastic Beanstalk 애플리케이션을 생성합니다. 웹 서버 실행 파일과 애플리케이션 프로젝트 및 소스 파일을 지정합니다. Amazon Simple Storage Service(S3)에 대한 로그 파일 교체를 활성화합니다.
B. 응용 프로그램에 대한 Dockerfile을 만듭니다. 사용자 지정 계층으로 구성된 AWS OpsWorks 스택을 생성합니다. Docker를 설치하고 Dockerfile을 사용하여 Docker 컨테이너를 배포하기 위한 사용자 지정 레시피를 만듭니다. 고객 레시피를 생성하여 Amazon CloudWatch Logs에 로그를 게시하도록 애플리케이션을 설치 및 구성합니다.
C. 응용 프로그램에 대한 Dockerfile을 만듭니다. Dockerfile을 사용하는 Docker 계층으로 구성된 AWS OpsWorks 스택을 생성합니다. Amazon Kinesis를 설치하고 구성하여 Amazon CloudWatch에 로그를 게시하는 사용자 지정 레시피를 생성합니다.
D. 응용 프로그램에 대한 Dockerfile을 만듭니다. Docker 플랫폼과 Dockerfile을 사용하여 AWS Elastic Beanstalk 애플리케이션을 생성합니다. Docker 구성 로깅을 활성화하여 애플리케이션 로그를 자동으로 게시합니다. Amazon S3에 대한 로그 파일 교체를 활성화합니다.
E. VM 가져오기/내보내기를 사용하여 서버의 가상 머신 이미지를 AMI로 AWS에 가져옵니다. AMI에서 Amazon Elastic Compute Cloud(EC2) 인스턴스를 생성하고 Amazon CloudWatch Logs 에이전트를 설치 및 구성합니다. 인스턴스에서 새 AMI를 생성합니다. AMI 플랫폼과 새 AMI를 사용하여 AWS Elastic Beanstalk 애플리케이션을 생성합니다.

49

비즈니스는 Amazon ECS를 사용하여 컨테이너화된 배치 작업을 관리합니다. 작업은 Amazon S3 버킷에 컨테이너 이미지, 작업 사양 및 필요한 데이터를 제공하여 예약됩니다. 컨테이너 사진은 각 작업에 맞게 사용자 지정할 수 있습니다. 작업을 가능한 한 빨리 수행하는 것이 중요하기 때문에 작업 아티팩트를 S3 버킷에 업로드하면 작업이 즉시 실행된다는 메시지가 표시됩니다. 때때로 작업이 전혀 작동하지 않을 수 있습니다. 그러나 모든 종류의 작업은 사전 통지 없이 IT 운영 팀에 제출될 수 있습니다. 작업 정의는 작업에 필요한 CPU 및 메모리 리소스에 대한 정보를 제공합니다.

배치 작업이 예약되면 가능한 한 빨리 실행할 수 있는 솔루션은 무엇입니까?

A. Amazon EC2 시작 유형을 사용하여 Amazon ECS 클러스터에서 작업을 예약합니다. Service Auto Scaling을 사용하여 실행 중인 작업 수에 맞게 실행 중인 작업 수를 늘리거나 줄입니다.
B. EC2 인스턴스에서 직접 작업을 예약합니다. 기준 최소 부하에는 예약 인스턴스를 사용하고, Auto Scaling 그룹의 온디맨드 인스턴스를 사용하여 수요에 따라 플랫폼을 확장합니다.
C. Fargate 시작 유형을 사용하여 Amazon ECS 클러스터에서 작업을 예약합니다. Service Auto Scaling을 사용하여 실행 중인 작업 수에 맞게 실행 중인 작업 수를 늘리거나 줄입니다.
D. Fargate 시작 유형을 사용하여 Amazon ECS 클러스터에서 작업을 예약합니다. Auto Scaling 그룹의 스팟 인스턴스를 사용하여 수요에 따라 플랫폼을 확장합니다. Service Auto Scaling을 사용하여 실행 중인 작업 수에 맞게 실행 중인 작업 수를 늘리거나 줄입니다.

50

기업에 매주 200GB의 데이터를 로컬 디스크로 내보내는 온-프레미스 Microsoft SQL Server 데이터베이스가 있습니다. 조직은 백업을 Amazon S3에서 제공하는 보다 탄력적인 클라우드 스토리지 서비스로 마이그레이션하려고 합니다. 조직은 온프레미스 데이터 센터와 AWS 간에 10Gbps AWS Direct Connect 링크를 설정했습니다.

비용 효율성 측면에서 이러한 기준에 가장 적합한 옵션은 무엇입니까?

A. 새 S3 버킷을 생성합니다. Direct Connect 연결에 연결된 VPC 내에 AWS Storage Gateway 파일 게이트웨이를 배포합니다. 새 SMB 파일 공유를 만듭니다. 새 SMB 파일 공유에 야간 데이터베이스 내보내기를 작성합니다.
B. Direct Connect 연결에 연결된 VPC 내에 Windows 파일 서버용 Amazon FSx 단일 AZ 파일 시스템을 생성합니다. 새 SMB 파일 공유를 만듭니다. Amazon FSx 파일 시스템의 SMB 파일 공유에 야간 데이터베이스 내보내기를 작성합니다. 야간 백업을 활성화합니다.
C. Direct Connect 연결에 연결된 VPC 내에 Windows 파일 서버 다중 AZ 파일 시스템용 Amazon FSx를 생성합니다. 새 SMB 파일 공유를 만듭니다. Amazon FSx 파일 시스템의 SMB 파일 공유에 야간 데이터베이스 내보내기를 작성합니다. 야간 백업을 활성화합니다.
D. 새 S3 버킷을 생성합니다. Direct Connect 연결에 연결된 VPC 내에 AWS Storage Gateway 볼륨 게이트웨이를 배포합니다. 새 SMB 파일 공유를 만듭니다. 볼륨 게이트웨이의 새 SMB 파일 공유에 야간 데이터베이스 내보내기를 작성하고 이 데이터를 S3 버킷에 자동으로 복사합니다.

51

학술 기관과 병원의 컨소시엄은 2페타바이트의 유전 데이터를 조사하기 위해 협력하고 있습니다. 데이터는 Amazon S3 버킷에 데이터를 소유한 기관에서 자주 저장하고 업데이트합니다. 기관은 협력에 참여하는 모든 기관에 데이터에 대한 읽기 액세스 권한을 제공하고자 합니다. 각 파트너는 특히 비용에 민감하며 S3 버킷을 소유한 기관은 Amazon S3의 요청 및 데이터 전송 비용을 지불하는 데 관심이 있습니다.

버킷 소유자가 S3 쿼리 및 데이터 전송과 관련된 모든 비용을 부담하지 않고도 안전한 데이터 공유를 가능하게 하는 방법은 무엇입니까?

A. 파트너십의 모든 조직에 AWS 계정이 있는지 확인하십시오. S3 버킷이 있는 계정에서 데이터에 대한 읽기 액세스를 허용하는 파트너십의 각 계정에 대한 교차 계정 역할을 생성합니다. 조직이 데이터에 액세스할 때 해당 읽기 역할을 가정하고 사용하도록 합니다.
B. 파트너십의 모든 조직에 AWS 계정이 있는지 확인합니다. 데이터를 소유한 버킷에 버킷 정책을 생성합니다. 정책은 파트너 관계의 계정에 버킷에 대한 읽기 액세스를 허용해야 합니다. 버킷에서 요청자 지불을 활성화합니다. 조직에서 데이터에 액세스할 때 AWS 자격 증명을 사용하도록 합니다.
C. 파트너십의 모든 조직에 AWS 계정이 있는지 확인합니다. 데이터를 소유한 기관이 버킷에 쓸 수 있도록 허용하는 버킷 정책으로 각 계정에서 버킷을 구성합니다. 기관 계정의 데이터를 다른 기관과 주기적으로 동기화합니다. 조직에서 계정을 사용하여 데이터에 액세스할 때 AWS 자격 증명을 사용하도록 합니다.
D. 파트너십의 모든 조직에 AWS 계정이 있는지 확인합니다. S3 버킷이 있는 계정에서 데이터에 대한 읽기 액세스를 허용하는 파트너십의 각 계정에 대한 교차 계정 역할을 생성합니다. 버킷에서 요청자 지불을 활성화합니다. 조직이 데이터에 액세스할 때 해당 읽기 역할을 가정하고 사용하도록 합니다.

52

단일 AWS 리전에서 기업은 서버리스 애플리케이션을 운영합니다. 외부 URL에 액세스하여 정보를 추출합니다. 조직은 Amazon Simple Notification Service(Amazon SNS) 주제를 통해 Amazon Simple Queue Service(Amazon SQS) 대기열에 URL을 게시합니다. AWS Lambda 함수는 대기열을 이벤트 소스로 사용하여 대기열의 URL을 처리합니다. 출력은 Amazon S3 버킷에 저장됩니다.
회사는 사이트 현지화의 불일치를 비교하기 위해 추가 지역에서 각 URL을 처리하려고 합니다. URL은 현재 활성화된 리전 내에서 게시되어야 합니다.
결과는 현재 리전의 S3 버킷에 기록되어야 합니다.

이러한 기준을 충족하는 다중 리전 배포로 이어지는 조정 조합은 무엇입니까? (2개를 선택하세요.)

A. Lambda 함수가 있는 SQS 대기열을 다른 리전에 배포합니다.
B. 각 리전의 SNS 주제를 SQS 대기열에 구독합니다.
C. 각 리전의 SQS 대기열을 SNS 주제에 구독합니다.
D. 각 리전의 SNS 주제에 대한 URL을 게시하도록 SQS 대기열을 구성합니다.
E. SNS 주제와 Lambda 함수를 다른 리전에 배포합니다.

53

한 소매 비즈니스에서 AWS를 사용하여 전자 상거래 플랫폼을 강화하고 있습니다. 애플리케이션은 Amazon EC2 인스턴스에서 호스팅되며 로드 밸런서(ALB)로 보호됩니다.
회사의 데이터베이스 백엔드는 Amazon RDS DB 인스턴스입니다. ALB에 대한 단일 오리진 포인트는 Amazon CloudFront에서 정의됩니다. 캐싱은 정적 자료를 저장하는 데 사용됩니다. 모든 공개 영역은 Amazon Route 53에서 호스팅됩니다
. 애플리케이션 업그레이드 후 ALB에서 502 상태 코드(잘못된 게이트웨이) 오류가 발생하는 경우가 있습니다. 주된 이유는 ALB가 부적절한 HTTP 헤더를 수신하기 때문입니다. 솔루션 설계자가 문제가 발생한 직후 웹 사이트를 다시 로드하면 웹 페이지가 올바르게 반환됩니다.
조직이 문제를 해결하는 동안 솔루션 설계자는 일반 ALB 오류 페이지가 아닌 맞춤형 오류 페이지를 사용자에게 제공해야 합니다.

최소한의 운영 오버헤드로 이 목표를 달성할 수 있는 작업 조합은 무엇입니까? (2개를 선택하세요.)

A. Amazon S3 버킷을 생성합니다. 정적 웹 페이지를 호스팅하도록 S3 버킷을 구성합니다. Amazon S3에 사용자 지정 오류 페이지를 업로드합니다.
B. ALB 상태 확인 응답 Target FailedHealthChecks가 0보다 큰 경우 AWS Lambda 함수를 호출하는 Amazon CloudWatch 경보를 생성합니다. 공개적으로 액세스할 수 있는 웹 서버를 가리키도록 ALB의 전달 규칙을 수정하도록 Lambda 함수를 구성합니다.
C. 상태 확인을 추가하여 기존 Amazon Route 53 레코드를 수정합니다. 상태 확인이 실패할 경우 대체 대상을 구성합니다. 공개적으로 액세스할 수 있는 웹 페이지를 가리키도록 DNS 레코드를 수정합니다.
D. ALB 상태 확인 응답 Elb.InternalError가 0보다 큰 경우 AWS Lambda 함수를 호출하는 Amazon CloudWatch 경보를 생성합니다. ALB의 전달 규칙이 액세스 가능한 공개 웹 서버를 가리키도록 수정하도록 Lambda 함수를 구성합니다.
E. CloudFront 사용자 지정 오류 페이지를 구성하여 사용자 지정 오류 응답을 추가합니다. 공개적으로 액세스할 수 있는 웹 페이지를 가리키도록 DNS 레코드를 수정합니다.

54

기업은 매일 많은 파일을 수집하는 온프레미스 SaaS(Software-as-a-Service) 솔루션을 사용합니다. 파일 전송을 단순화하기 위해 이 회사는 클라이언트에 다양한 공용 SFTP 끝점을 제공합니다. 클라이언트는 SFTP 끝점의 IP 주소를 방화벽의 나가는 트래픽 허용 목록에 추가합니다. SFTP 끝점의 IP 주소에 대한 변경은 승인되지 않습니다.
이 회사는 SaaS 솔루션을 AWS로 전환하고 파일 전송 서비스의 운영 비용을 줄이기를 원합니다.

이 기준을 충족하는 솔루션은 무엇입니까?

A. 회사의 AWS 계정에 고객 소유의 IP 주소 블록을 등록합니다. 주소 풀에서 탄력적 IP 주소를 생성하고 AWS Transfer for SFTP 엔드포인트에 할당합니다. AWS Transfer를 사용하여 Amazon S3에 파일을 저장합니다.
B. 고객 소유 IP 주소 블록이 포함된 서브넷을 VPC에 추가합니다. 주소 풀에서 탄력적 IP 주소를 생성하고 ALB(Application Load Balancer)에 할당합니다. ALB 뒤의 Auto Scaling 그룹에서 FTP 서비스를 호스팅하는 EC2 인스턴스를 시작합니다. 연결된 Amazon Elastic Block Store(Amazon EBS) 볼륨에 파일을 저장합니다.
C. 고객 소유의 IP 주소 블록을 Amazon Route 53에 등록합니다. Route 53에서 NLB(Network Load Balancer)를 가리키는 별칭 레코드를 생성합니다. NLB 뒤의 Auto Scaling 그룹에서 FTP 서비스를 호스팅하는 EC2 인스턴스를 시작합니다. Amazon S3에 파일을 저장합니다.
D. 회사의 AWS 계정에 고객 소유의 IP 주소 블록을 등록합니다. 주소 풀에서 탄력적 IP 주소를 생성하고 Amazon S3 VPC 엔드포인트에 할당합니다. S3 버킷에서 SFTP 지원을 활성화합니다.

55

귀사는 Amazon Web Services를 사용하여 주요 기여 웹사이트(AWS)를 호스팅하려고 합니다. 예측할 수 없는 상당한 양의 트래픽이 예상되며 이로 인해 여러 데이터베이스 쓰기가 발생합니다. AWS 호스팅 데이터베이스에 대한 쓰기가 손실되지 않도록 합니다.

어떤 서비스를 이용하시겠습니까?

A. 예상되는 최대 쓰기 처리량까지 프로비저닝된 IOPS가 있는 Amazon RDS.
B. 쓰기를 캡처하고 데이터베이스에 쓰기 위해 대기열을 비우기 위한 Amazon Simple Queue Service(SQS).
C. 쓰기가 데이터베이스에 커밋될 때까지 쓰기를 저장하는 Amazon ElastiCache.
D. 최대 예상 최대 쓰기 처리량까지 프로비저닝된 쓰기 처리량을 제공하는 Amazon DynamoDB.

56

사용자가 CIDR 20.0.0.0/16을 사용하여 가상 사설망(VPC)을 구성했습니다. 이 VPC에서 사용자는 CIDR 20.0.0.0/16으로 단일 서브넷을 구축했습니다. 사용자가 동일한 VPC를 사용하여 CIDR 20.0.0.1/24에 대한 다른 서브넷을 구축하려고 합니다.

이 시나리오의 결과는 무엇입니까?

A. VPC는 ​​두 번째 서브넷 IP 범위를 허용하도록 첫 번째 서브넷 CIDR을 자동으로 수정합니다.
B. 두 번째 서브넷이 생성됩니다.
C. CIDR 중복 오류가 발생합니다 .
D. VPC와 동일한 CIDR로 서브넷을 생성할 수 없습니다 .

57

SAML 토큰 생성 클레임을 업데이트해야 하는 이유는 무엇입니까?

A. NameIdentifier 클레임은 AD에 저장된 사용자 이름과 같을 수 없습니다.
B. 인증이 지속적으로 실패합니다.
C. NameIdentifier 클레임은 클레임 URI와 같을 수 없습니다.
D. NameIdentifier 클레임은 AD에 저장된 사용자 이름과 동일해야 합니다.

58

북미의 한 금융 서비스 비즈니스는 고객을 위해 AWS에서 새로운 온라인 웹 애플리케이션을 출시하려고 합니다. 회사는 us-east-1 리전의 Amazon EC2 인스턴스에 애플리케이션을 배포합니다. 프로그램은 가용성이 높아야 하고 증가하는 사용자 트래픽을 수용할 수 있도록 동적 확장이 가능해야 합니다. 또한 조직은 us-west-1 리전에서 능동-수동 장애 조치를 활용하여 애플리케이션에 대한 재해 복구 환경을 구축하려고 합니다.

어떤 솔루션이 이러한 기준을 충족할까요?

A. us-east-1에 VPC를 생성하고 us-west-1에 VPC를 생성합니다. VPC 피어링을 구성합니다. us-east-1 VPC에서 두 VPC의 여러 가용 영역에 걸쳐 확장되는 ALB(Application Load Balancer)를 생성합니다. 두 VPC의 여러 가용 영역에 EC2 인스턴스를 배포하는 Auto Scaling 그룹을 생성합니다. ALB 뒤에 Auto Scaling 그룹을 배치합니다.
B. us-east-1에 VPC를 생성하고 us-west-1에 VPC를 생성합니다. us-east-1 VPC에서 해당 VPC의 여러 가용 영역에 걸쳐 확장되는 ALB(Application Load Balancer)를 생성합니다. us-east-1 VPC의 여러 가용 영역에 EC2 인스턴스를 배포하는 Auto Scaling 그룹을 생성합니다. ALB 뒤에 Auto Scaling 그룹을 배치합니다. us-west-1 VPC에서 동일한 구성을 설정합니다. Amazon Route 53 호스팅 영역을 생성합니다. 각 ALB에 대해 별도의 레코드를 작성하십시오. 상태 확인을 활성화하여 리전 간 고가용성을 보장합니다.
씨. us-east-1에 VPC를 생성하고 us-west-1에 VPC를 생성합니다. us-east-1 VPC에서 해당 VPC의 여러 가용 영역에 걸쳐 확장되는 ALB(Application Load Balancer)를 생성합니다. us-east-1 VPC의 여러 가용 영역에 EC2 인스턴스를 배포하는 Auto Scaling 그룹을 생성합니다. ALB 뒤에 Auto Scaling 그룹을 배치합니다. us-west-1 VPC에서 동일한 구성을 설정합니다. Amazon Route 53 호스팅 영역을 생성합니다. 각 ALB에 대해 별도의 레코드를 작성하십시오. 상태 확인을 활성화하고 각 레코드에 대한 장애 조치 라우팅 정책을 구성합니다.
D. us-east-1에 VPC를 생성하고 us-west-1에 VPC를 생성합니다. VPC 피어링을 구성합니다. us-east-1 VPC에서 두 VPC의 여러 가용 영역에 걸쳐 확장되는 ALB(Application Load Balancer)를 생성합니다. 두 VPC의 여러 가용 영역에 EC2 인스턴스를 배포하는 Auto Scaling 그룹을 생성합니다. ALB 뒤에 Auto Scaling 그룹을 배치합니다. Amazon Route 53 호스팅 영역을 생성합니다. ALB에 대한 레코드를 작성하십시오.

59

사용자가 EC2 인스턴스를 시작하기 위해 VPC에 퍼블릭 서브넷을 구성하려고 합니다. 인스턴스를 시작하는 동안 사용자가 공용 IP 주소를 제공하는 옵션을 선택하지 않았습니다.

이 시나리오에서 다음 주장 중 어느 것이 사실입니까?

A. 인스턴스에는 기본적으로 항상 인스턴스에 연결된 퍼블릭 DNS가 있습니다.
B. 사용자는 서브넷의 라우팅 테이블에서 IGW에 대한 기본 경로를 생성한 다음 인터넷에서 연결하기 위해 인스턴스에 탄력적 IP를 연결해야 합니다.
C. 사용자는 인스턴스에 탄력적 IP를 직접 연결할 수 있습니다 .
D. 공개 IP가 할당되지 않은 경우 인스턴스가 시작되지 않습니다.

60

한 기업이 코드형 인프라(IaC)를 사용하여 두 개의 Amazon EC2 인스턴스를 프로비저닝했습니다. 수년 동안 발병률은 일관되게 유지되었습니다.

회사의 수익은 지난 몇 달 동안 크게 증가했습니다. 그 결과 회사의 운영 팀은 회사의 예상치 못한 트래픽 급증을 처리하기 위해 Auto Scaling 부서를 설립했습니다. 모든 운영 체제에 대해 회사 정책에 따라 매월 보안 업그레이드가 필요합니다.
최신 보안 업그레이드로 인해 재부팅이 필요했습니다. 결과적으로 Auto Scaling 그룹은 인스턴스를 종료하고 패치되지 않은 새 인스턴스로 교체했습니다.

솔루션 설계자는 이 문제가 다시 발생하지 않도록 어떤 활동 조합을 제안해야 합니까? (2개를 선택하세요.)

A. 교체할 가장 오래된 시작 구성을 대상으로 업데이트 정책을 설정하여 Auto Scaling 그룹을 수정합니다.
B. 다음 패치 유지 관리 전에 새 Auto Scaling 그룹을 생성합니다. 유지 관리 기간 동안 두 그룹을 모두 패치하고 인스턴스를 재부팅합니다.
C. Auto Scaling 그룹 앞에 Elastic Load Balancer를 생성합니다. Auto Scaling 그룹이 종료된 인스턴스를 교체한 후 대상 그룹 상태 확인이 정상으로 반환되도록 모니터링을 구성합니다.
D. 자동화 스크립트를 생성하여 AMI를 패치하고, 시작 구성을 업데이트하고, Auto Scaling 인스턴스 새로 고침을 호출합니다.
E. Auto Scaling 그룹 앞에 Elastic Load Balancer를 생성합니다. 인스턴스에 종료 방지를 구성합니다.

61

금융 기관은 특히 새로운 디지털 지갑 애플리케이션을 개발할 목적으로 새 AWS 계정을 개설해야 합니다. 회사는 AWS Organizations를 사용하여 계정을 관리합니다.
솔루션 설계자는 마스터 계정의 IAM 사용자 Support1을 사용하여 이메일 주소가 finance1@example.com인 새 구성원 계정을 설정합니다.

솔루션 설계자는 새 구성원 계정을 IAM 사용자로 채우려면 어떻게 해야 합니까?

A. Finance1@example.com 으로 전송된 초기 AWS Organizations 이메일의 64자 암호를 사용하여 AWS 계정 루트 사용자 자격 증명으로 AWS Management 콘솔에 로그인합니다 . 필요에 따라 IAM 사용자를 설정합니다.
B. 마스터 계정에서 역할을 전환하여 새 구성원 계정의 계정 ID로 OrganizationAccountAccessRole 역할을 맡습니다. 필요에 따라 IAM 사용자를 설정합니다.
C. AWS Management 콘솔 로그인 페이지로 이동합니다. ג€루트 계정 자격 증명을 사용하여 로그인을 선택합니다. ג€ 이메일 주소 Finance1@example.com 과 마스터 계정의 루트 암호를 사용하여 로그인합니다. 필요에 따라 IAM 사용자를 설정합니다.
D. AWS Management 콘솔 로그인 페이지로 이동합니다. 새 구성원 계정의 계정 ID와 Support1 IAM 자격 증명을 사용하여 로그인합니다. 필요에 따라 IAM 사용자를 설정합니다.

62

큰 조직에는 여러 사업부가 있습니다. 각 사업부에는 다양한 목표를 위해 여러 AWS(Amazon Web Services) 계정이 있습니다. 회사의 CIO는 각 사업부에 다른 부서와 공유하면 도움이 될 수 있는 데이터가 있다는 것을 알고 있습니다. 약 10PB의 데이터를 1,000개의 AWS 계정에서 소비자와 공유해야 합니다. 데이터는 비공개이므로 일부는 지정된 직무를 가진 사람들로 제한되어야 합니다. 데이터의 일부는 시뮬레이션과 같이 계산이 많이 필요한 활동의 ​​처리량을 개선하는 데 사용됩니다. 계정 수는 새로운 계획, 인수 및 매각의 결과로 끊임없이 변동합니다.
Solutions Architect는 회사 직원이 AWS에서 사용할 데이터를 공유할 수 있도록 하는 시스템을 생성해 달라는 요청을 받았습니다.

확장 가능한 보안 데이터 공유를 제공하는 기술은 무엇입니까?

ㅏ. 단일 Amazon S3 버킷에 데이터를 저장합니다. S3 버킷의 객체 접두사를 기반으로 적절한 읽기/쓰기 액세스를 허용하는 모든 작업 유형 및 사업부 조합에 대해 IAM 역할을 생성합니다. 역할에는 사업부의 AWS 계정이 역할을 맡도록 허용하는 신뢰 정책이 있어야 합니다. 각 사업부의 AWS 계정에서 IAM을 사용하여 다른 작업 유형에 대한 역할을 맡지 않도록 합니다. 사용자는 사업부의 AWS 계정에서 AssumeRole을 사용하여 데이터에 액세스할 수 있는 자격 증명을 얻습니다. 그런 다음 사용자는 S3 클라이언트에서 해당 자격 증명을 사용할 수 있습니다.
B. 단일 Amazon S3 버킷에 데이터를 저장합니다. 조건을 사용하여 각 사용자의 사업부 및 작업 유형에 따라 적절한 경우 읽기 및 쓰기 액세스 권한을 부여하는 버킷 정책을 작성합니다. 버킷에 액세스하는 AWS 계정이 있는 사업부와 IAM 사용자 이름에 접두사가 있는 작업 유형을 결정합니다. 사용자는 S3 클라이언트가 있는 사업부의 AWS 계정에서 IAM 자격 증명을 사용하여 데이터에 액세스할 수 있습니다.
C. 일련의 Amazon S3 버킷에 데이터를 저장합니다. 사용자를 인증하고 애플리케이션을 통해 데이터를 다운로드하거나 업로드할 수 있도록 하는 회사의 IdP(자격 증명 공급자)와 통합되는 Amazon EC2에서 실행되는 애플리케이션을 생성합니다. 애플리케이션은 IdP의 사업부 및 작업 유형 정보를 사용하여 사용자가 애플리케이션을 통해 업로드 및 다운로드할 수 있는 항목을 제어합니다. 사용자는 애플리케이션의 API를 통해 데이터에 액세스할 수 있습니다.
D. 일련의 Amazon S3 버킷에 데이터를 저장합니다. 회사의 자격 증명 공급자(IdP)와 통합되는 AWS STS 토큰 자동 판매기를 생성합니다. 사용자가 로그인하면 토큰 자판기가 사용자의 액세스를 제한하는 역할을 맡는 IAM 정책을 연결하거나 사용자에게 액세스 권한이 부여된 데이터만 업로드하도록 합니다. 사용자는 토큰 자판기의 웹 사이트 또는 API에 인증하여 자격 증명을 얻은 다음 S3 클라이언트에서 해당 자격 증명을 사용할 수 있습니다.

63

비즈니스는 최대 30일 동안 비용 효율적으로 작은 데이터 레코드(최대 1KiB)를 유지할 수 있어야 합니다. 데이터에 거의 액세스하지 않습니다. 데이터를 읽는 동안 5분 지연이 허용됩니다.

다음 중 이 목적을 달성하는 옵션은 무엇입니까? (2개를 선택하세요.)

A. Amazon S3를 사용하여 하나의 S3 객체에서 여러 레코드를 수집합니다. 수명 주기 구성을 사용하여 쓰기 직후 Amazon Glacier로 데이터를 이동합니다. 데이터를 읽을 때 신속 검색을 사용합니다.
B. 레코드를 Amazon Kinesis Data Firehose에 쓰고 Kinesis Data Firehose가 5분 후에 Amazon S3에 데이터를 전달하도록 구성합니다. S3 버킷에서 만료 작업을 30일로 설정합니다.
C. Amazon API Gateway를 통해 호출된 AWS Lambda 함수를 사용하여 5분 동안 데이터를 수집합니다. Lambda 실행이 중지되기 직전에 Amazon S3에 데이터를 씁니다.
D. TTL(Time To Live)이 30일로 구성된 Amazon DynamoDB에 레코드를 씁니다. GetItem 또는 BatchGetItem 호출을 사용하여 데이터를 읽습니다.
E. Redis용 Amazon ElastiCache에 레코드를 씁니다. Amazon S3에 쓰도록 Redis AOF(추가 전용 파일) 지속성 로그를 구성합니다. ElastiCache 인스턴스가 실패한 경우 로그에서 복구합니다.

64

다음 명령 중 AWS CloudFormation용 AWS CLI와 함께 사용할 때 지정된 스택의 지정된 리소스에 대한 설명을 생성하는 명령은 무엇입니까?

A. 설명 스택 이벤트
B. 스택 리소스 설명
C. 스택 리소스 생성
D. 스택 반환 설명

65

비즈니스에서 Amazon EC2 예약 인스턴스를 구입하기로 선택했습니다. 솔루션 설계자는 AWS Organizations의 마스터 계정으로 예약 인스턴스 구매를 제한하는 솔루션 구축을 담당합니다. 현재 및 미래의 회원 계정에 대해 예약 인스턴스 구매를 금지해야 합니다.

어떤 솔루션이 이러한 기준을 충족할까요?

A. ec2:PurchaseReservedInstancesOffering 작업에 대한 거부 효과가 있는 SCP를 만듭니다. SCP를 조직의 루트에 연결합니다.
B. 새 OU(조직 구성 단위) 만들기 모든 현재 구성원 계정을 새 OU로 이동합니다. ec2:PurchaseReservedInstancesOffering 작업에 대한 거부 효과가 있는 SCP를 만듭니다. SCP를 새 OU에 연결합니다.
C. 멤버 계정에서 시작한 모든 예약 인스턴스를 종료하는 자동화를 트리거하는 AWS Config 규칙 이벤트를 생성합니다.
D. OU1 및 OU2라는 두 개의 새 조직 단위(OU)를 만듭니다. 모든 구성원 계정을 OU2로 이동하고 마스터 계정을 OU1로 이동합니다. ec2:PurchaseReservedInstancesOffering 작업에 대한 허용 효과가 있는 SCP를 만듭니다. SCP를 OU1에 연결합니다.

66

기업이 AWS에서 온프레미스 시스템에 대한 백업 및 복원 메커니즘을 구축하고 있습니다. 이 회사는 고가용성(HA) 및 재해 복구(DR)가 필요하지만 비용을 절약하기 위해 더 긴 복구 시간에 대해 프리미엄을 지불할 용의가 있습니다.

다음 구성 선택 중 비용 절감 및 재해 복구 목표를 가장 잘 달성하는 것은 무엇입니까?

A. 사전 구성된 서버를 설정하고 AMI를 생성합니다. EIP 및 Route 53을 사용하여 사내에서 AWS로 빠르게 전환하십시오.
B. S3에 백업 데이터를 설정하고 스토리지 게이트웨이를 사용하여 정기적으로 S3에 데이터를 전송합니다.
C. AutoScaling으로 소규모 인스턴스를 설정합니다. DR이 온프레미스에서 AWS로 모든 로드를 전환하기 시작하는 경우.
D. 정기적으로 온프레미스 DB를 EC2로 복제하고 파일럿 라이트와 유사한 시나리오를 설정합니다.

67

이제 비즈니스는 Amazon EBS 및 Amazon RDS에 데이터를 저장합니다. 이 조직은 별도의 Amazon Web Services 지역에서 재해 복구를 위한 파일럿 라이트 전략을 배포하는 것을 목표로 합니다. 회사의 RTO는 6시간이고 RPO는 24시간입니다.

가장 낮은 비용으로 기준을 충족하는 옵션은 무엇입니까?

A. AWS Lambda를 사용하여 일일 EBS 및 RDS 스냅샷을 생성하고 재해 복구 지역에 복사합니다. 활성-수동 장애 조치 구성과 함께 Amazon Route 53을 사용합니다. 재해 복구 지역에서 용량이 0으로 설정된 Auto Scaling 그룹의 Amazon EC2를 사용합니다.
B. AWS Lambda를 사용하여 일일 EBS 및 RDS 스냅샷을 생성하고 재해 복구 지역에 복사합니다. 활성-활성 장애 조치 구성과 함께 Amazon Route 53을 사용합니다. 기본 리전과 동일한 방식으로 구성된 Auto Scaling 그룹에서 Amazon EC2를 사용합니다.
C. Amazon ECS를 사용하여 일일 EBS 및 RDS 스냅샷을 생성하고 재해 복구 지역으로 복사하는 장기 실행 작업을 처리합니다. 활성-수동 장애 조치 구성과 함께 Amazon Route 53을 사용합니다. 재해 복구 지역에서 용량이 0으로 설정된 Auto Scaling 그룹의 Amazon EC2를 사용합니다.
D. EBS 및 RDS 지역 간 스냅샷 복사 기능을 사용하여 재해 복구 지역에서 스냅샷을 생성합니다. 활성-활성 장애 조치 구성과 함께 Amazon Route 53을 사용합니다. 재해 복구 지역에서 용량이 0으로 설정된 Auto Scaling 그룹의 Amazon EC2를 사용합니다.

68

단일 지역에서 ERP 애플리케이션은 수많은 AZ에 분산되어 있습니다. 장애가 발생하면 RTO(복구 시간 목표)는 3시간 미만이어야 하고 RPO(복구 시점 목표)는 15분 미만이어야 합니다. 소비자는 약 1.5시간 전에 발생한 데이터 손상을 알게 됩니다.

이러한 종류의 장애가 발생한 경우 이 RTO 및 RPO를 달성하기 위해 어떤 재해 복구 기술을 사용할 수 있습니까?

A. 매 5분마다 S3에 저장된 트랜잭션 로그와 함께 시간별 DB 백업을 S3로 가져옵니다.
B. 두 가용 영역 간에 동기 데이터베이스 마스터-슬레이브 복제를 사용합니다.
C. 5분마다 S3에 저장된 트랜잭션 로그가 있는 EC2 인스턴스 스토어 볼륨으로 매시간 DB 백업을 수행합니다.
D. 5분마다 S3에 저장된 트랜잭션 로그와 함께 Glacier에 저장된 15분 DB 백업을 수행합니다.

69

참 또는 거짓: Amazon ElastiCache에서 캐시 보안 그룹을 사용하여 VPC의 일부인 캐시 클러스터를 설정할 수 있습니다.

A. 거짓 _
나. 참
C. 사실, 이는 Amazon VPC 환경에서 실행되는 캐시 클러스터에만 적용됩니다.
D. 사실이지만 콘솔 탐색 창에서 캐시 보안 그룹을 사용하여 캐시 클러스터를 구성하는 경우에만 해당됩니다.

70

한 비즈니스에서 많은 앱을 AWS로 이전하고 있습니다. 회사는 네트워킹 및 보안 계획이 완료되는 대로 앱을 이전하고 업그레이드할 계획입니다. 중앙 네트워크 계정에서 조직은 AWS Direct Link 연결을 설정했습니다.
이 회사는 가까운 장래에 수백 개의 AWS 계정과 가상 사설 클라우드(VPC)를 갖게 될 것으로 예상합니다. 회사 네트워크는 AWS 리소스에 손쉽게 액세스하고 모든 VPC와 상호 작용할 수 있어야 합니다. 또한 회사는 사내 데이터 센터를 통해 클라우드 리소스를 인터넷에 연결하려고 합니다.

이러한 기준을 충족하는 작업 조합은 무엇입니까? (3개를 선택하세요.)

A. 중앙 계정에서 Direct Connect 게이트웨이를 만듭니다. 각 계정에서 Direct Connect 게이트웨이와 모든 가상 프라이빗 게이트웨이의 계정 ID를 사용하여 연결 제안을 만듭니다.
B. 중앙 네트워크 계정에서 Direct Connect 게이트웨이와 전송 게이트웨이를 생성합니다. 전송 VIF를 사용하여 Direct Connect 게이트웨이에 전송 게이트웨이를 연결합니다.
C. 인터넷 게이트웨이를 제공합니다. 서브넷에 인터넷 게이트웨이를 연결합니다. 게이트웨이를 통한 인터넷 트래픽을 허용합니다.
D. Transit Gateway를 다른 계정과 공유합니다. VPC를 Transit Gateway에 연결합니다.
E. 필요에 따라 VPC 피어링을 프로비저닝합니다.
F. 프라이빗 서브넷만 프로비저닝합니다. 전송 게이트웨이 및 고객 게이트웨이에서 필요한 경로를 열어 AWS의 아웃바운드 인터넷 트래픽이 데이터 센터에서 실행되는 NAT 서비스를 통해 흐르도록 허용합니다.

71

기업은 AWS Organization의 구성원인 50개의 AWS 계정을 소유하고 있습니다. 각 계정은 수많은 가상 사설 클라우드(VPC)로 구성됩니다. 이 회사는 AWS Transit Gateway를 배포하여 각 구성원 계정의 가상 사설 클라우드(VPC)를 연결하려고 합니다. 조직은 새 구성원 계정이 생성될 때마다 새 VPC 및 전송 게이트웨이 연결을 생성하는 프로세스를 자동화하려고 합니다.

이러한 기준을 충족하는 작업 조합은 무엇입니까? (2개를 선택하세요.)

A. 관리 계정에서 AWS Resource Access Manager를 사용하여 멤버 계정과 전송 게이트웨이를 공유합니다.
B. 관리 계정에서 AWS Organizations SCP를 사용하여 멤버 계정과 전송 게이트웨이를 공유합니다.
C. 관리 계정에서 AWS CloudFormation 스택 세트를 시작하여 구성원 계정에 새 VPC와 VPC 전송 게이트웨이 연결을 자동으로 생성합니다. 전송 게이트웨이 ID를 사용하여 첨부 파일을 관리 계정의 전송 게이트웨이와 연결합니다.
D. 새 VPC와 구성원 계정에 피어링 전송 게이트웨이 연결을 자동으로 생성하는 관리 계정에서 AWS CloudFormation 스택 세트를 시작합니다. 전송 게이트웨이 서비스 연결 역할을 사용하여 관리 계정의 전송 게이트웨이와 첨부 파일을 공유합니다.
E. 관리 계정에서 AWS Service Catalog를 사용하여 멤버 계정과 전송 게이트웨이를 공유합니다.

72

IVR(Interactive Voice Response) 시스템의 통화 활동을 추적하려면 영구적이고 내구성 있는 저장소가 필요합니다. 평균 통화 시간은 2-3분입니다. 추적된 각 통화는 활성 또는 비활성일 수 있습니다. 1분마다 외부 애플리케이션은 현재 활성 통화 목록을 알려야 합니다. 일반적으로 초당 몇 건의 호출이 있지만 한 달에 한 번은 초당 최대 1000건의 호출이라는 짧은 기간이 있습니다. 시스템은 하루 24시간 사용 가능하므로 다운타임을 피해야 합니다. 주기적으로 기록 데이터는 파일에 보존됩니다. 이 프로젝트는 비용 절감에 프리미엄을 둡니다.

이 시나리오에서 가장 비용 효율적인 데이터베이스 솔루션은 무엇입니까?

A. "활성" 또는 "종료됨"과 같을 수 있는 "상태" 속성에 대한 "호출" 테이블 및 글로벌 보조 인덱스와 함께 DynamoDB를 사용하십시오. 이러한 방식으로 Global Secondary Index는 테이블의 모든 항목에 사용할 수 있습니다.
B. "CALLS" 테이블과 "ACTIVE" 또는 'TERMINATED'와 같을 수 있는 인덱스된 "STATE" 필드가 있는 RDS 다중 AZ를 사용합니다. 이러한 방식으로 SQL 쿼리는 인덱스를 사용하여 최적화됩니다.
C. "ACTIVE_CALLS"용 테이블과 "TERMINATED_CALLS"용 테이블의 두 테이블이 있는 RDS 다중 AZ를 사용합니다. 이런 식으로 "ACTIVE_CALLS" 테이블은 항상 작고 액세스하기에 효과적입니다.
D. 활성 호출에 대해서만 존재하는 "IsActive" 속성에 대해 "Calls" 테이블 및 Global Secondary Index가 있는 DynamoDB를 사용합니다. 이러한 방식으로 Global Secondary Index는 희소하고 더 ​​효과적입니다.

73

Auto Scaling에 관한 다음 설명 중 옳지 않은 것은?

A. Auto Scaling은 다른 Az에서 인스턴스를 시작할 수 있습니다.
B. Auto Scaling은 CloudWatch와 함께 작동할 수 있습니다.
C. Auto Scaling은 특정 시간에 인스턴스를 시작할 수 있습니다.
D. Auto Scaling은 다른 지역에서 인스턴스를 시작할 수 있습니다.

74

한 기업이 여러 소프트웨어 테스트 랩 설정을 마이그레이션하는 것을 고려하고 있습니다. 각 실험실의 테스트 실행은 다양한 맞춤형 도구를 사용하여 관리됩니다. 실험실은 변경할 수 없는 인프라에서 소프트웨어 테스트를 실행하고 결과는 고가용성 SQL 데이터베이스 클러스터에 저장됩니다. 독점 도구를 전체적으로 다시 만드는 것은 마이그레이션 프로젝트의 범위를 벗어나지만 조직은 이동하는 동안 워크로드를 최적화하려고 합니다.

이 요구 사항을 충족하는 애플리케이션 마이그레이션 기술은 무엇입니까?

A. 재호스트
나. 플랫폼 재조정
C. 리팩터링/재설계
D. 은퇴

75

온프레미스 데이터 센터에서 기업은 2계층 웹 애플리케이션을 실행합니다. 상태 저장 애플리케이션을 실행하는 단일 서버가 애플리케이션 사용자 역할을 합니다. 프로그램은 다른 서버에 있는 PostgreSQL 데이터베이스에 대한 연결을 설정합니다. 프로그램의 예상되는 빠른 성장으로 인해 조직은 애플리케이션과 데이터베이스를 AWS로 이전하고 있습니다. Amazon Aurora PostgreSQL, Amazon EC2 Auto Scaling 및 Elastic Load Balancing이 솔루션에 사용됩니다.

애플리케이션 및 데이터베이스 계층에서 확장성을 허용하면서 일관된 사용자 경험을 제공하는 옵션은 무엇입니까?

A. Aurora 복제본에 대해 Aurora Auto Scaling을 활성화합니다. 최소 미해결 요청 라우팅 알고리즘 및 고정 세션이 활성화된 Network Load Balancer를 사용하십시오.
B. Aurora 쓰기에 대해 Aurora Auto Scaling을 활성화합니다. 라운드 로빈 라우팅 알고리즘 및 고정 세션이 활성화된 Application Load Balancer를 사용합니다.
C. Aurora 복제본에 대해 Aurora Auto Scaling을 활성화합니다. 로빈 라우팅 및 고정 세션이 활성화된 Application Load Balancer를 사용합니다.
D. Aurora 작성자에 대해 Aurora Scaling을 활성화합니다. 최소 미해결 요청 라우팅 알고리즘 및 고정 세션이 활성화된 Network Load Balancer를 사용하십시오.

76

VPC에 배포된 RDS 인스턴스에서 프로비저닝된 IOPS를 활용할 수 있습니까?

A. 예, Oracle 기반 인스턴스에서만 사용할 수 있습니다.
B. 예, 모든 RDS 인스턴스에 사용할 수 있습니다.
다. 아니오
D. 예, MySQL 기반 인스턴스에서만 사용할 수 있습니다.

77

한 기업에서 대규모 고객 서비스 컨택 센터를 운영하고 독점 애플리케이션을 사용하여 통화 녹음을 저장하고 처리합니다. 통화 녹음의 약 2%는 해외 팀에서 품질 보증을 위해 전사합니다. 이러한 녹음을 전사하는 데 최대 72시간이 소요될 수 있습니다. 90일 후 녹음은 NFS 공유를 통해 오프사이트 위치에 보관됩니다. 조직은 전화 기록을 처리하고 Linux 서버를 사용하여 녹음 대기열을 관리합니다. 또한 품질 보증 담당자가 통화 녹음을 분석하고 등급을 매길 수 있는 웹 응용 프로그램을 사용할 수 있습니다.

회사는 스토리지 비용과 전사 시간을 줄이기 위해 시스템을 AWS로 이전할 계획입니다.

회사의 목표를 달성하기 위해 어떤 조치를 취해야 합니까?

A. 콜 센터에서 Amazon S3로 통화 녹음을 업로드합니다. 90일 후에 통화 녹음을 Amazon S3 Glacier로 이동하도록 S3 수명 주기 정책을 설정합니다. AWS Lambda 트리거를 사용하여 Amazon Transcribe로 통화 녹음을 기록합니다. Amazon S3, Amazon API Gateway 및 Lambda를 사용하여 검토 및 채점 애플리케이션을 호스팅합니다.
B. 콜 센터에서 Amazon S3로 통화 녹음을 업로드합니다. 90일 후에 통화 녹음을 Amazon S3 Glacier로 이동하도록 S3 수명 주기 정책을 설정합니다. AWS Lambda 트리거를 사용하여 Amazon Mechanical Turk로 통화 녹음을 기록하십시오. Application Load Balancer 뒤의 Auto Scaling 그룹에서 Amazon EC2 인스턴스를 사용하여 검토 및 채점 애플리케이션을 호스팅합니다.
C. Application Load Balancer 뒤의 Auto Scaling 그룹에서 Amazon EC2 인스턴스를 사용하여 검토 및 채점 애플리케이션을 호스팅합니다. 콜 센터에서 이 애플리케이션에 통화 녹음을 업로드하고 Amazon EFS 탑재 지점에 저장합니다. AWS Backup을 사용하여 90일 후에 통화 녹음을 보관하십시오. Amazon Transcribe를 사용하여 통화 녹음을 전사합니다.
D. 콜 센터에서 Amazon S3로 통화 녹음을 업로드하고 Amazon SQS 대기열에 객체 키를 넣습니다. 90일 후에 통화 녹음을 Amazon S3 Glacier로 이동하도록 S3 수명 주기 정책을 설정합니다. Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 녹음을 Amazon Mechanical Turk에 전송하여 기록합니다. 대기열의 개체 수를 조정 메트릭으로 사용합니다. Amazon S3, Amazon API Gateway 및 AWS Lambda를 사용하여 검토 및 채점 애플리케이션을 호스팅합니다.

78

회사의 AWS 리소스에 대한 내부 보안 평가에서 Microsoft Windows 워크로드를 실행하는 수많은 Amazon EC2 인스턴스에 주요 운영 체제 수정 사항이 누락되어 있음을 발견했습니다. Solutions Architect는 현재 패치의 단점을 수정하고 향후 패치 요구 사항을 신속하게 감지하고 해결할 수 있는 절차를 개발하는 임무를 받았습니다. Solutions Architect는 AWS Systems Manager를 플랫폼으로 선택했습니다. 기업 가동 시간 요구 사항을 달성하려면 EC2 인스턴스 재부팅이 모든 Windows 워크로드에서 동시에 발생하지 않는 것이 중요합니다.

이러한 요구 사항의 이행을 완전히 자동화하는 프로세스는 무엇입니까?

A. 값이 Windows Server인 패치 그룹 태그를 모든 기존 EC2 인스턴스에 추가합니다. 모든 Windows EC2 인스턴스에 이 태그가 할당되었는지 확인합니다. AWS-DefaultPatchBaseline을 Windows Servers 패치 그룹에 연결합니다. AWS Systems Manager 유지 관리 기간을 정의하고 그 기간 내에서 패치를 수행하고 Windows Servers 패치 그룹과 연결합니다. 연결된 서브넷 ID를 사용하여 유지 관리 기간에 인스턴스를 등록합니다. AWS-RunPatchBaseline 문서를 각 유지 관리 기간 내 작업으로 할당합니다.
비. 값이 Windows Server인 패치 그룹 태그를 모든 기존 EC2 인스턴스에 추가합니다. 모든 Windows EC2 인스턴스에 이 태그가 할당되었는지 확인합니다. AWS-WindowsPatchBaseline을 Windows Servers 패치 그룹에 연결합니다. AWS Systems Manager run 명령을 사용하여 패치 실행을 예약하기 위해 cron 표현식을 사용하도록 구성된 Amazon CloudWatch Events 규칙을 생성합니다. AWS-RunWindowsPatchBaseline 문서를 Windows Server 패치 그룹과 연결된 작업으로 할당합니다. 패치 실행 중에 실행할 명령을 정의하는 AWS Systems Manager State Manager 문서를 생성합니다.
씨. 값이 Windows Servers1 또는 Windows Servers2인 패치 그룹 태그를 모든 기존 EC2 인스턴스에 추가합니다. 모든 Windows EC2 인스턴스에 이 태그가 할당되었는지 확인합니다. AWS-DefaultPatchBaseline을 두 Windows Server 패치 그룹과 연결합니다. 겹치지 않는 두 개의 AWS Systems Manager 유지 관리 기간을 정의하고, 그 기간 내에서 패치를 수행하고, 각각을 다른 패치 그룹과 연결합니다. 패치 그룹 태그를 사용하여 특정 유지 관리 기간에 대상을 등록합니다. AWS-RunPatchBaseline 문서를 각 유지 관리 기간 내 작업으로 할당합니다.
디. 값이 Windows Servers1 또는 Windows Server2인 패치 그룹 태그를 모든 기존 EC2 인스턴스에 추가합니다. 모든 Windows EC2 인스턴스에 이 태그가 할당되었는지 확인합니다. AWS-WindowsPatchBaseline을 두 Windows Server 패치 그룹과 연결합니다. 겹치지 않는 두 개의 AWS Systems Manager 유지 관리 기간을 정의하고, 그 기간 내에서 패치를 수행하고, 각각을 다른 패치 그룹과 연결합니다. AWS-RunWindowsPatchBaseline 문서를 각 유지 관리 기간 내에서 작업으로 할당합니다. 패치 실행 중에 실행할 명령을 정의하는 AWS Systems Manager State Manager 문서를 생성합니다.

79

6월에 AWS 계정 소유자 중 한 명이 계정을 도난당하고 침입자가 자신의 모든 데이터를 파괴하여 큰 차질을 겪었습니다. 이는 회사에 상당한 영향을 미칩니다.

다음 중 이 조치를 피하는 데 효과적이지 않은 절차는 무엇입니까?

A. 각 사용자와 루트 계정 사용자에 대해 MFA를 설정합니다.
B. 중요 데이터를 오프사이트/온프레미스로 백업합니다.
C. 정기적으로 데이터의 AMI 및 스냅샷을 생성하고 복사본을 별도의 지역에 보관합니다.
D. AWS 액세스 및 보안 액세스 키를 다른 사람과 공유하지 말고 프로그램 내부에 저장하지 말고 대신 IAM 역할을 사용하십시오.

80

Amazon EC2 인스턴스에서 기업은 새로운 온라인 애플리케이션을 시작합니다. 별도의 AWS 계정은 개발 및 프로덕션 워크로드에 사용됩니다.

자동화된 구성 도구만 회사의 보안 규칙에 따라 프로덕션 계정에 액세스할 수 있습니다. 조직의 보안 팀은 프로덕션 AWS 계정 또는 EC2 인스턴스에 대한 수동 액세스가 발생하는 경우 즉시 알림을 받기를 원합니다.

이러한 요구 사항을 달성하기 위해 솔루션 설계자는 프로덕션 환경에서 어떤 활동 조합을 수행해야 합니까? (3개를 선택하세요.)

A. 애플리케이션의 기본 AWS 리전에서 AWS CloudTrail 로그를 켭니다. Amazon Athena를 사용하여 AwsConsoleSignIn 이벤트에 대한 로그를 쿼리합니다.
B. 경보가 활성화되면 보안 팀에 이메일을 보내도록 Amazon Simple Email Service(Amazon SES)를 구성합니다.
C. Auto Scaling 그룹에 EC2 인스턴스를 배포합니다. 키 페어 없이 인스턴스를 배포하도록 시작 템플릿을 구성합니다. 시스템 액세스 로그를 캡처하도록 Amazon CloudWatch Logs를 구성합니다. 로그를 기반으로 Amazon CloudWatch 경보를 생성하여 사용자가 EC2 인스턴스에 로그인할 때 감지합니다.
D. 경보가 활성화될 때 보안 팀에 메시지를 보내도록 Amazon Simple Notification Service(Amazon SNS) 주제를 구성합니다.
E. 모든 AWS 리전에 대해 AWS CloudTrail 로그를 켭니다. AwsConsoleSignIn 이벤트가 감지되면 알림을 제공하도록 Amazon CloudWatch 경보를 구성합니다.
F. Auto Scaling 그룹에 EC2 인스턴스를 배포합니다. 시작 후 키 페어를 삭제하도록 시작 템플릿을 구성합니다. 시스템 액세스 로그에 대해 Amazon CloudWatch Logs를 구성합니다. 시간 경과에 따른 사용자 로그인을 표시하는 Amazon CloudWatch 대시보드를 생성합니다.

81

다음 AWS Data Pipeline 구성 요소 중 데이터 관리의 비즈니스 로직을 정의하는 구성 요소는 무엇입니까?

A. 태스크 러너
B. 파이프라인 정의
C. AWS 다이렉트 커넥트
D. Amazon Simple Storage Service 9Amazon S3)

82

AWS 환경에 대한 사용자 액세스를 인증하기 위해 솔루션 설계자는 회사의 온프레미스 자격 증명 공급자(IdP)와 함께 SAML 2.0 연동 자격 증명 솔루션을 만들었습니다. 솔루션 설계자가 연동 자격 증명 웹 포털을 사용하여 자격 증명을 확인한 후에 AWS 환경에 대한 액세스 권한이 부여됩니다. 그러나 테스트 사용자가 연동 자격 증명 웹 포털을 사용하여 AWS 환경에 들어가려고 하면 그렇게 할 수 없습니다.

솔루션 설계자는 ID 연합의 올바른 구성을 보장하기 위해 어떤 요소를 확인해야 합니까? (3개를 선택하세요.)

A. IAM 사용자의 권한 정책은 해당 사용자에 대해 SAML 연동 사용을 허용했습니다.
B. 연동 사용자 또는 연동 그룹의 신뢰 정책에 대해 생성된 IAM 역할이 SAML 공급자를 보안 주체로 설정했습니다.
C. 테스트 사용자는 회사 IdR의 AWSFederatedUsers 그룹에 속하지 않습니다.
D. 웹 포털은 SAML 공급자의 ARN, IAM 역할의 ARN 및 IdR의 SAML 어설션을 사용하여 AWS STS AssumeRoleWithSAML API를 호출합니다.
E. 온프레미스 IdP의 DNS 호스트 이름은 AWS 환경 VPC에서 연결할 수 있습니다.
F. 회사의 IdP는 회사의 사용자 또는 그룹을 적절한 권한이 있는 IAM 역할에 적절하게 매핑하는 SAML 어설션을 정의합니다.

83

Amazon Web Services용 교차 플랫폼 웹 애플리케이션을 개발 중입니다. 애플리케이션은 Amazon EC2 인스턴스에서 호스팅되며 PC를 통해 액세스할 수 있습니다. 태블릿 컴퓨터 및 스마트폰
Windows, MacOS, iOS 및 Android는 모두 지원되는 액세스 플랫폼입니다. 다양한 플랫폼 유형에는 고유한 고정 세션 및 SSL 인증서 구성이 필요합니다.

다음 중 가장 비용 효율적인 고성능 아키텍처 구성을 가장 잘 나타내는 것은 무엇입니까?

A. VPC에서 실행되는 다양한 플랫폼 유형에 대해 웹 애플리케이션을 실행하는 온프레미스 및 별도의 EC2 인스턴스 그룹과 세션 상태 및 SSL 인증서를 처리하도록 하이브리드 아키텍처를 설정합니다.
B. 모든 플랫폼에 대해 하나의 ELB를 설정하여 그 아래에 있는 여러 인스턴스 간에 부하를 분산합니다. 각 EC2 인스턴스는 특정 플랫폼에 대한 모든 기능을 구현합니다.
C. 두 개의 ELB 설정 첫 번째 ELB는 모든 플랫폼의 SSL 인증서를 처리하고 두 번째 ELB는 각 ELB의 모든 플랫폼에 대한 세션 고정성을 처리합니다. 각 ELB는 각 플랫폼에 대한 웹 애플리케이션을 처리하기 위해 별도의 EC2 인스턴스 그룹을 실행합니다.
D. 웹 애플리케이션의 공통 구성 요소를 실행하는 EC2 인스턴스 또는 EC2 인스턴스 그룹에 여러 ELBS를 할당합니다. 각 플랫폼 유형에 대해 하나의 ELB 세션 고정 및 SSL 종료는 ELB에서 수행됩니다.

84

소매업체는 비즈니스 파트너에게 일련의 데이터 파일을 제공해야 합니다. 이러한 파일은 소매 회사의 계정 A와 연결된 Amazon S3 버킷에 저장됩니다. 비즈니스 파트너는 자신의 AWS 계정에서 IAM 사용자 중 한 명인 User DataProcessor(계정 B)에게 파일에 대한 액세스를 제공하려고 합니다.

User DataProcessor가 S3 버킷에 성공적으로 액세스할 수 있으려면 기업이 따라야 하는 작업 조합은 무엇입니까? (2개를 선택하세요.)

A. 계정 A의 S3 버킷에 대해 교차 출처 리소스 공유(CORS) 기능을 켭니다.
B. InAccountA에서 S3 버킷 정책을 다음으로 설정합니다.
C. 계정 A에서 S3 버킷 정책을 다음으로 설정합니다.
D. 계정 B에서 User_DataProcessor의 권한을 다음으로 설정합니다.
E. 계정 B에서 User_DataProcessor의 권한을 다음으로 설정합니다.

85

AWS Organizations를 사용하면 기업에서 수백 개의 AWS 계정을 중앙에서 관리할 수 있습니다. 최근에 이 회사는 제품 팀이 자체 계정으로 자체 S3 액세스 포인트를 구축하고 관리할 수 있도록 허용하기 시작했습니다. S3 액세스 포인트는 VPC 내부에서만 액세스할 수 있습니다. 인터넷을 통해 액세스할 수 없습니다.

이 요구 사항을 시행하는 가장 최적의 방법은 무엇입니까?

A. s3:AccessPointNetworkOrigin 조건 키가 VPC로 평가되지 않는 한 s3:CreateAccessPoint 작업을 거부하도록 S3 액세스 포인트 리소스 정책을 설정합니다.
B. s3:AccessPointNetworkOrigin 조건 키가 VPC로 평가되지 않는 한 조직의 루트 수준에서 SCP를 생성하여 s3:CreateAccessPoint 작업을 거부합니다.
C. AWS CloudFormation StackSets를 사용하여 s3:AccessPointNetworkOrigin 조건 키가 VPC로 평가되는 경우에만 s3:CreateAccessPoint 작업을 허용하는 새 IAM 정책을 각 AWS 계정에 생성합니다.
D. s3:AccessPointNetworkOrigin 조건 키가 VPC로 평가되지 않는 한 s3:CreateAccessPoint 작업을 거부하도록 S3 버킷 정책을 설정합니다.

86

다음 중 AWS Direct Connect를 사용하여 Amazon Virtual Private Cloud(Amazon VPC)에 연결하기 전에 수행해야 하는 작업은 무엇입니까?

A. 인터넷에서 네트워크를 식별하기 위해 공개 ASN(자율 시스템 번호)을 제공합니다.
B. 가상 사설 게이트웨이를 생성하고 이를 Virtual Private Cloud(VPC)에 연결합니다.
C. 122.xxx 범위의 네트워크에 사설 IP 주소를 할당합니다.
D. 각 BGP(Border Gateway Protocol) 세션에 대한 공용 IP 주소를 제공합니다.

87

비즈니스는 사람들이 비디오를 게시할 수 있는 웹사이트를 유지합니다. 회사 정책에 따라 제출된 영화는 금지된 자료에 대해 심사를 받아야 합니다. 비디오가 Amazon S3에 업로드되고 비디오의 위치가 포함된 메시지가 Amazon SQS 대기열로 푸시됩니다. 이 위치는 Amazon SQS에서 검색되며 비디오는 백엔드 애플리케이션에서 분석됩니다.
비디오 처리는 계산 비용이 많이 들고 하루 종일 간헐적으로 발생합니다. 웹사이트는 수요에 따라 확장됩니다. 비디오 분석 프로그램은 실행할 수 있는 인스턴스 수에 제한이 있습니다. 휴일에 최대 수요가 발생하기 때문에 조직은 이 기간 동안 애플리케이션의 인스턴스 수를 늘려야 합니다. 활용되는 모든 인스턴스는 현재 온디맨드로 제공되는 Amazon EC2 T2 인스턴스입니다. 회사는 현재 솔루션의 비용을 최소화하기를 원합니다.

다음 중 가장 비용 효율적인 솔루션은 무엇입니까?

A. 웹사이트를 T2 인스턴스에 유지합니다. 사용량이 적은 시간에 필요한 최소 웹 사이트 인스턴스 수를 결정하고 스팟 인스턴스를 사용하여 이를 처리하고 예약 인스턴스를 사용하여 피크 수요를 처리합니다. 비디오 분석 애플리케이션용 Auto Scaling 그룹에서 Amazon EC2 R4 및 Amazon EC2 R5 예약 인스턴스를 사용합니다.
B. 웹사이트를 T2 인스턴스에 유지합니다. 피크 시간이 아닌 시간에 필요한 최소 웹 사이트 인스턴스 수를 결정하고 예약 인스턴스를 사용하여 이를 처리하고 온디맨드 인스턴스를 사용하여 피크 수요를 처리합니다. Amazon EC2 C4 및 Amazon EC2 C5 스팟 인스턴스로 구성된 비디오 분석 애플리케이션에 스팟 집합을 사용합니다.
C. 웹 사이트를 AWS Elastic Beanstalk 및 Amazon EC2 C4 인스턴스로 마이그레이션합니다. 사용량이 적은 시간에 필요한 최소 웹 사이트 인스턴스 수를 결정하고 온디맨드 인스턴스를 사용하여 이를 처리하고 스팟 용량을 사용하여 피크 수요를 처리합니다. C4 및 Amazon EC2 C5 인스턴스로 구성된 비디오 분석 애플리케이션에 Spot Fleet을 사용합니다.
D. 웹 사이트를 AWS Elastic Beanstalk 및 Amazon EC2 R4 인스턴스로 마이그레이션합니다. 피크 시간이 아닌 시간에 필요한 최소 웹 사이트 인스턴스 수를 결정하고 예약 인스턴스를 사용하여 이를 처리하고 온디맨드 인스턴스를 사용하여 피크 수요를 처리합니다. R4 및 Amazon EC2 R5 인스턴스로 구성된 비디오 분석 애플리케이션에 Spot Fleet을 사용합니다.

88

기업은 특정 KPI에 따라 동적으로 확장되는 Auto Scaling 그룹의 주문형 Amazon EC2 인스턴스에서 웹 애플리케이션을 운영하고 있습니다. 회사는 포괄적인 테스트를 거친 후 m5.2xlarge 인스턴스 크기가 워크로드에 가장 적합하다는 것을 알게 되었습니다. 애플리케이션 데이터는 최적인 것으로 확인된 Amazon RDS 인스턴스 db.r4.4xlarge에 저장됩니다. 웹 애플리케이션의 트래픽은 하루 중 이상한 시간에 증가합니다.

조직이 애플리케이션의 안정성을 위태롭게 하지 않고 비용을 추가로 줄이기 위해 채택해야 하는 다른 비용 절감 조치는 무엇입니까?

A. Auto Scaling 그룹의 인스턴스 수를 두 배로 늘리고 인스턴스 크기를 m5.large로 줄입니다.
B. RDS 데이터베이스에 대한 예약 용량과 지속적으로 실행되는 EC2 인스턴스의 최소 수.
C. RDS 인스턴스 크기를 db.r4.xlarge로 줄이고 동일한 크기의 읽기 전용 복제본 5개를 추가하여 안정성을 제공합니다.
D. 모든 EC2 인스턴스에 대한 용량을 예약하고 RDS 데이터베이스에 대한 스팟 인스턴스 요금을 활용합니다.

89

회사는 변경 사항을 실행하기 위해 여러 개발자의 액세스가 필요한 Amazon EC2 인스턴스에서 애플리케이션을 실행합니다.
회사는 인스턴스 액세스에 대한 특정 보안 모범 사례를 적용할 계획입니다.

다음 중 이러한 방식으로 보안 향상에 기여하지 않는 제안은 무엇입니까?

A. 모든 사용자에 대해 암호 기반 로그인을 비활성화합니다. 모든 사용자는 자신의 키를 사용하여 인스턴스에 안전하게 연결해야 합니다.
B. IAM 사용자만 자신의 SSH 키로 EC2 인스턴스에 연결할 수 있도록 허용하는 IAM 정책을 생성합니다.
C. 애플리케이션 구성을 위해 더 이상 EC2 인스턴스에 연결할 필요가 없는 개별 사용자의 접근 권한을 취소하는 절차를 만듭니다.
D. OS의 최신 패치를 적용하고 항상 업데이트하십시오.

90

US-East-1a 리전에서 사용자가 두 개의 EBS 지원 EC2 인스턴스를 설정했습니다. 사용자가 인스턴스 중 하나와 연결된 영역을 수정하려고 합니다.

사용자는 어떻게 수정합니까?

A. 인스턴스가 시작된 후에는 영역을 변경할 수 없습니다 .
B. AWS EC2 콘솔에서 작업 - > 영역 변경을 선택하고 새 영역을 지정합니다.
C. 영역은 AWS CLI를 통해서만 수정할 수 있습니다 .
D. 인스턴스 중 하나를 중지하고 가용 영역 변경

91

기업은 매일 10만 개의 소스에서 천만 개의 데이터 레코드를 지속적으로 공급받습니다. 이러한 항목은 Amazon RDS에서 호스팅하는 MySQL 데이터베이스에 저장됩니다. 쿼리는 데이터 원본의 30일 일일 평균을 반환해야 합니다. 글을 쓰는 사람의 수가 두 배입니다. 수집된 데이터는 한 번에 하나의 소스 ID에 대해 쿼리될 수 있습니다.

Solutions Architect는 솔루션의 신뢰성과 비용 효율성을 어떻게 향상시킬 수 있습니까?

A. 다중 AZ 모드에서 MySQL과 함께 Amazon Aurora를 사용합니다. 4개의 추가 읽기 전용 복제본을 사용합니다.
B. 소스 ID를 파티션 키로, 타임스탬프를 정렬 키로 사용하여 Amazon DynamoDB를 사용합니다. TTL(Time to Live)을 사용하여 30일 후에 데이터를 삭제합니다.
C. 소스 ID를 파티션 키로 사용하여 Amazon DynamoDB를 사용합니다. 매일 다른 테이블을 사용하십시오.
D. 30일의 보존 기간을 사용하여 Amazon Kinesis로 데이터를 수집합니다. 읽기 액세스를 위해 AWS Lambda를 사용하여 Amazon ElastiCache에 데이터 레코드를 씁니다.

92

기업은 애플리케이션의 여러 개별 인스턴스를 배포해야 합니다. 프런트 엔드 애플리케이션은 웹 기반입니다. 반면에 기업 정책에서는 백엔드가 서로 및 인터넷과 분리되어 있으면서도 중앙 집중식 관리 서버를 통해 액세스할 수 있어야 합니다. 새 인스턴스를 배포하는 동안 사람이 실수할 가능성을 제거하려면 애플리케이션 설정 프로세스를 자동화해야 합니다.

비용을 최소화하면서 모든 목표를 충족하는 솔루션은 무엇입니까?

A. AWS CloudFormation 템플릿을 사용하여 각 리전에 대해 동일한 IAM 역할을 생성합니다. AWS CloudFormation StackSets를 사용하여 매개변수를 사용하여 각 인스턴스에 대해 사용자 지정하여 각 애플리케이션 인스턴스를 배포하고 보안 그룹을 사용하여 중앙 서버에 대한 액세스를 허용하면서 각 인스턴스를 격리합니다.
B. AWS CloudFormation StackSets를 사용하여 애플리케이션 IAM 역할 및 리소스의 각 인스턴스를 별도의 계정에 생성합니다. 중앙 관리 서버의 VPN 게이트웨이에 대한 VPN 연결을 포함합니다.
C. 단일 AWS CloudFormation 템플릿을 사용하여 애플리케이션 IAM 역할 및 리소스를 별도의 계정에 복제합니다. VPC 피어링을 포함하여 각 애플리케이션 인스턴스의 VPC를 중앙 VPC에 연결합니다.
D. AWS CloudFormation 템플릿의 파라미터를 사용하여 배포를 별도의 계정으로 사용자 지정합니다. 중앙 관리 서버와 다시 통신할 수 있도록 NAT 게이트웨이를 포함합니다.

93

회사에서 미션 크리티컬 애플리케이션을 AWS로 마이그레이션하고 있습니다. Oracle 데이터베이스 위에 구축된 3계층 웹 애플리케이션입니다. 전송 및 저장 데이터의 암호화가 필요합니다. 데이터베이스는 이제 12테라바이트의 데이터를 저장합니다. 원본 Oracle 데이터베이스에 대한 내부 네트워크 연결이 허용되며 조직은 AWS Managed Services를 사용하여 가능할 때마다 운영 비용을 줄이려고 합니다. 웹 및 애플리케이션 레이어가 완전히 이전되었습니다. 데이터베이스는 소수의 테이블과 기본 키를 기반으로 하는 간단한 구조로 구성됩니다. 그럼에도 불구하고 여기에는 많은 수의 BLOB(Binary Large Object) 필드가 포함됩니다. 라이센스 제약으로 인해 데이터베이스를 활용하지 못했습니다'

애플리케이션 가용성에 가장 적은 영향을 미치는 데이터베이스 마이그레이션 옵션은 무엇입니까?

ㅏ. Oracle 인스턴스용 Amazon RDS를 프로비저닝합니다. 인터넷 액세스가 가능한 가상 사설 클라우드(VPC) 서브넷 내에서 RDS 데이터베이스를 호스팅하고 RDS 데이터베이스를 원본 데이터베이스의 암호화된 읽기 전용 복제본으로 설정합니다. SSL을 사용하여 두 데이터베이스 간의 연결을 암호화합니다. RDS ReplicaLag 지표를 관찰하여 복제 성능을 모니터링합니다. 애플리케이션 유지 관리 기간 동안 온프레미스 데이터베이스를 종료하고 복제 지연이 더 이상 없을 때 애플리케이션 연결을 RDS 인스턴스로 전환합니다. 읽기 전용 복제본을 독립 실행형 데이터베이스 인스턴스로 승격합니다.
B. Amazon EC2 인스턴스를 프로비저닝하고 동일한 Oracle 데이터베이스 소프트웨어를 설치합니다. 지원되는 도구를 사용하여 원본 데이터베이스의 백업을 만듭니다. 애플리케이션 유지 관리 기간 동안 EC2 인스턴스에서 실행 중인 Oracle 데이터베이스에 백업을 복원합니다. Amazon RDS for Oracle 인스턴스를 설정하고 AWS에서 호스팅되는 데이터베이스 간에 가져오기 작업을 생성합니다. 작업이 완료되면 소스 데이터베이스를 종료하고 데이터베이스 연결을 RDS 인스턴스로 전환합니다.
씨. AWS DMS를 사용하여 온프레미스 Oracle 데이터베이스와 AWS에서 호스팅되는 복제 인스턴스 간에 데이터 세트를 로드하고 복제합니다. TDE(투명한 데이터 암호화)가 활성화된 Amazon RDS for Oracle 인스턴스를 프로비저닝하고 복제 인스턴스의 대상으로 구성합니다. 고객 관리형 AWS KMS 마스터 키를 생성하여 복제 인스턴스의 암호화 키로 설정합니다. AWS DMS 작업을 사용하여 데이터를 대상 RDS 인스턴스로 로드합니다. 애플리케이션 유지 관리 기간 동안과 로드 작업이 진행 중인 복제 단계에 도달한 후 데이터베이스 연결을 새 데이터베이스로 전환합니다.
디. 애플리케이션 유지 관리 기간 동안 온프레미스 Oracle 데이터베이스의 압축된 전체 데이터베이스 백업을 생성합니다. 백업이 수행되는 동안 10Gbps AWS Direct Connect 연결을 프로비저닝하여 데이터베이스 백업 파일을 Amazon S3로 전송하는 속도를 높이고 유지 관리 기간을 단축합니다. SSL/TLS를 사용하여 Direct Connect 연결을 통해 파일을 복사합니다. 백업 파일이 성공적으로 복사되면 유지 관리 기간을 시작하고 Amazon RDS 지원 도구를 사용하여 암호화가 활성화된 새로 프로비저닝된 Amazon RDS for Oracle 인스턴스로 데이터를 가져옵니다. 데이터가 완전히 로드될 때까지 기다렸다가 데이터베이스 연결을 새 데이터베이스로 전환합니다.

94

한 회사에서 인기 있는 비디오 게임의 새 버전을 만들고 대중이 무료로 액세스할 수 있도록 하려고 합니다. 새 릴리스 번들의 무게는 약 5GB입니다. 조직은 온프레미스에 있는 공개적으로 액세스할 수 있는 Linux 기반 FTP 서버를 사용하여 이전 버전을 배포합니다. 회사는 전 세계 사람들이 최신 업데이트를 다운로드할 것으로 예상합니다. 이 회사는 다운로드 속도를 최적화하고 사용자 위치에 관계없이 전송 비용을 최소화하는 솔루션을 찾고 있습니다.

어떤 솔루션이 이러한 기준을 충족합니까?

A. Auto Scaling 그룹 내 Amazon EC2 인스턴스에 탑재된 Amazon EBS 볼륨에 게임 파일을 저장합니다. EC2 인스턴스에서 FTP 서비스를 구성합니다. Auto Scaling 그룹 앞에 Application Load Balancer를 사용합니다. 사용자가 패키지를 다운로드할 수 있도록 게임 다운로드 URL을 게시합니다.
B. Auto Scaling 그룹 내 Amazon EC2 인스턴스에 연결된 Amazon EFS 볼륨에 게임 파일을 저장합니다. 각 EC2 인스턴스에서 FTP 서비스를 구성합니다. Auto Scaling 그룹 앞에 Application Load Balancer를 사용합니다. 사용자가 패키지를 다운로드할 수 있도록 게임 다운로드 URL을 게시합니다.
C. 웹 사이트 호스팅을 위해 Amazon Route 53 및 Amazon S3 버킷을 구성합니다. 게임 파일을 S3 버킷에 업로드합니다. 웹 사이트에 Amazon CloudFront를 사용합니다. 사용자가 패키지를 다운로드할 수 있도록 게임 다운로드 URL을 게시합니다.
D. 웹 사이트 호스팅을 위해 Amazon Route 53 및 Amazon S3 버킷을 구성합니다. 게임 파일을 S3 버킷에 업로드합니다. S3 버킷에 대한 요청자 지불을 설정합니다. 사용자가 패키지를 다운로드할 수 있도록 게임 다운로드 URL을 게시합니다.

95

미디어 회사는 Amazon CloudFront를 활용하여 Amazon S3에 저장된 비디오 파일을 제공하고 있습니다. 개발 팀은 문제를 식별하고 서비스를 모니터링하기 위해 로그에 액세스해야 합니다. CloudFront 로그 파일에는 사용자에 대한 개인 식별 정보가 포함될 수 있습니다.
개발 팀이 로그에 액세스할 수 있도록 하기 전에 회사는 로그 처리 제공자를 활용하여 민감한 정보를 제거합니다. 처리되지 않은 로그에는 다음 기준이 적용됩니다.

✑ 미사용 로그는 암호화되어야 하며 로그 처리 서비스에서만 사용할 수 있어야 합니다.
✑ 처리되지 않은 로그 파일에 대한 접근은 정보보호팀으로 제한됩니다.
✑AWS CodeCommit은 AWS CloudFormation 템플릿을 저장하는 데 사용해야 합니다.
✑CloudFormation 템플릿을 업데이트하려면 커밋 시 AWS CodePipeline을 트리거해야 합니다.
CloudFront는 이미 처리되지 않은 로그를 로그 처리 서비스가 액세스하는 Amazon S3 버킷에 업로드하고 있습니다.



비즈니스 요구 사항을 충족하기 위해 솔루션 설계자가 수행해야 하는 일련의 작업은 무엇입니까? (2개를 선택하세요.)

A. AWS Logs Delivery 계정이 암호화를 위한 데이터 키를 생성할 수 있도록 하는 AWS KMS 키 생성 새 KMS 키를 사용하여 로그 스토리지 버킷에서 KMS 관리형 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 기본 암호화를 구성합니다. 로그 처리 서비스가 암호 해독 작업을 수행할 수 있도록 KMS 키 정책을 수정합니다.
B. CloudFront 서비스 역할을 따르는 AWS KMS 키를 생성하여 암호화용 데이터 키 생성 새 KMS 키를 사용하여 로그 스토리지 버킷에서 KMS 관리형 키(SSE-KMS)를 사용하도록 S3 기본 암호화 구성 허용하도록 KMS 키 정책 수정 암호 해독 작업을 수행하는 로그 처리 서비스.
C. AWS Managed S3 KMS 키를 사용하여 로그 스토리지 버킷에서 AWS KMS 관리형 키(SSE-KMS)를 사용하도록 S3 기본 암호화를 구성합니다. CloudFront 서비스 역할이 암호화를 위한 데이터 키를 생성할 수 있도록 KMS 키 정책을 수정합니다. 로그 처리 서비스가 암호 해독 작업을 수행할 수 있도록 KMS 키 정책을 수정합니다.
D. AWS KMS 키 템플릿에 대한 새 CodeCommit 리포지토리를 생성합니다. 새 리포지토리에 대한 커밋을 허용하는 IAM 정책을 생성하고 이를 데이터 보호 팀의 사용자에게 연결합니다. CloudFormation을 사용하여 KMS 키 업데이트를 수행하기 위해 사용자 지정 IAM 역할이 있는 새 CodePipeline 파이프라인 생성 CodePipeline IAM 역할이 키 정책을 수정할 수 있도록 KMS 키 정책을 수정합니다.
E. AWS KMS 키 템플릿에 대해 기존 CodeCommit 리포지토리를 사용합니다. 새 리포지토리에 대한 커밋을 허용하는 IAM 정책을 생성하고 이를 데이터 보호 팀의 사용자에게 연결합니다. 기존 CodePipeline 파이프라인을 수정하여 사용자 지정 IAM 역할을 사용하고 CloudFormation을 사용하여 KMS 키 업데이트를 수행합니다. CodePipeline IAM 역할이 키 정책을 수정할 수 있도록 KMS 키 정책을 수정합니다.

96

헤지 펀드 회사는 현재 무역 관리를 위한 새로운 온라인 애플리케이션을 만들고 있습니다. 이 프로그램은 전 세계 거래자들이 사용할 것입니다. 이 프로그램은 특히 유럽과 미국의 겹치는 근무 시간 동안 매일 수십만 건의 거래를 처리합니다.
회사의 재해 복구 전략에 따라 생성된 데이터를 두 번째 AWS 리전에 복사해야 합니다. 각 트랜잭션 항목의 파일 크기는 100KB 미만입니다. 회사는 CI/CD 워크플로를 최대한 간소화하고자 합니다.

이러한 요구 사항을 가장 효과적으로 달성할 수 있는 작업 조합은 무엇입니까? (2개를 선택하세요.)

A. 여러 지역에 애플리케이션을 배포합니다. Amazon Route 53 지연 시간 기반 라우팅을 사용하여 사용자를 가장 가까운 배포로 라우팅합니다.
B. 데이터를 유지하기 위해 Amazon Aurora 글로벌 데이터베이스를 프로비저닝합니다. Amazon ElastiCache를 사용하여 응답 시간을 개선하십시오.
C. 웹 사이트를 오리진으로 사용하여 Amazon CloudFront 도메인을 프로비저닝합니다. 사용이 예상되는 지역에 대한 액세스를 제한합니다.
D. Amazon DynamoDB 전역 테이블을 프로비저닝합니다. DynamoDB Accelerator(DAX)를 사용하여 응답 시간을 개선하십시오.
E. 데이터를 유지하기 위해 Amazon Aurora 멀티 마스터 클러스터를 프로비저닝합니다. Amazon ElastiCache를 사용하여 응답 시간을 개선하십시오.

97

다음 중 AWS OpsWorks Virtual Private Cloud(VPC)에서 개발된 스택에 대한 설명으로 옳지 않은 것은 무엇입니까?

A. 인스턴스가 인터넷과 통신할 수 없는 서브넷을 퍼블릭 서브넷이라고 합니다.
B. 인스턴스가 VPC의 다른 인스턴스와만 통신할 수 있고 인터넷과 직접 통신할 수 없는 서브넷을 프라이빗 서브넷이라고 합니다.
C. 스택의 모든 인스턴스는 Amazon Linux 또는 Ubuntu Linux 리포지토리와 같이 운영 체제가 의존하는 모든 패키지 리포지토리에 액세스할 수 있어야 합니다.
D. 스택의 모든 인스턴스에 대해 앱 및 사용자 지정 요리 책 리포지토리에 액세스할 수 있어야 합니다.

98

멀티미디어 기업은 회원들에게 VOD(주문형 비디오) 자료를 비용 효율적으로 공급해야 합니다. 비디오 파일의 크기는 1GB에서 15GB까지 다양하며 제작 후 처음 6개월 동안 정기적으로 시청하며 그 이후에는 액세스가 크게 줄어듭니다. 회사는 모든 비디오 파일에 회원이 즉시 액세스할 수 있도록 규정하고 있습니다. 이미 약 30,000개의 파일이 있으며 비즈니스에서는 시간이 지남에 따라 그 수가 두 배가 될 것으로 예상합니다.

회사의 주문형 비디오 콘텐츠를 배포하는 데 가장 비용 효율적인 접근 방식은 무엇입니까?

A. S3 Intelligent-Tiering을 사용하여 Amazon S3 버킷에 비디오 파일을 저장합니다. Amazon CloudFront를 사용하여 S3 버킷을 오리진으로 사용하여 콘텐츠를 전송합니다.
B. AWS Elemental MediaConvert를 사용하고 적응형 비트 전송률 비디오 파일을 Amazon S3에 저장합니다. Amazon S3에서 콘텐츠를 전송하도록 AWS Elemental MediaPackage 엔드포인트를 구성합니다.
C. 비디오 파일을 Amazon Elastic File System(Amazon EFS) Standard에 저장합니다. EFS 수명 주기 관리를 활성화하여 6개월 후에 비디오 파일을 EFS Infrequent Access로 이동합니다. Elastic Load Balancer 뒤에 Amazon EC2 Auto Scaling 그룹을 생성하여 Amazon EFS에서 콘텐츠를 전송합니다.
D. 비디오 파일을 Amazon S3 Standard에 저장합니다. S3 수명 주기 규칙을 생성하여 6개월 후에는 비디오 파일을 S3 Standard-Infrequent Access(S3 Standard-IA)로, 1년 후에는 S3 Glacier Deep Archive로 이동합니다. Amazon CloudFront를 사용하여 S3 버킷을 오리진으로 사용하여 콘텐츠를 전송합니다.

99

한 회사가 인기 있는 텔레비전 프로그램의 투표 시스템을 개발 중입니다. 시청자들은 공연을 보고 쇼 웹사이트에서 가장 좋아하는 아티스트에게 투표할 것입니다. 이 사이트는 이벤트가 종료되면 짧은 시간 내에 수백만 명의 방문자를 유치할 수 있습니다. 방문자는 먼저 Amazon.com 자격 증명을 사용하여 체크인한 다음 투표합니다. 투표가 끝나면 웹사이트에서 투표 총액을 공개합니다. 회사는 높은 수준의 성능을 유지하면서 증가하는 트래픽을 관리할 수 있는 방식으로 사이트를 설계해야 하지만 동시에 비용을 낮게 유지하기를 원합니다.

다음 중 어떤 디자인 패턴을 사용해야 합니까?

A. 자동 크기 조정된 웹 서버 집합 앞에서 CloudFront 및 Elastic Load Balancer를 사용하면 웹 서버는 먼저 Login With Amazon 서비스를 호출하여 사용자를 인증한 다음 사용자 투표를 처리하고 결과를 다중 AZ에 저장합니다. 관계형 데이터베이스 서비스 인스턴스.
B. CloudFront 및 S3의 정적 웹 사이트 호스팅 기능을 Javascript SDK와 함께 사용하여 Login With Amazon 서비스를 호출하여 사용자를 인증하고 IAM 역할을 사용하여 사용자 투표를 저장할 DynamoDB 테이블에 대한 권한을 얻습니다.
C. 자동 크기 조정된 웹 서버 집합 앞에서 CloudFront 및 Elastic Load Balancer를 사용합니다. 웹 서버는 먼저 Login with Amazon 서비스를 호출하여 사용자를 인증하고, 웹 서버는 사용자 투표를 처리하고 결과를 다음 위치에 저장합니다. DynamoDB 테이블에 대한 권한을 얻기 위해 EC2 인스턴스에 대한 IAM 역할을 사용하는 DynamoDB 테이블.
D. 자동 크기 조정된 웹 서버 집합 앞에서 CloudFront 및 Elastic Load Balancer를 사용하면 웹 서버는 먼저 Login With Amazon 서비스를 호출하여 사용자를 인증하고, 웹 서버는 사용자 투표를 처리하고 결과를 다음 위치에 저장합니다. SQS 대기열에 대한 권한을 얻기 위해 EC2 인스턴스에 대한 IAM 역할을 사용하는 SQS 대기열. 그러면 일련의 애플리케이션 서버가 대기열에서 항목을 검색하고 결과를 DynamoDB 테이블에 저장합니다.

100

가상 사설 클라우드에 대한 인터넷 연결을 개발 중입니다. 웹 서버는 인터넷을 통해 액세스할 수 있어야 합니다.
애플리케이션의 아키텍처는 가용성이 매우 높아야 합니다.

어떤 옵션을 고려할 가치가 있습니까? (2개를 선택하세요.)

A. VPC에서 NAT 인스턴스를 구성합니다. NAT 인스턴스를 통해 기본 경로를 만들고 모든 서브넷과 연결합니다. NAT 인스턴스 공용 IP 주소를 가리키는 DNS A 레코드를 구성합니다.
B. CloudFront 배포를 구성하고 웹 서버의 프라이빗 IP 주소를 가리키도록 오리진을 구성합니다. CloudFront 배포에 대한 Route53 CNAME 레코드를 구성합니다.
C. 모든 웹 서버를 ELB 뒤에 배치합니다. ELB DNS 이름을 가리키도록 Route53 CNMIE를 구성합니다.
D. 모든 웹 서버에 EIP를 할당합니다. 상태 확인 및 DNS 장애 조치와 함께 모든 EIP로 Route53 레코드 세트를 구성합니다.
E. EIP로 ELB를 구성합니다. 모든 웹 서버를 ELB 뒤에 배치하십시오. EIP를 가리키는 Route53 A 레코드를 구성합니다.

1~5DBDCA
6~10CBBCCD
11~15DAADD
16~20DABAD
21~25ACBEAC
26~30DACCD
31~35DCBCD
36~40CABDAD
41~45AAEBDAC
46~50CCBDCA
51~55BACAEAB
56~60CACCAD
61~65BDBDBA
66~70BAAABDF
71~75ACDDBB
76~80BACCCDE
81~85BBDFDCDB
86~90BBBBA
91~95BCCCAD
96~100ADAADCD

0개의 댓글