본문 바로가기
공부/Cloud Computing

AWS Solution Architect dump 정리

by 유스베리이 2025. 1. 23.

AWS SAA DUMP

질문 #1

한 회사가 여러 대륙에 걸쳐 있는 도시의 온도, 습도, 기압에 대한 데이터를 수집합니다. 회사가 각 사이트에서 매일 수집하는 평균 데이터 양은 500GB입니다. 각 사이트에는 고속 인터넷 연결이 있습니다.

a회사는 이러한 모든 글로벌 사이트의 데이터를 가능한 한 빨리 단일 Amazon S3 버킷에 집계하려고 합니다. 솔루션은 운영 복잡성을 최소화해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A.대상 S3 버킷에서 S3 Transfer Acceleration을 켭니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.
  • B.각 사이트의 데이터를 가장 가까운 리전의 S3 버킷으로 업로드합니다. S3 크로스 리전 복제를 사용하여 객체를 대상 S3 버킷으로 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.
  • C.AWS Snowball Edge Storage Optimized 장치 작업을 매일 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송합니다. S3 크로스 리전 복제를 사용하여 객체를 대상 S3 버킷에 복사합니다.
  • D.각 사이트의 데이터를 가장 가까운 리전의 Amazon EC2 인스턴스로 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 정기적으로 EBS 스냅샷을 찍어 대상 S3 버킷이 있는 리전에 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다.

질문 #2

회사는 자체 애플리케이션의 로그 파일을 분석할 수 있는 기능이 필요합니다. 로그는 Amazon S3 버킷에 JSON 형식으로 저장됩니다. 쿼리는 간단하며 주문형으로 실행됩니다. 솔루션 아키텍트는 기존 아키텍처를 최소한으로 변경하여 분석을 수행해야 합니다. 솔루션

아키텍트는 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하기 위해 무엇을 해야 할까요?

  • A.Amazon Redshift를 사용하여 모든 콘텐츠를 한곳에 로드하고 필요에 따라 SQL 쿼리를 실행합니다.
  • B.Amazon CloudWatch Logs를 사용하여 로그를 저장합니다. 필요에 따라 Amazon CloudWatch 콘솔에서 SQL 쿼리를 실행합니다.
  • C.필요에 따라 Amazon Athena를 Amazon S3와 직접 함께 사용하여 쿼리를 실행합니다.
  • D.AWS Glue를 사용하여 로그를 카탈로그화합니다. Amazon EMR에서 일시적인 Apache Spark 클러스터를 사용하여 필요에 따라 SQL 쿼리를 실행합니다.

질문 #5

한 회사가 사용자가 업로드한 문서를 Amazon EBS 볼륨에 저장하는 단일 Amazon EC2 인스턴스를 사용하여 AWS에서 웹 애플리케이션을 호스팅하고 있습니다. 더 나은 확장성과 가용성을 위해 회사는 아키텍처를 복제하고 다른 가용성 영역에 두 번째 EC2 인스턴스와 EBS 볼륨을 만들어 둘 다 애플리케이션 로드 밸런서 뒤에 배치했습니다. 이 변경을 완료한 후, 사용자들은 웹사이트를 새로 고칠 때마다 문서의 하위 집합 중 하나 또는 다른 하나를 볼 수 있지만 모든 문서를 동시에 볼 수는 없다고 보고했습니다.

솔루션 아키텍트는 사용자가 모든 문서를 한 번에 볼 수 있도록 하기 위해 무엇을 제안해야 할까요?

  • A.두 EBS 볼륨 모두에 모든 문서가 포함되도록 데이터를 복사합니다.
  • B.사용자를 문서가 있는 서버로 안내하도록 애플리케이션 로드 밸런서를 구성합니다.
  • C.두 EBS 볼륨의 데이터를 Amazon EFS로 복사합니다. 애플리케이션을 수정하여 새 문서를 Amazon EFS에 저장합니다.
  • D.두 서버 모두에 요청을 보내도록 애플리케이션 로드 밸런서를 구성합니다. 올바른 서버에서 각 문서를 반환합니다.

질문 #6

한 회사가 NFS를 사용하여 온프레미스 네트워크 연결 스토리지에 대용량 비디오 파일을 저장합니다. 각 비디오 파일의 크기는 1MB에서 500GB까지입니다. 총 스토리지는 70TB이며 더 이상 증가하지 않습니다. 회사는 비디오 파일을 Amazon S3로 마이그레이션하기로 결정했습니다. 회사는 가능한 한 빨리 비디오 파일을 마이그레이션해야 하며 가능한 한 최소한의 네트워크 대역폭을 사용해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A.S3 버킷을 만듭니다. S3 버킷에 쓸 수 있는 권한이 있는 IAM 역할을 만듭니다. AWS CLI를 사용하여 모든 파일을 로컬로 S3 버킷에 복사합니다.
  • B.AWS Snowball Edge 작업을 만듭니다. 온프레미스에서 Snowball Edge 장치를 받습니다. Snowball Edge 클라이언트를 사용하여 데이터를 장치로 전송합니다. AWS가 Amazon S3로 데이터를 가져올 수 있도록 장치를 반환합니다.
  • C.온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결할 퍼블릭 서비스 엔드포인트를 만듭니다. S3 버킷을 만듭니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 만듭니다. 새 파일 공유를 S3 버킷으로 지정합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다.
  • D.온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결할 퍼블릭 가상 인터페이스(VIF)를 만듭니다. S3 버킷을 만듭니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 만듭니다. 새 파일 공유를 S3 버킷으로 지정합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다.

질문 #9

한 회사가 데이터 센터에서 SMB 파일 서버를 운영하고 있습니다. 파일 서버는 파일이 생성된 후 처음 며칠 동안 자주 액세스되는 대용량 파일을 저장합니다. 7일 후에는 파일에 거의 액세스하지 않습니다.

총 데이터 크기가 증가하고 있으며 회사의 총 스토리지 용량에 가깝습니다. 솔루션 아키텍트는 가장 최근에 액세스한 파일에 대한 저지연 액세스를 잃지 않으면서 회사의 사용 가능한 스토리지 공간을 늘려야 합니다. 솔루션 아키텍트는 또한 향후 스토리지 문제를 방지하기 위해 파일 수명 주기 관리를 제공해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A.AWS DataSync를 사용하여 7일이 지난 데이터를 SMB 파일 서버에서 AWS로 복사합니다.
  • B.회사의 스토리지 공간을 확장하기 위해 Amazon S3 파일 게이트웨이를 만듭니다. 7일 후 S3 Glacier Deep Archive로 데이터를 전환하기 위한 S3 라이프사이클 정책을 만듭니다.
  • C.회사의 저장 공간을 확장하기 위해 Amazon FSx for Windows File Server 파일 시스템을 만듭니다.
  • D.각 사용자의 컴퓨터에 Amazon S3에 액세스하기 위한 유틸리티를 설치합니다. 7일 후 S3 Glacier Flexible Retrieval로 데이터를 전환하기 위한 S3 Lifecycle 정책을 만듭니다

질문 #10

한 회사가 AWS에서 전자상거래 웹 애플리케이션을 구축하고 있습니다. 이 애플리케이션은 새로운 주문에 대한 정보를 Amazon API Gateway REST API로 보내 처리합니다. 이 회사는 주문이 수신된 순서대로 처리되도록 하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A.API Gateway 통합을 사용하여 애플리케이션이 주문을 받으면 Amazon Simple Notification Service(Amazon SNS) 토픽에 메시지를 게시합니다. 처리를 수행하기 위해 AWS Lambda 함수를 토픽에 구독합니다.
  • B.API Gateway 통합을 사용하여 애플리케이션이 주문을 받으면 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS FIFO 대기열을 구성합니다.
  • C.API Gateway 권한 부여자를 사용하여 애플리케이션이 주문을 처리하는 동안 모든 요청을 차단합니다.
  • D.API Gateway 통합을 사용하여 애플리케이션이 주문을 받을 때 Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS 표준 대기열을 구성합니다.

질문 #11

한 회사에는 Amazon EC2 인스턴스에서 실행되고 Amazon Aurora 데이터베이스를 사용하는 애플리케이션이 있습니다. EC2 인스턴스는 로컬 파일에 저장된 사용자 이름과 비밀번호를 사용하여 데이터베이스에 연결합니다. 이 회사는 자격 증명 관리의 운영 오버헤드를 최소화하려고 합니다.

솔루션 아키텍트는 이 목표를 달성하기 위해 무엇을 해야 할까요?

  • A.AWS Secrets Manager를 사용합니다. 자동 회전을 켭니다.
  • B.AWS Systems Manager Parameter Store를 사용합니다. 자동 회전을 켭니다.
  • C.AWS Key Management Service(AWS KMS) 암호화 키로 암호화된 객체를 저장하기 위해 Amazon S3 버킷을 만듭니다. 자격 증명 파일을 S3 버킷으로 마이그레이션합니다. 애플리케이션을 S3 버킷으로 가리킵니다.
  • D.각 EC2 인스턴스에 대해 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 만듭니다. 각 EC2 인스턴스에 새 EBS 볼륨을 연결합니다. 자격 증명 파일을 새 EBS 볼륨으로 마이그레이션합니다. 애플리케이션을 새 EBS 볼륨으로 가리킵니다.

질문 #13

한 회사가 AWS 인프라에 대해 월별 유지 관리를 수행합니다. 이러한 유지 관리 활동 중에 회사는 여러 AWS 지역에서 Amazon RDS for MySQL 데이터베이스의 자격 증명을 순환해야 합니다.

어떤 솔루션이 가장 적은 운영 오버헤드로 이러한 요구 사항을 충족할까요?

  • A.자격 증명을 AWS Secrets Manager의 비밀로 저장합니다. 필요한 리전에 다중 리전 비밀 복제를 사용합니다. Secrets Manager를 구성하여 일정에 따라 비밀을 순환합니다.
  • B.보안 문자열 매개변수를 생성하여 AWS Systems Manager에서 자격 증명을 비밀로 저장합니다. 필요한 Region에 대해 다중 Region 비밀 복제를 사용합니다. Systems Manager를 구성하여 일정에 따라 비밀을 순환합니다.
  • C.서버 측 암호화(SSE)가 활성화된 Amazon S3 버킷에 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 AWS Lambda 함수를 호출하여 자격 증명을 회전합니다.
  • D.AWS Key Management Service(AWS KMS) 다중 지역 고객 관리 키를 사용하여 자격 증명을 비밀로 암호화합니다. Amazon DynamoDB 글로벌 테이블에 비밀을 저장합니다. AWS Lambda 함수를 사용하여 DynamoDB에서 비밀을 검색합니다. RDS API를 사용하여 비밀을 순환합니다.

질문 #15

한 회사가 최근 AWS로 마이그레이션했고 프로덕션 VPC에서 유입되고 유출되는 트래픽을 보호하는 솔루션을 구현하려고 합니다. 이 회사는 온프레미스 데이터 센터에 검사 서버를 두었습니다. 검사 서버는 트래픽 흐름 검사 및 트래픽 필터링과 같은 특정 작업을 수행했습니다. 이 회사는 AWS 클라우드에서 동일한 기능을 원합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A.프로덕션 VPC에서 트래픽 검사 및 트래픽 필터링을 위해 Amazon GuardDuty를 사용합니다.
  • B.트래픽 미러링을 사용하여 프로덕션 VPC의 트래픽을 미러링하여 트래픽 검사 및 필터링을 수행합니다.
  • C.AWS 네트워크 방화벽을 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 만듭니다.
  • D.AWS Firewall Manager를 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 만듭니다.

질문 #16

한 회사가 AWS에서 데이터 레이크를 호스팅합니다. 데이터 레이크는 Amazon S3와 PostgreSQL용 Amazon RDS의 데이터로 구성됩니다. 이 회사는 데이터 시각화를 제공하고 데이터 레이크 내의 모든 데이터 소스를 포함하는 보고 솔루션이 필요합니다. 회사의 경영진만 모든 시각화에 대한 전체 액세스 권한을 가져야 합니다. 나머지 회사는 제한된 액세스 권한만 가져야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A.Amazon QuickSight에서 분석을 만듭니다. 모든 데이터 소스를 연결하고 새로운 데이터 세트를 만듭니다. 대시보드를 게시하여 데이터를 시각화합니다. 적절한 IAM 역할과 대시보드를 공유합니다.
  • B.Amazon QuickSight에서 분석을 만듭니다. 모든 데이터 소스를 연결하고 새로운 데이터 세트를 만듭니다. 대시보드를 게시하여 데이터를 시각화합니다. 적절한 사용자 및 그룹과 대시보드를 공유합니다.
  • C.Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 만듭니다. AWS Glue 추출, 변환 및 로드(ETL) 작업을 만들어 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
  • D.Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 만듭니다. Amazon Athena Federated Query를 사용하여 PostgreSQL용 Amazon RDS 내의 데이터에 액세스합니다. Amazon Athena를 사용하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.

질문 #18

애플리케이션 개발팀은 큰 이미지를 더 작고 압축된 이미지로 변환하는 마이크로서비스를 설계하고 있습니다. 사용자가 웹 인터페이스를 통해 이미지를 업로드하면 마이크로서비스는 이미지를 Amazon S3 버킷에 저장하고, AWS Lambda 함수로 이미지를 처리하고 압축하고, 압축된 형태로 이미지를 다른 S3 버킷에 저장해야 합니다.

솔루션 아키텍트는 내구성이 뛰어나고 상태 없는 구성 요소를 사용하여 이미지를 자동으로 처리하는 솔루션을 설계해야 합니다.

이러한 요구 사항을 충족하는 작업의 조합은 무엇입니까? (두 가지를 선택하십시오.)

  • A.Amazon Simple Queue Service(Amazon SQS) 대기열을 만듭니다. 이미지가 S3 버킷에 업로드되면 SQS 대기열에 알림을 보내도록 S3 버킷을 구성합니다.
  • B.Lambda 함수를 구성하여 Amazon Simple Queue Service(Amazon SQS) 대기열을 호출 소스로 사용합니다. SQS 메시지가 성공적으로 처리되면 대기열에서 메시지를 삭제합니다.
  • C.Lambda 함수를 구성하여 S3 버킷에서 새 업로드를 모니터링합니다. 업로드된 이미지가 감지되면 파일 이름을 메모리의 텍스트 파일에 쓰고 텍스트 파일을 사용하여 처리된 이미지를 추적합니다.
  • D.Amazon EC2 인스턴스를 시작하여 Amazon Simple Queue Service(Amazon SQS) 대기열을 모니터링합니다. 대기열에 항목이 추가되면 EC2 인스턴스의 텍스트 파일에 파일 이름을 기록하고 Lambda 함수를 호출합니다.
  • E.Amazon EventBridge(Amazon CloudWatch Events) 이벤트를 구성하여 S3 버킷을 모니터링합니다. 이미지가 업로드되면 Amazon Ample Notification Service(Amazon SNS) 토픽에 알림을 보내 추가 처리를 위해 애플리케이션 소유자의 이메일 주소를 입력합니다

질문 #19

한 회사에 AWS에 배포된 3계층 웹 애플리케이션이 있습니다. 웹 서버는 VPC의 퍼블릭 서브넷에 배포됩니다. 애플리케이션 서버와 데이터베이스 서버는 동일한 VPC의 프라이빗 서브넷에 배포됩니다. 이 회사는 검사 VPC에 AWS Marketplace의 타사 가상 방화벽 어플라이언스를 배포했습니다. 이 어플라이언스는 IP 패킷을 허용할 수 있는 IP 인터페이스로 구성되어 있습니다.

솔루션 아키텍트는 트래픽이 웹 서버에 도달하기 전에 애플리케이션에 대한 모든 트래픽을 검사하기 위해 웹 애플리케이션을 어플라이언스와 통합해야 합니다.

어떤 솔루션이 이러한 요구 사항을 가장 적은 운영 오버헤드로 충족할까요?

A.패킷검사를 위해 트래픽을 어플라이언스로 라우팅하기 위해 애플리케이션의 VPC의 공개 서브넷에 네트워크 로드 밸런서를 생성합니다.

B.패킷 검사를 위해 트래픽을 어플라이언스로 라우팅하기 위해 애플리케이션 VPC의 공개 서브넷에 애플리케이션 부하 분산 장치를 생성합니다.

C.검사 VPC에 트랜싯 게이트웨이를 배포하고, 트랜싯 게이트웨이를 통해 들어오는 패킷을 라우팅하기 위한 경로 테이블을 구성합니다.

D.검사 VPC에 게이트웨이 로드 밸런서를 배포합니다. 게이트웨이 로드 밸런서 엔드포인트를 생성하여 들어오는 패킷을 수신하고 패킷을 어플라이언스로 전달합니다

질문 #20

한 회사가 동일한 AWS 지역의 테스트 환경에 대량의 프로덕션 데이터를 복제하는 기능을 개선하고자 합니다. 데이터는 Amazon Elastic Block Store(Amazon EBS) 볼륨의 Amazon EC2 인스턴스에 저장됩니다. 복제된 데이터에 대한 수정 사항은 프로덕션 환경에 영향을 미치지 않아야 합니다. 이 데이터에 액세스하는 소프트웨어는 지속적으로 높은 I/O 성능이 필요합니다.

솔루션 아키텍트는 프로덕션 데이터를 테스트 환경에 복제하는 데 필요한 시간을 최소화해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A.프로덕션 EBS 볼륨의 EBS 스냅샷을 찍습니다. 테스트 환경에서 EC2 인스턴스 스토어 볼륨으로 스냅샷을 복원합니다.
  • B.EBS Multi-Attach 기능을 사용하도록 프로덕션 EBS 볼륨을 구성합니다. 프로덕션 EBS 볼륨의 EBS 스냅샷을 찍습니다. 프로덕션 EBS 볼륨을 테스트 환경의 EC2 인스턴스에 연결합니다.
  • C.프로덕션 EBS 볼륨의 EBS 스냅샷을 찍습니다. 새 EBS 볼륨을 만들고 초기화합니다. 프로덕션 EBS 스냅샷에서 볼륨을 복원하기 전에 테스트 환경에서 새 EBS 볼륨을 EC2 인스턴스에 연결합니다.
  • D.프로덕션 EBS 볼륨의 EBS 스냅샷을 찍습니다. EBS 스냅샷에서 EBS 빠른 스냅샷 복원 기능을 켭니다. 스냅샷을 새 EBS 볼륨으로 복원합니다. 테스트 환경에서 새 EBS 볼륨을 EC2 인스턴스에 연결합니다.

질문 #21

전자상거래 회사가 AWS에서 하루에 한 건의 거래가 가능한 웹사이트를 출시하려고 합니다. 매일 24시간 동안 정확히 한 가지 상품만 판매합니다. 이 회사는 피크 시간대에 밀리초 지연 시간으로 매시간 수백만 건의 요청을 처리할 수 있기를 원합니다.

어떤 솔루션이 이러한 요구 사항을 가장 적은 운영 오버헤드로 충족할까요?

  • A.Amazon S3를 사용하여 전체 웹사이트를 다른 S3 버킷에 호스팅합니다. Amazon CloudFront 배포를 추가합니다. S3 버킷을 배포의 출처로 설정합니다. Amazon S3에 주문 데이터를 저장합니다.
  • B.여러 가용성 영역에 걸쳐 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스에 전체 웹사이트를 배포합니다. 웹사이트 트래픽을 분산하기 위해 Application Load Balancer(ALB)를 추가합니다. 백엔드 API에 대한 또 다른 ALB를 추가합니다. Amazon RDS for MySQL에 데이터를 저장합니다.
  • C.전체 애플리케이션을 마이그레이션하여 컨테이너에서 실행합니다. Amazon Elastic Kubernetes Service(Amazon EKS)에서 컨테이너를 호스팅합니다. Kubernetes Cluster Autoscaler를 사용하여 트래픽 버스트를 처리하기 위해 포드 수를 늘리거나 줄입니다. Amazon RDS for MySQL에 데이터를 저장합니다.
  • D.Amazon S3 버킷을 사용하여 웹사이트의 정적 콘텐츠를 호스팅합니다. Amazon CloudFront 배포를 배포합니다. S3 버킷을 원본으로 설정합니다. 백엔드 API에 Amazon API Gateway 및 AWS Lambda 함수를 사용합니다. Amazon DynamoDB에 데이터를 저장합니다.

질문 #23

한 회사가 Amazon S3 Standard 스토리지를 사용하여 백업 파일을 저장하고 있습니다. 파일은 1개월 동안 자주 액세스됩니다. 그러나 1개월 후에는 파일에 액세스하지 않습니다. 회사는 파일을 무기한 보관해야 합니다.

어떤 스토리지 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족할까요?

  • A.S3 Intelligent-Tiering을 구성하여 객체를 자동으로 마이그레이션합니다.
  • B.1개월 후 S3 Standard에서 S3 Glacier Deep Archive로 객체를 전환하기 위한 S3 라이프사이클 구성을 생성합니다.
  • C.1개월 후 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 객체를 전환하기 위한 S3 수명 주기 구성을 생성합니다.
  • D.1개월 후 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 객체를 전환하기 위한 S3 라이프사이클 구성을 생성합니다.

질문 #24

한 회사가 최근 청구서에서 Amazon EC2 비용이 증가한 것을 발견했습니다. 청구팀은 몇 개의 EC2 인스턴스에 대해 원치 않는 수직적 인스턴스 확장을 발견했습니다. 솔루션 아키텍트는 지난 2개월간의 EC2 비용을 비교하는 그래프를 만들고 심층 분석을 수행하여 수직적 확장의 근본 원인을 파악해야 합니다.

솔루션 아키텍트는 운영 오버헤드가 가장 적은 정보를 어떻게 생성해야 할까요?

  • A.AWS Budgets를 사용하여 예산 보고서를 만들고 인스턴스 유형에 따라 EC2 비용을 비교합니다.
  • B.Cost Explorer의 세부 필터링 기능을 사용하여 인스턴스 유형에 따라 EC2 비용에 대한 심층 분석을 수행합니다.
  • C.AWS 청구 및 비용 관리 대시보드의 그래프를 사용하여 지난 2개월 동안의 인스턴스 유형에 따른 EC2 비용을 비교합니다.
  • D.AWS 비용 및 사용 보고서를 사용하여 보고서를 만들고 Amazon S3 버킷으로 보냅니다. Amazon QuickSight를 Amazon S3를 소스로 사용하여 인스턴스 유형을 기반으로 대화형 그래프를 생성합니다.

질문 #26

회사는 Amazon S3 버킷에 승인되지 않은 구성 변경이 없는지 확인하기 위해 AWS 클라우드 배포를 검토해야 합니다.

솔루션 아키텍트는 이 목표를 달성하기 위해 무엇을 해야 합니까?

  • A.적절한 규칙으로 AWS Config를 켭니다.
  • B.적절한 검사를 통해 AWS Trusted Advisor를 켭니다.
  • C.적절한 평가 템플릿을 사용하여 Amazon Inspector를 켭니다.
  • D.Amazon S3 서버 액세스 로깅을 켭니다. Amazon EventBridge(Amazon Cloud Watch Events)를 구성합니다.

질문 #27

어떤 회사가 새로운 애플리케이션을 출시하고 Amazon CloudWatch 대시보드에 애플리케이션 메트릭을 표시합니다. 회사의 제품 관리자는 이 대시보드에 주기적으로 액세스해야 합니다. 제품 관리자는 AWS 계정이 없습니다. 솔루션 아키텍트는 최소 권한 원칙에 따라 제품 관리자에게 액세스를 제공해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A.CloudWatch 콘솔에서 대시보드를 공유합니다. 제품 관리자의 이메일 주소를 입력하고 공유 단계를 완료합니다. 제품 관리자에게 대시보드에 대한 공유 가능한 링크를 제공합니다.
  • B.제품 관리자를 위해 특별히 IAM 사용자를 만듭니다. CloudWatchReadOnlyAccess AWS 관리 정책을 사용자에게 연결합니다. 제품 관리자와 새 로그인 자격 증명을 공유합니다. 올바른 대시보드의 브라우저 URL을 제품 관리자와 공유합니다.
  • C.회사 직원을 위한 IAM 사용자를 만듭니다. ViewOnlyAccess AWS 관리 정책을 IAM 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유합니다. 제품 관리자에게 CloudWatch 콘솔로 이동하여 대시보드 섹션에서 이름으로 대시보드를 찾도록 요청합니다.
  • D.퍼블릭 서브넷에 배스천 서버를 배포합니다. 제품 관리자가 대시보드에 액세스해야 하는 경우 서버를 시작하고 RDP 자격 증명을 공유합니다. 배스천 서버에서 대시보드를 볼 수 있는 적절한 권한이 있는 캐시된 AWS 자격 증명으로 대시보드 URL을 열도록 브라우저가 구성되어 있는지 확인합니다.

질문 #29

한 회사에서 UDP 연결을 사용하는 VoIP(Voice over Internet Protocol) 서비스를 제공합니다. 이 서비스는 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스로 구성되어 있습니다. 이 회사는 여러 AWS 지역에 배포를 보유하고 있습니다.

이 회사는 사용자를 가장 낮은 지연 시간을 가진 지역으로 라우팅해야 합니다. 이 회사는 또한 지역 간의 자동화된 장애 조치가 필요합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A.네트워크 로드 밸런서(NLB)와 연관된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 NLB를 AWS Global Accelerator 엔드포인트로 사용합니다.
  • B.Application Load Balancer(ALB)와 연관된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 ALB를 AWS Global Accelerator 엔드포인트로 사용합니다.
  • C.네트워크 로드 밸런서(NLB)와 연관된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 NLB에 대한 별칭을 가리키는 Amazon Route 53 지연 레코드를 만듭니다. 지연 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 만듭니다.
  • D.Application Load Balancer(ALB)와 연관된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 ALB에 대한 별칭을 가리키는 Amazon Route 53 가중 레코드를 만듭니다. 가중 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 배포합니다.

질문 #31

AWS에서 웹 애플리케이션을 호스팅하는 회사는 모든 Amazon EC2 인스턴스, Amazon RDS DB 인스턴스 및 Amazon Redshift 클러스터가 태그로 구성되었는지 확인하고자 합니다. 이 회사는 이 검사를 구성하고 운영하는 데 드는 노력을 최소화하고자 합니다.

솔루션 아키텍트는 이를 달성하기 위해 무엇을 해야 할까요?

  • A.AWS Config 규칙을 사용하여 적절하게 태그가 지정되지 않은 리소스를 정의하고 감지합니다.
  • B.Cost Explorer를 사용하여 적절하게 태그가 지정되지 않은 리소스를 표시합니다. 해당 리소스에 수동으로 태그를 지정합니다.
  • C.모든 리소스의 적절한 태그 할당을 확인하기 위한 API 호출을 작성합니다. EC2 인스턴스에서 주기적으로 코드를 실행합니다.
  • D.모든 리소스의 적절한 태그 할당을 확인하기 위한 API 호출을 작성합니다. Amazon CloudWatch를 통해 AWS Lambda 함수를 예약하여 주기적으로 코드를 실행합니다.

질문 #33

한 회사가 AWS에서 온라인 마켓플레이스 웹 애플리케이션을 실행합니다. 이 애플리케이션은 최대 시간대에 수십만 명의 사용자에게 서비스를 제공합니다. 이 회사는 수백만 건의 재무 거래에 대한 세부 정보를 여러 다른 내부 애플리케이션과 공유하기 위한 확장 가능하고 거의 실시간에 가까운 솔루션이 필요합니다. 또한 트랜잭션은 저지연 검색을 위해 문서 데이터베이스에 저장되기 전에 민감한 데이터를 제거하기 위해 처리되어야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?

  • A.거래 데이터를 Amazon DynamoDB에 저장합니다. DynamoDB에 규칙을 설정하여 쓰기 시 모든 거래에서 민감한 데이터를 제거합니다. DynamoDB Streams를 사용하여 거래 데이터를 다른 애플리케이션과 공유합니다.
  • B.거래 데이터를 Amazon Kinesis Data Firehose로 스트리밍하여 Amazon DynamoDB 및 Amazon S3에 데이터를 저장합니다. Kinesis Data Firehose와 AWS Lambda 통합을 사용하여 민감한 데이터를 제거합니다. 다른 애플리케이션은 Amazon S3에 저장된 데이터를 사용할 수 있습니다.
  • C.거래 데이터를 Amazon Kinesis Data Streams로 스트리밍합니다. AWS Lambda 통합을 사용하여 모든 거래에서 민감한 데이터를 제거한 다음 거래 데이터를 Amazon DynamoDB에 저장합니다. 다른 애플리케이션은 Kinesis 데이터 스트림에서 거래 데이터를 사용할 수 있습니다.
  • D.일괄 처리된 거래 데이터를 Amazon S3에 파일로 저장합니다. AWS Lambda를 사용하여 모든 파일을 처리하고 민감한 데이터를 제거한 후 Amazon S3에 있는 파일을 업데이트합니다. 그런 다음 Lambda 함수는 데이터를 Amazon DynamoDB에 저장합니다. 다른 애플리케이션은 Amazon S3에 저장된 거래 파일을 사용할 수 있습니다.

질문 #34

한 회사가 AWS에서 다중 계층 애플리케이션을 호스팅합니다. 규정 준수, 거버넌스, 감사 및 보안을 위해 회사는 AWS 리소스에서 구성 변경 사항을 추적하고 이러한 리소스에 대한 API 호출 내역을 기록해야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. AWS CloudTrail을 사용하여 구성 변경 사항을 추적하고 AWS Config를 사용하여 API 호출을 기록합니다.
  • B. AWS Config를 사용하여 구성 변경 사항을 추적하고 AWS CloudTrail을 사용하여 API 호출을 기록합니다.
  • C. AWS Config를 사용하여 구성 변경 사항을 추적하고 Amazon CloudWatch를 사용하여 API 호출을 기록합니다.
  • D. AWS CloudTrail을 사용하여 구성 변경 사항을 추적하고 Amazon CloudWatch를 사용하여 API 호출을 기록합니다.

*CloudTrail : AWS 계정에 대한 운영 및 위험 감사, 거버넌스 및 규정 준수를 활성화하는 데 도움이 되는 AWS 서비스

*AWS Config: AWS의 리소스 구성에 대한 자세한 보기를 제공

*AWS CloudWatch: 실시간 로그, 지표 및 이벤트 데이터를 자동화된 대시보드에 수집하고 이를 시각화

질문 #35

한 회사가 AWS 클라우드에서 퍼블릭 웹 애플리케이션을 출시할 준비를 하고 있습니다. 아키텍처는 Elastic Load Balancer(ELB) 뒤의 VPC 내에 있는 Amazon EC2 인스턴스로 구성되어 있습니다. 타사 서비스는 DNS에 사용됩니다. 회사의 솔루션 아키텍트는 대규모 DDoS 공격을 탐지하고 방어하는 솔루션을 추천해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A.계정에서 Amazon GuardDuty를 활성화합니다.
  • B.EC2 인스턴스에서 Amazon Inspector를 활성화합니다.
  • C.AWS Shield를 활성화하고 Amazon Route 53을 할당합니다.
  • D.AWS Shield Advanced를 활성화하고 ELB를 할당합니다.

*AWS GuardDuty : AWS 워크로드를 보호할 수 있도록 악의적인 행동을 모니터링하는 지능형 위협 탐지 서비스

질문 #36

한 회사가 AWS 클라우드에서 애플리케이션을 구축하고 있습니다. 이 애플리케이션은 두 AWS 리전의 Amazon S3 버킷에 데이터를 저장합니다. 이 회사는 AWS Key Management Service(AWS KMS) 고객 관리 키를 사용하여 S3 버킷에 저장된 모든 데이터를 암호화해야 합니다. 두 S3 버킷의 데이터는 동일한 KMS 키로 암호화 및 복호화해야 합니다. 데이터와 키는 두 리전 각각에 저장해야 합니다.

어떤 솔루션이 운영 오버헤드를 최소화하면서 이러한 요구 사항을 충족할까요?

  • A.각 리전에서 S3 버킷을 만듭니다. Amazon S3 관리 암호화 키(SSE-S3)를 사용하여 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간 복제를 구성합니다.
  • B. 고객 관리형 다중 지역 KMS 키를 만듭니다. 각 지역에 S3 버킷을 만듭니다. S3 버킷 간 복제를 구성합니다. 클라이언트 측 암호화와 함께 KMS 키를 사용하도록 애플리케이션을 구성합니다.
  • C.각 리전에서 고객 관리 KMS 키와 S3 버킷을 만듭니다. Amazon S3 관리 암호화 키(SSE-S3)를 사용하여 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간 복제를 구성합니다.
  • D.각 리전에서 고객 관리 KMS 키와 S3 버킷을 만듭니다. AWS KMS 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간 복제를 구성합니다.

질문 #38

한 회사가 Amazon S3에 정적 웹사이트를 호스팅하고 있으며 DNS에 Amazon Route 53을 사용하고 있습니다. 이 웹사이트는 전 세계에서 수요가 증가하고 있습니다. 이 회사는 웹사이트에 액세스하는 사용자의 대기 시간을 줄여야 합니다.

어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?

  • A.웹사이트가 포함된 S3 버킷을 모든 AWS 리전에 복제합니다. Route 53 지리적 위치 라우팅 항목을 추가합니다.
  • B.AWS Global Accelerator에서 가속기를 프로비저닝합니다. 제공된 IP 주소를 S3 버킷과 연결합니다. Route 53 항목을 편집하여 가속기의 IP 주소를 가리킵니다.
  • C. S3 버킷 앞에 Amazon CloudFront 배포를 추가합니다. Route 53 항목을 편집하여 CloudFront 배포를 가리킵니다.
  • D. 버킷에서 S3 Transfer Acceleration을 활성화합니다. Route 53 항목을 편집하여 새 엔드포인트를 가리킵니다.

*AWS CloudFront : CDN(Content Delivery Network) 서비스. client의 콘텐츠 요청으로 서버에서 받아온 콘텐츠를 캐싱하고 이후 같은 요청이 왔을 때, 그 캐싱해 둔 것을 제공하는 서비스.

질문 #39

한 회사가 웹사이트에 검색 가능한 항목 저장소를 유지 관리합니다. 데이터는 1,000만 개 이상의 행이 포함된 Amazon RDS for MySQL 데이터베이스 테이블에 저장됩니다. 이 데이터베이스에는 2TB의 General purpose SSD 스토리지가 있습니다. 이 회사의 웹사이트를 통해 매일 이 데이터에 대한 수백만 건의 업데이트가 이루어집니다.

이 회사는 일부 삽입 작업에 10초 이상 걸리는 것을 알아챘습니다. 이 회사는 데이터베이스 스토리지 성능이 문제라고 판단했습니다.

이 성능 문제를 해결하는 솔루션은 무엇입니까?

  • A.스토리지 유형을 Provisioned IOPS SSD로 변경합니다.
  • B.DB 인스턴스를 메모리 최적화된 인스턴스 클래스로 변경합니다.
  • C.DB 인스턴스를 버스트 가능 성능 인스턴스 클래스로 변경합니다.
  • D.MySQL 기본 비동기 복제를 사용하여 다중 AZ RDS 읽기 복제본을 활성화합니다.

질문 #40

한 회사에는 매일 1TB의 상태 알림을 생성하는 수천 개의 에지 디바이스가 있습니다. 각 알림의 크기는 약 2KB입니다. 솔루션 아키텍트는 향후 분석을 위해 알림을 수집하고 저장하는 솔루션을 구현해야 합니다.

회사는 고가용성 솔루션을 원합니다. 그러나 회사는 비용을 최소화해야 하며 추가 인프라를 관리하고 싶지 않습니다. 또한 회사는 14일 분의 데이터를 즉시 분석할 수 있도록 보관하고 14일 이상 된 모든 데이터를 보관하려고 합니다.

이러한 요구 사항을 충족하는 가장 운영 효율적인 솔루션은 무엇입니까?

  • A.Amazon Kinesis Data Firehose 전송 스트림을 만들어 알림을 수집합니다. Kinesis Data Firehose 스트림을 구성하여 알림을 Amazon S3 버킷으로 전송합니다. S3 Lifecycle 구성을 설정하여 14일 후 Amazon S3 Glacier로 데이터를 전환합니다.
  • B.두 개의 가용성 영역에 걸쳐 Amazon EC2 인스턴스를 시작하고 이를 Elastic Load Balancer 뒤에 배치하여 알림을 수집합니다. EC2 인스턴스에서 Amazon S3 버킷에 알림을 저장하는 스크립트를 만듭니다. 14일 후 Amazon S3 Glacier로 데이터를 전환하도록 S3 Lifecycle 구성을 설정합니다.
  • C.알림을 수집하기 위한 Amazon Kinesis Data Firehose 전달 스트림을 만듭니다. 알림을 Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터로 전달하도록 Kinesis Data Firehose 스트림을 구성합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터를 설정하여 매일 수동 스냅샷을 찍고 14일이 지난 클러스터의 데이터를 삭제합니다.
  • D.알림을 수집하기 위한 Amazon Simple Queue Service(Amazon SQS) 표준 대기열을 만들고 메시지 보관 기간을 14일로 설정합니다. 소비자가 SQS 대기열을 폴링하고, 메시지의 나이를 확인하고, 필요에 따라 메시지 데이터를 분석하도록 구성합니다. 메시지가 14일 된 경우 소비자는 메시지를 Amazon S3 버킷에 복사하고 SQS 대기열에서 메시지를 삭제해야 합니다.

*Amazon Data Firehose: Amazon S3, Redshift, OpenSearch Service … 사용자 지정 HTTP 엔드포인트 등의 대상 또는 지원되는 타사 서비스 공급자가 소유한 HTTP 엔드포인트에 실시간 스트리밍 데이터를 전송하기 위한 완전 관리형 서비스 → Fully managed, serverless, near real-time, auto-scaling → ex) Amazon Kinesis: 실시간 스트리밍 데이터를 수집,처리 및 분석하여 적시에 인사이트를 확보하고 새로운 정보에 신속하게 대응

질문 #41

회사의 애플리케이션은 데이터 수집을 위해 여러 소프트웨어 즉 서비스(SaaS) 소스와 통합됩니다. 회사는 Amazon EC2 인스턴스를 실행하여 데이터를 수신하고 분석을 위해 Amazon S3 버킷에 데이터를 업로드합니다. 데이터를 수신하고 업로드하는 동일한 EC2 인스턴스는 업로드가 완료되면 사용자에게 알림을 보냅니다. 회사는 애플리케이션 성능이 느린 것을 알아차리고 가능한 한 성능을 개선하고자 합니다.

어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?

  • A. EC2 인스턴스가 확장될 수 있도록 자동 확장 그룹을 만듭니다. S3 버킷에 업로드가 완료되면 Amazon Simple Notification Service(Amazon SNS) 토픽에 이벤트를 보내도록 S3 이벤트 알림을 구성합니다.
  • B. 각 SaaS 소스와 S3 버킷 간에 데이터를 전송하기 위한 Amazon AppFlow 흐름을 만듭니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple Notification Service(Amazon SNS) 토픽에 이벤트를 보내도록 S3 이벤트 알림을 구성합니다.
  • C. 각 SaaS 소스에 대해 출력 데이터를 전송하기 위한 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 만듭니다. S3 버킷을 규칙의 대상으로 구성합니다. S3 버킷에 대한 업로드가 완료되면 이벤트를 전송하기 위한 두 번째 EventBridge(Cloud Watch Events) 규칙을 만듭니다. 두 번째 규칙의 대상으로 Amazon Simple Notification Service(Amazon SNS) 토픽을 구성합니다.
  • D. EC2 인스턴스 대신 사용할 Docker 컨테이너를 만듭니다. 컨테이너화된 애플리케이션을 Amazon Elastic Container Service(Amazon ECS)에 호스팅합니다. S3 버킷에 업로드가 완료되면 Amazon Simple Notification Service(Amazon SNS) 토픽에 이벤트를 보내도록 Amazon CloudWatch Container Insights를 구성합니다.

*Amazon AppFlow: 클릭 몇 번으로 Saas 애플리케이션과 S3/Redshift 간에 데이터를 안전하게 전송할 수 있게 해주는 통합 서비스

질문 #42

한 회사가 단일 VPC의 Amazon EC2 인스턴스에서 고가용성 이미지 처리 애플리케이션을 실행합니다. EC2 인스턴스는 여러 가용성 영역에 걸쳐 여러 서브넷 내에서 실행됩니다. EC2 인스턴스는 서로 통신하지 않습니다. 그러나 EC2 인스턴스는 Amazon S3에서 이미지를 다운로드하고 단일 NAT 게이트웨이를 통해 Amazon S3에 이미지를 업로드합니다. 이 회사는 데이터 전송 요금에 대해 우려하고 있습니다.

이 회사가 지역 데이터 전송 요금을 피하는 가장 비용 효율적인 방법은 무엇입니까?

  • A.각 가용성 영역에서 NAT 게이트웨이를 시작합니다.
  • B.NAT 게이트웨이를 NAT 인스턴스로 교체합니다.
  • C. Amazon S3에 대한 게이트웨이 VPC 엔드포인트를 배포합니다. → NAT 장치 필요없이 VPC 인스턴스와 S3 서비스 간의 통신을 허용해줌.
  • D.EC2 인스턴스를 실행하기 위해 EC2 전용 호스트를 프로비저닝합니다.

질문 #43

한 회사에는 Amazon S3에 백업되는 대량의 시간 민감한 데이터를 생성하는 온프레미스 애플리케이션이 있습니다. 애플리케이션이 커졌고 인터넷 대역폭 제한에 대한 사용자 불만이 있습니다. 솔루션 아키텍트는 Amazon S3에 대한 적시 백업과 내부 사용자의 인터넷 연결에 미치는 영향을 최소화하는 장기 솔루션을 설계해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS VPN 연결을 설정하고 모든 트래픽을 VPC 게이트웨이 엔드포인트를 통해 프록시합니다.
  • B. 새로운 AWS Direct Connect 연결을 설정하고 이 새로운 연결을 통해 백업 트래픽을 전송합니다.
  • C. 매일 AWS Snowball 장치를 주문합니다. Snowball 장치에 데이터를 로드하고 매일 장치를 AWS에 반환합니다.
  • D. AWS Management Console을 통해 지원 티켓을 제출합니다. 계정에서 S3 서비스 제한을 제거하도록 요청합니다.

*Direct Connect는 Data Center: 사무실 같은 장소에서 AWS와 전용 네트워크 연결을 제공하는 전용선 서비스

질문 #45

한 회사에는 다음으로 구성된 데이터 수집 워크플로가 있습니다.

  • 새 데이터 전송에 대한 알림을 위한 Amazon Simple Notification Service(Amazon SNS) 주제
  • 데이터를 처리하고 메타데이터를 기록하는 AWS Lambda 함수

이 회사는 네트워크 연결 문제로 인해 수집 워크플로가 가끔 실패하는 것을 관찰합니다. 이러한 실패가 발생하면 회사에서 수동으로 작업을 다시 실행하지 않는 한 Lambda 함수는 해당 데이터를 수집하지 않습니다.

솔루션 아키텍트는 Lambda 함수가 앞으로 모든 데이터를 수집하도록 하기 위해 어떤 작업 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A.여러 가용성 영역에 Lambda 함수를 배포합니다.
  • B. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성하고 이를 SNS 주제에 구독합니다.
  • C.Lambda 함수에 할당된 CPU와 메모리를 늘립니다.
  • D.Lambda 함수에 대한 프로비저닝된 처리량을 늘립니다.
  • E. Amazon Simple Queue Service(Amazon SQS) 대기열에서 읽도록 Lambda 함수를 수정합니다.

질문 #46

한 회사에 매장에 마케팅 서비스를 제공하는 애플리케이션이 있습니다. 이 서비스는 매장 고객의 이전 구매 내역을 기반으로 합니다. 매장은 SFTP를 통해 거래 데이터를 회사에 업로드하고, 이 데이터는 처리 및 분석되어 새로운 마케팅 제안을 생성합니다. 일부 파일은 크기가 200GB를 초과할 수 있습니다.

최근 이 회사는 일부 매장에서 포함되어서는 안 될 개인 식별 정보(PII)가 포함된 파일을 업로드했다는 사실을 발견했습니다. 이 회사는 PII가 다시 공유되면 관리자에게 알림을 보내고 싶어합니다. 이 회사는 또한 수정을 자동화하려고 합니다.

솔루션 아키텍트는 최소한의 개발 노력으로 이러한 요구 사항을 충족하기 위해 무엇을 해야 할까요?

  • A. Amazon S3 버킷을 보안 전송 지점으로 사용합니다. Amazon Inspector를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함된 경우 S3 Lifecycle 정책을 트리거하여 PII가 포함된 객체를 제거합니다.
  • B. Amazon S3 버킷을 보안 전송 지점으로 사용합니다. Amazon Macie를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함된 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 트리거합니다.
  • C. AWS Lambda 함수에서 사용자 지정 스캐닝 알고리즘을 구현합니다. 객체가 버킷에 로드될 때 함수를 트리거합니다. 객체에 PII가 포함된 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 트리거합니다.
  • D. AWS Lambda 함수에서 사용자 지정 스캐닝 알고리즘을 구현합니다. 객체가 버킷에 로드될 때 함수를 트리거합니다. 객체에 PII가 포함된 경우 Amazon Simple Email Service(Amazon SES)를 사용하여 관리자에게 알림을 트리거하고 S3 Lifecycle 정책을 트리거하여 PII가 포함된 고기를 제거합니다.

*Amazon Marcie: 기계학습과 패턴 일치를 사용하여 민감한 데이터를 검색하고, 데이터 보안 위험에 대한 가시성을 제공하며, 이러한 위험에 대한 자동 보호를 지원하는 데이터 보안 서비스. S3 generous bucket의 인벤토리를 제공하며 버킷을 자동으로 평가 및 모니터링

질문 #47

회사에서는 1주일 동안 지속되는 다가올 이벤트를 위해 특정 AWS 지역의 3개 특정 가용성 영역에서 보장된 Amazon EC2 용량이 필요합니다.

회사는 EC2 용량을 보장하기 위해 무엇을 해야 합니까?

  • A.필요한 지역을 지정한 예약 인스턴스를 구매합니다.
  • B.필요한 지역을 지정하는 주문형 용량 예약을 생성합니다.
  • C.지역과 필요한 세 개의 가용성 영역을 지정하는 예약 인스턴스를 구매합니다.
  • D.지역과 필요한 세 개의 가용성 영역을 지정하는 주문형 용량 예약을 생성합니다 → 예약 인스턴스는 1년, 3년 예약

질문 #49

한 회사가 월별로 통화 기록 파일을 저장합니다. 사용자는 통화 후 1년 이내에 무작위로 파일에 액세스하지만, 1년 후에는 드물게 파일에 액세스합니다. 이 회사는 사용자에게 1년 미만의 파일을 가능한 한 빨리 쿼리하고 검색할 수 있는 기능을 제공하여 솔루션을 최적화하고자 합니다. 이전 파일을 검색하는 데 지연이 있어도 괜찮습니다.

어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족할까요?

  • A. Amazon S3 Glacier Instant Retrieval에 태그가 있는 개별 파일을 저장합니다. 태그를 쿼리하여 S3 Glacier Instant Retrieval에서 파일을 검색합니다.
  • B. Amazon S3 Intelligent-Tiering에 개별 파일을 저장합니다. S3 Lifecycle 정책을 사용하여 1년 후 S3 Glacier Flexible Retrieval로 파일을 이동합니다. Amazon Athena를 사용하여 Amazon S3에 있는 파일을 쿼리하고 검색합니다. S3 Glacier Select를 사용하여 S3 Glacier에 있는 파일을 쿼리하고 검색합니다.
  • C. Amazon S3 Standard 스토리지에 태그가 있는 개별 파일을 저장합니다. 각 아카이브에 대한 검색 메타데이터를 Amazon S3 Standard 스토리지에 저장합니다. S3 Lifecycle 정책을 사용하여 1년 후 파일을 S3 Glacier Instant Retrieval로 이동합니다. Amazon S3에서 메타데이터를 검색하여 파일을 쿼리하고 검색합니다.
  • D. 개별 파일을 Amazon S3 Standard 스토리지에 저장합니다. S3 Lifecycle 정책을 사용하여 1년 후 파일을 S3 Glacier Deep Archive로 이동합니다. 검색 메타데이터를 Amazon RDS에 저장합니다. Amazon RDS에서 파일을 쿼리합니다. S3 Glacier Deep Archive에서 파일을 검색합니다.

*S3 Intelligent-Tiering 은 객체 기준으로 액세스 요청의 빈도수에 따라 알아서 객체의 티어를 S3 Standarnd, S3 Standard-IA 로 분류해준다.

질문 #50

한 회사에 1,000개의 Amazon EC2 Linux 인스턴스에서 실행되는 프로덕션 워크로드가 있습니다. 워크로드는 타사 소프트웨어로 구동됩니다. 이 회사는 중요한 보안 취약성을 해결하기 위해 가능한 한 빨리 모든 EC2 인스턴스에서 타사 소프트웨어를 패치해야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 모든 EC2 인스턴스에 패치를 적용하기 위해 AWS Lambda 함수를 생성합니다.
  • B. AWS Systems Manager Patch Manager를 구성하여 모든 EC2 인스턴스에 패치를 적용합니다. → 타사 소프트웨어 패치를 적용하도록 설계되지 않았기 때문에 적합하지 않음.
  • C. 모든 EC2 인스턴스에 패치를 적용하기 위해 AWS Systems Manager 유지 관리 기간을 예약합니다.
  • D. AWS Systems Manager Run Command를 사용하여 모든 EC2 인스턴스에 패치를 적용하는 사용자 지정 명령을 실행합니다.

*AWS Systems Manager의 Patch Manager은 보안 관련 및 기타 유형의 업데이트로 관리형 노드를 패치하는 프로세스 자동화

*AWS System Manager Run Command: EC2 인스턴스 관리 작업을 자동화하고 스크립트 실행.

질문 #51

한 회사가 REST API에서 검색할 수 있는 주문 배송 통계를 제공하는 애플리케이션을 개발하고 있습니다. 이 회사는 배송 통계를 추출하고, 데이터를 읽기 쉬운 HTML 형식으로 구성하고, 매일 아침 여러 이메일 주소로 동시에 보고서를 보내려고 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A. Amazon Kinesis Data Firehose로 데이터를 전송하도록 애플리케이션을 구성합니다.
  • B. Amazon Simple Email Service(Amazon SES)를 사용하여 데이터를 형식화하고 이메일로 보고서를 보냅니다.
  • C. AWS Glue 작업을 호출하여 애플리케이션의 API에 데이터를 쿼리하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다.
  • D. AWS Lambda 함수를 호출하여 애플리케이션의 API에 데이터를 쿼리하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다.
  • E. Amazon S3에 애플리케이션 데이터를 저장합니다. Amazon Simple Notification Service(Amazon SNS) 토픽을 S3 이벤트 대상으로 생성하여 이메일로 보고서를 보냅니다.

*Amazon Simple Email Service(SES): 이메일 주소와 도메인을 사용하여 이메일을 쉽고 비용 효율적으로 보내고 받을 수 있는 이메일 플랫폼 (이메일에 특화되어있음 ↔ SNS(다양한 프로토콜 지원함))

*Amazon EventBridge(Amazon CloudWatch Events): 이벤트를 사용하여 애플리케이션 구성 요소를 서로 연결하는 서버리스 서비스

*AWS Glue: 분석 사용자가 여러 소스의 데이터를 쉽게 검색, 준비, 이동, 통합할 수 있도록 하는 서버리스 데이터 통합 서비스.

질문 #54

한 회사가 AWS에서 여러 Windows 워크로드를 실행합니다. 이 회사의 직원은 두 개의 Amazon EC2 인스턴스에 호스팅된 Windows 파일 공유를 사용합니다. 이 파일 공유는 서로 간에 데이터를 동기화하고 중복된 사본을 유지합니다. 이 회사는 사용자가 현재 파일에 액세스하는 방식을 보존하는 고가용성 및 내구성 있는 스토리지 솔루션을 원합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 모든 데이터를 Amazon S3로 마이그레이션합니다. 사용자가 파일에 액세스할 수 있도록 IAM 인증을 설정합니다.
  • B. Amazon S3 파일 게이트웨이를 설정합니다. 기존 EC2 인스턴스에 S3 파일 게이트웨이를 마운트합니다.
  • C. Multi-AZ 구성을 사용하여 Amazon FSx for Windows File Server로 파일 공유 환경을 확장합니다. 모든 데이터를 FSx for Windows File Server로 마이그레이션합니다.
  • D. Multi-AZ 구성을 사용하여 파일 공유 환경을 Amazon Elastic File System(Amazon EFS)으로 확장합니다. 모든 데이터를 Amazon EFS로 마이그레이션합니다.

*Amazon FSx for Windows File Server: Windows 파일 시스템이 지원하는 완전 관리형 파일 서버를 제공

질문 #56

한 회사가 Amazon Route 53에 도메인 이름을 등록했습니다. 이 회사는 ca-central-1 지역의 Amazon API Gateway를 백엔드 마이크로서비스 API의 퍼블릭 인터페이스로 사용합니다. 타사 서비스는 API를 안전하게 사용합니다. 이 회사는 타사 서비스가 HTTPS를 사용할 수 있도록 회사의 도메인 이름과 해당 인증서로 API Gateway URL을 설계하려고 합니다. 어떤

솔루션이 이러한 요구 사항을 충족할까요?

  • A. API Gateway에서 Name="Endpoint-URL" 및 Value="Company Domain Name"으로 스테이지 변수를 생성하여 기본 URL을 덮어씁니다. 회사 도메인 이름과 연결된 공개 인증서를 AWS Certificate Manager(ACM)로 가져옵니다.
  • B. 회사 도메인 이름으로 Route 53 DNS 레코드를 만듭니다. 별칭 레코드를 Regional API Gateway 단계 엔드포인트로 지정합니다. 회사 도메인 이름과 연결된 공개 인증서를 us-east-1 지역의 AWS Certificate Manager(ACM)로 가져옵니다.
  • C. 지역 API Gateway 엔드포인트를 만듭니다. API Gateway 엔드포인트를 회사의 도메인 이름과 연결합니다. 회사의 도메인 이름과 연결된 공개 인증서를 동일한 지역의 AWS Certificate Manager(ACM)로 가져옵니다. 인증서를 API Gateway 엔드포인트에 연결합니다. Route 53을 구성하여 트래픽을 API Gateway 엔드포인트로 라우팅합니다.
  • D. 지역 API Gateway 엔드포인트를 만듭니다. API Gateway 엔드포인트를 회사의 도메인 이름과 연결합니다. 회사 도메인 이름과 연결된 공개 인증서를 us-east-1 지역의 AWS Certificate Manager(ACM)로 가져옵니다. 인증서를 API Gateway API에 연결합니다. 회사 도메인 이름으로 Route 53 DNS 레코드를 만듭니다. A 레코드를 회사 도메인 이름으로 가리킵니다.

이러한 요구 사항을 충족하는 올바른 솔루션은 옵션 C입니다. 회사의 도메인 이름과 해당 인증서로 API Gateway URL을 설계하려면 회사에서 다음을 수행해야 합니다. 1. 지역 API Gateway 엔드포인트 만들기: 이렇게 하면 회사에서 특정 지역에 맞는 엔드포인트를 만들 수 있습니다. 2. API Gateway 엔드포인트를 회사의 도메인 이름과 연결합니다. 이렇게 하면 회사에서 API Gateway URL에 자체 도메인 이름을 사용할 수 있습니다. 3. 회사의 도메인 이름과 연결된 공개 인증서를 동일한 지역의 AWS Certificate Manager(ACM)로 가져옵니다. 이렇게 하면 회사에서 API와의 보안 통신에 HTTPS를 사용할 수 있습니다. 4. 인증서를 API Gateway 엔드포인트에 연결합니다. 이렇게 하면 회사에서 인증서를 사용하여 API Gateway URL을 보호할 수 있습니다. 5. Route 53을 구성하여 트래픽을 API Gateway 엔드포인트로 라우팅합니다. 이렇게 하면 회사에서 Route 53을 사용하여 회사의 도메인 이름을 사용하여 트래픽을 API Gateway URL로 라우팅할 수 있습니다.

질문 #57

한 회사가 인기 있는 소셜 미디어 웹사이트를 운영하고 있습니다. 이 웹사이트는 사용자에게 이미지를 업로드하여 다른 사용자와 공유할 수 있는 기능을 제공합니다. 이 회사는 이미지에 부적절한 콘텐츠가 포함되지 않도록 하려고 합니다. 이 회사는 개발 노력을 최소화하는 솔루션이 필요합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 할까요?

  • A. Amazon Comprehend를 사용하여 부적절한 콘텐츠를 감지합니다. 신뢰도가 낮은 예측에는 인간 검토를 사용합니다.
  • B. Amazon Rekognition을 사용하여 부적절한 콘텐츠를 감지합니다. 신뢰도가 낮은 예측에는 인간 검토를 사용합니다.
  • C. Amazon SageMaker를 사용하여 부적절한 콘텐츠를 감지합니다. Ground Truth를 사용하여 신뢰도가 낮은 예측에 레이블을 지정합니다.
  • D. AWS Fargate를 사용하여 부적절한 콘텐츠를 감지하는 맞춤형 머신 러닝 모델을 배포합니다. Ground Truth를 사용하여 신뢰도가 낮은 예측에 레이블을 지정합니다.

*Amazon Rekognition: 이미지 인식 및 비디오 분석 자동화

*Amazon Comprehend: 문서 내의 비정형 데이터 및 텍스트에서 정보를 파악하는 자연어 처리 서비스

*Amazon SageMaker: 데이터 빠르게 빌드, 훈련 및 프로덕션 지원 호스팅 환경에 배포 가능

*AWS Fargate: 컨테이너에 적합한 서버리스 컴퓨팅 엔진

질문 #58

어떤 회사는 확장성과 가용성에 대한 요구 사항을 충족하기 위해 컨테이너에서 중요한 애플리케이션을 실행하고자 합니다. 이 회사는 중요한 애플리케이션의 유지 관리에 집중하는 것을 선호합니다. 이 회사는 컨테이너화된 워크로드를 실행하는 기본 인프라를 프로비저닝하고 관리하는 책임을 지고 싶어하지 않습니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 할까요?

  • A. Amazon EC2 인스턴스를 사용하고 인스턴스에 Docker를 설치합니다.
  • B. Amazon EC2 워커 노드에서 Amazon Elastic Container Service(Amazon ECS)를 사용합니다.
  • C. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용합니다.
  • D. Amazon Elastic Container Service(Amazon ECS)에 최적화된 Amazon Machine Image(AMI)에서 Amazon EC2 인스턴스를 사용합니다.

질문 #59

한 회사가 300개가 넘는 글로벌 웹사이트와 애플리케이션을 호스팅합니다. 이 회사는 매일 30TB가 넘는 클릭스트림 데이터를 분석할 플랫폼이 필요합니다.

솔루션 아키텍트는 클릭스트림 데이터를 전송하고 처리하기 위해 무엇을 해야 합니까?

  • A. AWS 데이터 파이프라인을 설계하여 데이터를 Amazon S3 버킷에 보관하고 해당 데이터로 Amazon EMR 클러스터를 실행하여 분석을 생성합니다.
  • B. Amazon EC2 인스턴스의 자동 확장 그룹을 생성하여 데이터를 처리하고 이를 Amazon Redshift에서 분석에 사용할 수 있도록 Amazon S3 데이터 레이크로 전송합니다.
  • C. Amazon CloudFront에 데이터를 캐시합니다. Amazon S3 버킷에 데이터를 저장합니다. S3 버킷에 객체가 추가되면 AWS Lambda 함수를 실행하여 분석을 위해 데이터를 처리합니다.
  • D. Amazon Kinesis Data Streams에서 데이터를 수집합니다. Amazon Kinesis Data Firehose를 사용하여 데이터를 Amazon S3 데이터 레이크로 전송합니다. 분석을 위해 Amazon Redshift에 데이터를 로드합니다.

*Amazon Redshift: SQL과 기존 비즈니스 인텔리전스 도구를 사용하여 데이터를 빠르고 효율적으로 분석할 수 있는 완전 관리형 페타바이트 규모의 데이터웨어하우스 서비스

*Amazon Kinesis Data Firehose: 스트리밍 데이터를 데이터 저장소와 분석 도구에 로드하는 완전 관리형 서비스

질문 #60

한 회사에 AWS에 호스팅된 웹사이트가 있습니다. 이 웹사이트는 HTTP와 HTTPS를 별도로 처리하도록 구성된 Application Load Balancer(ALB) 뒤에 있습니다. 이 회사는 모든 요청을 웹사이트로 전달하여 요청이 HTTPS를 사용하도록 하려고 합니다.

이 요구 사항을 충족하기 위해 솔루션 아키텍트는 무엇을 해야 할까요?

  • A. HTTPS 트래픽만 허용하도록 ALB의 네트워크 ACL을 업데이트합니다.
  • B. URL의 HTTP를 HTTPS로 바꾸는 규칙을 만듭니다.
  • C. ALB에서 리스너 규칙을 생성하여 HTTP 트래픽을 HTTPS로 리디렉션합니다.
  • D. ALB를 SNI(서버 이름 표시)를 사용하도록 구성된 네트워크 로드 밸런서로 교체합니다.

질문 #61

한 회사가 AWS에서 2계층 웹 애플리케이션을 개발하고 있습니다. 이 회사의 개발자는 백엔드 Amazon RDS 데이터베이스에 직접 연결되는 Amazon EC2 인스턴스에 애플리케이션을 배포했습니다. 이 회사는 애플리케이션에 데이터베이스 자격 증명을 하드코딩해서는 안 됩니다. 또한 이 회사는 정기적으로 데이터베이스 자격 증명을 자동으로 순환하는 솔루션을 구현해야 합니다.

어떤 솔루션이 이러한 요구 사항을 가장 적은 운영 오버헤드로 충족할까요?

  • A.인스턴스 메타데이터에 데이터베이스 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 사용하여 RDS 자격 증명과 인스턴스 메타데이터를 동시에 업데이트하는 예약된 AWS Lambda 함수를 실행합니다.
  • B.암호화된 Amazon S3 버킷의 구성 파일에 데이터베이스 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 사용하여 RDS 자격 증명과 구성 파일의 자격 증명을 동시에 업데이트하는 예약된 AWS Lambda 함수를 실행합니다. S3 버전 관리를 사용하여 이전 값으로 폴백할 수 있는 기능을 보장합니다.
  • C. AWS Secrets Manager에서 데이터베이스 자격 증명을 비밀로 저장합니다. 비밀에 대한 자동 로테이션을 켭니다. EC2 역할에 필요한 권한을 연결하여 비밀에 대한 액세스 권한을 부여합니다.
  • D. AWS Systems Manager Parameter Store에 암호화된 매개변수로 데이터베이스 자격 증명을 저장합니다. 암호화된 매개변수에 대한 자동 회전을 켭니다. 암호화된 매개변수에 대한 액세스 권한을 부여하기 위해 EC2 역할에 필요한 권한을 연결합니다.

*AWS Secret Manager: 비밀관리 서비스로 자체 인프라 운영에 대한 선행 투자 및 지속적인 유지 관리 비용없이 애플리케이션, 서비스 및 IT 리소스에 대한 액세스를 보호할 수 있다. 데이터베이스 자격증명, 온프레미스 리소스 자격증명, SSH키와 같은 정보관리하고 보호하는데 도움이 된다.

질문 #62

한 회사가 AWS에 새로운 퍼블릭 웹 애플리케이션을 배포하고 있습니다. 애플리케이션은 애플리케이션 로드 밸런서(ALB) 뒤에서 실행됩니다. 애플리케이션은 외부 인증 기관(CA)에서 발급한 SSL/TLS 인증서로 에지에서 암호화되어야 합니다. 인증서는 만료되기 전에 매년 순환해야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. AWS Certificate Manager(ACM)를 사용하여 SSL/TLS 인증서를 발급합니다. 인증서를 ALB에 적용합니다. 관리형 갱신 기능을 사용하여 인증서를 자동으로 회전합니다.
  • B. AWS Certificate Manager(ACM)를 사용하여 SSL/TLS 인증서를 발급합니다. 인증서에서 키 자료를 가져옵니다. 인증서를 AL에 적용합니다. 관리형 갱신 기능을 사용하여 인증서를 자동으로 회전합니다.
  • C. AWS Certificate Manager(ACM) Private Certificate Authority를 사용하여 루트 CA에서 SSL/TLS 인증서를 발급합니다. 인증서를 ALB에 적용합니다. 관리형 갱신 기능을 사용하여 인증서를 자동으로 회전합니다.
  • D. AWS Certificate Manager(ACM)를 사용하여 SSL/TLS 인증서를 가져옵니다. 인증서를 ALB에 적용합니다. Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 인증서 만료가 임박하면 알림을 보냅니다. 인증서를 수동으로 회전합니다. → 타사 인증서는 자동으로 갱신 못함. 수동으로 모니터링해서 관리해야함

질문 #63주제 1

어떤 회사가 AWS에서 인프라를 운영하고 있으며 문서 관리 애플리케이션에 등록된 사용자 수가 700,000명입니다. 이 회사는 대용량 .pdf 파일을 .jpg 이미지 파일로 변환하는 제품을 만들려고 합니다. .pdf 파일의 평균 크기는 5MB입니다. 이 회사는 원본 파일과 변환된 파일을 저장해야 합니다. 솔루션 아키텍트는 시간이 지남에 따라 빠르게 증가할 수요를 수용할 수 있는 확장 가능한 솔루션을 설계해야 합니다.

어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?

  • A .pdf 파일을 Amazon S3에 저장합니다. AWS Lambda 함수를 호출하여 파일을 .jpg 형식으로 변환하고 다시 Amazon S3에 저장하도록 S3 PUT 이벤트를 구성합니다. → 제일 싼 방법
  • B. .pdf 파일을 Amazon DynamoD에 저장합니다. DynamoDB Streams 기능을 사용하여 AWS Lambda 함수를 호출하여 파일을 .jpg 형식으로 변환하고 다시 DynamoDB에 저장합니다.
  • C. Amazon EC2 인스턴스, Amazon Elastic Block Store(Amazon EBS) 스토리지, Auto Scaling 그룹이 포함된 AWS Elastic Beanstalk 애플리케이션에 .pdf 파일을 업로드합니다. EC2 인스턴스의 프로그램을 사용하여 파일을 .jpg 형식으로 변환합니다. EBS 스토어에 .pdf 파일과 .jpg 파일을 저장합니다.
  • D. Amazon EC2 인스턴스, Amazon Elastic File System(Amazon EFS) 스토리지, Auto Scaling 그룹이 포함된 AWS Elastic Beanstalk 애플리케이션에 .pdf 파일을 업로드합니다. EC2 인스턴스의 프로그램을 사용하여 파일을 .jpg 형식으로 변환합니다. EBS 스토어에 .pdf 파일과 .jpg 파일을 저장합니다

질문 #64주제 1

한 회사가 온프레미스에서 실행되는 Windows 파일 서버에 5TB가 넘는 파일 데이터를 보유하고 있습니다. 사용자와 애플리케이션은 매일 데이터와 상호 작용합니다.

이 회사는 Windows 워크로드를 AWS로 이전하고 있습니다. 이 회사가 이 프로세스를 계속 진행함에 따라 회사는 최소한의 지연 시간으로 AWS와 온프레미스 파일 스토리지에 액세스할 수 있어야 합니다. 이 회사는 운영 오버헤드를 최소화하고 기존 파일 액세스 패턴을 크게 변경할 필요가 없는 솔루션이 필요합니다. 이 회사는 AWS에 연결하기 위해 AWS 사이트 간 VPN 연결을 사용합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A.AWS에서 Amazon FSx for Windows File Server를 배포하고 구성합니다. 온프레미스 파일 데이터를 FSx for Windows File Server로 이동합니다. AWS에서 FSx for Windows File Server를 사용하도록 워크로드를 재구성합니다.
  • B.Amazon S3 파일 게이트웨이를 온프레미스에 배포하고 구성합니다. 온프레미스 파일 데이터를 S3 파일 게이트웨이로 이동합니다. 온프레미스 워크로드와 클라우드 워크로드를 재구성하여 S3 파일 게이트웨이를 사용합니다.
  • C.온프레미스에서 Amazon S3 파일 게이트웨이를 배포하고 구성합니다. 온프레미스 파일 데이터를 Amazon S3로 이동합니다. 각 워크로드의 위치에 따라 Amazon S3를 직접 사용하거나 S3 파일 게이트웨이를 사용하도록 워크로드를 재구성합니다.
  • D. AWS에서 Amazon FSx for Windows File Server를 배포하고 구성합니다. 온프레미스에서 Amazon FSx File Gateway를 배포하고 구성합니다. 온프레미스 파일 데이터를 FSx File Gateway로 이동합니다. AWS에서 FSx for Windows File Server를 사용하도록 클라우드 워크로드를 구성합니다. FSx File Gateway를 사용하도록 온프레미스 워크로드를 구성합니다.

질문 #66주제 1

한 회사에는 각각 약 5MB 크기의 많은 파일을 생성하는 애플리케이션이 있습니다. 이 파일은 Amazon S3에 저장됩니다. 회사 정책에 따라 파일을 삭제하기 전에 4년 동안 보관해야 합니다. 파일에는 쉽게 재생산할 수 없는 중요한 비즈니스 데이터가 포함되어 있으므로 항상 즉각적인 접근성이 필요합니다. 이 파일은 객체 생성 후 처음 30일 동안 자주 액세스되지만 처음 30일 이후에는 거의 액세스되지 않습니다.

어떤 스토리지 솔루션이 가장 비용 효율적일까요?

  • A.S3 Standard에서 S3 Glacier로 파일을 이동하는 S3 버킷 수명 주기 정책을 객체 생성 후 30일 후에 만듭니다. 객체 생성 후 4년 후에 파일을 삭제합니다.
  • B.S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 객체 생성 후 30일 동안 만듭니다. 객체 생성 후 4년 후에 파일을 삭제합니다.
  • C. S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 객체 생성 후 30일 동안 만듭니다. 객체 생성 후 4년 후에 파일을 삭제합니다.
  • D.S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 파일을 객체 생성 후 30일 후에 이동하는 S3 버킷 수명 주기 정책을 만듭니다. 객체 생성 후 4년 후에 파일을 S3 Glacier로 이동합니다.

질문 #67주제 1

한 회사가 여러 Amazon EC2 인스턴스에서 애플리케이션을 호스팅합니다. 애플리케이션은 Amazon SQS 대기열에서 메시지를 처리하고 Amazon RDS 테이블에 쓰고 대기열에서 메시지를 삭제합니다. 가끔 RDS 테이블에서 중복 레코드가 발견됩니다. SQS 대기열에는 중복 메시지가 없습니다.

솔루션 아키텍트는 메시지가 한 번만 처리되도록 하기 위해 무엇을 해야 합니까?

  • A.CreateQueue API 호출을 사용하여 새 대기열을 만듭니다.
  • B.AddPermission API 호출을 사용하여 적절한 권한을 추가합니다.
  • C.ReceiveMessage API 호출을 사용하여 적절한 대기 시간을 설정합니다.
  • D.ChangeMessageVisibility API 호출을 사용하여 가시성 시간 초과를 늘립니다.

질문 #68주제 1

솔루션 아키텍트가 회사의 온프레미스 인프라를 AWS로 확장하기 위해 새로운 하이브리드 아키텍처를 설계하고 있습니다. 이 회사는 AWS 리전에 대한 일관된 낮은 지연 시간을 가진 고가용성 연결이 필요합니다. 이 회사는 비용을 최소화해야 하며 기본 연결이 실패할 경우 더 느린 트래픽을 허용할 의향이 있습니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 리전에 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 백업으로 VPN 연결을 프로비저닝합니다.
  • B.
  • 개인 연결을 위해 리전에 VPN 터널 연결을 프로비저닝합니다. 개인 연결을 위해 두 번째 VPN 터널을 프로비저닝하고 기본 VPN 연결이 실패할 경우 백업으로 사용합니다.
  • C.
  • 리전에 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 백업으로 동일한 리전에 두 번째 Direct Connect 연결을 프로비저닝합니다.
  • D.
  • 리전에 AWS Direct Connect 연결을 프로비저닝합니다. AWS CLI에서 Direct Connect 장애 조치 속성을 사용하여 기본 Direct Connect 연결이 실패할 경우 자동으로 백업 연결을 만듭니다.

질문 #69주제 1

한 회사가 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 비즈니스에 중요한 웹 애플리케이션을 실행하고 있습니다. EC2 인스턴스는 Auto Scaling 그룹에 있습니다. 이 애플리케이션은 단일 가용성 영역에 배포된 Amazon Aurora PostgreSQL 데이터베이스를 사용합니다. 이 회사는 애플리케이션이 최소한의 다운타임과 최소한의 데이터 손실로 고가용성을 유지하기를 원합니다.

어떤 솔루션이 최소한의 운영 노력으로 이러한 요구 사항을 충족할까요?

  • A.EC2 인스턴스를 다른 AWS 지역에 배치합니다. Amazon Route 53 상태 확인을 사용하여 트래픽을 리디렉션합니다. Aurora PostgreSQL Cross-Region Replication을 사용합니다.
  • B. Auto Scaling 그룹을 구성하여 여러 가용성 영역을 사용합니다. 데이터베이스를 Multi-AZ로 구성합니다. 데이터베이스에 대한 Amazon RDS 프록시 인스턴스를 구성합니다.
  • C.하나의 가용성 영역을 사용하도록 자동 확장 그룹을 구성합니다. 데이터베이스의 매시간 스냅샷을 생성합니다. 장애 발생 시 스냅샷에서 데이터베이스를 복구합니다.
  • D.여러 AWS 리전을 사용하도록 자동 확장 그룹을 구성합니다. 애플리케이션의 데이터를 Amazon S3에 씁니다. S3 이벤트 알림을 사용하여 AWS Lambda 함수를 시작하여 데이터를 데이터베이스에 씁니다.

*Amazon RDF 프록시: 예기치 않은 데이터베이스 트래픽 급증을 처리할 수 있다.

질문 #70주제 1

회사의 HTTP 애플리케이션은 네트워크 로드 밸런서(NLB) 뒤에 있습니다. NLB의 대상 그룹은 웹 서비스를 실행하는 여러 EC2 인스턴스가 있는 Amazon EC2 자동 확장 그룹을 사용하도록 구성되어 있습니다.

회사는 NLB가 애플리케이션에 대한 HTTP 오류를 감지하지 못한다는 것을 알아차렸습니다. 이러한 오류는 웹 서비스를 실행하는 EC2 인스턴스를 수동으로 다시 시작해야 합니다. 회사는 사용자 지정 스크립트나 코드를 작성하지 않고도 애플리케이션의 가용성을 개선해야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 회사 애플리케이션의 URL을 제공하여 NLB에서 HTTP 상태 검사를 활성화합니다.
  • B. EC2 인스턴스에 cron 작업을 추가하여 1분마다 로컬 애플리케이션의 로그를 확인합니다. HTTP 오류가 감지되면 애플리케이션이 다시 시작됩니다.
  • C. NLB를 애플리케이션 로드 밸런서(ALB)로 교체합니다. 회사 애플리케이션의 URL을 제공하여 HTTP 상태 검사를 활성화합니다. 자동 확장 작업을 구성하여 건강하지 않은 인스턴스를 교체합니다. → NLB는 layer4에서 작동하므로 HTTP/HTTPS 를 지원하지 않기때문에 ALB를 대체해야함.
  • D. NLB에 대한 UnhealthyHostCount 메트릭을 모니터링하는 Amazon Cloud Watch 알람을 만듭니다. 알람이 ALARM 상태일 때 비정상 인스턴스를 대체하기 위한 자동 확장 작업을 구성합니다.

질문 #71주제 1

한 회사가 Amazon DynamoDB를 사용하여 고객 정보를 저장하는 쇼핑 애플리케이션을 운영합니다. 데이터 손상의 경우 솔루션 아키텍트는 15분의 복구 지점 목표(RPO)와 1시간의 복구 시간 목표(RTO)를 충족하는 솔루션을 설계해야 합니다. 솔루션

아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?

  • A.DynamoDB 글로벌 테이블을 구성합니다. RPO 복구의 경우 애플리케이션을 다른 AWS 리전으로 지정합니다.
  • B.DynamoDB 시점 복구를 구성합니다. RPO 복구의 경우 원하는 시점으로 복원합니다.
  • C.DynamoDB 데이터를 매일 Amazon S3 Glacier로 내보냅니다. RPO 복구의 경우 S3 Glacier에서 DynamoDB로 데이터를 가져옵니다.
  • D.DynamoDB 테이블에 대한 Amazon Elastic Block Store(Amazon EBS) 스냅샷을 15분마다 예약합니다. RPO 복구의 경우 EBS 스냅샷을 사용하여 DynamoDB 테이블을 복원합니다.

*RPO는 사건 발생 시간으로 부터 사건에 대비한 준비 시간을 의미하고, RTO는 사건이 일어난 직후 그 사건을 해결하는 데 걸리는 시간을 의미.

*RPO 및 RTO 요구사항을 충족하는 가장 좋은 솔루션은 DynamoDB 지정 복구(PITR)을 사용하는 것.

질문 #72주제 1

한 회사가 동일한 AWS 지역에 있는 Amazon S3 버킷에서 사진을 자주 업로드하고 다운로드해야 하는 사진 처리 애플리케이션을 실행합니다. 솔루션 아키텍트는 데이터 전송 요금이 증가한 것을 알아차리고 이러한 비용을 줄이기 위한 솔루션을 구현해야 합니다.

솔루션 아키텍트는 어떻게 이 요구 사항을 충족할 수 있을까요?

  • A.Amazon API Gateway를 퍼블릭 서브넷에 배포하고 라우팅 테이블을 조정하여 S3 호출을 이를 통해 라우팅합니다.
  • B.공용 서브넷에 NAT 게이트웨이를 배포하고 S3 버킷에 액세스할 수 있는 엔드포인트 정책을 연결합니다.
  • C.애플리케이션을 퍼블릭 서브넷에 배포하고 인터넷 게이트웨이를 통해 라우팅하여 S3 버킷에 액세스할 수 있도록 허용합니다.
  • D. S3 VPC 게이트웨이 엔드포인트를 VPC에 배포하고 S3 버킷에 대한 액세스를 허용하는 엔드포인트 정책을 연결합니다. → VPC 내의 개인 네트워크 연결을 통해 S3 버킷에 액세스할 수 있으므로 인터넷을 통한 데이터 전송이 필요없음. 비용 절감.

질문 #73주제 1

한 회사가 최근 개인 서브넷의 Amazon EC2에서 Linux 기반 애플리케이션 인스턴스를 출시하고 VPC의 공개 서브넷의 Amazon EC2 인스턴스에서 Linux 기반 베스천 호스트를 출시했습니다. 솔루션 아키텍트는 온프레미스 네트워크에서 회사의 인터넷 연결을 통해 베스천 호스트와 애플리케이션 서버에 연결해야 합니다. 솔루션 아키텍트는 모든 EC2 인스턴스의 보안 그룹이 해당 액세스를 허용하는지 확인해야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A. 요새 호스트의 현재 보안 그룹을 애플리케이션 인스턴스에서만 인바운드 액세스를 허용하는 보안 그룹으로 바꿉니다.
  • B. 요새 호스트의 현재 보안 그룹을 회사의 내부 IP 범위에서만 인바운드 액세스를 허용하는 보안 그룹으로 교체합니다.
  • C. 요새 호스트의 현재 보안 그룹을 회사의 외부 IP 범위에서만 인바운드 액세스를 허용하는 보안 그룹으로 교체합니다.
  • D. 애플리케이션 인스턴스의 현재 보안 그룹을 요새 호스트의 개인 IP 주소에서만 인바운드 SSH 액세스를 허용하는 보안 그룹으로 바꿉니다.
  • E. 애플리케이션 인스턴스의 현재 보안 그룹을 배스천 호스트의 공용 IP 주소에서만 인바운드 SSH 액세스를 허용하는 보안 그룹으로 바꿉니다.

*온프레미스 -----> 베스천 호스트(인터넷을 사용하므로 회사의 외부 IP가 필요합니다.) 베스천 호스트 -----> 개인 서브넷(동일한 AWS 네트워크에 있으므로 개인 IP를 사용합니다.)

*Bastion Host: 사용에게 제공되는 컴퓨팅 리소스를 보호하기 위한 Host, 사설 IP 대역에 위치한 리소스를 외부에서 접속하고자 할 경우, Bastion Host를 경유하여 리소스에 접근하도록 설계됨.

질문 #74주제 1

솔루션 아키텍트가 2계층 웹 애플리케이션을 설계하고 있습니다. 이 애플리케이션은 퍼블릭 서브넷의 Amazon EC2에서 호스팅되는 퍼블릭 웹 계층으로 구성되어 있습니다. 데이터베이스 계층은 프라이빗 서브넷의 Amazon EC2에서 실행되는 Microsoft SQL Server로 구성되어 있습니다. 보안은 회사의 최우선 과제입니다.

이 상황에서 보안 그룹은 어떻게 구성해야 합니까? (두 가지를 선택하세요.)

  • A. 웹 계층의 보안 그룹을 구성하여 0.0.0.0/0에서 포트 443으로 들어오는 트래픽을 허용합니다.
  • B.웹 계층의 보안 그룹을 구성하여 0.0.0.0/0에서 포트 443으로 아웃바운드 트래픽을 허용합니다.
  • C. 웹 계층의 보안 그룹에서 포트 1433으로 들어오는 트래픽을 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.
  • D.웹 계층의 보안 그룹으로의 포트 443 및 1433에서 아웃바운드 트래픽을 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.
  • E.웹 계층의 보안 그룹에서 포트 443 및 1433으로 인바운드 트래픽을 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.

질문 #75주제 1

한 회사가 온프레미스에서 AWS 클라우드로 다중 계층 애플리케이션을 이전하여 애플리케이션의 성능을 개선하고자 합니다. 애플리케이션은 RESTful 서비스를 통해 서로 통신하는 애플리케이션 계층으로 구성되어 있습니다. 한 계층이 과부하되면 트랜잭션이 삭제됩니다. 솔루션 아키텍트는 이러한 문제를 해결하고 애플리케이션을 현대화하는 솔루션을 설계해야 합니다.

이러한 요구 사항을 충족하고 가장 운영 효율적인 솔루션은 무엇입니까?

  • A. Amazon API Gateway를 사용하고 AWS Lambda 함수에 대한 직접 거래를 애플리케이션 계층으로 사용합니다. Amazon Simple Queue Service(Amazon SQS)를 애플리케이션 서비스 간의 통신 계층으로 사용합니다.
  • B. Amazon CloudWatch 메트릭을 사용하여 애플리케이션 성능 기록을 분석하여 성능 실패 중 서버의 최대 사용률을 확인합니다. 최대 요구 사항을 충족하도록 애플리케이션 서버의 Amazon EC2 인스턴스 크기를 늘립니다.
  • C. Amazon Simple Notification Service(Amazon SNS)를 사용하여 Auto Scaling 그룹의 Amazon EC2에서 실행되는 애플리케이션 서버 간의 메시징을 처리합니다. Amazon CloudWatch를 사용하여 SNS 대기열 길이를 모니터링하고 필요에 따라 확장 및 축소합니다.
  • D. Amazon Simple Queue Service(Amazon SQS)를 사용하여 Auto Scaling 그룹에서 Amazon EC2에서 실행되는 애플리케이션 서버 간의 메시징을 처리합니다. Amazon CloudWatch를 사용하여 SQS 대기열 길이를 모니터링하고 통신 오류가 감지되면 확장합니다

*API Gateway + Lambda + SQS → 서버리스 + 자동확장

질문 #76주제 1

한 회사는 단일 공장에 있는 여러 기계에서 매일 10TB의 계측 데이터를 수신합니다. 이 데이터는 공장 내에 있는 온프레미스 데이터 센터의 SAN(스토리지 영역 네트워크)에 저장된 JSON 파일로 구성됩니다. 이 회사는 이 데이터를 Amazon S3로 보내서 중요한 거의 실시간 분석을 제공하는 여러 추가 시스템에서 액세스할 수 있도록 하려고 합니다. 데이터가 민감한 것으로 간주되므로 안전한 전송이 중요합니다.

가장 안정적인 데이터 전송을 제공하는 솔루션은 무엇입니까?

  • A. 공개 인터넷을 통한 AWS DataSync
  • B. AWS Direct Connect를 통한 AWS DataSync
  • C. 공용 인터넷을 통한 AWS Database Migration Service(AWS DMS)
  • D. AWS Direct Connect를 통한 AWS Database Migration Service(AWS DMS)

*AWS DataSync : 에이전트를 통해 온프레미스 혹은 AWS 클라우드의 스토리지 서버에서 또 다른 스토리지 서비스로 데이터 동기화하는 서비스

*AWS Database Migration Service(AWS DMS)는 주로 데이터베이스 마이그레이션 및 복제에 중점을 두고 있음.

질문 #77주제 1

회사는 애플리케이션을 위한 실시간 데이터 수집 아키텍처를 구성해야 합니다. 회사에는 API, 데이터가 스트리밍될 때 데이터를 변환하는 프로세스, 그리고 데이터를 위한 스토리지 솔루션이 필요합니다.

어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?

  • A. Amazon Kinesis 데이터 스트림으로 데이터를 전송하는 API를 호스팅하기 위해 Amazon EC2 인스턴스를 배포합니다. Kinesis 데이터 스트림을 데이터 소스로 사용하는 Amazon Kinesis Data Firehose 전송 스트림을 만듭니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. Kinesis Data Firehose 전송 스트림을 사용하여 데이터를 Amazon S3로 전송합니다.
  • B. AWS Glue로 데이터를 전송하는 API를 호스팅하기 위해 Amazon EC2 인스턴스를 배포합니다. EC2 인스턴스에서 소스/대상 확인을 중지합니다. AWS Glue를 사용하여 데이터를 변환하고 Amazon S3로 전송합니다.
  • C. Amazon API Gateway API를 구성하여 Amazon Kinesis 데이터 스트림으로 데이터를 전송합니다. Kinesis 데이터 스트림을 데이터 소스로 사용하는 Amazon Kinesis Data Firehose 전송 스트림을 만듭니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. Kinesis Data Firehose 전송 스트림을 사용하여 데이터를 Amazon S3로 전송합니다.
  • D. Amazon API Gateway API를 구성하여 AWS Glue로 데이터를 전송합니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. AWS Glue를 사용하여 데이터를 Amazon S3로 전송합니다.

*AWS Glue: 사용자가 여러 소스의 데이터를 쉽게 검색, 준비, 이동, 통합할 수 있도록 하는 서버리스 데이터 통합 서비스

질문 #78주제 1

어떤 회사는 사용자 거래 데이터를 Amazon DynamoDB 테이블에 보관해야 합니다. 회사는 7년 동안 데이터를 보관해야 합니다.

이러한 요구 사항을 충족하는 가장 운영 효율적인 솔루션은 무엇입니까?

  • A. DynamoDB 지정 시간 복구를 사용하여 테이블을 지속적으로 백업합니다.
  • B. AWS Backup을 사용하여 테이블에 대한 백업 일정과 보존 정책을 생성합니다.
  • C. DynamoDB 콘솔을 사용하여 테이블의 온디맨드 백업을 만듭니다. 백업을 Amazon S3 버킷에 저장합니다. S3 버킷에 대한 S3 Lifecycle 구성을 설정합니다.
  • D. AWS Lambda 함수를 호출하기 위한 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 만듭니다. Lambda 함수를 구성하여 테이블을 백업하고 Amazon S3 버킷에 백업을 저장합니다. S3 버킷에 대한 S3 Lifecycle 구성을 설정합니다.

질문 #79주제 1

한 회사가 데이터 저장을 위해 Amazon DynamoDB 테이블을 사용할 계획입니다. 이 회사는 비용 최적화에 대해 우려하고 있습니다. 이 테이블은 대부분 아침에 사용되지 않습니다. 저녁에는 읽기 및 쓰기 트래픽이 예측할 수 없는 경우가 많습니다. 트래픽 급증이 발생하면 매우 빠르게 발생합니다.

솔루션 아키텍트는 무엇을 권장해야 합니까?

  • A. 온디맨드 용량 모드에서 DynamoDB 테이블을 만듭니다. → 알려지지 않은 작업 부하, 예측할 수 없는 트래픽, 편의성 선호
  • B.글로벌 보조 인덱스가 있는 DynamoDB 테이블을 생성합니다.
  • C.프로비저닝된 용량과 자동 크기 조정을 통해 DynamoDB 테이블을 만듭니다.
  • D.프로비저닝 용량 모드에서 DynamoDB 테이블을 만들고 이를 글로벌 테이블로 구성합니다.

질문 #80주제 1

한 회사가 최근 애플리케이션 마이그레이션 이니셔티브에 대한 지원을 위해 AWS 관리 서비스 공급자(MSP) 파트너와 계약을 체결했습니다. 솔루션 아키텍트는 기존 AWS 계정의 Amazon Machine Image(AMI)를 MSP 파트너의 AWS 계정과 공유해야 합니다. AMI는 Amazon Elastic Block Store(Amazon EBS)에서 지원하며 AWS Key Management Service(AWS KMS) 고객 관리 키를 사용하여 EBS 볼륨 스냅샷을 암호화합니다.

솔루션 아키텍트가 MSP 파트너의 AWS 계정과 AMI를 공유하는 가장 안전한 방법은 무엇입니까?

  • A. 암호화된 AMI와 스냅샷을 공개적으로 사용할 수 있도록 합니다. 키 정책을 수정하여 MSP 파트너의 AWS 계정이 키를 사용할 수 있도록 합니다.
  • B. AMI의 launchPermission 속성을 수정합니다. AMI를 MSP 파트너의 AWS 계정과만 공유합니다. 키 정책을 수정하여 MSP 파트너의 AWS 계정이 키를 사용할 수 있도록 합니다.
  • C. AMI의 launchPermission 속성을 수정합니다. AMI를 MSP 파트너의 AWS 계정과만 공유합니다. 암호화를 위해 MSP 파트너가 소유한 새 KMS 키를 신뢰하도록 키 정책을 수정합니다.
  • D. 소스 계정에서 MSP 파트너의 AWS 계정의 Amazon S3 버킷으로 AMI를 내보내고, MSP 파트너가 소유한 새로운 KMS 키로 S3 버킷을 암호화합니다. MSP 파트너의 AWS 계정에서 AMI를 복사하여 시작합니다.

질문 #81주제 1

솔루션 아키텍트는 AWS에 배포되는 새로운 애플리케이션에 대한 클라우드 아키텍처를 설계하고 있습니다. 이 프로세스는 처리할 작업 수에 따라 필요에 따라 애플리케이션 노드를 추가하고 제거하는 동안 병렬로 실행되어야 합니다. 프로세서 애플리케이션은 상태 비저장입니다. 솔루션 아키텍트는 애플리케이션이 느슨하게 결합되어 있고 작업 항목이 내구성 있게 저장되도록 해야 합니다.

솔루션 아키텍트는 어떤 디자인을 사용해야 합니까?

  • A. 처리해야 할 작업을 보내기 위해 Amazon SNS 토픽을 만듭니다. 프로세서 애플리케이션으로 구성된 Amazon Machine Image(AMI)를 만듭니다. AMI를 사용하는 시작 구성을 만듭니다. 시작 구성을 사용하여 자동 확장 그룹을 만듭니다. CPU 사용량에 따라 노드를 추가하고 제거하기 위해 자동 확장 그룹에 대한 확장 정책을 설정합니다.
  • B.처리해야 할 작업을 보관할 Amazon SQS 대기열을 만듭니다. 프로세서 애플리케이션으로 구성된 Amazon Machine Image(AMI)를 만듭니다. AMI를 사용하는 시작 구성을 만듭니다. 시작 구성을 사용하여 자동 확장 그룹을 만듭니다. 네트워크 사용에 따라 노드를 추가하고 제거하도록 자동 확장 그룹에 대한 확장 정책을 설정합니다.
  • C. 처리해야 할 작업을 보관할 Amazon SQS 대기열을 만듭니다. 프로세서 애플리케이션으로 구성된 Amazon Machine Image(AMI)를 만듭니다. AMI를 사용하는 시작 템플릿을 만듭니다. 시작 템플릿을 사용하여 자동 확장 그룹을 만듭니다. SQS 대기열의 항목 수에 따라 노드를 추가하고 제거하도록 자동 확장 그룹의 확장 정책을 설정합니다.
  • D.처리해야 할 작업을 보내기 위해 Amazon SNS 토픽을 만듭니다. 프로세서 애플리케이션으로 구성된 Amazon Machine Image(AMI)를 만듭니다. AMI를 사용하는 시작 템플릿을 만듭니다. 시작 템플릿을 사용하여 자동 확장 그룹을 만듭니다. SNS 토픽에 게시된 메시지 수에 따라 노드를 추가하고 제거하도록 자동 확장 그룹의 확장 정책을 설정합니다.

질문 #82주제 1

한 회사가 AWS 클라우드에서 웹 애플리케이션을 호스팅합니다. 이 회사는 AWS Certificate Manager(ACM)로 가져온 인증서를 사용하도록 Elastic Load Balancer를 구성합니다. 각 인증서가 만료되기 30일 전에 회사의 보안 팀에 알려야 합니다.

솔루션 아키텍트는 이 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?

  • A.인증서가 만료되기 30일 전부터 매일 Amazon Simple Notification Service(Amazon SNS) 주제에 사용자 정의 메시지를 게시하는 규칙을 ACM에 추가합니다.
  • B. 30일 이내에 만료되는 인증서를 확인하는 AWS Config 규칙을 만듭니다. AWS Config가 비준수 리소스를 보고하면 Amazon Simple Notification Service(Amazon SNS)를 통해 사용자 지정 알림을 호출하도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다.
  • C.AWS Trusted Advisor를 사용하여 30일 이내에 만료되는 인증서를 확인합니다. Trusted Advisor 지표를 기반으로 하는 Amazon CloudWatch 알람을 생성하여 상태 변경을 확인합니다. Amazon Simple Notification Service(Amazon SNS)를 통해 사용자 지정 알림을 보내도록 알람을 구성합니다.
  • D.30일 이내에 만료되는 인증서를 감지하기 위한 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 만듭니다. AWS Lambda 함수를 호출하도록 규칙을 구성합니다. Amazon Simple Notification Service(Amazon SNS)를 통해 사용자 지정 알림을 보내도록 Lambda 함수를 구성합니다.

질문 #83주제 1

회사의 동적 웹사이트는 미국에 있는 온프레미스 서버를 사용하여 호스팅됩니다. 이 회사는 유럽에서 제품을 출시하고 있으며, 새로운 유럽 사용자를 위해 사이트 로딩 시간을 최적화하려고 합니다. 사이트의 백엔드는 미국에 남아야 합니다. 이 제품은 며칠 안에 출시되며 즉각적인 솔루션이 필요합니다.

솔루션 아키텍트는 무엇을 추천해야 합니까?

  • A.us-east-1에서 Amazon EC2 인스턴스를 시작하고 사이트를 여기로 마이그레이션합니다.
  • B.웹사이트를 Amazon S3로 이동합니다. 지역 간 크로스 리전 복제를 사용합니다.
  • C.온프레미스 서버를 가리키는 사용자 지정 원본과 함께 Amazon CloudFront를 사용합니다.
  • D.온프레미스 서버를 가리키는 Amazon Route 53 지리적 근접 라우팅 정책을 사용합니다.

*Amazon CloudFront: html,css,js 및 이미지 파일과 같은 정적 및 동적 웹 콘텐츠를 사용자에게 더 빨리 배포하도록 지원하는 웹 서비스

질문 #84주제 1

한 회사에서 기존 3계층 웹 아키텍처의 비용을 절감하고자 합니다. 웹, 애플리케이션 및 데이터베이스 서버는 개발, 테스트 및 프로덕션 환경을 위해 Amazon EC2 인스턴스에서 실행됩니다. EC2 인스턴스는 피크 시간에 평균 30%의 CPU 사용률을 보이고 비피크 시간에는 10%의 CPU 사용률을 보입니다.

프로덕션 EC2 인스턴스는 하루 24시간 실행됩니다. 개발 및 테스트 EC2 인스턴스는 매일 최소 8시간 실행됩니다. 이 회사는 개발 및 테스트 EC2 인스턴스가 사용되지 않을 때 중단하기 위한 자동화를 구현할 계획입니다.

어떤 EC2 인스턴스 구매 솔루션이 회사의 요구 사항을 가장 비용 효율적으로 충족할까요?

  • A.프로덕션 EC2 인스턴스에는 Spot Instances를 사용합니다. 개발 및 테스트 EC2 인스턴스에는 Reserved Instances를 사용합니다.
  • B. 프로덕션 EC2 인스턴스에는 예약 인스턴스를 사용합니다. 개발 및 테스트 EC2 인스턴스에는 온디맨드 인스턴스를 사용합니다.→ 예측 가능한 내용은 예약 인스턴스, 예측 불가능한 내용은 온디맨드
  • C. 프로덕션 EC2 인스턴스에는 Spot 블록을 사용합니다. 개발 및 테스트 EC2 인스턴스에는 Reserved Instances를 사용합니다.
  • D. 프로덕션 EC2 인스턴스에는 온디맨드 인스턴스를 사용합니다. 개발 및 테스트 EC2 인스턴스에는 스팟 블록을 사용합니다.

질문 #86주제 1

한 회사에는 공통 Amazon RDS MySQL Multi-AZ DB 인스턴스에 자주 액세스해야 하는 여러 웹 서버가 있습니다. 이 회사는 사용자 자격 증명을 자주 회전시키는 보안 요구 사항을 충족하는 동시에 웹 서버가 데이터베이스에 연결할 수 있는 안전한 방법을 원합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS Secrets Manager에 데이터베이스 사용자 자격 증명을 저장합니다. 웹 서버가 AWS Secrets Manager에 액세스할 수 있도록 필요한 IAM 권한을 부여합니다.
  • B.AWS Systems Manager OpsCenter에 데이터베이스 사용자 자격 증명을 저장합니다. 웹 서버가 OpsCenter에 액세스할 수 있도록 필요한 IAM 권한을 부여합니다.
  • C.데이터베이스 사용자 자격 증명을 안전한 Amazon S3 버킷에 저장합니다. 웹 서버가 자격 증명을 검색하고 데이터베이스에 액세스할 수 있도록 필요한 IAM 권한을 부여합니다.
  • D.웹 서버 파일 시스템의 AWS Key Management Service(AWS KMS)로 암호화된 파일에 데이터베이스 사용자 자격 증명을 저장합니다. 웹 서버는 파일을 해독하고 데이터베이스에 액세스할 수 있어야 합니다.

*AWS Secret Manager: 수명 주기 동안 데이터베이스 보안 인증, 애플리케이션 보안인증을 관리, 검색, 교체할 수 있음.

질문 #87주제 1

한 회사가 Amazon API Gateway API에서 호출하는 AWS Lambda 함수에서 애플리케이션을 호스팅합니다. Lambda 함수는 고객 데이터를 Amazon Aurora MySQL 데이터베이스에 저장합니다. 회사가 데이터베이스를 업그레이드할 때마다 Lambda 함수는 업그레이드가 완료될 때까지 데이터베이스 연결을 설정하지 못합니다. 그 결과 일부 이벤트에 대한 고객 데이터가 기록되지 않습니다.

솔루션 아키텍트는 데이터베이스 업그레이드 중에 생성된 고객 데이터를 저장하는 솔루션을 설계해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A.Lambda 함수와 데이터베이스 사이에 Amazon RDS 프록시를 프로비저닝합니다. Lambda 함수를 구성하여 RDS 프록시에 연결합니다. → RDS proxy는 Aurora DB를 지원하지 않음.
  • B.Lambda 함수의 실행 시간을 최대로 늘립니다. 고객 데이터를 데이터베이스에 저장하는 코드에 재시도 메커니즘을 만듭니다.
  • C.고객 데이터를 Lambda 로컬 스토리지에 유지합니다. 로컬 스토리지를 스캔하여 고객 데이터를 데이터베이스에 저장하도록 새로운 Lambda 함수를 구성합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 고객 데이터를 저장합니다. 대기열을 폴링하고 고객 데이터를 데이터베이스에 저장하는 새로운 Lambda 함수를 만듭니다. → 장애 조치 상황이 아니라서 RDS proxy를 사용할 필요 없음

질문 #88주제 1

한 조사 회사가 미국 내 지역에서 수년간 데이터를 수집했습니다. 이 회사는 3TB 크기이며 계속 증가하는 Amazon S3 버킷에 데이터를 호스팅합니다. 이 회사는 S3 버킷이 있는 유럽 마케팅 회사와 데이터를 공유하기 시작했습니다. 이 회사는 데이터 전송 비용을 최대한 낮게 유지하고자 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. 회사의 S3 버킷에서 요청자 지불 기능을 구성합니다.
  • B.회사의 S3 버킷에서 마케팅 회사의 S3 버킷 중 하나로 S3 크로스 리전 복제를 구성합니다. → CRR은 전송 비용이 듦.
  • C.마케팅 회사가 회사의 S3 버킷에 접근할 수 있도록 마케팅 회사의 교차 계정 액세스를 구성합니다.
  • D.회사의 S3 버킷을 구성하여 S3 Intelligent-Tiering을 사용합니다. S3 버킷을 마케팅 회사의 S3 버킷 중 하나와 동기화합니다.

*Request Pays feature: 버킷 소유자가 다운로드를 요청한 사람에게 다운로드 비용을 청구하도록 지정할 수 있음.

질문 #89주제 1

한 회사가 Amazon S3를 사용하여 기밀 감사 문서를 저장합니다. S3 버킷은 버킷 정책을 사용하여 최소 권한 원칙에 따라 감사팀 IAM 사용자 자격 증명에 대한 액세스를 제한합니다. 회사 관리자는 S3 버킷에서 실수로 문서를 삭제하는 것을 걱정하고 보다 안전한 솔루션을 원합니다.

솔루션 아키텍트는 감사 문서를 보호하기 위해 무엇을 해야 합니까?

  • A. S3 버킷에서 버전 관리 및 MFA 삭제 기능을 활성화합니다.
  • B. 각 감사 팀 IAM 사용자 계정에 대해 IAM 사용자 자격 증명에 대해 다중 요소 인증(MFA)을 활성화합니다.
  • C. 감사팀의 IAM 사용자 계정에 S3 수명 주기 정책을 추가하여 감사 날짜 동안 s3:DeleteObject 작업을 거부합니다.
  • D. AWS Key Management Service(AWS KMS)를 사용하여 S3 버킷을 암호화하고 감사팀 IAM 사용자 계정이 KMS 키에 액세스하는 것을 제한합니다.

질문 #91주제 1

한 회사에 VPC의 Amazon EC2 인스턴스에서 실행되는 애플리케이션이 있습니다. 애플리케이션 중 하나는 Amazon S3 API를 호출하여 객체를 저장하고 읽어야 합니다. 회사의 보안 규정에 따라 애플리케이션의 트래픽은 인터넷을 통과할 수 없습니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. S3 게이트웨이 엔드포인트를 구성합니다. → VPC와 Amazon S3 간의 트래픽은 Amazon 네트워크를 벗어나지 않음.
  • B. 개인 서브넷에 S3 버킷을 생성합니다.
  • C. EC2 인스턴스와 동일한 AWS 지역에 S3 버킷을 생성합니다.
  • D. EC2 인스턴스와 동일한 서브넷에 NAT 게이트웨이를 구성합니다. → VPC를 벗어나 인터넷을 통과할 수 있음.

질문 #92주제 1

한 회사가 Amazon S3 버킷에 민감한 사용자 정보를 저장하고 있습니다. 이 회사는 VPC 내부의 Amazon EC2 인스턴스에서 실행되는 애플리케이션 계층에서 이 버킷에 대한 보안 액세스를 제공하려고 합니다.

솔루션 아키텍트는 이를 달성하기 위해 어떤 단계 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A. VPC 내에서 Amazon S3에 대한 VPC 게이트웨이 엔드포인트를 구성합니다.
  • B.S3 버킷에 있는 객체를 공개하기 위한 버킷 정책을 생성합니다.
  • C. VPC에서 실행되는 애플리케이션 계층에만 액세스를 제한하는 버킷 정책을 만듭니다.
  • D. S3 액세스 정책이 있는 IAM 사용자를 생성하고 IAM 자격 증명을 EC2 인스턴스에 복사합니다.
  • E. NAT 인스턴스를 생성하고 EC2 인스턴스가 NAT 인스턴스를 사용하여 S3 버킷에 액세스하도록 합니다.

*A: S3에 액세스하기 위한 직접 연결(공개 인터넷 없음)을 위한 VPC S3 게이트웨이 C: 액세스를 보호하고 VPC 애플리케이션 계층만 액세스하도록 허용하는 버킷 정책

질문 #94주제 1

어떤 회사에서 사용자가 작은 파일을 Amazon S3에 업로드하는 애플리케이션을 설계하고 있습니다. 사용자가 파일을 업로드한 후, 해당 파일은 데이터를 변환하고 JSON 형식으로 저장하여 나중에 분석하기 위해 한 번의 간단한 처리가 필요합니다.

각 파일은 업로드 후 가능한 한 빨리 처리해야 합니다. 수요는 다양합니다. 어떤 날에는 사용자가 많은 수의 파일을 업로드합니다. 다른 날에는 사용자가 몇 개의 파일을 업로드하거나 전혀 업로드하지 않습니다.

어떤 솔루션이 운영 오버헤드를 최소화하면서 이러한 요구 사항을 충족할까요?

  • A. Amazon S3에서 텍스트 파일을 읽도록 Amazon EMR을 구성합니다. 처리 스크립트를 실행하여 데이터를 변환합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다.
  • B. Amazon S3를 구성하여 Amazon Simple Queue Service(Amazon SQS) 대기열에 이벤트 알림을 보냅니다. Amazon EC2 인스턴스를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB에 저장합니다.
  • C. Amazon S3를 구성하여 Amazon Simple Queue Service(Amazon SQS) 대기열에 이벤트 알림을 보냅니다. AWS Lambda 함수를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB에 저장합니다. → 낮은 대기시간을 위해 DynamoDB, 수요에 따라 확장하기 위해 Lambda
  • D. 새 파일이 업로드되면 Amazon Kinesis Data Streams에 이벤트를 보내도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. AWS Lambda 함수를 사용하여 스트림에서 이벤트를 소비하고 데이터를 처리합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다.

질문 #96주제 1

Amazon EC2 관리자가 여러 사용자가 포함된 IAM 그룹과 관련된 다음 정책을 생성했습니다.

https://img.examtopics.com/aws-certified-solutions-architect-associate-saa-c03/image1.png

이 정책의 효과는 무엇입니까?

  • A. 사용자는 us-east-1을 제외한 모든 AWS 지역에서 EC2 인스턴스를 종료할 수 있습니다.
  • B. 사용자는 us-east-1 지역에서 IP 주소 10.100.100.1을 사용하여 EC2 인스턴스를 종료할 수 있습니다.
  • C. 사용자의 소스 IP가 10.100.100.254인 경우 사용자는 us-east-1 지역의 EC2 인스턴스를 종료할 수 있습니다.
  • D.사용자의 소스 IP가 10.100.100.254인 경우 사용자는 us-east-1 지역의 EC2 인스턴스를 종료할 수 없습니다.

질문 #98주제 1

이미지 처리 회사에 사용자가 이미지를 업로드하는 데 사용하는 웹 애플리케이션이 있습니다. 이 애플리케이션은 이미지를 Amazon S3 버킷에 업로드합니다. 이 회사는 S3 이벤트 알림을 설정하여 객체 생성 이벤트를 Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 게시합니다. SQS 대기열은 이미지를 처리하고 결과를 이메일을 통해 사용자에게 보내는 AWS Lambda 함수의 이벤트 소스 역할을 합니다.

사용자는 업로드된 모든 이미지에 대해 여러 이메일 메시지를 받는다고 보고합니다. 솔루션 아키텍트는 SQS 메시지가 Lambda 함수를 두 번 이상 호출하여 여러 이메일 메시지를 생성한다는 것을 확인합니다.

솔루션 아키텍트는 최소한의 운영 오버헤드로 이 문제를 해결하기 위해 무엇을 해야 할까요?

  • A. ReceiveMessage 대기 시간을 30초로 늘려 SQS 대기열에서 롱 폴링을 설정합니다.
  • B. SQS 표준 큐를 SQS FIFO 큐로 변경합니다. 메시지 중복 제거 ID를 사용하여 중복 메시지를 삭제합니다.
  • C. SQS 대기열의 가시성 시간 초과(visibility timeout)를 함수 시간 초과와 일괄 처리 창 시간 초과의 합계보다 큰 값으로 늘립니다.
  • D. 메시지를 읽은 후 처리하기 전에 SQS 대기열에서 각 메시지를 즉시 삭제하도록 Lambda 함수를 수정합니다.

*사용자에게 중복된 메시지가 표시되는 이유는 람다가 메시지를 폴링하고 메시지 처리를 시작하기 때문입니다. 그러나 첫 번째 람다가 메시지 처리를 완료하기 전에 SQS에서 가시성 시간 초과가 발생하고 SQS가 메시지를 폴로 반환하여 다른 람다 노드가 동일한 메시지를 처리하게 됩니다. 가시성 시간 초과를 늘리면 람다가 메시지 처리를 완료하기 전에 SQS가 메시지를 폴로 반환하는 것을 방지할 수 있습니다.

질문 #99주제 1

한 회사가 온프레미스 데이터 센터에 호스팅된 게임 애플리케이션에 대한 공유 스토리지 솔루션을 구현하고 있습니다. 이 회사는 Lustre 클라이언트를 사용하여 데이터에 액세스할 수 있어야 합니다. 솔루션은 완전히 관리되어야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS Storage Gateway 파일 게이트웨이를 만듭니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • B. Amazon EC2 Windows 인스턴스를 만듭니다. 인스턴스에 Windows 파일 공유 역할을 설치하고 구성합니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • C. Amazon Elastic File System(Amazon EFS) 파일 시스템을 만들고 Lustre를 지원하도록 구성합니다. 파일 시스템을 원본 서버에 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다.
  • D. Amazon FSx for Lustre 파일 시스템을 만듭니다. 파일 시스템을 원본 서버에 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다.

질문 #100주제 1

회사의 컨테이너화된 애플리케이션은 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 다른 비즈니스 애플리케이션과 통신하기 전에 보안 인증서를 다운로드해야 합니다. 회사는 인증서를 거의 실시간으로 암호화하고 복호화하는 매우 안전한 솔루션을 원합니다. 솔루션은 또한 데이터가 암호화된 후 고가용성 스토리지에 데이터를 저장해야 합니다.

어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?

  • A.암호화된 인증서에 대한 AWS Secrets Manager 비밀을 만듭니다. 필요에 따라 인증서를 수동으로 업데이트합니다. 세분화된 IAM 액세스를 사용하여 데이터에 대한 액세스를 제어합니다.
  • B. Python 암호화 라이브러리를 사용하여 암호화 작업을 수신하고 수행하는 AWS Lambda 함수를 만듭니다. 함수를 Amazon S3 버킷에 저장합니다.
  • C. AWS Key Management Service(AWS KMS) 고객 관리 키를 만듭니다. EC2 역할이 암호화 작업에 KMS 키를 사용하도록 허용합니다. 암호화된 데이터를 Amazon S3에 저장합니다.
  • D.AWS Key Management Service(AWS KMS) 고객 관리 키를 만듭니다. EC2 역할이 암호화 작업에 KMS 키를 사용하도록 허용합니다. 암호화된 데이터를 Amazon Elastic Block Store(Amazon EBS) 볼륨에 저장합니다.

*S3 ($) < EBS($)

ExamTopics - Biggest Actual IT Exams Database - Validation

질문 #101주제 1

솔루션 아키텍트는 퍼블릭 및 프라이빗 서브넷이 있는 VPC를 설계하고 있습니다. VPC와 서브넷은 IPv4 CIDR 블록을 사용합니다. 고가용성을 위해 3개의 가용성 영역(AZ) 각각에 퍼블릭 서브넷 1개와 프라이빗 서브넷 1개가 있습니다. 인터넷 게이트웨이는 퍼블릭 서브넷에 대한 인터넷 액세스를 제공하는 데 사용됩니다. 프라이빗 서브넷은 Amazon EC2 인스턴스가 소프트웨어 업데이트를 다운로드할 수 있도록 인터넷에 액세스할 수 있어야 합니다.

솔루션 아키텍트는 프라이빗 서브넷에 대한 인터넷 액세스를 활성화하기 위해 무엇을 해야 합니까?

  • A. 각 AZ의 각 퍼블릭 서브넷에 대해 하나씩 총 세 개의 NAT 게이트웨이를 만듭니다. 각 AZ에 대해 VPC가 아닌 트래픽을 해당 AZ의 NAT 게이트웨이로 전달하는 개인 경로 테이블을 만듭니다.
  • B. 각 AZ의 각 프라이빗 서브넷에 대해 하나씩 총 세 개의 NAT 인스턴스를 만듭니다. 각 AZ에 대해 VPC가 아닌 트래픽을 해당 AZ의 NAT 인스턴스로 전달하는 프라이빗 경로 테이블을 만듭니다.
  • C. 프라이빗 서브넷 중 하나에 두 번째 인터넷 게이트웨이를 만듭니다. 프라이빗 인터넷 게이트웨이로 VPC가 아닌 트래픽을 전달하는 프라이빗 서브넷의 경로 테이블을 업데이트합니다.
  • D. 퍼블릭 서브넷 중 하나에 이그레스 전용 인터넷 게이트웨이를 만듭니다. 이그레스 전용 인터넷 게이트웨이로 VPC가 아닌 트래픽을 전달하는 프라이빗 서브넷의 경로 테이블을 업데이트합니다

*NAT gateway는 프라이빗 인스턴스가 인터넷으로 아웃바운드 트래픽을 시작할 수 있도록 하지만 인터넷에서 프라이빗 인스턴스에 도달하는 인바운드 트래픽은 허용하지 않음.

질문 #102주제 1

한 회사가 온프레미스 데이터 센터를 AWS로 마이그레이션하려고 합니다. 데이터 센터는 NFS 기반 파일 시스템에 데이터를 저장하는 SFTP 서버를 호스팅합니다. 이 서버는 전송해야 하는 200GB의 데이터를 보관합니다. 이 서버는 Amazon Elastic File System(Amazon EFS) 파일 시스템을 사용하는 Amazon EC2 인스턴스에 호스팅되어야 합니다.

솔루션 아키텍트는 이 작업을 자동화하기 위해 어떤 단계 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A.EFS 파일 시스템과 동일한 가용성 영역에서 EC2 인스턴스를 시작합니다.
  • B. 온프레미스 데이터 센터에 AWS DataSync 에이전트를 설치합니다.
  • C. EC2 인스턴스에 데이터용 보조 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다.
  • D.운영 체제 복사 명령을 수동으로 사용하여 데이터를 EC2 인스턴스로 푸시합니다.
  • E. AWS DataSync를 사용하여 온프레미스 SFTP 서버에 적합한 위치 구성을 생성합니다.

질문 #103주제 1

한 회사에는 매일 같은 시간에 실행되는 AWS Glue 추출, 변환 및 로드(ETL) 작업이 있습니다. 이 작업은 Amazon S3 버킷에 있는 XML 데이터를 처리합니다. 매일 S3 버킷에 새 데이터가 추가됩니다. 솔루션 아키텍트는 AWS Glue가 각 실행 중에 모든 데이터를 처리하고 있다는 것을 알아챘습니다. 솔루션 아키텍트는

AWS Glue가 이전 데이터를 다시 처리하지 못하도록 어떻게 해야 합니까?

  • A. 작업 북마크를 사용하여 작업을 편집합니다. (Job bookmarks)
  • B.데이터 처리가 완료된 후 데이터를 삭제하기 위해 작업을 편집합니다.
  • C.NumberOfWorkers 필드를 1로 설정하여 작업을 편집합니다.
  • D.FindMatches 머신 러닝(ML) 변환을 사용합니다.

*Job bookmark : 지속 상태 정보 / AWS Glue: 작업 실행의 상태 정보를 유지하여 이미 처리된 데이터를 추적

질문 #104주제 1

솔루션 아키텍트는 웹사이트를 위한 고가용성 인프라를 설계해야 합니다. 웹사이트는 Amazon EC2 인스턴스에서 실행되는 Windows 웹 서버로 구동됩니다. 솔루션 아키텍트는 수천 개의 IP 주소에서 발생하는 대규모 DDoS 공격을 완화할 수 있는 솔루션을 구현해야 합니다. 웹사이트에 다운타임은 허용되지 않습니다.

솔루션 아키텍트는 이러한 공격으로부터 웹사이트를 보호하기 위해 어떤 조치를 취해야 합니까? (두 가지를 선택하세요.)

  • A. AWS Shield Advanced를 사용하여 DDoS 공격을 차단하세요.
  • B. Amazon GuardDuty를 구성하여 공격자를 자동으로 차단합니다.
  • C. 정적 및 동적 콘텐츠 모두에 Amazon CloudFront를 사용하도록 웹사이트를 구성합니다.
  • D. AWS Lambda 함수를 사용하여 공격자 IP 주소를 VPC 네트워크 ACL에 자동으로 추가합니다.
  • E. 대상 추적 확장 정책이 CPU 사용률 80%로 설정된 자동 확장 그룹에서 EC2 스팟 인스턴스를 사용합니다.

*AWS Shield Advanced: Amazon EC2 인스턴스, Elastic Load Balancer 및 Amazon Route 53 리소스에 대한 상시 보호 기능을 제공

*Amazon CloudFront: Amazon S3 및 Amazon EC2와 같은 다른 Amazon Web Services 제품과 통합되어 사용자에게 낮은 지연 시간과 높은 데이터 전송 속도로 콘텐츠를 제공하는 콘텐츠 전송 네트워크(CDN)

*Amazon GuardDuty: 악의적인 행동을 모니터링하는 AWS의 지능형 위협 탐지 서비스, cloud 환경 내 모든 로그를 탐지하는 것이 아닌 특정 로그만 탐지, 분석 가능함.

질문 #107주제 1

자전거 공유 회사가 피크 운영 시간 동안 자전거 위치를 추적하기 위해 다계층 아키텍처를 개발하고 있습니다. 이 회사는 기존 분석 플랫폼에서 이러한 데이터 포인트를 사용하려고 합니다. 솔루션 아키텍트는 이 아키텍처를 지원하기 위해 가장 실행 가능한 다계층 옵션을 결정해야 합니다. 데이터 포인트는 REST API에서 액세스할 수 있어야 합니다.

위치 데이터를 저장하고 검색하기 위한 이러한 요구 사항을 충족하는 작업은 무엇입니까?

  • A. Amazon S3와 함께 Amazon Athena를 사용하세요.
  • B. AWS Lambda와 함께 Amazon API Gateway를 사용합니다.
  • C. Amazon QuickSight를 Amazon Redshift와 함께 사용합니다.
  • D. Amazon Kinesis Data Analytics와 함께 Amazon API Gateway를 사용하세요. → Lambda는 데이터 저장 못하지만 Kinesis는 가능

질문 #108주제 1

어떤 회사에는 Amazon RDS의 데이터베이스에 목록을 저장하는 자동차 판매 웹사이트가 있습니다. 자동차가 판매되면 목록을 웹사이트에서 제거하고 데이터를 여러 대상 시스템으로 보내야 합니다.

솔루션 아키텍트는 어떤 디자인을 추천해야 할까요?

  • A. Amazon RDS의 데이터베이스가 업데이트되면 Amazon Simple Queue Service(Amazon SQS) 대기열로 정보를 전송하여 대상이 사용할 수 있도록 하는 AWS Lambda 함수를 생성합니다.
  • B. Amazon RDS의 데이터베이스가 업데이트되면 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열로 정보를 전송하여 대상이 사용할 수 있도록 하는 AWS Lambda 함수를 생성합니다.
  • C.RDS 이벤트 알림을 구독하고 Amazon Simple Queue Service(Amazon SQS) 대기열을 여러 Amazon Simple Notification Service(Amazon SNS) 토픽으로 분산하여 보냅니다. AWS Lambda 함수를 사용하여 대상을 업데이트합니다.
  • D.RDS 이벤트 알림을 구독하고 Amazon Simple Notification Service(Amazon SNS) 주제를 여러 Amazon Simple Queue Service(Amazon SQS) 대기열로 분산하여 보냅니다. AWS Lambda 함수를 사용하여 대상을 업데이트합니다.

질문 #109주제 1

회사는 Amazon S3에 데이터를 저장해야 하며 데이터가 변경되는 것을 방지해야 합니다. 회사는 Amazon S3에 업로드된 새 객체가 회사가 객체를 수정하기로 결정할 때까지 비특정 기간 동안 변경되지 않기를 원합니다. 회사의 AWS 계정에 있는 특정 사용자만 객체를 삭제할 수 있습니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A.S3 Glacier 볼트를 만듭니다. 객체에 WORM(write-once, read-many) 볼트 잠금 정책을 적용합니다.
  • B.S3 객체 잠금이 활성화된 S3 버킷을 만듭니다. 버전 관리를 활성화합니다. 보관 기간을 100년으로 설정합니다. 새 객체에 대한 S3 버킷의 기본 보관 모드로 거버넌스 모드를 사용합니다.
  • C.S3 버킷을 만듭니다. AWS CloudTrail을 사용하여 객체를 수정하는 모든 S3 API 이벤트를 추적합니다. 알림이 오면 회사가 보유한 모든 백업 버전에서 수정된 객체를 복원합니다.
  • D. S3 객체 잠금이 활성화된 S3 버킷을 만듭니다. 버전 관리를 활성화합니다. 객체에 법적 보류를 추가합니다. 객체를 삭제해야 하는 사용자의 IAM 정책에 s3:PutObjectLegalHold 권한을 추가합니다.

질문 #110주제 1

소셜 미디어 회사에서는 사용자가 이미지를 웹사이트에 업로드할 수 있도록 허용합니다. 이 웹사이트는 Amazon EC2 인스턴스에서 실행됩니다. 업로드 요청 중에 웹사이트는 이미지 크기를 표준 크기로 조정하고 크기가 조정된 이미지를 Amazon S3에 저장합니다. 사용자는 웹사이트에 대한 업로드 요청이 느리다는 것을 경험하고 있습니다.

이 회사는 애플리케이션 내에서 결합을 줄이고 웹사이트 성능을 개선해야 합니다. 솔루션 아키텍트는 이미지 업로드를 위한 가장 운영 효율적인 프로세스를 설계해야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 조치 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A.S3 Glacier에 이미지를 업로드하도록 애플리케이션을 구성합니다.
  • B.웹 서버를 구성하여 원본 이미지를 Amazon S3에 업로드합니다.
  • C. 미리 서명된 URL을 사용하여 각 사용자의 브라우저에서 Amazon S3로 직접 이미지를 업로드하도록 애플리케이션을 구성합니다.
  • D. 이미지가 업로드될 때 AWS Lambda 함수를 호출하도록 S3 이벤트 알림을 구성합니다. 함수를 사용하여 이미지 크기를 조정합니다.
  • E. 업로드된 이미지의 크기를 조정하기 위해 일정에 따라 AWS Lambda 함수를 호출하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다.

*EventBridge(CloudWatch Event): 파트너 이벤트, 스키마 레지스트리, EventBridge 파이프와 같은 기능을 제공

질문 #111주제 1

한 회사가 최근 메시지 처리 시스템을 AWS로 마이그레이션했습니다. 이 시스템은 Amazon EC2 인스턴스에서 실행되는 ActiveMQ 대기열로 메시지를 수신합니다. 메시지는 Amazon EC2에서 실행되는 소비자 애플리케이션에서 처리합니다. 소비자 애플리케이션은 메시지를 처리하고 Amazon EC2에서 실행되는 MySQL 데이터베이스에 결과를 씁니다. 이 회사는 이 애플리케이션이 운영 복잡성이 낮고 가용성이 높기를 원합니다.

어떤 아키텍처가 가장 높은 가용성을 제공합니까?

  • A.다른 가용성 영역에 두 번째 ActiveMQ 서버를 추가합니다. 다른 가용성 영역에 추가 소비자 EC2 인스턴스를 추가합니다. MySQL 데이터베이스를 다른 가용성 영역에 복제합니다.
  • B.두 개의 가용성 영역에 걸쳐 구성된 활성/대기 브로커와 함께 Amazon MQ를 사용합니다. 다른 가용성 영역에 추가 소비자 EC2 인스턴스를 추가합니다. MySQL 데이터베이스를 다른 가용성 영역에 복제합니다.
  • C.두 개의 가용성 영역에 걸쳐 구성된 활성/대기 브로커와 함께 Amazon MQ를 사용합니다. 다른 가용성 영역에 추가 소비자 EC2 인스턴스를 추가합니다. Multi-AZ가 활성화된 MySQL용 Amazon RDS를 사용합니다.
  • D.두 개의 가용성 영역에 걸쳐 구성된 활성/대기 브로커와 함께 Amazon MQ를 사용합니다. 두 개의 가용성 영역에 걸쳐 소비자 EC2 인스턴스에 대한 자동 확장 그룹을 추가합니다. 다중 AZ가 활성화된 MySQL용 Amazon RDS를 사용합니다.

질문 #113주제 1

한 회사에서 보고에 50TB의 데이터를 사용합니다. 이 회사는 이 데이터를 온프레미스에서 AWS로 옮기려고 합니다. 회사 데이터 센터의 사용자 지정 애플리케이션은 매주 데이터 변환 작업을 실행합니다. 이 회사는 데이터 전송이 완료될 때까지 애플리케이션을 일시 중지하고 가능한 한 빨리 전송 프로세스를 시작해야 합니다.

데이터 센터에는 추가 워크로드에 사용할 수 있는 네트워크 대역폭이 없습니다. 솔루션 아키텍트는 데이터를 전송하고 AWS 클라우드에서 계속 실행되도록 변환 작업을 구성해야 합니다.

어떤 솔루션이 이러한 요구 사항을 최소한의 운영 오버헤드로 충족할까요?

  • A.AWS DataSync를 사용하여 데이터를 이동합니다. AWS Glue를 사용하여 사용자 지정 변환 작업을 만듭니다.
  • B.AWS Snowcone 디바이스를 주문하여 데이터를 이동합니다. 디바이스에 변환 애플리케이션을 배포합니다.
  • C. AWS Snowball Edge Storage Optimized 장치를 주문합니다. 데이터를 장치에 복사합니다. AWS Glue를 사용하여 사용자 지정 변환 작업을 만듭니다.
  • D.Amazon EC2 컴퓨팅을 포함하는 AWS Snowball Edge Storage Optimized 장치를 주문합니다. 데이터를 장치에 복사합니다. AWS에서 새 EC2 인스턴스를 만들어 변환 애플리케이션을 실행합니다.

image.png

질문 #114주제 1

한 회사에서 사용자가 사진을 업로드하고 이미지에 사진 프레임을 추가할 수 있는 이미지 분석 애플리케이션을 만들었습니다. 사용자는 이미지와 메타데이터를 업로드하여 이미지에 추가할 사진 프레임을 나타냅니다. 이 애플리케이션은 단일 Amazon EC2 인스턴스와 Amazon DynamoDB를 사용하여 메타데이터를 저장합니다.

이 애플리케이션은 점점 더 인기를 얻고 있으며 사용자 수도 증가하고 있습니다. 이 회사는 동시 사용자 수가 시간대와 요일에 따라 크게 달라질 것으로 예상합니다. 이 회사는 애플리케이션이 증가하는 사용자 기반의 요구 사항을 충족하도록 확장할 수 있도록 해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A.AWS Lambda를 사용하여 사진을 처리합니다. DynamoDB에 사진과 메타데이터를 저장합니다.
  • B.Amazon Kinesis Data Firehose를 사용하여 사진을 처리하고 사진과 메타데이터를 저장합니다.
  • C. AWS Lambda를 사용하여 사진을 처리합니다. Amazon S3에 사진을 저장합니다. DynamoDB를 유지하여 메타데이터를 저장합니다.
  • D.EC2 인스턴스 수를 3개로 늘립니다. Provisioned IOPS SSD(io2) Amazon Elastic Block Store(Amazon EBS) 볼륨을 사용하여 사진과 메타데이터를 저장합니다.

질문 #115주제 1

의료 기록 회사가 Amazon EC2 인스턴스에서 애플리케이션을 호스팅하고 있습니다. 이 애플리케이션은 Amazon S3에 저장된 고객 데이터 파일을 처리합니다. EC2 인스턴스는 퍼블릭 서브넷에 호스팅됩니다. EC2 인스턴스는 인터넷을 통해 Amazon S3에 액세스하지만 다른 네트워크 액세스는 필요하지 않습니다.

새로운 요구 사항에 따라 파일 전송을 위한 네트워크 트래픽은 개인 경로를 사용해야 하며 인터넷을 통해 전송해서는 안 됩니다.

솔루션 아키텍트는 이 요구 사항을 충족하기 위해 네트워크 아키텍처에 어떤 변경을 권장해야 합니까?

  • A.NAT 게이트웨이를 만듭니다. NAT 게이트웨이를 통해 Amazon S3로 트래픽을 보낼 퍼블릭 서브넷의 경로 테이블을 구성합니다.
  • B.EC2 인스턴스의 보안 그룹을 구성하여 아웃바운드 트래픽을 제한하고 S3 접두사 목록에 대한 트래픽만 허용되도록 합니다.
  • C. EC2 인스턴스를 프라이빗 서브넷으로 이동합니다. Amazon S3에 대한 VPC 엔드포인트를 만들고 엔드포인트를 프라이빗 서브넷의 라우팅 테이블에 연결합니다.
  • D.VPC에서 인터넷 게이트웨이를 제거합니다. AWS Direct Connect 연결을 설정하고 Direct Connect 연결을 통해 Amazon S3로 트래픽을 라우팅합니다.

질문 #116주제 1

한 회사가 회사 웹사이트에 인기 있는 콘텐츠 관리 시스템(CMS)을 사용합니다. 그러나 필요한 패치와 유지 관리가 부담스럽습니다. 이 회사는 웹사이트를 재설계하고 있으며 새로운 솔루션을 원합니다. 웹사이트는 1년에 4번 업데이트되며 동적 콘텐츠를 사용할 필요가 없습니다. 솔루션은 높은 확장성과 향상된 보안을 제공해야 합니다.

어떤 변경 조합이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족시킬까요? (두 가지를 선택하세요.)

  • A. HTTPS 기능을 사용하도록 웹사이트 앞에 Amazon CloudFront를 구성합니다. → 보안 강화
  • B. HTTPS 기능을 제공하기 위해 웹사이트 앞에 AWS WAF 웹 ACL을 배포합니다.
  • C. AWS Lambda 함수를 생성하고 배포하여 웹사이트 콘텐츠를 관리하고 제공합니다.
  • D. 새 웹사이트와 Amazon S3 버킷을 만듭니다. 정적 웹사이트 호스팅이 활성화된 S3 버킷에 웹사이트를 배포합니다. → 정적 웹사이트면 S3
  • E. 새 웹사이트를 만듭니다. Application Load Balancer 뒤에 있는 Amazon EC2 인스턴스의 자동 확장 그룹을 사용하여 웹사이트를 배포합니다.

질문 #117주제 1

한 회사가 애플리케이션 로그를 Amazon CloudWatch Logs 로그 그룹에 저장합니다. 새로운 정책에 따라 회사는 모든 애플리케이션 로그를 거의 실시간으로 Amazon OpenSearch Service(Amazon Elasticsearch Service)에 저장해야 합니다.

어떤 솔루션이 가장 적은 운영 오버헤드로 이 요구 사항을 충족할까요?

  • A. Amazon OpenSearch Service(Amazon Elasticsearch Service)로 로그를 스트리밍하도록 CloudWatch Logs 구독을 구성합니다. → 실시간
  • B.AWS Lambda 함수를 만듭니다. 로그 그룹을 사용하여 Amazon OpenSearch Service(Amazon Elasticsearch Service)에 로그를 쓰는 함수를 호출합니다.
  • C.Amazon Kinesis Data Firehose 전송 스트림을 만듭니다. 전송 스트림 소스로 로그 그룹을 구성합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service)를 전송 스트림의 대상으로 구성합니다.
  • D.각 애플리케이션 서버에 Amazon Kinesis Agent를 설치하고 구성하여 Amazon Kinesis Data Streams에 로그를 전달합니다. Kinesis Data Streams를 구성하여 Amazon OpenSearch Service(Amazon Elasticsearch Service)에 로그를 전달합니다.

질문 #119주제 1

글로벌 기업이 Amazon API Gateway를 사용하여 us-east-1 지역과 ap-southeast-2 지역의 로열티 클럽 사용자를 위한 REST API를 설계하고 있습니다. 솔루션 아키텍트는 여러 계정에서 이러한 API Gateway 관리 REST API를 SQL 주입 및 크로스 사이트 스크립팅 공격으로부터 보호하는 솔루션을 설계해야 합니다.

어떤 솔루션이 최소한의 관리 노력으로 이러한 요구 사항을 충족할까요?

  • A.두 지역에 AWS WAF를 설정합니다. 지역 웹 ACL을 API 단계에 연결합니다.
  • B.두 리전 모두에 AWS Firewall Manager를 설정합니다. AWS WAF 규칙을 중앙에서 구성합니다.
  • C.Bath Regions에 AWS Shield를 설정합니다. 지역 웹 ACL을 API 단계에 연결합니다.
  • D.리전 중 하나에 AWS Shield를 설정합니다. 리전 웹 ACL을 API 스테이지와 연결합니다.

*AWS WAF: 웹 애플리케이션이나 API를 웹 공격으로부터 보호하기 위한 웹 애플리케이션 방화벽

*AWS Firewall Manager: 여러 계정과 애플리케이션에 대한 방화벽 규칙을 중앙에서 구성하고 관리할 수 있는 보안 관리 서비스

질문 #122주제 1

한 회사가 애플리케이션에서 데이터를 암호화해야 하는 개발자를 지원하기 위해 확장 가능한 키 관리 인프라를 구축하려고 합니다.

솔루션 아키텍트는 운영 부담을 줄이기 위해 무엇을 해야 할까요?

  • A. 다중 인증 요소(MFA)를 사용하여 암호화 키를 보호합니다.
  • B. AWS Key Management Service(AWS KMS)를 사용하여 암호화 키를 보호합니다. → 관리형 암호화
  • C. AWS Certificate Manager(ACM)를 사용하여 암호화 키를 생성, 저장 및 할당합니다.
  • D. IAM 정책을 사용하여 암호화 키를 보호하기 위한 액세스 권한이 있는 사용자 범위를 제한합니다.

질문 #123주제 1

한 회사에 두 개의 Amazon EC2 인스턴스에 호스팅된 동적 웹 애플리케이션이 있습니다. 이 회사는 자체 SSL 인증서를 가지고 있으며, 각 인스턴스에 SSL 종료를 수행합니다.

최근 트래픽이 증가했고 운영 팀은 SSL 암호화 및 복호화로 인해 웹 서버의 컴퓨팅 용량이 최대 한도에 도달하고 있다고 판단했습니다.

솔루션 아키텍트는 애플리케이션의 성능을 높이기 위해 무엇을 해야 할까요?

  • A. AWS Certificate Manager(ACM)를 사용하여 새 SSL 인증서를 만듭니다. 각 인스턴스에 ACM 인증서를 설치합니다.
  • B. Amazon S3 버킷 만들기 SSL 인증서를 S3 버킷으로 마이그레이션합니다. EC2 인스턴스가 SSL 종료를 위해 버킷을 참조하도록 구성합니다.
  • C. 프록시 서버로 다른 EC2 인스턴스를 만듭니다. SSL 인증서를 새 인스턴스로 마이그레이션하고 기존 EC2 인스턴스에 직접 연결하도록 구성합니다.
  • D. SSL 인증서를 AWS Certificate Manager(ACM)로 가져옵니다. ACM의 SSL 인증서를 사용하는 HTTPS 리스너가 있는 Application Load Balancer를 만듭니다.

질문 #125주제 1

한 회사가 AWS에서 2계층 전자상거래 웹사이트를 운영합니다. 웹 계층은 Amazon EC2 인스턴스로 트래픽을 보내는 로드 밸런서로 구성됩니다. 데이터베이스 계층은 Amazon RDS DB 인스턴스를 사용합니다. EC2 인스턴스와 RDS DB 인스턴스는 퍼블릭 인터넷에 노출되어서는 안 됩니다. EC2 인스턴스는 타사 웹 서비스를 통해 주문의 결제 처리를 완료하기 위해 인터넷 액세스가 필요합니다. 애플리케이션은 고가용성이어야 합니다.

이러한 요구 사항을 충족하는 구성 옵션의 조합은 무엇입니까? (두 가지를 선택하세요.)

  • A. 자동 확장 그룹을 사용하여 프라이빗 서브넷에서 EC2 인스턴스를 시작합니다. 프라이빗 서브넷에 RDS Multi-AZ DB 인스턴스를 배포합니다.
  • B. 두 개의 가용성 영역에 걸쳐 두 개의 프라이빗 서브넷과 두 개의 NAT 게이트웨이가 있는 VPC를 구성합니다. 프라이빗 서브넷에 애플리케이션 로드 밸런서를 배포합니다.
  • C. 자동 확장 그룹을 사용하여 두 가용성 영역에 걸쳐 퍼블릭 서브넷에서 EC2 인스턴스를 시작합니다. 프라이빗 서브넷에 RDS Multi-AZ DB 인스턴스를 배포합니다.
  • D. 두 개의 가용성 영역에 걸쳐 하나의 퍼블릭 서브넷, 하나의 프라이빗 서브넷, 두 개의 NAT 게이트웨이가 있는 VPC를 구성합니다. 퍼블릭 서브넷에 애플리케이션 로드 밸런서를 배포합니다.
  • E. 두 개의 가용성 영역에 걸쳐 두 개의 퍼블릭 서브넷, 두 개의 프라이빗 서브넷, 두 개의 NAT 게이트웨이가 있는 VPC를 구성합니다. 퍼블릭 서브넷에 애플리케이션 로드 밸런서를 배포합니다.

질문 #126주제 1

솔루션 아키텍트는 회사의 스토리지 비용을 줄이기 위한 솔루션을 구현해야 합니다. 회사의 모든 데이터는 Amazon S3 Standard 스토리지 클래스에 있습니다. 회사는 모든 데이터를 최소 25년 동안 보관해야 합니다. 가장 최근 2년의 데이터는 가용성이 높고 즉시 검색할 수 있어야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. 객체를 S3 Glacier Deep Archive로 즉시 전환하기 위한 S3 수명 주기 정책을 설정합니다.
  • B. 2년 후 객체를 S3 Glacier Deep Archive로 전환하기 위한 S3 수명 주기 정책을 설정합니다.
  • C. S3 Intelligent-Tiering을 사용합니다. 보관 옵션을 활성화하여 데이터가 S3 Glacier Deep Archive에 보관되도록 합니다. → Intelligent-Tiering은 일정 시간뒤에 보관되기때문에 최근 2년의 데이터를 즉시 검색하기 어려울 수 있음.
  • D. 객체를 즉시 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환하고 2년 후에는 S3 Glacier Deep Archive로 전환하는 S3 수명 주기 정책을 설정합니다

질문 #128주제 1

어떤 회사가 AWS 클라우드의 컨테이너에서 애플리케이션을 실행하려고 합니다. 이러한 애플리케이션은 무상태이며 기본 인프라 내에서 중단을 허용할 수 있습니다. 이 회사에는 비용과 운영 오버헤드를 최소화하는 솔루션이 필요합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 할까요?

  • A. Amazon EC2 Auto Scaling 그룹에서 스팟 인스턴스를 사용하여 애플리케이션 컨테이너를 실행합니다.
  • B. Amazon Elastic Kubernetes Service(Amazon EKS) 관리형 노드 그룹에서 스팟 인스턴스를 사용합니다.
  • C. Amazon EC2 Auto Scaling 그룹에서 온디맨드 인스턴스를 사용하여 애플리케이션 컨테이너를 실행합니다.
  • D. Amazon Elastic Kubernetes Service(Amazon EKS) 관리형 노드 그룹에서 온디맨드 인스턴스를 사용합니다.

*AWS Elastic Kubernetes Service: Kubernetes를 쉽게 운영할 수 있도록 관리형 서비스로 제공되는 컨테이너 오케스트레이션 플랫폼

질문 #129주제 1

한 회사가 온프레미스에서 다중 계층 웹 애플리케이션을 실행하고 있습니다. 웹 애플리케이션은 컨테이너화되어 있으며 사용자 레코드가 포함된 PostgreSQL 데이터베이스에 연결된 여러 Linux 호스트에서 실행됩니다. 인프라와 용량 계획을 유지하는 운영 오버헤드가 회사의 성장을 제한하고 있습니다. 솔루션 아키텍트는 애플리케이션의 인프라를 개선해야 합니다.

솔루션 아키텍트는 이를 달성하기 위해 어떤 조치 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A. PostgreSQL 데이터베이스를 Amazon Aurora로 마이그레이션합니다.
  • B. 웹 애플리케이션을 Amazon EC2 인스턴스에 호스팅되도록 마이그레이션합니다.
  • C. 웹 애플리케이션 콘텐츠를 위한 Amazon CloudFront 배포를 설정합니다.
  • D. 웹 애플리케이션과 PostgreSQL 데이터베이스 사이에 Amazon ElastiCache를 설정합니다.
  • E.Amazon Elastic Container Service(Amazon ECS)를 사용하여 AWS Fargate에 호스팅되는 웹 애플리케이션을 마이그레이션합니다.

*Amazon Aurora: MySQL, PostgreSQL과 호환되는 완전 관리형 관계형 데이터베이스 엔진, 클러스터 볼륨은 자동확장되며 안정성이 높음.

*SWS Fargate: 컨테이너에 적합한 서버리스 컴퓨팅

질문 #130주제 1

애플리케이션은 여러 가용성 구역에 걸쳐 Amazon EC2 인스턴스에서 실행됩니다. 인스턴스는 애플리케이션 로드 밸런서 뒤의 Amazon EC2 자동 확장 그룹에서 실행됩니다. 애플리케이션은 EC2 인스턴스의 CPU 사용률이 40%에 도달하거나 그 근처에 있을 때 가장 잘 수행됩니다.

솔루션 아키텍트는 그룹의 모든 인스턴스에서 원하는 성능을 유지하기 위해 무엇을 해야 합니까?

  • A. 간단한 크기 조정 정책을 사용하여 자동 크기 조정 그룹을 동적으로 크기 조정합니다.
  • B. 대상 추적 정책(Target tracking policy)을 사용하여 자동 크기 조정 그룹을 동적으로 크기 조정합니다.
  • C. AWS Lambda 함수를 사용하여 원하는 자동 확장 그룹 용량을 업데이트합니다.
  • D. 예약된 크기 조정 작업을 사용하여 자동 크기 조정 그룹을 확장하거나 축소합니다.

*Target tracking policy: 애플리케이션의 이상적인 평균 사용률 또는 처리량 등 목표 값을 선택해서 자동으로 조정

질문 #131주제 1

한 회사가 Amazon S3 버킷을 스토리지로 사용하는 파일 공유 애플리케이션을 개발하고 있습니다. 이 회사는 모든 파일을 Amazon CloudFront 배포를 통해 제공하고자 합니다. 이 회사는 S3 URL로 직접 탐색하여 파일에 액세스할 수 있기를 원하지 않습니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A.각 S3 버킷에 대해 개별 정책을 작성하여 CloudFront 액세스에 대해서만 읽기 권한을 부여합니다.
  • B.IAM 사용자를 만듭니다. 사용자에게 S3 버킷의 객체에 대한 읽기 권한을 부여합니다. 사용자를 CloudFront에 할당합니다.
  • C.CloudFront 배포 ID를 주체로 지정하고 대상 S3 버킷을 Amazon 리소스 이름(ARN)으로 지정하는 S3 버킷 정책을 작성합니다.
  • D.Origin Acces ID(OAI)를 만듭니다. OAI를 CloudFront 배포에 할당합니다. S3 버킷 권한을 구성하여 OAI만 읽기 권한을 갖도록 합니다.

*CloudFront Origin Access ID(OAI): Amazon Simple Storage Service(Amazon S3) 버킷에 대한 액세스를 제한하여 Amazon CloudFront 배포를 통해서만 객체에 액세스할 수 있도록 하고 싶습니다. 어떻게 해야 하나요? CloudFront 원본 액세스 ID(OAI)를 만드세요.

질문 #132주제 1

회사 웹사이트는 사용자에게 다운로드 가능한 과거 성과 보고서를 제공합니다. 웹사이트에는 회사의 웹사이트 수요를 전 세계적으로 충족할 수 있는 확장 가능한 솔루션이 필요합니다. 솔루션은 비용 효율적이어야 하며 인프라 리소스의 제공을 제한해야 하며 가능한 가장 빠른 응답 시간을 제공해야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 조합을 권장해야 합니까?

  • A. Amazon CloudFront 및 Amazon S3 → 과거 보고서 = 정적 콘텐츠 = S3
  • B. AWS Lambda 및 Amazon DynamoDB
  • C. Amazon EC2 자동 확장을 갖춘 애플리케이션 로드 밸런서
  • D. 내부 애플리케이션 로드 밸런서가 있는 Amazon Route 53

질문 #133주제 1

한 회사가 사내에서 Oracle 데이터베이스를 운영합니다. 회사가 AWS로 마이그레이션하는 과정에서 회사는 데이터베이스를 최신 버전으로 업그레이드하려고 합니다. 회사는 또한 데이터베이스에 대한 재해 복구(DR)를 설정하려고 합니다. 회사는 정상적인 운영 및 DR 설정에 대한 운영 오버헤드를 최소화해야 합니다. 회사는 또한 데이터베이스의 기본 운영 체제에 대한 액세스를 유지해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. Oracle 데이터베이스를 Amazon EC2 인스턴스로 마이그레이션합니다. 다른 AWS 리전으로 데이터베이스 복제를 설정합니다.
  • B. Oracle 데이터베이스를 Amazon RDS for Oracle로 마이그레이션합니다. Cross-Region 자동 백업을 활성화하여 스냅샷을 다른 AWS Region으로 복제합니다.
  • C. Oracle 데이터베이스를 Amazon RDS Custom for Oracle로 마이그레이션합니다. 다른 AWS Region에서 데이터베이스에 대한 읽기 복제본을 만듭니다.
  • D. Oracle 데이터베이스를 Amazon RDS for Oracle로 마이그레이션합니다. 다른 가용성 영역에 대기 데이터베이스를 만듭니다.

*Amazon RDS Custom for Oracle : OS에 대한 루트 액세스 권한 제공 (↔ RDS for Oracle)

질문 #134주제 1

한 회사가 자사 애플리케이션을 서버리스 솔루션으로 옮기고 싶어합니다. 서버리스 솔루션은 SQL을 사용하여 기존 데이터와 새 데이터를 분석해야 합니다. 회사는 Amazon S3 버킷에 데이터를 저장합니다. 데이터는 암호화가 필요하고 다른 AWS 리전으로 복제해야 합니다.

어떤 솔루션이 가장 적은 운영 오버헤드로 이러한 요구 사항을 충족할까요?

  • A.새 S3 버킷을 만듭니다. 새 S3 버킷에 데이터를 로드합니다. S3 Cross-Region Replication(CRR)을 사용하여 암호화된 객체를 다른 지역의 S3 버킷에 복제합니다. AWS KMS 다중 지역 keys(SSE-KMS)로 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
  • B.새 S3 버킷을 만듭니다. 새 S3 버킷에 데이터를 로드합니다. S3 Cross-Region Replication(CRR)을 사용하여 암호화된 객체를 다른 지역의 S3 버킷에 복제합니다. AWS KMS 다중 지역 키(SSE-KMS)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다.
  • C.기존 S3 버킷에 데이터를 로드합니다. S3 Cross-Region Replication(CRR)을 사용하여 암호화된 객체를 다른 지역의 S3 버킷에 복제합니다. Amazon S3 관리 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
  • D.기존 S3 버킷에 데이터를 로드합니다. S3 Cross-Region Replication(CRR)을 사용하여 암호화된 객체를 다른 지역의 S3 버킷에 복제합니다. Amazon S3 관리 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다.

*Amazon Athena: 서버리스 (↔ RDS): S3 데이터를 직접 쿼리 가능하다

질문 #135주제 1

회사가 AWS에서 워크로드를 실행합니다. 회사는 외부 공급자의 서비스에 연결해야 합니다. 서비스는 공급자의 VPC에서 호스팅됩니다. 회사의 보안 팀에 따르면 연결은 비공개여야 하며 대상 서비스로 제한되어야 합니다. 연결은 회사의 VPC에서만 시작해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A.회사의 VPC와 공급자의 VPC 사이에 VPC 피어링 연결을 만듭니다. 대상 서비스에 연결하기 위해 경로 테이블을 업데이트합니다. → VPC 피어링은 VPC 전체에 대한 접근 권한을 제공함.
  • B.공급자에게 VPC에 가상 사설 게이트웨이를 만들도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에 연결합니다.
  • C.회사 VP의 공용 서브넷에 NAT 게이트웨이를 생성하고 경로 테이블을 업데이트하여 대상 서비스에 연결합니다.
  • D. 공급자에게 대상 서비스에 대한 VPC 엔드포인트를 생성하도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에 연결합니다. → 특정 서비스 엔드포인트에 비공개로 연결할 수 있음.

질문 #136주제 1

한 회사가 온프레미스 PostgreSQL 데이터베이스를 Amazon Aurora PostgreSQL로 마이그레이션하고 있습니다. 온프레미스 데이터베이스는 마이그레이션하는 동안 온라인 상태를 유지하고 액세스 가능해야 합니다. Aurora 데이터베이스는 온프레미스 데이터베이스와 동기화 상태를 유지해야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 작업 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A. 지속적인 복제 작업(Continuous Replication)을 생성합니다. → PostgreSQL에서 Aurora로 실시간으로 동기화
  • B. 온프레미스 데이터베이스의 데이터베이스 백업을 만듭니다.
  • C. AWS Database Migration Service(AWS DMS) 복제 서버를 생성합니다. → 온프레미스 데이터베이스에서 Aurora로 데이터를 복사하고 동기화하는데 사용됨
  • D. AWS Schema Conversion Tool(AWS SCT)을 사용하여 데이터베이스 스키마를 변환합니다.
  • E. 데이터베이스 동기화를 모니터링하기 위해 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 만듭니다.

질문 #137주제 1

한 회사에서는 AWS Organizations를 사용하여 각 사업부에 대한 전담 AWS 계정을 만들어 요청에 따라 각 사업부의 계정을 독립적으로 관리합니다. 루트 이메일 수신자는 한 계정의 루트 사용자 이메일 주소로 전송된 알림을 놓쳤습니다. 이 회사는 모든 향후 알림이 누락되지 않도록 하려고 합니다. 향후 알림은 계정 관리자로 제한해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A.AWS 계정 루트 사용자 이메일 주소로 전송된 알림 이메일 메시지를 조직의 모든 사용자에게 전달하도록 회사의 이메일 서버를 구성합니다.
  • B.모든 AWS 계정 루트 사용자 이메일 주소를 알림에 응답할 수 있는 몇몇 관리자에게 전달되는 배포 목록으로 구성합니다. AWS Organizations 콘솔이나 프로그래밍 방식으로 AWS 계정 대체 연락처를 구성합니다.
  • C.모든 AWS 계정 루트 사용자 이메일 메시지를 알림을 모니터링하고 해당 알림을 적절한 그룹에 전달하는 책임을 맡은 한 명의 관리자에게 보내도록 구성합니다.
  • D.모든 기존 AWS 계정과 새로 생성된 모든 계정이 동일한 루트 사용자 이메일 주소를 사용하도록 구성합니다. AWS Organizations 콘솔이나 프로그래밍 방식으로 AWS 계정 대체 연락처를 구성합니다.

질문 #139주제 1

보고 팀은 매일 Amazon S3 버킷에서 파일을 수신합니다. 보고 팀은 매일 이 초기 S3 버킷에서 파일을 수동으로 검토하고 동시에 분석 S3 버킷으로 복사하여 Amazon QuickSight에서 사용합니다. 다른 팀에서 더 큰 크기의 파일을 초기 S3 버킷으로 보내기 시작했습니다.

보고 팀은 파일이 초기 S3 버킷에 들어가면 자동으로 분석 S3 버킷으로 파일을 이동하려고 합니다. 보고 팀은 또한 AWS Lambda 함수를 사용하여 복사된 데이터에서 패턴 매칭 코드를 실행하려고 합니다. 또한 보고 팀은 데이터 파일을 Amazon SageMaker Pipelines의 파이프라인으로 보내려고 합니다.

솔루션 아키텍트는 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A.Lambda 함수를 만들어 파일을 분석 S3 버킷에 복사합니다. 분석 S3 버킷에 대한 S3 이벤트 알림을 만듭니다. Lambda 및 SageMaker 파이프라인을 이벤트 알림의 대상으로 구성합니다. s3:ObjectCreated:Put을 이벤트 유형으로 구성합니다. → Lambda 함수로 파일 복사를 하는 것은 직접적인 데이터 이동을 담당해야하므로 복잡도 증가
  • B.Lambda 함수를 만들어 파일을 분석 S3 버킷에 복사합니다. 분석 S3 버킷을 구성하여 Amazon EventBridge(Amazon CloudWatch Events)에 이벤트 알림을 보냅니다. EventBridge(CloudWatch Events)에서 ObjectCreated 규칙을 구성합니다. Lambda 및 SageMaker 파이프라인을 규칙의 대상으로 구성합니다.
  • C.S3 버킷 간에 S3 복제를 구성합니다. 분석 S3 버킷에 대한 S3 이벤트 알림을 만듭니다. Lambda 및 SageMaker 파이프라인을 이벤트 알림의 대상으로 구성합니다. s3:ObjectCreated:Put을 이벤트 유형으로 구성합니다. → S3 event 알림은 sagemaker로 직접 보낼 수 없음 (sns, sqs, lambda로만 보낼 수 있음)
  • D. S3 버킷 간에 S3 복제를 구성합니다. 분석 S3 버킷을 구성하여 Amazon EventBridge(Amazon CloudWatch Events)에 이벤트 알림을 보냅니다. EventBridge(CloudWatch Events)에서 ObjectCreated 규칙을 구성합니다. Lambda 및 SageMaker 파이프라인을 규칙의 대상으로 구성합니다.

질문 #140주제 1

솔루션 아키텍트는 회사가 AWS에서 애플리케이션을 실행하는 데 드는 비용을 최적화하도록 도와야 합니다. 이 애플리케이션은 아키텍처 내에서 컴퓨팅을 위해 Amazon EC2 인스턴스, AWS Fargate, AWS Lambda를 사용합니다.

EC2 인스턴스는 애플리케이션의 데이터 수집 계층을 실행합니다. EC2 사용은 산발적이고 예측할 수 없습니다. EC2 인스턴스에서 실행되는 워크로드는 언제든지 중단될 수 있습니다. 애플리케이션 프런트 엔드는 Fargate에서 실행되고 Lambda는 API 계층을 제공합니다. 프런트 엔드 사용률과 API 계층 사용률은 내년 내내 예측 가능합니다.

이 애플리케이션을 호스팅하는 데 가장 비용 효율적인 솔루션을 제공하는 구매 옵션의 조합은 무엇입니까? (두 가지를 선택하십시오.)

  • A.데이터 수집 계층에 Spot Instances 사용
  • B.데이터 수집 계층에 온디맨드 인스턴스 사용
  • C.프런트엔드 및 API 계층에 대한 1년 컴퓨팅 절감 플랜 (Computing Savings Plan)을 구매하세요.
  • D.데이터 수집 계층에 대해 1년 선불 예약 인스턴스를 구매합니다.
  • E.프런트엔드 및 API 계층에 대한 1년 EC2 인스턴스 절감 플랜 (EC2 Instance Saving Plan)을 구매하세요.

*Computing Savings Plan: Ec2, Fargate, Lambda 등 모든 컴퓨팅 서비스에 적용 가능

*EC2 Instance Savings Plan: EC2 전용

질문 #142주제 1

게임 회사가 고가용성 아키텍처를 설계하고 있습니다. 이 애플리케이션은 수정된 Linux 커널에서 실행되며 UDP 기반 트래픽만 지원합니다. 이 회사는 최상의 사용자 경험을 제공하기 위해 프런트엔드 계층이 필요합니다. 이 계층은 대기 시간이 짧아야 하고, 트래픽을 가장 가까운 에지 위치로 라우팅해야 하며, 애플리케이션 엔드포인트에 진입하기 위한 정적 IP 주소를 제공해야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. Amazon Route 53을 구성하여 요청을 애플리케이션 로드 밸런서로 전달합니다. AWS 애플리케이션 자동 스케일링에서 애플리케이션에 AWS Lambda를 사용합니다.
  • B. Amazon CloudFront를 구성하여 Network Load Balancer로 요청을 전달합니다. AWS Application Auto Scaling 그룹의 애플리케이션에 AWS Lambda를 사용합니다.
  • C. AWS Global Accelerator를 구성하여 Network Load Balancer로 요청을 전달합니다. EC2 Auto Scaling 그룹의 애플리케이션에 Amazon EC2 인스턴스를 사용합니다.
  • D. Amazon API Gateway를 구성하여 Application Load Balancer로 요청을 전달합니다. EC2 Auto Scaling 그룹의 애플리케이션에 Amazon EC2 인스턴스를 사용합니다.

*UDP 트래픽은 ALB에서 지원되지 않으므로 Network Load Balancer(NLB)가 필요함

질문 #143주제 1

어떤 회사가 기존 온프레미스 모놀리식 애플리케이션을 AWS로 마이그레이션하려고 합니다. 이 회사는 가능한 한 프런트엔드 코드와 백엔드 코드를 많이 유지하고 싶어합니다. 하지만 이 회사는 애플리케이션을 더 작은 애플리케이션으로 나누고 싶어합니다. 각 애플리케이션은 다른 팀이 관리합니다. 이 회사는 운영 오버헤드를 최소화하는 확장성이 뛰어난 솔루션이 필요합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. AWS Lambda에서 애플리케이션을 호스팅합니다. 애플리케이션을 Amazon API Gateway와 통합합니다.
  • B. AWS Amplify로 애플리케이션을 호스팅합니다. AWS Lambda와 통합된 Amazon API Gateway API에 애플리케이션을 연결합니다.
  • C. Amazon EC2 인스턴스에서 애플리케이션을 호스팅합니다. Auto Scaling 그룹의 EC2 인스턴스를 대상으로 애플리케이션 로드 밸런서를 설정합니다.
  • D. Amazon Elastic Container Service(Amazon ECS)에서 애플리케이션을 호스팅합니다. Amazon ECS를 대상으로 Application Load Balancer를 설정합니다.

질문 #144주제 1

한 회사가 최근 Amazon Aurora를 글로벌 전자상거래 애플리케이션의 데이터 저장소로 사용하기 시작했습니다. 대규모 보고서를 실행하면 개발자는 전자상거래 애플리케이션의 성능이 좋지 않다고 보고합니다. Amazon CloudWatch에서 메트릭을 검토한 후 솔루션 아키텍트는 월별 보고서를 실행할 때 ReadIOPS 및 CPUUtilizalion 메트릭이 급증하는 것을 발견했습니다.

가장 비용 효율적인 솔루션은 무엇입니까?

  • A.월별 보고서를 Amazon Redshift로 마이그레이션합니다.
  • B. 월별 보고서를 Aurora Replica로 마이그레이션합니다.
  • C.Aurora 데이터베이스를 더 큰 인스턴스 클래스로 마이그레이션합니다.
  • D.Aurora 인스턴스에서 프로비저닝된 IOPS를 늘립니다.

질문 #145주제 1

한 회사가 단일 Amazon EC2 On-Demand 인스턴스에서 웹사이트 분석 애플리케이션을 호스팅합니다. 분석 소프트웨어는 PHP로 작성되었으며 MySQL 데이터베이스를 사용합니다. 분석 소프트웨어, PHP를 제공하는 웹 서버, 데이터베이스 서버는 모두 EC2 인스턴스에서 호스팅됩니다. 이 애플리케이션은 바쁜 시간에 성능 저하 징후를 보이고 5xx 오류가 발생합니다. 이 회사는 애플리케이션을 원활하게 확장해야 합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족할 솔루션은 무엇입니까?

  • A. 데이터베이스를 Amazon RDS for MySQL DB 인스턴스로 마이그레이션합니다. 웹 애플리케이션의 AMI를 만듭니다. AMI를 사용하여 두 번째 EC2 On-Demand 인스턴스를 시작합니다. Application Load Balancer를 사용하여 각 EC2 인스턴스에 부하를 분산합니다.
  • B. 데이터베이스를 Amazon RDS for MySQL DB 인스턴스로 마이그레이션합니다. 웹 애플리케이션의 AMI를 만듭니다. AMI를 사용하여 두 번째 EC2 On-Demand 인스턴스를 시작합니다. Amazon Route 53 가중 라우팅을 사용하여 두 EC2 인스턴스에 부하를 분산합니다.
  • C. 데이터베이스를 Amazon Aurora MySQL DB 인스턴스로 마이그레이션합니다. EC2 인스턴스를 중지하고 인스턴스 유형을 변경하는 AWS Lambda 함수를 만듭니다. CPU 사용률이 75%를 초과하면 Lambda 함수를 호출하는 Amazon CloudWatch 알람을 만듭니다.
  • D. 데이터베이스를 Amazon Aurora MySQL DB 인스턴스로 마이그레이션합니다. 웹 애플리케이션의 AMI를 만듭니다. AMI를 시작 템플릿에 적용합니다. 시작 템플릿으로 자동 확장 그룹을 만듭니다. Spot Fleet을 사용하도록 시작 템플릿을 구성합니다. 자동 확장 그룹에 애플리케이션 로드 밸런서를 연결합니다.

*spot fleet은 설정된 목표 용량을 달성하기 위해 가장 비용 효율적인 인스턴스를 선택한다.

질문 #146주제 1

한 회사가 애플리케이션 로드 밸런서 뒤에 있는 Amazon EC2 온디맨드 인스턴스 그룹에서 프로덕션에서 상태 없는 웹 애플리케이션을 실행합니다. 이 애플리케이션은 각 영업일 8시간 동안 많은 사용량을 경험합니다. 애플리케이션 사용량은 밤새 적당하고 안정적입니다. 주말에는 애플리케이션 사용량이 낮습니다.

이 회사는 애플리케이션의 가용성에 영향을 미치지 않으면서 EC2 비용을 최소화하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A.전체 작업 부하에 대해 스팟 인스턴스를 사용합니다.
  • B.기본 사용 수준에 예약 인스턴스를 사용합니다. 애플리케이션에 필요한 추가 용량에는 스팟 인스턴스를 사용합니다.
  • C.기본 사용 수준에는 온디맨드 인스턴스를 사용합니다. 애플리케이션에 필요한 추가 용량에는 스팟 인스턴스를 사용합니다.
  • D.기본 사용 수준에는 전용 인스턴스를 사용합니다. 애플리케이션에 필요한 추가 용량에는 온디맨드 인스턴스를 사용합니다.

질문 #148주제 1

어떤 회사에는 다음 구성 요소가 포함된 데이터 수집 워크플로가 있습니다.

새 데이터 전송에 대한 알림을 수신하는 Amazon Simple Notification Service(Amazon SNS) 토픽

데이터를 처리하고 저장하는 AWS Lambda 함수

수집 워크플로는 가끔 네트워크 연결 문제로 인해 실패합니다. 실패가 발생하면 회사에서 수동으로 작업을 다시 실행하지 않는 한 해당 데이터는 수집되지 않습니다.

솔루션 아키텍트는 모든 알림이 결국 처리되도록 하기 위해 무엇을 해야 합니까?

  • A.여러 가용성 영역에 배포하기 위해 Lambda 함수를 구성합니다.
  • B.Lambda 함수의 구성을 수정하여 함수에 대한 CPU 및 메모리 할당을 늘립니다.
  • C.SNS 토픽의 재시도 전략을 구성하여 재시도 횟수와 재시도 간 대기 시간을 모두 늘립니다.
  • D.Amazon Simple Queue Service(Amazon SQS) 대기열을 실패 시 목적지(On-failure destination)로 구성합니다. 대기열의 메시지를 처리하도록 Lambda 함수를 수정합니다.

질문 #150주제 1

회사에서 온프레미스 서버에서 Amazon EC2 인스턴스로 애플리케이션을 마이그레이션하고 있습니다. 마이그레이션 설계 요구 사항의 일부로 솔루션 아키텍트는 인프라 메트릭 알람을 구현해야 합니다. CPU 사용률이 짧은 시간 동안 50% 이상으로 증가하는 경우 회사는 조치를 취할 필요가 없습니다. 그러나 CPU 사용률이 50% 이상으로 증가하고 디스크의 읽기 IOPS가 동시에 높은 경우 회사는 가능한 한 빨리 조치를 취해야 합니다. 솔루션 아키텍트는 또한 거짓 알람을 줄여야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 가능한 경우 Amazon CloudWatch 복합 경보를 생성합니다.
  • B. Amazon CloudWatch 대시보드를 만들어 지표를 시각화하고 문제에 신속하게 대응합니다.
  • C. Amazon CloudWatch Synthetics 카나리아를 생성하여 애플리케이션을 모니터링하고 경보를 발생시킵니다.
  • D. 가능한 경우 여러 개의 메트릭 임계값을 사용하여 단일 Amazon CloudWatch 메트릭 알람을 생성합니다.

질문 #151주제 1

어떤 회사가 온프레미스 데이터 센터를 AWS로 마이그레이션하려고 합니다. 회사의 규정 준수 요구 사항에 따르면, 회사는 ap-northeast-3 지역만 사용할 수 있습니다. 회사 관리자는 VPC를 인터넷에 연결할 수 없습니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요? (두 가지를 선택하세요.)

  • A.AWS Control Tower를 사용하여 데이터 상주 가드레일을 구현하여 인터넷 액세스를 거부하고 ap-northeast-3을 제외한 모든 AWS 지역에 대한 액세스를 거부합니다.
  • B.AWS WAF의 규칙을 사용하여 인터넷 접근을 차단합니다. AWS 계정 설정에서 ap-northeast-3을 제외한 모든 AWS 리전에 대한 접근을 거부합니다. → WAP는 web application firewall로 웹 애플리케이션 API를 다양한 위협으로 부터 보호
  • C. AWS Organizations를 사용하여 VPC가 인터넷에 액세스하지 못하도록 하는 서비스 제어 정책(SCPS)을 구성합니다. ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
  • D.각 VPC의 네트워크 ACL에 대한 아웃바운드 규칙을 만들어 0.0.0.0/0에서 오는 모든 트래픽을 거부합니다. 각 사용자에 대한 IAM 정책을 만들어 ap-northeast-3 외의 AWS 리전을 사용하지 못하도록 합니다.
  • E. AWS Config를 사용하여 인터넷 게이트웨이를 감지하고 경고하는 관리형 규칙을 활성화하고 ap-northeast-3 외부에 배포된 새 리소스를 감지하고 경고합니다.

질문 #152주제 1

한 회사에서는 3계층 웹 애플리케이션을 사용하여 신입 직원에게 교육을 제공합니다. 이 애플리케이션은 매일 12시간만 액세스합니다. 이 회사는 Amazon RDS for MySQL DB 인스턴스를 사용하여 정보를 저장하고 비용을 최소화하려고 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. AWS Systems Manager Session Manager에 대한 IAM 정책을 구성합니다. 정책에 대한 IAM 역할을 만듭니다. 역할의 신뢰 관계를 업데이트합니다. DB 인스턴스에 대한 자동 시작 및 중지를 설정합니다.
  • B. DB 인스턴스가 중지될 때 사용자가 캐시에서 데이터에 액세스할 수 있는 기능을 제공하는 Amazon ElastiCache for Redis 캐시 클러스터를 만듭니다. DB 인스턴스가 시작된 후 캐시를 무효화합니다.
  • C. Amazon EC2 인스턴스를 시작합니다. Amazon RDS에 대한 액세스를 부여하는 IAM 역할을 만듭니다. 역할을 EC2 인스턴스에 연결합니다. 원하는 일정에 따라 EC2 인스턴스를 시작하고 중지하는 cron 작업을 구성합니다. → RDS 비용 최소화할 수는 없음.
  • D. DB 인스턴스를 시작하고 중지하기 위한 AWS Lambda 함수를 만듭니다. Lambda 함수를 호출하기 위한 Amazon EventBridge(Amazon CloudWatch Events) 예약 규칙을 만듭니다. 규칙에 대한 이벤트 대상으로 Lambda 함수를 구성합니다.

질문 #154주제 1

어떤 회사는 의학 실험 결과를 Amazon S3 저장소에 저장해야 합니다. 저장소는 몇몇 과학자가 새 파일을 추가할 수 있도록 허용해야 하고 다른 모든 사용자는 읽기 전용 액세스로 제한해야 합니다. 어떤 사용자도 저장소의 파일을 수정하거나 삭제할 수 없습니다. 회사는 생성일로부터 최소 1년 동안 저장소의 모든 파일을 보관해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. 1년의 법적 보관 기간으로 거버넌스 모드에서 S3 개체 잠금을 사용합니다. → governance 모드는 계정 관리자가 잠금을 해제할 수 있는데 일부 사용자가 잠금을 해제하고 데이터를 변경할 수 있어서 적합하지 않음.
  • B. 보관 기간이 365일인 규정 준수 모드(Compliance mode)에서 S3 개체 잠금을 사용합니다. → 강제 잠금이 적용되어 어떠한 사용자도 데이터 수정 및 삭제를 할 수 없다.
  • C. IAM 역할을 사용하여 모든 사용자가 S3 버킷에서 객체를 삭제하거나 변경하지 못하도록 제한합니다. S3 버킷 정책을 사용하여 IAM 역할만 허용합니다.
  • D. 객체가 추가될 때마다 AWS Lambda 함수를 호출하도록 S3 버킷을 구성합니다. 저장된 객체의 해시를 추적하도록 함수를 구성하여 수정된 객체를 적절히 표시할 수 있습니다.

질문 #155주제 1

대형 미디어 회사가 AWS에서 웹 애플리케이션을 호스팅합니다. 이 회사는 전 세계 사용자가 파일에 안정적으로 액세스할 수 있도록 기밀 미디어 파일을 캐싱하기 시작하려고 합니다. 콘텐츠는 Amazon S3 버킷에 저장됩니다. 이 회사는 요청이 지리적으로 어디에서 시작되었는지에 관계없이 콘텐츠를 빠르게 제공해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. AWS DataSync를 사용하여 S3 버킷을 웹 애플리케이션에 연결합니다.
  • B. AWS Global Accelerator를 배포하여 S3 버킷을 웹 애플리케이션에 연결합니다. → HTTP 기반 콘텐츠 전송이 아닌 TCP/UDP 트래픽의 가용성과 성능을 개성한다.
  • C. Amazon CloudFront를 배포하여 S3 버킷을 CloudFront 엣지 서버에 연결합니다. → 미디어 파일이 들어있는 S3 buket을 빠르게 캐시된다. (CDN ;content delivery network)
  • D. Amazon Simple Queue Service(Amazon SQS)를 사용하여 S3 버킷을 웹 애플리케이션에 연결합니다.

질문 #156주제 1

한 회사가 다양한 데이터베이스에서 온 일괄 데이터를 생성합니다. 이 회사는 또한 네트워크 센서와 애플리케이션 API에서 라이브 스트림 데이터를 생성합니다. 이 회사는 비즈니스 분석을 위해 모든 데이터를 한곳에 통합해야 합니다. 이 회사는 들어오는 데이터를 처리한 다음 다른 Amazon S3 버킷에 데이터를 스테이징해야 합니다. 나중에 팀은 일회성 쿼리를 실행하고 데이터를 비즈니스 인텔리전스 도구로 가져와 핵심 성과 지표(KPI)를 표시합니다.

어떤 단계 조합이 운영 오버헤드를 최소화하면서 이러한 요구 사항을 충족할까요? (두 가지를 선택하세요.)

  • A. 일회성 쿼리에는 Amazon Athena를 사용합니다. KPI에 대한 대시보드를 만들려면 Amazon QuickSight를 사용합니다.
  • B.일회성 쿼리에는 Amazon Kinesis Data Analytics를 사용합니다. KPI에 대한 대시보드를 만들려면 Amazon QuickSight를 사용합니다.
  • C.개별 레코드를 데이터베이스에서 Amazon Redshift 클러스터로 이동하기 위해 사용자 지정 AWS Lambda 함수를 생성합니다.
  • D.AWS Glue 추출, 변환 및 로드(ETL) 작업을 사용하여 데이터를 JSON 형식으로 변환합니다. 데이터를 여러 Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터에 로드합니다.
  • E. AWS Lake Formation에서 청사진을 사용하여 데이터 레이크로 수집할 수 있는 데이터를 식별합니다. AWS Glue를 사용하여 소스를 크롤링하고 데이터를 추출한 다음 Apache Parquet 형식으로 Amazon S3에 데이터를 로드합니다.

*Amazon Athena: S3에 저장된 데이터를 직접 쿼리할 수 있는 서버리스 쿼리 서비스, 복사하지 않아도 바로 분석 가능

*Amazon QuickSight: KPI를 시각화하고 대시보드를 생성할 수 있는 관리형 비즈니스 인텔리전스 도구

*Amazon Kinesis Data Analytics: 스트리밍 데이터의 실시간 분석에 적합하지만, 일회성 쿼리에는 부적합함

*AWS Lake Formation: 다양한 데이터 소스를 Amazon S3 기반의 데이터 레이크로 통합하고 관리

*AWS Glue: 데이터를 추출,변환, 로드하여 S3에 스테이징

질문 #158주제 1

솔루션 아키텍트가 다가올 음악 이벤트를 위해 웹사이트를 최적화하고 있습니다. 공연 영상은 실시간으로 스트리밍되고 주문형으로 제공됩니다. 이 이벤트는 글로벌 온라인 청중을 끌어들일 것으로 예상됩니다.

어떤 서비스가 실시간 및 주문형 스트리밍의 성능을 개선할까요?

  • A. 아마존 클라우드프론트 → HTTP
  • B. AWS 글로벌 엑셀러레이터 → UDP/TCP
  • C. 아마존 루트 53
  • D. Amazon S3 전송 가속

질문 #160주제 1

전자상거래 회사가 AWS 클라우드에서 분석 애플리케이션을 호스팅합니다. 이 애플리케이션은 매달 약 300MB의 데이터를 생성합니다. 데이터는 JSON 형식으로 저장됩니다. 이 회사는 데이터를 백업하기 위한 재해 복구 솔루션을 평가하고 있습니다. 필요한 경우 밀리초 단위로 데이터에 액세스할 수 있어야 하며, 데이터는 30일 동안 보관해야 합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A.Amazon OpenSearch 서비스(Amazon Elasticsearch 서비스) → 대규모 데이터 검색 및 분석에 적합, 단순 저장/백업에는 과도함
  • B.Amazon S3 Glacier → 장기 데이터 아카이빙에 적합
  • C. Amazon S3 표준
  • D.PostgreSQL용 Amazon RDS

질문 #162주제 1

한 회사가 재무 위험 모델링을 위해 AWS에서 고성능 컴퓨팅(HPC) 인프라를 사용하려고 합니다. 이 회사의 HPC 워크로드는 Linux에서 실행됩니다. 각 HPC 워크플로는 수백 개의 Amazon EC2 스팟 인스턴스에서 실행되고 수명이 짧으며, 궁극적으로 분석 및 장기적인 미래 사용을 위해 영구 저장소에 저장되는 수천 개의 출력 파일을 생성합니다.

이 회사는 모든 EC2 인스턴스에서 처리할 수 있도록 온프레미스 데이터를 장기 영구 저장소에 복사할 수 있는 클라우드 스토리지 솔루션을 찾고 있습니다. 이 솔루션은 또한 영구 저장소와 통합되어 데이터 세트를 읽고 쓰고 파일을 출력하는 고성능 파일 시스템이어야 합니다.

이러한 요구 사항을 충족하는 AWS 서비스의 조합은 무엇입니까?

  • A. Amazon S3와 통합된 Amazon FSx for Lustre → HPC 워크로드를 지원하도록 설계된 고성능 파일 시스템, Linuxdhk wkf ghghks
  • B.Amazon S3와 통합된 Windows 파일 서버용 Amazon FSx
  • C.Amazon Elastic Block Store(Amazon EBS)와 통합된 Amazon S3 Glacier → S3 Glacier는 아카이브용
  • D.Amazon Elastic Block Store(Amazon EBS) 범용 SSD(gp2) 볼륨과 통합된 VPC 엔드포인트가 있는 Amazon S3 버킷

질문 #165주제 1

솔루션 아키텍트는 정적 웹사이트를 저장하기 위해 Amazon S3 오리진과 함께 Amazon CloudFront를 사용하는 솔루션을 설계해야 합니다. 회사의 보안 정책에 따라 모든 웹사이트 트래픽은 AWS WAF에서 검사해야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 어떻게 준수해야 합니까?

  • A. AWS WAF Amazon 리소스 이름(ARN)에서 오는 요청만 허용하도록 S3 버킷 정책을 구성합니다.
  • B. S3 원본에서 콘텐츠를 요청하기 전에 모든 수신 요청을 AWS WAF로 전달하도록 Amazon CloudFront를 구성합니다.
  • C. Amazon CloudFront IP 주소가 Amazon S3에만 액세스할 수 있도록 하는 보안 그룹을 구성합니다. AWS WAF를 CloudFront에 연결합니다.
  • D. Amazon CloudFront와 Amazon S3를 구성하여 S3 버킷에 대한 액세스를 제한하기 위해 원본 액세스 ID(OAI)를 사용합니다. 배포에서 AWS WAF를 활성화합니다.

*AWS WAF는 S3와 직접 연결되지 않음. CloudFront를 통해 전달됨.

질문 #168주제 1

보안팀은 모든 팀의 AWS 계정에서 특정 서비스나 작업에 대한 액세스를 제한하려고 합니다. 모든 계정은 AWS Organizations의 대규모 조직에 속합니다. 솔루션은 확장 가능해야 하며 권한을 유지할 수 있는 단일 지점이 있어야 합니다.

솔루션 아키텍트는 이를 달성하기 위해 무엇을 해야 할까요?

  • A. 서비스나 작업에 대한 액세스를 제공하기 위해 ACL을 생성합니다.
  • B. 계정을 허용하고 사용자 그룹에 연결할 보안 그룹을 만듭니다.
  • C. 각 계정에서 교차 계정 역할을 생성하여 서비스나 작업에 대한 액세스를 거부합니다.
  • D. 루트 조직 단위에서 서비스 제어 정책(Service Control Policy: SCP)을 만들어 서비스나 작업에 대한 액세스를 거부합니다.

질문 #169주제 1

한 회사는 최근 웹 공격으로 인해 퍼블릭 웹 애플리케이션의 보안에 대해 우려하고 있습니다. 해당 애플리케이션은 애플리케이션 로드 밸런서(ALB)를 사용합니다. 솔루션 아키텍트는 애플리케이션에 대한 DDoS 공격 위험을 줄여야 합니다.

솔루션 아키텍트는 이 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. ALB에 Amazon Inspector 에이전트를 추가합니다.
  • B. 공격을 차단하기 위해 Amazon Macie를 구성합니다.
  • C. AWS Shield Advanced를 활성화하여 공격을 차단합니다.
  • D. Amazon GuardDuty를 구성하여 ALB를 모니터링합니다.

질문 #170주제 1

회사의 웹 애플리케이션은 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 실행 중입니다. 회사는 최근 정책을 변경하여 이제 애플리케이션에 특정 국가에서만 액세스해야 합니다.

어떤 구성이 이 요구 사항을 충족할까요?

  • A. EC2 인스턴스에 대한 보안 그룹을 구성합니다.
  • B. Application Load Balancer에서 보안 그룹을 구성합니다.
  • C. VPC의 Application Load Balancer에 AWS WAF를 구성합니다.
  • D. EC2 인스턴스가 포함된 서브넷에 대한 네트워크 ACL을 구성합니다.

질문 #172주제 1

솔루션 아키텍트가 애플리케이션에 대한 새로운 Amazon CloudFront 배포를 만들고 있습니다. 사용자가 제출한 정보 중 일부는 민감합니다. 애플리케이션은 HTTPS를 사용하지만 보안 계층이 하나 더 필요합니다. 민감한 정보는 전체 애플리케이션 스택에서 보호되어야 하며 정보에 대한 액세스는 특정 애플리케이션으로 제한되어야 합니다.

솔루션 아키텍트는 어떤 조치를 취해야 합니까?

  • A. CloudFront 서명된 URL을 구성합니다.
  • B. CloudFront 서명된 쿠키를 구성합니다.
  • C. CloudFront 필드 수준 암호화 프로필(CloudFront field-level encryption profile)을 구성합니다.
  • D. CloudFront를 구성하고 Viewer 프로토콜 정책에 대해 Origin Protocol Policy(원본 프로토콜 정책) 설정을 HTTPS Only(HTTPS 전용)로 설정합니다.

*CloudFront field-level encryption profile: HTTP POST 요청의 특정 데이터 필드를 암호화

질문 #174주제 1

한 회사에는 Application Load Balancer(ALB) 뒤의 단일 가용성 영역에 있는 Amazon EC2 Auto Scaling 그룹에서 6개의 프런트엔드 웹 서버를 실행하는 다중 계층 애플리케이션이 있습니다. 솔루션 아키텍트는 애플리케이션을 수정하지 않고도 인프라를 고가용성으로 수정해야 합니다.

솔루션 아키텍트는 고가용성을 제공하는 어떤 아키텍처를 선택해야 합니까?

  • A. 두 지역에 걸쳐 세 개의 인스턴스를 사용하는 자동 크기 조정 그룹을 만듭니다. → Auto scaling group은 여러 지역에 분포할 수 없음, ALB는 특정 리전 내에서만 작동함.
  • B. 두 개의 가용성 영역에 걸쳐 세 개의 인스턴스를 사용하도록 자동 크기 조정 그룹을 수정합니다.
  • C. 다른 지역에서 더 많은 인스턴스를 빠르게 생성하는 데 사용할 수 있는 자동 크기 조정 템플릿을 만듭니다.
  • D. 웹 계층으로의 트래픽을 분산하기 위해 라운드 로빈 구성에서 Amazon EC2 인스턴스 앞의 ALB를 변경합니다.

질문 #177주제 1

엔터테인먼트 회사가 Amazon DynamoDB를 사용하여 미디어 메타데이터를 저장하고 있습니다. 애플리케이션은 읽기 집약적이며 지연이 발생합니다. 회사에는 추가 운영 오버헤드를 처리할 직원이 없으며 애플리케이션을 재구성하지 않고도 DynamoDB의 성능 효율성을 개선해야 합니다.

이 요구 사항을 충족하기 위해 솔루션 아키텍트는 무엇을 권장해야 합니까?

  • A. Redis에 Amazon ElastiCache를 사용하세요.
  • B. Amazon DynamoDB Accelerator(DAX)를 사용합니다.
  • C. DynamoDB 글로벌 테이블을 사용하여 데이터를 복제합니다.
  • D. 자동 검색을 활성화한 Memcached용 Amazon ElastiCache를 사용합니다.

*Amazon DynamoDB Accelerator(DAX): 읽기 집약적인 워크로드에서 지연시간을 줄이고 DynamoDB의 성능을 대폭 향상시킬 수 있음.

질문 #178주제 1

회사의 인프라는 단일 AWS 리전의 Amazon EC2 인스턴스와 Amazon RDS DB 인스턴스로 구성되어 있습니다. 회사는 별도의 리전에 데이터를 백업하려고 합니다.

어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?

  • A. AWS Backup을 사용하여 EC2 백업과 RDS 백업을 별도의 지역에 복사합니다. → Cross-region 복사를 기본적으로 지원
  • B. Amazon Data Lifecycle Manager(Amazon DLM)를 사용하여 EC2 백업과 RDS 백업을 별도의 지역에 복사합니다.
  • C. EC2 인스턴스의 Amazon Machine Images(AMI)를 만듭니다. AMI를 별도의 Region에 복사합니다. 별도의 Region에 RDS DB 인스턴스에 대한 읽기 복제본을 만듭니다.
  • D.Amazon Elastic Block Store(Amazon EBS) 스냅샷을 만듭니다. EBS 스냅샷을 별도의 리전에 복사합니다. RDS 스냅샷을 만듭니다. RDS 스냅샷을 Amazon S3로 내보냅니다. 별도의 리전에 S3 크로스 리전 복제(CRR)를 구성합니다.

질문 #179주제 1

솔루션 아키텍트는 애플리케이션이 Amazon RDS DB 인스턴스에 액세스하는 데 사용하는 데이터베이스 사용자 이름과 비밀번호를 안전하게 저장해야 합니다. 데이터베이스에 액세스하는 애플리케이션은 Amazon EC2 인스턴스에서 실행됩니다. 솔루션 아키텍트는 AWS Systems Manager Parameter Store에서 안전한 매개변수를 생성하려고 합니다.

솔루션 아키텍트는 이 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. Parameter Store 매개변수에 대한 읽기 액세스 권한이 있는 IAM 역할을 만듭니다. 매개변수를 암호화하는 데 사용되는 AWS Key Management Service(AWS KMS) 키에 대한 Decrypt 액세스를 허용합니다. 이 IAM 역할을 EC2 인스턴스에 할당합니다.
  • B. Parameter Store 매개변수에 대한 읽기 액세스를 허용하는 IAM 정책을 만듭니다. 매개변수를 암호화하는 데 사용되는 AWS Key Management Service(AWS KMS) 키에 대한 Decrypt 액세스를 허용합니다. 이 IAM 정책을 EC2 인스턴스에 할당합니다. → policy를 EC2 instance에 직접 연결할 수 없음.
  • C. Parameter Store 매개변수와 EC2 인스턴스 간에 IAM 신뢰 관계를 만듭니다. 신뢰 정책에서 Amazon RDS를 주체로 지정합니다.
  • D. DB 인스턴스와 EC2 인스턴스 간에 IAM 신뢰 관계를 만듭니다. 신뢰 정책에서 Systems Manager를 주체로 지정합니다.

질문 #180주제 1

한 회사가 API로 구동되는 클라우드 커뮤니케이션 플랫폼을 설계하고 있습니다. 이 애플리케이션은 Network Load Balancer(NLB) 뒤의 Amazon EC2 인스턴스에서 호스팅됩니다. 이 회사는 Amazon API Gateway를 사용하여 외부 사용자에게 API를 통해 애플리케이션에 대한 액세스를 제공합니다. 이 회사는 SQL 주입과 같은 웹 익스플로잇으로부터 플랫폼을 보호하고 대규모의 정교한 DDoS 공격을 탐지하고 완화하고자 합니다.

어떤 솔루션 조합이 가장 많은 보호를 제공합니까? (두 가지를 선택하세요.)

  • A. AWS WAF를 사용하여 NLB를 보호하세요.
  • B. NLB와 함께 AWS Shield Advanced를 사용합니다. → AWS Shield Advanced는 대규모 DDoS 공격을 탐지가능. 네트워크 계층을 보호할 수 있음
  • C. AWS WAF를 사용하여 Amazon API Gateway를 보호합니다. → SQL 주입 및 XSS 공격과 같은 일반적인 웹 익스플로잇으로부터 애플리케이션 보호
  • D. AWS Shield Standard와 함께 Amazon GuardDuty 사용
  • E. Amazon API Gateway와 함께 AWS Shield Standard를 사용합니다.

*legacy data(레거시 데이터): 이전 시스템, 기술, 또는 애플리케이션에 의해 생성되고 저장된 데이터

*Monolithic Architecture(모놀리식 아키텍처): 소프트웨어 애플리케이션의 모든 기능이 하나의 코드베이스와 하나의 애플리케이션으로 결합된 구조

질문 #183주제 1

어떤 회사가 새로운 동적 주문 웹사이트를 구축하고 있습니다. 이 회사는 서버 유지 관리 및 패치를 최소화하고자 합니다. 웹사이트는 고가용성이어야 하며 사용자 수요의 변화에 대응하기 위해 가능한 한 빨리 읽기 및 쓰기 용량을 확장해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. Amazon S3에 정적 콘텐츠를 호스팅합니다. Amazon API Gateway와 AWS Lambda를 사용하여 동적 콘텐츠를 호스팅합니다. 데이터베이스에 대한 주문형 용량(On-demand)으로 Amazon DynamoDB를 사용합니다. Amazon CloudFront를 구성하여 웹사이트 콘텐츠를 제공합니다.
  • B. Amazon S3에 정적 콘텐츠를 호스팅합니다. Amazon API Gateway와 AWS Lambda를 사용하여 동적 콘텐츠를 호스팅합니다. 데이터베이스에 Aurora Auto Scaling과 함께 Amazon Aurora를 사용합니다. Amazon CloudFront를 구성하여 웹사이트 콘텐츠를 제공합니다. → Aurora는 DynamoDB만큼 빠르게 확장되지 않음
  • C. 모든 웹사이트 콘텐츠를 Amazon EC2 인스턴스에 호스팅합니다. EC2 인스턴스를 확장하기 위해 Auto Scaling 그룹을 만듭니다. 트래픽을 분산하기 위해 Application Load Balancer를 사용합니다. 데이터베이스에 대한 프로비저닝된 쓰기 용량이 있는 Amazon DynamoDB를 사용합니다.
  • D. Amazon EC2 인스턴스에 모든 웹사이트 콘텐츠를 호스팅합니다. EC2 인스턴스를 확장하기 위해 Auto Scaling 그룹을 만듭니다. 트래픽을 분산하기 위해 Application Load Balancer를 사용합니다. 데이터베이스에 Aurora Auto Scaling과 함께 Amazon Aurora를 사용합니다.

*동적 웹사이트라고 해도, UI를 구성하는 HTML, CSS, JS와 같은 저적 리소스는 변하지 않기 때문에 이러한 정적 콘텐츠를 S3에 호스팅하고, 동적 데이터는 API나 서버에서 처리하도록 설계하면 성능이 최적화된다.

질문 #184주제 1

한 회사가 소프트웨어 엔지니어링에 사용되는 AWS 계정을 가지고 있습니다. AWS 계정은 AWS Direct Connect 연결 쌍을 통해 회사의 온프레미스 데이터 센터에 액세스할 수 있습니다. 모든 비 VPC 트래픽은 가상 프라이빗 게이트웨이로 라우팅됩니다.

개발 팀은 최근 콘솔을 통해 AWS Lambda 함수를 만들었습니다. 개발 팀은 해당 함수가 회사 데이터 센터의 프라이빗 서브넷에서 실행되는 데이터베이스에 액세스할 수 있도록 허용해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. 적절한 보안 그룹을 사용하여 VPC에서 실행되도록 Lambda 함수를 구성합니다.
  • B.AWS에서 데이터 센터로 VPN 연결을 설정합니다. Lambda 함수에서 VPN을 통해 트래픽을 라우팅합니다.
  • C.Lambda 함수가 Direct Connect를 통해 온프레미스 데이터 센터에 액세스할 수 있도록 VPC의 경로 테이블을 업데이트합니다. → Lambda를 VPC에 연결하지 않으면, 경로 테이블 업데이트만으로는 온프레미스 리소스에 접근할 수 없음.
  • D.Elastic IP 주소를 만듭니다. Elastic 네트워크 인터페이스 없이 Elastic IP 주소를 통해 트래픽을 보내도록 Lambda 함수를 구성합니다. → Elastic IP 주소는 퍼블릭 인터넷과의 연결을 위한 것

질문 #185주제 1

한 회사가 Amazon ECS를 사용하여 애플리케이션을 실행합니다. 애플리케이션은 원본 이미지의 크기 조정된 버전을 만든 다음 Amazon S3 API 호출을 통해 크기 조정된 이미지를 Amazon S3에 저장합니다.

솔루션 아키텍트는 애플리케이션이 Amazon S3에 액세스할 수 있는 권한이 있는지 어떻게 확인할 수 있습니까?

  • A. AWS IAM에서 S3 역할을 업데이트하여 Amazon ECS에서 읽기/쓰기 액세스를 허용한 다음 컨테이너를 다시 시작합니다.
  • B. S3 권한이 있는 IAM 역할을 생성한 다음 작업 정의에서 해당 역할을 taskRoleArn으로 지정합니다.
  • C. Amazon ECS에서 Amazon S3로의 액세스를 허용하는 보안 그룹을 생성하고 ECS 클러스터에서 사용하는 시작 구성을 업데이트합니다.
  • D. S3 권한이 있는 IAM 사용자를 생성한 다음 이 계정으로 로그인한 상태에서 ECS 클러스터에 대한 Amazon EC2 인스턴스를 다시 시작합니다.

*takeRoleArn :Amazon ECS 에 연결되는 IAM 역할의 Amazon Resource Name(ARN)을 지정하는 필드. ECS작업이 AWS 리소스에 접근할 수 있도록 권한을 부여함.

질문 #188주제 1

한 회사가 Amazon S3를 데이터 레이크로 사용합니다. 이 회사에는 SFTP를 사용하여 데이터 파일을 업로드해야 하는 새로운 파트너가 있습니다. 솔루션 아키텍트는 운영 오버헤드를 최소화하는 고가용성 SFTP 솔루션을 구현해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. AWS Transfer Family를 사용하여 공개적으로 액세스 가능한 엔드포인트가 있는 SFTP 지원 서버를 구성합니다. 대상으로 S3 데이터 레이크를 선택합니다.
  • B. Amazon S3 파일 게이트웨이를 SFTP 서버로 사용합니다. S3 파일 게이트웨이 엔드포인트 URL을 새 파트너에게 공개합니다. S3 파일 게이트웨이 엔드포인트를 새 파트너와 공유합니다. → S3 file gateway는 SFTP를 지원하지 않음. File gateway는 온프레미스 환경에서 S3에 데이터를 저장하거나 캐싱하는데 사용된다.
  • C. VPN의 프라이빗 서브넷에서 Amazon EC2 인스턴스 시작 VPN을 사용하여 새 파트너에게 EC2 인스턴스에 파일을 업로드하도록 지시합니다. EC2 인스턴스에서 Cron 작업 스크립트를 실행하여 S3 데이터 레이크로 파일을 업로드합니다.
  • D. VPC의 프라이빗 서브넷에서 Amazon EC2 인스턴스를 시작합니다. EC2 인스턴스 앞에 네트워크 로드 밸런서(NLB)를 배치합니다. NLB에 대한 SFTP 리스너 포트를 만듭니다. 새 파트너와 NLB 호스트 이름을 공유합니다. EC2 인스턴스에서 cron 작업 스크립트를 실행하여 파일을 S3 데이터 레이크에 업로드합니다.

*AWS Transfer Family: SFTP,FTPS,FTP를 지원하는 완전 관리형 서비스로, S3와 통합하여 데이터를 쉽게 업로드

*SFTP(Secure File Transfer Protocol): 네트워크를 통해 파일을 안전하게 전송하기 위한 파일 전송 프로토콜, SSH(Secure Shell) 프로토콜 위에서 작동하며, 데이터를 암호화하여 전송하기때문에 보안이 강화된 전송방법

질문 #189주제 1

회사는 계약 문서를 보관해야 합니다. 계약은 5년 동안 지속됩니다. 5년 동안 회사는 문서가 덮어쓰이거나 삭제되지 않도록 해야 합니다. 회사는 휴면 상태의 문서를 암호화하고 매년 암호화 키를 자동으로 순환해야 합니다.

솔루션 아키텍트는 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A. Amazon S3에 문서를 저장합니다. 거버넌스 모드에서 S3 객체 잠금을 사용합니다. → 거버넌스 모드는 관리자는 특별 권한으로 객체를 수정할 수 있음.
  • B. Amazon S3에 문서를 저장합니다. 규정 준수 모드에서 S3 객체 잠금을 사용합니다. → 규정 준수 모드는 관리자 계정조차도 객체를 수정하거나 삭제할 수 없음.
  • C. Amazon S3 관리 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. 키 로테이션을 구성합니다.
  • D. AWS Key Management Service(AWS KMS) 고객 관리 키로 서버 측 암호화를 사용합니다. 키 로테이션을 구성합니다. → KMS customer managed key는 강력한 암호화 및 자동 키 로테이션을 제공
  • E. AWS Key Management Service(AWS KMS) 고객 제공(가져온) 키로 서버 측 암호화를 사용합니다. 키 로테이션을 구성합니다. → KMS customer provided(imported) key는 자동 키 로테이션을 지원하지 않음.

질문 #190주제 1

한 회사에 Java와 PHP를 기반으로 하는 웹 애플리케이션이 있습니다. 이 회사는 온프레미스에서 AWS로 애플리케이션을 이전할 계획입니다. 이 회사는 새로운 사이트 기능을 자주 테스트할 수 있는 기능이 필요합니다. 또한 이 회사는 최소한의 운영 오버헤드만 필요한 고가용성 관리형 솔루션이 필요합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. Amazon S3 버킷을 만듭니다. S3 버킷에서 정적 웹 호스팅을 활성화합니다. 정적 콘텐츠를 S3 버킷에 업로드합니다. AWS Lambda를 사용하여 모든 동적 콘텐츠를 처리합니다.
  • B. 웹 애플리케이션을 AWS Elastic Beanstalk 환경에 배포합니다. URL 스와핑을 사용하여 여러 Elastic Beanstalk 환경 간에 전환하여 기능 테스트를 수행합니다.
  • C. Java 및 PHP로 구성된 Amazon EC2 인스턴스에 웹 애플리케이션을 배포합니다. Auto Scaling 그룹과 Application Load Balancer를 사용하여 웹사이트의 가용성을 관리합니다.
  • D. 웹 애플리케이션을 컨테이너화합니다. 웹 애플리케이션을 Amazon EC2 인스턴스에 배포합니다. AWS Load Balancer Controller를 사용하여 테스트를 위해 새 사이트 기능이 포함된 컨테이너 간에 트래픽을 동적으로 라우팅합니다.

*AWS Elastic Beanstalk: Java 와 PHP를 포함한 다양한 프로그래밍 언어를 지원하는 완전 관리형 애플리케이션 배포 및 관리 서비스

*URL 스와핑: 새로운 사이트 기능을 테스트하기 위해 다양한 환경을 만들 수 있음.

질문 #192주제 1

병원에서는 방대한 역사적 서면 기록 컬렉션에 대한 디지털 사본을 만들고자 합니다. 병원은 매일 수백 개의 새로운 문서를 계속 추가할 것입니다. 병원의 데이터 팀은 문서를 스캔하여 AWS 클라우드에 업로드할 것입니다.

솔루션 아키텍트는 문서를 분석하고, 의료 정보를 추출하고, 문서를 저장하여 애플리케이션이 데이터에 대한 SQL 쿼리를 실행할 수 있도록 솔루션을 구현해야 합니다. 솔루션은 확장성과 운영 효율성을 극대화해야 합니다. 솔루션 아키텍트는

이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 취해야 합니까? (두 가지를 선택하십시오.)

  • A. MySQL 데이터베이스를 실행하는 Amazon EC2 인스턴스에 문서 정보를 씁니다.
  • B. Amazon S3 버킷에 문서 정보를 씁니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
  • C. 스캔된 파일을 처리하고 의료 정보를 추출하는 사용자 정의 애플리케이션을 실행하기 위해 Amazon EC2 인스턴스의 자동 확장 그룹을 생성합니다.
  • D. 새 문서가 업로드될 때 실행되는 AWS Lambda 함수를 만듭니다. Amazon Rekognition을 사용하여 문서를 원시 텍스트로 변환합니다. Amazon Transcribe Medical을 사용하여 텍스트에서 관련 의료 정보를 감지하고 추출합니다.
  • E. 새 문서가 업로드될 때 실행되는 AWS Lambda 함수를 만듭니다. Amazon Textract를 사용하여 문서를 원시 텍스트로 변환합니다. Amazon Comprehend Medical를 사용하여 텍스트에서 관련 의료 정보를 감지하고 추출합니다.

*Amazon Textract: 스캔된 문서에서 텍스트를 추출하는 서비스로 구조화되지 않은 데이터를 디지털 형식으로 변환

*Amazon Comprehend Medical: 텍스트에서 의료 정보를 감지하고 추출하는 자연어 처리 서비스.

한 회사가 Amazon EC2 인스턴스에서 배치 애플리케이션을 실행하고 있습니다. 이 애플리케이션은 여러 Amazon RDS 데이터베이스가 있는 백엔드로 구성되어 있습니다. 이 애플리케이션은 데이터베이스에서 많은 수의 읽기를 발생시키고 있습니다. 솔루션 아키텍트는 고가용성을 보장하면서 데이터베이스 읽기 수를 줄여야 합니다.

이 요구 사항을 충족하기 위해 솔루션 아키텍트는 무엇을 해야 합니까?

  • A. Amazon RDS 읽기 복제본을 추가합니다.
  • B. Redis에 Amazon ElastiCache를 사용합니다.
  • C. Amazon Route 53 DNS 캐싱 사용
  • D. Memcached에 Amazon ElastiCache를 사용합니다.

*Redis(Remote Dictionary Server)는 오픈 소스 인메모리 데이터 구조 저장소로, 캐시, 데이터베이스, 메시지 브로커로 동작할 수 있고, 빠른 데이터 읽기/쓰기에 주로 사용됨.

질문 #195주제 1

회사의 주문 시스템은 클라이언트의 요청을 Amazon EC2 인스턴스로 보냅니다. EC2 인스턴스는 주문을 처리한 다음 Amazon RDS의 데이터베이스에 주문을 저장합니다. 사용자는 시스템에 장애가 발생하면 주문을 다시 처리해야 한다고 보고합니다. 회사는 시스템 중단이 발생하면 자동으로 주문을 처리할 수 있는 복원력 있는 솔루션을 원합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. EC2 인스턴스를 Auto Scaling 그룹으로 이동합니다. Amazon Elastic Container Service(Amazon ECS) 작업을 대상으로 하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 만듭니다.
  • B. EC2 인스턴스를 Application Load Balancer(ALB) 뒤의 Auto Scaling 그룹으로 이동합니다. ALB 엔드포인트로 메시지를 보내도록 주문 시스템을 업데이트합니다. → 트래빅을 분산하는 역할을 하지만, 주문 요청을 저장하고 관리하지 않음. EC2가 중단되면 여전히 주문이 손실될 위험이 있음.
  • C. EC2 인스턴스를 Auto Scaling 그룹으로 이동합니다. Amazon Simple Queue Service(Amazon SQS) 대기열로 메시지를 보내도록 주문 시스템을 구성합니다. 대기열에서 메시지를 소비하도록 EC2 인스턴스를 구성합니다. → EC2가 중단이 되어도 SQS 대기열에서 가져올 수 있음.
  • D. Amazon Simple Notification Service(Amazon SNS) 토픽을 만듭니다. AWS Lambda 함수를 만들고 해당 함수를 SNS 토픽에 구독합니다. 주문 시스템을 구성하여 SNS 토픽에 메시지를 보냅니다. AWS Systems Manager Run Command를 사용하여 EC2 인스턴스에 명령을 보내 메시지를 처리합니다.

질문 #196주제 1

한 회사가 대규모 Amazon EC2 인스턴스에서 애플리케이션을 실행합니다. 이 애플리케이션은 Amazon DynamoDB 테이블에 항목을 읽고 씁니다. DynamoDB 테이블의 크기는 지속적으로 증가하지만 애플리케이션에는 지난 30일 동안의 데이터만 필요합니다. 이 회사에는 비용과 개발 노력을 최소화하는 솔루션이 필요합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS CloudFormation 템플릿을 사용하여 전체 솔루션을 배포합니다. 30일마다 CloudFormation 스택을 다시 배포하고 원래 스택을 삭제합니다.
  • B. AWS Marketplace에서 모니터링 애플리케이션을 실행하는 EC2 인스턴스를 사용합니다. 모니터링 애플리케이션을 구성하여 Amazon DynamoDB Streams를 사용하여 테이블에 새 항목이 생성될 때 타임스탬프를 저장합니다. EC2 인스턴스에서 실행되는 스크립트를 사용하여 타임스탬프가 30일보다 오래된 항목을 삭제합니다.
  • C. 테이블에 새 항목이 생성되면 AWS Lambda 함수를 호출하도록 Amazon DynamoDB Streams를 구성합니다. 30일 이상 된 테이블의 항목을 삭제하도록 Lambda 함수를 구성합니다.
  • D. 테이블에 생성된 각 새 항목에 현재 타임스탬프와 30일을 더한 값을 갖는 속성을 추가하도록 애플리케이션을 확장합니다. DynamoDB를 구성하여 속성을 TTL 속성으로 사용합니다.

*DynamoDB의 TTL(Time-To-Live): 특정 시간 이후 자동으로 항목을 삭제할 수 있음.

질문 #197주제 1

한 회사에 온프레미스 Windows Server에서 실행되는 Microsoft .NET 애플리케이션이 있습니다. 이 애플리케이션은 Oracle Database Standard Edition 서버를 사용하여 데이터를 저장합니다. 이 회사는 AWS로 마이그레이션을 계획하고 있으며 애플리케이션을 이동하는 동안 개발 변경을 최소화하려고 합니다. AWS 애플리케이션 환경은 고가용성이어야 합니다.

이 회사는 이러한 요구 사항을 충족하기 위해 어떤 조치 조합을 취해야 합니까? (두 가지를 선택하십시오.)

  • A. .NET Core를 실행하는 AWS Lambda 함수를 사용하여 애플리케이션을 서버리스로 리팩터링합니다.
  • B. 다중 AZ 배포에서 .NET 플랫폼을 사용하여 AWS Elastic Beanstalk에서 애플리케이션을 다시 호스팅합니다.
  • C. Amazon Linux Amazon Machine Image(AMI)를 사용하여 애플리케이션을 Amazon EC2에서 실행하도록 재구성합니다.
  • D. AWS Database Migration Service(AWS DMS)를 사용하여 다중 AZ 배포에서 Oracle 데이터베이스에서 Amazon DynamoDB로 마이그레이션합니다.
  • E. AWS Database Migration Service(AWS DMS)를 사용하여 다중 AZ 배포에서 Oracle 데이터베이스에서 Amazon RDS의 Oracle로 마이그레이션합니다.

질문 #198주제 1

한 회사가 온프레미스 데이터 센터의 Kubernetes 클러스터에서 컨테이너화된 애플리케이션을 실행합니다. 이 회사는 데이터 저장을 위해 MongoDB 데이터베이스를 사용하고 있습니다. 이 회사는 이러한 환경 중 일부를 AWS로 마이그레이션하려고 하지만 현재로서는 코드 변경이나 배포 방법 변경이 불가능합니다. 이 회사는 운영 오버헤드를 최소화하는 솔루션이 필요합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon EC2 워커 노드를 사용하여 컴퓨팅을 수행하고 EC2의 MongoDB를 사용하여 데이터를 저장합니다.
  • B. 컴퓨팅을 위해 AWS Fargate와 데이터 저장을 위해 Amazon DynamoDB와 함께 Amazon Elastic Container Service(Amazon ECS)를 사용하세요.
  • C. 컴퓨팅을 위해 Amazon EC2 워커 노드와 데이터 저장을 위해 Amazon DynamoDB를 사용하는 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용합니다.
  • D. 컴퓨팅을 위해 AWS Fargate와 함께 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용하고 데이터 저장을 위해 Amazon DocumentDB(MongoDB 호환)를 사용합니다.

*EKS를 사용하면 변경 없이 AWS에서 Kubernetes 환경을 실행할 수 있습니다.

*Fargate를 사용하면 EC2 인스턴스를 프로비저닝하고 관리할 필요가 없습니다.

  • DocumentDB는 MongoDB와 호환되므로 데이터 계층은 변경되지 않습니다.

질문 #199주제 1

텔레마케팅 회사가 AWS에서 고객 콜센터 기능을 설계하고 있습니다. 이 회사는 여러 화자 인식을 제공하고 대본 파일을 생성하는 솔루션이 필요합니다. 이 회사는 대본 파일을 쿼리하여 비즈니스 패턴을 분석하려고 합니다. 대본 파일은 감사 목적으로 7년 동안 보관해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. 여러 화자 인식을 위해 Amazon Rekognition을 사용합니다. Amazon S3에 대본 파일을 저장합니다. 대본 파일 분석을 위해 머신 러닝 모델을 사용합니다.
  • B. 여러 화자 인식을 위해 Amazon Transcribe를 사용합니다. 필사본 파일 분석을 위해 Amazon Athena를 사용합니다.
  • C. 여러 화자 인식을 위해 Amazon Translate를 사용합니다. Amazon Redshift에 대본 파일을 저장합니다. 대본 파일 분석을 위해 SQL 쿼리를 사용합니다.
  • D. 여러 화자 인식을 위해 Amazon Rekognition을 사용합니다. 대본 파일을 Amazon S3에 저장합니다. 대본 파일 분석을 위해 Amazon Textract를 사용합니다

*Amazon Transcribe: 음성 파일을 자동으로 텍스트로 변환할 수 있으며, 여러 화자를 인식 할 수 있는 기능 제공

*Amazon Athena: S3에 저장된 데이터를 직접 SQL로 쿼리할 수 있는 서비스로, 대본 파일 분석에 적합함.

질문 #200주제 1

한 회사가 AWS에서 애플리케이션을 호스팅합니다. 이 회사는 Amazon Cognito를 사용하여 사용자를 관리합니다. 사용자가 애플리케이션에 로그인하면 애플리케이션은 Amazon API Gateway에 호스팅된 REST API를 사용하여 Amazon DynamoDB에서 필요한 데이터를 가져옵니다. 이 회사는 개발 노력을 줄이기 위해 REST API에 대한 액세스를 제어하는 ​​AWS 관리형 솔루션을 원합니다.

어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?

  • A. API Gateway에서 AWS Lambda 함수를 승인자로 구성하여 어떤 사용자가 요청을 했는지 확인합니다.
  • B. 각 사용자에 대해 각 요청과 함께 보내야 하는 API 키를 생성하고 할당합니다. AWS Lambda 함수를 사용하여 키를 검증합니다.
  • C. 모든 요청에서 헤더에 사용자의 이메일 주소를 보냅니다. AWS Lambda 함수를 호출하여 해당 이메일 주소를 가진 사용자가 적절한 액세스 권한이 있는지 확인합니다.
  • D. API Gateway에서 Amazon Cognito 사용자 풀 권한 부여자를 구성하여 Amazon Cognito가 각 요청을 검증할 수 있도록 합니다.

*Amazon Cognito: AWS에서 제공하는 완전 관리형 인증 및 사용자 관리 서비스로, API Gateway와 직접 통합가능

API Gateway 에서 Cognito 사용자 출 권한 부여자(Authorizer)를 설정하면, Cognito가 자동으로 요청을 검증 가능

질문 #201주제 1

한 회사가 모바일 앱 사용자를 타겟으로 하는 마케팅 커뮤니케이션 서비스를 개발하고 있습니다. 이 회사는 사용자에게 단문 메시지 서비스(SMS)로 확인 메시지를 보내야 합니다. 사용자는 SMS 메시지에 답장할 수 있어야 합니다. 이 회사는 분석을 위해 1년 동안 응답을 저장해야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 할까요?

  • A. SMS 메시지를 보내기 위해 Amazon Connect 연락처 흐름을 만듭니다. AWS Lambda를 사용하여 응답을 처리합니다.
  • B. Amazon Pinpoint 여정을 구축합니다. Amazon Pinpoint를 구성하여 분석 및 보관을 위해 Amazon Kinesis 데이터 스트림으로 이벤트를 보냅니다.
  • C. Amazon Simple Queue Service(Amazon SQS)를 사용하여 SMS 메시지를 배포합니다. AWS Lambda를 사용하여 응답을 처리합니다.
  • D. Amazon Simple Notification Service(Amazon SNS) FIFO 토픽을 만듭니다. 분석 및 보관을 위해 Amazon Kinesis 데이터 스트림을 SNS 토픽에 구독합니다.

*Amazon Pinpoint: 마케팅 및 트랜잭션 메시징 서비스로, SMS 메시지를 대량 전송하고 응답을 수집할 수 있으며, 양방향 SMS 기능을 제공해 사용자가 메시지에 답장할 수 있도록 함

질문 #202주제 1

어떤 회사가 데이터를 Amazon S3 버킷으로 옮기려고 계획하고 있습니다. 데이터는 S3 버킷에 저장될 때 암호화되어야 합니다. 또한 암호화 키는 매년 자동으로 순환되어야 합니다.

어떤 솔루션이 운영 오버헤드를 최소화하면서 이러한 요구 사항을 충족할까요?

  • A. 데이터를 S3 버킷으로 이동합니다. Amazon S3 관리 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. SSE-S3 암호화 키의 기본 제공 키 회전 동작을 사용합니다. → 고객이 키를 제어하거나 회전할 수 없음
  • B. AWS Key Management Service(AWS KMS) 고객 관리 키를 만듭니다. 자동 키 로테이션을 활성화합니다. S3 버킷의 기본 암호화 동작을 고객 관리 KMS 키를 사용하도록 설정합니다. 데이터를 S3 버킷으로 이동합니다.
  • C. AWS Key Management Service(AWS KMS) 고객 관리 키를 만듭니다. S3 버킷의 기본 암호화 동작을 고객 관리 KMS 키를 사용하도록 설정합니다. 데이터를 S3 버킷으로 이동합니다. 매년 KMS 키를 수동으로 순환합니다.
  • D. S3 버킷으로 데이터를 이동하기 전에 고객 키 자료로 데이터를 암호화합니다. 키 자료 없이 AWS Key Management Service(AWS KMS) 키를 만듭니다. 고객 키 자료를 KMS 키로 가져옵니다. 자동 키 로테이션을 활성화합니다.

질문 #204주제 1

온라인 리테일 회사는 5,000만 명 이상의 활성 고객을 보유하고 있으며 매일 25,000건 이상의 주문을 받습니다. 이 회사는 고객의 구매 데이터를 수집하여 Amazon S3에 저장합니다. 추가 고객 데이터는 Amazon RDS에 저장됩니다.

이 회사는 모든 데이터를 다양한 팀에 제공하여 팀이 분석을 수행할 수 있도록 하려고 합니다. 솔루션은 데이터에 대한 세분화된 권한을 관리하는 기능을 제공해야 하며 운영 오버헤드를 최소화해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. 구매 데이터를 마이그레이션하여 Amazon RDS에 직접 씁니다. RDS 액세스 제어를 사용하여 액세스를 제한합니다.
  • B. AWS Lambda 함수를 예약하여 Amazon RDS에서 Amazon S3로 데이터를 주기적으로 복사합니다. AWS Glue 크롤러를 만듭니다. Amazon Athena를 사용하여 데이터를 쿼리합니다. S3 정책을 사용하여 액세스를 제한합니다.
  • C. AWS Lake Formation을 사용하여 데이터 레이크를 만듭니다. Amazon RDS에 AWS Glue JDBC 연결을 만듭니다. Lake Formation에 S3 버킷을 등록합니다. Lake Formation 액세스 제어를 사용하여 액세스를 제한합니다. → Glue JDBC 연결을 통해 RDS 데이터를 Lake Formation에 통합할 수 있음. RDS 데이터를 데이터 레이크에서 직접 사용할 수 있어서 S3+ RDS 통합 분석 가능.
  • D. Amazon Redshift 클러스터를 만듭니다. AWS Lambda 함수를 예약하여 Amazon S3 및 Amazon RDS에서 Amazon Redshift로 데이터를 주기적으로 복사합니다. Amazon Redshift 액세스 제어를 사용하여 액세스를 제한합니다. → Redshift로 이동하려면 ETL(Extract, Transform, Load) 작업 필요, Redshift 내부로 복사해야하기 때문에 분석하기 어려움.

질문 #205주제 1

한 회사가 온프레미스 데이터 센터에 마케팅 웹사이트를 호스팅합니다. 이 웹사이트는 정적 문서로 구성되어 있으며 단일 서버에서 실행됩니다. 관리자는 웹사이트 콘텐츠를 드물게 업데이트하고 SFTP 클라이언트를 사용하여 새 문서를 업로드합니다.

이 회사는 AWS에서 웹사이트를 호스팅하고 Amazon CloudFront를 사용하기로 결정합니다. 이 회사의 솔루션 아키텍트는 CloudFront 배포를 만듭니다. 솔루션 아키텍트는 CloudFront 오리진 역할을 하는 웹사이트 호스팅을 위한 가장 비용 효율적이고 복원력 있는 아키텍처를 설계해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. Amazon Lightsail을 사용하여 가상 서버를 만듭니다. Lightsail 인스턴스에서 웹 서버를 구성합니다. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.
  • B. Amazon EC2 인스턴스에 대한 AWS Auto Scaling 그룹을 만듭니다. Application Load Balancer를 사용합니다. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.
  • C. 개인 Amazon S3 버킷을 만듭니다. S3 버킷 정책을 사용하여 CloudFront 원본 액세스 ID(OAI)에서 액세스를 허용합니다. AWS CLI를 사용하여 웹사이트 콘텐츠를 업로드합니다. → OAI를 사용하면 S3 버킷을 퍼블릭으로 설정할 필요 없이, 보안 강화할 수 있음.
  • D. 퍼블릭 Amazon S3 버킷을 만듭니다. SFTP를 위해 AWS Transfer를 구성합니다. 웹사이트 호스팅을 위해 S3 버킷을 구성합니다. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.

질문 #206주제 1

한 회사가 Amazon Machine Images(AMI)를 관리하고자 합니다. 이 회사는 현재 AMI를 AMI가 생성된 동일한 AWS 리전에 복사합니다. 이 회사는 AWS API 호출을 캡처하고 회사 계정 내에서 Amazon EC2 CreateImage API 작업이 호출될 때마다 알림을 보내는 애플리케이션을 설계해야 합니다.

어떤 솔루션이 이러한 요구 사항을 최소한의 운영 오버헤드로 충족할까요?

  • A.AWS CloudTrail 로그를 쿼리하고 CreateImage API 호출이 감지되면 알림을 보내는 AWS Lambda 함수를 생성합니다.
  • B.업데이트된 로그가 Amazon S3로 전송될 때 발생하는 Amazon Simple Notification Service(Amazon SNS) 알림으로 AWS CloudTrail을 구성합니다. Amazon Athena를 사용하여 새 테이블을 만들고 API 호출이 감지되면 CreateImage에서 쿼리합니다.
  • C. CreateImage API 호출에 대한 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 만듭니다. CreateImage API 호출이 감지되면 알림을 보내도록 대상을 Amazon Simple Notification Service(Amazon SNS) 토픽으로 구성합니다. → 별도의 Lambda 함수 없이, EventBridge → SNS로 알림 전송 가능.
  • D. AWS CloudTrail 로그의 대상으로 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 구성합니다. CreateImage API 호출이 감지되면 Amazon Simple Notification Service(Amazon SNS) 토픽에 알림을 보내는 AWS Lambda 함수를 만듭니다.

질문 #207주제 1

한 회사가 사용자 요청을 수집하고 요청 유형에 따라 처리를 위해 적절한 마이크로서비스에 요청을 전송하는 데 사용되는 비동기 API를 소유하고 있습니다. 이 회사는 Amazon API Gateway를 사용하여 API 프런트 엔드를 배포하고, Amazon DynamoDB를 호출하여 사용자 요청을 저장한 다음 처리 마이크로서비스에 전송하는 AWS Lambda 함수를 사용합니다.

이 회사는 예산이 허락하는 한 최대한의 DynamoDB 처리량을 프로비저닝했지만, 여전히 가용성 문제가 발생하고 사용자 요청이 손실되고 있습니다. → DynamoDB가 처리량 한계를 초과하고 있기 때문

솔루션 아키텍트는 기존 사용자에게 영향을 미치지 않고 이 문제를 해결하기 위해 무엇을 해야 할까요?

  • A. 서버 측 제한을 사용하여 API Gateway에 제한을 추가합니다.
  • B. DynamoDB Accelerator(DAX)와 Lambda를 사용하여 DynamoDB에 대한 쓰기를 버퍼링합니다. → DAX는 읽기 성능을 향상시키는 솔루션으로, 쓰기 부하 문제를 해결하지 않음.
  • C. 사용자 요청이 있는 테이블에 대해 DynamoDB에 보조 인덱스를 생성합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) 대기열과 Lambda를 사용하여 DynamoDB에 대한 쓰기를 버퍼링합니다. → DynamoDB가 과부하 상태여도 요청이 즉시 실패하지 않고 SQS에 저장되므로, 기존 사용자 경험이 유지됨.

질문 #208주제 1

회사에서 Amazon EC2 인스턴스에서 Amazon S3 버킷으로 데이터를 이동해야 합니다. 회사는 API 호출과 데이터가 공개 인터넷 경로를 통해 라우팅되지 않도록 해야 합니다. EC2 인스턴스만 S3 버킷에 데이터를 업로드할 수 있습니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. EC2 인스턴스가 있는 서브넷에서 Amazon S3에 대한 인터페이스 VPC 엔드포인트를 만듭니다. S3 버킷에 리소스 정책을 연결하여 EC2 인스턴스의 IAM 역할만 액세스할 수 있도록 허용합니다. → Interface VPC endpoint: EC2 와 S3 간에 직접 연결을 제공한다.
  • B. EC2 인스턴스가 있는 가용성 영역에서 Amazon S3에 대한 게이트웨이 VPC 엔드포인트를 만듭니다. 엔드포인트에 적절한 보안 그룹을 연결합니다. S3 버킷에 리소스 정책을 연결하여 EC2 인스턴스의 IAM 역할만 액세스할 수 있도록 합니다.
  • C. EC2 인스턴스 내부에서 nslookup 도구를 실행하여 S3 버킷의 서비스 API 엔드포인트의 개인 IP 주소를 얻습니다. VPC 경로 테이블에 경로를 만들어 EC2 인스턴스가 S3 버킷에 액세스할 수 있도록 합니다. S3 버킷에 리소스 정책을 연결하여 EC2 인스턴스의 IAM 역할만 액세스할 수 있도록 합니다.
  • D. AWS에서 제공하는 공개적으로 사용 가능한 ip-ranges.json 파일을 사용하여 S3 버킷의 서비스 API 엔드포인트의 개인 IP 주소를 가져옵니다. VPC 경로 테이블에 경로를 만들어 EC2 인스턴스에 S3 버킷에 대한 액세스를 제공합니다. S3 버킷에 리소스 정책을 연결하여 EC2 인스턴스의 IAM 역할만 액세스할 수 있도록 허용합니다.

*Interface VPC Endpoint: AWS PrivateLink 기반으로 동작하며 AWS 서비스와 통신하기 위해 Elastic Network Interface(ENI)를 사용한다. ex) EC2 API, System Manager, CloudWatch Log, API Gatewat 등 (S3, DynamoDB 제외)

*Gateway VPC Endpoint: Route Table을 사용하여 VPC와 AWS 서비스 간의 트래픽을 전달, 인터넷 게이트웨이, NAT 게이트 웨이, VPN 없이 특정 AWS 서비스와 VPC 간 직접 연결. 프라이빗 IP만 사용하여 S3, DynamoDB와 직접 통신 가능. ex) S3, DynamoDB

질문 #209주제 1

솔루션 아키텍트가 AWS 클라우드에 배포되는 새로운 애플리케이션의 아키텍처를 설계하고 있습니다. 이 애플리케이션은 Amazon EC2 On-Demand 인스턴스에서 실행되며 여러 가용성 영역에 걸쳐 자동으로 확장됩니다. EC2 인스턴스는 하루 종일 자주 확장 및 축소됩니다. 애플리케이션 로드 밸런서(ALB)가 부하 분산을 처리합니다. 아키텍처는 분산 세션 데이터 관리를 지원해야 합니다. 회사는 필요한 경우 코드를 변경할 의향이 있습니다.

솔루션 아키텍트는 아키텍처가 분산 세션 데이터 관리를 지원하도록 하기 위해 무엇을 해야 합니까?

  • A. Amazon ElastiCache를 사용하여 세션 데이터를 관리하고 저장합니다. → 고속 인메모리 데이터 저장소로, 세션 데이터를 저장하는 데 최적화. EC2가 auto scaling으로 확장/축소되면 ElastiCache에서 동일한 세션 데이터 공유 가능
  • B. ALB의 세션 친화성(스티키 세션)을 사용하여 세션 데이터를 관리합니다. → sticky session은 특정 사용자의 세션을 특정 인스턴스에 고정하는 방식
  • C. AWS Systems Manager의 Session Manager를 사용하여 세션을 관리합니다.
  • D. AWS Security Token Service(AWS STS)의 GetSessionToken API 작업을 사용하여 세션을 관리합니다.

질문 #210주제 1

한 회사가 빠르게 성장하고 있는 음식 배달 서비스를 제공합니다. 성장으로 인해 회사의 주문 처리 시스템은 최대 트래픽 시간에 확장 문제를 겪고 있습니다. 현재 아키텍처는 다음을 포함합니다.

  • 애플리케이션에서 주문을 수집하기 위해 Amazon EC2 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스 그룹
  • 주문을 이행하기 위해 Amazon EC2 Auto Scaling 그룹에서 실행되는 또 다른 EC2 인스턴스 그룹

주문 수집 프로세스는 빠르게 진행되지만 주문 이행 프로세스는 더 오래 걸릴 수 있습니다. 확장 이벤트로 인해 데이터가 손실되어서는 안 됩니다.

솔루션 아키텍트는 주문 수집 프로세스와 주문 이행 프로세스가 모두 최대 트래픽 시간에 적절하게 확장될 수 있도록 해야 합니다. 솔루션은 회사의 AWS 리소스 활용을 최적화해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon CloudWatch 메트릭을 사용하여 Auto Scaling 그룹의 각 인스턴스의 CPU를 모니터링합니다. 피크 워크로드 값에 따라 각 Auto Scaling 그룹의 최소 용량을 구성합니다.
  • B. Amazon CloudWatch 메트릭을 사용하여 Auto Scaling 그룹의 각 인스턴스의 CPU를 모니터링합니다. CloudWatch 알람을 구성하여 필요에 따라 추가 Auto Scaling 그룹을 만드는 Amazon Simple Notification Service(Amazon SNS) 토픽을 호출합니다.
  • C. 두 개의 Amazon Simple Queue Service(Amazon SQS) 대기열을 프로비저닝합니다. 하나는 주문 수집용이고 다른 하나는 주문 이행용입니다. EC2 인스턴스가 해당 대기열을 폴링하도록 구성합니다. 대기열이 보내는 알림에 따라 Auto Scaling 그룹을 확장합니다.
  • D. 두 개의 Amazon Simple Queue Service(Amazon SQS) 대기열을 제공합니다. 하나는 주문 수집용이고 다른 하나는 주문 이행용입니다. EC2 인스턴스가 해당 대기열을 폴링하도록 구성합니다. 인스턴스당 백로그 계산을 기반으로 메트릭을 만듭니다. 이 메트릭을 기반으로 Auto Scaling 그룹을 확장합니다.

*BackLog: 처리되지 않고 대기 중인 작업이나 요청의 목록, 미완료된 작업량

질문 #211주제 1

한 회사가 여러 프로덕션 애플리케이션을 호스팅합니다. 애플리케이션 중 하나는 여러 AWS 리전에서 Amazon EC2, AWS Lambda, Amazon RDS, Amazon Simple Notification Service(Amazon SNS), Amazon Simple Queue Service(Amazon SQS)의 리소스로 구성됩니다. 모든 회사 리소스는 "application"이라는 태그 이름과 각 애플리케이션에 해당하는 값으로 태그가 지정됩니다. 솔루션 아키텍트는 태그가 지정된 모든 구성 요소를 식별하기 위한 가장 빠른 솔루션을 제공해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS CloudTrail을 사용하여 애플리케이션 태그가 있는 리소스 목록을 생성합니다.
  • B. AWS CLI를 사용하여 모든 지역의 각 서비스를 쿼리하여 태그가 지정된 구성 요소를 보고합니다.
  • C. Amazon CloudWatch Logs Insights에서 쿼리를 실행하여 애플리케이션 태그가 있는 구성 요소를 보고합니다.
  • D. AWS 리소스 그룹 태그 편집기로 쿼리를 실행하여 애플리케이션 태그가 있는 리소스에 대해 전역적으로 보고합니다.

*AWS Resource Groups Tag Editor: AWS 계정 내 여러 리전에 걸쳐 태그가 지정된 리소스를 빠르게 검색하고 관리할 수 있음.

질문 #212주제 1

한 회사가 다른 팀이 액세스할 수 있도록 하루에 한 번 Amazon S3에 데이터베이스를 내보내야 합니다. 내보내는 객체 크기는 2GB에서 5GB 사이입니다. 데이터에 대한 S3 액세스 패턴은 가변적이며 빠르게 변경됩니다. 데이터는 즉시 사용할 수 있어야 하며 최대 3개월 동안 액세스할 수 있어야 합니다. 이 회사는 검색 시간을 늘리지 않는 가장 비용 효율적인 솔루션이 필요합니다.

이 회사는 이러한 요구 사항을 충족하기 위해 어떤 S3 스토리지 클래스를 사용해야 합니까?

  • A. S3 Intelligent-Tiering → 액세스 패턴을 자동 분석하고 가장 비용 효율적인 스토리지 클래스로 이동
  • B. S3 Glacier Instant Retrieval
  • C. S3 Standard → 높은 성능을 제공하지만, 비용이 가장 비쌈.
  • D. S3 Standard-Infrequent Access (S3 Standard-IA)

질문 #214주제 1

회사의 보고 시스템은 매일 수백 개의 .csv 파일을 Amazon S3 버킷에 전달합니다. 회사는 이러한 파일을 Apache Parquet 형식으로 변환하고 변환된 데이터 버킷에 파일을 저장해야 합니다.

어떤 솔루션이 최소한의 개발 노력으로 이러한 요구 사항을 충족할까요?

  • A. Apache Spark가 설치된 Amazon EMR 클러스터를 만듭니다. Spark 애플리케이션을 작성하여 데이터를 변환합니다. EMR 파일 시스템(EMRFS)을 사용하여 변환된 데이터 버킷에 파일을 씁니다.
  • B. AWS Glue 크롤러를 만들어 데이터를 검색합니다. AWS Glue 추출, 변환 및 로드(ETL) 작업을 만들어 데이터를 변환합니다. 출력 단계에서 변환된 데이터 버킷을 지정합니다. → Glue는 서버리스 ETL 서비스로, 데이터 변환 작업을 자동화함.
  • C. AWS Batch를 사용하여 Bash 구문으로 작업 정의를 만들어 데이터를 변환하고 변환된 데이터 버킷에 데이터를 출력합니다. 작업 정의를 사용하여 작업을 제출합니다. 작업 유형으로 배열 작업을 지정합니다.
  • D. AWS Lambda 함수를 만들어 데이터를 변환하고 변환된 데이터 버킷에 데이터를 출력합니다. S3 버킷에 대한 이벤트 알림을 구성합니다. Lambda 함수를 이벤트 알림의 대상으로 지정합니다.

질문 #215주제 1

한 회사는 데이터 센터의 네트워크 연결 스토리지(NAS)에 700TB의 백업 데이터를 저장하고 있습니다. 이 백업 데이터는 드물게 발생하는 규제 요청에 액세스할 수 있어야 하며 7년간 보관해야 합니다. 이 회사는 이 백업 데이터를 데이터 센터에서 AWS로 마이그레이션하기로 결정했습니다. 마이그레이션은 1개월 이내에 완료해야 합니다. 이 회사는 데이터 전송에 사용할 수 있는 공용 인터넷 연결에서 500Mbps의 전용 대역폭을 보유하고 있습니다.

솔루션 아키텍트는 가장 낮은 비용으로 데이터를 마이그레이션하고 저장하기 위해 무엇을 해야 할까요?

  • A. AWS Snowball 디바이스를 주문하여 데이터를 전송합니다. 라이프사이클 정책을 사용하여 파일을 Amazon S3 Glacier Deep Archive로 전환합니다. → 700TB를 인터넷으로 전송하면 너무 많은 시간이 걸림.
  • B. 데이터 센터와 Amazon VPC 간에 VPN 연결을 배포합니다. AWS CLI를 사용하여 온프레미스에서 Amazon S3 Glacier로 데이터를 복사합니다.
  • C. 500Mbps AWS Direct Connect 연결을 프로비저닝하고 데이터를 Amazon S3로 전송합니다. 라이프사이클 정책을 사용하여 파일을 Amazon S3 Glacier Deep Archive로 전환합니다.
  • D. AWS DataSync를 사용하여 데이터를 전송하고 온프레미스에서 DataSync 에이전트를 배포합니다. DataSync 작업을 사용하여 온프레미스 NAS 스토리지에서 Amazon S3 Glacier로 파일을 복사합니다. → Datasync는 고속 네트워크 전송을 지원하지만, 인터넷 연결 속도가 제한됨.

질문 #216주제 1

한 회사에 Amazon S3 버킷에 수백만 개의 객체가 있는 서버리스 웹사이트가 있습니다. 이 회사는 S3 버킷을 Amazon CloudFront 배포의 원점으로 사용합니다. 이 회사는 객체가 로드되기 전에 S3 버킷에 암호화를 설정하지 않았습니다. 솔루션 아키텍트는 모든 기존 객체와 향후 S3 버킷에 추가되는 모든 객체에 대해 암호화를 활성화해야 합니다.

어떤 솔루션이 최소한의 노력으로 이러한 요구 사항을 충족할까요?

  • A. 새 S3 버킷을 만듭니다. 새 S3 버킷에 대한 기본 암호화 설정을 켭니다. 모든 기존 객체를 임시 로컬 스토리지에 다운로드합니다. 객체를 새 S3 버킷에 업로드합니다. → 너무 불필요한 작업이 많고, 많은 시간 소요됨.
  • B. S3 버킷에 대한 기본 암호화 설정을 켭니다. S3 인벤토리 기능을 사용하여 암호화되지 않은 객체를 나열하는 .csv 파일을 만듭니다. 복사 명령을 사용하여 해당 객체를 암호화하는 S3 배치 작업 작업을 실행합니다.→ S3 inventory를 사용하면 암호화 되지 않은 객체 목록을 CSV파일로 생성가능. S3 batch operation을 사용하여, 암호화되지 않은 모든 객체를 한 번에 암호화
  • C. AWS Key Management Service(AWS KMS)를 사용하여 새 암호화 키를 만듭니다. S3 버킷의 설정을 변경하여 AWS KMS 관리 암호화 키(SSE-KMS)로 서버 측 암호화를 사용합니다. S3 버킷의 버전 관리를 켭니다.
  • D. AWS Management Console에서 Amazon S3로 이동합니다. S3 버킷의 객체를 탐색합니다. 암호화 필드로 정렬합니다. 암호화되지 않은 각 객체를 선택합니다. 수정 버튼을 사용하여 S3 버킷의 모든 암호화되지 않은 객체에 기본 암호화 설정을 적용합니다.

질문 #217주제 1

한 회사가 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 글로벌 웹 애플리케이션을 실행합니다. 이 애플리케이션은 Amazon Aurora에 데이터를 저장합니다. 이 회사는 재해 복구 솔루션을 만들어야 하며 최대 30분의 가동 중지 시간과 잠재적인 데이터 손실을 허용할 수 있습니다. 이 솔루션은 기본 인프라가 정상일 때 부하를 처리할 필요가 없습니다. 솔루션

아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 필요한 인프라 요소가 있는 애플리케이션을 배포합니다. Amazon Route 53을 사용하여 액티브-패시브 장애 조치를 구성합니다. 두 번째 AWS 리전에 Aurora 복제본을 만듭니다.
  • B. 두 번째 AWS 지역에서 애플리케이션의 축소된 배포를 호스팅합니다. Amazon Route 53을 사용하여 액티브-액티브 장애 조치를 구성합니다. 두 번째 지역에서 Aurora Replica를 만듭니다.
  • C. 두 번째 AWS 지역에서 기본 인프라를 복제합니다. Amazon Route 53을 사용하여 액티브-액티브 장애 조치를 구성합니다. 최신 스냅샷에서 복원된 Aurora 데이터베이스를 만듭니다.
  • D. AWS Backup으로 데이터를 백업합니다. 백업을 사용하여 두 번째 AWS 리전에 필요한 인프라를 만듭니다. Amazon Route 53을 사용하여 액티브-패시브 장애 조치를 구성합니다. 두 번째 리전에 Aurora 두 번째 기본 인스턴스를 만듭니다.

질문 #218주제 1

한 회사에는 Elastic IP 주소가 있는 퍼블릭 서브넷의 Amazon EC2 인스턴스에서 실행되는 웹 서버가 있습니다. 기본 보안 그룹이 EC2 인스턴스에 할당되었습니다. 기본 네트워크 ACL이 수정되어 모든 트래픽이 차단되었습니다. 솔루션 아키텍트는 포트 443에서 어디서나 웹 서버에 액세스할 수 있도록 해야 합니다.

이 작업을 달성할 단계의 조합은 무엇입니까? (두 가지를 선택하세요.)

  • A.소스 0.0.0.0/0에서 TCP 포트 443을 허용하는 규칙이 있는 보안 그룹을 만듭니다.
  • B.TCP 포트 443에서 대상 0.0.0.0/0으로의 연결을 허용하는 규칙이 있는 보안 그룹을 만듭니다. → 보안 그룹에서 아웃바운드 트래픽을 기본적으로 허용하므로, 설정이 필요하지 않음.
  • C.소스 0.0.0.0/0에서 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
  • D.소스 0.0.0.0/0에서 대상 0.0.0.0/0으로의 인바운드/아웃바운드 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
  • E.소스 0.0.0.0/0에서 인바운드 TCP 포트 443, 대상 0.0.0.0/0으로의 아웃바운드 TCP 포트 32768-65535를 허용하도록 네트워크 ACL을 업데이트합니다. → NACL(Network ACL)이 현재 모든 트래픽을 차단하고 있기 때문에 NACL 규칙을 수정해야함. 웹 서버가 클라이언트의 요청을 수락한 후 , 응답을 보내려면 클라이언트가 열어놓은 임의의 포트(32768-65535)로 아웃바운드 트래픽이 허용되어야함.

질문 #219주제 1

회사의 애플리케이션에 성능 문제가 있습니다. 애플리케이션은 상태가 저장되어 있으며 Amazon EC2 인스턴스에서 메모리 내 작업을 완료해야 합니다. 이 회사는 AWS CloudFormation을 사용하여 인프라를 배포하고 M5 EC2 인스턴스 제품군을 사용했습니다. 트래픽이 증가함에 따라 애플리케이션 성능이 저하되었습니다. 사용자는 애플리케이션에 액세스하려고 할 때 지연이 발생한다고 보고합니다.

어떤 솔루션이 이러한 문제를 가장 운영 효율적인 방식으로 해결할 수 있을까요?

  • A. EC2 인스턴스를 Auto Scaling 그룹에서 실행되는 T3 EC2 인스턴스로 교체합니다. AWS Management Console을 사용하여 변경합니다.
  • B. CloudFormation 템플릿을 수정하여 Auto Scaling 그룹에서 EC2 인스턴스를 실행합니다. 증가가 필요할 때 Auto Scaling 그룹의 원하는 용량과 최대 용량을 수동으로 늘립니다.
  • C. CloudFormation 템플릿을 수정합니다. EC2 인스턴스를 R5 EC2 인스턴스로 바꿉니다. Amazon CloudWatch 내장 EC2 메모리 메트릭을 사용하여 향후 용량 계획을 위해 애플리케이션 성능을 추적합니다. → Cloud Watch는 기본 메트릭(CPU, Network, Dist) 사용량을 추적하지만 지연시간을 직접 측정하지는 않음.
  • D. CloudFormation 템플릿을 수정합니다. EC2 인스턴스를 R5 EC2 인스턴스로 바꿉니다. EC2 인스턴스에 Amazon CloudWatch 에이전트를 배포하여 향후 용량 계획을 위한 사용자 지정 애플리케이션 지연 메트릭을 생성합니다. → M5는 General Purpose를 제공하지만, 메모리 최적화가 필요할 경우 R5( RAM 최적화) 가 더 적합,, CloudWatch 에이전트를 설치하면 애플리케이션 내부에서 성능지표를 수집 가능

질문 #224주제 1

한 회사가 최근 단일 AWS 지역의 Amazon EC2 인스턴스에 애플리케이션을 리호스팅하여 웹 애플리케이션을 AWS로 마이그레이션했습니다. 이 회사는 애플리케이션 아키텍처를 고가용성과 내결함성이 있는 것으로 재설계하고자 합니다. 트래픽은 실행 중인 모든 EC2 인스턴스에 무작위로 도달해야 합니다.

이 회사는 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A. Create an Amazon Route 53 failover routing policy.
  • B. Create an Amazon Route 53 weighted routing policy.
  • C. Create an Amazon Route 53 multivalue answer routing policy.
  • D. EC2 인스턴스 3개를 시작합니다. 한 가용성 영역에 2개의 인스턴스, 다른 가용성 영역에 1개의 인스턴스를 시작합니다.
  • E. 4개의 EC2 인스턴스를 시작합니다. 한 가용성 영역에 2개의 인스턴스, 다른 가용성 영역에 2개의 인스턴스를 시작합니다.

질문 #225주제 1

미디어 회사가 온프레미스에서 사용자 활동 데이터를 수집하고 분석합니다. 이 회사는 이 기능을 AWS로 마이그레이션하려고 합니다. 사용자 활동 데이터 저장소는 계속 성장하고 페타바이트 규모가 될 것입니다. 이 회사는 SQL을 사용하여 기존 데이터와 새 데이터의 주문형 분석을 용이하게 하는 고가용성 데이터 수집 솔루션을 구축해야 합니다.

어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?

  • A. 활동 데이터를 Amazon Kinesis 데이터 스트림으로 보냅니다. 스트림을 구성하여 데이터를 Amazon S3 버킷으로 전달합니다.
  • B. 활동 데이터를 Amazon Kinesis Data Firehose 전달 스트림으로 보냅니다. 스트림을 구성하여 데이터를 Amazon Redshift 클러스터로 전달합니다.
  • C. Amazon S3 버킷에 활동 데이터를 넣습니다. 데이터가 S3 버킷에 도착하면 데이터에 AWS Lambda 함수를 실행하도록 Amazon S3를 구성합니다.
  • D. 여러 가용성 영역에 걸쳐 분산된 Amazon EC2 인스턴스에서 수집 서비스를 만듭니다. Amazon RDS Multi-AZ 데이터베이스로 데이터를 전달하도록 서비스를 구성합니다.

*Kinesis Data Streams → S3: 실시간 데이터 수집 가능, SQL 기반 분석 어려움

*Kinesis Data Firehose → Redshift: 스트리밍 데이터 처리+ SQL 분석 가능

질문 #226주제 1

한 회사는 Amazon EC2 인스턴스에서 실행되는 RESTful 웹 서비스 애플리케이션을 사용하여 수천 개의 원격 장치에서 데이터를 수집합니다. EC2 인스턴스는 원시 데이터를 수신하고, 원시 데이터를 변환하고, 모든 데이터를 Amazon S3 버킷에 저장합니다. 원격 장치의 수는 곧 수백만 개로 늘어날 것입니다. 이 회사는 운영 오버헤드를 최소화하는 확장성이 뛰어난 솔루션이 필요합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A. AWS Glue를 사용하여 Amazon S3의 원시 데이터를 처리합니다.
  • B. Amazon Route 53을 사용하여 다른 EC2 인스턴스로 트래픽을 라우팅합니다.
  • C. 점점 늘어나는 수신 데이터 양을 수용하기 위해 EC2 인스턴스를 더 추가합니다.
  • D. 원시 데이터를 Amazon Simple Queue Service(Amazon SQS)로 보냅니다. EC2 인스턴스를 사용하여 데이터를 처리합니다.
  • E. Amazon API Gateway를 사용하여 원시 데이터를 Amazon Kinesis 데이터 스트림으로 전송합니다. Amazon Kinesis Data Firehose를 구성하여 데이터 스트림을 소스로 사용하여 데이터를 Amazon S3로 전달합니다.

*RESTful: 인터넷을 통해 데이터를 주고받는 API (HTTP)

질문 #227주제 1

한 회사에서는 AWS CloudTrail 로그를 3년 동안 보관해야 합니다. 이 회사는 부모 계정의 AWS Organizations를 사용하여 여러 AWS 계정에서 CloudTrail을 적용하고 있습니다. CloudTrail 대상 S3 버킷은 S3 버전 관리가 활성화되어 구성되어 있습니다. S3 수명 주기 정책은 3년 후에 현재 객체를 삭제하도록 설정되어 있습니다.

S3 버킷을 사용한 지 4년 후, S3 버킷 메트릭은 객체 수가 계속 증가했음을 보여줍니다. 그러나 S3 버킷에 전달되는 새로운 CloudTrail 로그 수는 일관되게 유지되었습니다.

가장 비용 효율적인 방식으로 3년 이상 된 객체를 삭제하는 솔루션은 무엇입니까?

  • A. 조직의 중앙 집중식 CloudTrail 트레일을 구성하여 3년 후에 객체를 만료시킵니다.
  • B. S3 수명 주기 정책을 구성하여 현재 버전뿐만 아니라 이전 버전도 삭제합니다. → S3 버킷 메트릭이 증가한 것은 이전 버전의 객체가 삭제되지 않고 남아있을 가능성이 큼.
  • C. Amazon S3에서 3년 이상 된 객체를 열거하고 삭제하는 AWS Lambda 함수를 생성합니다.
  • D. S3 버킷에 전달되는 모든 객체의 소유자로 부모 계정을 구성합니다.

질문 #229주제 1

한 회사가 MySQL 데이터베이스를 실행하는 자체 Amazon EC2 인스턴스를 관리합니다. 이 회사는 수요가 증가하거나 감소함에 따라 복제 및 확장을 수동으로 관리합니다. 이 회사는 필요에 따라 데이터베이스 계층에 컴퓨팅 용량을 추가하거나 제거하는 프로세스를 간소화하는 새로운 솔루션이 필요합니다. 이 솔루션은 또한 운영에서 최소한의 노력으로 향상된 성능, 확장 및 내구성을 제공해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Aurora MySQL을 위해 Amazon Aurora Serverless로 데이터베이스를 마이그레이션합니다.
  • B. Aurora PostgreSQL을 위해 Amazon Aurora Serverless로 데이터베이스를 마이그레이션합니다.
  • C. 데이터베이스를 하나의 더 큰 MySQL 데이터베이스로 결합합니다. 더 큰 EC2 인스턴스에서 더 큰 데이터베이스를 실행합니다.
  • D. 데이터베이스 계층에 대한 EC2 자동 확장 그룹을 만듭니다. 기존 데이터베이스를 새 환경으로 마이그레이션합니다

질문 #230주제 1

한 회사는 사용 중인 두 개의 NAT 인스턴스가 더 이상 회사 애플리케이션에 필요한 트래픽을 지원할 수 없을까 봐 우려하고 있습니다. 솔루션 아키텍트는 고가용성, 내결함성, 자동 확장이 가능한 솔루션을 구현하려고 합니다.

솔루션 아키텍트는 무엇을 권장해야 할까요?

  • A. 두 개의 NAT 인스턴스를 제거하고 동일한 가용성 영역에 있는 두 개의 NAT 게이트웨이로 교체합니다.
  • B. 다양한 가용성 영역의 NAT 인스턴스에 대해 네트워크 로드 밸런서와 함께 자동 크기 조정 그룹을 사용합니다.
  • C. 두 개의 NAT 인스턴스를 제거하고 다른 가용성 영역에 있는 두 개의 NAT 게이트웨이로 교체합니다.
  • D. 두 개의 NAT 인스턴스를 다른 가용성 영역에 있는 스팟 인스턴스로 교체하고 네트워크 로드 밸런서를 배포합니다.

*NAT instance: EC2 인스턴스를 NAT 용도로 설정한 것으로 직접 관리해야함

*NAT Gateway: 완전 관리형 서비스

질문 #231주제 1

애플리케이션은 VPC A에 Elastic IP 주소가 있는 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 VPC B의 데이터베이스에 대한 액세스가 필요합니다. 두 VPC는 모두 동일한 AWS 계정에 있습니다.

어떤 솔루션이 필요한 액세스를 가장 안전하게 제공할까요?

  • A. VPC A의 애플리케이션 서버의 공용 IP 주소에서 모든 트래픽을 허용하는 DB 인스턴스 보안 그룹을 생성합니다.
  • B. VPC A와 VPC B 사이에 VPC 피어링 연결을 구성합니다.
  • C. DB 인스턴스를 공개적으로 액세스 가능하게 만듭니다. DB 인스턴스에 공개 IP 주소를 할당합니다.
  • D. VPC에 Elastic IP 주소로 EC2 인스턴스를 시작합니다. B. 모든 요청을 새 EC2 인스턴스를 통해 프록시합니다.

질문 #232주제 1

한 회사가 Amazon EC2 인스턴스에서 고객을 위한 데모 환경을 운영합니다. 각 환경은 자체 VPC에 격리되어 있습니다. 환경에 대한 RDP 또는 SSH 액세스가 설정되면 회사의 운영 팀에 알려야 합니다.

  • A. RDP 또는 SSH 액세스가 감지되면 AWS Systems Manager OpsItems를 생성하도록 Amazon CloudWatch Application Insights를 구성합니다. → OpsItems: 애플리케이션 문제 탐지용
  • B. AmazonSSMManagedInstanceCore 정책이 연결된 IAM 역할이 있는 IAM 인스턴스 프로필로 EC2 인스턴스를 구성합니다. → SSM을 통한 원격 관리는 가능하지만, RDP/SSH 트래픽 감지는 불가능
  • C. Amazon CloudWatch Logs에 VPC 흐름 로그를 게시합니다. 필요한 메트릭 필터를 만듭니다. 알람이 ALARM 상태일 때 알림 작업이 있는 Amazon CloudWatch 메트릭 알람을 만듭니다.
  • D. EC2 인스턴스 상태 변경 알림 유형의 이벤트를 수신하도록 Amazon EventBridge 규칙을 구성합니다. Amazon Simple Notification Service(Amazon SNS) 토픽을 대상으로 구성합니다. 운영 팀을 토픽에 구독합니다. → EC2 인스턴스의 상태 변화는 감지 가능

*RDP(3389) , SSH(22)

질문 #234주제 1

한 회사가 새로운 웹 기반 고객 관계 관리 애플리케이션을 구축하고 있습니다. 이 애플리케이션은 Application Load Balancer(ALB) 뒤에 있는 Amazon Elastic Block Store(Amazon EBS) 볼륨으로 백업된 여러 Amazon EC2 인스턴스를 사용합니다. 이 애플리케이션은 또한 Amazon Aurora 데이터베이스를 사용합니다. 애플리케이션의 모든 데이터는 저장 중 및 전송 중에 암호화되어야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. ALB에서 AWS Key Management Service(AWS KMS) 인증서를 사용하여 전송 중인 데이터를 암호화합니다. AWS Certificate Manager(ACM)를 사용하여 EBS 볼륨과 Aurora 데이터베이스 저장소를 휴면 상태로 암호화합니다.
  • B. AWS 루트 계정을 사용하여 AWS Management Console에 로그인합니다. 회사의 암호화 인증서를 업로드합니다. 루트 계정에서 계정의 모든 저장 및 전송 중인 데이터에 대한 암호화를 켜는 옵션을 선택합니다.
  • C. AWS Key Management Service(AWS KMS)를 사용하여 EBS 볼륨과 Aurora 데이터베이스 저장소를 휴면 상태로 암호화합니다. AWS Certificate Manager(ACM) 인증서를 ALB에 연결하여 전송 중인 데이터를 암호화합니다. → ALB는 HTTPS를 통해 클라이언트와 통신해야하므로 TLS가 필요함. ACM에서 TLS 발급해줌
  • D. BitLocker를 사용하여 모든 휴면 데이터를 암호화합니다. 회사의 TLS 인증서 키를 AWS Key Management Service(AWS KMS)로 가져옵니다. KMS 키를 ALB에 연결하여 전송 중인 데이터를 암호화합니다.

*휴면 데이터(At-rest data): 저장된 데이터

질문 #235주제 1

한 회사가 온프레미스 Oracle 데이터베이스를 Amazon Aurora PostgreSQL로 옮기고 있습니다. 이 데이터베이스에는 동일한 테이블에 쓰는 여러 애플리케이션이 있습니다. 애플리케이션은 마이그레이션 사이에 한 달 간격을 두고 하나씩 마이그레이션해야 합니다. 경영진은 데이터베이스에 읽기와 쓰기가 많다는 우려를 표명했습니다. 마이그레이션하는 동안 두 데이터베이스에서 데이터를 동기화해야 합니다.

솔루션 아키텍트는 무엇을 권장해야 합니까?

  • A. 초기 마이그레이션에는 AWS DataSync를 사용합니다. AWS Database Migration Service(AWS DMS)를 사용하여 변경 데이터 캡처(CDC) 복제 작업과 모든 테이블을 선택하는 테이블 매핑을 만듭니다.
  • B. 초기 마이그레이션에 AWS DataSync를 사용합니다. AWS Database Migration Service(AWS DMS)를 사용하여 전체 로드 및 변경 데이터 캡처(CDC) 복제 작업과 모든 테이블을 선택하는 테이블 매핑을 만듭니다.
  • C. 메모리 최적화 복제 인스턴스를 사용하여 AWS Database Migration Service(AWS DMS)와 함께 AWS Schema Conversion Tool을 사용합니다. 전체 로드 및 변경 데이터 캡처(CDC) 복제 작업과 테이블 매핑을 만들어 모든 테이블을 선택합니다.
  • D. AWS Schema Conversion Tool을 AWS Database Migration Service(AWS DMS)와 함께 사용하여 컴퓨팅 최적화 복제 인스턴스를 사용합니다. 전체 로드 플러스 변경 데이터 캡처(CDC) 복제 작업과 테이블 매핑을 생성하여 가장 큰 테이블을 선택합니다.

질문 #236주제 1

한 회사에 이미지 공유를 위한 3계층 애플리케이션이 있습니다. 이 애플리케이션은 프런트엔드 계층에 Amazon EC2 인스턴스를 사용하고, 애플리케이션 계층에 또 다른 EC2 인스턴스를 사용하고, MySQL 데이터베이스에 세 번째 EC2 인스턴스를 사용합니다. 솔루션 아키텍트는 애플리케이션에 최소한의 변경만 필요한 확장 가능하고 고가용성 솔루션을 설계해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon S3를 사용하여 프런트엔드 계층을 호스팅합니다. 애플리케이션 계층에는 AWS Lambda 함수를 사용합니다. 데이터베이스를 Amazon DynamoDB 테이블로 이동합니다. Amazon S3를 사용하여 사용자의 이미지를 저장하고 제공합니다. → 완전히 새로운 구조가 필요함
  • B. 프런트엔드 계층과 애플리케이션 계층에 로드 밸런싱된 Multi-AZ AWS Elastic Beanstalk 환경을 사용합니다. 데이터베이스를 여러 개의 읽기 복제본이 있는 Amazon RDS DB 인스턴스로 이동하여 사용자의 이미지를 제공합니다.
  • C. Amazon S3를 사용하여 프런트엔드 계층을 호스팅합니다. 애플리케이션 계층에 Auto Scaling 그룹의 EC2 인스턴스 플릿을 사용합니다. 데이터베이스를 메모리 최적화 인스턴스 유형으로 이동하여 사용자의 이미지를 저장하고 제공합니다.
  • D. 프런트엔드 계층과 애플리케이션 계층에 로드 밸런싱된 Multi-AZ AWS Elastic Beanstalk 환경을 사용합니다. 데이터베이스를 Amazon RDS Multi-AZ DB 인스턴스로 이동합니다. Amazon S3를 사용하여 사용자의 이미지를 저장하고 제공합니다. → Elastic Beanstalk: 자동 배포 및 확장 가능

질문 #237주제 1

VPC-A의 Amazon EC2 인스턴스에서 실행되는 애플리케이션은 VPC-B의 다른 EC2 인스턴스에 있는 파일에 액세스해야 합니다. 두 VPC는 모두 별도의 AWS 계정에 있습니다. 네트워크 관리자는 VPC-A에서 VPC-B의 EC2 인스턴스에 대한 보안 액세스를 구성하는 솔루션을 설계해야 합니다. 연결에는 단일 장애 지점이나 대역폭 문제가 없어야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. VPC-A와 VPC-B 사이에 VPC 피어링 연결을 설정합니다. → AWS 내부 네트워크를 사용하므로 보안이 뛰어남
  • B. VPC-B에서 실행 중인 EC2 인스턴스에 대한 VPC 게이트웨이 엔드포인트를 설정합니다.
  • C. VPC-B에 가상 사설 게이트웨이를 연결하고 VPC-A에서 라우팅을 설정합니다.
  • D. VPC-B에서 실행 중인 EC2 인스턴스에 대한 개인 가상 인터페이스(VIF)를 생성하고 VPC-A에서 적절한 경로를 추가합니다.

질문 #239주제 1

솔루션 아키텍트는 회사 애플리케이션을 위한 새로운 마이크로서비스를 설계해야 합니다. 클라이언트는 HTTPS 엔드포인트를 호출하여 마이크로서비스에 도달할 수 있어야 합니다. 마이크로서비스는 또한 AWS Identity and Access Management(IAM)를 사용하여 호출을 인증해야 합니다. 솔루션 아키텍트는 Go 1.x로 작성된 단일 AWS Lambda 함수를 사용하여 이 마이크로서비스의 로직을 작성합니다.

어떤 솔루션이 가장 운영적으로 효율적인 방식으로 함수를 배포할까요?

  • A. Amazon API Gateway REST API를 만듭니다. Lambda 함수를 사용하도록 메서드를 구성합니다. API에서 IAM 인증을 활성화합니다.
  • B. 함수에 대한 Lambda 함수 URL을 만듭니다. 인증 유형으로 AWS_IAM을 지정합니다.
  • C. Amazon CloudFront 배포를 만듭니다. Lambda@Edge에 함수를 배포합니다. IAM 인증 로직을 Lambda@Edge 함수에 통합합니다.
  • D. Amazon CloudFront 배포를 만듭니다. CloudFront Functions에 함수를 배포합니다. 인증 유형으로 AWS_IAM을 지정합니다.

질문 #240주제 1

한 회사가 이전에 자사의 데이터웨어하우스 솔루션을 AWS로 마이그레이션했습니다. 이 회사는 또한 AWS Direct Connect 연결을 보유하고 있습니다. 기업 사무실 사용자는 시각화 도구를 사용하여 데이터웨어하우스를 쿼리합니다. 데이터웨어하우스에서 반환하는 쿼리의 평균 크기는 50MB이고 시각화 도구에서 보낸 각 웹페이지는 약 500KB입니다. 데이터웨어하우스에서 반환하는 결과 집합은 캐시되지 않습니다.

어떤 솔루션이 회사에 가장 낮은 데이터 전송 이탈 비용을 제공합니까?

  • A. 시각화 도구를 온프레미스에 호스팅하고 인터넷을 통해 직접 데이터웨어하우스를 쿼리합니다.
  • B. 데이터 웨어하우스와 동일한 AWS 리전에서 시각화 도구를 호스팅합니다. 인터넷을 통해 액세스합니다.
  • C. 온프레미스에서 시각화 도구를 호스팅하고 동일한 AWS 지역의 위치에서 Direct Connect 연결을 통해 데이터웨어하우스를 직접 쿼리합니다.
  • D. 데이터 웨어하우스와 동일한 AWS 지역에 시각화 도구를 호스팅하고 동일한 지역의 위치에서 Direct Connect 연결을 통해 액세스합니다. → SWS 내부 통신은 무료

질문 #241주제 1

온라인 학습 회사가 AWS 클라우드로 이전 중입니다. 이 회사는 PostgreSQL 데이터베이스에 학생 기록을 보관합니다. 이 회사는 여러 AWS 지역에서 항상 데이터를 사용할 수 있고 온라인 상태인 솔루션이 필요합니다.

어떤 솔루션이 운영 오버헤드를 최소화하면서 이러한 요구 사항을 충족할까요?

  • A. PostgreSQL 데이터베이스를 Amazon EC2 인스턴스의 PostgreSQL 클러스터로 마이그레이션합니다.
  • B. Multi-AZ 기능이 켜진 상태에서 PostgreSQL 데이터베이스를 Amazon RDS for PostgreSQL DB 인스턴스로 마이그레이션합니다.
  • C. PostgreSQL 데이터베이스를 Amazon RDS for PostgreSQL DB 인스턴스로 마이그레이션합니다. 다른 Region에 읽기 복제본을 만듭니다.
  • D. PostgreSQL 데이터베이스를 Amazon RDS for PostgreSQL DB 인스턴스로 마이그레이션합니다. 다른 Region으로 복사할 DB 스냅샷을 설정합니다.

질문 #242주제 1

한 회사가 7개의 Amazon EC2 인스턴스를 사용하여 AWS에서 웹 애플리케이션을 호스팅합니다. 이 회사는 모든 건강한 EC2 인스턴스의 IP 주소가 DNS 쿼리에 대한 응답으로 반환되어야 한다고 요구합니다.

이 요구 사항을 충족하기 위해 어떤 정책을 사용해야 합니까?

  • A. Simple routing policy → 한 개의 IP 주소만 반환 가능, 여러 개 반환 불가
  • B. Latency routing policy → 가장 짧은 지연 시간(Low Latency)을 기반으로 하나의 인스턴스를 선택
  • C. Multivalue routing policy → 여러 개의 IP 주소 반환 + 헬스 체크 가능
  • D. Geolocation routing policy → 사용자의 위치 기반으로 라우팅, 모든 인스턴스를 반환하지 않음

질문 #243주제 1

의료 연구실에서 새로운 연구와 관련된 데이터를 생성합니다. 이 연구실은 전국의 클리닉에서 온프레미스 파일 기반 애플리케이션을 위해 최소한의 지연 시간으로 데이터를 제공하고자 합니다. 데이터 파일은 각 클리닉에 대한 읽기 전용 권한이 있는 Amazon S3 버킷에 저장됩니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?

  • A. 각 클리닉의 온프레미스에 AWS Storage Gateway 파일 게이트웨이를 가상 머신(VM)으로 배포합니다. → S3 데이터를 로컬 NAS(Network Attached Storage)처럼 액세스 가능
  • B. AWS DataSync를 사용하여 각 병원의 온프레미스 애플리케이션으로 파일을 마이그레이션하여 처리합니다.
  • C. 각 병원의 온프레미스에 AWS Storage Gateway 볼륨 게이트웨이를 가상 머신(VM)으로 배포합니다.
  • D. 각 병원의 온프레미스 서버에 Amazon Elastic File System(Amazon EFS) 파일 시스템을 연결합니다. → AWS 내부 서비스로, Direct Connect or VPN이 없으면 온프레미스에서 접근 불가

질문 #245주제 1

한 회사가 AWS에서 애플리케이션을 출시하고 있습니다. 이 애플리케이션은 ALB(Application Load Balancer)를 사용하여 단일 대상 그룹의 최소 두 개의 Amazon EC2 인스턴스로 트래픽을 전달합니다. 인스턴스는 각 환경의 Auto Scaling 그룹에 있습니다. 이 회사에는 개발 환경과 프로덕션 환경이 필요합니다. 프로덕션 환경에는 트래픽이 많은 기간이 있습니다.

개발 환경을 가장 비용 효율적으로 구성할 솔루션은 무엇입니까?

  • A. 개발 환경에서 대상 그룹을 재구성하여 대상으로 EC2 인스턴스를 하나만 갖도록 합니다.
  • B. ALB 밸런싱 알고리즘을 가장 덜 처리된 요청으로 변경합니다.
  • C. 두 환경 모두에서 EC2 인스턴스의 크기를 줄입니다.
  • D. 개발 환경의 자동 확장 그룹에서 EC2 인스턴스의 최대 수를 줄입니다.

질문 #246주제 1

한 회사가 여러 가용성 영역의 Amazon EC2 인스턴스에서 웹 애플리케이션을 실행합니다. EC2 인스턴스는 프라이빗 서브넷에 있습니다. 솔루션 아키텍트는 인터넷 연결 애플리케이션 로드 밸런서(ALB)를 구현하고 EC2 인스턴스를 대상 그룹으로 지정합니다. 그러나 인터넷 트래픽이 EC2 인스턴스에 도달하지 않습니다.

솔루션 아키텍트는 이 문제를 해결하기 위해 아키텍처를 어떻게 재구성해야 합니까?

  • A. ALB를 네트워크 로드 밸런서로 교체합니다. 인터넷 트래픽을 허용하기 위해 퍼블릭 서브넷에 NAT 게이트웨이를 구성합니다.
  • B. EC2 인스턴스를 퍼블릭 서브넷으로 이동합니다. EC2 인스턴스의 보안 그룹에 규칙을 추가하여 0.0.0.0/0으로의 아웃바운드 트래픽을 허용합니다.
  • C. EC2 인스턴스의 서브넷에 대한 경로 테이블을 업데이트하여 인터넷 게이트웨이 경로를 통해 0.0.0.0/0 트래픽을 전송합니다. EC2 인스턴스의 보안 그룹에 규칙을 추가하여 0.0.0.0/0으로의 아웃바운드 트래픽을 허용합니다.
  • D. 각 가용성 영역에 퍼블릭 서브넷을 만듭니다. 퍼블릭 서브넷을 ALB와 연결합니다. 퍼블릭 서브넷의 경로 테이블을 프라이빗 서브넷으로의 경로로 업데이트합니다. → ALB는 퍼블릭 서브넷에 배포해야 인터넷에서 트래픽을 받을 수 있음.

질문 #247주제 1

한 회사가 Amazon RDS for MySQL에 데이터베이스를 배포했습니다. 거래가 증가함에 따라 데이터베이스 지원팀은 DB 인스턴스에 대한 읽기 속도가 느리다고 보고하고 읽기 복제본을 추가할 것을 권장합니다.

이 변경 사항을 구현하기 전에 솔루션 아키텍트는 어떤 조치 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A. RDS 기본 노드에서 binlog 복제를 활성화합니다.
  • B. 소스 DB 인스턴스에 대한 장애 조치 우선 순위를 선택합니다.
  • C. 소스 DB 인스턴스에서 장기 실행 트랜잭션이 완료되도록 허용합니다. → 읽기 복제본을 추가하는 동안 실행 중인 트랜잭션이 완료되지 않으면 복제 지연이 발생할 수 있음 → 사전 조치 필요
  • D. 글로벌 테이블을 생성하고 테이블을 사용할 수 있는 AWS 지역을 지정합니다.
  • E. 백업 보존 기간을 0이 아닌 다른 값으로 설정하여 소스 인스턴스에서 자동 백업을 활성화합니다. → 자동 백업이 활성화 되어있어야 읽기 복제본 생성이 가능

질문 #249주제 1

한 회사가 AWS 클라우드에 호스팅된 미디어 애플리케이션에 대한 공유 스토리지 솔루션을 구현하고 있습니다. 이 회사는 SMB 클라이언트를 사용하여 데이터에 액세스할 수 있어야 합니다. 솔루션은 완벽하게 관리되어야 합니다.

어떤 AWS 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS Storage Gateway 볼륨 게이트웨이를 만듭니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • B. AWS Storage Gateway 테이프 게이트웨이를 만듭니다. Amazon S3를 사용하도록 테이프를 구성합니다. 애플리케이션 서버를 테이프 게이트웨이에 연결합니다.
  • C. Amazon EC2 Windows 인스턴스를 만듭니다. 인스턴스에 Windows 파일 공유 역할을 설치하고 구성합니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • D. Amazon FSx for Windows File Server 파일 시스템을 만듭니다. 파일 시스템을 원본 서버에 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다.

*SMB 클라이언트는 Window, Linux 클라이언트에서 액세스 가능

질문 #: 251주제 #: 1

Amazon EC2 인스턴스는 새 VPC의 프라이빗 서브넷에 있습니다. 이 서브넷에는 아웃바운드 인터넷 액세스가 없지만 EC2 인스턴스는 외부 공급업체에서 월별 보안 업데이트를 다운로드할 수 있는 기능이 필요합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A.인터넷 게이트웨이를 생성하고 VPC에 연결합니다. 인터넷 게이트웨이를 기본 경로로 사용하도록 개인 서브넷 경로 테이블을 구성합니다.
  • B.NAT 게이트웨이를 생성하고 퍼블릭 서브넷에 배치합니다. NAT 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 경로 테이블을 구성합니다.
  • C.NAT 인스턴스를 생성하고 EC2 인스턴스가 있는 동일한 서브넷에 배치합니다. NAT 인스턴스를 기본 경로로 사용하도록 프라이빗 서브넷 경로 테이블을 구성합니다. → NAT 인스턴스는 퍼블릭 서브넷에 있어야하며, NAT 게이트 웨이보다 비효율적
  • D.인터넷 게이트웨이를 생성하고 VPC에 연결합니다. NAT 인스턴스를 생성하고 EC2 인스턴스가 있는 동일한 서브넷에 배치합니다. 인터넷 게이트웨이를 기본 경로로 사용하도록 개인 서브넷 경로 테이블을 구성합니다.

질문 #: 254주제 #: 1

한 회사에서 3계층 애플리케이션을 VPC로 최근 마이그레이션하는 것을 검토하고 있습니다. 보안 팀은 애플리케이션 계층 간의 Amazon EC2 보안 그룹 유입 및 유출 규칙에 최소 권한 원칙이 적용되지 않는다는 것을 발견했습니다.

솔루션 아키텍트는 이 문제를 해결하기 위해 무엇을 해야 합니까?

  • A. 인스턴스 ID를 소스 또는 대상으로 사용하여 보안 그룹 규칙을 만듭니다.
  • B. 보안 그룹 ID를 소스 또는 대상으로 사용하여 보안 그룹 규칙을 만듭니다.
  • C. VPC CIDR 블록을 소스 또는 대상으로 사용하여 보안 그룹 규칙을 만듭니다.
  • D. 서브넷 CIDR 블록을 소스 또는 대상으로 사용하여 보안 그룹 규칙을 만듭니다.

질문 #: 256주제 #: 1

솔루션 아키텍트가 Amazon S3 버킷을 사용하여 문서 검토 애플리케이션을 구현하고 있습니다. 솔루션은 실수로 문서를 삭제하는 것을 방지하고 모든 버전의 문서를 사용할 수 있도록 해야 합니다. 사용자는 문서를 다운로드, 수정 및 업로드할 수 있어야 합니다.

이러한 요구 사항을 충족하기 위해 어떤 작업 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A. 읽기 전용 버킷 ACL을 활성화합니다.
  • B. 버킷에서 버전 관리를 활성화합니다.
  • C. 버킷에 IAM 정책을 연결합니다.
  • D. 버킷에서 MFA 삭제를 활성화합니다.
  • E. AWS KMS를 사용하여 버킷을 암호화합니다.

질문 #: 257주제 #: 1

한 회사가 AWS 계정의 모든 애플리케이션에서 Amazon EC2 Auto Scaling 이벤트를 보고하는 솔루션을 구축하고 있습니다. 이 회사는 서버리스 솔루션을 사용하여 Amazon S3에 EC2 Auto Scaling 상태 데이터를 저장해야 합니다. 그런 다음 이 회사는 Amazon S3의 데이터를 사용하여 대시보드에서 거의 실시간 업데이트를 제공합니다. 이 솔루션은 EC2 인스턴스 시작 속도에 영향을 미쳐서는 안 됩니다.

이 회사는 이러한 요구 사항을 충족하기 위해 어떻게 데이터를 Amazon S3로 옮겨야 할까요?

  • A. Amazon CloudWatch 메트릭 스트림을 사용하여 EC2 자동 확장 상태 데이터를 Amazon Kinesis Data Firehose로 전송합니다. Amazon S3에 데이터를 저장합니다.
  • B. Amazon EMR 클러스터를 시작하여 EC2 Auto Scaling 상태 데이터를 수집하고 Amazon Kinesis Data Firehose로 데이터를 전송합니다. Amazon S3에 데이터를 저장합니다.
  • C.Amazon EventBridge 규칙을 만들어 일정에 따라 AWS Lambda 함수를 호출합니다. Lambda 함수를 구성하여 EC2 Auto Scaling 상태 데이터를 Amazon S3로 직접 전송합니다. → EventBridge: 일정 기반 이벤트에 적합하지만 실시간 모니터링에는 적합하지 않음.
  • D.EC2 인스턴스를 시작하는 동안 부트스트랩 스크립트를 사용하여 Amazon Kinesis Agent를 설치합니다. Kinesis Agent를 구성하여 EC2 Auto Scaling 상태 데이터를 수집하고 Amazon Kinesis Data Firehose로 데이터를 전송합니다. Amazon S3에 데이터를 저장합니다.

*CloudWatch Metric Streams: 이벤트 실시간으로 스트리밍 가능

질문 #: 260주제 #: 1

회사의 규정 준수 팀은 파일 공유를 AWS로 옮겨야 합니다. 공유는 Windows Server SMB 파일 공유에서 실행됩니다. 자체 관리형 온프레미스 Active Directory는 파일 및 폴더에 대한 액세스를 제어합니다.

회사는 Amazon FSx for Windows File Server를 솔루션의 일부로 사용하려고 합니다. 회사는 온프레미스 Active Directory 그룹이 AWS로 이동한 후 FSx for Windows File Server SMB 규정 준수 공유, 폴더 및 파일에 대한 액세스를 제한하도록 해야 합니다. 회사는 FSx for Windows File Server 파일 시스템을 만들었습니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A.Active Directory Connector를 만들어 Active Directory에 연결합니다. Active Directory 그룹을 IAM 그룹에 매핑하여 액세스를 제한합니다.
  • B.Restrict 태그 키와 Compliance 태그 값을 사용하여 태그를 할당합니다. Active Directory 그룹을 IAM 그룹에 매핑하여 액세스를 제한합니다.
  • C.FSx for Windows File Server에 직접 연결되는 IAM 서비스 연결 역할을 만들어 액세스를 제한합니다.
  • D.파일 시스템을 Active Directory에 가입하여 액세스를 제한합니다. → Window ACL 및 AD 그룹 정책을 유지하면서 SMB 공유를 관리 가능

질문 #: 261주제 #: 1

한 회사가 최근 글로벌 대상 고객에게 리테일 웹사이트를 배포한다고 발표했습니다. 이 웹사이트는 Elastic Load Balancer 뒤의 여러 Amazon EC2 인스턴스에서 실행됩니다. 이 인스턴스는 여러 가용성 영역에 걸쳐 Auto Scaling 그룹에서 실행됩니다.

회사는 고객이 웹사이트에 액세스하는 데 사용하는 장치에 따라 다양한 버전의 콘텐츠를 고객에게 제공하고자 합니다.

이러한 요구 사항을 충족하기 위해 솔루션 아키텍트는 어떤 조치 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A. Amazon CloudFront를 구성하여 콘텐츠의 여러 버전을 캐시합니다. → CDN을 통해 전 세계적으로 콘텐츠를 빠르게 제공 가능
  • B. 네트워크 로드 밸런서에서 호스트 헤더를 구성하여 트래픽을 다른 인스턴스로 전달합니다.
  • C. User-Agent 헤더를 기반으로 특정 객체를 사용자에게 전송하도록 Lambda@Edge 함수를 구성합니다. → 클라이언트 장치에 따라 적절한 콘텐츠 버전을 반환 가능
  • D. AWS Global Accelerator 구성. 요청을 Network Load Balancer(NLB)로 전달. NLB를 구성하여 다른 EC2 인스턴스로 호스트 기반 라우팅을 설정합니다.
  • E. AWS Global Accelerator를 구성합니다. 요청을 Network Load Balancer(NLB)로 전달합니다. NLB를 구성하여 다른 EC2 인스턴스에 대한 경로 기반 라우팅을 설정합니다.

질문 #: 262주제 #: 1

[모든 AWS 인증 솔루션 아키텍트 - Associate SAA-C03 질문]

한 회사가 다중 계층 웹 애플리케이션에 Amazon ElastiCache를 사용할 계획입니다. 솔루션 아키텍트가 ElastiCache 클러스터에 대한 Cache VPC와 애플리케이션의 Amazon EC2 인스턴스에 대한 App VPC를 만듭니다. 두 VPC 모두 us-east-1 지역에 있습니다.

솔루션 아키텍트는 애플리케이션의 EC2 인스턴스에 ElastiCache 클러스터에 대한 액세스를 제공하는 솔루션을 구현해야 합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. VPC 간에 피어링 연결을 만듭니다. 두 VPC 모두에서 피어링 연결에 대한 경로 테이블 항목을 추가합니다. ElastiCache 클러스터의 보안 그룹에 대한 인바운드 규칙을 구성하여 애플리케이션의 보안 그룹에서 인바운드 연결을 허용합니다.
  • B. Transit VPC를 만듭니다. Cache VPC와 App VPC의 VPC 경로 테이블을 업데이트하여 Transit VPC를 통해 트래픽을 라우팅합니다. ElastiCache 클러스터의 보안 그룹에 대한 인바운드 규칙을 구성하여 애플리케이션의 보안 그룹에서 인바운드 연결을 허용합니다.
  • C.VPC 간에 피어링 연결을 만듭니다. 두 VPC 모두에서 피어링 연결에 대한 경로 테이블 항목을 추가합니다. 피어링 연결의 보안 그룹에 대한 인바운드 규칙을 구성하여 애플리케이션의 보안 그룹에서 인바운드 연결을 허용합니다.
  • D. Transit VPC를 만듭니다. Cache VPC와 App VPC의 VPC 경로 테이블을 업데이트하여 Transit VPC를 통해 트래픽을 라우팅합니다. Transit VPC의 보안 그룹에 대한 인바운드 규칙을 구성하여 애플리케이션의 보안 그룹에서 인바운드 연결을 허용합니다.

질문 #: 263주제 #: 1

[모든 AWS 인증 솔루션 아키텍트 - Associate SAA-C03 질문]

한 회사가 여러 마이크로서비스로 구성된 애플리케이션을 구축하고 있습니다. 이 회사는 컨테이너 기술을 사용하여 AWS에 소프트웨어를 배포하기로 결정했습니다. 이 회사는 유지 관리 및 확장을 위한 지속적인 노력의 양을 최소화하는 솔루션이 필요합니다. 이 회사는 추가 인프라를 관리할 수 없습니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 조치 조합을 취해야 합니까? (두 가지를 선택하십시오.)

  • A. Amazon Elastic Container Service(Amazon ECS) 클러스터를 배포합니다.
  • B. 여러 가용성 영역에 걸쳐 있는 Amazon EC2 인스턴스에 Kubernetes 제어 평면을 배포합니다.
  • C. Amazon EC2 시작 유형으로 Amazon Elastic Container Service(Amazon ECS) 서비스를 배포합니다. 원하는 작업 번호 수준을 2 이상 지정하세요.
  • D. Fargate 시작 유형으로 Amazon Elastic Container Service(Amazon ECS) 서비스를 배포합니다. 원하는 작업 번호 수준을 2 이상 지정하세요. → 컨테이너Task)의 개수를 최소 2개 이상 유지하라
  • E. 여러 가용성 영역에 걸쳐 있는 Amazon EC2 인스턴스에 Kubernetes 워커 노드를 배포합니다. 각 마이크로서비스에 대해 두 개 이상의 복제본을 지정하는 배포를 만듭니다.

질문 #: 264주제 #: 1

한 회사에는 Amazon Route 53에서 트래픽을 유도하는 10개의 Amazon EC2 인스턴스에 호스팅된 웹 애플리케이션이 있습니다. 이 회사는 애플리케이션을 탐색하려고 할 때 가끔 시간 초과 오류가 발생합니다. 네트워킹 팀은 일부 DNS 쿼리가 건강에 해로운 인스턴스의 IP 주소를 반환하여 시간 초과 오류가 발생하는 것을 발견했습니다.

솔루션 아키텍트는 이러한 시간 초과 오류를 극복하기 위해 무엇을 구현해야 합니까?

  • A. 각 EC2 인스턴스에 대해 Route 53 단순 라우팅 정책 레코드를 만듭니다. 각 레코드에 상태 검사를 연결합니다.
  • B. 각 EC2 인스턴스에 대해 Route 53 장애 조치 라우팅 정책 레코드를 만듭니다. 각 레코드에 상태 검사를 연결합니다.
  • C.EC2 인스턴스를 원점으로 하는 Amazon CloudFront 배포를 만듭니다. EC2 인스턴스에 상태 검사를 연결합니다.
  • D. EC2 인스턴스 앞에 상태 확인이 있는 애플리케이션 로드 밸런서(ALB)를 만듭니다. Route 53에서 ALB로 경로 지정합니다.

질문 #: 265주제 #: 1

솔루션 아키텍트는 웹, 애플리케이션, 데이터베이스 계층으로 구성된 고가용성 애플리케이션을 설계해야 합니다. HTTPS 콘텐츠 전송은 가능한 한 엣지에 가까워야 하며, 전송 시간은 가장 짧아야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족하고 가장 안전할까요?

  • A. 퍼블릭 서브넷에 여러 개의 중복 Amazon EC2 인스턴스가 있는 퍼블릭 Application Load Balancer(ALB)를 구성합니다. 퍼블릭 ALB를 원본으로 사용하여 HTTPS 콘텐츠를 제공하도록 Amazon CloudFront를 구성합니다.
  • B. 프라이빗 서브넷에 여러 개의 중복 Amazon EC2 인스턴스가 있는 퍼블릭 애플리케이션 로드 밸런서를 구성합니다. EC2 인스턴스를 원본으로 사용하여 HTTPS 콘텐츠를 제공하도록 Amazon CloudFront를 구성합니다.
  • C. 프라이빗 서브넷에 여러 개의 중복 Amazon EC2 인스턴스가 있는 퍼블릭 애플리케이션 로드 밸런서(ALB)를 구성합니다. 퍼블릭 ALB를 원본으로 사용하여 HTTPS 콘텐츠를 제공하도록 Amazon CloudFront를 구성합니다.
  • D. 퍼블릭 서브넷에 여러 개의 중복 Amazon EC2 인스턴스가 있는 퍼블릭 애플리케이션 로드 밸런서를 구성합니다. EC2 인스턴스를 원본으로 사용하여 HTTPS 콘텐츠를 제공하도록 Amazon CloudFront를 구성합니다.

질문 #: 267주제

한 회사에 모바일 앱을 사용하는 사용자가 100만 명 있습니다. 이 회사는 거의 실시간으로 데이터 사용량을 분석해야 합니다. 또한 이 회사는 거의 실시간으로 데이터를 암호화하고 추가 처리를 위해 Apache Parquet 형식으로 중앙 위치에 데이터를 저장해야 합니다.

어떤 솔루션이 이러한 요구 사항을 가장 적은 운영 오버헤드로 충족할까요?

  • A. Amazon S3에 데이터를 저장하기 위해 Amazon Kinesis 데이터 스트림을 만듭니다. 데이터를 분석하기 위해 Amazon Kinesis Data Analytics 애플리케이션을 만듭니다. AWS Lambda 함수를 호출하여 데이터를 Kinesis Data Analytics 애플리케이션으로 보냅니다.
  • B. Amazon Kinesis 데이터 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. Amazon EMR 클러스터를 생성하여 데이터를 분석합니다. AWS Lambda 함수를 호출하여 데이터를 EMR 클러스터로 전송합니다.
  • C. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. Amazon EMR 클러스터를 생성하여 데이터를 분석합니다.
  • D. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. Amazon Kinesis Data Analytics 애플리케이션을 생성하여 데이터를 분석합니다. → Data analytics를 사용하면 실시간 스트리밍 데이터 분석 가능 / Firehose는 데이터를 자동으로 변환하고 S3에 저장할 수 있음.

질문 #: 268주제 #: 1

게임 회사에는 점수를 표시하는 웹 애플리케이션이 있습니다. 이 애플리케이션은 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 실행됩니다. 이 애플리케이션은 Amazon RDS for MySQL 데이터베이스에 데이터를 저장합니다. 사용자는 데이터베이스 읽기 성능으로 인해 발생하는 긴 지연과 중단을 경험하기 시작했습니다. 이 회사는 애플리케이션 아키텍처의 변경을 최소화하면서 사용자 경험을 개선하고자 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 할까요?

  • A.데이터베이스 앞에 Amazon ElastiCache를 사용합니다. → ElasticCache는 코드 변경이 최소화되면서 읽기 성능이 중요한 워크로드에 대해 좋음. 쿼리 실행 전에 캐시에서 먼저 조회하여 DB 부하를 감소
  • B.애플리케이션과 데이터베이스 사이에 RDS 프록시를 사용합니다.
  • C.EC2 인스턴스에서 AWS Lambda로 애플리케이션을 마이그레이션합니다.
  • D.Amazon RDS for MySQL에서 Amazon DynamoDB로 데이터베이스를 마이그레이션합니다.

질문 #: 269주제 #: 1

전자상거래 회사가 Amazon RDS 기반 웹 애플리케이션의 성능 저하를 발견했습니다. 성능 저하의 원인은 비즈니스 분석가가 트리거한 읽기 전용 SQL 쿼리의 수가 증가했기 때문입니다. 솔루션 아키텍트는 기존 웹 애플리케이션을 최소한으로 변경하여 문제를 해결해야 합니다.

솔루션 아키텍트는 무엇을 권장해야 합니까?

  • A. 데이터를 Amazon DynamoDB로 내보내고 비즈니스 분석가에게 쿼리를 실행하게 합니다.
  • B. Amazon ElastiCache에 데이터를 로드하고 비즈니스 분석가에게 쿼리를 실행하게 합니다. → 캐싱 솔루션으로 쿼리 실행용으로 적합하지 않음.
  • C. 기본 데이터베이스의 읽기 복제본을 만들고 비즈니스 분석가에게 쿼리를 실행하게 합니다. → 읽기 부하를 복제본으로 분산
  • D.Amazon Redshift 클러스터에 데이터를 복사하고 비즈니스 분석가에게 쿼리를 실행하게 합니다.

질문 #: 270주제 #: 1

한 회사가 중앙 집중형 AWS 계정을 사용하여 다양한 Amazon S3 버킷에 로그 데이터를 저장하고 있습니다. 솔루션 아키텍트는 데이터가 S3 버킷에 업로드되기 전에 데이터가 휴면 상태에서 암호화되었는지 확인해야 합니다. 데이터는 전송 중에도 암호화되어야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 클라이언트 측 암호화를 사용하여 S3 버킷에 업로드되는 데이터를 암호화합니다. → 데이터를 업로드하기 전에 사용자가 직접 암호화
  • B. 서버 측 암호화를 사용하여 S3 버킷에 업로드되는 데이터를 암호화합니다. → S3에 저장될때 암호화하는 방식
  • C.S3 업로드에 대해 S3 관리 암호화 키(SSE-S3)를 사용한 서버 측 암호화를 사용해야 하는 버킷 정책을 만듭니다.
  • D. 기본 AWS Key Management Service(AWS KMS) 키를 사용하여 S3 버킷을 암호화하는 보안 옵션을 활성화합니다.

질문 #: 272주제 #: 1

한 회사가 Application Load Balancer(ALB) 뒤에 있는 Amazon EC2 인스턴스 플릿에서 동적 웹사이트를 제공합니다. 이 웹사이트는 전 세계 고객에게 서비스를 제공하기 위해 여러 언어를 지원해야 합니다. 이 웹사이트의 아키텍처는 us-west-1 지역에서 실행 중이며 전 세계 다른 지역에 있는 사용자에게 높은 요청 지연 시간을 보이고 있습니다.

이 웹사이트는 사용자의 위치에 관계없이 요청을 빠르고 효율적으로 처리해야 합니다. 그러나 이 회사는 여러 지역에서 기존 아키텍처를 다시 만들고 싶어하지 않습니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 할까요?

  • A. 기존 아키텍처를 Amazon S3 버킷에서 제공되는 웹사이트로 대체합니다. S3 버킷을 원본으로 하여 Amazon CloudFront 배포를 구성합니다. Accept-Language 요청 헤더에 따라 캐시하도록 캐시 동작 설정을 설정합니다.
  • B. ALB를 원본으로 하여 Amazon CloudFront 배포를 구성합니다. Accept-Language 요청 헤더에 따라 캐시하도록 캐시 동작 설정을 설정합니다. → 전 세계적으로 콘텐츠를 빠르게 배포 가능
  • C. ALB와 통합된 Amazon API Gateway API를 만듭니다. HTTP 통합 유형을 사용하도록 API를 구성합니다. Accept-Language 요청 헤더에 따라 API 캐시를 활성화하도록 API Gateway 단계를 설정합니다. → API gateway 는 Restful api를 위한 서비스
  • D. 각 추가 지역에서 EC2 인스턴스를 시작하고 NGINX를 해당 지역의 캐시 서버로 구성합니다. 모든 EC2 인스턴스와 ALB를 지리적 위치 라우팅 정책이 있는 Amazon Route 53 레코드 세트 뒤에 배치합니다.

질문 #: 273주제 #: 1

빠르게 성장하는 전자상거래 회사가 단일 AWS 지역에서 워크로드를 실행하고 있습니다. 솔루션 아키텍트는 다른 AWS 지역을 포함하는 재해 복구(DR) 전략을 만들어야 합니다. 이 회사는 가능한 한 지연 시간을 최소화하면서 DR 지역에서 데이터베이스를 최신 상태로 유지하고자 합니다. DR 지역의 나머지 인프라는 감소된 용량으로 실행해야 하며 필요한 경우 확장할 수 있어야 합니다.

어떤 솔루션이 가장 낮은 복구 시간 목표(RTO)로 이러한 요구 사항을 충족할까요?

  • A. 파일럿 라이트 배포를 갖춘 Amazon Aurora 글로벌 데이터베이스를 사용합니다.
  • B. 웜 스탠바이 배포를 통해 Amazon Aurora 글로벌 데이터베이스를 사용합니다.
  • C. 파일럿 라이트 배포로 Amazon RDS Multi-AZ DB 인스턴스를 사용합니다.
  • D. 웜 스탠바이 배포와 함께 Amazon RDS Multi-AZ DB 인스턴스를 사용합니다.

*Warm Standby: DR 리전에 출소된 형태의 인프라를 실행하며 필요할 때 확장

*Pilot Light: DR 리전에 최소한의 인프라만 유지, 장애 시 확장

*Hot Standby: DR 리전에 활성화된 상태로 운영

질문 #: 274주제 #: 1

한 회사가 Amazon EC2 인스턴스에서 애플리케이션을 실행합니다. 이 회사는 애플리케이션에 대한 재해 복구(DR) 솔루션을 구현해야 합니다. DR 솔루션은 4시간 미만의 복구 시간 목표(RTO)를 가져야 합니다. 또한 DR 솔루션은 정상 운영 중에 가능한 가장 적은 AWS 리소스를 사용해야 합니다.

어떤 솔루션이 가장 운영적으로 효율적인 방식으로 이러한 요구 사항을 충족할까요?

  • A. EC2 인스턴스를 백업하기 위해 Amazon Machine Images(AMI)를 만듭니다. AMI를 보조 AWS 리전에 복사합니다. AWS Lambda와 사용자 지정 스크립트를 사용하여 보조 리전에서 인프라 배포를 자동화합니다.
  • B. EC2 인스턴스를 백업하기 위해 Amazon Machine Images(AMI)를 만듭니다. AMI를 보조 AWS 리전에 복사합니다. AWS CloudFormation을 사용하여 보조 리전에서 인프라 배포를 자동화합니다. → CloudFormation을 실행하면 EC2, VPC, 보안그룹, 로드밸런서 등을 자동 배포할 수 있도록 구성 가능
  • C. 보조 AWS 지역에서 EC2 인스턴스를 시작합니다. 보조 지역의 EC2 인스턴스를 항상 활성화 상태로 유지합니다.
  • D. 보조 가용성 영역에서 EC2 인스턴스를 시작합니다. 보조 가용성 영역의 EC2 인스턴스를 항상 활성화 상태로 유지합니다.

질문 #: 275주제 #: 1

한 회사에서 내부 브라우저 기반 애플리케이션을 실행합니다. 이 애플리케이션은 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 실행됩니다. 이 인스턴스는 여러 가용성 영역에 걸쳐 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. Auto Scaling 그룹은 근무 시간 동안 최대 20개 인스턴스까지 확장하지만 밤새 2개 인스턴스로 축소합니다. 직원들은 오전 중반까지는 잘 실행되지만 하루가 시작될 때 애플리케이션이 매우 느리다고 불평합니다.

직원의 불만을 해결하고 비용을 최소화하기 위해 확장을 어떻게 변경해야 할까요?

  • A. 사무실이 문을 열기 직전에 원하는 수용 인원을 20명으로 설정하는 예약된 작업을 구현합니다.
  • B. 낮은 CPU 임계값에서 트리거되는 단계적 확장 동작을 구현하고 쿨다운 기간을 줄입니다.
  • C.낮은 CPU 임계값에서 트리거되는 대상 추적 동작을 구현하고 쿨다운 기간을 줄입니다. →
  • D. 사무실이 문을 열기 직전에 최소 및 최대 수용 인원을 20명으로 설정하는 예약된 작업을 구현합니다.

*Target Tracking Scaling: 사전 정의된 목표 지표를 유지하려고 자동 조정, ex) Auto Scaling이 자동으로 인스턴스 수를 조정하여 목표 유지

*Step Scaling: 트리거 값에 따라 미리 정의된 단계적 확장 수행, ex) CPU>70% 일때 +2 , CPU<30% 일때 -1

질문 #: 276주제 #: 1

한 회사에 Auto Scaling 그룹의 여러 Amazon EC2 인스턴스에 배포된 다중 계층 애플리케이션이 있습니다. Amazon RDS for Oracle 인스턴스는 Oracle 특정 PL/SQL 함수를 사용하는 애플리케이션의 데이터 계층입니다. 애플리케이션에 대한 트래픽이 꾸준히 증가하고 있습니다. 이로 인해 EC2 인스턴스가 과부하되고 RDS 인스턴스의 스토리지가 부족해지고 있습니다. Auto Scaling 그룹에는 확장 메트릭이 없으며 최소 정상 인스턴스 수만 정의합니다. 이 회사는 트래픽이 안정적이지만 예측할 수 없는 속도로 계속 증가한 후 평준화될 것으로 예측합니다.

솔루션 아키텍트는 시스템이 증가한 트래픽에 맞게 자동으로 확장될 수 있도록 하기 위해 무엇을 해야 합니까? (두 가지를 선택하세요.)

  • A. RDS for Oracle 인스턴스에서 스토리지 자동 크기 조정을 구성합니다.
  • B. Auto Scaling 스토리지를 사용하려면 데이터베이스를 Amazon Aurora로 마이그레이션해야 합니다.
  • C.Oracle 인스턴스용 RDS에서 여유 저장 공간이 부족할 경우 알람을 구성합니다.
  • D. 자동 크기 조정 그룹을 구성하여 평균 CPU를 크기 조정 지표로 사용합니다.
  • E. 자동 크기 조정 그룹을 구성하여 평균 여유 메모리를 크기 조정 지표로 사용합니다.

질문 #: 278주제 #: 1

한 회사가 직원 데이터를 계층 구조적 관계로 저장하는 애플리케이션을 만들고자 합니다. 이 회사는 직원 데이터에 대한 트래픽이 많은 쿼리에 대한 최소 지연 응답이 필요하며 민감한 데이터를 보호해야 합니다. 또한 직원 데이터에 재무 정보가 있는 경우 회사는 월별 이메일 메시지를 받아야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 취해야 합니까? (두 가지를 선택하세요.)

  • A. Amazon Redshift를 사용하여 직원 데이터를 계층 구조로 저장합니다. 매월 Amazon S3에 데이터를 언로드합니다.
  • B. Amazon DynamoDB를 사용하여 직원 데이터를 계층 구조로 저장합니다. 매월 Amazon S3로 데이터를 내보냅니다. → 계층 구조로 저장하기 편리하고 빠른 읽기 및 쓰기 성능 제공ㅇㅇ
  • C. AWS 계정에 대해 Amazon Macie를 구성합니다. Macie를 Amazon EventBridge와 통합하여 월별 이벤트를 AWS Lambda로 보냅니다.
  • D. Amazon Athena를 사용하여 Amazon S3의 직원 데이터를 분석합니다. Athena를 Amazon QuickSight와 통합하여 분석 대시보드를 게시하고 대시보드를 사용자와 공유합니다.
  • E. AWS 계정에 대해 Amazon Macie를 구성합니다. Macie를 Amazon EventBridge와 통합하여 Amazon Simple Notification Service(Amazon SNS) 구독을 통해 월별 알림을 보냅니다.

*Amazon Macie: 데이터 보안 및 민감한 데이터를 식별하는 데 사용됨

질문 #: 279주제 #: 1

한 회사에 Amazon DynamoDB 테이블로 백업된 애플리케이션이 있습니다. 회사의 규정 준수 요구 사항에는 데이터베이스 백업을 매달 수행해야 하고, 6개월 동안 사용할 수 있어야 하며, 7년 동안 보관해야 한다고 명시되어 있습니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. 매월 1일에 DynamoDB 테이블을 백업하기 위한 AWS 백업 계획을 만듭니다. 6개월 후 백업을 콜드 스토리지로 전환하는 수명 주기 정책을 지정합니다. 각 백업의 보관 기간을 7년으로 설정합니다.
  • B. 매월 1일에 DynamoDB 테이블의 DynamoDB 온디맨드 백업을 만듭니다. 6개월 후 Amazon S3 Glacier Flexible Retrieval로 백업을 전환합니다. 7년 이상 된 백업을 삭제하기 위한 S3 Lifecycle 정책을 만듭니다.
  • C. AWS SDK를 사용하여 DynamoDB 테이블의 온디맨드 백업을 만드는 스크립트를 개발합니다. 매월 1일에 스크립트를 실행하는 Amazon EventBridge 규칙을 설정합니다. 매월 2일에 실행되는 두 번째 스크립트를 만들어 6개월 이상 된 DynamoDB 백업을 콜드 스토리지로 전환하고 7년 이상 된 백업을 삭제합니다.
  • D. AWS CLI를 사용하여 DynamoDB 테이블의 주문형 백업을 만듭니다. 매월 1일에 cron 표현식을 사용하여 명령을 실행하는 Amazon EventBridge 규칙을 설정합니다. 명령에서 6개월 후에 백업을 콜드 스토리지로 전환하고 7년 후에 백업을 삭제하도록 지정합니다.
  •  

질문 #: 280주제 #: 1

한 회사가 웹사이트에 Amazon CloudFront를 사용하고 있습니다. 이 회사는 CloudFront 배포에서 로깅을 활성화했으며, 로그는 회사의 Amazon S3 버킷 중 하나에 저장됩니다. 이 회사는 로그에 대한 고급 분석을 수행하고 시각화를 구축해야 합니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. Amazon Athena에서 표준 SQL 쿼리를 사용하여 S3 버킷의 CloudFront 로그를 분석합니다. AWS Glue로 결과를 시각화합니다.
  • B. Amazon Athena에서 표준 SQL 쿼리를 사용하여 S3 버킷의 CloudFront 로그를 분석합니다. Amazon QuickSight로 결과를 시각화합니다. → Athena는 S3에 저장된 데이터를 직접 분석할 수 있음. QuickSight를 통해 결과 시각화 하면 대시보드를 만들 수 있음.
  • C. Amazon DynamoDB에서 표준 SQL 쿼리를 사용하여 S3 버킷의 CloudFront 로그를 분석합니다. AWS Glue로 결과를 시각화합니다.
  • D. Amazon DynamoDB에서 표준 SQL 쿼리를 사용하여 S3 버킷의 CloudFront 로그를 분석합니다. Amazon QuickSight로 결과를 시각화합니다.

질문 #: 281주제 #: 1

한 회사가 Amazon RDS for PostgreSQL DB 인스턴스를 사용하여 웹 서버 플릿을 운영합니다. 정기적인 규정 준수 검사 후, 회사는 모든 프로덕션 데이터베이스에 대해 1초 미만의 복구 지점 목표(RPO)를 요구하는 표준을 설정합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. DB 인스턴스에 대해 다중 AZ 배포를 활성화합니다.
  • B. 하나의 가용성 영역에서 DB 인스턴스에 대한 자동 크기 조정을 활성화합니다.
  • C. 하나의 가용성 영역에 DB 인스턴스를 구성하고, 별도의 가용성 영역에 여러 개의 읽기 복제본을 생성합니다. → 읽기 성능을 향상시키기 위한 솔루션으로 , 쓰기 작업에 대한 복구를 보장하지 않음.
  • D. 하나의 가용성 영역에 DB 인스턴스를 구성하고 AWS Database Migration Service(AWS DMS) 변경 데이터 캡처(CDC) 작업을 구성합니다

질문 #: 283주제 #: 1

연구 회사가 시뮬레이션 애플리케이션과 시각화 애플리케이션으로 구동되는 실험을 실행합니다. 시뮬레이션 애플리케이션은 Linux에서 실행되고 5분마다 NFS 공유에 중간 데이터를 출력합니다. 시각화 애플리케이션은 시뮬레이션 출력을 표시하고 SMB 파일 시스템이 필요한 Windows 데스크톱 애플리케이션입니다.

이 회사는 두 개의 동기화된 파일 시스템을 유지 관리합니다. 이 전략은 데이터 중복과 비효율적인 리소스 사용을 유발합니다. 이 회사는 두 애플리케이션 모두의 코드를 변경하지 않고 애플리케이션을 AWS로 마이그레이션해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. 두 애플리케이션을 AWS Lambda로 마이그레이션합니다. 애플리케이션 간에 데이터를 교환하기 위해 Amazon S3 버킷을 만듭니다.
  • B. 두 애플리케이션을 모두 Amazon Elastic Container Service(Amazon ECS)로 마이그레이션합니다. 스토리지를 위해 Amazon FSx File Gateway를 구성합니다.
  • C. 시뮬레이션 애플리케이션을 Linux Amazon EC2 인스턴스로 마이그레이션합니다. 시각화 애플리케이션을 Windows EC2 인스턴스로 마이그레이션합니다. 애플리케이션 간에 데이터를 교환하도록 Amazon Simple Queue Service(Amazon SQS)를 구성합니다.
  • D. 시뮬레이션 애플리케이션을 Linux Amazon EC2 인스턴스로 마이그레이션합니다. 시각화 애플리케이션을 Windows EC2 인스턴스로 마이그레이션합니다. 스토리지를 위해 Amazon FSx for NetApp ONTAP을 구성합니다. → Linux는 NFS, Window 는 SMB를 사용하므로 NetApp ONTAP를 사용하면 하나의 스토리지에서 공유

*Amazon FSx for NetApp ONTAP: SMB와 NFS를 모두 지원하는 파일 시스템.

질문 #: 284주제 #: 1

예산 계획의 일환으로 경영진은 사용자별로 나열된 AWS 청구 항목에 대한 보고서를 원합니다. 이 데이터는 부서 예산을 만드는 데 사용됩니다. 솔루션 아키텍트는 이 보고서 정보를 얻는 가장 효율적인 방법을 결정해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon Athena로 쿼리를 실행하여 보고서를 생성합니다.
  • B.Cost Explorer에서 보고서를 만들고 보고서를 다운로드합니다. → Cost Explorer는 사용자별, 서비스별, 계정별 등의 상세한 비용 및 사용 데이터를 시각화
  • C. 청구 대시보드에서 청구서 세부 정보에 접근하고 청구서를 다운로드합니다.
  • D. AWS Budgets에서 비용 예산을 수정하여 Amazon Simple Email Service(Amazon SES)에서 알림을 받습니다.

질문 #: 285주제 #: 1

한 회사가 Amazon S3를 사용하여 정적 웹사이트를 호스팅합니다. 이 회사는 웹페이지에 연락처 양식을 추가하려고 합니다. 연락처 양식에는 사용자가 이름, 이메일 주소, 전화번호 및 사용자 메시지를 입력할 수 있는 동적 서버 측 구성 요소가 있습니다. 이 회사는 매달 100건 미만의 사이트 방문이 있을 것으로 예상합니다.

어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족할까요?

  • A. Amazon Elastic Container Service(Amazon ECS)에서 동적 연락처 양식 페이지를 호스팅합니다. Amazon Simple Email Service(Amazon SES)를 설정하여 모든 타사 이메일 공급자에 연결합니다.
  • B. Amazon Simple Email Service(Amazon SES)를 호출하는 AWS Lambda 백엔드가 있는 Amazon API Gateway 엔드포인트를 생성합니다. → API Gateway는 API 호출에 따라 부과되므로 100건은 싸다.
  • C. Amazon Lightsail을 배포하여 정적 웹페이지를 동적으로 변환합니다. 클라이언트 측 스크립팅을 사용하여 연락처 양식을 빌드합니다. 양식을 Amazon WorkMail과 통합합니다.
  • D. t2.micro Amazon EC2 인스턴스를 만듭니다. LAMP(Linux, Apache, MySQL, PHP/Perl/Python) 스택을 배포하여 웹페이지를 호스팅합니다. 클라이언트 측 스크립팅을 사용하여 연락처 양식을 빌드합니다. 양식을 Amazon WorkMail과 통합합니다.

질문 #: 286주제 #: 1

한 회사에는 Amazon S3 앞의 Amazon CloudFront에 호스팅된 정적 웹사이트가 있습니다. 정적 웹사이트는 데이터베이스 백엔드를 사용합니다. 이 회사는 웹사이트가 웹사이트의 Git 저장소에서 이루어진 업데이트를 반영하지 않는다는 것을 알아차렸습니다. 이 회사는 Git 저장소와 Amazon S3 간의 CI/CD(Continuous Integration and Continuous Delivery) 파이프라인을 확인합니다. 이 회사는 웹훅이 제대로 구성되었는지, CI/CD 파이프라인이 성공적인 배포를 나타내는 메시지를 보내고 있는지 확인합니다.

솔루션 아키텍트는 웹사이트에 업데이트를 표시하는 솔루션을 구현해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요?

  • A. 애플리케이션 로드 밸런서를 추가합니다.
  • B. 웹 애플리케이션의 데이터베이스 계층에 Redis 또는 Memcached용 Amazon ElastiCache를 추가합니다.
  • C. CloudFront 캐시를 무효화합니다. → 업데이트된 내용이 즉시 반영하지 않을 수 있기 때문. 무효화하면 Cloudfront에서 즉시 반영
  • D. AWS Certificate Manager(ACM)를 사용하여 웹사이트의 SSL 인증서를 검증합니다.

질문 #: 288주제 #: 1

한 회사가 Linux 기반 웹 서버 그룹을 AWS로 마이그레이션하고 있습니다. 웹 서버는 일부 콘텐츠에 대해 공유 파일 저장소의 파일에 액세스해야 합니다. 회사는 애플리케이션을 변경해서는 안 됩니다.

솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A.웹 서버에 액세스할 수 있는 Amazon S3 Standard 버킷을 만듭니다.
  • B.Amazon S3 버킷을 원본으로 하여 Amazon CloudFront 배포를 구성합니다.
  • C.Amazon Elastic File System(Amazon EFS) 파일 시스템을 만듭니다. 모든 웹 서버에 EFS 파일 시스템을 마운트합니다. → NFS 프로토콜을 사용하여 Linux 기반 시스템에서 쉽게 마운트하고 사용할 수 있음.
  • D.General Purpose SSD(gp3) Amazon Elastic Block Store(Amazon EBS) 볼륨을 구성합니다. 모든 웹 서버에 EBS 볼륨을 마운트합니다.

질문 #: 291주제 #: 1

미디어 회사가 공개적으로 이용 가능한 스트리밍 비디오 콘텐츠에 Amazon CloudFront를 사용합니다. 이 회사는 액세스 권한이 있는 사람을 제어하여 Amazon S3에 호스팅된 비디오 콘텐츠를 보호하려고 합니다. 이 회사의 일부 사용자는 쿠키를 지원하지 않는 사용자 지정 HTTP 클라이언트를 사용하고 있습니다. 이 회사의 일부 사용자는 액세스에 사용하는 하드코딩된 URL을 변경할 수 없습니다.

어떤 서비스 또는 방법이 사용자에게 최소한의 영향을 미치면서 이러한 요구 사항을 충족할까요? (두 가지를 선택하세요.)

  • A. 서명된 쿠키
  • B. 서명된 URL → 하드 코딩된 URL을 변경하지 않고도 서명된 URL을 사용해 액세스 관리 가능
  • C. AWS 앱싱크
  • D. JSON 웹 토큰(JWT)
  • E. AWS Secrets Manager

질문 #: 292주제 #: 1

한 회사가 여러 소스에서 실시간 스트리밍 데이터를 수집하는 새로운 데이터 플랫폼을 준비하고 있습니다. 이 회사는 Amazon S3에 데이터를 쓰기 전에 데이터를 변환해야 합니다. 이 회사는 SQL을 사용하여 변환된 데이터를 쿼리할 수 있어야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족할까요? (두 가지를 선택하세요.)

  • A. Amazon Kinesis Data Streams를 사용하여 데이터를 스트리밍합니다. Amazon Kinesis Data Analytics를 사용하여 데이터를 변환합니다. Amazon Kinesis Data Firehose를 사용하여 데이터를 Amazon S3에 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • B. Amazon Managed Streaming for Apache Kafka(Amazon MSK)를 사용하여 데이터를 스트리밍합니다. AWS Glue를 사용하여 데이터를 변환하고 Amazon S3에 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다. → Amazon MSK는 실시간 데이터 스트리밍에 적합함
  • C. AWS Database Migration Service(AWS DMS)를 사용하여 데이터를 수집합니다. Amazon EMR을 사용하여 데이터를 변환하고 Amazon S3에 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • D.Amazon Managed Streaming for Apache Kafka(Amazon MSK)를 사용하여 데이터를 스트리밍합니다. Amazon Kinesis Data Analytics를 사용하여 데이터를 변환하고 Amazon S3에 씁니다. Amazon RDS 쿼리 편집기를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • E. Amazon Kinesis Data Streams를 사용하여 데이터를 스트리밍합니다. AWS Glue를 사용하여 데이터를 변환합니다. Amazon Kinesis Data Firehose를 사용하여 데이터를 Amazon S3에 씁니다. Amazon RDS 쿼리 편집기를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.

질문 #: 293주제 #: 1

회사에 수명 종료에 도달한 온프레미스 볼륨 백업 솔루션이 있습니다. 이 회사는 AWS를 새로운 백업 솔루션의 일부로 사용하고 AWS에서 백업하는 동안 모든 데이터에 대한 로컬 액세스를 유지하려고 합니다. 이 회사는 AWS에서 백업된 데이터가 자동으로 안전하게 전송되도록 하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS Snowball을 사용하여 온프레미스 솔루션에서 Amazon S3로 데이터를 마이그레이션합니다. Snowball S3 엔드포인트를 마운트하여 데이터에 대한 로컬 액세스를 제공하도록 온프레미스 시스템을 구성합니다.
  • B. AWS Snowball Edge를 사용하여 온프레미스 솔루션에서 Amazon S3로 데이터를 마이그레이션합니다. Snowball Edge 파일 인터페이스를 사용하여 온프레미스 시스템에 데이터에 대한 로컬 액세스를 제공합니다.
  • C.AWS Storage Gateway를 사용하고 캐시된 볼륨 게이트웨이를 구성합니다. 온프레미스에서 Storage Gateway 소프트웨어 어플라이언스를 실행하고 로컬로 캐시할 데이터의 백분율을 구성합니다. 게이트웨이 스토리지 볼륨을 마운트하여 데이터에 대한 로컬 액세스를 제공합니다.
  • D. AWS Storage Gateway를 사용하고 저장된 볼륨 게이트웨이를 구성합니다. 온프레미스에서 Storage Gateway 소프트웨어 어플라이언스를 실행하고 게이트웨이 스토리지 볼륨을 온프레미스 스토리지에 매핑합니다. 게이트웨이 스토리지 볼륨을 마운트하여 데이터에 대한 로컬 액세스를 제공합니다.

*캐시된 볼륨 게이트웨이는 데이터를 주로 클라우드에 저장하고 로컬 캐시만 사용하는 반면,

*저장된 볼륨 게이트웨이는 전체 데이터를 로컬에 보관하고, 백업 데이터를 AWS로 전송하는 방식입니다.

질문 #: 295주제 #: 1

전자상거래 회사는 AWS 클라우드에 테라바이트 규모의 고객 데이터를 저장합니다. 이 데이터에는 개인 식별 정보(PII)가 포함되어 있습니다. 이 회사는 세 가지 애플리케이션에서 데이터를 사용하려고 합니다. 애플리케이션 중 하나만 PII를 처리하면 됩니다. 다른 두 애플리케이션이 데이터를 처리하기 전에 PII를 제거해야 합니다.

어떤 솔루션이 운영 오버헤드를 최소화하면서 이러한 요구 사항을 충족할까요?

  • A. Amazon DynamoDB 테이블에 데이터를 저장합니다. 각 애플리케이션이 요청하는 데이터를 가로채서 처리하기 위한 프록시 애플리케이션 계층을 만듭니다.
  • B.Amazon S3 버킷에 데이터를 저장합니다. 요청하는 애플리케이션에 데이터를 반환하기 전에 S3 Object Lambda를 사용하여 데이터를 처리하고 변환합니다.
  • C.데이터를 처리하고 변환된 데이터를 세 개의 별도 Amazon S3 버킷에 저장하여 각 애플리케이션이 고유한 사용자 지정 데이터 세트를 갖도록 합니다. 각 애플리케이션을 해당 S3 버킷으로 가리킵니다.
  • D. 데이터를 처리하고 변환된 데이터를 세 개의 별도 Amazon DynamoDB 테이블에 저장하여 각 애플리케이션이 고유한 사용자 지정 데이터 세트를 갖도록 합니다. 각 애플리케이션을 해당 DynamoDB 테이블로 가리킵니다.

질문 #: 296주제 #: 1

개발팀이 개발 VPC 내부의 Amazon EC2 인스턴스에 호스팅되는 새로운 애플리케이션을 출시했습니다. 솔루션 아키텍트는 동일한 계정에서 새로운 VPC를 만들어야 합니다. 새로운 VPC는 개발 VPC와 피어링됩니다. 개발 VPC의 VPC CIDR 블록은 192.168.0.0/24입니다. 솔루션 아키텍트는 새로운 VPC에 대한 CIDR 블록을 만들어야 합니다. CIDR 블록은 개발 VPC에 대한 VPC 피어링 연결에 유효해야 합니다.

이러한 요구 사항을 충족하는 가장 작은 CIDR 블록은 무엇입니까?

  • 가.10.0.1.0/32
  • 나.192.168.0.0/24
  • 다.192.168.1.0/32
  • 디.10.0.1.0/24 → 겹치면 안돼

*/32는 단일 IP주소만 정의 , /24는 0~ 255 범위

질문 #: 299주제 #: 1

연구실은 약 8TB의 데이터를 처리해야 합니다. 이 연구실은 스토리지 서브시스템에 대해 밀리초 미만의 지연 시간과 최소 6GBps의 처리량이 필요합니다. Amazon Linux를 실행하는 수백 개의 Amazon EC2 인스턴스가 데이터를 배포하고 처리합니다.

어떤 솔루션이 성능 요구 사항을 충족할까요?

  • A. Amazon FSx for NetApp ONTAP 파일 시스템을 만듭니다. 각 볼륨의 계층화 정책을 ALL로 설정합니다. 원시 데이터를 파일 시스템으로 가져옵니다. EC2 인스턴스에 fila 시스템을 마운트합니다.
  • B. 원시 데이터를 저장할 Amazon S3 버킷을 만듭니다. 영구 SSD 스토리지를 사용하는 Amazon FSx for Lustre 파일 시스템을 만듭니다. Amazon S3에서 데이터를 가져오고 내보내는 옵션을 선택합니다. EC2 인스턴스에 파일 시스템을 마운트합니다.
  • C.원시 데이터를 저장할 Amazon S3 버킷을 만듭니다. 영구 HDD 스토리지를 사용하는 Amazon FSx for Lustre 파일 시스템을 만듭니다. Amazon S3에서 데이터를 가져오고 내보내는 옵션을 선택합니다. EC2 인스턴스에 파일 시스템을 마운트합니다. → HDD는 SSD보다 성능이 낮음.
  • D. Amazon FSx for NetApp ONTAP 파일 시스템을 만듭니다. 각 볼륨의 계층화 정책을 없음으로 설정합니다. 원시 데이터를 파일 시스템으로 가져옵니다. EC2 인스턴스에 파일 시스템을 마운트합니다.

질문 #: 300주제 #: 1

회사는 하드웨어 용량 제약으로 인해 온프레미스 데이터 센터에서 AWS 클라우드로 레거시 애플리케이션을 마이그레이션해야 합니다. 애플리케이션은 주 7일, 하루 24시간 실행됩니다. 애플리케이션의 데이터베이스 스토리지는 시간이 지남에 따라 계속 증가합니다.

솔루션 아키텍트는 이러한 요구 사항을 가장 비용 효율적으로 충족하기 위해 무엇을 해야 합니까?

  • A. 애플리케이션 계층을 Amazon EC2 Spot Instances로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon S3로 마이그레이션합니다.
  • B. 애플리케이션 계층을 Amazon EC2 예약 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon RDS 온디맨드 인스턴스로 마이그레이션합니다.
  • C. 애플리케이션 계층을 Amazon EC2 예약 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon Aurora 예약 인스턴스로 마이그레이션합니다. → Aurora는 자동 확장성.
  • D. 애플리케이션 계층을 Amazon EC2 On-Demand 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon RDS Reserved Instances로 마이그레이션합니다.

질문 #: 301주제 #: 1

대학 연구 실험실은 온프레미스 Windows 파일 서버에서 Amazon FSx for Windows File Server로 30TB의 데이터를 마이그레이션해야 합니다. 실험실에는 대학의 다른 많은 부서가 공유하는 1Gbps 네트워크 링크가 있습니다.

실험실은 데이터 전송 성능을 극대화할 수 있는 데이터 마이그레이션 서비스를 구현하려고 합니다. 그러나 실험실은 다른 부서에 미치는 영향을 최소화하기 위해 서비스가 사용하는 대역폭의 양을 제어할 수 있어야 합니다. 데이터 마이그레이션은 향후 5일 이내에 수행되어야 합니다.

이러한 요구 사항을 충족하는 AWS 솔루션은 무엇입니까?

  • A. AWS 스노우콘
  • 나. Amazon FSx 파일 게이트웨이
  • 다. AWS 데이터싱크
  • 디. AWS Transfer 패밀리

질문 #: 305주제 #: 1

한 회사가 AWS 클라우드에 호스팅된 게임 애플리케이션을 위한 공유 스토리지 솔루션을 설계하고 있습니다. 이 회사는 SMB 클라이언트를 사용하여 데이터에 액세스할 수 있어야 합니다. 솔루션은 완벽하게 관리되어야 합니다.

어떤 AWS 솔루션이 이러한 요구 사항을 충족합니까?

  • A.마운트 가능한 파일 시스템으로 데이터를 공유하는 AWS DataSync 작업을 만듭니다. 파일 시스템을 애플리케이션 서버에 마운트합니다.
  • B.Amazon EC2 Windows 인스턴스를 만듭니다. 인스턴스에 Windows 파일 공유 역할을 설치하고 구성합니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • C.Amazon FSx for Windows File Server 파일 시스템을 만듭니다. 파일 시스템을 원본 서버에 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다.
  • D.Amazon S3 버킷을 만듭니다. 애플리케이션에 IAM 역할을 할당하여 S3 버킷에 대한 액세스를 부여합니다. S3 버킷을 애플리케이션 서버에 마운트합니다.

질문 #: 306주제 #: 1

한 회사가 Amazon EC2 인스턴스에서 실행되는 지연에 민감한 애플리케이션에 대한 인메모리 데이터베이스를 실행하려고 합니다. 이 애플리케이션은 분당 100,000개 이상의 트랜잭션을 처리하고 높은 네트워크 처리량이 필요합니다. 솔루션 아키텍트는 데이터 전송 요금을 최소화하는 비용 효율적인 네트워크 설계를 제공해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A.동일한 AWS 지역 내의 동일한 가용성 영역에서 모든 EC2 인스턴스를 시작합니다. EC2 인스턴스를 시작할 때 클러스터 전략이 있는 배치 그룹을 지정합니다.
  • B.동일한 AWS 지역 내의 다른 가용성 영역에서 모든 EC2 인스턴스를 시작합니다. EC2 인스턴스를 시작할 때 파티션 전략이 있는 배치 그룹을 지정합니다.
  • C.네트워크 활용률 목표에 따라 다양한 가용성 영역에서 EC2 인스턴스를 시작하기 위해 자동 크기 조정 그룹을 배포합니다.
  • D.다양한 가용성 영역에서 EC2 인스턴스를 시작하기 위해 단계적 확장 정책을 사용하여 자동 확장 그룹을 배포합니다.

질문 #: 307주제 #: 1

주로 사내에서 애플리케이션 서버를 운영하는 한 회사가 AWS로 마이그레이션하기로 결정했습니다. 이 회사는 사내에서 인터넷 소형 컴퓨터 시스템 인터페이스(iSCSI) 스토리지를 확장할 필요성을 최소화하고자 합니다. 이 회사는 최근에 액세스한 데이터만 로컬에 저장되기를 원합니다.

이 회사는 이러한 요구 사항을 충족하기 위해 어떤 AWS 솔루션을 사용해야 합니까?

  • A.Amazon S3 파일 게이트웨이
  • B.AWS 스토리지 게이트웨이 테이프 게이트웨이
  • C.AWS Storage Gateway Volume Gateway 저장 볼륨 → 전체 데이터 세트를 온프레미스에 저장하고 데이터를 AWS에 비동기적으로 백업.
  • D.AWS Storage Gateway Volume Gateway 캐시 볼륨 → 최근에 액세스한 데이터만 로컬에 저장

 

5일 벼락치기 ..성공