[문제 8]
질문: 회사에서 분산 애플리케이션을 AWS로 마이그레이션하고 있습니다. 애플리케이션은 다양한 워크로드를 처리합니다. 레거시 플랫폼은 여러 컴퓨팅 노드에서 작업을 조정하는 기본 서버로 구성됩니다. 이 회사는 탄력성과 확장성을 극대화하는 솔루션으로 애플리케이션을 현대화하려고 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 아키텍처를 어떻게 설계해야 합니까?
A. 작업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 예약된 조정을 사용하도록 EC2 Auto Scaling을 구성합니다.
B. 작업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 대기열 크기에 따라 EC2 Auto Scaling을 구성합니다.
C. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 기본 서버와 컴퓨팅 노드를 구현합니다. 작업의 대상으로 AWS CloudTrail을 구성합니다. 기본 서버의 부하를 기반으로 EC2 Auto Scaling을 구성합니다.
D. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 기본 서버와 컴퓨팅 노드를 구현합니다. 작업의 대상으로 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. 컴퓨팅 노드의 부하를 기반으로 EC2 Auto Scaling을 구성합니다.
[문제 분석]
이 문제는 분산 애플리케이션의 탄력성과 확장성을 극대화하는 데 적합한 아키텍처 설계를 묻고 있습니다. 특히, 레거시 시스템에서 작업 조정 서버를 제거하고 각 컴퓨팅 노드를 독립적으로 확장할 수 있는 솔루션이 요구됩니다. 이를 위해 SQS 대기열과 Auto Scaling을 사용하는 방법이 적합합니다.
[각 보기 분석]
A: Amazon SQS 대기열 + 예약된 조정을 사용하는 Auto Scaling 그룹
- 설명: Amazon SQS를 사용하여 작업을 관리하고, EC2 인스턴스가 예약된 조정 정책에 따라 확장됩니다.
- 부적합: 예약된 조정은 정해진 시간에 따라 인스턴스를 확장 및 축소하기 때문에 실시간 워크로드 변화에 대응하기 어렵습니다.
B: Amazon SQS 대기열 + 대기열 크기에 따른 Auto Scaling 그룹
- 설명: SQS 대기열을 사용해 작업을 처리하고, Auto Scaling 그룹이 대기열 크기를 기준으로 인스턴스를 확장 및 축소합니다. 대기열 크기는 실제 워크로드를 더 잘 나타내는 지표입니다.
- 적합성: 실시간 워크로드 변화에 따라 인스턴스를 자동으로 확장할 수 있으므로, 탄력성과 확장성을 극대화할 수 있습니다.
C: CloudTrail을 사용한 작업 대상 구성 + 기본 서버 부하 기반 확장
- 설명: AWS CloudTrail은 리소스 내역을 기록하는 서비스로, 작업 조정 대상 구성에 적합하지 않습니다.
- 부적합: CloudTrail은 작업의 대상 관리나 확장성과 관련이 없으며, 기본 서버 부하에 따른 확장은 유연성이 부족합니다.
D: Amazon EventBridge 사용 + 컴퓨팅 노드 부하 기반 Auto Scaling
- 설명: EventBridge는 이벤트 기반 작업 트리거링에 적합하며, EC2 인스턴스는 부하를 기준으로 확장됩니다.
- 부적합: EventBridge는 SQS 대기열처럼 작업을 관리하는 데 적합하지 않으며, 부하 기반 확장은 실시간 워크로드 변화에 충분히 대응하지 못할 수 있습니다.
[정답 분석]
정답: B. Amazon SQS 대기열을 사용해 작업을 처리하고, 대기열 크기를 기준으로 Auto Scaling 그룹이 EC2 인스턴스를 자동으로 확장하는 솔루션이 가장 적합합니다. 이 솔루션은 탄력성과 확장성을 극대화하며, 실시간으로 변화하는 워크로드에 유연하게 대응할 수 있습니다.
[서비스 및 관련 옵션]
1. Amazon SQS: 분산 메시지 대기열로, 작업을 저장하고 처리하기 위해 사용됩니다. 대기열 크기에 따라 인스턴스를 유동적으로 확장할 수 있습니다.
2. Auto Scaling: 대기열 크기나 CPU 사용률을 기준으로 EC2 인스턴스의 수를 자동으로 조절하여, 워크로드 변화에 따라 유연하게 대응할 수 있습니다.
3. Amazon EC2: 클라우드 기반 컴퓨팅 서비스로, Auto Scaling 그룹 내에서 인스턴스를 관리하여 컴퓨팅 리소스를 확장하거나 축소할 수 있습니다.
[도메인]
도메인 2: 고가용성 및 확장성 있는 아키텍처 설계
- 워크로드 변화에 따라 유연하게 확장할 수 있는 분산 애플리케이션 설계
[시험에서 주로 출제되는 핵심 개념]
1. Amazon SQS와 Auto Scaling: 메시지 대기열 크기에 따라 인스턴스를 자동으로 확장하는 방법
2. 확장성 및 탄력성: 실시간 워크로드 변화에 대응하며 탄력적인 시스템을 구성하는 방법
3. 분산 애플리케이션 아키텍처 설계: 컴퓨팅 노드와 작업 조정을 분리하여 애플리케이션의 성능을 최적화
'스케쥴 > 시험' 카테고리의 다른 글
AWS-SAA-V18.35 - 10번 (0) | 2024.10.21 |
---|---|
AWS-SAA-V18.35 - 9번 (0) | 2024.10.21 |
AWS-SAA-V18.35 - 7번 (0) | 2024.10.21 |
AWS-SAA-V18.35 - 6번 (1) | 2024.10.21 |
AWS-SAA-V18.35 - 5번 (0) | 2024.10.21 |