Q1. S3 Transfer Acceleration으로 글로벌 데이터 수집 최적화하기
AWS 자격증을 준비하는 여러분, 오늘은 글로벌 데이터 수집 시나리오에 대해 알아보겠습니다. 이 문제는 여러 대륙에 걸친 데이터를 효율적으로 수집하고 저장하는 방법을 테스트합니다. AWS의 글로벌 인프라와 S3의 기능을 이해하는 것이 핵심입니다.
문제 상황
Q1:
한 회사가 여러 대륙의 도시에서 온도, 습도, 대기압 데이터를 수집하고 있습니다. 각 사이트에서 매일 평균 500GB의 데이터가 수집되며, 모든 사이트에 고속 인터넷이 연결되어 있습니다. 회사는 이 모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 최대한 빨리 집계하면서 운영 복잡성을 최소화하고자 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 잘 충족시킬까요?
<small>A company collects data on temperature, humidity, and air pressure in cities across multiple continents. The average volume of data that the company collects from each site daily is 500 GB. Each site has a high-speed internet connection. The company wants to aggregate the data from all these global sites into a single Amazon S3 bucket as quickly as possible. The solution must minimize operational complexity. Which solution will meet these requirements?</small>
선택지
A. 대상 S3 버킷에서 S3 Transfer Acceleration을 켭니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.
<small>Enable S3 Transfer Acceleration on the destination S3 bucket. Use multipart uploads to upload the site data directly to the destination S3 bucket.</small>
B. 각 사이트의 데이터를 가장 가까운 리전의 S3 버킷에 업로드합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.
<small>Upload the data from each site to an S3 bucket in the closest Region. Use S3 Cross-Region Replication to copy the objects to the destination S3 bucket. Then remove the data from the source S3 buckets.</small>
C. AWS Snowball Edge Storage Optimized 디바이스 작업을 매일 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다.
<small>Schedule AWS Snowball Edge Storage Optimized device jobs daily to transfer data from each site to the closest Region. Use S3 Cross-Region Replication to copy the objects to the destination S3 bucket.</small>
D. 각 사이트의 데이터를 가장 가까운 리전의 Amazon EC2 인스턴스로 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 정기적으로 EBS 스냅샷을 만들어 대상 S3 버킷이 포함된 리전에 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다.
<small>Upload the data from each site to an Amazon EC2 instance in the closest Region. Store the data on Amazon Elastic Block Store (Amazon EBS) volumes. Create EBS snapshots periodically and copy them to the Region that contains the destination S3 bucket. Restore the EBS volumes in that Region.</small>
정답 및 해설
정답: A
S3 Transfer Acceleration을 사용하고 멀티파트 업로드를 활용하는 것이 이 시나리오에 가장 적합한 솔루션입니다. 이 방법은 다음과 같은 이유로 요구 사항을 가장 잘 충족합니다:
-
속도: S3 Transfer Acceleration은 AWS의 엣지 로케이션을 활용하여 장거리 데이터 전송 속도를 향상시킵니다. 이는 여러 대륙에 걸친 데이터 전송에 이상적입니다.
-
효율성: 멀티파트 업로드를 사용하면 대용량 파일을 더 작은 부분으로 나누어 병렬로 업로드할 수 있어, 전체 업로드 시간을 단축시킵니다.
-
운영 복잡성 최소화: 데이터를 직접 대상 S3 버킷에 업로드하므로 중간 단계나 추가 리소스가 필요 없어 운영이 간단해집니다.
-
고속 인터넷 활용: 각 사이트의 고속 인터넷 연결을 최대한 활용할 수 있습니다.
다른 옵션들의 문제점
B. 여러 버킷을 사용하고 복제하는 것은 운영 복잡성을 증가시키며, 데이터 삭제 단계가 추가됩니다.
C. Snowball Edge는 인터넷 연결이 느리거나 불안정한 경우에 더 적합합니다. 이 경우 고속 인터넷이 있으므로 불필요한 복잡성을 추가합니다.
D. EC2 인스턴스와 EBS 볼륨을 사용하는 것은 불필요하게 복잡하고 비용이 많이 들며, S3에 직접 저장하는 것보다 비효율적입니다.
결론
이 문제는 AWS의 글로벌 데이터 전송 최적화 기능에 대한 이해를 테스트합니다. S3 Transfer Acceleration과 멀티파트 업로드를 조합하면 글로벌 데이터 수집 요구사항을 효율적으로 충족시킬 수 있습니다. 이는 운영 복잡성을 최소화하면서도 빠른 데이터 전송을 가능하게 하는 AWS의 강력한 기능을 보여줍니다.
댓글
댓글 쓰기