Q6. AWS Snowball Edge를 활용한 대용량 데이터의 효율적인 마이그레이션

AWS 자격증을 준비하는 여러분, 안녕하세요. 오늘은 대용량 데이터를 온프레미스에서 AWS로 마이그레이션하는 효율적인 방법에 대해 알아보겠습니다. 특히 네트워크 대역폭 사용을 최소화하면서 빠른 데이터 이전이 필요한 상황에서 어떤 AWS 서비스를 선택해야 하는지 살펴보겠습니다.

문제 상황

Q6:
회사는 NFS를 사용하여 온프레미스 네트워크 연결 스토리지에 대용량 비디오 파일을 저장합니다. 각 비디오 파일의 크기 범위는 1MB에서 500GB입니다. 총 스토리지는 70TB이며 더 이상 증가하지 않습니다. 회사는 비디오 파일을 Amazon S3로 마이그레이션하기로 결정합니다. 회사는 가능한 한 최소한의 네트워크 대역폭을 사용하면서 가능한 한 빨리 비디오 파일을 마이그레이션해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

<small>A company stores large video files in on-premises network-attached storage using NFS. The size of each video file ranges from 1 MB to 500 GB. The total storage is 70 TB and is no longer growing. The company decides to migrate the video files to Amazon S3. The company needs to migrate the video files as quickly as possible while using the least possible amount of network bandwidth.
Which solution will meet these requirements?</small>

선택지

A. S3 버킷을 생성합니다. S3 버킷에 대한 쓰기 권한이 있는 IAM 역할을 생성합니다. AWS CLI를 사용하여 모든 파일을 S3 버킷에 로컬로 복사합니다.
<small>Create an S3 bucket. Create an IAM role that has write permissions to the S3 bucket. Use the AWS CLI to copy all the files to the S3 bucket locally.</small>

B. AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 장치를 받습니다. Snowball Edge 클라이언트를 사용하여 장치로 데이터를 전송합니다. AWS가 데이터를 Amazon S3로 가져올 수 있도록 디바이스를 반환합니다.
<small>Create an AWS Snowball Edge job. Receive a Snowball Edge device on premises. Transfer the data to the device by using the Snowball Edge client. Return the device for AWS to import the data into Amazon S3.</small>

C. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결할 퍼블릭 서비스 엔드포인트를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에서 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다.
<small>Deploy an S3 File Gateway on premises. Create a public service endpoint to connect to the S3 File Gateway. Create an S3 bucket. Create a new NFS file share on the S3 File Gateway. Point the new file share to the S3 bucket. Transfer the data from the existing NFS file share to the S3 File Gateway.</small>

D. 온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결할 공용 VIF(가상 인터페이스)를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에서 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다.
<small>Set up an AWS Direct Connect connection between the on-premises network and AWS. Deploy an S3 File Gateway on premises. Create a public virtual interface (VIF) to connect to the S3 File Gateway. Create an S3 bucket. Create a new NFS file share on the S3 File Gateway. Point the new file share to the S3 bucket. Transfer the data from the existing NFS file share to the S3 File Gateway.</small>

정답 및 해설

정답은 B입니다.

AWS Snowball Edge는 대용량 데이터를 AWS로 마이그레이션하는 데 이상적인 솔루션입니다. 이 방법은 다음과 같은 이유로 문제의 요구 사항을 가장 잘 충족합니다:

  1. 최소한의 네트워크 대역폭 사용: Snowball Edge 장치는 물리적으로 데이터를 전송하므로 인터넷 대역폭을 전혀 사용하지 않습니다.

  2. 빠른 데이터 전송: 물리적 장치를 통한 데이터 전송은 대용량 데이터(이 경우 70TB)를 처리할 때 네트워크 전송보다 훨씬 빠릅니다.

  3. 대용량 처리 능력: Snowball Edge 장치는 최대 100TB의 용량을 제공하며, 이는 70TB의 데이터를 처리하기에 충분합니다.

  4. 보안: 데이터는 전송 중에 암호화되며, AWS가 직접 장치를 관리하므로 보안이 보장됩니다.

  5. 편의성: AWS가 장치를 제공하고 회수하며, 데이터를 S3로 직접 가져오므로 프로세스가 간단합니다.

오답 설명

A. AWS CLI를 사용한 직접 업로드는 네트워크 대역폭을 많이 사용하며, 70TB의 데이터 전송에 상당한 시간이 소요됩니다.

C. S3 파일 게이트웨이는 지속적인 데이터 동기화에 유용하지만, 초기 대량 데이터 전송에는 네트워크 대역폭을 많이 사용합니다.

D. AWS Direct Connect는 전용 네트워크 연결을 제공하지만, 설정에 시간이 걸리고 초기 대량 데이터 전송에는 여전히 상당한 시간이 소요됩니다.

결론

이 문제는 대용량 데이터를 AWS로 마이그레이션할 때 네트워크 대역폭 사용을 최소화하면서 빠른 전송이 필요한 상황에서 AWS Snowball Edge가 최적의 솔루션임을 보여줍니다. AWS 솔루션 아키텍트로서 다양한 데이터 전송 옵션의 특성을 이해하고, 상황에 맞는 최적의 서비스를 선택하는 능력이 중요합니다.

원본 문제 링크

댓글

이 블로그의 인기 게시물

Python 웹 크롤링 - Scrapy 활용 파워볼 번호 수집(파일)

Anaconda-Python 환경 VSCode에서 사용하기