3월, 2025의 게시물 표시

Q8. 분산 애플리케이션의 탄력적 현대화 전략

AWS 자격증을 준비하는 여러분, 안녕하세요. 오늘은 분산 애플리케이션을 AWS로 마이그레이션하면서 탄력성과 확장성을 극대화하는 방법에 대해 알아보겠습니다. 이는 실제 기업들이 자주 마주치는 과제이며, AWS 솔루션 아키텍트로서 꼭 알아야 할 핵심 개념들을 포함하고 있습니다. 문제 상황 Q8: 회사에서 분산 애플리케이션을 AWS로 마이그레이션하고 있습니다. 애플리케이션은 다양한 워크로드를 처리합니다. 레거시 플랫폼은 여러 컴퓨팅 노드에서 작업을 조정하는 기본 서버로 구성됩니다. 이 회사는 탄력성과 확장성을 극대화하는 솔루션으로 애플리케이션을 현대화하려고 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 아키텍처를 어떻게 설계해야 합니까? <small>A company is migrating a distributed application to AWS. The application processes various workloads. The legacy platform consists of a primary server that coordinates jobs across multiple compute nodes. The company wants to modernize the application with a solution that maximizes elasticity and scalability. How should a solutions architect design the architecture to meet these requirements?</small> 선택지 A. 작업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 예약된 조정을 사용하도록 EC2 Auto Scaling을 구성합니다. <small>Configure an Amazon S...

Q7. Amazon SNS와 SQS를 활용한 확장 가능한 메시지 처리 아키텍처 구축하기

AWS 자격증을 준비하는 여러분, 안녕하세요. 오늘은 대규모 메시지 처리 시스템을 설계할 때 고려해야 할 중요한 AWS 서비스들에 대해 알아보겠습니다. 특히 Amazon SNS와 SQS를 활용하여 어떻게 확장 가능하고 분리된 아키텍처를 구축할 수 있는지 살펴보겠습니다. 문제 상황 Q7: 회사에 들어오는 메시지를 수집하는 응용 프로그램이 있습니다. 그러면 수십 개의 다른 애플리케이션과 마이크로서비스가 이러한 메시지를 빠르게 소비합니다. 메시지 수는 급격하게 변하며 때로는 초당 100,000 개로 갑자기 증가하기도 합니다. 이 회사는 솔루션을 분리하고 확장성을 높이고자 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? <small>A company has an application that collects incoming messages. Then, dozens of different applications and microservices consume these messages quickly. The number of messages fluctuates drastically and sometimes increases suddenly to 100,000 per second. The company wants to decouple the solution and increase scalability. Which solution will meet these requirements?</small> 선택지 A. Amazon Kinesis Data Analytics 에 대한 메시지를 유지합니다. 메시지를 읽고 처리하도록 소비자 애플리케이션을 구성합니다. <small>Persist messages to Amazon Kinesis Data Analytics. Configure the consumer applications to read and process the messages.</small> B. ...

Q6. AWS Snowball Edge를 활용한 대용량 데이터의 효율적인 마이그레이션

AWS 자격증을 준비하는 여러분, 안녕하세요. 오늘은 대용량 데이터를 온프레미스에서 AWS로 마이그레이션하는 효율적인 방법에 대해 알아보겠습니다. 특히 네트워크 대역폭 사용을 최소화하면서 빠른 데이터 이전이 필요한 상황에서 어떤 AWS 서비스를 선택해야 하는지 살펴보겠습니다. 문제 상황 Q6: 회사는 NFS를 사용하여 온프레미스 네트워크 연결 스토리지에 대용량 비디오 파일을 저장합니다. 각 비디오 파일의 크기 범위는 1MB에서 500GB입니다. 총 스토리지는 70TB이며 더 이상 증가하지 않습니다. 회사는 비디오 파일을 Amazon S3로 마이그레이션하기로 결정합니다. 회사는 가능한 한 최소한의 네트워크 대역폭을 사용하면서 가능한 한 빨리 비디오 파일을 마이그레이션해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까? <small>A company stores large video files in on-premises network-attached storage using NFS. The size of each video file ranges from 1 MB to 500 GB. The total storage is 70 TB and is no longer growing. The company decides to migrate the video files to Amazon S3. The company needs to migrate the video files as quickly as possible while using the least possible amount of network bandwidth. Which solution will meet these requirements?</small> 선택지 A. S3 버킷을 생성합니다. S3 버킷에 대한 쓰기 권한이 있는 IAM 역할을 생성합니다. AWS CLI를 사용하여 모든 파일을 S3 버킷에 로컬로 복사합니다. <small>Create an ...

Q5. Amazon EFS를 활용한 다중 AZ 웹 애플리케이션의 일관된 데이터 관리

AWS 자격증을 준비하는 여러분, 안녕하세요. 오늘은 다중 가용 영역(AZ) 환경에서 웹 애플리케이션의 데이터 일관성을 유지하는 방법에 대해 알아보겠습니다. 이는 AWS Certified Solutions Architect - Associate 자격증 시험에서 자주 다루는 중요한 주제입니다. 문제 상황 Q5: 회사는 사용자 업로드 문서를 Amazon EBS 볼륨에 저장하는 단일 Amazon EC2 인스턴스를 사용하여 AWS에서 웹 애플리케이션을 호스팅하고 있습니다. 더 나은 확장성과 가용성을 위해 이 회사는 아키텍처를 복제하고 다른 가용 영역에 두 번째 EC2 인스턴스와 EBS 볼륨을 생성하여 Application Load Balancer 뒤에 배치했습니다. 이 변경을 완료한 후 사용자는 웹 사이트를 새로 고칠 때마다 문서의 일부 또는 다른 하위 집합을 볼 수 있지만 모든 문서를 동시에 볼 수는 없다고 보고했습니다. 솔루션 설계자는 사용자가 모든 문서를 한 번에 볼 수 있도록 무엇을 제안해야 합니까? <small>A company is hosting a web application on AWS using a single Amazon EC2 instance with an Amazon EBS volume to store user-uploaded documents. For better scalability and availability, the company replicated the architecture and created a second EC2 instance and EBS volume in another Availability Zone, placing them behind an Application Load Balancer. After completing this change, users reported that they could see some or a different subset of the documents when...

Q4. VPC 엔드포인트로 S3에 안전하게 접근하기

AWS 자격증을 준비하는 여러분, 안녕하세요. 오늘은 VPC 내 EC2 인스턴스에서 인터넷 연결 없이 S3 버킷에 안전하게 접근하는 방법에 대해 알아보겠습니다. 이는 보안과 네트워크 설계에 있어 중요한 개념이므로 잘 이해해 두시기 바랍니다. 문제 상황 Q4: 애플리케이션은 VPC의 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 Amazon S3 버킷에 저장된 로그를 처리합니다. EC2 인스턴스는 인터넷 연결 없이 S3 버킷에 액세스해야 합니다. Amazon S3에 대한 프라이빗 네트워크 연결을 제공하는 솔루션은 무엇입니까? <small>An application runs on Amazon EC2 instances in a VPC. The application processes logs that are stored in an Amazon S3 bucket. The EC2 instances need to access the S3 bucket without connectivity to the internet. Which solution will provide private network connectivity to Amazon S3?</small> 선택지 A. S3 버킷에 대한 게이트웨이 VPC 엔드포인트를 생성합니다. <small>Create a gateway VPC endpoint for the S3 bucket.</small> B. Amazon CloudWatch Logs로 로그를 스트리밍합니다. 로그를 S3 버킷으로 내보냅니다. <small>Stream the logs to Amazon CloudWatch Logs. Export the logs to the S3 bucket.</small> C. Amazon EC2에 인스턴스 프로파일을 생성하여 S3 액세스를 허용합니다. <small>Create an instance profile for...

Q3. AWS Organizations와 S3 버킷 정책을 활용한 효과적인 다중 계정 액세스 제어

AWS 자격증을 준비하는 여러분, 안녕하세요. 오늘은 AWS Organizations를 사용하여 여러 AWS 계정을 관리하는 기업 환경에서 S3 버킷에 대한 액세스를 효과적으로 제어하는 방법에 대해 알아보겠습니다. 이는 AWS Certified Solutions Architect - Associate 자격증 시험에서 자주 다루는 중요한 주제입니다. 문제 상황 Q3: 회사는 AWS Organizations를 사용하여 여러 부서의 여러 AWS 계정을 관리합니다. 관리 계정에는 프로젝트 보고서가 포함된 Amazon S3 버킷이 있습니다. 회사는 이 S3 버킷에 대한 액세스를 AWS Organizations의 조직 내 계정 사용자로만 제한하려고 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? A company uses AWS Organizations to manage multiple AWS accounts for several departments. The management account has an Amazon S3 bucket that contains project reports. The company wants to restrict access to this S3 bucket to only users of accounts within the AWS Organizations organization. Which solution will meet these requirements with the LEAST operational overhead? 선택지 A. 조직 ID에 대한 참조와 함께 aws:PrincipalOrgID 전역 조건 키를 S3 버킷 정책에 추가합니다. Add the aws:PrincipalOrgID global condition key to the S3 bucket policy with a reference to the organization ID. B. 각 부서에 대한 조직 단위(OU)를...

Internal NuGet Server 구성

이미지
프로젝트 생성 Visual studio 설치 NeGetServer 프로젝트 생성 NuGetPackage 설치 NuGet.Server Package 검색 NuGet.Sever 설치시 관련 dependancy도 함께 설치됨 web.config .net version 변경 Ctrl + F5를 눌러 서버실행 및 확인 IIS 서버 구성 후 배포 [[IIS Default Web Server 구성]] 프로젝트 배포 생성된 프로젝트 확인 Package 파일 복사 (업로드할 nupkg 파일 복사) NuGet Server 배포

IIS Default Web Server 구성

이미지
IIS 구성 IIS Webserver 설치 .Net framework feature 설치 Internet Information Service (IIS) Manager 실행 Edit bindings 기능을 통해 원하는 포트 변경 Webserver 작동 확인

Q2. Amazon Athena로 S3의 JSON 로그 파일을 간단하게 분석하기

AWS 자격증을 준비하는 여러분, 안녕하세요. 오늘은 AWS Certified Solutions Architect - Associate 시험에 자주 출제되는 데이터 분석 관련 문제를 살펴보겠습니다. 특히 S3에 저장된 로그 파일을 효율적으로 분석하는 방법에 대해 알아보겠습니다. 문제 상황 Q2: 한 회사가 자체 애플리케이션의 로그 파일을 분석해야 합니다. 로그는 Amazon S3 버킷에 JSON 형식으로 저장되어 있습니다. 쿼리는 간단하며 필요할 때마다 실행됩니다. 솔루션 아키텍트는 기존 아키텍처를 최소한으로 변경하면서 이 분석을 수행해야 합니다. 운영 오버헤드를 최소화하면서 이러한 요구사항을 충족하려면 어떤 방법을 사용해야 할까요? <small>A company needs the ability to analyze the log files of its proprietary application. The logs are stored in JSON format in an Amazon S3 bucket. The queries are simple and need to be run on-demand. A solutions architect needs to perform this analysis with minimal changes to the existing architecture. What should the solutions architect do to meet these requirements with the LEAST operational overhead?</small> 선택지 A. Amazon Redshift를 사용하여 모든 콘텐츠를 한 곳에 로드하고 필요에 따라 SQL 쿼리를 실행합니다. <small>Use Amazon Redshift to load all the content to one place and run SQL queries as needed.</small> B. Amazon C...

Q1. S3 Transfer Acceleration으로 글로벌 데이터 수집 최적화하기

AWS 자격증을 준비하는 여러분, 오늘은 글로벌 데이터 수집 시나리오에 대해 알아보겠습니다. 이 문제는 여러 대륙에 걸친 데이터를 효율적으로 수집하고 저장하는 방법을 테스트합니다. AWS의 글로벌 인프라와 S3의 기능을 이해하는 것이 핵심입니다. 문제 상황 Q1: 한 회사가 여러 대륙의 도시에서 온도, 습도, 대기압 데이터를 수집하고 있습니다. 각 사이트에서 매일 평균 500GB의 데이터가 수집되며, 모든 사이트에 고속 인터넷이 연결되어 있습니다. 회사는 이 모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 최대한 빨리 집계하면서 운영 복잡성을 최소화하고자 합니다. 어떤 솔루션이 이러한 요구 사항을 가장 잘 충족시킬까요? <small>A company collects data on temperature, humidity, and air pressure in cities across multiple continents. The average volume of data that the company collects from each site daily is 500 GB. Each site has a high-speed internet connection. The company wants to aggregate the data from all these global sites into a single Amazon S3 bucket as quickly as possible. The solution must minimize operational complexity. Which solution will meet these requirements?</small> 선택지 A. 대상 S3 버킷에서 S3 Transfer Acceleration을 켭니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다. <small>Enable S3 Transfer Acceleration on t...

Key Python Commands

Python Virtual Environment Setup Guide Installing Virtual Environment pip3 install virtualenv virtualenv env Activating Virtual Environment .\env\Scripts\activate.bat Managing Package List pip freeze command pip freeze > requirements.txt When using pip freeze , package download URLs may be displayed with @ in the requirements.txt file: torch @ https://download.pytorch.org/whl/cu116/torch-1.13.1%2Bcu116-cp38-cp38-linux_x86_64.whl torchaudio @ https://download.pytorch.org/whl/cu116/torchaudio-0.13.1%2Bcu116-cp38-cp38-linux_x86_64.whl torchsummary==1.5.1 torchtext==0.14.1 torchvision @ https://download.pytorch.org/whl/cu116/torchvision-0.14.1%2Bcu116-cp38-cp38-linux_x86_64.whl tqdm==4.64.1 pip list command pip list --format=freeze > requirements.txt When using pip list , only package names and versions are recorded in the requirements.txt file: torch==1.13.1+cu116 torchaudio==0.13.1+cu116 torchsummary==1.5.1 torchtext==0.14.1 torchvision==0.14.1+cu116 tqdm==4.64....

Python 주요명령어

Python 가상환경 설정 가이드 가상환경 설치 pip3 install virtualenv virtualenv env 가상환경 실행 .\env\Scripts\activate.bat 패키지 목록 관리 pip freeze 명령어 pip freeze > requirements.txt pip freeze 를 사용하면 requirements.txt 파일에 패키지의 다운로드 주소가 @로 표시될 수 있습니다: torch @ https://download.pytorch.org/whl/cu116/torch-1.13.1%2Bcu116-cp38-cp38-linux_x86_64.whl torchaudio @ https://download.pytorch.org/whl/cu116/torchaudio-0.13.1%2Bcu116-cp38-cp38-linux_x86_64.whl torchsummary==1.5.1 torchtext==0.14.1 torchvision @ https://download.pytorch.org/whl/cu116/torchvision-0.14.1%2Bcu116-cp38-cp38-linux_x86_64.whl tqdm==4.64.1 pip list 명령어 pip list --format=freeze > requirements.txt pip list 를 사용하면 requirements.txt 파일에 패키지 이름과 버전만 기록됩니다: torch==1.13.1+cu116 torchaudio==0.13.1+cu116 torchsummary==1.5.1 torchtext==0.14.1 torchvision==0.14.1+cu116 tqdm==4.64.1 pip install 명령어 requirements.txt에 명시된 모든 패키지를 설치합니다: pip install -r requirements.txt 출처: CodeAngie