AZ-305: Azure Solutions Architect Expert

Topic 2: Data Storage Solutions - 전체 39문제 완벽 해설

문제 1
Microsoft AZ-305
Topic #: 2
100개의 Windows Server 2012 R2를 실행하고 Microsoft SQL Server 2014 인스턴스를 호스팅하는 서버가 있습니다. 인스턴스는 다음과 같은 특성을 가진 데이터베이스를 호스팅합니다:

✑ 저장 프로시저는 CLR을 사용하여 구현됩니다.
✑ 가장 큰 데이터베이스는 현재 3TB입니다. 어떤 데이터베이스도 4TB를 초과하지 않습니다.

모든 데이터를 SQL Server에서 Azure로 이동할 계획입니다.

데이터베이스를 호스팅할 서비스를 권장해야 합니다. 솔루션은 다음 요구 사항을 충족해야 합니다:
✑ 가능한 한 마이그레이션된 데이터베이스의 관리 오버헤드를 최소화해야 합니다.
✑ 사용자가 Azure Active Directory(Azure AD) 자격 증명을 사용하여 인증할 수 있도록 해야 합니다.
✑ 마이그레이션을 용이하게 하는 데 필요한 데이터베이스 변경 수를 최소화해야 합니다.

권장 사항에 무엇을 포함해야 합니까?
A Azure SQL Database elastic pools
B Azure SQL Managed Instance
C Azure SQL Database single databases
D SQL Server 2016 on Azure virtual machines
투표 결과: B: 97표 (99.0%) | C: 1표 (1.0%)

정답: B - Azure SQL Managed Instance

정답 근거: Azure SQL Managed Instance는 온프레미스 SQL Server와 가장 높은 호환성을 제공하며, CLR 지원, Azure AD 인증, 최소한의 코드 변경으로 마이그레이션이 가능합니다.

상세 해설

이 문제는 온프레미스 SQL Server에서 Azure로의 마이그레이션에 관한 문제입니다.

핵심 요구사항 분석:

  • CLR 저장 프로시저 지원: Common Language Runtime 기능이 필요
  • 대용량 데이터베이스: 최대 4TB까지의 데이터베이스 크기
  • 최소 관리 오버헤드: 관리형 서비스가 선호됨
  • Azure AD 인증: 통합된 인증 시스템
  • 최소 코드 변경: 호환성이 높은 솔루션

옵션별 분석:

  • A. Azure SQL Database elastic pools: CLR을 지원하지 않음
  • B. Azure SQL Managed Instance: ✅ CLR 지원, 높은 호환성, 관리형 서비스
  • C. Azure SQL Database single: CLR을 지원하지 않음
  • D. SQL Server on VM: 관리 오버헤드가 큼
결론: Azure SQL Managed Instance는 온프레미스 SQL Server와 거의 100% 호환성을 제공하며, CLR 저장 프로시저, Azure AD 인증, 최대 8TB 스토리지를 지원하여 모든 요구사항을 만족합니다.
문제 2
Microsoft AZ-305
Topic #: 2
store1이라는 Azure Blob Storage 계정이 포함된 Azure 구독이 있습니다.
Windows Server 2016을 실행하는 Server1이라는 온프레미스 파일 서버가 있습니다. Server1에는 500GB의 회사 파일이 저장되어 있습니다.

Server1의 회사 파일 복사본을 store1에 저장해야 합니다.

이 목표를 달성하는 두 가지 가능한 Azure 서비스는 무엇입니까? 각 정답은 완전한 솔루션을 제시합니다.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
A an Azure Logic Apps integration account
B an Azure Import/Export job
C Azure Data Factory
D an Azure Analysis services On-premises data gateway
E an Azure Batch account
투표 결과: BC: 83표 (97.6%) | BE: 2표 (2.4%)

정답: B, C - Azure Import/Export job & Azure Data Factory

정답 근거: 두 서비스 모두 온프레미스에서 Azure Blob Storage로 대용량 데이터를 전송할 수 있는 완전한 솔루션입니다.

상세 해설

이 문제는 온프레미스에서 Azure로의 데이터 마이그레이션 방법에 관한 문제입니다.

요구사항:

  • 온프레미스 서버(Server1)에서 500GB 파일을 Azure Blob Storage로 복사
  • 완전한 솔루션을 제공하는 두 가지 방법

정답 분석:

  • B. Azure Import/Export job: - 물리적 디스크를 Azure 데이터센터로 배송하여 대용량 데이터 전송 - 네트워크 대역폭 제한이 있는 경우 효과적 - 500GB 정도의 데이터에 적합
  • C. Azure Data Factory: - 하이브리드 데이터 통합 서비스 - 온프레미스와 클라우드 간 데이터 이동 및 변환 - Self-hosted Integration Runtime을 통한 온프레미스 연결

오답 분석:

  • A. Logic Apps: 워크플로 자동화용, 파일 복사에는 부적합
  • D. Analysis Services Gateway: 분석 서비스용 게이트웨이
  • E. Azure Batch: 대규모 병렬 컴퓨팅용, 파일 전송과는 무관
결론: Import/Export는 오프라인 데이터 전송, Data Factory는 온라인 데이터 통합 서비스로 각각 다른 시나리오에서 효과적인 완전한 솔루션을 제공합니다.
문제 3
Microsoft AZ-305
Topic #: 2
App1과 App2라는 두 개의 애플리케이션이 포함된 Azure 구독이 있습니다. App1은 영업 처리 애플리케이션입니다. App1의 트랜잭션에 배송이 필요한 경우 Azure Storage 계정 큐에 메시지가 추가되고 App2가 관련 트랜잭션에 대한 큐를 수신 대기합니다.

향후에는 트랜잭션의 특정 세부 정보를 기반으로 배송 요청의 일부를 처리할 추가 애플리케이션이 추가될 예정입니다.

각 추가 애플리케이션이 관련 트랜잭션을 읽을 수 있도록 스토리지 계정 큐를 대체할 솔루션을 권장해야 합니다.

무엇을 권장해야 합니까?
A one Azure Data Factory pipeline
B multiple storage account queues
C one Azure Service Bus queue
D one Azure Service Bus topic
투표 결과: D: 75표 (91.5%) | C: 7표 (8.5%)

정답: D - one Azure Service Bus topic

정답 근거: Service Bus Topic은 여러 구독자(애플리케이션)가 동일한 메시지를 받을 수 있는 pub/sub 패턴을 지원합니다.

상세 해설

이 문제는 메시징 아키텍처 패턴에 관한 문제입니다.

현재 상황:

  • App1 → Storage Queue → App2 (1:1 관계)
  • 향후 여러 애플리케이션이 동일한 메시지를 처리해야 함
  • 각 애플리케이션은 특정 세부 정보를 기반으로 필터링

Storage Queue vs Service Bus 비교:

  • Storage Queue: - 간단한 FIFO 큐 - 한 번 읽으면 메시지가 사라짐 (1:1 소비)
  • Service Bus Queue: - 고급 큐잉 기능 - 여전히 1:1 소비 패턴
  • Service Bus Topic: - Publish/Subscribe 패턴 - 여러 구독(subscription)을 통해 1:N 소비

Service Bus Topic의 장점:

  • 다중 구독자: 여러 애플리케이션이 동일한 메시지 수신
  • 필터링: 각 구독에서 SQL 필터나 상관관계 필터 사용
  • 확장성: 새로운 애플리케이션 추가가 용이
  • 메시지 중복: 각 구독자가 독립적으로 메시지 처리
결론: Service Bus Topic은 하나의 메시지를 여러 애플리케이션이 독립적으로 처리할 수 있는 pub/sub 패턴을 제공하여, 확장 가능한 메시징 아키텍처를 구현할 수 있습니다.
문제 4
Microsoft AZ-305
Topic #: 2
HOTSPOT -
자주 사용되는 대량의 데이터를 저장할 앱용 스토리지 솔루션을 설계해야 합니다. 솔루션은 다음 요구 사항을 충족해야 합니다:
✑ 데이터 처리량을 최대화합니다.
✑ 1년 동안 데이터 수정을 방지합니다.
✑ 읽기 및 쓰기 작업의 대기 시간을 최소화합니다.

권장할 Azure Storage 계정 유형 및 스토리지 서비스는 무엇입니까?
Storage options diagram
A General Purpose v2 + Hot tier
B BlockBlobStorage + Blob
C General Purpose v1 + Table
D FileStorage + Files

정답: B - BlockBlobStorage + Blob

Answer diagram

정답 근거: BlockBlobStorage는 프리미엄 성능과 낮은 지연시간을 제공하며, Blob은 불변성(immutability) 정책을 지원합니다.

상세 해설

이 문제는 고성능 스토리지와 데이터 보호에 관한 문제입니다.

요구사항 분석:

  • 최대 처리량: 높은 IOPS와 대역폭 필요
  • 1년간 수정 방지: 불변성(Immutability) 정책 필요
  • 최소 지연시간: 프리미엄 스토리지 성능 필요
  • 자주 사용되는 데이터: Hot 액세스 계층

BlockBlobStorage의 특징:

  • 프리미엄 성능: 낮은 지연시간과 높은 처리량
  • Block Blob 전용: 대용량 파일과 스트리밍에 최적화
  • 고성능 SSD: 일관된 성능 보장
  • 불변성 지원: Legal Hold와 Time-based retention 정책

Blob 불변성 정책:

  • Time-based retention: 지정된 기간 동안 수정/삭제 방지
  • Legal Hold: 법적 요구사항을 위한 무기한 보호
  • WORM (Write Once, Read Many): 한 번 쓰고 여러 번 읽기
결론: BlockBlobStorage는 프리미엄 성능과 낮은 지연시간을 제공하며, Blob 불변성 정책을 통해 1년간 데이터 수정을 방지할 수 있어 모든 요구사항을 만족합니다.
문제 5
Microsoft AZ-305
Topic #: 2
HOTSPOT -
다음 표에 표시된 스토리지 계정이 포함된 Azure 구독이 있습니다.
Storage accounts table
다음 표에 표시된 요구 사항이 있는 두 개의 새 앱을 구현할 계획입니다.
App requirements table
각 앱에 사용하도록 권장할 스토리지 계정은 무엇입니까?
Question options

정답

Answer diagram
Box 1: Storage1 and storage3 only
Standard 계정을 사용해야 합니다. 프리미엄 Block Blob 스토리지 계정에 저장된 데이터는 Set Blob Tier나 Azure Blob Storage 수명 주기 관리를 사용하여 핫, 쿨 또는 아카이브로 계층화할 수 없습니다.

Box 2: Storage1 and storage4 only
Azure 파일 공유에는 프리미엄 계정이 필요합니다. Storage1과 storage4만 프리미엄입니다.

상세 해설

이 문제는 스토리지 계정 유형별 특징과 제약사항에 관한 문제입니다.

App1 요구사항 분석:

  • Blob 액세스 계층 변경: Hot/Cool/Archive 간 이동 필요
  • Standard 계정만 가능: 프리미엄 Block Blob는 계층화 불가
  • Storage1 (General Purpose v2): ✅ 모든 액세스 계층 지원
  • Storage3 (General Purpose v2): ✅ 모든 액세스 계층 지원

App2 요구사항 분석:

  • Azure Files 사용: 파일 공유 서비스
  • 프리미엄 성능 필요: 고성능 파일 공유
  • Storage1 (General Purpose v2, Premium): ✅ 프리미엄 파일 지원
  • Storage4 (FileStorage, Premium): ✅ 파일 전용 프리미엄

스토리지 계정 유형별 특징:

  • General Purpose v2: 모든 서비스, 모든 액세스 계층
  • BlockBlobStorage: Block Blob만, 액세스 계층 변경 불가
  • FileStorage: Azure Files만, 프리미엄 성능
결론: 각 애플리케이션의 요구사항에 맞는 스토리지 계정 유형과 성능 계층을 정확히 이해하고 선택하는 것이 중요합니다.
문제 6
Microsoft AZ-305
Topic #: 2
Azure에서 호스팅될 애플리케이션을 설계하고 있습니다.
애플리케이션은 50MB에서 12GB 범위의 비디오 파일을 호스팅합니다. 애플리케이션은 인증서 기반 인증을 사용하며 인터넷의 사용자가 사용할 수 있습니다.

비디오 파일의 스토리지 옵션을 권장해야 합니다. 솔루션은 가장 빠른 읽기 성능을 제공해야 하며 스토리지 비용을 최소화해야 합니다.

무엇을 권장해야 합니까?
A Azure Files
B Azure Data Lake Storage Gen2
C Azure Blob Storage
D Azure SQL Database
투표 결과: C: 68표 (100%)

정답: C - Azure Blob Storage

정답 근거: Azure Blob Storage는 비디오 파일과 같은 대용량 미디어 파일에 최적화되어 있으며, CDN과 통합하여 빠른 읽기 성능과 비용 효율성을 제공합니다.

상세 해설

이 문제는 미디어 스트리밍을 위한 스토리지 선택에 관한 문제입니다.

요구사항 분석:

  • 비디오 파일: 50MB ~ 12GB의 대용량 미디어 파일
  • 인터넷 사용자: 공개적으로 액세스 가능
  • 빠른 읽기 성능: 스트리밍에 적합한 성능
  • 비용 최소화: 경제적인 스토리지 솔루션

Azure Blob Storage의 장점:

  • 미디어 최적화: 비디오, 이미지 등 대용량 파일에 특화
  • HTTP/HTTPS 액세스: 웹 애플리케이션에서 직접 액세스
  • CDN 통합: 전 세계적으로 빠른 콘텐츠 배포
  • 액세스 계층: Hot/Cool/Archive로 비용 최적화
  • 대용량 지원: 최대 5PB까지 확장

다른 옵션 분석:

  • A. Azure Files: 파일 공유용, 미디어 스트리밍에 부적합
  • B. Data Lake Storage Gen2: 빅데이터 분석용, 과도한 기능
  • D. Azure SQL Database: 관계형 데이터용, 미디어 파일에 부적합
결론: Azure Blob Storage는 미디어 파일 저장과 스트리밍에 최적화되어 있으며, CDN과 함께 사용하면 전 세계 사용자에게 빠르고 비용 효율적인 서비스를 제공할 수 있습니다.
문제 7
Microsoft AZ-305
Topic #: 2
SQL 데이터베이스 솔루션을 설계하고 있습니다. 솔루션에는 각각 20GB이고 다양한 사용 패턴을 가진 20개의 데이터베이스가 포함됩니다.

데이터베이스를 호스팅할 데이터베이스 플랫폼을 권장해야 합니다. 솔루션은 다음 요구 사항을 충족해야 합니다:
✑ 솔루션은 99.99% 가동 시간의 SLA(서비스 수준 계약)를 충족해야 합니다.
✑ 데이터베이스에 할당된 컴퓨팅 리소스는 동적으로 확장되어야 합니다.
✑ 솔루션에는 예약된 용량이 있어야 합니다.
컴퓨팅 요금을 최소화해야 합니다.
Database options
A an elastic pool that contains 20 Azure SQL databases
B 20 databases on a Microsoft SQL server that runs on an Azure virtual machine in an availability set
C 20 databases on a Microsoft SQL server that runs on an Azure virtual machine
D 20 instances of Azure SQL Database serverless
투표 결과: A: 74표 (100%)

정답: A - an elastic pool that contains 20 Azure SQL databases

정답 근거: Elastic Pool은 다양한 사용 패턴을 가진 여러 데이터베이스의 리소스를 효율적으로 공유하여 비용을 최소화하면서 동적 확장과 높은 SLA를 제공합니다.

상세 해설

이 문제는 다중 데이터베이스의 효율적인 리소스 관리에 관한 문제입니다.

요구사항 분석:

  • 20개 데이터베이스: 각 20GB, 다양한 사용 패턴
  • 99.99% SLA: 높은 가용성 요구
  • 동적 확장: 워크로드에 따른 자동 스케일링
  • 예약 용량: 리소스 보장
  • 비용 최소화: 경제적인 솔루션

Elastic Pool의 장점:

  • 리소스 공유: 사용 패턴이 다른 DB들이 eDTU/vCore 공유
  • 비용 효율성: 개별 DB보다 총 비용 절약
  • 자동 스케일링: 풀 내에서 리소스 동적 할당
  • 99.99% SLA: Microsoft가 보장하는 높은 가용성
  • 예약 용량: 풀 수준에서 리소스 보장

다른 옵션 비교:

  • B/C. SQL Server on VM: 관리 오버헤드 높음, 99.99% SLA 달성 어려움
  • D. SQL Database Serverless: 개별 DB 관리로 비용 비효율적
결론: Elastic Pool은 다양한 사용 패턴을 가진 여러 데이터베이스의 리소스를 효율적으로 관리하면서 비용을 최소화할 수 있는 최적의 솔루션입니다.
문제 8
Microsoft AZ-305
Topic #: 2
HOTSPOT -
Azure로 마이그레이션할 온프레미스 데이터베이스가 있습니다.

다음 요구 사항을 충족하는 데이터베이스 아키텍처를 설계해야 합니다:
✑ 확장 및 축소를 지원합니다.
✑ 지역 중복 백업을 지원합니다.
✑ 최대 75TB의 데이터베이스를 지원합니다.
✑ OLTP(온라인 트랜잭션 처리)에 최적화되어야 합니다.
Database architecture options

정답

Answer diagram
Box 1: Azure SQL Database
Azure SQL Database는 Hyperscale 서비스 계층 모델로 최대 100TB까지의 데이터베이스를 지원합니다. 활성 지역 복제는 주 데이터베이스에 대해 지속적으로 동기화된 읽기 가능한 보조 데이터베이스를 만들 수 있는 기능입니다.

Box 2: Hyperscale
Azure SQL Database와 SQL Managed Instance를 사용하면 최소한의 가동 중지 시간으로 데이터베이스에 더 많은 리소스를 동적으로 추가할 수 있습니다.

상세 해설

이 문제는 대용량 OLTP 데이터베이스 아키텍처에 관한 문제입니다.

요구사항 분석:

  • 75TB 지원: 대용량 데이터베이스 요구사항
  • OLTP 최적화: 온라인 트랜잭션 처리 성능
  • 확장성: Scale up/down 지원
  • 지역 중복 백업: 재해 복구 기능

Azure SQL Database Hyperscale 특징:

  • 대용량 지원: 최대 100TB까지 확장 가능
  • 빠른 스케일링: 스토리지는 자동, 컴퓨팅은 동적 확장
  • 다층 아키텍처: 컴퓨팅, 로그, 스토리지 분리
  • 백업 및 복원: 스냅샷 기반 빠른 백업
  • 지역 복제: 활성 지역 복제 지원

다른 옵션과의 비교:

  • SQL Server on VM: 지역 복제 미지원
  • Azure Synapse Analytics: OLAP 최적화, OLTP에 부적합
  • SQL Managed Instance: 최대 16TB 제한
결론: Azure SQL Database Hyperscale은 75TB 요구사항과 OLTP 최적화, 지역 복제 등 모든 조건을 만족하는 유일한 솔루션입니다.
문제 15
Microsoft AZ-305
Topic #: 2
온프레미스 Microsoft SQL Server 데이터베이스 DB1과 DB2를 사용하는 App1이라는 앱이 있습니다.

DB1과 DB2를 Azure로 마이그레이션할 계획입니다.

DB1과 DB2를 호스팅할 Azure 솔루션을 권장해야 합니다. 솔루션은 다음 요구 사항을 충족해야 합니다:
✑ DB1과 DB2에서 서버 측 트랜잭션을 지원합니다.
✑ 솔루션을 업데이트하는 관리 노력을 최소화합니다.

무엇을 권장해야 합니까?
A two Azure SQL databases in an elastic pool
B two databases on the same Azure SQL managed instance
C two databases on the same SQL Server instance on an Azure virtual machine
D two Azure SQL databases on different Azure SQL Database servers
투표 결과: B: 71표 (100%)

정답: B - two databases on the same Azure SQL managed instance

정답 근거: Azure SQL Managed Instance는 동일한 인스턴스 내의 데이터베이스 간 분산 트랜잭션을 지원하며, 최소한의 관리 오버헤드를 제공합니다.

상세 해설

이 문제는 크로스 데이터베이스 트랜잭션에 관한 핵심적인 문제입니다.

핵심 요구사항:

  • 서버 측 트랜잭션: DB1과 DB2 간의 분산 트랜잭션
  • 최소 관리 노력: 관리형 서비스 선호

분산 트랜잭션 지원 비교:

  • Azure SQL Database: - 동일한 서버 내에서도 크로스 DB 트랜잭션 미지원 - Elastic Query는 읽기 전용
  • Azure SQL Managed Instance: - 동일한 인스턴스 내 데이터베이스 간 분산 트랜잭션 완전 지원 - SQL Server와 거의 100% 호환성
  • SQL Server on VM: - 분산 트랜잭션 지원하지만 관리 오버헤드 높음

Azure SQL Managed Instance의 장점:

  • 크로스 DB 트랜잭션: BEGIN DISTRIBUTED TRANSACTION 지원
  • 관리형 서비스: 패치, 백업, 모니터링 자동화
  • 높은 호환성: 온프레미스에서 최소 변경으로 마이그레이션
  • VNet 통합: 기업 네트워크와 완전 통합
결론: 크로스 데이터베이스 트랜잭션이 필요한 경우, Azure SQL Managed Instance가 유일하게 완전한 지원을 제공하면서 관리형 서비스의 이점을 누릴 수 있는 솔루션입니다.
문제 16
Microsoft AZ-305
Topic #: 2
다음 요구 사항을 충족하는 고가용성 Azure SQL 데이터베이스를 설계해야 합니다:
✑ 데이터베이스 복제본 간 장애 조치는 데이터 손실 없이 발생해야 합니다.
✑ 영역 중단 시에도 데이터베이스가 사용 가능해야 합니다.
✑ 비용을 최소화해야 합니다.

어떤 배포 옵션을 사용해야 합니까?
A Azure SQL Database Hyperscale
B Azure SQL Database Premium
C Azure SQL Database Basic
D Azure SQL Managed Instance General Purpose
투표 결과: B: 52표 (100%)

정답: B - Azure SQL Database Premium

정답 근거: Premium 계층은 영역 중복성(Zone Redundancy)을 지원하여 영역 중단 시에도 데이터 손실 없이 자동 장애 조치가 가능합니다.

상세 해설

이 문제는 고가용성과 영역 중복성에 관한 문제입니다.

요구사항 분석:

  • 데이터 손실 없는 장애조치: RPO = 0
  • 영역 중단 대응: Zone Redundancy 필요
  • 비용 최소화: 요구사항을 만족하는 최소 계층

Azure SQL Database 계층별 고가용성:

  • Basic/Standard: - 로컬 중복 스토리지만 - 영역 중복성 미지원
  • Premium/Business Critical: - Always On 가용성 그룹 - 영역 중복성 옵션 제공 - 동기식 복제로 데이터 손실 없음
  • Hyperscale: - 고성능이지만 영역 중복성 제한적 - Premium보다 비용 높음

Premium 계층의 영역 중복성:

  • 3개 복제본: 서로 다른 가용성 영역에 배치
  • 동기식 복제: 커밋 전 모든 복제본에 쓰기
  • 자동 장애조치: 수초 내 투명한 장애조치
  • 99.995% SLA: 영역 중복성 활성화 시
결론: Premium 계층은 영역 중복성과 데이터 손실 없는 장애조치를 제공하는 가장 비용 효율적인 솔루션입니다.
문제 17
Microsoft AZ-305
Topic #: 2
HOTSPOT -
민감한 데이터용 Azure Storage 솔루션을 계획하고 있습니다. 데이터는 매일 액세스됩니다. 데이터 세트는 10GB 미만입니다.

다음 요구 사항을 충족하는 스토리지 솔루션을 권장해야 합니다:
✑ 스토리지에 기록된 모든 데이터는 5년간 보존되어야 합니다.
✑ 데이터가 기록되면 읽기만 가능합니다. 수정 및 삭제는 방지되어야 합니다.
✑ 5년 후에는 데이터를 삭제할 수 있지만 수정은 절대 불가능합니다.
✑ 데이터 액세스 요금을 최소화해야 합니다.
Storage options

정답

Answer diagram
Box 1: Hot - 데이터가 매일 액세스되므로 Hot 계층이 액세스 비용을 최소화합니다.

Box 2: Legal hold - 5년간 수정/삭제 방지 후 삭제만 허용하려면 Legal hold 정책이 필요합니다.

상세 해설

이 문제는 불변 스토리지(Immutable Storage)와 액세스 패턴에 관한 문제입니다.

액세스 계층 선택:

  • 매일 액세스: 자주 사용되는 데이터
  • Hot 계층: 액세스 비용 최소, 높은 스토리지 비용
  • 10GB 미만: 스토리지 비용보다 액세스 비용이 중요

불변성 정책 비교:

  • Time-based retention: - 고정된 보존 기간 - 기간 만료 후 자동 삭제 가능
  • Legal hold: - 수동 해제까지 보호 - 보다 엄격한 보호 - 5년 후 수동으로 해제하여 삭제 허용
결론: 매일 액세스되는 데이터는 Hot 계층, 엄격한 보호가 필요한 경우 Legal hold가 적합합니다.
문제 18
Microsoft AZ-305
Topic #: 2
HOTSPOT -
보고를 지원하는 데이터 스토리지 솔루션을 설계하고 있습니다.

솔루션은 Azure Event Hubs를 사용하여 JSON 형식의 대용량 데이터를 수집합니다. 데이터가 도착하면 Event Hubs가 데이터를 스토리지에 씁니다. 솔루션은 다음 요구 사항을 충족해야 합니다:
✑ 데이터를 날짜 및 시간별로 디렉터리에 구성합니다.
✑ 저장된 데이터를 직접 쿼리하고, 요약 테이블로 변환한 다음 데이터 웨어하우스에 저장할 수 있도록 허용합니다.
✑ 데이터 웨어하우스가 50TB의 관계형 데이터를 저장하고 200~300개의 동시 읽기 작업을 지원할 수 있도록 보장합니다.
Data storage architecture

정답

Answer diagram
Box 1: Azure Data Lake Storage Gen2 - 빅데이터 분석 워크로드에 최적화되어 있으며 날짜/시간별 계층 구조를 지원합니다.

Box 2: Azure SQL Database Hyperscale - 최대 100TB까지 지원하며 높은 동시성과 성능을 제공합니다.

상세 해설

이 문제는 대용량 데이터 레이크와 고성능 데이터 웨어하우스 조합에 관한 문제입니다.

Data Lake Storage Gen2 선택 이유:

  • 계층적 네임스페이스: 날짜/시간별 폴더 구조
  • 빅데이터 최적화: 대용량 JSON 데이터 처리
  • Event Hubs 통합: 네이티브 연결 지원
  • 분석 도구 지원: 직접 쿼리 가능

Hyperscale vs Synapse 비교:

  • Hyperscale: - 최대 100TB - OLTP 최적화 - 높은 동시성 (200-300 세션)
  • Synapse Analytics: - 최대 240TB - OLAP 최적화 - 동시 쿼리 제한 (128개)
결론: 높은 동시성이 필요한 관계형 데이터 웨어하우스에는 Hyperscale이 더 적합합니다.
문제 19
Microsoft AZ-305
Topic #: 2
온프레미스 Microsoft SQL Server 데이터베이스 DB1을 사용하는 App1이라는 앱이 있습니다.

DB1을 Azure SQL 관리형 인스턴스로 마이그레이션할 계획입니다.

인스턴스에 대해 고객 관리 TDE(투명한 데이터 암호화)를 활성화해야 합니다. 솔루션은 암호화 강도를 최대화해야 합니다.

TDE 보호기에 어떤 유형의 암호화 알고리즘과 키 길이를 사용해야 합니까?
A RSA 3072
B AES 256
C RSA 4096
D RSA 2048
투표 결과: A: 62표 (87.3%) | B: 8표 (11.3%) | D: 1표 (1.4%)

정답: A - RSA 3072

정답 근거: Azure SQL Managed Instance에서 고객 관리 TDE에 지원되는 최대 RSA 키 길이는 3072비트입니다.

상세 해설

이 문제는 TDE 암호화와 Azure 서비스 제약사항에 관한 문제입니다.

Azure SQL MI TDE 지원 키:

  • RSA 2048: 최소 지원 길이
  • RSA 3072: 최대 지원 길이 (정답)
  • RSA 4096: SQL MI에서 미지원
  • AES 256: 대칭키, TDE 보호기에 부적합

TDE 작동 방식:

  • DEK (Database Encryption Key): AES 256으로 실제 암호화
  • TDE 보호기: DEK를 암호화하는 비대칭 키
  • Key Vault 저장: RSA 키를 Azure Key Vault에 보관
결론: SQL Managed Instance에서 최대 암호화 강도를 원한다면 RSA 3072가 최선의 선택입니다.
문제 20
Microsoft AZ-305
Topic #: 2
50,000개의 IoT 장치를 포함하는 Azure IoT Hub 솔루션을 계획하고 있습니다.

각 장치는 온도, 장치 ID, 시간 데이터를 포함한 데이터를 스트리밍합니다. 약 50,000개의 레코드가 매초마다 기록됩니다. 데이터는 거의 실시간으로 시각화됩니다.

데이터를 저장하고 쿼리할 서비스를 권장해야 합니다.

권장할 수 있는 두 가지 서비스는 무엇입니까? 각 정답은 완전한 솔루션을 제시합니다.
A Azure Table Storage
B Azure Event Grid
C Azure Cosmos DB for NoSQL
D Azure Time Series Insights
투표 결과: CD: 34표 (100%)

정답: C, D - Azure Cosmos DB for NoSQL & Azure Time Series Insights

정답 근거: 이는 문제 9와 동일한 시나리오로, 두 서비스 모두 고처리량 IoT 데이터에 최적화되어 있습니다.

상세 해설

이는 문제 9와 동일한 IoT 시계열 데이터 처리 시나리오입니다.

동일한 솔루션이 적용되는 이유:

  • 동일한 요구사항: 50,000 장치, 초당 50,000 레코드
  • 실시간 시각화: 낮은 지연시간 필요
  • 시계열 데이터: 온도, 시간 기반 데이터
결론: Cosmos DB와 Time Series Insights는 각각 다른 접근 방식으로 IoT 데이터 처리에 완전한 솔루션을 제공합니다.
문제 21
Microsoft AZ-305
Topic #: 2
HOTSPOT -

민감한 데이터용 Azure Storage 솔루션을 계획하고 있습니다. 데이터는 매일 액세스됩니다. 데이터 세트는 10GB 미만입니다.

다음 요구 사항을 충족하는 스토리지 솔루션을 권장해야 합니다:

• 스토리지에 기록된 모든 데이터는 5년간 보존되어야 합니다.
• 데이터가 기록되면 읽기만 가능합니다. 수정 및 삭제는 방지되어야 합니다.
• 5년 후에는 데이터를 삭제할 수 있지만 수정은 절대 불가능합니다.
• 데이터 액세스 요금을 최소화해야 합니다.
Storage options

정답

Answer diagram
매일 액세스되는 데이터는 Hot 계층이 액세스 비용을 최소화하며, 엄격한 보호를 위해서는 Legal hold 정책이 가장 적합합니다.

상세 해설

이는 문제 17과 동일한 불변 스토리지 시나리오입니다.

해결책:

  • Hot 계층: 매일 액세스되는 데이터의 액세스 비용 최소화
  • Legal hold: 5년간 보호 후 수동 해제로 삭제 허용
문제 22
Microsoft AZ-305
Topic #: 2
HOTSPOT -

Azure Synapse와 Azure Data Lake Storage Gen2를 사용하는 데이터 분석 솔루션을 설계하고 있습니다.

다음 요구 사항을 충족하는 Azure Synapse 풀을 권장해야 합니다:

• Data Lake Storage에서 해시 분산 테이블로 데이터를 수집합니다.
• Delta Lake에서 데이터를 쿼리, 구현 및 업데이트합니다.
Synapse pools options

정답

Answer diagram
Box 1: Dedicated SQL Pool - 해시 분산 테이블을 지원하는 유일한 옵션입니다.

Box 2: Apache Spark Pool - Delta Lake는 Spark 기반 기술이므로 Spark Pool이 필요합니다.

상세 해설

이 문제는 Azure Synapse의 다양한 풀 유형에 관한 문제입니다.

Azure Synapse 풀 유형별 특징:

  • Dedicated SQL Pool: - 해시 분산 테이블 지원 - MPP (Massively Parallel Processing) - 대용량 데이터 웨어하우스
  • Serverless SQL Pool: - 해시 분산 테이블 미지원 - 외부 테이블 쿼리만
  • Apache Spark Pool: - Delta Lake 네이티브 지원 - Scala, Python, .NET, SQL 지원

Delta Lake 요구사항:

  • Spark 기반: Apache Spark에서 개발된 기술
  • ACID 트랜잭션: 데이터 레이크에서 트랜잭션 지원
  • 스키마 진화: 스키마 변경 추적
  • Time Travel: 버전 기반 데이터 접근
결론: 해시 분산 테이블은 Dedicated SQL Pool, Delta Lake는 Spark Pool이 필요합니다.
문제 23
Microsoft AZ-305
Topic #: 2
온프레미스 스토리지 솔루션이 있습니다.

솔루션을 Azure로 마이그레이션해야 합니다. 솔루션은 HDFS(Hadoop Distributed File System)를 지원해야 합니다.

무엇을 사용해야 합니까?
A Azure Data Lake Storage Gen2
B Azure NetApp Files
C Azure Data Share
D Azure Table storage
투표 결과: A: 34표 (100%)

정답: A - Azure Data Lake Storage Gen2

정답 근거: Azure Data Lake Storage Gen2는 HDFS 호환 API를 제공하여 Hadoop 에코시스템과 완벽하게 호환됩니다.

상세 해설

이 문제는 Hadoop 생태계와의 호환성에 관한 문제입니다.

Data Lake Storage Gen2의 HDFS 지원:

  • HDFS 호환 API: 기존 Hadoop 애플리케이션 변경 없이 사용
  • ABFS 드라이버: Azure Blob File System 드라이버
  • 계층적 네임스페이스: 폴더 구조 지원
  • POSIX 권한: 파일/폴더 수준 보안

Hadoop 에코시스템 통합:

  • Apache Spark: 네이티브 연결
  • Apache Hive: 메타스토어 지원
  • Apache Storm: 스트리밍 처리
  • HDInsight: 관리형 Hadoop 서비스
결론: HDFS 호환성이 필요한 Hadoop 워크로드는 Data Lake Storage Gen2가 유일한 선택입니다.
문제 24
Microsoft AZ-305
Topic #: 2
DRAG DROP -

App1이라는 온프레미스 앱이 있습니다.

고객은 App1을 사용하여 디지털 이미지를 관리합니다.

App1을 Azure로 마이그레이션할 계획입니다.

App1용 데이터 스토리지 솔루션을 권장해야 합니다. 솔루션은 다음 이미지 스토리지 요구 사항을 충족해야 합니다:

• 이미지를 저장 상태에서 암호화합니다.
• 최대 50MB의 파일을 허용합니다.
• Azure Front Door의 Azure WAF(웹 애플리케이션 방화벽)를 사용하여 이미지에 대한 액세스를 관리합니다.

솔루션은 다음 고객 계정 요구 사항을 충족해야 합니다:

• 스토리지의 자동 스케일 아웃을 지원합니다.
• 데이터센터 장애 시 App1의 가용성을 유지합니다.
• 여러 Azure 지역에서 데이터 읽기 및 쓰기를 지원합니다.
Data types and services

정답

Answer diagram
Image data: Azure Blob Storage - 이미지 파일 저장에 최적화되어 있으며 모든 요구사항을 만족합니다.

Customer account data: Azure Cosmos DB - 다중 지역 읽기/쓰기와 높은 가용성을 제공합니다.

상세 해설

이 문제는 하이브리드 데이터 저장 아키텍처에 관한 문제입니다.

이미지 데이터 - Blob Storage:

  • 미디어 최적화: 이미지, 비디오 등 대용량 파일
  • 암호화: 저장 시 기본 암호화
  • CDN 통합: Front Door/WAF와 완벽 연동
  • 자동 스케일링: 페타바이트급 확장
  • 지역 복제: GRS, RA-GRS 지원

고객 계정 데이터 - Cosmos DB:

  • 다중 지역 쓰기: 모든 지역에서 읽기/쓰기
  • 자동 스케일링: 처리량 자동 조정
  • 99.999% SLA: 최고 수준 가용성
  • 전역 분산: 50+ 지역 지원
결론: 각각의 데이터 유형에 최적화된 서비스를 조합하여 복합적인 요구사항을 모두 만족하는 아키텍처를 구성합니다.
문제 25
Microsoft AZ-305
Topic #: 2
사용자용 콘텐츠를 집계할 애플리케이션을 설계하고 있습니다.

애플리케이션용 데이터베이스 솔루션을 권장해야 합니다. 솔루션은 다음 요구 사항을 충족해야 합니다:

• SQL 명령을 지원합니다.
• 다중 마스터 쓰기를 지원합니다.
• 낮은 지연 시간 읽기 작업을 보장합니다.

권장 사항에 무엇을 포함해야 합니까?
A Azure Cosmos DB for NoSQL
B Azure SQL Database that uses active geo-replication
C Azure SQL Database Hyperscale
D Azure Cosmos DB for PostgreSQL
투표 결과: A: 29표 (96.7%) | D: 1표 (3.3%)

정답: A - Azure Cosmos DB for NoSQL

정답 근거: Azure Cosmos DB for NoSQL은 SQL 쿼리, 다중 마스터 쓰기, 그리고 전 세계적으로 낮은 지연시간을 모두 지원하는 유일한 솔루션입니다.

상세 해설

이는 문제 10과 동일한 다중 마스터 쓰기 시나리오입니다. 결론: 다중 마스터 쓰기가 필요한 경우 Cosmos DB for NoSQL이 유일한 완전한 솔루션입니다.
문제 26
Microsoft AZ-305
Topic #: 2
온프레미스 MySQL 데이터베이스를 Azure Database for MySQL Flexible Server로 마이그레이션할 계획입니다.

Azure Database for MySQL Flexible Server 구성용 솔루션을 권장해야 합니다. 솔루션은 다음 요구 사항을 충족해야 합니다:

• 데이터센터 장애 시 데이터베이스에 액세스할 수 있어야 합니다.
• 비용을 최소화해야 합니다.

어떤 컴퓨팅 계층을 권장해야 합니까?
A Burstable
B General Purpose
C Memory Optimized
투표 결과: B: 49표 (90.7%) | A: 5표 (9.3%)

정답: B - General Purpose

정답 근거: General Purpose 계층만이 영역 중복 고가용성을 지원하면서 Memory Optimized보다 비용이 저렴합니다.

상세 해설

이 문제는 MySQL Flexible Server의 고가용성에 관한 문제입니다.

Azure MySQL Flexible Server 계층별 고가용성:

  • Burstable: - 고가용성 미지원 - 개발/테스트 환경용
  • General Purpose: - 영역 중복 고가용성 지원 - 비용 효율적
  • Memory Optimized: - 영역 중복 고가용성 지원 - 높은 비용

영역 중복 고가용성 특징:

  • 자동 장애조치: 주 영역 장애 시 보조 영역으로 전환
  • 동기식 복제: 데이터 손실 없음
  • 99.99% SLA: 높은 가용성 보장
결론: 데이터센터 장애 대응이 필요하면서 비용을 최소화하려면 General Purpose가 최적입니다.
문제 27
Microsoft AZ-305
Topic #: 2
Azure Cosmos DB를 사용하여 여러 국가의 매출을 수집하는 앱을 설계하고 있습니다.

앱용 API를 권장해야 합니다. 솔루션은 다음 요구 사항을 충족해야 합니다:

• SQL 쿼리를 지원합니다.
• 지역 복제를 지원합니다.
• 데이터를 관계형으로 저장하고 액세스합니다.

어떤 API를 권장해야 합니까?
A Apache Cassandra
B PostgreSQL
C MongoDB
D NoSQL
투표 결과: B: 17표 (100%)

정답: B - PostgreSQL

정답 근거: Azure Cosmos DB for PostgreSQL은 SQL 쿼리, 지역 복제, 관계형 데이터 모델을 모두 지원합니다.

상세 해설

이 문제는 관계형 데이터와 Cosmos DB API 선택에 관한 문제입니다.

Cosmos DB API별 데이터 모델:

  • NoSQL (Core SQL): 문서 기반, JSON
  • PostgreSQL: 관계형 테이블, SQL 지원
  • MongoDB: 문서 기반, NoSQL
  • Cassandra: 컬럼 패밀리, NoSQL

PostgreSQL API의 장점:

  • 관계형 모델: 테이블, 조인, 외래 키
  • 표준 SQL: PostgreSQL 호환 쿼리
  • 지역 복제: Cosmos DB 글로벌 분산
  • 트랜잭션: ACID 속성 지원
결론: 관계형 데이터를 저장하면서 SQL 쿼리와 지역 복제가 필요한 경우 PostgreSQL API가 최적의 선택입니다.
문제 28
Microsoft AZ-305
Topic #: 2
HOTSPOT -

매일 50,000개의 이벤트를 생성하는 앱이 있습니다.

이벤트를 Azure 이벤트 허브로 스트리밍하고 Event Hubs Capture를 사용하여 이벤트의 콜드 패스 처리를 구현할 계획입니다. Event Hubs Capture의 출력은 보고 시스템에서 사용됩니다.

Event Hubs Capture를 지원하기 위해 프로비저닝해야 하는 Azure 스토리지 유형과 보고 시스템에서 지원해야 하는 인바운드 데이터 형식을 식별해야 합니다.
Event Hubs Capture options

정답

Answer diagram
Storage type: Azure Blob Storage - Event Hubs Capture는 Blob Storage만 지원합니다.

Data format: Apache Avro - Capture는 데이터를 Avro 형식으로만 저장합니다.

상세 해설

이 문제는 Event Hubs Capture의 제약사항에 관한 문제입니다.

Event Hubs Capture 제약사항:

  • 스토리지: Azure Blob Storage 또는 Data Lake Storage Gen2만
  • 데이터 형식: Apache Avro만 (JSON, CSV 등 불가)
  • 파일 구조: 시간 기반 파티셔닝

Apache Avro 특징:

  • 스키마 진화: 스키마 변경 지원
  • 압축 효율: 바이너리 형식으로 공간 절약
  • 빅데이터 표준: Hadoop, Spark 생태계 지원
결론: Event Hubs Capture를 사용할 때는 반드시 Blob Storage와 Avro 형식을 사용해야 합니다.
문제 29
Microsoft AZ-305
Topic #: 2
다음 표에 표시된 리소스가 있습니다.

Resources table

CDB1은 지속적으로 업데이트되는 운영 데이터를 저장하는 컨테이너를 호스팅합니다.

AS1을 사용하여 운영 데이터를 매일 분석하는 솔루션을 설계하고 있습니다.

운영 데이터 스토어의 성능에 영향을 주지 않고 데이터를 분석하는 솔루션을 권장해야 합니다.

권장 사항에 무엇을 포함해야 합니까?
A Azure Data Factory with Azure Cosmos DB and Azure Synapse Analytics connectors
B Azure Synapse Analytics with PolyBase data loading
C Azure Synapse Link for Azure Cosmos DB
D Azure Cosmos DB change feed
투표 결과: C: 36표 (100%)

정답: C - Azure Synapse Link for Azure Cosmos DB

정답 근거: Synapse Link는 운영 데이터베이스에 영향을 주지 않고 실시간으로 분석용 복제본을 제공합니다.

상세 해설

이 문제는 HTAP(Hybrid Transactional/Analytical Processing)에 관한 문제입니다.

Azure Synapse Link 특징:

  • 실시간 분석: 운영 데이터의 실시간 분석 복제본
  • 성능 영향 없음: 운영 워크로드와 분리
  • 자동 동기화: 변경 사항 자동 반영
  • 컬럼 스토어: 분석 최적화된 형식

다른 옵션 비교:

  • A. Data Factory: 배치 처리, 성능 영향 가능
  • B. PolyBase: 외부 데이터 로드, 실시간 아님
  • D. Change Feed: 변경 이벤트만, 전체 분석에 부적합
결론: 운영 데이터베이스에 영향 없이 실시간 분석이 필요한 경우 Synapse Link가 최적의 솔루션입니다.
문제 30
Microsoft AZ-305
Topic #: 2
HOTSPOT -

Azure 구독이 있습니다. 구독에는 사회보장번호와 전화번호를 포함한 직원 세부 정보를 저장하는 Azure SQL 관리형 인스턴스가 포함되어 있습니다.

다음 요구 사항을 충족하도록 관리형 인스턴스를 구성해야 합니다:

• 헬프데스크 팀은 직원의 전화번호 마지막 4자리만 봐야 합니다.
• 클라우드 관리자는 직원의 사회보장번호를 볼 수 없어야 합니다.
Data masking options

정답

Answer diagram
Phone numbers: Dynamic Data Masking - 마지막 4자리만 표시하는 부분 마스킹

Social security numbers: Always Encrypted - 관리자로부터도 완전히 보호

상세 해설

이 문제는 데이터 보안과 마스킹 기술에 관한 문제입니다.

Dynamic Data Masking (DDM):

  • 부분 마스킹: 전화번호 끝 4자리만 표시
  • 역할 기반: 권한에 따른 선택적 마스킹
  • 쿼리 시점: 실시간 마스킹 적용
  • 원본 보존: 데이터는 암호화되지 않음

Always Encrypted:

  • 완전 암호화: 관리자도 볼 수 없음
  • 클라이언트 측 암호화: 키는 클라이언트가 관리
  • 투명한 암호화: 애플리케이션 변경 최소
  • 결정적/랜덤: 쿼리 유형에 따른 암호화
결론: 부분 마스킹은 DDM, 완전 보호는 Always Encrypted를 사용합니다.
문제 31
Microsoft AZ-305
Topic #: 2
Azure Storage 계정을 사용하여 데이터 자산을 저장할 계획입니다.

다음 요구 사항을 충족하는 솔루션을 권장해야 합니다:

• 불변 스토리지를 지원합니다
• 스토리지 계정에 대한 익명 액세스를 비활성화합니다
• ACL(액세스 제어 목록) 기반 Azure AD 권한을 지원합니다

권장 사항에 무엇을 포함해야 합니까?
A Azure Files
B Azure Data Lake Storage
C Azure NetApp Files
D Azure Blob Storage
투표 결과: B: 41표 (71.9%) | D: 16표 (28.1%)

정답: B - Azure Data Lake Storage

정답 근거: Data Lake Storage Gen2만이 불변성, 익명 액세스 차단, POSIX ACL 기반 권한을 모두 지원합니다.

상세 해설

이 문제는 고급 보안 기능과 ACL 권한에 관한 문제입니다.

요구사항별 지원 비교:

  • 불변 스토리지: Blob Storage ✅, Data Lake Storage ✅
  • 익명 액세스 차단: 모든 스토리지 서비스 ✅
  • ACL 기반 권한: Data Lake Storage Gen2만 ✅

Data Lake Storage Gen2의 ACL:

  • POSIX ACL: 파일/폴더 수준 권한
  • Azure AD 통합: 사용자/그룹 기반 권한
  • 상속 권한: 폴더에서 하위 항목으로 상속
  • 세밀한 제어: 읽기/쓰기/실행 권한

Blob Storage vs Data Lake Storage:

  • Blob Storage: 컨테이너 수준 RBAC만
  • Data Lake Storage: 파일/폴더 수준 ACL
결론: ACL 기반 세밀한 권한 제어가 필요한 경우 Data Lake Storage Gen2가 필수입니다.
문제 32
Microsoft AZ-305
Topic #: 2
HOTSPOT -

구조화, 반구조화 및 비구조화 텍스트 데이터의 페타바이트를 수집, 저장 및 분석하는 스토리지 솔루션을 설계하고 있습니다. 분석된 데이터는 장기 보존을 위해 Azure Data Lake Storage Gen2로 오프로드됩니다.

다음 요구 사항을 충족하는 스토리지 및 분석 솔루션을 권장해야 합니다:
• 처리된 데이터를 저장합니다
• 대화형 분석을 제공합니다
• 수동 스케일링, 기본 제공 자동 스케일링 및 사용자 지정 자동 스케일링을 지원합니다
Storage and analytics options

정답

Answer diagram
Storage: Azure Data Lake Storage Gen2 - 대용량 데이터 저장에 최적화

Analytics: Azure Synapse Analytics - 모든 유형의 스케일링 지원

상세 해설

이 문제는 페타바이트급 데이터 분석 아키텍처에 관한 문제입니다.

Azure Synapse Analytics 스케일링:

  • 수동 스케일링: DWU 또는 cDWU 조정
  • 기본 제공 자동 스케일링: SQL Pool 자동 일시 중지/재개
  • 사용자 지정 자동 스케일링: Azure Automation, Logic Apps 연동

대화형 분석 지원:

  • SQL Pool: T-SQL 쿼리
  • Spark Pool: Scala, Python, .NET
  • Power BI 통합: 실시간 대시보드
  • Synapse Studio: 통합 워크벤치
결론: 페타바이트급 데이터와 다양한 스케일링 요구사항을 만족하는 완전한 분석 플랫폼입니다.
문제 33
Microsoft AZ-305
Topic #: 2
HOTSPOT -

Azure SQL을 데이터베이스 플랫폼으로 사용할 계획입니다.

다음 요구 사항을 충족하는 Azure SQL 제품 및 서비스 계층을 권장해야 합니다:
• 워크로드 수요에 따라 컴퓨팅 리소스를 자동으로 스케일링합니다
• 초당 과금을 제공합니다
Azure SQL options

정답

Answer diagram
Product: Azure SQL Database
Service tier: Serverless

Serverless 계층은 워크로드에 따른 자동 스케일링과 초당 과금을 제공하는 유일한 옵션입니다.

상세 해설

이 문제는 Azure SQL Database Serverless의 특징에 관한 문제입니다.

Serverless 계층 특징:

  • 자동 스케일링: CPU 사용량에 따른 vCore 자동 조정
  • 자동 일시 중지: 비활성 시 자동 일시 중지
  • 초당 과금: 실제 사용량에 따른 과금
  • 빠른 재개: 첫 번째 연결 시 자동 재개

다른 계층과의 차이:

  • Provisioned: 고정 리소스, 시간당 과금
  • Hyperscale: 스토리지 자동 확장, 컴퓨팅은 수동
  • SQL MI: 자동 스케일링 미지원
결론: 워크로드 기반 자동 스케일링과 초당 과금이 필요한 경우 SQL Database Serverless가 유일한 선택입니다.
문제 34
Microsoft AZ-305
Topic #: 2
HOTSPOT -

Azure 구독이 있습니다.

Blob 버전 관리 및 Blob 소프트 삭제가 활성화된 스토리지 계정의 Blob에 대한 특정 시점 복원을 제공하는 솔루션을 배포해야 합니다.

생성해야 하는 Blob 유형과 계정에 대해 활성화해야 하는 기능은 무엇입니까?
Blob restore options

정답

Answer diagram
Blob type: Block blob
Feature: Point-in-time restore

특정 시점 복원은 Block Blob에서만 지원되며, 별도로 활성화해야 하는 기능입니다.

상세 해설

이 문제는 Azure Blob Storage의 데이터 보호 기능에 관한 문제입니다.

Point-in-time restore 요구사항:

  • Block Blob만 지원: Page Blob, Append Blob 불가
  • 필수 전제조건: Blob 버전 관리 + 소프트 삭제
  • 별도 활성화: Point-in-time restore 기능 활성화
  • 35일 이내: 최대 복원 기간

데이터 보호 기능 조합:

  • Blob 버전 관리: 변경 이력 추적
  • 소프트 삭제: 삭제된 Blob 복구
  • Point-in-time restore: 특정 시점 전체 복원
결론: 특정 시점 복원은 Block Blob에서만 지원되며, 모든 전제조건이 활성화되어야 합니다.
문제 35
Microsoft AZ-305
Topic #: 2
HOTSPOT -

회사인 Contoso, Ltd.는 다음 리소스가 포함된 Azure 구독을 보유하고 있습니다:

• contosoworkspace1이라는 Azure Synapse Analytics 작업 영역
• contosolake1이라는 Azure Data Lake Storage 계정
• contososql1이라는 Azure SQL 데이터베이스

Contoso의 제품 데이터는 contososql1에서 contosolake1로 복사됩니다.

Contoso에는 Fabrikam Inc.라는 파트너 회사가 있습니다. Fabrikam은 다음 리소스가 포함된 Azure 구독을 보유하고 있습니다:

• Microsoft SQL Server 2019를 실행하는 FabrikamVM1이라는 가상 머신
• fabrikamsa1이라는 Azure Storage 계정

Contoso는 FabrikamVM1의 연구 데이터를 contosolake1에 업로드할 계획입니다. 업로드하는 동안 연구 데이터는 Contoso에서 사용하는 데이터 형식으로 변환되어야 합니다.

contosolake1의 데이터는 contosoworkspace1을 사용하여 분석됩니다.

다음 요구 사항을 충족하는 솔루션을 권장해야 합니다:

• FabrikamVM1 연구 데이터를 업로드하고 변환합니다.
• contosoworkspace1에서 데이터의 스냅샷에 대한 제한된 액세스를 Fabrikam에 제공합니다.
Cross-tenant data sharing

정답

Answer diagram
Upload and transform: Azure Data Factory - 하이브리드 데이터 통합과 변환

Restricted access: Azure Data Share - 크로스 테넌트 데이터 공유

상세 해설

이 문제는 크로스 테넌트 데이터 통합과 공유에 관한 복합적인 시나리오입니다.

Azure Data Factory의 역할:

  • 하이브리드 통합: 온프레미스 VM에서 클라우드로
  • 데이터 변환: Mapping Data Flow로 형식 변환
  • Self-hosted IR: FabrikamVM1 연결
  • 스케줄링: 정기적 데이터 업로드

Azure Data Share의 장점:

  • 크로스 테넌트: 다른 Azure AD 테넌트와 공유
  • 스냅샷 기반: 특정 시점 데이터 공유
  • 제한된 액세스: 세밀한 권한 제어
  • 추적 가능: 데이터 사용량 모니터링
결론: Data Factory는 데이터 통합과 변환을, Data Share는 안전한 크로스 테넌트 데이터 공유를 담당합니다.
문제 36
Microsoft AZ-305
Topic #: 2
HOTSPOT -

여러 온프레미스 Microsoft SQL Server 데이터베이스의 대량 데이터를 Azure의 분석 플랫폼으로 통합하는 데이터 파이프라인을 설계하고 있습니다. 파이프라인에는 다음 작업이 포함됩니다:

• 데이터베이스 업데이트는 Azure Blob 스토리지의 준비 영역으로 주기적으로 내보내집니다.
• Blob 스토리지의 데이터는 고도로 병렬화된 로드 프로세스를 사용하여 정리되고 변환됩니다.
• 변환된 데이터는 데이터 웨어하우스에 로드됩니다.
• 각 업데이트 배치는 관리되는 서빙 계층에서 OLAP(온라인 분석 처리) 모델을 새로 고치는 데 사용됩니다.
• 관리되는 서빙 계층은 수천 명의 최종 사용자가 사용합니다.

데이터 웨어하우스 및 서빙 계층을 구현해야 합니다.
Data warehouse architecture

정답

Answer diagram
Data warehouse: Azure Synapse Analytics - 고도로 병렬화된 처리

Serving layer: Azure Analysis Services - OLAP 모델과 수천 명의 사용자 지원

상세 해설

이 문제는 엔터프라이즈 데이터 웨어하우스 아키텍처에 관한 문제입니다.

Azure Synapse Analytics (데이터 웨어하우스):

  • MPP 아키텍처: 대량 데이터 병렬 처리
  • ELT 최적화: 추출-로드-변환 패턴
  • 스케일 아웃: DWU 기반 성능 조정
  • Blob 연동: PolyBase로 직접 데이터 로드

Azure Analysis Services (서빙 계층):

  • OLAP 엔진: 다차원 분석 모델
  • 고성능 쿼리: 인메모리 처리
  • 수천 명 지원: 높은 동시성
  • 비즈니스 도구 연동: Power BI, Excel 등
결론: 대량 데이터 처리는 Synapse Analytics, 최종 사용자 서빙은 Analysis Services가 최적입니다.
문제 37
Microsoft AZ-305
Topic #: 2
HOTSPOT -

Azure 구독이 있습니다.

관계형 데이터베이스를 배포해야 합니다. 솔루션은 다음 요구 사항을 충족해야 합니다:

• 여러 읽기 전용 복제본을 지원합니다.
• 모든 읽기 전용 복제본에서 읽기 전용 요청을 자동으로 로드 밸런싱합니다.
• 관리 노력을 최소화합니다
Read replica options

정답

Answer diagram
Product: Azure SQL Database
Service tier: Hyperscale

Hyperscale은 최대 4개의 읽기 복제본과 자동 로드 밸런싱을 지원합니다.

상세 해설

이 문제는 읽기 확장성과 자동 로드 밸런싱에 관한 문제입니다.

Azure SQL Database 읽기 복제본 비교:

  • Premium/Business Critical: 1개 읽기 복제본
  • Hyperscale: 최대 4개 읽기 복제본
  • SQL MI: 읽기 복제본 미지원

Hyperscale 읽기 확장:

  • 자동 로드 밸런싱: ApplicationIntent=ReadOnly 연결 자동 분산
  • 독립적 컴퓨팅: 각 복제본이 독립적인 컴퓨팅 리소스
  • 공유 스토리지: 모든 복제본이 동일한 데이터 접근
  • 관리형 서비스: 복제본 관리 자동화
결론: 다중 읽기 복제본과 자동 로드 밸런싱이 필요한 경우 Hyperscale이 유일한 완전한 솔루션입니다.
문제 38
Microsoft AZ-305
Topic #: 2
app1data라는 Azure Blob Storage 컨테이너를 사용하는 App1이라는 앱이 있습니다.

App1은 File1.txt라는 누적 트랜잭션 로그 파일을 매시간마다 app1data의 블록 Blob에 업로드합니다. File1.txt는 현재 날짜의 트랜잭션 데이터만 저장합니다.

파일을 덮어쓴 후 최대 30일 동안 File1.txt의 마지막 업로드된 버전을 복원할 수 있도록 해야 합니다. 솔루션은 스토리지 공간을 최소화해야 합니다.

솔루션에 무엇을 포함해야 합니까?
A container soft delete
B blob snapshots
C blob soft delete
D blob versioning
투표 결과: D: 24표 (75.0%) | B: 8표 (25.0%)

정답: D - blob versioning

정답 근거: Blob 버전 관리는 덮어쓰기될 때마다 자동으로 이전 버전을 보존하며, 증분 스토리지로 공간을 최소화합니다.

상세 해설

이 문제는 Blob 버전 관리와 데이터 보호에 관한 문제입니다.

시나리오 분석:

  • 매시간 덮어쓰기: 동일한 파일명으로 계속 업로드
  • 30일 복원: 과거 버전 접근 필요
  • 스토리지 최소화: 효율적인 저장 방식

옵션별 비교:

  • A. Container soft delete: 컨테이너 삭제 복구용
  • B. Blob snapshots: 수동 생성, 자동화 어려움
  • C. Blob soft delete: 삭제 복구용, 덮어쓰기와 무관
  • D. Blob versioning: ✅ 덮어쓰기 시 자동 버전 보존

Blob Versioning 특징:

  • 자동 버전 생성: 덮어쓰기 시 이전 버전 자동 보존
  • 증분 스토리지: 변경된 블록만 추가 저장
  • 수명 주기 관리: 정책으로 오래된 버전 자동 삭제
  • 직접 액세스: 버전 ID로 특정 버전 접근
결론: 파일 덮어쓰기 시나리오에서 자동으로 모든 버전을 보존하면서 스토리지를 효율적으로 사용하는 최적의 솔루션입니다.
문제 39
Microsoft AZ-305
Topic #: 2
고객 정보로 구성된 Microsoft SQL Server, MySQL 및 Oracle 데이터베이스로 구성된 12개의 온프레미스 데이터 소스가 있습니다.

Azure 구독이 있습니다.

분석 및 보고를 위해 고객 정보를 통합할 Azure Data Lake Storage 계정을 만들 계획입니다.

ETL(추출, 변환 및 로드)를 사용하여 데이터 소스에서 Data Lake Storage 계정으로 새 정보를 자동으로 복사하는 솔루션을 권장해야 합니다. 솔루션은 관리 노력을 최소화해야 합니다.

권장 사항에 무엇을 포함해야 합니까?
A Azure Data Factory
B Azure Data Explorer
C Azure Data Share
D Azure Data Studio
투표 결과: A: 15표 (100%)

정답: A - Azure Data Factory

정답 근거: Azure Data Factory는 다양한 데이터 소스에서 Data Lake Storage로의 ETL 파이프라인을 구축하고 자동화하는 관리형 서비스입니다.

상세 해설

이 문제는 다중 소스 ETL 통합에 관한 문제입니다. 문제 13과 유사하지만 더 복잡한 시나리오입니다.

Azure Data Factory의 장점:

  • 다중 소스 지원: SQL Server, MySQL, Oracle 모두 지원
  • ETL 파이프라인: 추출, 변환, 로드 통합
  • 자동화: 트리거 기반 스케줄링
  • 관리형 서비스: 인프라 관리 불필요
  • 데이터 플로우: 코드 없는 데이터 변환

12개 소스 통합 아키텍처:

  • Self-hosted IR: 온프레미스 연결
  • 병렬 처리: 여러 소스 동시 처리
  • 스키마 매핑: 통합 스키마로 변환
  • 증분 로드: 변경된 데이터만 처리

다른 옵션 분석:

  • B. Data Explorer: 실시간 분석용, ETL과 무관
  • C. Data Share: 데이터 공유용, ETL과 무관
  • D. Data Studio: 관리 도구, ETL 엔진 아님
결론: 복잡한 멀티소스 ETL 시나리오에서 Data Factory는 완전히 관리되는 통합 솔루션을 제공하는 최적의 선택입니다.
전체 요약
핵심 학습 포인트

AZ-305 Topic 2 핵심 정리

🏗️ 데이터 아키텍처 설계 원칙:

  • 요구사항 우선: 성능, 가용성, 비용, 관리성 등 모든 요구사항 종합 고려
  • 서비스별 특징: 각 Azure 서비스의 고유한 기능과 제약사항 정확히 파악
  • 확장성 고려: 현재뿐만 아니라 미래 확장성까지 고려한 설계

🔑 핵심 서비스별 적용 시나리오:

  • Azure SQL Database: 관리형 관계형 DB, Hyperscale은 대용량+고성능
  • Azure SQL Managed Instance: 크로스 DB 트랜잭션, CLR, 높은 호환성
  • Azure Cosmos DB: 다중 마스터 쓰기, 글로벌 분산, 낮은 지연시간
  • Azure Blob Storage: 미디어 파일, 아카이브, 불변성 정책
  • Azure Data Lake Storage Gen2: 빅데이터, HDFS 호환, ACL 권한

🚀 데이터 통합 및 분석:

  • Azure Data Factory: ETL/ELT 파이프라인, 자동화, 다중 소스 통합
  • Azure Synapse Analytics: 대규모 데이터 웨어하우스, MPP 아키텍처
  • Azure Synapse Link: 실시간 HTAP, 운영 DB에 영향 없음
  • Event Hubs Capture: 스트리밍 데이터를 Avro 형식으로 저장

🛡️ 보안 및 데이터 보호:

  • 불변성: Legal Hold, Time-based retention으로 데이터 보호
  • 암호화: TDE, Always Encrypted, 고객 관리 키
  • 데이터 마스킹: Dynamic Data Masking, Always Encrypted
  • 백업 및 복원: Point-in-time restore, Blob versioning

💰 비용 최적화 전략:

  • 액세스 패턴: Hot/Cool/Archive 계층 적절한 선택
  • 탄력적 확장: Elastic Pool, Serverless 활용
  • 리소스 공유: 유사한 워크로드 통합
  • 예약 용량: 장기 사용 시 비용 절약

📈 시험 대비 팁:

  • 시나리오 이해: 요구사항을 정확히 파악하고 우선순위 결정
  • 제약사항 숙지: 각 서비스의 한계와 지원 기능 정확히 파악
  • 최신 기능: Azure 서비스의 최신 업데이트 내용 확인
  • 실습 경험: 실제 구현을 통한 경험 축적
🎯 최종 정리: AZ-305는 단순한 기능 암기가 아닌, 복잡한 비즈니스 요구사항을 만족하는 최적의 아키텍처를 설계하는 능력을 평가합니다. 각 서비스의 특징을 정확히 이해하고, 실제 시나리오에서 어떻게 조합하여 사용할지 깊이 있게 학습하세요! 🚀
문제 15
Microsoft AZ-305
Topic #: 2
온프레미스 Microsoft SQL Server 데이터베이스 DB1과 DB2를 사용하는 App1이라는 앱이 있습니다.

DB1과 DB2를 Azure로 마이그레이션할 계획입니다.

DB1과 DB2를 호스팅할 Azure 솔루션을 권장해야 합니다. 솔루션은 다음 요구 사항을 충족해야 합니다:
✑ DB1과 DB2에서 서버 측 트랜잭션을 지원합니다.
✑ 솔루션을 업데이트하는 관리 노력을 최소화합니다.

무엇을 권장해야 합니까?
A two Azure SQL databases in an elastic pool
B two databases on the same Azure SQL managed instance
C two databases on the same SQL Server instance on an Azure virtual machine
D two Azure SQL databases on different Azure SQL Database servers
투표 결과: B: 71표 (100%)

정답: B - two databases on the same Azure SQL managed instance

정답 근거: Azure SQL Managed Instance는 동일한 인스턴스 내의 데이터베이스 간 분산 트랜잭션을 지원하며, 최소한의 관리 오버헤드를 제공합니다.

상세 해설

이 문제는 크로스 데이터베이스 트랜잭션에 관한 핵심적인 문제입니다.

핵심 요구사항:

  • 서버 측 트랜잭션: DB1과 DB2 간의 분산 트랜잭션
  • 최소 관리 노력: 관리형 서비스 선호

분산 트랜잭션 지원 비교:

  • Azure SQL Database: - 동일한 서버 내에서도 크로스 DB 트랜잭션 미지원 - Elastic Query는 읽기 전용
  • Azure SQL Managed Instance: - 동일한 인스턴스 내 데이터베이스 간 분산 트랜잭션 완전 지원 - SQL Server와 거의 100% 호환성
  • SQL Server on VM: - 분산 트랜잭션 지원하지만 관리 오버헤드 높음

Azure SQL Managed Instance의 장점:

  • 크로스 DB 트랜잭션: BEGIN DISTRIBUTED TRANSACTION 지원
  • 관리형 서비스: 패치, 백업, 모니터링 자동화
  • 높은 호환성: 온프레미스에서 최소 변경으로 마이그레이션
  • VNet 통합: 기업 네트워크와 완전 통합
결론: 크로스 데이터베이스 트랜잭션이 필요한 경우, Azure SQL Managed Instance가 유일하게 완전한 지원을 제공하면서 관리형 서비스의 이점을 누릴 수 있는 솔루션입니다.
문제 25
Microsoft AZ-305
Topic #: 2
사용자용 콘텐츠를 집계할 애플리케이션을 설계하고 있습니다.

애플리케이션용 데이터베이스 솔루션을 권장해야 합니다. 솔루션은 다음 요구 사항을 충족해야 합니다:

• SQL 명령을 지원합니다.
• 다중 마스터 쓰기를 지원합니다.
• 낮은 지연 시간 읽기 작업을 보장합니다.

권장 사항에 무엇을 포함해야 합니까?
A Azure Cosmos DB for NoSQL
B Azure SQL Database that uses active geo-replication
C Azure SQL Database Hyperscale
D Azure Cosmos DB for PostgreSQL
투표 결과: A: 29표 (96.7%) | D: 1표 (3.3%)

정답: A - Azure Cosmos DB for NoSQL

정답 근거: Azure Cosmos DB for NoSQL은 SQL 쿼리, 다중 마스터 쓰기, 그리고 전 세계적으로 낮은 지연시간을 모두 지원하는 유일한 솔루션입니다.

상세 해설

이 문제는 글로벌 분산 데이터베이스의 다중 마스터 쓰기에 관한 문제입니다.

요구사항 분석:

  • SQL 명령 지원: SQL 쿼리 문법 사용
  • 다중 마스터 쓰기: 여러 지역에서 동시 쓰기
  • 낮은 지연시간 읽기: 빠른 응답 시간

Azure Cosmos DB for NoSQL 특징:

  • SQL API: 익숙한 SQL 쿼리 문법 사용
  • 다중 지역 쓰기: 모든 지역에서 읽기/쓰기 가능
  • 자동 충돌 해결: Last-Write-Wins, Custom 정책
  • < 10ms 지연시간: P99에서 한 자리 밀리초
  • 전역 분산: 50+ Azure 지역에 배포

다른 옵션 분석:

  • B. SQL Database 지역 복제: 다중 마스터 쓰기 미지원 (읽기 전용 보조)
  • C. SQL Database Hyperscale: 단일 지역, 다중 마스터 미지원
  • D. Cosmos DB for PostgreSQL: PostgreSQL 문법, SQL API 아님
결론: Azure Cosmos DB for NoSQL은 SQL 쿼리와 다중 마스터 쓰기, 글로벌 낮은 지연시간을 모두 제공하는 유일한 완전한 솔루션입니다.
문제 9
Microsoft AZ-305
Topic #: 2
50,000개의 IoT 장치를 포함하는 Azure IoT Hub 솔루션을 계획하고 있습니다.
각 장치는 온도, 장치 ID, 시간 데이터를 포함한 데이터를 스트리밍합니다. 약 50,000개의 레코드가 매초마다 기록됩니다. 데이터는 거의 실시간으로 시각화됩니다.

데이터를 저장하고 쿼리할 서비스를 권장해야 합니다.

권장할 수 있는 두 가지 서비스는 무엇입니까? 각 정답은 완전한 솔루션을 제시합니다.
참고: 각 올바른 선택은 1점의 가치가 있습니다.
A Azure Table Storage
B Azure Event Grid
C Azure Cosmos DB SQL API
D Azure Time Series Insights
투표 결과: CD: 31표 (91.2%) | BD: 3표 (8.8%)

정답: C, D - Azure Cosmos DB SQL API & Azure Time Series Insights

정답 근거: 두 서비스 모두 고처리량 IoT 데이터 수집과 실시간 분석에 최적화되어 있습니다.

상세 해설

이 문제는 대규모 IoT 시계열 데이터 처리에 관한 문제입니다.

요구사항 분석:

  • 50,000 IoT 장치: 대규모 장치 연결
  • 초당 50,000 레코드: 높은 처리량 요구
  • 시계열 데이터: 온도, 장치 ID, 시간
  • 실시간 시각화: 낮은 지연시간 쿼리

정답 C: Azure Cosmos DB SQL API

  • 높은 처리량: 수백만 ops/sec 지원
  • 낮은 지연시간: < 10ms 읽기/쓰기
  • 자동 스케일링: 워크로드에 따른 동적 확장
  • SQL 쿼리: 복잡한 분석 쿼리 지원
  • 전역 분산: 지역별 복제

정답 D: Azure Time Series Insights

  • 시계열 특화: IoT 시계열 데이터에 최적화
  • 실시간 분석: 스트리밍 데이터 처리
  • 시각화: 내장된 대시보드와 차트
  • 패턴 분석: 이상 탐지, 예측 분석
  • IoT Hub 통합: 네이티브 연결
결론: Cosmos DB는 범용 고성능 데이터베이스로, Time Series Insights는 IoT 시계열 데이터에 특화된 서비스로 각각 완전한 솔루션을 제공합니다.
문제 10
Microsoft AZ-305
Topic #: 2
사용자용 콘텐츠를 집계할 애플리케이션을 설계하고 있습니다.

애플리케이션용 데이터베이스 솔루션을 권장해야 합니다. 솔루션은 다음 요구 사항을 충족해야 합니다:
✑ SQL 명령을 지원합니다.
✑ 다중 마스터 쓰기를 지원합니다.
✑ 낮은 지연 시간 읽기 작업을 보장합니다.

권장 사항에 무엇을 포함해야 합니까?
A Azure Cosmos DB SQL API
B Azure SQL Database that uses active geo-replication
C Azure SQL Database Hyperscale
D Azure Database for PostgreSQL
투표 결과: A: 60표 (100%)

정답: A - Azure Cosmos DB SQL API

정답 근거: Azure Cosmos DB SQL API만이 SQL 쿼리, 다중 마스터 쓰기, 낮은 지연시간을 모두 지원합니다.

상세 해설

이 문제는 다중 마스터 쓰기와 글로벌 분산에 관한 핵심 문제입니다.

다중 마스터 쓰기 비교:

  • Azure Cosmos DB: ✅ 모든 지역에서 읽기/쓰기
  • SQL Database 지역 복제: ❌ 읽기 전용 보조 복제본
  • SQL Database Hyperscale: ❌ 단일 지역만
  • PostgreSQL: ❌ 다중 마스터 미지원

Azure Cosmos DB 다중 마스터의 장점:

  • 글로벌 쓰기: 모든 지역에서 쓰기 가능
  • 충돌 해결: 자동 충돌 해결 정책
  • 일관성 수준: 5가지 조정 가능한 일관성
  • 99.999% SLA: 다중 지역에서 최고 가용성
결론: 다중 마스터 쓰기가 필요한 시나리오에서는 Azure Cosmos DB가 유일한 완전한 솔루션입니다.
문제 11
Microsoft AZ-305
Topic #: 2
HOTSPOT -
다음 표에 표시된 Azure의 SQL 서버가 포함된 Azure 구독이 있습니다.
SQL servers table
구독에는 다음 표에 표시된 스토리지 계정이 포함되어 있습니다.
Storage accounts table
다음 표에 표시된 Azure SQL 데이터베이스를 만듭니다.
SQL databases table
다음 각 문에 대해 문이 참이면 예를 선택하고, 그렇지 않으면 아니요를 선택하십시오.
Question statements

정답

Answer diagram
Box 1: Yes - 감사는 Standard 계정에서 잘 작동합니다.

Box 2: No - 감사 제한사항: 프리미엄 스토리지는 현재 지원되지 않습니다.

Box 3: No - 감사 제한사항: 프리미엄 스토리지는 현재 지원되지 않습니다.

상세 해설

이 문제는 Azure SQL Database 감사와 스토리지 제약사항에 관한 문제입니다.

Azure SQL 감사 스토리지 요구사항:

  • 지원되는 스토리지: General Purpose v1/v2 Standard
  • 지원되지 않는 스토리지: Premium 성능 계층
  • 감사 로그 형식: .xel 파일로 저장
결론: SQL Database 감사는 Standard 스토리지만 지원하며, Premium 스토리지는 사용할 수 없습니다.
문제 12
Microsoft AZ-305
Topic #: 2
DRAG DROP -
온프레미스 환경에서 Azure로 데이터를 가져올 계획입니다. 데이터는 다음 표에 표시되어 있습니다.
Data migration table
데이터를 마이그레이션하는 데 사용할 것을 권장해야 합니다. 적절한 도구를 올바른 데이터 소스로 끌어다 놓으십시오.
Migration tools

정답

Answer diagram
Box 1: Data Migration Assistant - DMA는 SQL Server 데이터베이스를 Azure SQL Database로 마이그레이션하는 데 도움이 됩니다.

Box 2: Azure Cosmos DB Data Migration Tool - Azure Cosmos DB 데이터 마이그레이션 도구는 SQL Server 데이터베이스 테이블을 Azure Cosmos로 마이그레이션하는 데 사용할 수 있습니다.

상세 해설

이 문제는 데이터 마이그레이션 도구 선택에 관한 문제입니다.

마이그레이션 도구별 용도:

  • Data Migration Assistant (DMA): SQL Server → Azure SQL Database
  • Cosmos DB Data Migration Tool: 다양한 소스 → Cosmos DB
  • AzCopy: 파일/Blob 복사 전용
문제 13
Microsoft AZ-305
Topic #: 2
Azure Blob Storage에 웹 액세스 로그 데이터를 저장합니다.
액세스 로그에서 월별 보고서를 생성할 계획입니다.

매월 Azure SQL Database에 데이터를 업로드하는 자동화된 프로세스를 권장해야 합니다.

권장 사항에 무엇을 포함해야 합니까?
A Microsoft SQL Server Migration Assistant (SSMA)
B Data Migration Assistant (DMA)
C AzCopy
D Azure Data Factory
투표 결과: D: 42표 (100%)

정답: D - Azure Data Factory

정답 근거: Azure Data Factory는 스케줄링된 ETL 파이프라인을 통해 Blob Storage에서 SQL Database로 자동화된 데이터 이동을 제공합니다.

상세 해설

이 문제는 자동화된 데이터 파이프라인에 관한 문제입니다.

요구사항:

  • 자동화: 매월 자동 실행
  • ETL 프로세스: Blob → SQL Database
  • 스케줄링: 주기적 실행

Azure Data Factory 장점:

  • ETL/ELT 파이프라인: 데이터 변환 및 이동
  • 스케줄링: 트리거 기반 자동 실행
  • 다양한 커넥터: Blob Storage, SQL Database 지원
  • 모니터링: 파이프라인 실행 상태 추적
결론: Data Factory는 자동화된 데이터 파이프라인 구축을 위한 최적의 서비스입니다.
문제 14
Microsoft AZ-305
Topic #: 2
Azure 구독이 있습니다.
Server1이라는 온프레미스 네트워크에는 Windows Server 2016을 실행하는 파일 서버가 있습니다. Server1에는 거의 액세스하지 않는 5TB의 회사 파일이 저장되어 있습니다.

파일을 Azure Storage에 복사할 계획입니다.

다음 요구 사항을 충족하는 파일용 스토리지 솔루션을 구현해야 합니다:
✑ 요청된 후 24시간 이내에 파일을 사용할 수 있어야 합니다.
✑ 스토리지 비용을 최소화해야 합니다.

이 목표를 달성하는 두 가지 가능한 스토리지 솔루션은 무엇입니까?
A Create an Azure Blob Storage account that is configured for the Cool default access tier. Create a blob container, copy the files to the blob container, and set each file to the Archive access tier.
B Create a general-purpose v1 storage account. Create a blob container and copy the files to the blob container.
C Create a general-purpose v2 storage account that is configured for the Cool default access tier. Create a file share in the storage account and copy the files to the file share.
D Create a general-purpose v2 storage account that is configured for the Hot default access tier. Create a blob container, copy the files to the blob container, and set each file to the Archive access tier.
E Create a general-purpose v1 storage account. Create a file share in the storage account and copy the files to the file share.
투표 결과: AD: 68표 (93.2%) | AC: 5표 (6.8%)

정답: A, D

정답 근거: Archive 액세스 계층은 최저 비용을 제공하며, 24시간 내 복원이 가능합니다. 계정의 기본 계층과 관계없이 개별 Blob을 Archive로 설정할 수 있습니다.

상세 해설

이 문제는 아카이브 스토리지와 비용 최적화에 관한 문제입니다.

요구사항 분석:

  • 거의 액세스하지 않음: 콜드 데이터
  • 24시간 내 액세스: Archive 계층 복원 시간
  • 비용 최소화: 가장 저렴한 스토리지 옵션

Azure Blob 액세스 계층:

  • Hot: 자주 액세스, 높은 스토리지 비용
  • Cool: 가끔 액세스, 중간 비용
  • Archive: 거의 액세스하지 않음, 최저 비용

Archive 계층 특징:

  • 최저 스토리지 비용: GB당 가장 저렴
  • 복원 시간: 표준 우선순위로 최대 15시간
  • 최소 보관 기간: 180일
  • 개별 Blob 설정: 계정 기본 계층과 무관
결론: A와 D 모두 Archive 계층을 사용하여 최저 비용과 24시간 내 액세스 요구사항을 만족합니다.