DP-203 Korean試験無料問題集「Microsoft Data Engineering on Microsoft Azure (DP-203 Korean Version) 認定」
인터넷에 연결된 원격 센서의 스트리밍 데이터를 시각화하는 실시간 대시보드 솔루션을 설계하고 있습니다. 스트리밍 데이터는 각 10초 간격의 평균 값을 표시하도록 집계되어야 합니다. 데이터는 대시보드에 표시된 후 삭제됩니다.
솔루션은 Azure Stream Analytics를 사용하며 다음 요구 사항을 충족해야 합니다.
Azure 이벤트 허브에서 대시보드까지 대기 시간을 최소화합니다.
필요한 스토리지를 최소화하십시오.
개발 노력을 최소화하십시오.
솔루션에 무엇을 포함해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.

솔루션은 Azure Stream Analytics를 사용하며 다음 요구 사항을 충족해야 합니다.
Azure 이벤트 허브에서 대시보드까지 대기 시간을 최소화합니다.
필요한 스토리지를 최소화하십시오.
개발 노력을 최소화하십시오.
솔루션에 무엇을 포함해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.
참고: 각 올바른 선택은 1점의 가치가 있습니다.

正解:

Explanation:

Reference:
https://docs.microsoft.com/en-us/azure/stream-analytics/stream-analytics-power-bi-dashboard
회사의 인적 자원(MR) 부서를 위한 데이터 마트를 설계하고 있습니다. 데이터 마트에는 정보와 직원 트랜잭션이 포함됩니다. 소스 시스템에서 다음 필드가 있는 플랫 추출이 있습니다.
* 직원 ID
* 이름
* 성
* 받는 사람
* GrossArnount
* 트랜잭션 ID
* 정부 ID
* NetAmountPaid
* 거래 날짜
데이터 마트용 Azure Synapse 분석 전용 SQL 풀에서 시작 스키마 데이터 모델을 설계해야 합니다.
어떤 두 개의 테이블을 만들어야 합니까? 각 정답은 솔루션의 일부를 나타냅니다.
* 직원 ID
* 이름
* 성
* 받는 사람
* GrossArnount
* 트랜잭션 ID
* 정부 ID
* NetAmountPaid
* 거래 날짜
데이터 마트용 Azure Synapse 분석 전용 SQL 풀에서 시작 스키마 데이터 모델을 설계해야 합니다.
어떤 두 개의 테이블을 만들어야 합니까? 각 정답은 솔루션의 일부를 나타냅니다.
正解:A,B
解答を投票する
解説: (GoShiken メンバーにのみ表示されます)
Azure Synapse Analytics 전용 SQL 풀에서 테이블을 만들 계획입니다.
테이블의 데이터는 5년 동안 보존됩니다. 1년에 한 번, 5년 이상 된 데이터는 삭제됩니다.
데이터가 파티션 간에 고르게 분산되도록 해야 합니다. 솔루션은 오래된 데이터를 삭제하는 데 필요한 시간을 최소화해야 합니다.
Transact-SQL 문을 어떻게 완성해야 합니까? 응답하려면 적절한 값을 올바른 대상으로 드래그하십시오. 각 값은 한 번, 두 번 이상 사용되거나 전혀 사용되지 않을 수 있습니다. 콘텐츠를 보려면 창 사이의 분할 막대를 끌거나 스크롤해야 할 수 있습니다.
참고: 각 올바른 선택은 1점의 가치가 있습니다.

테이블의 데이터는 5년 동안 보존됩니다. 1년에 한 번, 5년 이상 된 데이터는 삭제됩니다.
데이터가 파티션 간에 고르게 분산되도록 해야 합니다. 솔루션은 오래된 데이터를 삭제하는 데 필요한 시간을 최소화해야 합니다.
Transact-SQL 문을 어떻게 완성해야 합니까? 응답하려면 적절한 값을 올바른 대상으로 드래그하십시오. 각 값은 한 번, 두 번 이상 사용되거나 전혀 사용되지 않을 수 있습니다. 콘텐츠를 보려면 창 사이의 분할 막대를 끌거나 스크롤해야 할 수 있습니다.
참고: 각 올바른 선택은 1점의 가치가 있습니다.

正解:

Explanation:
Box 1: HASH
Box 2: OrderDateKey
In most cases, table partitions are created on a date column.
A way to eliminate rollbacks is to use Metadata Only operations like partition switching for data management.
For example, rather than execute a DELETE statement to delete all rows in a table where the order_date was in October of 2001, you could partition your data early. Then you can switch out the partition with data for an empty partition from another table.
Reference:
https://docs.microsoft.com/en-us/sql/t-sql/statements/create-table-azure-sql-data-warehouse
https://docs.microsoft.com/en-us/azure/synapse-analytics/sql/best-practices-dedicated-sql-pool
참고: 이 질문은 동일한 시나리오를 제시하는 일련의 질문 중 일부입니다. 시리즈의 각 질문에는 명시된 목표를 충족할 수 있는 고유한 솔루션이 포함되어 있습니다. 일부 질문 세트에는 하나 이상의 올바른 솔루션이 있을 수 있지만 다른 질문 세트에는 올바른 솔루션이 없을 수 있습니다.
이 섹션의 질문에 답한 후에는 해당 질문으로 돌아갈 수 없습니다. 결과적으로 이러한 질문은 검토 화면에 나타나지 않습니다.
Twitter 데이터를 분석할 Azure Stream Analytics 솔루션을 설계하고 있습니다.
각 10초 창에서 트윗 수를 계산해야 합니다. 솔루션은 각 트윗이 한 번만 계산되도록 해야 합니다.
해결 방법: 10초의 제한 시간 크기를 사용하는 세션 창을 사용합니다.
이것이 목표를 달성합니까?
이 섹션의 질문에 답한 후에는 해당 질문으로 돌아갈 수 없습니다. 결과적으로 이러한 질문은 검토 화면에 나타나지 않습니다.
Twitter 데이터를 분석할 Azure Stream Analytics 솔루션을 설계하고 있습니다.
각 10초 창에서 트윗 수를 계산해야 합니다. 솔루션은 각 트윗이 한 번만 계산되도록 해야 합니다.
해결 방법: 10초의 제한 시간 크기를 사용하는 세션 창을 사용합니다.
이것이 목표를 달성합니까?
正解:B
解答を投票する
解説: (GoShiken メンバーにのみ表示されます)
Dataflow1이라는 데이터 흐름 활동을 포함하는 Pipeline1이라는 Azure Synapse Analytics 파이프라인이 있습니다.
Pipeline1은 storage1이라는 Azure Data Lake Storage Gen 2 계정에서 파일을 검색합니다.
Dataflow1은 코어 수 128개로 구성된 AutoResolveIntegrationRuntime 통합 런타임을 사용합니다.
storage1의 파일 크기를 수용하려면 Dataflow1에서 사용하는 코어 수를 최적화해야 합니다.
무엇을 구성해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.

Pipeline1은 storage1이라는 Azure Data Lake Storage Gen 2 계정에서 파일을 검색합니다.
Dataflow1은 코어 수 128개로 구성된 AutoResolveIntegrationRuntime 통합 런타임을 사용합니다.
storage1의 파일 크기를 수용하려면 Dataflow1에서 사용하는 코어 수를 최적화해야 합니다.
무엇을 구성해야 합니까? 대답하려면 대답 영역에서 적절한 옵션을 선택하십시오.

正解:

Explanation:
Box 1: A Get Metadata activity
Dynamically size data flow compute at runtime
The Core Count and Compute Type properties can be set dynamically to adjust to the size of your incoming source data at runtime. Use pipeline activities like Lookup or Get Metadata in order to find the size of the source dataset data. Then, use Add Dynamic Content in the Data Flow activity properties.
Box 2: Dynamic content
Reference: https://docs.microsoft.com/en-us/azure/data-factory/control-flow-execute-data-flow-activity
Table1이라는 테이블이 포함된 Azure Synapse Analytics 전용 SQL 풀이 있습니다.
수집되어 container1이라는 Azure Data Lake Storage Gen2 컨테이너에 로드되는 파일이 있습니다.
파일의 데이터를 table1 및 container1이라는 Azure Data Lake Storage Gen2 컨테이너에 삽입할 계획입니다.
파일의 데이터를 Table1에 삽입하고 데이터를 변환할 계획입니다. 파일의 각 데이터 행은 Table1의 제공 계층에서 하나의 행을 생성합니다.
소스 데이터 파일이 container1에 로드될 때 DateTime이 Table1에 추가 열로 저장되는지 확인해야 합니다.
솔루션: Azure Synapse Analytics 파이프라인에서 파일의 DateTime을 검색하는 메타데이터 가져오기 활동을 사용합니다.
이것이 목표를 달성합니까?
수집되어 container1이라는 Azure Data Lake Storage Gen2 컨테이너에 로드되는 파일이 있습니다.
파일의 데이터를 table1 및 container1이라는 Azure Data Lake Storage Gen2 컨테이너에 삽입할 계획입니다.
파일의 데이터를 Table1에 삽입하고 데이터를 변환할 계획입니다. 파일의 각 데이터 행은 Table1의 제공 계층에서 하나의 행을 생성합니다.
소스 데이터 파일이 container1에 로드될 때 DateTime이 Table1에 추가 열로 저장되는지 확인해야 합니다.
솔루션: Azure Synapse Analytics 파이프라인에서 파일의 DateTime을 검색하는 메타데이터 가져오기 활동을 사용합니다.
이것이 목표를 달성합니까?
正解:A
解答を投票する
解説: (GoShiken メンバーにのみ表示されます)
폴더가 포함된 Azure Blob 저장소 계정이 있습니다. 폴더에는 120,000개의 파일이 있습니다. 각 파일에는 62개의 열이 있습니다.
매일 1,500개의 새 파일이 폴더에 추가됩니다.
각각의 새 파일에서 Azure Synapse Analytics 작업 영역으로 5개의 데이터 열을 증분식으로 로드할 계획입니다.
증분 로드를 수행하는 데 걸리는 시간을 최소화해야 합니다.
파일과 형식을 저장하기 위해 무엇을 사용해야 합니까?

매일 1,500개의 새 파일이 폴더에 추가됩니다.
각각의 새 파일에서 Azure Synapse Analytics 작업 영역으로 5개의 데이터 열을 증분식으로 로드할 계획입니다.
증분 로드를 수행하는 데 걸리는 시간을 최소화해야 합니다.
파일과 형식을 저장하기 위해 무엇을 사용해야 합니까?

正解:

Explanation:
Box 1 = timeslice partitioning in the foldersThis means that you should organize your files into folders based on a time attribute, such as year, month, day, or hour. For example, you can have a folder structure like /yyyy
/mm/dd/file.csv. This way, you can easily identify and load only the new files that are added each day by using a time filter in your Azure Synapse pipeline12. Timeslice partitioning can also improve the performance of data loading and querying by reducing the number of files that need to be scanned Box = 2 Apache Parquet This is because Parquet is a columnar file format that can efficiently store and compress data with many columns. Parquet files can also be partitioned by a time attribute, which can improve the performance of incremental loading and querying by reducing the number of files that need to be scanned123. Parquet files are supported by both dedicated SQL pool and serverless SQL pool in Azure Synapse Analytics2.
Azure Synapse Analytics 서버리스 SQ1 풀이 있습니다.
container1이라는 공용 컨테이너를 포함하는 aols1이라는 Azure Data Lake Storage 계정이 있습니다. 컨테이너 1 컨테이너에는 폴더 1이라는 폴더가 있습니다.
폴더 1에 있는 모든 CSV 파일의 상위 100개 행을 쿼리해야 합니다.
어떻게 shouk1 쿼리를 완료합니까? 응답하려면 적절한 값을 올바른 대상으로 드래그하십시오. 각 값은 한 번, 두 번 이상 사용되거나 전혀 사용되지 않을 수 있습니다. 콘텐츠를 보려면 창 사이의 분할 막대를 끌거나 스크롤해야 할 수 있습니다.
참고 각 올바른 선택은 1점의 가치가 있습니다.

container1이라는 공용 컨테이너를 포함하는 aols1이라는 Azure Data Lake Storage 계정이 있습니다. 컨테이너 1 컨테이너에는 폴더 1이라는 폴더가 있습니다.
폴더 1에 있는 모든 CSV 파일의 상위 100개 행을 쿼리해야 합니다.
어떻게 shouk1 쿼리를 완료합니까? 응답하려면 적절한 값을 올바른 대상으로 드래그하십시오. 각 값은 한 번, 두 번 이상 사용되거나 전혀 사용되지 않을 수 있습니다. 콘텐츠를 보려면 창 사이의 분할 막대를 끌거나 스크롤해야 할 수 있습니다.
참고 각 올바른 선택은 1점의 가치가 있습니다.

正解:

Explanation:
