DP-600日本語試験無料問題集「Microsoft Implementing Analytics Solutions Using Microsoft Fabric (DP-600日本語版) 認定」

セマンティック モデルを含むファブリック テナントがあります。モデルには小売店に関するデータが含まれています。
XMLA エンドポイントを使用して実行される DAX クエリを作成する必要があります。クエリは、2023 年 12 月 1 日以降にオープンした店舗のテーブルを返す必要があります。
DAX 式をどのように完成させるべきでしょうか?答えるには、適切な値を正しいターゲットにドラッグします。
各値は 1 回使用することも、複数回使用することも、まったく使用しないこともできます。コンテンツを表示するには、ペイン間で分割バーをドラッグするか、スクロールする必要がある場合があります。
注: 正しく選択するたびに 1 ポイントの価値があります。
正解:

.
Reference:
DAX FILTER Function
DAX SUMMARIZE Function
OneLake に新しいセマンティック モデルを含む Fabric テナントがあります。
Fabric ノートブックを使用して、データを Spark DataFrame に読み取ります。
データを評価して、すべての文字列列と数値列の最小値、最大値、平均値、標準偏差の値を計算する必要があります。
解決策: 次の PySpark 式を使用します。
df .sumary ()
これは目標を達成していますか?

解説: (GoShiken メンバーにのみ表示されます)
テナントを PoC に向けて準備するためのソリューションを推奨する必要があります。
ファブリック管理ポータルから実行することを推奨する 2 つのアクションはどれですか?それぞれの正解は、解決策の一部を示しています。
注: 各正解は 1 ポイントの価値があります。

解説: (GoShiken メンバーにのみ表示されます)
Fabric ノートブックのデータを分析しています。
Spark DataFrame が df という名前の変数に割り当てられています。
データを手動で探索するには、ノートブックのチャート ビューを使用する必要があります。
データをチャート ビューで使用できるようにするには、どの関数を実行する必要がありますか?

解説: (GoShiken メンバーにのみ表示されます)
次の図に示すソース データ モデルがあります。

テーブルの主キーは、各キーに含まれる列の横にあるキー記号で示されます。
注文品目を日付、製品、顧客ごとに分析できるようにする次元データ モデルを作成する必要があります。
ソリューションには何を含めるべきでしょうか?回答するには、回答領域で適切なオプションを選択してください。
注: 正しく選択するたびに 1 ポイントの価値があります。
正解:

Reference:
Dimensional modeling
Star schema design
Microsoft Power Bl レポートを含むファブリック テナントがあります。
あなたは新しいセマンティック モデルを模索しています。
次の列統計を表示する必要があります。
* カウント
* 平均
* ヌル数
* 個別のカウント
* 標準偏差
どの Power Query 関数を実行する必要がありますか?

解説: (GoShiken メンバーにのみ表示されます)
データ パイプラインを含む Fabric テナントがあります。
パイプラインが月曜日と金曜日に 4 時間ごとに実行されるようにする必要があります。
スケジュールの繰り返しを何に設定すればよいですか?

解説: (GoShiken メンバーにのみ表示されます)
storage! という名前の Azure Data Lake Storage Gen2 アカウントがあり、そこには sales.parquet という名前の Parquet ファイルが含まれています。
Workspace1 という名前のワークスペースを含む Fabric テナントがあります。
Workspace1 のノートブックを使用して、ファイルの内容をデフォルトのレイクハウスにロードする必要があります。ソリューションでは、コンテンツが Lakehouse エクスプローラーに Sales という名前のテーブルとして自動的に表示されるようにする必要があります。
コードをどのように完成させるべきですか? 回答するには、回答エリアで適切なオプションを選択してください。
注意: 正しい選択ごとに 1 ポイントが付与されます。
正解:

Topic 2, Contoso, ltd.
Overview
Contoso, ltd. is a US-based health supplements company, Contoso has two divisions named Sales and Research. The Sales division contains two departments named Online Sales and Retail Sales. The Research division assigns internally developed product lines to individual teams of researchers and analysts.
Identity Environment
Contoso has a Microsoft Entra tenant named contoso.com. The tenant contains two groups named ResearchReviewersGroupi and ReseachReviewefsGfoup2.
Data Environment
Contoso has the following data environment
* The Sales division uses a Microsoft Power B1 Premium capacity.
* The semantic model of the Online Sales department includes a fact table named Orders that uses import mode. In the system of origin, the OrderlD value represents the sequence in which orders are created.
* The Research department uses an on-premises. third-party data warehousing product.
* Fabric is enabled for contoso.com.
* An Azure Data Lake Storage Gen2 storage account named storage1 contains Research division data for a product line named Producthne1. The data is in the delta format.
* A Data Lake Storage Gen2 storage account named storage2 contains Research division data for a product line named Productline2. The data is in the CSV format.
Planned Changes
Contoso plans to make the following changes:
* Enable support for Fabric in the Power Bl Premium capacity used by the Sales division.
* Make all the data for the Sales division and the Research division available in Fabric.
* For the Research division, create two Fabric workspaces named Producttmelws and Productline2ws.
* in Productlinelws. create a lakehouse named LakehouseV
* In Lakehouse1. create a shortcut to storage1 named ResearchProduct.
Data Analytics Requirements
Contoso identifies the following data analytics requirements:
* All the workspaces for the Sales division and the Research division must support all Fabric experiences.
* The Research division workspaces must use a dedicated, on-demand capacity that has per-minute billing.
* The Research division workspaces must be grouped together logically to support OneLake data hub filtering based on the department name.
* For the Research division workspaces, the members of ResearchRevtewersGroupl must be able to read lakehouse and warehouse data and shortcuts by using SQL endpoints.
* For the Research division workspaces, the members of ResearchReviewersGroup2 must be able to read lakehouse data by using Lakehouse explorer.
* All the semantic models and reports for the Research division must use version control that supports branching Data Preparation Requirements Contoso identifies the following data preparation requirements:
* The Research division data for Producthne2 must be retrieved from Lakehouset by using Fabric notebooks.
* All the Research division data in the lakehouses must be presented as managed tables in Lakehouse explorer.
Semantic Model Requirements
Contoso identifies the following requirements for implementing and managing semantic models;
* The number of rows added to the Orders table during refreshes must be minimized.
* The semantic models in the Research division workspaces must use Direct Lake mode.
General Requirements
Contoso identifies the following high-level requirements that must be considered for all solutions:
* Follow the principle of least privilege when applicable
* Minimize implementation and maintenance effort when possible.
Stage という名前のテーブルを含むデータ ウェアハウスがあります。お客様。 Stage-Customers には、顧客関係管理 (CRM) システムからのすべての顧客レコードの更新が含まれています。顧客ごとに複数の更新が存在する可能性があります。各顧客 ID の顧客 ID、名前、郵便番号、および最新行の最終更新時刻を返す T-SQL クエリを作成する必要があります。
コードをどのように完成させるべきでしょうか?回答するには、回答エリアで適切な選択肢を選択してください。 注 正しい選択肢はそれぞれ 1 ポイントの価値があります。
正解:
Microsoft Power Bl Desktop を使用してセマンティック モデルを作成します。モデルには、SalesRegionManager という名前の 1 つのセキュリティ ロールと次のテーブルが含まれています。
* 販売
* 販売地域
* 販売アドレス
SalesRegionManager ロールを割り当てられたユーザーが Sales Address の Address という名前の列を参照できないようにモデルを変更する必要があります。
どの 3 つのアクションを順番に実行する必要がありますか?回答するには、アクションのリストから適切なアクションを回答領域に移動し、正しい順序で並べます。
正解: