DP-300 Deutsch試験無料問題集「Microsoft Administering Relational Databases on Microsoft Azure (DP-300 Deutsch Version) 認定」

Sie haben ein Data Warehouse in Azure Synapse Analytics.
Sie müssen sicherstellen, dass die Daten im Data Warehouse im Ruhezustand verschlüsselt sind.
Was sollten Sie aktivieren?

解説: (GoShiken メンバーにのみ表示されます)
Sie haben eine verwaltete Azure SQL-Instanz, die mehrere Datenbanken hostet.
Sie müssen Warnungen für jede Datenbank basierend auf der Diagnosetelemetrie der Datenbank konfigurieren.
Was sollten Sie verwenden?

解説: (GoShiken メンバーにのみ表示されます)
Sie erstellen eine verwaltete Data Warehouse-Lösung auf Microsoft Azure.
Sie müssen PolyBase verwenden, um Daten aus dem Azure Blob-Speicher im Parquet-Format abzurufen und die Daten in eine große Tabelle namens FactSalesOrderDetails zu laden.
Sie müssen Azure Synapse Analytics konfigurieren, um die Daten zu empfangen.
Welche vier Aktionen musst du nacheinander ausführen? Zur Beantwortung verschiebst du die entsprechenden Aktionen aus der Aktionsliste in den Antwortbereich und bringst sie in die richtige Reihenfolge.
正解:

Explanation:

To query the data in your Hadoop data source, you must define an external table to use in Transact-SQL queries. The following steps describe how to configure the external table.
Step 1: Create a master key on database.
1. Create a master key on the database. The master key is required to encrypt the credential secret.
(Create a database scoped credential for Azure blob storage.)
Step 2: Create an external data source for Azure Blob storage.
2. Create an external data source with CREATE EXTERNAL DATA SOURCE..
Step 3: Create an external file format to map the parquet files.
3. Create an external file format with CREATE EXTERNAL FILE FORMAT.
Step 4. Create an external table FactSalesOrderDetails
4. Create an external table pointing to data stored in Azure storage with CREATE EXTERNAL TABLE.
Reference:
https://docs.microsoft.com/en-us/sql/relational-databases/polybase/polybase-configure-azure-blob-storage
Sie konfigurieren eine langfristige Aufbewahrungsrichtlinie für eine Azure SQL-Datenbank, wie in der Abbildung gezeigt. (Klicken Sie auf die Registerkarte „Abbildung“.)

Das erste wöchentliche Backup erfolgte am 4. Januar 2020. Die Termine für die ersten 10 wöchentlichen Backups sind:
* 4. Januar 2020
* 11. Januar 2020
* 18. Januar 2020
* 25. Januar 2020
* 1. Februar 2020
* 8. Februar 2020
* 15. Februar 2020
* 22. Februar 2020
* 29. Februar 2020
* 7. März 2020
Verwenden Sie die Dropdown-Menüs, um die Antwortmöglichkeit auszuwählen, die jede Aussage basierend auf den in der Grafik dargestellten Informationen vervollständigt.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:

Explanation:
Sie haben eine verwaltete Azure SQL-Datenbank-Instanz.
Bei der Instanz treten Leistungsprobleme auf.
Sie müssen ermitteln, welche Abfrage das Problem verursacht, und den Ausführungsplan für die Abfrage abrufen. Die Lösung muss den administrativen Aufwand minimieren.
Was sollten Sie verwenden?

解説: (GoShiken メンバーにのみ表示されます)
Sie haben einen Apache Spark-Pool von Azure Synapse Analytics mit dem Namen „Pool1“.
Sie planen, JSON-Dateien aus einem Azure Data Lake Storage Gen2-Container in die Tabellen in Pool1 zu laden. Die Struktur und die Datentypen variieren je nach Datei.
Sie müssen die Dateien in die Tabellen laden. Die Lösung muss die Quelldatentypen verwalten.
Was tun?

解説: (GoShiken メンバーにのみ表示されます)
Sie müssen das event_file-Ziel für die Überwachung von DB3 nach der Migration zur Azure SQL-Datenbank identifizieren. Die Lösung muss die Verwaltungsanforderungen erfüllen.
Was sollten Sie als event_file-Ziel verwenden?

Sie verfügen über eine Datenbank auf einer SQL Server-Instanz einer Azure Virtual Machines.
Der aktuelle Status des Query Store für die Datenbank wird in der folgenden Abbildung dargestellt.


正解:

Explanation:
Sie müssen eine Azure Data Factory-Pipeline auslösen, wenn eine Datei in einem Azure Data Lake Storage Gen2-Container ankommt.
Welchen Ressourcenanbieter sollten Sie aktivieren?

解説: (GoShiken メンバーにのみ表示されます)
Sie verfügen über einen Azure Data Lake Storage Gen2-Container.
Daten werden in den Container aufgenommen und dann von einer Datenintegrationsanwendung transformiert. Die Daten werden danach NICHT geändert. Benutzer können Dateien im Container lesen, aber nicht ändern.
Sie müssen eine Datenarchivierungslösung entwerfen, die die folgenden Anforderungen erfüllt:
* Auf neue Daten wird häufig zugegriffen und diese müssen schnellstmöglich zur Verfügung stehen.
* Auf Daten, die älter als fünf Jahre sind, wird selten zugegriffen, sie müssen aber bei Anforderung innerhalb einer Sekunde verfügbar sein.
* Auf Daten, die älter als sieben Jahre sind, wird NICHT zugegriffen. Nach sieben Jahren müssen die Daten mit möglichst geringem Aufwand erhalten bleiben.
* Die Kosten müssen bei gleichzeitiger Wahrung der erforderlichen Verfügbarkeit minimiert werden.
Wie sollen die Daten verwaltet werden? Zur Beantwortung wählen Sie im Antwortbereich die entsprechenden Optionen aus.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:

Explanation:

Box 1: Move to cool storage
The cool access tier has lower storage costs and higher access costs compared to hot storage. This tier is intended for data that will remain in the cool tier for at least 30 days. Example usage scenarios for the cool access tier include:
Short-term backup and disaster recovery
Older data not used frequently but expected to be available immediately when accessed Large data sets that need to be stored cost effectively, while more data is being gathered for future processing Note: Hot - Optimized for storing data that is accessed frequently.
Cool - Optimized for storing data that is infrequently accessed and stored for at least 30 days.
Archive - Optimized for storing data that is rarely accessed and stored for at least 180 days with flexible latency requirements, on the order of hours.
Box 2: Move to archive storage
Example usage scenarios for the archive access tier include:
Long-term backup, secondary backup, and archival datasets
Original (raw) data that must be preserved, even after it has been processed into final usable form Compliance and archival data that needs to be stored for a long time and is hardly ever accessed Reference:
https://docs.microsoft.com/en-us/azure/storage/blobs/storage-blob-storage-tiers
Sie haben eine lokale mehrschichtige Anwendung namens App1, die eine Webschicht, eine Anwendungsschicht und eine Microsoft SQL Server-Schicht umfasst. Alle Ebenen werden auf virtuellen Hyper-V-Maschinen ausgeführt.
Ihr neuer Notfallwiederherstellungsplan erfordert, dass alle geschäftskritischen Anwendungen in Azure wiederhergestellt werden können.
Sie müssen eine Lösung für das Failover der Datenbankebene von App1 zu Azure empfehlen. Die Lösung muss die Möglichkeit bieten, ein Failover zu Azure zu testen, ohne die aktuelle Umgebung zu beeinträchtigen.
Was sollten Sie in die Empfehlung aufnehmen?

解説: (GoShiken メンバーにのみ表示されます)
Sie konfigurieren die Versionskontrolle für eine Azure Data Factory-Instanz wie in der folgenden Abbildung gezeigt.

Verwenden Sie die Dropdown-Menüs, um die Antwortmöglichkeit auszuwählen, die jede Aussage basierend auf den in der Grafik dargestellten Informationen vervollständigt.
HINWEIS: Jede richtige Auswahl ist einen Punkt wert.
正解:

Explanation:

Box 1: adf_publish
By default, data factory generates the Resource Manager templates of the published factory and saves them into a branch called adf_publish. To configure a custom publish branch, add a publish_config.json file to the root folder in the collaboration branch. When publishing, ADF reads this file, looks for the field publishBranch, and saves all Resource Manager templates to the specified location. If the branch doesn't exist, data factory will automatically create it. And example of what this file looks like is below:
{
"publishBranch": "factory/adf_publish"
}
Box 2: /dwh_barchlet/ adf_publish/contososales
RepositoryName: Your Azure Repos code repository name. Azure Repos projects contain Git repositories to manage your source code as your project grows. You can create a new repository or use an existing repository that's already in your project.
Reference:
https://docs.microsoft.com/en-us/azure/data-factory/source-control
Hinweis: Diese Frage ist Teil einer Reihe von Fragen, die dasselbe Szenario darstellen. Jede Frage in der Reihe enthält eine einzigartige Lösung, die die angegebenen Ziele erfüllen könnte. Einige Fragensätze haben möglicherweise mehr als eine richtige Lösung, während andere möglicherweise keine richtige Lösung haben.
Nachdem Sie eine Frage in diesem Abschnitt beantwortet haben, können Sie NICHT mehr dorthin zurückkehren. Daher werden diese Fragen nicht auf dem Überprüfungsbildschirm angezeigt.
Sie haben ein Azure Data Lake Storage-Konto, das eine Stagingzone enthält.
Sie müssen einen täglichen Prozess entwerfen, um inkrementelle Daten aus der Stagingzone aufzunehmen, die Daten durch Ausführen eines R-Skripts zu transformieren und dann die transformierten Daten in ein Data Warehouse in Azure Synapse Analytics einzufügen.
Lösung: Sie verwenden einen Azure Data Factory-Zeitplanauslöser, um eine Pipeline auszuführen, die ein Azure Databricks-Notebook ausführt und dann die Daten in das Data Warehouse einfügt.
Erreicht dies das Ziel?

Sie verfügen über eine Azure SQL-Datenbank, die eine Tabelle mit dem Namen „Customer“ enthält. „Customer“ weist die in der folgenden Tabelle angezeigten Spalten auf.

Sie planen, eine dynamische Datenmaske für die Spalte Customer_Phone zu implementieren. Die Maske muss die folgenden Anforderungen erfüllen:
* Die ersten sechs Ziffern der Telefonnummer jedes Kunden müssen maskiert werden.
* Die letzten vier Ziffern der Telefonnummer jedes Kunden müssen sichtbar sein.
* Bindestriche müssen erhalten bleiben und angezeigt werden.
Wie sollten Sie die dynamische Datenmaske konfigurieren? Wählen Sie zur Beantwortung die entsprechenden Optionen im Antwortbereich aus.
正解:

Explanation:

Box 1: 0
Custom String : Masking method that exposes the first and last letters and adds a custom padding string in the middle. prefix,[padding],suffix Box 2: xxx-xxx Box 3: 5 Reference:
https://docs.microsoft.com/en-us/sql/relational-databases/security/dynamic-data-masking