A. 各データエントリを主キーとして個別のデータベースに保存し、インデックスを適用します。
B. 各データエントリにグローバル一意識別子(GUID)を割り当てます。
C. 各データエントリのハッシュ値とその他のメタデータを格納するデータベーステーブルを維持します。
D. 各データエントリのハッシュ値を計算し、それをすべての履歴データと比較します。
A. データを変換するtry ... catchブロックをDoFnに追加し、sideOutputを使用して、後でPubSubに保存できるPCollectionを作成します。
B. データを変換するtry ... catchブロックをDoFnに追加し、誤った行をDoFnから直接PubSubに書き込みます。
C. フィルタリング手順を追加して、将来これらのタイプのエラーをスキップし、ログからエラーのある行を抽出します。
D. データを変換するtry ... catchブロックをDoFnに追加し、ログから誤った行を抽出します。
A. Cloud Functions インスタンスを作成し、可視化クエリの結果を parquet ファイルとして Cloud Storage バケットにエクスポートします。Cloud Scheduler を使用して、4 時間ごとに Cloud Functions をトリガーします。参照: データ可視化ツールの parquet ファイル。
B. 視覚化クエリの allow_non_incremental_definition オプションを true に設定して、マテリアライズド ビューを作成します。max_3taleness パラメータを 4 時間に、enable_refresh パラメータを true に指定します。参照: データ視覚化ツールのマテリアライズド ビュー。
C. 視覚化クエリのマテリアライズド ビューを作成します。BigQuery マテリアライズド ビューの増分更新機能を使用して、変更されたデータを自動的に処理します。参照: データ視覚化ツールのマテリアライズド ビュー。
D. 視覚化クエリのビューを作成します。参照: データ視覚化ツールのビュー。
A. ストリーミングデータでBigQueryBIEngineを使用します。
B. 論理的なレビューでBigQueryBlEngineを使用する
C. マテリアライズドビューでBigQueryBIEngineを使用する
D. 承認されたビューでBigQueryBlEngineを使用する
A. Google Cloud Dataflowバッチパイプラインを実行してデータをBigQueryにインポートし、分析のためにエラーを別の配信不能テーブルにプッシュします。
B. Google StackdriverでBigQueryモニタリングを有効にして、アラートを作成します。
C. gcloud CLIを使用してデータをBigQueryにインポートし、max_bad_recordsを0に設定します。
D. 連合データソースを使用し、SQLクエリのデータを確認します。
A. サブネットワークでプライベート Google アクセスが有効になっていることを確認します。内部 IP アドレスのみで Dataflow を使用します。
B. ワーカーに Cloud Storage と BigQuery にアクセスするためのネットワーク タグがあることを確認します。Dataflow は内部 IP アドレスのみで使用します。
C. ファイアウォール ルールで Cloud Storage と BigQuery へのアクセスが許可されていることを確認します。Dataflow は内部 IP のみで使用します。
D. VPC ネットワークを含む VPC Service Controls 境界を作成し、境界内で許可されるサービスとして Dataflow、Cloud Storage、BigQuery を追加します。Dataflow は内部 IP アドレスのみで使用します。
A. ジョブ内の大量のデータインスタンスを処理し、より複雑なモデルを実行するように最適化されています。
B. 予測を提供する待ち時間を最小限に抑えるように最適化されています。
C. 予測は、指定したCloudStorageの場所にある出力ファイルに書き込まれます。
D. 予測が応答メッセージで返されます。
A. バッチデータパイプラインとストリーミングデータパイプラインの両方
B. 上記のいずれでもない
C. バッチデータパイプラインのみ
D. ストリーミングデータパイプラインのみ
A. ロールごとにテーブルへのアクセスを制限します。
B. BigQueryAPIアクセスを承認されたユーザーに制限します。
C. データが常に暗号化されていることを確認してください。
D. 特定のテーブルへの書き込みを無効にします。
E. 複数のテーブルまたはデータベース間でデータを分離します。
F. Google Stackdriver AuditLoggingを使用してポリシー違反を特定します。
A. ウォーターマークを使用して、予想されるデータ到着ウィンドウを定義します。遅延データの到着を許可します。
B. ホッピング ウィンドウを拡張して、遅いデータがグループ内に到着するまでの時間を長くします。
C. ウィンドウ期間の重複を避けるために、ウィンドウ関数をタンブリング ウィンドウに変更します。
D. ウィンドウ関数をセッション ウィンドウに変更して、特定のアクティビティに基づいてウィンドウを定義します。
A. 正常なサンプルと比較して突然変異の発生は非常に少ないです。
B. データベースには、正常なサンプルと変異したサンプルの両方がほぼ同じように出現します。
C. 将来の変異には、データベース内の変異したサンプルと同様の機能があると予想されます。
D. 将来の変異には、データベース内の変異したサンプルとは異なる機能があると予想されます。
E. サンプルが変更され、データベース内で正常なラベルが既にあります。
A. カスタムエンドポイントが確認期限内にメッセージを確認していません。
B. カスタムエンドポイントに古いSSL証明書があります。
C. センサーイベントのメッセージ本文が大きすぎます。
D. Cloud Pub / Subトピックには、公開されているメッセージが多すぎます。
A. データを BigQuery に読み込み、SQL を使用して必要に応じてデータを変換します。データ サイエンス チームが生データを探索するためのステージング テーブルにアクセスできるようにします。
B. データ サイエンス チームに Dataflow へのアクセスを提供し、生データを準備して検証し、データ探索のために BigQuery にデータを読み込むためのパイプラインを作成します。
C. Cloud Storage 内のデータを準備、検証、探索するために、データ サイエンス チームに Dataprep へのアクセスを提供します。
D. BigQuery で外部テーブルを作成し、必要に応じて SQL を使用してデータを変換します。データ サイエンス チームが生データを調査するために外部テーブルにアクセスできるようにします。
A. Storage Transfer Service を使用して、オフサイト バックアップ ファイルを最終的な宛先として Cloud Storage のリージョン バケットに転送します。
B. Storage Transfer Service を使用して、オフサイト バックアップ ファイルを最終的な宛先として Cloud Storage Multi-Regional ストレージ バケットに転送します。
C. BigQuery Data Transfer Service を使用して、オフサイト バックアップ ファイルを最終的な宛先として Cloud Storage Multi-Regional ストレージ バケットに転送します。
D. BigQuery Data Transfer Serviceを使用して、オフサイトバックアップファイルをCloud Storage Regionalに転送します。