Google Cloud 問題集 日本語版 本試験そっくり 予想的中問題 Google Professional Data Engineer

通常価格 ¥3,980

税込 配送料は購入手続き時に計算されます。

Google Cloud Professional Data Engineer 問題集


Google Professional Data Engineer

日本語版

164設問数

 

本問題集はベンダー試験の過去の出題傾向を踏まえて作成されています。

IT認定試験は大多数が4択形式の設問となっています。

一般の公式テキスト、参考書、赤本などでは網羅されていない過去問を効果的に学習することにより、極めて短期間で資格認定試験に合格が可能になります。

一般の書店の書籍とことなり、本問題集はお支払い後、すぐにダウンロードしていただき、学習を開始していただけます。

紙媒体とことなり、本問題集は電子フォーマットとなっておりますので、PCラップトップ、タブレット、スマートフォンなど、時・場所に左右されることなく学習ができます。

多くの方から本番試験の合格のご報告を頂戴しています。

 

 

無料サンプル問題

出題:1
あなたの会社は、多数のニューロンとレイヤーを備えたTensorFlowニュートラルネットワークモデルを構築しました。モデルはトレーニングデータによく適合します。ただし、新しいデータに対してテストすると、パフォーマンスが低下します。これに対処するためにどのような方法を採用できますか?

(A). スレッド化
(B). シリアル化
(C). ドロップアウト方法
(D). 次元削減



解答:C




出題:2
あなたは服の推奨をするためのモデルを構築しています。ユーザーのファッションの好みは時間の経過とともに変化する可能性が高いことがわかっているため、データパイプラインを構築して、新しいデータが利用可能になったときにモデルにストリーミングします。このデータをどのように使用してモデルをトレーニングする必要がありますか?

(A). 新しいデータのみでモデルを継続的に再トレーニングします。
(B). 既存のデータと新しいデータの組み合わせでモデルを継続的に再トレーニングします。
(C). 新しいデータをテストセットとして使用しながら、既存のデータをトレーニングします。
(D). テストセットとして既存のデータを使用しながら、新しいデータをトレーニングします。



解答:B




出題:3
3つの診療所の数百人の患者を対象とするパイロットプロジェクトとして、患者記録のデータベースを設計しました。設計では、単一のデータベーステーブルを使用してすべての患者とその訪問を表し、自己結合を使用してレポートを生成しました。サーバーリソースの使用率は50%でした。それ以来、プロジェクトの範囲は拡大しました。データベースには、100倍以上の患者記録を保存する必要があります。レポートに時間がかかりすぎるか、計算リソースが不十分なためにエラーが発生したため、レポートを実行できなくなりました。データベース設計をどのように調整する必要がありますか?

(A). データベースサーバーに200のオーダーで容量(メモリとディスクスペース)を追加します。
(B). 日付範囲に基づいてテーブルを小さいテーブルに分割し、事前に指定された日付範囲のレポートのみを生成します。
(C). マスター患者記録テーブルを患者テーブルと訪問テーブルに正規化し、自己結合を回避するために他の必要なテーブルを作成します。
(D). テーブルを小さなテーブルに分割し、クリニックごとに1つずつ配置します。小さいテーブルペアに対してクエリを実行し、統合レポートに共用体を使用します。



解答:C




出題:4
大規模なチーム向けの重要なレポートをGoogleData Studio 360で作成します。レポートでは、データソースとしてGoogleBigQueryを使用します。ビジュアライゼーションに1時間未満のデータが表示されていないことがわかります。あなたは何をするべきですか?

(A). レポート設定を編集して、キャッシュを無効にします。
(B). テーブルの詳細を編集して、BigQueryのキャッシュを無効にします。
(C). ビジュアライゼーションを表示しているブラウザタブを更新します。
(D). 過去1時間のブラウザの履歴をクリアしてから、仮想化を表示しているタブを再読み込みします。



解答:A




出題:5
外部のクライアントは、データベースからのデータの毎日のダンプを提供します。データは、カンマ区切り値(CSV)ファイルとしてGoogle Cloud StorageGCSに流れ込みます。このデータをGoogleBigQueryで分析したいのですが、データの行が正しくフォーマットされていないか、破損している可能性があります。このパイプラインをどのように構築する必要がありますか?

(A). 連合データソースを使用し、SQLクエリのデータを確認します。
(B). Google StackdriverでBigQueryモニタリングを有効にして、アラートを作成します。
(C). gcloud CLIを使用してデータをBigQueryにインポートし、max_bad_recordsを0に設定します。
(D). Google Cloud Dataflowバッチパイプラインを実行してデータをBigQueryにインポートし、分析のためにエラーを別のデッドレターテーブルにプッシュします。



解答:D




出題:6
天気アプリは15分ごとにデータベースにクエリを実行して、現在の気温を取得します。フロントエンドは、Google AppEngineとサーバーの数百万のユーザーによって強化されています。データベース障害に対応するためにフロントエンドをどのように設計する必要がありますか?

(A). コマンドを発行して、データベースサーバーを再起動します。
(B). 15分の上限まで、指数バックオフでクエリを再試行します。
(C). データの古さを最小限に抑えるために、クエリがオンラインに戻るまで1秒ごとに再試行してください。
(D). データベースがオンラインに戻るまで、クエリの頻度を1時間に1回に減らします。



解答:B




出題:7
住宅価格を予測するモデルを作成しています。予算の制約により、リソースに制約のある単一の仮想マシンで実行する必要があります。どの学習アルゴリズムを使用する必要がありますか?

(A). 線形回帰
(B). ロジスティック分類
(C). リカレントニューラルネットワーク
(D). フィードフォワードニューラルネットワーク



解答:A




出題:8
会社用に新しいリアルタイムデータウェアハウスを構築しており、GoogleBigQueryストリーミングインサートを使用します。データが1回だけ送信されるという保証はありませんが、データの各行に一意のIDとイベントのタイムスタンプがあります。データをインタラクティブにクエリするときに、重複が含まれないようにする必要があります。どのクエリタイプを使用する必要がありますか?

(A). タイムスタンプ列にORDERBY DESKを含め、1に制限します。
(B). 一意のID列とタイムスタンプ列にGROUPBYを使用し、値にSUMを使用します。
(C). WHERE LAG IS NOT NULLとともに、一意のIDによるPARTITIONでLAGウィンドウ関数を使用します。
(D). 一意のIDによるPARTITIONとWHERE行が1に等しいROW_NUMBERウィンドウ関数を使用します。



解答:D

出題:10
あなたの会社は厳しく規制された業界にいます。要件の1つは、個々のユーザーが自分の仕事を行うために必要な最小限の情報にのみアクセスできるようにすることです。この要件をGoogleBigQueryで適用する必要があります。どの3つのアプローチを取ることができますか?(3つ選択してください。)

(A). 特定のテーブルへの書き込みを無効にします。
(B). ロールごとにテーブルへのアクセスを制限します。
(C). データが常に暗号化されていることを確認してください。
(D). BigQueryAPIアクセスを承認されたユーザーに制限します。
(E). 複数のテーブルまたはデータベースにまたがってデータを分離します。
(F). Google Stackdriver Audit Loggingを使用して、ポリシー違反を特定します。



解答:B、D、F




出題:11
あなたはeコマース会社のバスケット放棄システムを設計しています。システムは、次のルールに基づいてユーザーにメッセージを送信します。サイト上でユーザーが1時間対話しない。30ドル以上の商品をバスケットに追加しました。トランザクションが完了していませんGoogleCloud Dataflowを使用してデータを処理し、メッセージを送信するかどうかを決定します。パイプラインをどのように設計する必要がありますか?

(A). 60分の期間の固定時間ウィンドウを使用します。
(B). 60分のスライディングタイムウィンドウを使用します。
(C). ギャップ時間が60分のセッションウィンドウを使用します。
(D). 60分の遅延のある時間ベースのトリガーを持つグローバルウィンドウを使用します。



解答:C




出題:12
あなたの会社は、さまざまなクライアントのデータ処理を処理しています。各クライアントは、独自の分析ツールスイートを使用することを好みます。一部のクライアントは、GoogleBigQueryを介した直接クエリアクセスを許可します。クライアントが互いのデータを見ることができないように、データを保護する必要があります。データへの適切なアクセスを確保する必要があります。あなたはどの3つのステップを踏むべきですか?(3つ選択してください。)

(A). 異なるパーティションにデータをロードします。
(B). クライアントごとに異なるデータセットにデータをロードします。
(C). 各クライアントのBigQueryデータセットを異なるテーブルに配置します。
(D). クライアントのデータセットを承認されたユーザーに制限します。
(E). サービスアカウントにのみデータセットへのアクセスを許可します。各クライアントのユーザーに適切なIDおよびアクセス管理(IAM)の役割を使用する場合。



解答:B、D、F




出題:13
Google CloudPlatformで実行されるPOSアプリケーションで支払いトランザクションを処理するとします。ユーザーベースは指数関数的に増加する可能性がありますが、インフラストラクチャのスケーリングを管理する必要はありません。どのGoogleデータベースサービスを使用する必要がありますか?

(A). クラウドSQL
(B). BigQuery
(C). Cloud Bigtable
(D). クラウドデータストア



解答:A




出題:14
組織サンプルに関する情報のデータベースを使用して、将来の組織サンプルを正常または変異として分類する必要があります。組織サンプルを分類するための教師なし異常検出方法を評価しています。この方法をサポートする2つの特性はどれですか?(2つ選択してください。)

(A). 正常なサンプルと比較して、突然変異の発生はほとんどありません。
(B). データベースには、正常なサンプルと変異したサンプルの両方がほぼ同じように出現します。
(C). 将来の変異には、データベース内の変異したサンプルとは異なる機能があると予想されます。
(D). 将来の変異には、データベース内の変異したサンプルと同様の機能があると予想されます。
(E). サンプルが変異し、データベース内で正常なラベルがすでにあります。



解答:B、C




出題:15
ソーシャルメディアの投稿をGoogleBigQueryに保存し、ほぼリアルタイムで1分あたり10,000メッセージの割合で分析する必要があります。最初に、個々の投稿にストリーミング挿入を使用するようにアプリケーションを設計します。アプリケーションは、ストリーミング挿入の直後にデータ集約も実行します。ストリーミング挿入後のクエリは強い一貫性を示さず、クエリからのレポートは処理中のデータを見逃す可能性があることがわかりました。アプリケーションの設計をどのように調整できますか?

(A). 蓄積されたデータを2分ごとにロードするようにアプリケーションを書き直します。
(B). ストリーミング挿入コードを個々のメッセージのバッチロードに変換します。
(C). 元のメッセージをGoogleCloud SQLに読み込み、ストリーミング挿入を介して1時間ごとにテーブルをBigQueryにエクスポートします。
(D). ストリーミング挿入後のデータ可用性の平均レイテンシを見積もり、2倍の時間待機した後は常にクエリを実行します。



解答:D




出題:16
あなたのスタートアップは正式なセキュリティポリシーを実装したことがありません。現在、社内の全員がGoogleBigQueryに保存されているデータセットにアクセスできます。チームは、適切と思われるサービスを自由に使用でき、ユースケースを文書化していない。データウェアハウスを保護するように求められました。あなたは誰もが何をしているのかを発見する必要があります。あなたは最初に何をするべきですか?

(A). Google Stackdriver監査ログを使用して、データアクセスを確認します。
(B). 各テーブルのIDおよびアクセス管理(IAM)ポリシーを取得します
(C). Stackdriver Monitoringを使用して、BigQueryクエリスロットの使用状況を確認します。
(D). Google Cloud Billing APIを使用して、ウェアハウスに請求されるアカウントを確認します



解答:A




出題:17
あなたの会社は、30ノードのApacheHadoopクラスターをクラウドに移行しています。彼らは、すでに作成したHadoopジョブを再利用し、クラスターの管理を可能な限り最小限に抑えたいと考えています。また、クラスターの存続期間を超えてデータを永続化できることも望んでいます。あなたは何をするべきですか?

(A). Google CloudDataflowジョブを作成してデータを処理します。
(B). HDFSに永続ディスクを使用するGoogleCloudDataprocクラスターを作成します。
(C). 永続ディスクを使用するHadoopクラスターをGoogleComputeEngineで作成します。
(D). Google CloudStorageコネクタを使用するCloudDataprocクラスタを作成します。
(E). ローカルSSDディスクを使用するHadoopクラスターをGoogleComputeEngineで作成します。



解答:D




出題:18
あなたの会社の事業主はあなたに銀行取引のデータベースを与えました。各行には、ユーザーID、トランザクションタイプ、トランザクションの場所、およびトランザクション量が含まれます。データに適用できる機械学習の種類を調査するように求められます。どの3つの機械学習アプリケーションを使用できますか?(3つ選択してください。)

(A). どのトランザクションが不正である可能性が最も高いかを判断するための教師あり学習。
(B). どのトランザクションが不正である可能性が最も高いかを判断するための教師なし学習。
(C). 特徴の類似性に基づいてトランザクションをN個のカテゴリに分割するクラスタリング。
(D). トランザクションの場所を予測するための教師あり学習。
(E). トランザクションの場所を予測するための強化学習。
(F). トランザクションの場所を予測するための教師なし学習。



解答:B、C、E




出題:19
あなたの会社のオンプレミスのApacheHadoopサーバーはサポート終了に近づいており、IT部門はクラスターをGoogle CloudDataprocに移行することを決定しました。クラスタの同様の移行には、ノードごとに50TBのGoogle永続ディスクが必要になります。CIOは、それだけのブロックストレージを使用するコストを懸念しています。移行のストレージコストを最小限に抑える必要があります。あなたは何をするべきですか?

(A). データをGoogleCloudStorageに配置します。
(B). Cloud Dataprocクラスターにプリエンプティブ仮想マシン(VM)を使用します。
(C). すべてのデータに十分なディスクが存在するように、CloudDataprocクラスターを調整します。
(D). コールドデータの一部をGoogleCloud Storageに移行し、ホットデータのみを永続ディスクに保持します。



解答:A




出題:20
あなたは自動車メーカーで働いており、Google Cloud Pub / Subを使用してデータパイプラインを設定して異常なセンサーイベントをキャプチャしました。Cloud Pub / Subでプッシュサブスクリプションを使用しており、作成したカスタムHTTPSエンドポイントを呼び出して、これらの異常なイベントが発生したときにアクションを実行します。カスタムHTTPSエンドポイントは、膨大な量の重複メッセージを取得し続けます。これらの重複メッセージの最も可能性の高い原因はどれですか?

(A). センサーイベントのメッセージ本文が大きすぎます。
(B). カスタムエンドポイントに古いSSL証明書があります。
(C). Cloud Pub / Subトピックには、公開されているメッセージが多すぎます。
(D). カスタムエンドポイントは、確認期限内にメッセージを確認していません。



解答:B