DP-700 試験対策リンク集(全108問)
Examtopics DP-700の問題リンク&解説
📑 問題一覧
▶ Q1 の問題を見る
解説を表示
この問題はデータエンジニアリングの業務に関するもので、PythonやSQLを使用してデータの収集、変換、ロードを行うデータエンジニアのチームについて説明しています。また、異なるシステムからのデータの取り扱いについても触れています。これらのシステムにはSQL Serverを使用したPOSシステムと、REST APIを通じてデータをエクスポートできるオンラインマーケティングアプリケーションが含まれています。
▶ Q2 の問題を見る
解説を表示
この問題はセミ構造化データをT-SQL、KQL、Apache Sparkを使用して読み込むためにどのストレー ジを使用するべきかに関するもので、最適な選択肢はイベントハウスです。理由はイベントハウスだけがKQLをサポートしているからです。
▶ Q3 の問題を見る
解説を表示
この問題はデータをDatabase1からWarehouse1にコピーする方法に関するもので、最適な選択肢はデータパイプラインです。理由は、ノートブックはゲートウェイを経由できず、KQLはSQLデータベースには適していないためです。また、Gen1データフローは既に廃止されています。データパイプラインはデータゲートウェイを経由して動作します。
▶ Q4 の問題を見る
解説を表示
この問題はデータベースからデータウェアハウスへのデータコピーに関するも ので、最適な選択肢はBの「データパイプライン」です。理由は、ノートブックとイベントストリームはゲートウェイを介して操作できず、Gen1 データフローは非推奨であるため、データゲートウェイを介して動作するデータパイプラインが適切だからです。
▶ Q5 の問題を見る
解説を表示
この問題はレポートのパフォーマンス問題をどのように解決するかについてのもので、最適な選 択肢は「V-Orderを有効にする」です。理由は、V-Orderを有効にすることでクエリパフォーマンスが最大化され、運用コストも最小化できるからです。
▶ Q6 の問題を見る
解説を表示
この問題はデータの集計に関するもので、最適な選択肢はAです。理由は、要求されているのが年ごと、製品ごとの注文量の集計と、全製品の年次レベルでの注文量の集計であり、それを実現するためのSQLクエリが選択肢Aに示されているからです。
▶ Q7 の問題を見る
解説を表示
この問題はデータの準備とディメンションテーブルの設計に関するもので、最適な選択 肢はProductName、ProductColor、ProductID(B、C、F)です。理由はディメンションテーブルは通常、製品やカテゴリなどの属性情報を格納するため、製品名、製品色、製品IDはディメンションテ ーブルに含めるべきカラムです。
▶ Q8 の問題を見る
解説を表示
この問題はApache Sparkセッションの共有に関するもので、最適な選択肢は「ノート ブックの高並行処理を有効にする」です。同一のApache Sparkセッションを複数のノートブックで共有するためには、ノートブックの高並行処理を有効にする必要があるからです。
▶ Q9 の問題を見る
解説を表示
この問題はデータエンジニアのアクセス許可管理に関するもので、最適な選択肢はD、E、Fです。理由は、データエンジニアがCustomerテーブルにデータを書き込むためには、Workspace1に対するContributorロールが必要であり、Employeeテーブルからのデータの読み取りを避けるためには、Employeeテーブルを別のLakehouseに移行し、新しいWorkspaceとLakehouseを作成する必要があるからです。
▶ Q10 の問題を見る
解説を表示
この問題はロウレベルセキュリティ(RLS)の実装に関するもので、最適な選択肢はFUNCTIONです。理由は、Fabric倉庫のようなDW1でロウレベルセキュリティ(RLS)を実装するためには、関数を使用する必要があるからです。
▶ Q11 の問題を見る
解説を表示
この問題は、Microsoft Fabric のデプロイメントパイプラインを使用して Workspace1_DEV から Workspace1_TEST へアイテムを移行する際の挙動に関するものです。最適な選択肢は以下の通りです:1) セマンティックモデルのデータは移行されず、メタデータのみが移行されるため、ターゲット環境でのデータ更新が必要です。2) Dataflow Gen1 はデプロイメントパイプラインでサポートされておらず、移行されません。3) スケジュールされた更新ポリシーは移行されないため、ターゲット環境で再設定が必要です。理由は、Microsoft Fabric のデプロイメントパイプラインでは、アイテムのメタデータのみが移行対象であり、データやスケジュール設定などのプロパティは含まれないためです。
▶ Q12 の問題を見る
解説を表示
この問題はデプロイメントプロセスにイベントハウスを追加する方法に関して問う ています。最適な選択肢は「デプロイメントパイプライン」です。理由は、Microsoft Fabricでは、デプロイメントパイプラインがアーティファクト(イベントハウス、レイクハウス、データセット、レポートなど)の管理とデプロイメントにおける推奨された組み込みの方法であるからです。
▶ Q13 の問題を見る
解説を表示
この問題はワークスペース間でのデプロイメントと無効な参照の確認に関する もので、最適な選択肢はデプロイメントパイプラインです。開発努力を最小限に抑えるためには、デプロイメントパイプラインを使用するのが最適です。
▶ Q14 の問題を見る
解説を表示
この問題はFabricワークスペースとOneLakeのデータ可視性に関するもので、最適な選 択肢は「イベントハウスに追加された新しいデータのみ」です。理由は、OneLakeの可用性をイベントハウスに対して有効にすると、新規に追加されたデータのみがOneLakeにコピーされるためです。
▶ Q15 の問題を見る
解説を表示
この問題はAzure DevOpsとFabricの間でAPI認証を設定する方法に関するもので、最適な選択肢 はサービスプリンシパルです。理由はAzureでの認証にはサービスプリンシパルが一般的に使用されるからです。
▶ Q16 の問題を見る
解説を表示
この問題はショートカットからデータを読み取る際に、どのショート カットがキャッシュからデータを取得するかについて問うています。最適な選択肢は「Stores and Products only(C)」です。理由は、Fabric workspaceにキャッシュが有効化されており、そこ からデータを読み込むショートカットがStoresとProductsだけであるからです。
▶ Q17 の問題を見る
解説を表示
この問題はApache Sparkジョブが公開インターネットアクセスが無効化されたAzure SQLデータベースへのアクセスを確保する方法に関するもので、最適な選択肢は「管理されたプライベートエンドポイント」で す。理由はAzure SQLデータベースが公開インターネットアクセスを禁止しているため、プライベートネットワークからのみアクセス可能なエンドポイントを作成する必要があるからです。
▶ Q18 の問題を見る
解説を表示
この問題はAzure Data Lake Storage Gen2とAmazon S3バケットに関連したショートカットによるキャッシュからのデータ取得について問われています。最適な選択肢は「Stores only」です。理由は、Fabric workspaceのキャッシュが有効になっていて、その中に存在するLakehouse1がStoresへのショートカットを持っているからです。
▶ Q19 の問題を見る
解説を表示
この問題はFabricワークスペースにおけるアイテムの実行設定に関するもので、最適な 選択肢は次の通りです。Notebook1は平日の毎日午前8時に実行されるよう設定し、Notebook2はAzure Blob Storageコンテナにファイルが保存されたときに実行されるよう設定します。そして、Model1はNotebook1が成功したときにリフレッシュされるように設定します。
▶ Q20 の問題を見る
解説を表示
この問題はワークスペースのドメイン戦略とロールアサインに関するもので、最適な 選択肢はDのFabric adminです。理由は、新たなドメインを作成し、そこにサブドメインを作成、特定のワークスペースをサブドメインに割り当てるという一連の操作を行うにはFabric adminの権 限が必要だからです。
▶ Q21 の問題を見る
解説を表示
この問題はWorkspace1にUser3を追加し、User3がWorkspace1内の全項目を閲覧し、DW1のテーブルを更新できるようにすることに関しています。最適な選択肢はContributor(D)です。理由は、このロールが最小特権の原則に従い、必要な操作を許可するためです。
▶ Q22 の問題を見る
解説を表示
この問題はユーザーへのデータアクセス設定に関するもので、最適な選択肢は「A. Share Lakehouse1 with User1 directly and select Read all SQL endpoint data」です。理由は、User1にLakehouse1のテーブルデータへの読み取りアクセスを提供し、Apache Sparkを使った基礎ファイルへの クエリを防止する要件を満たすためです。
▶ Q23 の問題を見る
解説を表示
この問題は各データエンティティの用途に基づいてエンドースメントバッジを適 用する方法に関するものです。具体的なバッジの選択肢が示されていないため、それぞれのエンティティの役割に基づいて適切なバッジを選ぶ必要があります。
▶ Q24 の問題を見る
解説を表示
この問題はワークスペースとドメインのセキュリティ設定に関するもので、ドメインの 権限はワークスペース自体の権限に影響を与えないという事実を確認します。つまり、ドメインの貢献者であるだけではワークスペース自体の権限は得られず、ワークスペースのロールは別途設定する必要があります。
▶ Q25 の問題を見る
解説を表示
この問題はWorkspace1からWorkspace2へのアイテムのデプロイに関するもので、最適な 選択肢はDです。理由は、Workspace1とWorkspace2の間で名前が同じアイテムが既にペアリングされており、Workspace1のアイテムをWorkspace2の対応するアイテムに上書きする必要があるからで す。アイテムを削除したり、名前を変更したりする手間を省くためには、Workspace2のアイテムを変更せずにdeployPipeline1を実行するのが最適です。
▶ Q26 の問題を見る
解説を表示
この問題はデプロイメントパイプラインを使用してワークスペースを再 構成する際の挙動について問うています。最適な選択肢はAです。ワークスペース1がワークスペース2にデプロイされる際、新たに作成されたフォルダ1が作成され、パイプライン1がそのフォルダ1に移動し、さらにレイクハウス1もデプロイされます。
▶ Q27 の問題を見る
解説を表示
この問題はPythonライブラリの再利用に関するもので、最適な選択肢は「環 境を作成」から「ライブラリをインストール」までの手順です。理由は、新規のノートブックでもライブラリがデフォルトで利用可能にするためには、これらの手順が必要だからです。
▶ Q28 の問題を見る
解説を表示
この問題はParquetファイルの統合に関するもので、最適な選択肢は「OPTIMIZE」です。理 由は、OPTIMIZEコマンドはデルタテーブルの下層のParquetファイルを統合するために使用されるからです。
▶ Q29 の問題を見る
解説を表示
この問題は特定のアイテムがどのワークスペースで実行されているか を特定する方法に関して問われています。最適な選択肢はGのLocationです。理由は、Locationがワークスペースを示すからです。
▶ Q30 の問題を見る
解説を表示
この問題はノートブックが実行された際にどのデルタのバージョンが使用されたかを特定する方法に関するも ので、最適な選択肢はFabric Monitorです。理由は、Fabric Monitorの詳細セクションでノートブックのランタイム情報を確認できるからです。
▶ Q31 の問題を見る
解説を表示
この問題はDimCustomerテーブルのCustomerkey列をプライマリキー として設定する方法に関するもので、最適な選択肢は「Alter table dbo.dimcustomer Add constraint PK_dimcustomer primary key nonclustered (customerkey) not enforced」です。理由は、PRIMARY KEYがNONCLUSTEREDとNOT ENFORCEDがともに使用される場合にのみサポートされるからです。
▶ Q32 の問題を見る
解説を表示
この問題はModel1の動的な実行とリフレッシュ進行状況の監視について問われて います。最適な選択肢は「ノートブック内のセマンティックリンク」です。その理由は、リアルタイムで実行と監視を行う「動的」の定義に最も適しているからです。
▶ Q34 の問題を見る
解説を表示
この問題はデータ変換とフィルタリングに関するもので、最適な選択肢は「B」です。理由は、提供されたコードが「Sands End」という地区で「No_Bikes」が少なくとも15あるデータを返す必要があるという要求を満たしていないからです。
▶ Q35 の問題を見る
解説を表示
この問題はデータ変換とフィルタリングに関するもので、最適な選択肢はAです。理由は、提供されたコードが指定された要件、すなわち「No_Bikes」が少なくとも15である「Sands End」という名前の地区のデータを返し、結果を「No_Bikes」の昇順で並べるための適切な変換とフィルタリングを適用 するからです。
▶ Q36 の問題を見る
解説を表示
この問題はデータの変換とフィルタリングに関するもので、最適な選択肢はAです。理由は、提供されたコードセグメントが要求された条件を満たすからです。具体的には、コードセグメントはデータを消費するための変換とフィルタリングを適用し、No_Bikesが少なくとも15の場合にSands Endとい う地名のデータを返します。また、結果はNo_Bikesの昇順で並べられます。
▶ Q37 の問題を見る
解説を表示
この問題はLitware社のデータフローとデータ処理に関するもので、データがどのようにERPシステムから取 り込まれ、それがどのように変換されるかについて問われています。また、データフローがどのように管理され、データがどの頻度で更新されるかについても問われています。これらの理解は、データエンジニアリングの観点から非常に重要です。
▶ Q38 の問題を見る
解説を表示
この問題はデータフローの管理と再利用に関するもので、最適な選択肢はデータフローを効率的に管理し 、適切なタイミングで再利用することです。理由は、企業のデータ管理と分析の効率を高めるためだからです。
▶ Q39 の問題を見る
解説を表示
この問題はAzure Key Vaultから登録されたアプリケーションIDとシークレットを取得する方法につい て問うもので、適切な選択肢はnotebookutils.credentials.getSecretを使用し、キーボールトのURLとキーボールトのシークレットを指定する方法です。この方法で認証トークンを生成することが可能です。
▶ Q40 の問題を見る
解説を表示
この問題はAzure KeyVaultから登録されたアプリケーションIDとシー クレットを取得する方法に関するもので、最適な選択肢は'B'です。理由は提案されたコードセグメントがKeyVaultからシークレットを取得するためのものではないからです。
▶ Q41 の問題を見る
解説を表示
この問題はAzureキーヴォールトから登録されたアプリケーションIDとシークレットを 取得して認証トークンを生成する方法に関するもので、最適な選択肢はB(No)です。理由は提案されたコードセグメントが目標を達成しないからです。
▶ Q42 の問題を見る
解説を表示
この問題はFabricノートブックと呼ばれるLoad_SalespersonとLoad_Ordersの実行順序について問うています。最適な選択肢は、成功したLoad_Salespersonの実行に依存するLoad_Ordersを実行することです。理由は、Load_OrdersがLoad_Salespersonの実行結果に依存しているからです。
▶ Q43 の問題を見る
解説を表示
この問題はクレジットカード属性の部分的な表示設定に関するもので、最適な選択肢は「ALTER / ALTER / PARTIAL」です。これは、テーブルを修正してクレジットカードの属性を部分的に表示するためのSQL文であるからです。
▶ Q44 の問題を見る
解説を表示
この問題はデータオーケストレーションパターンの構築 に関するもので、ForEachアクティビティがコピーするテーブルのリストを受け取るように設定する必要があります。最適な選択肢は「Lookup Schema and Table output.value」です。理由はパラ メータ化を使用せずにデータをコピーするために、ForEachアクティビティがコピーするテーブルのリストを受け取る設定が必要だからです。
▶ Q45 の問題を見る
解説を表示
この問題はデータマスキングに関するもので、最適な選択肢はBirthDateを1900-01-01に、EmailAddressを最初の文字と最後の5文字のみ表示する設定です。理由は、セキュリティ要件を満たすためです。
▶ Q46 の問題を見る
解説を表示
この問題はFabric内で認可できる項目に関するもので、最適な選択肢はLakehouse1、Model1、Report1のみです。理由はFabricではレポート、レイクハウス、セマンティックモデルを認可できるからです。
▶ Q47 の問題を見る
解説を表示
この問題はGitHubへのコードコミットに必要な権限に関するもので、最適な選択肢は「Contents (Read and write) only」です。理由は最小特権の原則に従い、コードをコミットするためには内容の読み書きが必要となるからです。
▶ Q48 の問題を見る
解説を表示
この問題はAzure DevOps Gitリポジトリを用いてWorkspace1のGit統合 を設定する際に必要な情報について尋ねています。最適な選択肢は「組織、プロジェクト、Gitリポジトリ、ブランチ」です。理由は、これらの情報がGit統合を実行するために必要だからです。
▶ Q50 の問題を見る
解説を表示
この問題はパラメータ値の指定方法に関するもので、最適な選択肢は「A. @pipeline().parameters.param1」です。理由は、パラメータparam1をint値として返すためのパイプライン表現を指定する必要があるからです。
▶ Q51 の問題を見る
解説を表示
この問題はFabric内でのオーケストレーションソリューシ ョンの開発に関するもので、最適な選択肢はデータパイプラインです。理由は、データパイプラインが一連のアイテムを順番にロードするための最適なツールだからです。
▶ Q52 の問題を見る
解説を表示
この問題はノートブックの実行順序を制御する方法に関するもので、最適な選択肢はAとDです。理由は 、Directed Acyclic Graph (DAG) の定義の順序や依存関係を調整することでノートブックの実行順序を制御できるからです。
▶ Q53 の問題を見る
解説を表示
この問題はデータパイプラインの動作順序に関するもので、最適な選択肢は「Copy_kdiが実行され、そ の後Execute procedure1はスキップされる」です。理由は問題のシナリオに基づいています。
▶ Q54 の問題を見る
解説を表示
この問題はFabricへのアナリティクスプラットフォームの移行に関するもので、Contoso社がFabricに移行する理由とその過程について詳しく説明しています。データエンジニアとデータアナリストの役割、既存の環境、そしてデータの取り扱い方法などが詳細に述べられています。
▶ Q55 の問題を見る
解説を表示
この問題はデータアクセスの制限に関するもので、最適な選択肢は「GRANT SELECT ON Customers(CustomerID, FirstName, LastName, Phone) TO [email protected]」です。理由は、User1に対してCustomerテーブルの特定のカラムのみアクセスを許可するため、CreditCardカラムに対するアクセスを防ぐことが必要だからです。
▶ Q56 の問題を見る
解説を表示
この問題はLitware社のデータフローとセキュリティの管理に関するもので、最適な選択肢はデータフローを効率的に管理し、適切なセキュリティを確保することです。理由は、データを安全に保つためには、適切なセキュリティ設計が必要であり、またデータフローはビジネスの運用を効率化するためには必要不可欠だからです。
▶ Q57 の問題を見る
解説を表示
この問題はデータフローとデータの管理について問うています。データはERPシステムからParquet ファイルとして取り込まれ、デルタテーブルで変換されます。また、古いデータは変更されず、新しいデータと履歴データはDataflow Gen1で取得されます。これらのデータ操作と流れは、データ フローの再利用と効率的なデータ管理が求められるからです。
▶ Q58 の問題を見る
解説を表示
この問題はContoso社がFabricというアナリティクスプラットフォームへの移行を進めており、データエンジニアとデータアナリストがどのようなスキルセットを持っているか、そしてどのようなデータソースから情報を取り込むべきかについて問うています。最適な選択肢はPythonやSQLを用いたデータトランスフォームと、REST APIを通じたSaaSアプリケーションからのデータエクスポートを行うことです。理由は、データエンジニアがPythonやSQLを好み、またMAR1からのデータはREST APIを呼び出すことでエクスポート可能であるからです。
▶ Q59 の問題を見る
解説を表示
この問題は、Contoso社がFabricに移行する際のデータの取り扱いに関するものです。データエンジニアはPythonまたはSQLを使用してデータを変換し、データアナリストはPower QueryやT-SQLを使用してデータを問い合わせ、セマンティックモデルやレポートを作成します。そのため、適切なツール とプロセスを選択することが重要です。
▶ Q60 の問題を見る
解説を表示
この問題はFabricの使用に関するもので、最適な選択肢は「ContosoがFabricをマーケティング分析のために使用を始める計画」です。理由はシナリオがContoso社のFabricへの移行とその使用方法について述べているからです。
▶ Q61 の問題を見る
解説を表示
この問題はContoso社のデータ移行と分析に関するもので、最適な選択肢はFabricを使用することです。理由は、Contoso社が既にFabricを使用しており、データエンジニアとデータアナリストがPythonやSQL、Power Query、T-SQLを使用してデータを操作できるからです。
▶ Q62 の問題を見る
解説を表示
この問題はテーブルの非正規化とデータ型の保証に関するもので、最適な選択肢は「Employeeテーブルのすべての行を保持し、Contractテーブルからの一致する行を含めること」です。また、「StartDate列が日付データ型であることを保証し、結果セットが2人以上の従業員を持つすべての契約タイプについて、契約タイプごとの従業員の総数を表示する」ことです。
▶ Q63 の問題を見る
解説を表示
この問題はAzure Event Hubsデータソースから特定の「City」属 性(Kansas)を持つデータ行のみをバッチ方式で取り込む方法について問うものです。最適な選択肢は「Eventstream」を使用することです。理由は、開発労力を最小限に抑えつつ、データソース から目的のデータをフィルタリングして取り込むためです。
▶ Q65 の問題を見る
解説を表示
この問題はAzureイベントハブに関するもので 、特定のNeighbourhood値(Chelsea)を持つイベントのみを保持し、それらをFabric lakehouseに格納する方法を問います。最適な選択肢は「イベントストリーム」です。理由は、イベントストリームが特定の条件に一致するイベントをフィルタリングし、それらを後続のストレージや処理系に引き渡す能力を持っているからです。
▶ Q66 の問題を見る
解説を表示
この問題はFabric notebook workloadsのデータローディングパター ンの構築に関するもので、最適な選択肢は「No No Yes」です。理由は、既存のテーブルへの書き込みや新しいテーブル(.targettable)への書き込みが何らかの理由で失敗した場合、mergeは実行されないからです。
▶ Q67 の問題を見る
解説を表示
この問題はレイクハウス間でのデータ結合とファクトテーブル生成に関するも のです。Lakehouse1とLakehouse2からそれぞれデータを取得し、それらを組み合わせて新たなファクトテーブルを作成する必要があります。これにより、顧客の注文を歴史的属性と現在の属性に基づいて分析することが可能になります。
▶ Q68 の問題を見る
解説を表示
この問題はデータの取り込みに関するもので、最適な選択肢は「データパイプライン」です。理由は新 しいファイルが追加される度にプロセスをトリガーし、最高のスループットを提供する必要があるからです。
▶ Q69 の問題を見る
解説を表示
この問題はデータ取り込みに関するもので、最適な選択肢は「データパイプライン」です。理由は新しいファイ ルが追加されたときにプロセスをトリガーし、最高のスループットを提供する必要があるからです。
▶ Q70 の問題を見る
解説を表示
この問題はデータベースの更新とデータロードに関するもので、最適な選択肢はADです。理由は、Table1に対して行われた変更がTable2へのデータロードに影響を及ぼすからです。
▶ Q71 の問題を見る
解説を表示
この問題はFabricワークスペース内のステートメントのデバッグに関して問われています。期 待されるすべての行が常に返されないという問題と、PurchaseDate出力列が期待したフォーマット(mmm dd, yy)でないという問題を解決する必要があります。解決策は結果のデータ型を保持しつつ、結果に空のセルを含むことができるようにする必要があります。このため、適切な選択肢を選ぶことが必要です。
▶ Q72 の問題を見る
解説を表示
この問題はデータパイプラインの設定に関するもので、最適な選択肢は「Enable staging」です。理由は、データをSnowflakeからFabricウェアハウスにコピーするためには、「ステージング」を有効にする必要があるからです。
▶ Q73 の問題を見る
解説を表示
この問題はKQLデータベースに関するもので、最適な選択肢は「No」です。理由は、joinタイプをkind=outerに変更すると、クエリの実行に必要な時間は短縮されず、逆に時間がかかる可能性があるからです。
▶ Q74 の問題を見る
解説を表示
この問題はKQLクエリセットの実行時間を短縮する方法について問うています。選択肢 B が正解です。理由は、「project」を「extend」に変更しても、クエリの実行時間を短縮できないからです。
▶ Q75 の問題を見る
解説を表示
この問題はKQLデータベースの処理時間短縮に関するもので、最適な選択肢は「Yes」です。理由は、フィルターを行02に移動することで、全体のデータセットから必要なデータのみを早期に抽出し、その後の処理を高速化するためです。
▶ Q76 の問題を見る
解説を表示
この問題はKQLデータベースに関するもので、最適な選択肢は「make_list()関数を出力列に追加する」ではありません。理由は、make_list()関数がクエリの実行時間を短縮するわけではないからです。
▶ Q77 の問題を見る
解説を表示
この問題はデータフローとデータ処理に関するもので、最適な選択肢はデータを効率的に処理し、 再利用するための戦略です。理由は、データは日々変化し、それを管理するための適切な戦略が必要だからです。
▶ Q78 の問題を見る
解説を表示
この問題はデータフローの管理とデータの処理に関するもので、最適な選択肢はデータフローを 適切に再利用し、効率的なデータ処理を行う方法です。理由は、データフローは新規および履歴データをキャプチャし、そのデータは定期的に更新されるためです。
▶ Q79 の問題を見る
解説を表示
この問題はスタースキーマの設計に関するもので、最適な選択肢は「ユニークなシステム生成識別子」です。理由は、スタースキーマを最小の開発労力で実装するためには、各表のユニークな識別子が必要だからです。
▶ Q80 の問題を見る
解説を表示
この問題は各チームの現在のスキルと要求に基づいたツールの推奨に関するものです。最 適な選択肢はTeam1にはPower BI、Team2にはPySpark、Team3にはAzure Data Factoryを推奨することです。理由は、各チームのメンバーが既にこれらのツールや技術を使用しているまたはそれらの背景を持っているからです。
▶ Q81 の問題を見る
解説を表示
この問題はFabricを使用して3つのデータセットを処理する方法について問うています。各データセットの特性(一意の主キー、半構造化データ、lakehouse内のデータなど)に基づいて最適なアイテムを選択する必要があります。この選択は開発労力を最小限に抑え、可能な限り組み込み機能を使用 することを目指しています。
▶ Q82 の問題を見る
解説を表示
この問題はインクリメンタルローディングパターンに関するもので、Notebook1を使用してそれを実装する必要があります。特に、キーの値が一致するすべてのレコードについて、Status_TargetのLastModifiedの値をStatus_Sourceのそれに更新すること、Status_Targetに存在しないStatus_Sourceのすべてのレコードを挿入すること、そしてStatus_Sourceに存在せず、最終更新日が7日以上前のすべてのレコードのStatus_TargetのStatus値を非アクティブに設定することが求め られています。
▶ Q83 の問題を見る
解説を表示
この問題はFabricデータパイプラインを使用してデータロー ディングパターンを構築することに関するもので、Azure SQLデータベースからlakehouseへの動的なテーブル取り込みを一度の実行でサポートするデータパイプラインの構築が求められています。適切なアクションを正しい順序で選択することが必要です。
▶ Q84 の問題を見る
解説を表示
この問題はスローリーチェンジングディメンション(SCD)の選択に関す るもので、最適な選択肢はタイプ2です。理由は、各販売時点での顧客の地理的位置による過去の販売データを分析をサポートするためには、顧客の位置の変更履歴を追跡することが必要で、それ を可能にするのがSCDタイプ2だからです。
▶ Q85 の問題を見る
解説を表示
この問題はイベントストリームに変換を追加することに関しています。最適 な選択肢は「tumbling」です。理由は、求められているのが重複しない連続した1分間隔でのスピードの平均値を取得することで、tumblingウィンドウ関数は正確に一つのウィンドウに各イベント を配置するのに適しているからです。
▶ Q86 の問題を見る
解説を表示
この問題はFabric lakehouse内のテーブルとコードセグメントに関するもので、最適な選択肢は「YES, NO, NO」です。理由は、提供されたコードセグメントが「E-mail」カラムを「@」で分割し、その2番目の部分を返すからです。
▶ Q87 の問題を見る
解説を表示
この問題は Fabric の Eventhouse に関するもので、Kusto Query Language (KQL) を使用してテーブルを作成し、外部データを取り込んだうえで内容を確認する方法を問うています。最適なアプローチは、KQL スクリプトを順に実行することであり、定義→取り込み→検証という一連のステップが必要だからです。
▶ Q88 の問題を見る
解説を表示
この問題はDatabase1からWarehouse1へのデータコピーに関するもので、最適な選択肢はデータパイプラインです。理由は、データパイプラインがデータを一つの場所から別の場所へ効率的に移動させるためのツールだからです。
▶ Q89 の問題を見る
解説を表示
この問題はテーブルへの変更を特定し、レコードを更新する 方法についてのもので、最適な選択肢は「a hash function to compare the attributes in the source table」です。理由は、ハッシュ関数を使用することで、各属性を直接比較するよりもリソ ース消費を最小限に抑えることができるからです。
▶ Q90 の問題を見る
解説を表示
この問題はAzure SQLデータベース(DB1)の変更をFabricワークスペースのイベントストリーム(EventStreamDB1)にストリーム化する設定に関するもので、最適な選択肢は「DB1で変更データキャプチャ(CDC)を有効にする」です。理由は、CDCを有効にする ことでDB1の記録変更をキャプチャし、それらをEventStreamDB1に送信することができるからです。
▶ Q91 の問題を見る
解説を表示
この問題はデータエンジニアリングに関するもので、最適な選択肢はPythonまたはSQLを使用してデータを変換することです。理由は、データエンジニアがこれらの言語を使用することを好むからです。
▶ Q92 の問題を見る
解説を表示
この問題はデータ分析プラットフォームをFabricに移行するオンライン小売会社についてのものです。デ ータエンジニアはPythonやSQLを使ってデータを変換し、データアナリストはPower QueryやT-SQLを使ってデータを問い合わせ、セマンティックモデルやレポートを作成します。また、会社はPOSシステムとマーケティングアプリを持っており、それらからデータを取得できます。これらの情報から、Fabricをうまく活用し、データ分析を行うための最適な方法を問うています。
▶ Q93 の問題を見る
解説を表示
この問題はKQLデータベース内の特定のテーブルに対するクエリ作成に関するもので、最適な選択 肢は「Sort / Extend / Project」です。これは各行のMeterReading値を前の行と比較するために必要な手順を示しています。
▶ Q94 の問題を見る
解説を表示
この問題はFabric streamingソリューションに関するもので、最適な選択肢はそれぞれのデー タソースによります。セミ構造化データにはEventstreamが、構造化データにはStream Dataflowが最適です。Eventstreamはセミ構造化データの処理に最適化されており、bigint列のメッセージを 効率的に処理しながらリアルタイムのストリーミング機能を提供します。一方、Stream Dataflowは構造化データに適しており、構造化データセットの簡単な取り込みと変換を可能にし、開発労力 を最小化します。
▶ Q95 の問題を見る
解説を表示
この問題はデータ処理とデータフローの管理に関するもので、Litware社の事例を通じて問われています。オンライン書店からのログと販売データがERPシステムに常時提供され、小売書店からは営業日終了時に販売データが送信されます。また、金メダルアーキテクチャが実装され、販売データがParquetファイルとしてERPシステムから摂取され、デルタテーブルで変換が行われます。この情報は、データフローの構築とデータ処理の最適な方法を理解するための基盤となります。
▶ Q96 の問題を見る
解説を表示
この問題はFabricへの分析プラットフォームの移行に関するもので、Contoso社がFabricを使用してマーケティングアナリティクスを開始する計画を持っています。データエンジニアはPythonやSQLを使用してデータ変換を行い、データアナリストはPower QueryやT-SQLでクエリを書く能力が あります。また、異なるソースシステムからのデータを取り扱う必要があります。だからこそ、適切なツールとプロセスを選択することが重要です。
▶ Q97 の問題を見る
解説を表示
この問題は、Microsoft Fabric の Eventstream における変換エラーのトラブルシューティングに関するものです。最適な選択肢は、エラーログを確認し、エラーの詳細と発生時刻を特定することです。理由は、エラーログを分析することで、問題の原因を迅速に特定し、適切な対策を講じることができるからです。
▶ Q98 の問題を見る
解説を表示
この問題はストリーミングデータの処理に関するもので、最適な選択肢は「NO, YES, YES」です。理由は、1行目が「Washington, Contoso, 400」になり、「Fabrikam in Seattle」はrow_rank_denseがタイを許可するため2になるからです。また、両方のケースでランクは1になります。
▶ Q99 の問題を見る
解説を表示
この問題はParquetファイルのクエリ時間を最小化する方法に関するもので、最適な選択肢はCの「OPTIMIZEコマンドとVACUUMコマンドを実行する」です。理由は、OPTIMIZEが小さなParquetファイルを大きなファイルにまとめることでクエリのパフォーマンスを改善するからです。
▶ Q100 の問題を見る
解説を表示
この問題は、データロードに時間がかかる場合にどのビューを使用すべきかに関 するものです。最適な選択肢はsys.dm_exec_sessionsです。理由は、このビューを使用することでアクティブにクエリを実行しているユーザー名を特定できるからです。
▶ Q101 の問題を見る
解説を表示
この問題は古いファイルを削除するためのコマンド選択に関するもので、最適な選択肢はVACUUMです。理由は、VACUUMコマンドのデフォルトの保持期間が7日間であるからです。
▶ Q102 の問題を見る
解説を表示
この問題はデータパイプラインの失敗原因を特定する方法に関するもので、最適な選択肢はBです。失敗したSQLクエリを確認するには、モニタリングハブから最新の失敗したPipeline1の実行を選択し、入力JSONを表示する必要があります。
▶ Q103 の問題を見る
解説を表示
この問題はFabric notebook上で実行されたジョブのタイムラインチャートの表示に関するもので、最適な選択肢は「アプリケーション実行の詳細からの実行シリーズ」(選択肢E)です。理由は、実行シリーズがジョブのタイムラインを表示するための適切なツールだからです。
▶ Q104 の問題を見る
解説を表示
この問題はEventStream1の変換エラーに関するもので、最適な選択肢は「ランタイムログ」と「デー タインサイト」です。ランタイムログを使用するとエラー詳細を、データインサイトを使用するとエラーの合計数を取得できるからです。
▶ Q105 の問題を見る
解説を表示
この問題はデータフローとデータの更新周期に関するものです。Litware社が使用しているDataflow Gen1データフローは新しいデータと履歴データをキャプチャします。また、ソースシステムでは、販売データが毎日真夜中から6時間ごとに更新されます。この情報から、データの流れと更新について理解することが求められています。
▶ Q106 の問題を見る
解説を表示
この問題はWarehouse1のクエリパフォーマンスが低下した原因を調査するために何を使うべき かを問うています。最適な選択肢は'views from the queryinsights schema'(クエリインサイトスキーマからのビュー)です。理由は、過去60分間に実行されたすべてのクエリを特定し、クエリ を送信したユーザーのユーザーネームとクエリステートメントを含める必要があるためです。
▶ Q107 の問題を見る
解説を表示
この問題はModel1の更新履歴を監視し、それをチャートで可視化する必要があるというものです。最 適な選択肢は「ノートブック」です。理由は、ノートブックを使用することで、更新履歴を追跡し、それを視覚化することが可能だからです。
▶ Q108 の問題を見る
解説を表示
この問題はDW1のロード時間を最小化する方法に関するもので、最適な選択肢はD(V-Orderを無効にする)で す。理由は、V-Orderはデフォルトで有効化されているため、再度有効化する必要はないからです。