AWS

AWS認定ビッグデータスペシャリティサンプル試験問題8

AWSAWS認定ビッグデータスペシャリティAWS認定資格

質問

原文

8) A data engineer needs to collect data from multiple Amazon Redshift clusters within a business and consolidate the data into a single central data warehouse. Data must be encrypted at all times while at rest or in flight.

What is the most scalable way to build this data collection process?

    A) Run an ETL process that connects to the source clusters using SSL to issue a SELECT query for new data, and then write to the target data warehouse using an INSERT command over another SSL secured connection.
    B) Use AWS KMS data key to run an UNLOAD ENCRYPTED command that stores the data in an unencrypted S3 bucket; run a COPY command to move the data into the target cluster.
    C) Run an UNLOAD command that stores the data in an S3 bucket encrypted with an AWS KMS data key; run a COPY command to move the data into the target cluster.
    D) Connect to the source cluster over an SSL client connection, and write data records to Amazon Kinesis Firehose to load into your target data warehouse.

googleで日本語翻訳

8)データエンジニアは、ビジネス内の複数のAmazon Redshiftクラスタからデータを収集し、そのデータを単一の中央データウェアハウスに統合する必要があります。データは、休憩中または飛行中に常に暗号化する必要があります。

このデータ収集プロセスを構築する最もスケーラブルな方法は何ですか?

    A)SSLを使用してソース・クラスタに接続するETLプロセスを実行して、新しいデータのSELECT問合せを発行し、別のSSL保護接続を介してINSERTコマンドを使用してターゲット・データ・ウェアハウスに書き込みます。
    B)AWS KMSデータキーを使用して、暗号化されていないS3バケットにデータを格納するUNLOAD ENCRYPTEDコマンドを実行します。 COPYコマンドを実行して、データをターゲット・クラスターに移動します。
    C)AWS KMSデータキーで暗号化されたS3バケットにデータを格納するUNLOADコマンドを実行します。 COPYコマンドを実行して、データをターゲット・クラスタに移動します。
    D)SSLクライアント接続を介してソースクラスタに接続し、Amazon Kinesis Firehoseにデータレコードを書き込み、ターゲットデータウェアハウスにロードします。

bingで日本語翻訳

8) データエンジニアは、ビジネス内の複数の amazon redshift クラスタからデータを収集し、データを単一の中央データウェアハウスに統合する必要があります。データは、安静時または飛行中に常に暗号化する必要があります。

このデータ収集プロセスを構築する最もスケーラブルな方法は何ですか。

a) 新しいデータに対して選択クエリを発行するために ssl を使用してソースクラスタに接続する etl プロセスを実行し、別の ssl セキュア接続に対する insert コマンドを使用してターゲットデータウェアハウスに書き込みます。
b) aws kms データキーを使用して、暗号化されていない s3 バケットにデータを格納する、アンロードされた暗号コマンドを実行します。コピーコマンドを実行して、データをターゲットクラスターに移動します。
c) aws kms データキーで暗号化された s3 バケットにデータを格納する unload コマンドを実行します。コピーコマンドを実行して、データをターゲットクラスターに移動します。
d) ssl クライアント接続を介してソースクラスタに接続し、amazon キネシスホースにデータレコードを書き込んで、ターゲットデータウェアハウスにロードします。

解答

原文

8) B - The most scalable solutions are the UNLOAD/COPY solutions because they will work in parallel, which eliminates A and D as answers. 
Option C is incorrect because the data would not be encrypted in flight, and you cannot encrypt an entire bucket with a KMS key. 
Option B meets the encryption requirements, the UNLOAD ENCRYPTED command automatically stores the data encrypted using-client side encryption and uses HTTPS to encrypt the data during the transfer to S3.

googleで日本語翻訳

8)B - 最も拡張性の高いソリューションはUNLOAD / COPYソリューションです。これはAとDを解答として排除して並列処理するためです。
オプションCは、飛行中にデータが暗号化されず、KMSキーを使用してバケット全体を暗号化できないため、間違っています。
オプションBが暗号化要件を満たしている場合、UNLOAD ENCRYPTEDコマンドはクライアント側の暗号化を使用して暗号化されたデータを自動的に保存し、S3への転送中にHTTPSを使用してデータを暗号化します。

bingで日本語翻訳

8) b-最もスケーラブルなソリューションは、それらが並列で動作するため、アンロード/コピーソリューションであり、答えとして a と d を排除します。
データが飛行中に暗号化されないため、オプション c が正しくないため、kms キーを使用してバケット全体を暗号化することはできません。
オプション b は暗号化の要件を満たしており、暗号化されたアンロード・コマンドは、クライアント側の暗号化を使用して暗号化されたデータを自動的に保存し、s3 への転送中にデータを暗号化するために https を使用します。