# Sansan Data Hub エクスポートインテグレーション Sansan Data Hubは、社内の顧客データを整理・統合し、マーケティング目的に最適なデータに変換することを支援します。このインテグレーションを使用すると、Treasure DataからSansan Data Hubにジョブ結果をエクスポートできます。 ## このインテグレーションでできること - Treasure DataからSansan Data Hubにデータをアップロードするために、複数のアップロードリクエストを送信します。 - 各アップロードリクエストのステータスを確認します。 ## 前提条件 - Treasure Dataの基礎知識 - Sansan Data Hubの基礎知識 ## Treasure Data Integration の静的 IP アドレス セキュリティポリシーで IP ホワイトリストが必要な場合は、接続を成功させるために Treasure Data の IP アドレスを許可リストに追加する必要があります。 リージョンごとに整理された静的 IP アドレスの完全なリストは、次のリンクにあります: [https://api-docs.treasuredata.com/en/overview/ip-addresses-integrations-result-workers/](https://api-docs.treasuredata.com/en/overview/ip-addresses-integrations-result-workers/) ## TD Consoleを使用してコネクションを作成する Treasure Dataでは、クエリを実行する前にデータコネクションを作成して設定する必要があります。データコネクションの一部として、インテグレーションにアクセスするための認証情報を提供します。 ## 新しい認証を作成する 1. **TD Console**を開きます。 2. **Integrations Hub** > **Catalog**に移動します。 3. Sansan Data Hubを検索し、Sansan Data Hub (Output)を選択します。 ![](/assets/103579809.c89d8a305ed1e992d454f00e1789c728ea7bc2150923ea97491e23c759606189.aed11f7e.png) 4. **Create Authentication**を選択します。 ![](/assets/103579811.723e30e18ab9da9d49655d4b8a1f6bbba6b6bd75a73547e49eb389bde9f93574.aed11f7e.png) 5. 認証のための認証情報を入力します: ![](/assets/103579812.7c3148934a6302945a257d9ee189e2207dce3ebe4c4d6cb4ab6a12906869bf38.aed11f7e.png) | パラメータ | 説明 | | --- | --- | | Client ID | アカウントのクライアントID | | Client Secret | アカウントのクライアントシークレット | 1. **Continue**を選択します。 2. コネクションの名前を入力します。 3. **Done**を選択します。 ## クエリを定義する 1. **Data Workbench > Queries**に移動します。 2. **New Query**を選択します。 3. クエリを実行して結果セットを検証します。 ![](/assets/103579769.a0ef34a3cfb6035eb6a53a758a755062decbb29fac046d1b24440a76d0662c7a.aed11f7e.png) Sansan Data Hub出力コネクタは、`カンマ(,)`文字を含むデータをスキップします。例: ```csv marketoid,company,createdday,updatedday 1,company1,2022-06-07 12:18:06,2022-06-07 12:18:06 2,company2,2022-06-07 12:18:06,2022-06-07 12:18:06 3,company3withcomma,,2022-06-07 12:18:06,2022-06-07 12:18:06 #この行はスキップされます 4,company4,withcomma,2022-06-07 12:18:06,2022-06-07 12:18:06 #この行はスキップされます ``` ## 結果のエクスポート先を指定する 1. **Export Results**を選択します。 ![](/assets/103579768.ee7ed43caab64adefafcc22595462fd8068c974c4f47b5959a7babd7d99972b8.aed11f7e.png) 2. 出力用の外部サービスの既存の認証を選択できます。以下のいずれかを選択します: **既存のインテグレーションを使用する** ![](/assets/103579767.d271866c7c3cea4dab234b61bea815a69b186746c80435855b4b86d1f77cc30e.aed11f7e.png) ![](/assets/103579814.e995150be96fbab082f7ea5e17ed53b7bdb1b2ebd18b51f1436981f4da5dd7b1.aed11f7e.png) | フィールド | 説明 | | --- | --- | | Data source ID | データをエクスポートするソースターゲット | | Get the status of the file import job | 各バッチアップロードリクエストのステータスを取得 | | Skip invalid records | 検証に失敗したレコードをスキップ アップロードに失敗したバッチをスキップ | | Maximum Retry | 最大リトライ回数 | | Seconds to wait for first retry | 最初のリトライまでの待機時間(秒) | | Seconds for max retry wait | リトライの最大待機時間(秒) | | HTTP Connection Timeout | HTTP接続タイムアウト | | HTTP Read Timeout | HTTP読み取りタイムアウト | | HTTP Write Timeout | HTTP書き込みタイムアウト | ### クエリの例 ```sql SELECT * FROM www_access ``` ### (オプション) Query Export ジョブをスケジュールする Scheduled Jobs と Result Export を使用して、指定したターゲット宛先に出力結果を定期的に書き込むことができます。 Treasure Data のスケジューラー機能は、高可用性を実現するために定期的なクエリ実行をサポートしています。 2 つの仕様が競合するスケジュール仕様を提供する場合、より頻繁に実行するよう要求する仕様が優先され、もう一方のスケジュール仕様は無視されます。 例えば、cron スケジュールが `'0 0 1 * 1'` の場合、「月の日」の仕様と「週の曜日」が矛盾します。前者の仕様は毎月 1 日の午前 0 時 (00:00) に実行することを要求し、後者の仕様は毎週月曜日の午前 0 時 (00:00) に実行することを要求するためです。後者の仕様が優先されます。 #### TD Console を使用してジョブをスケジュールする 1. **Data Workbench > Queries** に移動します 2. 新しいクエリを作成するか、既存のクエリを選択します。 3. **Schedule** の横にある None を選択します。 ![](/assets/image2021-1-15_17-28-51.f1b242f6ecc7666a0097fdf37edd1682786ec11ef80eff68c66f091bc405c371.0f87d8d4.png) 4. ドロップダウンで、次のスケジュールオプションのいずれかを選択します: ![](/assets/image2021-1-15_17-29-47.45289a1c99256f125f4d887e501e204ed61f02223fde0927af5f425a89ace0c0.0f87d8d4.png) | ドロップダウン値 | 説明 | | --- | --- | | Custom cron... | [Custom cron... の詳細](#custom-cron-details)を参照してください。 | | @daily (midnight) | 指定されたタイムゾーンで 1 日 1 回午前 0 時 (00:00 am) に実行します。 | | @hourly (:00) | 毎時 00 分に実行します。 | | None | スケジュールなし。 | #### Custom cron... の詳細 ![](/assets/image2021-1-15_17-30-23.0f94a8aa5f75ea03e3fec0c25b0640cd59ee48d1804a83701e5f2372deae466c.0f87d8d4.png) | **Cron 値** | **説明** | | --- | --- | | `0 * * * *` | 1 時間に 1 回実行します。 | | `0 0 * * *` | 1 日 1 回午前 0 時に実行します。 | | `0 0 1 * *` | 毎月 1 日の午前 0 時に 1 回実行します。 | | "" | スケジュールされた実行時刻のないジョブを作成します。 | ``` * * * * * - - - - - | | | | | | | | | +----- day of week (0 - 6) (Sunday=0) | | | +---------- month (1 - 12) | | +--------------- day of month (1 - 31) | +-------------------- hour (0 - 23) +------------------------- min (0 - 59) ``` 次の名前付きエントリを使用できます: - Day of Week: sun, mon, tue, wed, thu, fri, sat. - Month: jan, feb, mar, apr, may, jun, jul, aug, sep, oct, nov, dec. 各フィールド間には単一のスペースが必要です。各フィールドの値は、次のもので構成できます: | フィールド値 | 例 | 例の説明 | | --- | --- | --- | | 各フィールドに対して上記で表示された制限内の単一の値。 | | | | フィールドに基づく制限がないことを示すワイルドカード `'*'`。 | `'0 0 1 * *'` | 毎月 1 日の午前 0 時 (00:00) に実行するようにスケジュールを設定します。 | | 範囲 `'2-5'` フィールドの許可される値の範囲を示します。 | `'0 0 1-10 * *'` | 毎月 1 日から 10 日までの午前 0 時 (00:00) に実行するようにスケジュールを設定します。 | | カンマ区切りの値のリスト `'2,3,4,5'` フィールドの許可される値のリストを示します。 | `0 0 1,11,21 * *'` | 毎月 1 日、11 日、21 日の午前 0 時 (00:00) に実行するようにスケジュールを設定します。 | | 周期性インジケータ `'*/5'` フィールドの有効な値の範囲に基づいて、 スケジュールが実行を許可される頻度を表現します。 | `'30 */2 1 * *'` | 毎月 1 日、00:30 から 2 時間ごとに実行するようにスケジュールを設定します。 `'0 0 */5 * *'` は、毎月 5 日から 5 日ごとに午前 0 時 (00:00) に実行するようにスケジュールを設定します。 | | `'*'` ワイルドカードを除く上記の いずれかのカンマ区切りリストもサポートされています `'2,*/5,8-10'` | `'0 0 5,*/10,25 * *'` | 毎月 5 日、10 日、20 日、25 日の午前 0 時 (00:00) に実行するようにスケジュールを設定します。 | 1. (オプション) Delay execution を有効にすることで、クエリの開始時刻を遅延させることができます。 ### クエリを実行する クエリに名前を付けて保存して実行するか、単にクエリを実行します。クエリが正常に完了すると、クエリ結果は指定された宛先に自動的にエクスポートされます。 設定エラーにより継続的に失敗するスケジュールジョブは、複数回通知された後、システム側で無効化される場合があります。 (オプション) Delay execution を有効にすることで、クエリの開始時刻を遅延させることができます。 ## Audience Studio で Segment をアクティベートする Audience Studio で activation を作成することで、segment データをターゲットプラットフォームに送信することもできます。 1. **Audience Studio** に移動します。 2. parent segment を選択します。 3. ターゲット segment を開き、右クリックして、**Create Activation** を選択します。 4. **Details** パネルで、Activation 名を入力し、前述の Configuration Parameters のセクションに従って activation を設定します。 5. **Output Mapping** パネルで activation 出力をカスタマイズします。 ![](/assets/ouput.b2c7f1d909c4f98ed10f5300df858a4b19f71a3b0834df952f5fb24018a5ea78.8ebdf569.png) - Attribute Columns - **Export All Columns** を選択すると、変更を加えずにすべての列をエクスポートできます。 - **+ Add Columns** を選択して、エクスポート用の特定の列を追加します。Output Column Name には、Source 列名と同じ名前があらかじめ入力されます。Output Column Name を更新できます。**+ Add Columns** を選択し続けて、activation 出力用の新しい列を追加します。 - String Builder - **+ Add string** を選択して、エクスポート用の文字列を作成します。次の値から選択します: - String: 任意の値を選択します。テキストを使用してカスタム値を作成します。 - Timestamp: エクスポートの日時。 - Segment Id: segment ID 番号。 - Segment Name: segment 名。 - Audience Id: parent segment 番号。 1. **Schedule** を設定します。 ![](/assets/snippet-output-connector-on-audience-studio-2024-08-28.a99525173709da1eb537f839019fa7876ffae95045154c8f2941b030022f792c.8ebdf569.png) - スケジュールを定義する値を選択し、オプションでメール通知を含めます。 1. **Create** を選択します。 batch journey の activation を作成する必要がある場合は、[Creating a Batch Journey Activation](/products/customer-data-platform/journey-orchestration/batch/creating-a-batch-journey-activation) を参照してください。 ## (オプション) Workflowでエクスポート結果を設定する Treasure Workflow内で、このインテグレーションを使用してデータをエクスポートするように指定できます。 詳細は[Using Workflows to Export Data with the TD Toolbelt](https://docs.treasuredata.com/smart/project-product-documentation/exporting-data-with-parameters)をご覧ください。 ## (オプション) CLIを使用したエクスポートインテグレーション CLI(Toolbelt)を使用してSFTPへの結果エクスポートを実行することもできます。 SFTPサーバーへのエクスポート情報を`td query`コマンドの`--result`オプションとして指定する必要があります。`td query`コマンドについては、[この記事](https://docs.treasuredata.com/smart/project-product-documentation/td-toolbelt-job-and-query-command-reference)を参照してください。 オプションの形式はJSONで、一般的な構造は次のとおりです。 ```json { "type": "sansan_datahub", "client_id": "xxx", "client_secret": "xxx", "data_source_id": "xxxx", "job_status": true, "skip_on_invalid_records": true, "max_retry": 7, "initial_retry_wait": 15, "max_retry_wait": 180, "connection_timeout": 300, "write_timeout": 300, "read_timeout": 300 } ``` ## パラメータ | 名前 | 説明 | 値 | デフォルト値 | 必須 | | --- | --- | --- | --- | --- | | type | エクスポート先サービスの名前を記述します。 | sansan_datahub | N/A | はい | | client_id | Sansanから提供されるクライアントID | クライアントID | N/A | はい | | client_secret | Sansanから提供されるクライアントシークレット | クライアントシークレット | N/A | はい | | data_source_id | データをエクスポートするソースターゲット | データをエクスポートするソースターゲット | N/A | はい | | job_status | 各バッチアップロードのステータスを確認 | true または false | false | いいえ | | skip_on_invalid_records | 無効なレコードをスキップし、ジョブを失敗させない | true または false | false | いいえ | | max_retry | 最大リトライ回数 | 秒単位の時間 | 7 | いいえ | | initial_retry_wait | 初回リトライ待機時間 | 秒単位の時間 | 15 | いいえ | | max_retry_wait | 最大リトライ待機時間 | 秒単位の時間 | 180 | いいえ | | connection_timeout | HTTP接続タイムアウト | HTTP接続タイムアウト | 300 | いいえ | | write_timeout | HTTP書き込みタイムアウト | HTTP書き込みタイムアウト | 300 | いいえ | | read_timeout | HTTP読み取りタイムアウト | HTTP読み取りタイムアウト | 300 | いいえ | ## 使用例 ``` $ td query --result '{"type":"sansan_datahub","client_id":"xxx","port":22,"client_secret":"xxx","data_source_id":"id","job_status":true, "skip_on_invalid_records":true}' -d sample_datasets "select * from www_access" -T presto ```