# Dynalyst Import Integration [Dynalyst Export Integrationの詳細はこちら](/ja/int/dynalyst-export-integration)をご覧ください。 Dynalystデータコネクタを使用すると、S3バケットに保存されているJSON、TSV、CSVファイルからTreasure Dataのカスタマーデータプラットフォームにデータをインポートできます。 Dynalystは、ストレージ場所としてAWS S3を使用しており、インポートプロセスはAWS S3からのデータインポートと同様です。 ![](/assets/image2020-11-19_8-34-57.c2df22233c53cb13e754ee1bd4b9a05966488bb70abd9438cb16826b9e154e6b.3872a78d.png) このコネクタを使用してOneDriveへエクスポートすることもできます。[Dynalyst Export Integration](/ja/int/dynalyst-export-integration)をご覧ください。 インポートまたはクエリエクスポートを実行する前に、Dynalystで使用する接続と認証を完了する必要があります。 ## TD ConsoleからDynalistをインポートする ### 認証設定を完了する 1. [Dynalyst Import and Export Integration](/ja/int)で以下を確認し、完了してください。 - 前提条件 - 新しい接続を作成する 2. Dynalyst認証を検索します。 3. **New Source**を選択します。 ![](/assets/image-20191015-190024.8fa79966d61bf202e526a92fc7201937cda6b7d4f33147acd96bb4d001adc388.3872a78d.png) ### 新しいソースを定義する 1. New Sourceウィンドウで、インポートするファイルを含むバケットの名前を入力します。 - **Path prefix:** 指定されたプレフィックスに一致するすべてのファイルをインポートするようにソースを設定します。(*例:/path/to/customers.csv*) - **Path regex:** 指定された正規表現パターンを使用して一致するすべてのファイルをインポートするようにソースを設定します。 ![](/assets/image-20191015-190914.03854e07ba679cf02dce13515a6fc519b33a111bb68458bb50402c2ba2d62f39.3872a78d.png) ### ソースデータをプレビューする 1. ソースプレビューウィンドウで、**advanced settings**を選択して、インポートに必要な調整を行います。たとえば、インポートパーサーをCSVからJSONに変更したり、行区切り文字を設定したりします*。* 2. **Next**を選択します。 ![](/assets/image-20191015-191001.02c0a2fdf59c8192e51edc9855c363204be523c316ce205062b4556886da6fb8.3872a78d.png) ### Data Placement データの配置について、データを配置したいターゲット database と table を選択し、インポートを実行する頻度を指定します。 1. **Next** を選択します。Storage の下で、インポートされたデータを配置する新しい database を作成するか、既存の database を選択し、新しい table を作成するか、既存の table を選択します。 2. **Database** を選択 > **Select an existing** または **Create New Database** を選択します。 3. オプションで、database 名を入力します。 4. **Table** を選択 > **Select an existing** または **Create New Table** を選択します。 5. オプションで、table 名を入力します。 6. データをインポートする方法を選択します。 - **Append** (デフォルト) - データインポートの結果は table に追加されます。 table が存在しない場合は作成されます。 - **Always Replace** - 既存の table の全体の内容をクエリの結果出力で置き換えます。table が存在しない場合は、新しい table が作成されます。 - **Replace on New Data** - 新しいデータがある場合のみ、既存の table の全体の内容をクエリの結果出力で置き換えます。 7. **Timestamp-based Partition Key** 列を選択します。 デフォルトキーとは異なるパーティションキーシードを設定したい場合は、long または timestamp 列をパーティショニング時刻として指定できます。デフォルトの時刻列として、add_time フィルターで upload_time を使用します。 8. データストレージの **Timezone** を選択します。 9. **Schedule** の下で、このクエリを実行するタイミングと頻度を選択できます。 #### 一度だけ実行 1. **Off** を選択します。 2. **Scheduling Timezone** を選択します。 3. **Create & Run Now** を選択します。 #### 定期的に繰り返す 1. **On** を選択します。 2. **Schedule** を選択します。UI では、*@hourly*、*@daily*、*@monthly*、またはカスタム *cron* の 4 つのオプションが提供されます。 3. **Delay Transfer** を選択して、実行時間の遅延を追加することもできます。 4. **Scheduling Timezone** を選択します。 5. **Create & Run Now** を選択します。 転送が実行された後、**Data Workbench** > **Databases** で転送の結果を確認できます。 #### ソースに名前を付ける 1. ソースの名前を入力します。 2. **Done**を選択します。ソースジョブは、指定したスケジュールに従って実行されます。 ![](/assets/image-20191015-191337.38712cacf8e163ef5318a1583e50c9e09b8650f51f18414f43fec885b1a89cdd.3872a78d.png)