# Bulk Import Integration Legacy Treasure Dataでは、td importコマンドの代わりにEmbulkの使用を推奨しています。td importコマンドで実行されるLegacy Bulkは保守されていますが、更新や機能強化は行われていません。 tdバージョン**0.10.84以降**では、td importコマンドを使用してデータを一括インポートできます。 # 前提条件 - [Toolbelt](https://toolbelt.treasuredata.com/)を含む、Treasure Dataの基本的な知識 - Java runtime(6以降) # Bulk Importを使う理由 ![](/assets/bulk-loader-image.66c25bebe256d00ddaea4976a329fd422c14f0a9f8f15c328d551a8a9435dbec.d65bf755.png) Treasure Dataはクラウドサービスであるため、データはインターネットネットワーク接続を介して転送する必要があります。データサイズが大きくなると(100MB以上)、これが難しくなることがあります。いくつかのケースを考えてみましょう。 - ネットワークが不安定になると、データ転送の途中でインポートが失敗する可能性があります。中断した場所から再開する簡単な方法はなく、最初からアップロードをやり直す必要があります。 - 企業によっては、単一のストリームで大量のデータを転送する際に帯域幅の制限がある場合があります。また、TCP/IPプロトコルの制限により、アプリケーションがネットワーク接続を飽和させることが困難になります。 これらの問題を克服するために、Bulk Import機能を設計しました。大きなデータセットを小さなチャンクに分割し、それらを*並列*にアップロードできるようになりました。特定のチャンクのアップロードが失敗した場合は、そのチャンクのみのアップロードを再開できます。この並列処理により、全体的なアップロード速度が向上します。 # 例 Bulk Importはパフォーマンスと信頼性を実現するための複雑な方法であるため、目的を達成するためにこれらのショートカットを使用できます。 - [JSONファイルからのLegacy Bulk Import](/ja/int/legacy-bulk-import-from-json-file) - [Amazon S3からのLegacy Bulk Import](/ja/int/legacy-bulk-import-for-aws-s3) - [MySQLからのLegacy Bulk Import](/ja/int/legacy-bulk-import-from-mysql) - [MongoDBからのLegacy Bulk Import](/ja/int/legacy-bulk-import-from-mongodb) Bulk Importの内部構造やヒントとコツを理解するには、以下のドキュメントを参照してください。 - [Legacy Bulk Importの内部構造](/ja/int/legacy-bulk-import-internals) - [Legacy Bulk Importのヒントとコツ](/ja/int/legacy-bulk-import-from-mongodb)