コンテンツにスキップ
アカウント作成/サインイン
Stripe ドキュメントのロゴ
/
AI に質問する
アカウントを作成サインイン
導入方法
決済管理
売上管理
プラットフォームとマーケットプレイス
資金管理
開発者向けリソース
API & SDKヘルプ
概要
Billing
概要Billing API について
サブスクリプション
Invoicing
従量課金
高度な従量課金型請求
見積もり
顧客管理
Billing と他のプロダクトの連携
売上回収
オートメーション
実装内容をテストする
税金
概要
Stripe tax を使用
法規制の遵守・対応管理
レポート機能
概要
レポートの選択
レポートを設定
複数のアカウントのレポート
Reports API
収益認識
データ
概要
ビジネスデータのクエリ
Sigma
Data Pipeline
    概要
    Data Pipeline の仕組み
    データウェアハウスにデータをエクスポート
    クラウドストレージにデータをエクスポート
    エクスポートのカスタマイズ
外部データをインポート
アメリカ
日本語
ホーム売上管理Data Pipeline

Note

このページはまだ日本語ではご利用いただけません。より多くの言語で文書が閲覧できるように現在取り組んでいます。準備が整い次第、翻訳版を提供いたしますので、もう少しお待ちください。

Data Pipeline の仕組み

Data Pipeline でできることをご紹介します。

Data Pipeline は、お客様のあらゆる Stripe データを様々なデータストレージの保存先に送信するノーコード製品です。これにより、Stripe データを他のビジネスデータとともに一元管理でき、決算のより詳細なビジネスインサイトを得ることができます。データの保存先のサポートについてご不明な点がございましたら、[Stripe サポート](https://support.stripe.com/contact/email?topic=third_party_integrations&subject=Stripe%20Data%20Pipeline%20(SDP) にお問い合わせください。

Data Pipeline を使用すると、以下のことが可能になります。

  • Stripe の包括的なデータを迅速に、信頼できる形式で自動的にエクスポートできます。
  • サードパーティーの抽出、変換、読み込み (ETL) パイプラインや社内で構築した API 組み込みに頼る必要がなくなります。
  • お客様のすべての Stripe アカウントのデータを 1 つのデータウェアハウスに統合できます。
  • Stripe のデータと他のビジネスデータを統合して、より総合的なビジネスインサイトを獲得できます。

注意

データローカリゼーションに関する要件に従い、Stripe は Data Pipeline サービスをインドの顧客、企業、ユーザーに提供していません。

保存先のサポート

Stripe Data Pipeline は、2 種類の保存先をサポートしています。

  • データウェアハウス (Snowflake、Amazon Redshift)

    • データウェアハウスの保存先の場合、Stripe はデータウェアハウスにデータ共有を送信します。

    • データ共有を承認すると、12 時間以内に Snowflake または Amazon Redshift から Stripe のコアデータにアクセスできます。

    • 初回の読み込み後は、Stripe データが 定期的に更新 され、3 時間ごとにすべてのデータが読み込まれます。

  • クラウドストレージ (Google Cloud Storage、Azure Blob Storage、Amazon S3)

    • クラウドストレージの保存先の場合、Stripe はお客様が管理するクラウドストレージの場所に Parquet ファイルを直接送信します。

    • 最初の読み込み後、Stripe データは 定期的に更新 され、3 時間ごとに新規データの読み込みが行われます。

データベーススキーマ

データウェアハウスのデータは、データ作成時に使用した API モードに基づいて、2 つのデータベーススキーマに分割されます。

スキーマ名説明
STRIPE本番環境から入力されたデータ
STRIPE_TESTMODEサンドボックスおよびテストモードから入力されたデータ

同じデータウェアハウスで複数の Stripe アカウントのデータを共有している場合、それらを個別に識別できます。テーブルのすべてに merchant_id 列が存在するため、アカウントごとにデータを絞り込むことが可能です。

Organizations を使用して複数のデータパイプラインを管理する

Organizations を使用すると、外部でデータを共有するすべてのアカウントを確認できます。以下を実行できます。

  • スーパー管理者 または管理者のロールがある場合は、新しいデータパイプラインを作成します。
  • 追加の確認なしで既存のデータウェアハウス設定にアカウントを追加します。
  • データパイプラインから 1 つ以上のアカウントを登録解除します。
  • パイプラインの設定を削除します。

組織からアカウントを削除すると、そのアカウントのデータ共有は直ちに停止します。

専有データと Stripe データを統合

場合によっては、独自のデータからの情報を Stripe データと組み合わせる必要があります。次のスキーマは、会社の注文に関するデータをリストした orders テーブルを示しています。取引手数料や入金に関するデータは Stripe 内のみに存在するため、このテーブルには含まれていません。

日付order_nostripe_txn_nocustomer_name価格アイテム
2025/11/151bt_xcVXgHcBfi83m94山田 花子51 つの本

Stripe の balance_transactions テーブルには次の情報が含まれていますが、顧客名と購入アイテムに関する独自のデータがありません。

ID金額available_on手数料netautomatic_transfer_id
bt_xcVXgHcBfi83m945002025/11/1550450po_rC4ocAkjGy8zl3j

お客様の独自データと Stripe データの両方にアクセスするには、orders テーブルと Stripe の balance_transactions テーブルを組み合わせます。

select orders.date, orders.order_no, orders.stripe_txn_no, bts.amount, bts.fee, bts.automatic_transfer_id from mycompany.orders join stripe.balance_transactions bts on orders.stripe_txn_no = bts.id;

完了すると、以下の情報が使用できるようになります。

日付order_noStripe_txn_no金額手数料automatic_transfer_id
2025/11/151bt_xcVXgHcBfi83m9450050po_rC4ocAkjGy8zl3j

データセット

利用可能なデータセットのリストは、スキーマドキュメント の データセット で確認できます。

利用可能なデータセットは、地域によって異なる場合があります。また、各地域の製品の提供状況と規制によって異なる場合があります。Data Pipeline は、データが利用可能になると、1つ以上のウェアハウステーブルを含む各データセットを別々に共有します。Data Pipeline は、新しいデータの利用可能状況に基づいて、異なるスケジュールで一部のテーブルを更新します。利用可能なデータセットと更新スケジュールの詳細については、データの鮮度 をご覧ください。

サンドボックスサポート

リスクのない環境であるサンドボックスを使用して、Data Pipeline 機能をテストできます。サンドボックスを使用すると、本番データに影響を与えることなくデータ同期を評価できます。テスト中も、Data Pipeline の無料トライアルは影響を受けないため、サンドボックスのアクティビティーに対する請求は発生しません。

サンドボックスデータを表示するには、TESTMODE スキーマにアクセスし、特定のサンドボックス加盟店 ID でフィルタリングします。この設定により、財務に影響を与えることなく、既存の分析とともにテストデータを分析できます。サンドボックスの設定と管理の詳細については、サンドボックス を参照してください。

Data Pipeline を無効にする

ダッシュボードで プランを管理 をクリックすると、Data Pipeline を無効にできます。

参照情報

  • データウェアハウスへのデータのエクスポート
  • クラウドストレージへのデータのエクスポート
  • データの鮮度
このページはお役に立ちましたか。
はいいいえ
  • お困りのことがございましたら 、サポートにお問い合わせください。
  • 変更ログをご覧ください。
  • ご不明な点がございましたら、お問い合わせください。
  • LLM ですか?llms.txt を読んでください。
  • Powered by Markdoc