Weiter zum Inhalt
Konto erstellen
oder
anmelden
Das Logo der Stripe-Dokumentation
/
KI fragen
Konto erstellen
Anmelden
Jetzt starten
Zahlungen
Umsatz
Plattformen und Marktplätze
Geldmanagement
Entwicklerressourcen
Übersicht
Billing
ÜbersichtÜber die Billing APIs
Abonnements
Invoicing
Nutzungsbasierte Abrechnung
Angebote
Kundenverwaltung
Abrechnung mit anderen Produkten
Umsatzsicherung
Automatisierungen
Integration testen
Steuer
Übersicht
Stripe Tax verwenden
Compliance-Management
Berichte
Übersicht
Bericht auswählen
Berichte konfigurieren
API für Berichte
Berichte für mehrere Konten
Umsatzrealisierung
Daten
ÜbersichtSchema
Nutzerspezifische Berichte
Data Pipeline
    Übersicht
    Daten in ein Data Warehouse exportieren
    Daten in Cloud-Speicher exportieren
      Daten in Google Cloud Storage exportieren
      Daten in AWS S3-Speicher exportieren
      Daten in Azure Blob Storage exportieren
      Verbindungsprobleme mit Cloud-Speicher diagnostizieren
      Organisation von Cloud-Speicherdateien
Datenverwaltung
StartseiteUmsatzData PipelineExport data to cloud storage

Daten nach Amazon S3 exportieren

Automatisieren Sie mit Data Pipeline wiederkehrende Datenexporte von Stripe in Ihren Amazon S3-Speicher-Bucket.

Die Data Pipeline kann alle Ihre Stripe-Daten als Parquet-Dateien in Ihren Amazon S3-Speicher-Bucket liefern. Sie enthält ein Verzeichnis mit Dateien für jede Tabelle, das alle 3 Stunden geliefert und aktualisiert wird.

Videoinhalte werden geladen …

Voraussetzungen

Stellen Sie vor dem Start der Integration sicher, dass Sie über ein aktives AWS-Konto und die Berechtigung für Folgendes verfügen:

  1. Erstellen Sie einen Amazon S3-Bucket.
  2. Erstellen Sie eine IAM-Rolle, mit der Stripe Objekte im bereitgestellten Bucket erstellen kann.
  3. Mit einer Administrator- oder Entwicklerrolle auf das Stripe-Dashboard zugreifen.

Bucket erstellen

  1. Navigieren Sie zu Ihrer Amazon S3-Konsole in der von Ihnen gewählten Kontoregion.
  2. Erstellen Sie bei Bedarf einen neuen Storage-Bucket.
    • Wenn Sie derzeit keinen S3-Bucket haben, befolgen Sie die AWS-Richtlinien zum Erstellen Ihres ersten Buckets. Wir empfehlen, „stripe“ in den Namen aufzunehmen, z. B. „<name>-stripe-data“.
  3. Beachten Sie diesen Bucket-Namen und die Region, da Sie sie für zukünftige Schritte benötigen.

Onboarding-Prozess starten

  1. Besuchen Sie das Data Pipeline-Dashboard.
  2. Klicken Sie auf Starteb.
  3. Wählen Sie Amazon S3 aus.
  4. In diesem Berechtigungsschritt sehen Sie Codeblöcke, die Sie zum Erstellen der IAM-Rolle und der Vertrauensrichtlinie verwenden können.

Neue Berechtigungsrichtlinie erstellen

So erstellen Sie eine neue Berechtigungsrichtlinie:

  1. Klicken Sie in Ihrer AWS IAM-Konsole auf Richtlinien > Richtlinie erstellen > JSON.
  2. Fügen Sie das mitgelieferte JSON-Snippet aus dem Onboarding-Schritt von Stripe ein.
  3. Ersetzen Sie <BUCKET_RESOURCE> im Ressourcenabschnitt des JSON-Snippets den Namen durch Ihren Bucket-Namen.
  4. Geben Sie einen Namen für die neue Richtlinie an (zum Beispiel stripe-data-pipeline-policy).
  5. Klicken Sie auf Richtlinie erstellen.

Neue Vertrauensrolle mithilfe einer nutzerdefinierten Richtlinie erstellen

So erstellen Sie eine neue Rolle mit einer nutzerdefinierten Richtlinie:

  1. Klicken Sie in Ihrer AWS IAM-Konsole auf Rollen > Rolle erstellen > Benutzerdefinierte Vertrauensrichtlinie.
  2. Fügen Sie das mitgelieferte JSON-Snippet aus dem Onboarding-Schritt von Stripe ein.
  3. Klicken Sie auf Weiter, und wählen Sie dann die neu erstellte Berechtigungsrichtlinie aus Schritt 4 aus.
  4. Speichern Sie die Rolle mit dem folgenden Namen: stripe-data-pipeline-s3-role. Sie müssen genau diesen Namen verwenden.

AWS S3-Verbindung herstellen

  1. Kehren Sie zum Stripe Data Pipeline-Onboarding zurück.
  2. Geben Sie die AWS-Konto-ID, den Bucket-Namen und die Region ein, die im vorherigen Schritt generiert wurden.
  3. Wählen Sie Ihre Datenverschlüsselungsoption. Wenn Sie sich für die Verwendung eines von der Kundin/dem Kunden verwalteten Schlüssels entschieden haben, laden Sie Ihren öffentlichen Schlüssel hoch. Überprüfen Sie den Schritt zum Generieren von Verschlüsselungsschlüsseln, um zu sehen, wie die Erstellung eines Schlüssels abläuft.
  4. Klicken Sie auf Weiter. Dadurch werden Testdaten an den von Ihnen angegebenen Bucket gesendet, aber keine Produktionsdaten.
  5. Wenn Sie die Zustellung der Testdaten bestätigen, gehen Sie zu Ihrem S3-Bucket.
  6. Open the bucket, go to the penny_test directory, and open the acct_ or org_ prefixed sub-directory to locate the delivered account_validation.csv test file.
  7. Laden Sie die Datei account_validation.csv herunter.
  8. Laden Sie diese Testdatei in Ihrem Onboarding-Schritt für die Data Pipeline hoch.
  9. Klicken Sie auf Wert bestätigen.
  10. Wenn Sie den Testwert bestätigen, klicken Sie auf Abonnieren. Dadurch abonnieren Sie das Produkt und planen die anfängliche Vollauslastung der Daten für die Bereitstellung in Ihrem AWS S3-Bucket, ein Vorgang, der 6 bis 12 Stunden dauern kann.

OptionalVerschlüsselungsschlüssel generieren

War diese Seite hilfreich?
JaNein
  • Benötigen Sie Hilfe? Kontaktieren Sie den Kundensupport.
  • Nehmen Sie an unserem Programm für frühzeitigen Zugriff teil.
  • Schauen Sie sich unser Änderungsprotokoll an.
  • Fragen? Sales-Team kontaktieren.
  • LLM? Lesen Sie llms.txt.
  • Unterstützt von Markdoc