Weiter zum Inhalt
Konto erstellen
oder
anmelden
Das Logo der Stripe-Dokumentation
/
KI fragen
Konto erstellen
Anmelden
Jetzt starten
Zahlungen
Umsatz
Plattformen und Marktplätze
Geldmanagement
Entwickler-Tools
Übersicht
Billing
Steuer
Berichte
Daten
    Übersicht
    Schema
    Nutzerspezifische Berichte
    Sigma-API
    Nutzerspezifische Berichte erstellen
    Mit Sigma Abfragen schreiben
    Daten innerhalb einer Organisation abfragen
    Stripe-Daten synchronisieren
    Data Pipeline
    Daten in ein Data Warehouse exportieren
    Daten in Cloud-Speicher exportieren
      Daten in Google Cloud Storage exportieren
      Daten in AWS S3-Speicher exportieren
      Daten in Azure Blob Storage exportieren
      Verbindungsprobleme mit Cloud-Speicher diagnostizieren
      Organisation von Cloud-Speicherdateien
    Datenverwaltung
    Datenaktualität
    Anwendungsszenarien für Geschäfts- und Produktdaten
    Externe Daten importieren
Start-up-Gründung
StartseiteUmsatzDataExport data to cloud storage

Daten nach Amazon S3 exportieren

Automatisieren Sie mit Data Pipeline wiederkehrende Datenexporte von Stripe in Ihren Amazon S3-Speicher-Bucket.

Seite kopieren

Die Data Pipeline kann alle Ihre Stripe-Daten als Parquet-Dateien in Ihren Amazon S3-Speicher-Bucket liefern. Sie enthält ein Verzeichnis mit Dateien für jede Tabelle, das alle 6 Stunden geliefert und aktualisiert wird.

Voraussetzungen

Stellen Sie vor dem Start der Integration sicher, dass Sie über ein aktives AWS-Konto und die Berechtigung für Folgendes verfügen:

  1. Erstellen Sie einen Amazon S3-Bucket.
  2. Erstellen Sie eine IAM-Rolle, mit der Stripe Objekte im bereitgestellten Bucket erstellen kann.
  3. Mit einer Administrator- oder Entwicklerrolle auf das Stripe-Dashboard zugreifen.

Bucket erstellen

  1. Navigieren Sie zu Ihrer Amazon S3-Konsole in der von Ihnen gewählten Kontoregion.
  2. Erstellen Sie bei Bedarf einen neuen Storage-Bucket.
    • Wenn Sie derzeit keinen S3-Bucket haben, befolgen Sie die AWS-Richtlinien zum Erstellen Ihres ersten Buckets. Wir empfehlen, „stripe“ in den Namen aufzunehmen, z. B. „<name>-stripe-data“.
  3. Beachten Sie diesen Bucket-Namen und die Region, da Sie sie für zukünftige Schritte benötigen.

Onboarding-Prozess starten

  1. Besuchen Sie das Data Pipeline-Dashboard.
  2. Klicken Sie auf Starteb.
  3. Wählen Sie Amazon S3 aus.
  4. In diesem Berechtigungsschritt sehen Sie Codeblöcke, die Sie zum Erstellen der IAM-Rolle und der Vertrauensrichtlinie verwenden können.

Neue Berechtigungsrichtlinie erstellen

So erstellen Sie eine neue Berechtigungsrichtlinie:

  1. Klicken Sie in Ihrer AWS IAM-Konsole auf Richtlinien > Richtlinie erstellen > JSON.
  2. Fügen Sie das mitgelieferte JSON-Snippet aus dem Onboarding-Schritt von Stripe ein.
  3. Ersetzen Sie <BUCKET_RESOURCE> im Ressourcenabschnitt des JSON-Snippets den Namen durch Ihren Bucket-Namen.
  4. Geben Sie einen Namen für die neue Richtlinie an (zum Beispiel stripe-data-pipeline-policy).
  5. Klicken Sie auf Richtlinie erstellen.

Neue Vertrauensrolle mithilfe einer nutzerdefinierten Richtlinie erstellen

So erstellen Sie eine neue Rolle mit einer nutzerdefinierten Richtlinie:

  1. Klicken Sie in Ihrer AWS IAM-Konsole auf Rollen > Rolle erstellen > Benutzerdefinierte Vertrauensrichtlinie.
  2. Fügen Sie das mitgelieferte JSON-Snippet aus dem Onboarding-Schritt von Stripe ein.
  3. Klicken Sie auf Weiter, und wählen Sie dann die neu erstellte Berechtigungsrichtlinie aus Schritt 4 aus.
  4. Speichern Sie die Rolle mit dem folgenden Namen: stripe-data-pipeline-s3-role. Sie müssen genau diesen Namen verwenden.

AWS S3-Verbindung herstellen

  1. Kehren Sie zum Stripe Data Pipeline-Onboarding zurück.
  2. Geben Sie die AWS-Konto-ID, den Bucket-Namen und die Region ein, die im vorherigen Schritt generiert wurden.
  3. Wählen Sie Ihre Datenverschlüsselungsoption. Wenn Sie sich für die Verwendung eines von der Kundin/dem Kunden verwalteten Schlüssels entschieden haben, laden Sie Ihren öffentlichen Schlüssel hoch. Überprüfen Sie den Schritt zum Generieren von Verschlüsselungsschlüsseln, um zu sehen, wie die Erstellung eines Schlüssels abläuft.
  4. Klicken Sie auf Weiter. Dadurch werden Testdaten an den von Ihnen angegebenen Bucket gesendet, aber keine Produktionsdaten.
  5. Wenn Sie die Zustellung der Testdaten bestätigen, gehen Sie zu Ihrem S3-Bucket.
  6. Öffnen Sie den Bucket, navigieren Sie zum Verzeichnis penny_test und öffnen Sie das Unterverzeichnis mit dem Präfix acct_ oder org_, um die gelieferte Testdatei account_validation.csv zu finden.
  7. Laden Sie die Datei account_validation.csv herunter.
  8. Laden Sie diese Testdatei in Ihrem Onboarding-Schritt für die Data Pipeline hoch.
  9. Klicken Sie auf Wert bestätigen.
  10. Wenn Sie den Testwert bestätigen, klicken Sie auf Abonnieren. Dadurch abonnieren Sie das Produkt und planen die anfängliche Vollauslastung der Daten für die Bereitstellung in Ihrem AWS S3-Bucket, ein Vorgang, der 6 bis 12 Stunden dauern kann.

OptionalVerschlüsselungsschlüssel generieren

War diese Seite hilfreich?
JaNein
Benötigen Sie Hilfe? Kontaktieren Sie den Kundensupport.
Nehmen Sie an unserem Programm für frühzeitigen Zugriff teil.
Schauen Sie sich unser Änderungsprotokoll an.
Fragen? Sales-Team kontaktieren.
LLM? Lesen Sie llms.txt.
Unterstützt von Markdoc