# Daten in ein Data Warehouse exportieren Automatisieren Sie den Datenexport von Stripe nach Snowflake, Redshift oder Databricks. Data Pipeline unterstützt derzeit [Snowflake](https://docs.snowflake.com/en/user-guide/intro-regions.html) (bereitgestellt auf AWS, Azure oder Google Cloud), [Amazon Redshift](https://docs.aws.amazon.com/awsconsolehelpdocs/latest/gsg/select-region.html) und [Databricks](https://docs.databricks.com/aws/en/resources/supported-regions)-Datenregionen. | AWS-Region | Snowflake | Amazon Redshift RA3 (mit Verschlüsselung) | Databricks | | ---------------------------- | ------------- | ----------------------------------------- | ------------- | | us-west-2 (Oregon) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | us-east-2 (Ohio) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | us-east-1 (N. Virginia) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | us-west-1 (Nordkalifornien) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | ca-central-1 (Zentralkanada) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | sa-east-1 (São Paulo) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | eu-central-1 (Frankfurt) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | eu-central-2 (Zürich) | ✓ Unterstützt | ❌ Nicht unterstützt | ✓ Unterstützt | | eu-west-1 (Irland) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | eu-west-2 (London) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | eu-west-3 (Paris) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | eu-north-1 (Stockholm) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | me-south-1 (Bahrain) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | ap-southeast-1 (Singapur) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | ap-southeast-2 (Sydney) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | ap-southeast-3 (Jakarta) | ✓ Unterstützt | ❌ Nicht unterstützt | ✓ Unterstützt | | ap-northeast-1 (Tokio) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | ap-northeast-2 (Seoul) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | | ap-northeast-3 (Osaka) | ✓ Unterstützt | ❌ Nicht unterstützt | ✓ Unterstützt | | ap-east-1 (Hongkong) | ✓ Unterstützt | ✓ Unterstützt | ✓ Unterstützt | ## Jetzt starten Navigieren Sie im Stripe-Dashboard zu Berichterstellung > [Datenverwaltung](https://dashboard.stripe.com/data-management) und durchlaufen Sie die [Onboarding-Schritte](https://docs.stripe.com/stripe-data/access-data-in-warehouse/data-warehouses.md#sdp-onboarding-video). Nachdem Sie die Datenfreigabe akzeptiert und das Onboarding abgeschlossen haben, können Sie innerhalb von 12 Stunden auf Ihre Stripe-Kerndaten in Snowflake, Amazon Redshift oder Databricks zugreifen. Nach der ersten Übermittlung werden Ihre Stripe-Daten [regelmäßig aktualisiert](https://docs.stripe.com/stripe-data/data-pipeline/data-freshness.md). > Sie können nur ein Warehouse-Konto mit Ihrem Stripe-Konto verbinden. ### So funktioniert das Onboarding #### Snowflake [Watch on YouTube](https://www.youtube.com/watch?v=Ric7L5BCSQM) ### Verknüpfen Sie Ihr Snowflake-Konto Senden Sie zuerst alle aktuellen Stripe-Daten und Berichte über das Dashboard: 1. Klicken Sie auf der Seite [Einstellungen für Data Pipeline](https://dashboard.stripe.com/settings/stripe-data-pipeline) im Dashboard auf **Registrieren**. 1. Wählen Sie in der Schublade **Snowflake** aus und klicken Sie dann auf **Weiter**. 1. Geben Sie Ihre Snowflake [Konto-Kennung](https://docs.snowflake.com/en/user-guide/admin-account-identifier.html) ein und wählen Sie dann den Cloud-Anbieter, bei dem Ihr Snowflake-Konto eingerichtet ist (AWS, Azure oder GCP). 1. Wählen Sie Ihre Region aus und klicken Sie dann auf **Weiter**. 1. Kopieren Sie das SQL aus dem Codeblock, fügen Sie es in ein SQL-Arbeitsblatt im Snowflake-Warehouse ein und führen Sie die Abfrage aus, um den eindeutigen Wert abzurufen. Geben Sie den Wert in das Textfeld ein und klicken Sie auf **Abonnieren**. ### Greifen Sie auf Ihre Datenfreigabe in Snowflake zu Sobald Ihre Stripe-Kerndaten verfügbar sind (in der Regel innerhalb von 12 Stunden), können Sie über Ihr Snowflake-Konto auf Ihre Daten zugreifen: 1. Navigieren Sie zu Ihrem Snowflake-Konto, um die Stripe-Datenfreigabe zu akzeptieren. 1. Wenn Ihr Snowflake-Cloud-Anbieter auf AWS in einer dieser sieben Regionen eingesetzt wird: - `us-east-1`: Freigabe vom Konto `GSWUDFY_STRIPE_AWS_US_EAST_1` akzeptieren - `us-west-2`: Freigabe des Kontos `JZA07263` akzeptieren - `us-east-2`: Freigabe des Kontos `VM70738` akzeptieren - `ca-central-1`: Freigabe des Kontos `TD26747` akzeptieren - `eu-central-1`: Freigabe vom Konto `GSWUDFY-STRIPE_AWS_EU_CENTRAL_1` akzeptieren - `eu-west-1`: Freigabe vom Konto `GSWUDFY-STRIPE_AWS_EU_WEST_1` akzeptieren - `ap-southeast-2`: Freigabe des Kontos `KB26084` akzeptieren Lassen Sie in Snowflake eine/n Nutzer/in mit dem Zugriff `ACCOUNTADMIN` zu **Daten** > **Freigegebene Daten** gehen. Navigieren Sie unter **Bereit zum Abrufen** zu der Freigabe mit dem Namen `SHARE_[ACCOUNT_IDENTIFIER]` des entsprechenden Stripe-Kontos. Klicken Sie dann auf **Gemeinsame Daten abrufen**, um die Freigabe zu akzeptieren. 1. Wenn Ihr Snowflake-Cloud-Anbieter nicht AWS ist oder wenn Ihre AWS-Region nicht eine der sieben oben aufgeführten Regionen ist: 1. Ihr Freigabe stammt von dem Konto `JZA07263` als privater Eintrag. 1. Lassen Sie in Snowflake eine Nutzerin bzw. einen Nutzer mit `ACCOUNTADMIN`-Zugriff zu **Datenfreigabe** > **Externe Freigabe** gehen. 1. Suchen Sie die Freigabe unter `JZA07263` und folgen Sie den Anweisungen von Snowflake. 1. Geben Sie in dem daraufhin geöffneten Modal einen Namen für die Datenbank (z. B. „Stripe“) ein, wählen Sie die Rollen aus, denen Sie Zugriff gewähren möchten (z. B. `SYSADMIN`), und klicken Sie dann auf **Daten übertragen**. 1. Vergewissern Sie sich, dass Sie Ihre Stripe-Daten unter **Data From Direct Shares** (Daten aus direkten Datenfreigaben) und **Databases** (Datenbanken) anzeigen können. Sie können Ihre Stripe-Daten jetzt direkt in Snowflake abfragen. #### Amazon Redshift RA3 [Watch on YouTube](https://www.youtube.com/watch?v=cp8684Lyi0M) Bevor Sie beginnen, vergewissern Sie sich, dass Ihr Cluster mit Data Pipeline kompatibel ist. Nur RA3-Knotentypen mit aktivierter [Cluster-Verschlüsselung](https://docs.aws.amazon.com/redshift/latest/mgmt/working-with-db-encryption.html) sind mit dieser Methode der gemeinsamen Datennutzung kompatibel. ### Verknüpfen Sie Ihr Redshift-Konto. Senden Sie zuerst alle aktuellen Stripe-Daten und Berichte über das Dashboard: 1. Klicken Sie auf der Seite [Einstellungen für Data Pipeline](https://dashboard.stripe.com/settings/stripe-data-pipeline) im Dashboard auf **Registrieren**. 1. Wählen Sie im Modal **Redshift** aus und klicken Sie dann auf **Weiter**. 1. Geben Sie Ihre Amazon-[Konto-ID](https://docs.aws.amazon.com/general/latest/gr/acct-identifiers.html) und Ihre AWS-Region ein, und klicken Sie dann auf **Weiter**. 1. Bestätigen Sie die Angaben und klicken Sie dann auf **Sign up**, um die Erstellung Ihrer Datenfreigabe zu starten. Ihre Daten sollten innerhalb von 12 Stunden in Redshift verfügbar sein. Wenn Sie nach 12 Stunden keine eingehende Datenfreigabe sehen, überprüfen Sie, ob die Cluster-Verschlüsselung [in der AWS-Konsole](https://docs.aws.amazon.com/redshift/latest/mgmt/configuring-db-encryption-console.html) aktiviert ist. Amazon Redshift zeigt nur Freigaben in kompatiblen Clustern an. ### Greifen Sie auf Ihre Datenfreigabe in Redshift zu Nach 12 Stunden können Sie dann über Ihr Amazon Redshift-Konto auf Ihre Datenfreigabe zugreifen: 1. Gehen Sie zu Ihrem Amazon Redshift-Konto, um die Stripe-Datenfreigabe zu akzeptieren. Lassen Sie einen Administrator in Amazon Redshift die Registerkarte **Datashares** auf Kontoebene in der linken Navigation der Konsole aufrufen. 1. Gehen Sie im Abschnitt **Von anderen Konten** zu einer Freigabe mit dem Titel `share_[ACCOUNT_ID]`. Markieren Sie das Kästchen neben der Datenfreigabe und klicken Sie dann auf **Verknüpfen**. 1. Wählen Sie in dem Modal, das geöffnet wird, die Namespaces aus, die Zugriff auf diese Daten haben. Wenn Sie möchten, dass alle Amazon Redshift-Cluster in dieser Region Zugriff auf diese Daten haben, wählen Sie **Associate the entire AWS account** (Gesamtes AWS-Konto verknüpfen) aus. 1. Wählen Sie die akzeptierte Freigabe aus, um die Seite mit den Freigabedetails zu öffnen, und klicken Sie dann auf **Mit Datenbank verbinden**. Stellen Sie anschließend eine Verbindung mit einer Ihrer bestehenden Datenbanken her, wie Sie es in der Redshift-Abfragekonsole tun würden, und klicken Sie dann auf **Datenbank aus Datenfreigabe erstellen**. 1. Geben Sie in dem folgenden Modal einen Namen für die Datenbank an (z. B. „Stripe“). Sie können Ihre Stripe-Daten nun direkt in Amazon Redshift abfragen. > Es gibt zwei Ansichten, in denen die Benutzeroberfläche von Amazon Redshift eingehende Datenfreigaben anzeigt: Ansicht auf Kontoebene und Ansicht auf Cluster-Ebene. Achten Sie beim Akzeptieren der Datenfreigabe von Stripe darauf, dass Sie keine Freigaben in einem einzelnen Cluster anzeigen. Verwenden Sie stattdessen die linke Navigation in der Amazon Redshift Konsole, um alle Freigaben für Ihr Konto anzuzeigen. #### Databricks ### Verknüpfen Sie Ihr Databricks-Konto. Senden Sie zuerst alle aktuellen Stripe-Daten und Berichte über das Dashboard: 1. Klicken Sie auf der Seite [Einstellungen für Data Pipeline](https://dashboard.stripe.com/settings/stripe-data-pipeline) im Dashboard auf **Registrieren**. 1. Wählen Sie in der Schublade **Databricks** aus und klicken Sie dann auf **Weiter**. 1. Klicken Sie in Ihrer [Databricks-Konsole](https://accounts.cloud.databricks.com) auf **Neu > Abfrage**. 1. Kopieren Sie bitte die folgende Abfrage und führen Sie sie aus: ```sql select current_metastore(); ``` 1. Kopieren Sie das Ergebnis. Es hat das Format `cloud:region:uuid` (zum Beispiel `aws:us-east-2:a1b2c3d4-e5f6-7890-abcd-ef1234567890`). 1. Fügen Sie die Freigabekennung in das Textfeld ein und klicken Sie auf **Weiter**. ### Auf Ihre Datenfreigabe in Databricks zugreifen Nachdem Stripe die Datenfreigabe an Ihr Databricks-Konto gesendet hat, können Sie über Ihre Databricks-Konsole darauf zugreifen: 1. Klicken Sie in Ihrer Databricks-Konsole auf **Neu > Abfrage** und führen Sie den folgenden Befehl aus, um sich selbst Provider-Zugriff zu gewähren: ```sql GRANT USE PROVIDER ON METASTORE TO `your_email`; ``` Ersetzen Sie `your_email` durch die E-Mail-Adresse Ihres Databricks-Kontos. 1. Navigieren Sie zu **Katalog > Delta-Freigabe > Für mich freigegeben**. 1. Klicken Sie auf die **Stripe**-Freigabe. 1. Klicken Sie auf **Zum Katalog hinzufügen**. 1. Wählen Sie **Neuen Katalog erstellen** und geben Sie einen eindeutigen Katalognamen ein. 1. Klicken Sie auf **Erstellen**. 1. Überprüfen Sie, ob Ihre Stripe-Daten im neuen Katalog verfügbar sind. ### Verifizieren Sie Ihr Konto Nachdem Sie den Katalog hinzugefügt haben, führen Sie bitte den Verifizierungsschritt im Dashboard durch: 1. Klicken Sie in Ihrer Databricks-Konsole auf **Neu > Abfrage**. 1. Kopieren Sie die im Dashboard angezeigte Überprüfungsabfrage und führen Sie sie aus. Die Abfrage ruft einen Testwert aus Ihrem neu eingebundenen Katalog ab. 1. Kopieren Sie das Abfrageergebnis und fügen Sie es in das Verifizierungsfeld im Dashboard ein. 1. Klicken Sie auf **Databricks aktivieren**, um die Einrichtung abzuschließen. ### Warehouse-Konto ändern So ändern Sie das mit Ihrem Stripe-Konto verbundene Warehouse-Konto: 1. Deaktivieren Sie Data Pipeline auf der [Einstellungsseite](https://dashboard.stripe.com/settings/stripe-data-pipeline) des Dashboards. 1. Registrieren sich erneut für die Data Pipeline und folgen dafür den obigen Schritten, um das gewünschte, neue Warehouse-Konto zu verbinden. So fügen Sie Ihrem Warehouse-Konto ein weiteres Stripe-Konto hinzu: 1. Folgen Sie den oben genannten Schritten zur [Registrierung](https://docs.stripe.com/stripe-data/access-data-in-warehouse/data-warehouses.md#get-started) für Ihr neues Stripe-Konto. 1. Verwenden Sie dieselbe Konto-Kennung wie oben für das jeweilige Warehouse. Um Ihre Konto-ID zu finden, gehen Sie auf die [Einstellungsseite](https://dashboard.stripe.com/settings/stripe-data-pipeline) des Dashboards und suchen Sie **ID** unter dem Abschnitt **Verbundenes Data Warehouse**. ## Stripe-Daten in Ihrem Data Warehouse abfragen In Snowflake, Amazon Redshift und Databricks sind Ihre Daten als sichere Ansichten verfügbar. Befolgen Sie die nachstehenden Schritte, um Ihre Daten abzufragen. #### Snowflake Zeigen Sie Ihre verfügbaren Stripe-Daten an, indem Sie in der von Ihnen erstellten Datenbank zu **Views** (Ansichten) navigieren. Für jede Tabelle können Sie außerdem die verfügbaren Spalten anzeigen, indem Sie die Tabelle anklicken und zu **Columns** (Spalten) navigieren. #### Amazon Redshift RA3 Zeigen Sie Ihre sämtlichen verfügbaren Stripe-Daten an, indem Sie in der von Ihnen erstellten Datenbank zu **Tables and views** (Tabellen und Ansichten) navigieren. #### Databricks Zeigen Sie Ihre verfügbaren Stripe-Daten an, indem Sie in Databricks zu **Katalog** navigieren. Wählen Sie den Katalog aus, den Sie während des Onboarding erstellt haben, und durchsuchen Sie dann die verfügbaren Schemata und Ansichten. ## Finanzberichte in Data Pipeline Um Ihren Finanzabschluss zu erleichtern, können Sie direkt in Ihrem Data Warehouse auf [die Berichte](https://docs.stripe.com/stripe-reports.md) von Stripe zugreifen. > Derzeit sind keine Finanzberichte für Amazon Redshift oder Databricks verfügbar. Die Vorlagen für Finanzberichte haben das Präfix `FINANCIAL_REPORT` und stehen als Ansichten in Ihrem Data Warehouse zur Verfügung. ![](https://b.stripecdn.com/docs-statics-srv/assets/finrep.eb725f745cb57d3e03e813f96b3e8071.png) ### Generieren von Finanzberichten in Snowflake Bei Ihren Datumsangaben können Sie den Genauigkeitsgrad bestimmen: START_DATE = ‘2021-09-01’; START_DATE = ‘2021-09-01 00:00:00’; START_DATE = ‘2021-09-01 00:00:00.000’; Zum Generieren von Finanzberichten über Data Pipeline müssen einige nutzerdefinierte Variablen festgelegt werden. Es handelt sich um dieselben Variablen, die beim Generieren von Berichten über das Dashboard oder die API festgelegt werden: - `START_DATE` (Varchar): Das Startdatum des Berichts (einschließlich). - `END_DATE` (Varchar): Das Enddatum des Berichts (exklusive) - `TIMEZONE` (Varchar): Die Zeitzone für Nicht-UTC-Datetime-Spalten. Um diese Variablen festzulegen und die Abfrage für Berichte auszuführen, gehen Sie wie folgt vor: 1. Erstellen Sie ein neues Arbeitsblatt. 1. Legen Sie für das Datenbankschema und die erforderlichen Variablen Ihre gewünschten Werte fest. ```sql -- set schema based on the name you gave your Stripe database use schema db_name.stripe; -- set financial report template variables set (TIMEZONE, START_DATE, END_DATE) = ('UTC', '2021-09-01', '2021-10-01'); ``` > Führen Sie diese Codezeilen separat aus, bevor Sie versuchen, Tabellen abzufragen, die sie benötigen. Andernfalls erhalten Sie möglicherweise eine Fehlermeldung darüber, dass eine Sitzungsvariable nicht existiert. > > Wenn Sie den [Snowflake Connector for Python](https://docs.snowflake.com/en/user-guide/python-connector.html) verwenden, legen Sie den Sitzungsparameter `TIMEZONE` mit dem Befehl `ALTER SESSION SET TIMEZONE = 'UTC'` fest. 1. Nach der Ausführung des Codes zum Festlegen der erforderlichen Variablen fragen Sie die Ansicht des Berichts ab, den Sie generieren möchten. Beispiel: ```sql select * from FINANCIAL_REPORT_BALANCE_CHANGE_FROM_ACTIVITY_ITEMIZED; ``` Gibt die gleichen Ergebnisse zurück, die Ihnen im Dashboard oder über die API für den Bericht über die Einzelaufstellung der Guthabenänderung resultierend aus Aktivitäten angezeigt werden: ![](https://b.stripecdn.com/docs-statics-srv/assets/report.601f8e6f124d2dbf1adc74388fa58025.png) > #### Benötigen Sie Unterstützung für ein anderes Dateiformat? > > Wenn Sie Dateien mit einer anderen Struktur oder in einem benutzerdefinierten Format hochladen möchten, wenden Sie sich an den [Stripe Support](https://support.stripe.com/contact/email?topic=third_party_integrations&subject=Stripe%20Data%20Pipeline%20\(SDP\)).