# Exporter des données vers un entrepôt de données Automatisez les exportations de données de Stripe vers Snowflake, Redshift ou Databricks. Data Pipeline prend actuellement en charge [Snowflake](https://docs.snowflake.com/en/user-guide/intro-regions.html) (déployé sur AWS, Azure ou Google Cloud), [Amazon Redshift](https://docs.aws.amazon.com/awsconsolehelpdocs/latest/gsg/select-region.html) et les régions de données [Databricks](https://docs.databricks.com/aws/en/resources/supported-regions). | Région AWS | Snowflake | Amazon Redshift RA3 (avec chiffrement) | Databricks | | ------------------------------ | ---------------- | -------------------------------------- | ---------------- | | us-west-2 (Oregon) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | us-east-2 (Ohio) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | us-east-1 (Virginie du Nord) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | us-west-1 (Californie du Nord) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | ca-central-1 (Canada central) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | sa-east-1 (São Paulo) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | eu-central-1 (Francfort) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | eu-central-2 (Zurich) | ✓ Pris en charge | ❌ Non pris en charge | ✓ Pris en charge | | eu-west-1 (Irlande) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | eu-west-2 (Londres) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | eu-west-3 (Paris) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | eu-north-1 (Stockholm) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | me-south-1 (Bahrain) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | ap-southeast-1 (Singapour) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | ap-southeast-2 (Sydney) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | ap-southeast-3 (Jakarta) | ✓ Pris en charge | ❌ Non pris en charge | ✓ Pris en charge | | ap-northeast-1 (Tokyo) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | ap-northeast-2 (Séoul) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | | ap-northeast-3 (Osaka) | ✓ Pris en charge | ❌ Non pris en charge | ✓ Pris en charge | | ap-east-1 (Hong Kong) | ✓ Pris en charge | ✓ Pris en charge | ✓ Pris en charge | ## Démarrer Accédez à Reporting (Rapports) > [Data management (Gestion des données)](https://dashboard.stripe.com/data-management) dans le Dashboard Stripe, puis suivez les [étapes d’onboarding](https://docs.stripe.com/stripe-data/access-data-in-warehouse/data-warehouses.md#sdp-onboarding-video). Après avoir accepté le partage de données et finalisé l’onboarding, vous pourrez accéder à vos données Stripe principales dans Snowflake, Amazon Redshift ou Databricks sous 12 heures. Après le chargement initial, vos données Stripe sont [mises à jour régulièrement](https://docs.stripe.com/stripe-data/data-pipeline/data-freshness.md). > Vous ne pouvez associer qu’un seul compte d’entrepôt à votre compte Stripe. ### Comment s’inscrire #### Snowflake [Watch on YouTube](https://www.youtube.com/watch?v=Ric7L5BCSQM) ### Associer votre compte Snowflake Tout d’abord, envoyez tous vos rapports et vos données Stripe actualisés via le Dashboard : 1. Sur la page [Paramètres de Data Pipeline](https://dashboard.stripe.com/settings/stripe-data-pipeline) du Dashboard, cliquez sur **S’inscrire**. 1. Dans le volet, sélectionnez **Snowflake**, puis cliquez sur **Continuer**. 1. Saisissez votre [identifiant de compte](https://docs.snowflake.com/en/user-guide/admin-account-identifier.html) Snowflake, puis sélectionnez le fournisseur de cloud sur lequel votre compte Snowflake est déployé (AWS, Azure ou GCP). 1. Sélectionnez votre région, puis cliquez sur **Suivant**. 1. Copiez le code SQL du bloc de code, insérez-le dans une feuille de calcul SQL dans l’entrepôt Snowflake et exécutez la requête pour récupérer la valeur unique. Saisissez la valeur dans la zone de texte et cliquez sur **S’abonner**. ### Accéder à votre partage de données dans Snowflake Une fois vos données Stripe principales disponibles (généralement sous 12 heures), accédez à vos données depuis votre compte Snowflake : 1. Accédez à votre compte Snowflake afin d’accepter le partage de données Stripe. 1. Si votre fournisseur de cloud Snowflake est déployé sur AWS dans l’une des sept régions suivantes : - `us-east-1` : accepter la part du compte `GSWUDFY_STRIPE_AWS_US_EAST_1` - `us-west-2` : accepter la part du compte `JZA07263` - `us-east-2` : accepter la part du compte `VM70738` - `ca-central-1` : accepter la part du compte `TD26747` - `eu-central-1` : accepter la part du compte `GSWUDFY-STRIPE_AWS_EU_CENTRAL_1` - `eu-west-1` : accepter la part du compte `GSWUDFY-STRIPE_AWS_EU_WEST_1` - `ap-southeast-2` : accepter la part du compte `KB26084` Dans Snowflake, demandez à un utilisateur disposant d’un accès `ACCOUNTADMIN` d’accéder à **Données** > **Données partagées**. Sous **Prêt à obtenir**, accédez au partage appelé `SHARE_[ACCOUNT_IDENTIFIER]` à partir du compte Stripe correspondant. Cliquez ensuite sur **Obtenir les données partagées** pour accepter le partage. 1. Si votre fournisseur de cloud Snowflake n’est pas AWS, ou si votre région AWS n’est pas l’une des sept régions répertoriées ci-dessus : 1. Votre part provient du compte `JZA07263` en tant que liste privée. 1. Dans Snowflake, demandez à un utilisateur disposant du rôle `ACCOUNTADMIN` d’accéder à **Data Sharing** > **External Sharing**. 1. Localisez le partage de `JZA07263` et suivez les instructions comme demandé par Snowflake. 1. Dans la fenêtre modale qui s’ouvre, donnez un nom à la base de données (par exemple, « Stripe »), sélectionnez les rôles auxquels vous souhaitez accorder l’accès (par exemple, `SYSADMIN`), puis cliquez sur **Obtenir les données**. 1. Confirmez que vous pouvez afficher vos données Stripe dans **Données provenant de partages directs** et **Bases de données**. Vous pouvez maintenant interroger vos données Stripe directement dans Snowflake. #### Amazon Redshift RA3 [Watch on YouTube](https://www.youtube.com/watch?v=cp8684Lyi0M) Avant de commencer, vérifiez que votre cluster est compatible avec Data Pipeline. Seuls les types de nœuds RA3 avec [chiffrement cluster](https://docs.aws.amazon.com/redshift/latest/mgmt/working-with-db-encryption.html) activé sont compatibles avec cette méthode de partage de données. ### Associer votre compte Redshift Tout d’abord, envoyez tous vos rapports et vos données Stripe actualisés via le Dashboard : 1. Dans la page [Paramètres de Data Pipeline](https://dashboard.stripe.com/settings/stripe-data-pipeline) du Dashboard, cliquez sur **S’inscrire**. 1. Depuis la fenêtre modale, sélectionnez **Redshift**, puis cliquez sur **Continuer**. 1. Saisissez votre [ID de compte](https://docs.aws.amazon.com/general/latest/gr/acct-identifiers.html) Amazon et votre région AWS, puis cliquez sur **Continuer**. 1. Confirmez les informations, puis cliquez sur **S’inscrire** pour commencer à créer votre partage de données ; vos données devraient être disponibles dans Redshift sous 12 heures. Si vous ne constatez aucune donnée entrante après 12 heures, vérifiez que le chiffrement de cluster est activé [dans la console AWS](https://docs.aws.amazon.com/redshift/latest/mgmt/configuring-db-encryption-console.html). Amazon Redshift affiche uniquement les partages pour les clusters compatibles. ### Accéder à votre partage de données dans Redshift Ensuite, au bout de 12 heures, accédez à votre partage de données depuis votre compte Amazon Redshift : 1. Accédez à votre compte Amazon Redshift pour accepter le partage de données Stripe. Dans Amazon Redshift, demandez à un administrateur d’accéder à l’onglet **Partage de données** au niveau du compte dans le volet de navigation de gauche de la console. 1. Dans la section **Depuis d’autres comptes**, accédez à un partage intitulé `share_[ACCOUNT_ID]`. Cochez la case en regard du partage de données, puis cliquez sur **Associer**. 1. Dans la fenêtre modale qui s’ouvre, sélectionnez les espaces de noms qui ont accès à ces données. Si vous souhaitez un accès à ces données pour tous les clusters d’Amazon Redshift de cette région, sélectionnez **Associer l’intégralité du compte AWS**. 1. Sélectionnez le partage accepté pour ouvrir la page relative aux informations sur le partage, puis cliquez sur **Connecter à la base de données**. Ensuite, connectez-vous à l’une de vos bases de données existantes, comme vous le feriez dans la console de requête de Redshift, puis cliquez sur **Créer une base de données depuis le partage de données**. 1. Dans la fenêtre modale suivante, donnez un nom à la base de données (par exemple, « Stripe »). Vous pouvez désormais interroger votre base de données Stripe directement dans Amazon Redshift. > Il existe deux vues dans lesquelles l’interface utilisateur d’Amazon Redshift affiche les partages de données entrantes : la vue au niveau du compte et la vue au niveau du cluster. Lorsque vous acceptez le partage de données de Stripe, assurez-vous que vous n’affichez pas les partages sur un cluster individuel. Utilisez plutôt le volet de navigation de gauche sur la console Amazon Redshift pour afficher tous les partages de votre compte. #### Databricks ### Associer votre copte Databricks Tout d’abord, envoyez tous vos rapports et vos données Stripe actualisés via le Dashboard : 1. Sur la page [Paramètres de Data Pipeline](https://dashboard.stripe.com/settings/stripe-data-pipeline) du Dashboard, cliquez sur **S’inscrire**. 1. Dans le volet, sélectionnez **Databricks**, puis cliquez sur **Continuer**. 1. Dans votre [console Databricks](https://accounts.cloud.databricks.com), cliquez sur **Nouveau > Requête**. 1. Copiez et exécutez la requête suivante : ```sql select current_metastore(); ``` 1. Copiez le résultat. Il se présente au format `cloud:region:uuid` (par exemple, `aws:us-east-2:a1b2c3d4-e5f6-7890-abcd-ef1234567890`). 1. Collez l’identifiant de partage dans le champ de texte, puis cliquez sur **Continuer**. ### Accéder à votre partage de données dans Databricks Une fois que Stripe a envoyé le partage de données à votre compte Databricks, accédez-y depuis votre console Databricks : 1. Dans votre console Databricks, cliquez sur **Nouveau > Requête** et exécutez la commande suivante pour vous accorder l’accès au fournisseur : ```sql GRANT USE PROVIDER ON METASTORE TO `your_email`; ``` Remplacez `your_email` par l’adresse e-mail de votre compte Databricks. 1. Accédez à **Catalogue > Partage Delta > Partagé avec moi**. 1. Cliquez sur le partage **Stripe**. 1. Cliquez sur **Monter au catalogue**. 1. Sélectionnez **Créer un catalogue** et saisissez un nom de catalogue unique. 1. Cliquez sur **Créer**. 1. Vérifiez que vos données Stripe sont accessibles dans le nouveau catalogue. ### Vérifiez votre compte Après avoir monté le catalogue, finalisez l’étape de vérification dans le Dashboard : 1. Dans votre console Databricks, cliquez sur **Nouveau > Requête**. 1. Copiez et exécutez la requête de vérification affichée dans le Dashboard. Cette requête récupère une valeur de test depuis le catalogue que vous venez de monter. 1. Copiez le résultat de la requête et collez-le dans le champ de vérification du Dashboard. 1. Cliquez sur **Activer Databricks** pour finaliser la configuration. ### Modifier le compte d’entrepôt Pour modifier le compte d’entrepôt auquel votre compte Stripe est connecté : 1. Désactivez Data Pipeline depuis la [page des paramètres](https://dashboard.stripe.com/settings/stripe-data-pipeline) du Dashboard. 1. Réinscrivez-vous à Data Pipeline en suivant les étapes décrites ci-dessus pour le nouveau compte d’entrepôt auquel vous souhaitez vous connecter. Pour ajouter un autre compte Stripe à votre compte d’entrepôt : 1. Suivez les étapes d’[inscription](https://docs.stripe.com/stripe-data/access-data-in-warehouse/data-warehouses.md#get-started) ci-dessous pour créer votre compte Stripe. 1. Utilisez le même identifiant de compte que ci-dessus pour l’entrepôt correspondant. Pour trouver l’ID de votre compte, accédez à la [page des paramètres](https://dashboard.stripe.com/settings/stripe-data-pipeline) du Dashboard et localisez le champ **ID** sous **Entrepôt de données connecté**. ## Interroger des données Stripe dans votre entrepôt de données Dans Snowflake, Amazon Redshift et Databricks, vos données sont disponibles sous forme de vues sécurisées. Pour requête vos données, suivez les étapes ci-dessous. #### Snowflake Visualisez vos données Stripe disponibles en accédant à **Vues** dans la base de données que vous avez créée. Pour chaque table, vous pouvez également afficher les colonnes disponibles en cliquant sur la table et en accédant à **Colonnes**. #### Amazon Redshift RA3 Visualisez toutes vos données Stripe disponibles en accédant à **Tables et vues** dans la base de données que vous venez de créer. #### Databricks Consultez les données Stripe disponibles en accédant à **Catalog** dans Databricks. Sélectionnez le catalogue créé lors de l’onboarding, puis parcourez les schémas et vues disponibles. ## Rapports financiers dans Data Pipeline Pour faciliter la clôture de vos comptes financiers, vous pouvez accéder aux [rapports](https://docs.stripe.com/stripe-reports.md) de Stripe directement dans votre entrepôt de données. > À ce stade, les rapports financiers ne sont pas disponibles pour Amazon Redshift ni pour Databricks. Les modèles de rapport financier possèdent le préfixe `FINANCIAL_REPORT` et sont disponibles sous forme de vues dans votre entrepôt de données. ![](https://b.stripecdn.com/docs-statics-srv/assets/finrep.eb725f745cb57d3e03e813f96b3e8071.png) ### Générer des rapports financiers dans Snowflake Vous pouvez modifier le format de vos dates de façon plus ou moins précise : START_DATE = ‘2021-09-01’ ; START_DATE = ‘2021-09-01 00:00:00’ ; START_DATE = ‘2021-09-01 00:00:00.000’ ; Pour générer des rapports financiers depuis Data Pipeline, vous devez définir quelques variables personnalisées. Il s’agit des mêmes que celles nécessaires pour générer le rapport via le Dashboard ou l’API : - `START_DATE` (varchar) : date de début du rapport (incluse). - `END_DATE` (varchar) : date de fin du rapport (exclue). - `TIMEZONE` (varchar) : fuseau horaire des colonnes d’horodatage non-UTC. Pour définir ces variables et exécuter la requête de rapport : 1. Créez une nouvelle feuille de calcul. 1. Définissez le schéma de la base de données et les variables exigées pour les valeurs souhaitées. ```sql -- set schema based on the name you gave your Stripe database use schema db_name.stripe; -- set financial report template variables set (TIMEZONE, START_DATE, END_DATE) = ('UTC', '2021-09-01', '2021-10-01'); ``` > Exécutez ces lignes de code séparément avant toute tentative d’interrogation des tables qui en ont besoin. Sinon, un message d’erreur risque de s’afficher pour vous avertir qu’une variable de session n’existe pas. > > Si vous utilisez le [Snowflake Connector for Python](https://docs.snowflake.com/en/user-guide/python-connector.html), définissez le paramètre de session `TIMEZONE` avec la commande `ALTER SESSION SET TIMEZONE = 'UTC'`. 1. Après l’exécution du code qui définit les variables nécessaires, exécutez une requête pour la vue du rapport que vous souhaitez générer. Par exemple : ```sql select * from FINANCIAL_REPORT_BALANCE_CHANGE_FROM_ACTIVITY_ITEMIZED; ``` Renvoie les mêmes résultats que ceux qui sont affichés par le rapport d’évolution du solde par catégories selon l’activité dans le Dashboard ou via l’API : ![](https://b.stripecdn.com/docs-statics-srv/assets/report.601f8e6f124d2dbf1adc74388fa58025.png) > #### Vous avez besoin d'aide pour un autre format de fichier ? > > Si vous souhaitez charger des fichiers avec une structure différente ou dans un format personnalisé, contactez [le service d’assistance de Stripe](https://support.stripe.com/contact/email?topic=third_party_integrations&subject=Stripe%20Data%20Pipeline%20\(SDP\)).