Accéder directement au contenu
Créez un compte
ou
connecter-vous
Logo de la documentation Stripe
/
Demander à l'assistant IA
Créez un compte
Connectez-vous
Démarrer
Paiements
Automatisation des opérations financières
Plateformes et places de marché
Gestion de fonds
Outils de développement
Démarrer
Paiements
Automatisation des opérations financières
Démarrer
Paiements
Automatisation des opérations financières
Plateformes et places de marché
Gestion de fonds
Aperçu
Billing
Tax
Rapports
Données
    Présentation
    Schéma
    Rapports personnalisés
    API Sigma
    Créez des rapports personnalisés
    Écrire des requêtes avec Sigma
    Interrogez des données de toute votre organisation
    Synchroniser les données Stripe
    Accédez à des données d’un entrepôt de données
    Exporter des données vers un entrepôt de données
    Exporter des données vers le cloud
    Gestion des données
    Actualisation des données
    Différents cas d'usage des données métier et produit
    Importer des données externes
Constitution de start-up
AccueilAutomatisation des opérations financièresData

Exporter des données vers un entrepôt de données

Automatisez les exportations de données de Stripe vers Snowflake ou Redshift.

Copier la page

À l’heure actuelle, Data Pipeline prend en charge les régions de données de Snowflake (déployé sur AWS) et Amazon Redshift. Référez-vous au tableau ci-dessous pour obtenir plus d’informations sur les instances prises en charge.

Région AWSSnowflakeAmazon Redshift RA3 (avec chiffrement)
us-west-2 (Oregon)
us-east-2 (Ohio)
us-east-1 (Virginie du Nord)
us-west-1 (Californie du Nord)
ca-central-1 (Canada central)
sa-east-1 (São Paulo)
eu-central-1 (Francfort)
eu-west-1 (Irlande)
eu-west-2 (Londres)
eu-west-3 (Paris)
eu-north-1 (Stockholm)
me-south-1 (Bahreïn)
ap-southeast-1 (Singapour)
ap-southeast-2 (Sydney)
ap-northeast-1 (Tokyo)
ap-northeast-2 (Séoul)
ap-east-1 (Hong Kong)

Remarque

Si vous utilisez un entrepôt de données autre que Snowflake ou Amazon Redshift, ou si la région de votre entrepôt n’est pas répertoriée ci-dessus, contactez-nous à l’adresse data-pipeline@stripe.com.

Démarrer

Lorsque vous vous inscrivez à Data Pipeline, Stripe envoie un partage de données à votre compte Snowflake ou Amazon Redshift. Après avoir accepté le partage de données, vous pouvez accéder à vos données Stripe principales dans Snowflake ou Amazon Redshift sous 12 heures. Après le chargement initial, vos données Stripe sont rafraîchies régulièrement.

Remarque

Vous ne pouvez associer qu’un seul compte d’entrepôt à votre compte Stripe.

Associer votre compte Snowflake

Tout d’abord, envoyez tous vos rapports et vos données Stripe actualisés via le Dashboard :

  1. Sur la page des paramètres de Data Pipeline du Dashboard, cliquez sur S’inscrire.
  2. Dans le volet, sélectionnez Snowflake, puis cliquez sur Continuer.
  3. Saisissez votre identifiant de compte Snowflake et votre région AWS, puis cliquez sur Suivant.
  4. Copiez le code SQL du bloc de code, insérez-le dans une feuille de calcul SQL dans l’entrepôt Snowflake et exécutez la requête pour récupérer la valeur unique. Saisissez la valeur dans la zone de texte et cliquez sur S’abonner.

Accéder à votre partage de données dans Snowflake

Au bout de 48 heures, accédez à votre partage de données depuis votre compte Snowflake :

  1. Accédez à votre compte Snowflake afin d’accepter le partage de données Stripe.
  2. Dans Snowflake, demandez à un ACCOUNTADMIN d’accéder à Données > Données partagées. Dans la section Prêt pour la récupération, accédez à un partage intitulé SHARE_[ACCOUNT_IDENTIFIER] provenant de l’un des trois comptes Stripe, selon la région de votre entrepôt de données :
    • GSWUDFY_STRIPE_AWS_US_EAST_1 : des entrepôts de données dans us-east-1
    • JZA07263 : des entrepôts de données dans us-west-2
    • VM70738 : des entrepôts de données dans us-east-2
    Ensuite, cliquez sur Obtenir les données partagées pour accepter le partage.
  3. Dans la fenêtre modale qui s’ouvre, donnez un nom à la base de données (par exemple, « Stripe »), sélectionnez les rôles auxquels vous souhaitez accorder l’accès (par exemple, SYSADMIN), puis cliquez sur Obtenir les données.
  4. Confirmez que vous pouvez afficher vos données Stripe dans Données provenant de partages directs et Bases de données. Vous pouvez maintenant interroger vos données Stripe directement dans Snowflake.

Modifier le compte d’entrepôt

Pour modifier le compte d’entrepôt auquel votre ompte Stripe est connecté :

  1. Désactivez Data Pipeline sur la page des paramètres du Dashboard.
  2. Réinscrivez-vous à Data Pipeline en suivant les étapes décrites ci-dessus pour le nouveau compte d’entrepôt auquel vous souhaitez vous connecter.

Pour ajouter un autre compte Stripe à votre compte d’entrepôt :

  1. Suivez les étapes d’inscription ci-dessous pour créer votre compte Stripe.
  2. Utilisez le même identifiant de compte que ci-dessus pour l’entrepôt correspondant. Pour trouver l’ID de votre compte, accédez à la page des paramètres du Dashboard et localisez le champ ID sous Entrepôt de données connecté.

Interroger des données Stripe dans votre entrepôt de données

Dans Snowflake et Amazon Redshift, vos données sont disponibles sous forme de vues sécurisées. Suivez les étapes ci-dessous afin d’interroger vos données.

Visualisez vos données Stripe disponibles en accédant à Vues dans la base de données que vous avez créée. Pour chaque table, vous pouvez également afficher les colonnes disponibles en cliquant sur la table et en accédant à Colonnes.

Rapports financiers dans Data Pipeline

Pour faciliter la clôture de vos comptes financiers, vous pouvez accéder aux rapports de Stripe directement dans votre entrepôt de données.

Remarque

À l’heure actuelle, les rapports financiers ne sont pas disponibles pour Amazon Redshift.

Les modèles de rapport financier possèdent le préfixe FINANCIAL_REPORT et sont disponibles sous forme de vues dans votre entrepôt de données.

Générer des rapports financiers dans Snowflake

Vous pouvez modifier le format de vos dates de façon plus ou moins précise :

START_DATE = ‘2021-09-01’ ;

START_DATE = ‘2021-09-01 00:00:00’ ;

START_DATE = ‘2021-09-01 00:00:00.000’ ;

Pour générer des rapports financiers depuis Data Pipeline, vous devez définir quelques variables personnalisées. Il s’agit des mêmes que celles nécessaires pour générer le rapport via le Dashboard ou l’API :

  • START_DATE (varchar) : date de début du rapport (incluse).
  • END_DATE (varchar) : date de fin du rapport (exclue).
  • TIMEZONE (varchar) : fuseau horaire des colonnes d’horodatage non-UTC.

Pour définir ces variables et exécuter la requête de rapport :

  1. Créez une nouvelle feuille de calcul.

  2. Définissez le schéma de la base de données et les variables exigées pour les valeurs souhaitées.

    -- set schema based on the name you gave your Stripe database use schema db_name.stripe; -- set financial report template variables set (TIMEZONE, START_DATE, END_DATE) = ('UTC', '2021-09-01', '2021-10-01');

    Mise en garde

    Exécutez ces lignes de code séparément avant toute tentative d’interrogation des tables qui en ont besoin. Sinon, un message d’erreur risque de s’afficher pour vous avertir qu’une variable de session n’existe pas.

    Si vous utilisez le connecteur Snowflake pour Python, définissez le paramètre de session TIMEZONE à l’aide de la commande ALTER SESSION SET TIMEZONE = 'UTC'.

  3. Après l’exécution du code qui définit les variables nécessaires, exécutez une requête pour la vue du rapport que vous souhaitez générer. Par exemple :

    select * from FINANCIAL_REPORT_BALANCE_CHANGE_FROM_ACTIVITY_ITEMIZED;

    Renvoie les mêmes résultats que ceux qui sont affichés par le rapport d’évolution du solde par catégories selon l’activité dans le Dashboard ou via l’API :

Vous avez besoin d'aide pour un autre format de fichier ?

Si vous souhaitez charger des fichiers avec une structure différente ou dans un format personnalisé, contactez-nous.

Cette page vous a-t-elle été utile ?
OuiNon
Besoin d'aide ? Contactez le service Support.
Rejoignez notre programme d'accès anticipé.
Consultez notre log des modifications.
Des questions ? Contactez l'équipe commerciale.
LLM ? Lire llms.txt.
Propulsé par Markdoc