# Facturation des tokens LLM

Découvrez comment facturer des tokens LLM.

Facturez les tokens LLM sans avoir à construire votre propre moteur de tarification. Stripe gère pour vous les mises à jour des prix des modèles et le comptage de l’utilisation. Stripe synchronise les tarifs des modèles entre les différents fournisseurs et enregistre l’utilisation automatiquement, tout en vous laissant définir votre marge. Que vous utilisiez la passerelle Stripe AI Gateway, un partenaire pris en charge ou que vous fassiez une auto-déclaration, cela s’applique.

> La facturation des tokens LLM est en version bêta privée et n’est pas encore accessible à tous les utilisateurs. Pour demander un accès ou suggérer de nouvelles fonctionnalités, telles que des systèmes basés sur des crédits ou le suivi des coûts sans facturation immédiate, contactez-nous à l’adresse [token-billing-team@stripe.com](mailto:token-billing-team@stripe.com).

## Définir votre modèle tarifaire

### Configuration du dashboard

Définissez votre pourcentage de majoration dans le Dashboard et Stripe configure pour vous l’ensemble des ressources de facturation sous-jacentes, notamment les prix, les compteurs et la configuration des tarifs.

### Mises à jour automatiques des tarifs

Stripe synchronise les prix des tokens pour les modèles d’OpenAI, Anthropic et Google, afin que votre tarification reflète toujours les coûts actuels. Lorsque les fournisseurs mettent à jour leurs tarifs ou lancent de nouveaux modèles, nous vous en informons et pouvons appliquer automatiquement les nouveaux prix à tous les clients.

Nous étendons activement la prise en charge des modèles. Si vous avez besoin d’un suivi des prix pour des modèles que nous ne supportons pas encore, faites-le-nous savoir à l’adresse [token-billing-team@stripe.com](mailto:token-billing-team@stripe.com).

### Prise en charge de n’importe quel modèle tarifaire

- \**Facturation à l’usage&nbsp;**&nbsp;: facturez les clients uniquement pour les tokens consommés, sans frais fixes.
- **Frais fixes avec utilisation incluse**&nbsp;: facturez des frais mensuels comprenant un volume défini d’utilisation de tokens.
- **Packs de crédit et recharges**&nbsp;: vendez des forfaits de crédits prépayés que les clients achètent et utilisent pour leur consommation de tokens.
- **Modèles hybrides**&nbsp;: combinez l’une ou plusieurs des approches ci-dessus pour créer des niveaux de tarification personnalisés.

**Personnalisable**&nbsp;: ajoutez vos propres tarifs à l’usage aux côtés des tarifs des tokens LLM. Facturez des modèles personnalisés que vous avez créés ou d’autres types d’utilisation non liés aux LLM sur la même offre tarifaire.

## Suivez votre utilisation de l’IA

Une fois votre modèle de tarification configuré, connectez votre utilisation de LLM à Stripe. Nous comptabilisons les tokens par client, segmentés par&nbsp;:

- Modèle (par exemple, GPT-5.4, Claude Opus 4.6)
- Type de token (tokens d’entrée, de sortie et mis en cache pour les modèles pris en charge)

Vous pouvez connecter votre utilisation de LLM à Stripe de trois manières différentes&nbsp;: avec la passerelle Stripe AI Gateway, par l’intermédiaire de l’un de nos partenaires d’intégration ou par l’auto-déclaration de l’utilisation.

### Connexion avec la passerelle Stripe AI Gateway (recommandé)

Acheminez vos requêtes LLM via la passerelle Stripe AI Gateway avec un simple appel à l’API. Fournissez la requête, le modèle et l’ID client à Stripe&nbsp;:

1. Achemine la requête vers le fournisseur approprié (OpenAI, Anthropic ou Google).
1. Renvoie la réponse du modèle à votre application.
1. Enregistre automatiquement l’utilisation des tokens pour la facturation.
1. Rejette les requêtes lorsqu’un client n’a plus de crédit (lorsque cette option est activée pour votre compte). [Contactez-nous](mailto:token-billing-team@stripe.com) pour demander cette fonctionnalité.

### Partenaires d’intégration

Si vous utilisez déjà une passerelle IA tierce, nous collaborons avec des fournisseurs capables de transmettre l’utilisation à Stripe. Après une configuration unique dans le dashboard de votre partenaire, l’utilisation se synchronise automatiquement&nbsp;:

- [OpenRouter](https://openrouter.ai/)
- [Vercel](https://vercel.com/)
- [Cloudflare](https://www.cloudflare.com/)

### Utilisation auto-déclarée

Si vous gérez vos propres connexions aux fournisseurs de LLM, signalez l’utilisation directement à Stripe en utilisant l’une de ces options&nbsp;:

- [API Stripe Meter](https://docs.stripe.com/api/billing/meter-event/create.md)&nbsp;: vous permet d’envoyer vos propres événements d’utilisation
- [SDK Token Meter](https://www.npmjs.com/package/@stripe/token-meter)&nbsp;: enveloppe le SDK OpenAI pour mesurer et signaler l’utilisation
- [SDK Vercel AI](https://www.npmjs.com/package/@stripe/ai-sdk)&nbsp;: enveloppe le SDK Vercel AI pour mesurer et signaler l’utilisation

## S’inscrire sur la liste d’attente

Si la version bêta privée vous intéresse, inscrivez-vous et nous vous contacterons lorsque nous serons prêts à intégrer davantage d’utilisateurs.
