Développer sur Stripe avec des grands modèles de langage (LLM)
Utilisez les grands modèles de langage (LLM) dans votre flux d'intégration Stripe.
Vous pouvez utiliser des grands modèles de langage (LLM) pour vous aider à créer des intégrations Stripe. Nous fournissons un ensemble d’outils et de bonnes pratiques pour l’utilisation des LLM pendant le développement.
Documents en texte brut
Vous pouvez accéder à l’ensemble de notre documentation sous forme de fichiers Markdown en texte brut en ajoutant .
à la fin de chaque URL. Par exemple, vous pouvez trouver la version en texte brut de cette page à l’adresse https://docs.stripe.com/building-with-llms.md.
Cela aide les outils et les agents d’IA à utiliser notre contenu et vous permet de copier et coller l’intégralité du contenu d’un document dans un LLM. Ce format est préférable au scraping ou à la copie de nos pages HTML et JavaScript pour les raisons suivantes :
- Le texte brut contient moins de tokens de mise en forme.
- Le contenu qui n’est pas affiché dans la vue par défaut d’une page donnée (il peut par exemple être masqué dans un onglet) est affiché dans la version en texte brut.
- Les LLM peuvent analyser et comprendre la hiérarchie Markdown.
Nous hébergeons également un fichier /llms.txt qui indique aux outils et agents d’IA comment récupérer les versions de nos pages en texte brut. Le fichier /llms.
est une norme émergente pour rendre les sites Web et le contenu plus accessibles aux GML.
Serveur MCP (Model Context Protocol) de Stripe
Vous pouvez utiliser le serveur Stripe Model Context Protocol (MCP) si vous utilisez des éditeurs de code basés sur l’IA, tels que Cursor ou Windsurf, ou des outils à usage général tels que Claude Desktop. Le serveur MCP fournit aux agents d’IA un ensemble d’outils permettant d’appeler l’API Stripe et d’effectuer des recherches dans notre base de connaissances (documentation, articles d’aide, etc.).
Serveur local
Si vous préférez ou avez besoin d’une configuration locale, vous pouvez exécuter le serveur Stripe MCP local.
Serveur distant Version bêta publique
Stripe héberge également un serveur MCP distant, disponible à l’adresse https://mcp.
. Pour interagir avec le serveur distant, vous devez transmettre votre clé API Stripe en tant que token de porteur dans l’en-tête de la requête. Nous vous recommandons d’utiliser des clés API restreintes pour limiter l’accès de votre agent aux fonctionnalités dont il a besoin.
curl https://mcp.stripe.com/ \ -H "Content-Type: application/json" \ -H "Authorization: Bearer
" \ -d '{ "jsonrpc": "2.0", "method": "tools/call", "params": { "name": "create_customer", "arguments": {"name": "Jenny Rosen", "email": "jenny.rosen@example.com" } }, "id": 1 }'sk_test_BQokikJOvBiI2HlWgH4olfQ2
À l’heure actuelle, ce serveur distant ne prend en charge que l’authentification par token de porteur. OAuth n’est pas pris en charge. Pour éviter les attaques de phishing, vérifiez que vous n’utilisez que des clients MCP de confiance et que l’URL utilisée est bien celle du serveur officiel https://mcp.
.
Assistant VS Code AI
Si vous utilisez Visual Studio Code, vous pouvez installer l’extension Stripe VS Code pour accéder à notre assistant IA.
Avec l’assistant IA de Stripe, vous pouvez :
- Obtenir des réponses immédiates sur l’API et les produits Stripe
- Recevoir des suggestions de code adaptées à votre intégration
- Poser des questions de suivi pour obtenir des informations plus détaillées
- Accéder aux connaissances disponibles dans la documentation Stripe et auprès de la communauté des développeurs Stripe
Pour commencer à utiliser l’assistant IA de Stripe :
- Assurez-vous d’avoir installé l’extension Stripe VS Code.
- Accédez à l’interface utilisateur de l’extension Stripe.
- Sous Assistant IA, cliquez sur Poser une question.
- Si vous utilisez Copilot, le chat Copilot s’ouvre, dans lequel vous pouvez @-mentionner
@stripe
. Dans le champ de saisie, adressez-vous à l’assistant propre à Stripe en utilisant le paramètre@stripe
suivi de votre question. - Si vous n’utilisez pas Copilot, une interface utilisateur de chat s’ouvre dans laquelle vous pouvez parler directement au LLM de Stripe.
- Si vous utilisez Copilot, le chat Copilot s’ouvre, dans lequel vous pouvez @-mentionner
SDK Stripe Agent Toolkit
Si vous concevez un logiciel agentique, nous fournissons un SDK pour ajouter Stripe aux fonctionnalités de votre agent. Par exemple, le SDK vous permet :
- Création d’objets Stripe
- Paiement pour l’utilisation de l’agent
- À utiliser avec des frameworks populaires tels que le SDK Agent d’OpenAI, le SDK AI de Vercel, Langchain et CrewAI
Pour en savoir plus, consultez notre documentation sur les agents.