LLM を使用して Stripe で構築する
Stripe 実装ワークフローで LLM を使用します。
代わりに、大規模言語モデル (LLM) を使用して Stripe システムの構築を支援することができます。Stripe では、開発中に LLM を使用する場合のツールセットとベストプラクティスを提供しています。
プレーンテキストのドキュメント
URL の末尾に .
を追加することで、すべてのドキュメントにプレーンテキストのマークダウンファイルとしてアクセスできます。たとえば、このページ自体のプレーンテキストバージョンは https://docs.stripe.com/building-with-llms.md にあります。
これにより、AI ツールとエージェントがコンテンツを消費し、ドキュメントのコンテンツ全体をコピーして LLM に貼り付けることができます。この形式は、次の理由により、HTML や JavaScript でレンダリングされたページから、スクレイピングまたはコピーするよりも適しています。
- プレーンテキストに含まれるフォーマットトークンがより少なくなります。
- 特定のページの既定ビューに表示されない (タブに非表示になっているなど) コンテンツは、プレーンテキスト バージョンでレンダリングされます。
- LLM はマークダウン階層を解析して理解することができます。
また、AI ツールとエージェントにプレーンテキストバージョンのページを取得する方法を指示する /llms.txt ファイルもホストしています。/llms.
ファイルは、ウェブサイトやコンテンツを LLM にとってよりアクセスしやすくするための 新しい標準です。
Model Context Protocol (MCP) 
The Stripe Model Context Protocol (MCP) defines a set of tools that AI agents can use to interact with the Stripe API and search Stripe’s knowledge base (including documentation and support articles).
These code editor agent automatically detect the tools, which call the relevant tool. Learn more in our MCP documentation.
VS Code AI Assistant 
Visual Studio Code ユーザーの場合は、Stripe VS Code 拡張機能 をインストールして AI アシスタントにアクセスできます。
Stripe AI アシスタントを使用して、次のことができます。
- Stripe API やプロダクトに関する回答をすぐに受け取る
- システムに合った推奨コードを受け取る
- 追加の質問をして詳細な情報を得る
- Stripe のドキュメントと Stripe 開発者コミュニティーで情報を入手する
Stripe AI アシスタントを使ってみるには、以下の手順に従います。
- Stripe VS Code 拡張プログラムがインストールされていることを確認してください。
- Stripe 拡張プログラムの UI に移動する
- AI アシスタントで質問するをクリックします。
- Copilot ユーザーの場合は、Copilot チャットが開き、そこで
@stripe
への @-mention 機能を実行できます。入力フィールドで@stripe
に続けて質問を入力して、Stripe 専任のアシスタントに話しかけます。 - Copilot ユーザーでない場合はチャット UI が開き、ここで Stripe LLM に直接話しかけることができます。
- Copilot ユーザーの場合は、Copilot チャットが開き、そこで
Stripe Agent Toolkit SDK 
エージェントソフトウェアを構築している場合、エージェントの機能に Stripe の機能を追加するための SDK が用意されています。たとえば、SDK を使用すると、次のことができます。
- Stripe オブジェクトを作成する
- 代理人使用料を請求する
- OpenAI の Agent SDK、Vercel の AI SDK、Langchain、CrewAI などの一般的なフレームワークで使用
詳しくは、エージェントのドキュメントをご覧ください。