LLM を使用して Stripe で構築する
Stripe 実装ワークフローで LLM を使用します。
代わりに、大規模言語モデル (LLM) を使用して Stripe システムの構築を支援することができます。Stripe では、開発中に LLM を使用する場合のツールセットとベストプラクティスを提供しています。
プレーンテキストのドキュメント
URL の末尾に .
を追加することで、すべてのドキュメントにプレーンテキストのマークダウンファイルとしてアクセスできます。たとえば、このページ自体のプレーンテキストバージョンは https://docs.stripe.com/building-with-llms.md にあります。
これにより、AI ツールとエージェントがコンテンツを消費し、ドキュメントのコンテンツ全体をコピーして LLM に貼り付けることができます。この形式は、次の理由により、HTML や JavaScript でレンダリングされたページから、スクレイピングまたはコピーするよりも適しています。
- プレーンテキストに含まれるフォーマットトークンがより少なくなります。
- 特定のページの既定ビューに表示されない (タブに非表示になっているなど) コンテンツは、プレーンテキスト バージョンでレンダリングされます。
- LLM はマークダウン階層を解析して理解することができます。
また、AI ツールとエージェントにプレーンテキストバージョンのページを取得する方法を指示する /llms.txt ファイルもホストしています。/llms.
ファイルは、ウェブサイトやコンテンツを LLM にとってよりアクセスしやすくするための 新しい標準です。
Model Context Protocol (MCP; モデルコンテキスト プロトコル)
Stripe Model Context Protocol(MCP) は、AIエージェントがStripe APIとやり取りし、Stripeのナレッジベース(ドキュメントやサポート記事など) を検索するために使用できるツールのセットを定義します。
これらのコードエディタエージェントは自動的にツールを検出し、関連するツールを呼び出します。詳細については、MCP ドキュメントをご覧ください。
VS Code AI アシスタント
Visual Studio Code ユーザーの場合は、Stripe VS Code 拡張機能 をインストールして AI アシスタントにアクセスできます。
Stripe AI アシスタントを使用して、次のことができます。
- Stripe API やプロダクトに関する回答をすぐに受け取る
- システムに合った推奨コードを受け取る
- 追加の質問をして詳細な情報を得る
- Stripe のドキュメントと Stripe 開発者コミュニティーで情報を入手する
Stripe AI アシスタントを使ってみるには、以下の手順に従います。
- Stripe VS Code 拡張プログラムがインストールされていることを確認してください。
- Stripe 拡張プログラムの UI に移動する
- AI アシスタントで質問するをクリックします。
- Copilot ユーザーの場合は、Copilot チャットが開き、そこで
@stripe
への @-mention 機能を実行できます。入力フィールドで@stripe
に続けて質問を入力して、Stripe 専任のアシスタントに話しかけます。 - Copilot ユーザーでない場合はチャット UI が開き、ここで Stripe LLM に直接話しかけることができます。
- Copilot ユーザーの場合は、Copilot チャットが開き、そこで
Stripe エージェントツールキット SDK
エージェントソフトウェアを構築している場合、エージェントの機能に Stripe の機能を追加するための SDK が用意されています。たとえば、SDK を使用すると、次のことができます。
- Stripe オブジェクトを作成する
- 代理人使用料を請求する
- OpenAI の Agent SDK、Vercel の AI SDK、Langchain、CrewAI などの一般的なフレームワークで使用
詳しくは、エージェントのドキュメントをご覧ください。