Billing für LLM-TokenPrivate Vorschau
Erfahren Sie, wie Sie LLM-Token in Rechnung stellen.
Bill for LLM tokens without managing pricing complexity. Set your markup, pick your models, and route calls through our LLM proxy (or supported partners). We sync popular model prices, configure advanced usage-based billing for your margin, and record usage automatically. Billing for LLM tokens is a private preview feature, and we consider it experimental in nature.
Entwicklervorschau
Dies ist eine experimentelle private Vorschau. Wir sind auf der Suche nach Entwicklern, die bereit sind, die Funktionalität zu testen und ihr Feedback zu teilen.
Übersicht
Angenommen, Sie erstellen eine KI-App: Sie möchten eine konsistente Marge von 30 % gegenüber den rohen LLM-Token-Kosten bei allen Anbietern.
Billing automatisiert den Prozess und Stripe:
- Synchronisiert die neuesten Modellpreise unter den Anbietern.
- Konfiguriert die nutzungsbasierte Abrechnung für Ihren Token-Aufschlag.
- Zeichnet die Nutzung automatisch über unseren LLM-Proxy oder unterstützte Partner auf.
Token-Preise an einem Ort
Sehen Sie sich die Token-Preise der wichtigsten Anbieter auf einer einzigen Dashboard-Seite an – wir halten die Preise auf dem neuesten Stand, damit Sie immer über die aktuellen Preisinformationen verfügen. Sie können Ihren Aufschlag jederzeit anpassen. Wir benachrichtigen Sie, wenn sich die Preise des Anbieters ändern.
Einrichtung der nutzungsbasierten Abrechnung mit einem Klick für Ihren Token-Aufschlag.
Geben Sie Ihren gewünschten Aufschlag ein (z. B. 30 %). Klicken Sie auf Senden, und wir konfigurieren die erforderlichen Ressourcen für die nutzungsbasierte Abrechnung – Preise, Verbrauchsmessung und Tarifkonfiguration. Sie müssen nur Ihren Margenprozentsatz festlegen, um die nutzungsbasierte Abrechnung zu verwenden.
Aufrufmodelle und Rechnung in einer Anfrage
Anstatt eine LLM-Integration und eine Abrechnungsintegration zu pflegen, verwenden Sie unseren LLM-Proxy, um Modelle aufzurufen und die gemessene Nutzung in einer Anfrage aufzuzeichnen. Geben Sie Ihre Eingabeaufforderung, das ausgewählte Modell und die Kunden-ID an. Wir leiten die Daten an den Anbieter weiter, geben die Antwort zurück und ordnen Token nach Modell und Typ zu.
Falls Sie die Integration bereits bei einem anderen LLM-Proxy durchgeführt haben, arbeiten wir mit den wichtigen Akteuren der Branche zusammen, um die Nutzung automatisch zu erfassen (ohne zusätzliche API-Aufrufe).
Warteliste beitreten
Wenn Sie an der privaten Vorschau interessiert sind, registrieren Sie sich und wir werden uns mit Ihnen in Verbindung setzen, wenn wir freien Platz haben.