Eine API für
100+ KI-Modelle
OpenAI-kompatibel, in Sekunden integriert. Wechseln Sie Modelle ohne Code-Änderung — gehostet in der EU, DSGVO-konform.
In Minuten loslegen
Unsere API ist OpenAI-kompatibel. Einfach Base-URL aendern und Ihren API-Key verwenden.
curl https://api.eugpt.eu/v1/chat/completions \
-H "Authorization: Bearer eugpt-IhrKeyHier..." \
-H "Content-Type: application/json" \
-d '{
"model": "llama-3.3-70b-instruct",
"messages": [
{"role": "system", "content": "Du bist ein hilfreicher Assistent."},
{"role": "user", "content": "Was ist DSGVO?"}
],
"stream": true
}'
from openai import OpenAI
client = OpenAI(
base_url="https://api.eugpt.eu/v1",
api_key="eugpt-IhrKeyHier...",
)
# Streaming response
stream = client.chat.completions.create(
model="llama-3.3-70b-instruct",
messages=[
{"role": "system", "content": "Du bist ein hilfreicher Assistent."},
{"role": "user", "content": "Was ist DSGVO?"},
],
stream=True,
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")
import OpenAI from "openai";
const client = new OpenAI({
baseURL: "https://api.eugpt.eu/v1",
apiKey: "eugpt-IhrKeyHier...",
});
// Streaming response
const stream = await client.chat.completions.create({
model: "llama-3.3-70b-instruct",
messages: [
{ role: "system", content: "Du bist ein hilfreicher Assistent." },
{ role: "user", content: "Was ist DSGVO?" },
],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}
use OpenAI;
$client = OpenAI::factory()
->withBaseUri('https://api.eugpt.eu/v1')
->withApiKey('eugpt-IhrKeyHier...')
->make();
$response = $client->chat()->create([
'model' => 'llama-3.3-70b-instruct',
'messages' => [
['role' => 'user', 'content' => 'Was ist DSGVO?'],
],
]);
echo $response->choices[0]->message->content;
API-Uebersicht
Base URL
https://api.eugpt.eu
OpenAI-kompatibel unter /v1/
Authentifizierung
Bearer eugpt-...
Laravel Sanctum Token im Authorization Header
Content-Type
application/json
Streaming-Antworten via Server-Sent Events
API-Referenz
Alle Endpoints sind OpenAI-kompatibel. Bestehende Integrationen funktionieren sofort.
Request Body
{
"model": "llama-3.3-70b-instruct",
"messages": [
{
"role": "user",
"content": "Hallo!"
}
],
"stream": true,
"temperature": 0.7
}
Response (SSE Chunk)
{
"id": "chatcmpl-abc123",
"object": "chat.completion.chunk",
"choices": [{
"index": 0,
"delta": {
"content": "Hallo"
}
}]
}
Request Body
{
"model": "llama-3.3-70b-instruct",
"prompt": "Erklaere KI in 3 Saetzen",
"stream": false
}
Response
{
"model": "llama-3.3-70b-instruct",
"response": "KI ist...",
"done": true,
"total_duration": 1243000000
}
Request
// Kein Body erforderlich
// Auch verfuegbar als:
// GET /v1/models (OpenAI-kompatibel)
Response
{
"models": [
{
"name": "llama-3.3-70b-instruct",
"provider": "eugpt",
"capabilities": [...]
}
]
}
Response
{
"chats": [
{
"uuid": "550e8400-e29b-41d4-a716-446655440000",
"title": "DSGVO Erklaerung",
"model": "llama-3.3-70b-instruct",
"created_at": "2026-04-08T12:00:00Z"
}
]
}
Request Body
{
"model": "llama-3.3-70b-instruct",
"title": "Mein neuer Chat"
}
Response
{
"uuid": "550e8400-...",
"title": "Mein neuer Chat",
"model": "llama-3.3-70b-instruct"
}
Response
{
"plan": "Business",
"credit_balance": "42.50 EUR",
"credit_balance_cents": 4250,
"tokens_used": 128000,
"tokens_limit": 500000,
"requests_today": 42
}
Gebaut fuer Entwickler
Alles was Sie brauchen, um KI in Ihre Anwendungen zu integrieren.
Streaming SSE
Echtzeit-Streaming via Server-Sent Events. Token fuer Token, wie Sie es von ChatGPT kennen. Funktioniert mit allen OpenAI SDKs.
OpenAI-kompatibel
Drop-in Replacement fuer OpenAI, Ollama und alle kompatiblen SDKs. Tauschen Sie einfach die Base URL aus.
Sanctum Auth
Sichere Token-basierte Authentifizierung via Laravel Sanctum. Erstellen und verwalten Sie API-Keys direkt in Ihrem Dashboard.
DSGVO by Design
GPU-Infrastruktur in Frankfurt, keine Datenweitergabe an Dritte. Vollstaendig konform mit DSGVO und EU AI Act.
Credits & Kontingente
Flexibles Credit-System mit transparenten Preisen pro Modell.
Monatliches Credit-Guthaben
Jeder Tarif enthaelt ein monatliches Credit-Guthaben in EUR. Self-Hosted-Modelle verbrauchen keine Credits, externe Provider werden nach Nutzung abgerechnet.
Quota-Endpoint
Pruefen Sie Ihr verbleibendes Guthaben jederzeit ueber GET /chat/quota. Der Endpoint liefert Plan, Credit-Balance, Token-Nutzung und Request-Zaehler.
Transparente Preise
Kosten pro Modell sind auf der Pricing-Seite einsehbar. Keine versteckten Gebuehren, keine ueberraschenden Abrechnungen.
Bereit loszulegen?
Erstellen Sie Ihren API-Key und integrieren Sie DSGVO-konforme KI in Ihre Anwendung -- in wenigen Minuten.