Skip to content
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
2 changes: 1 addition & 1 deletion apps/docs/content/docs/de/blocks/agent.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -46,7 +46,7 @@ Der Agent-Block unterstützt mehrere LLM-Anbieter über eine einheitliche Infere
- **Anthropic**: Claude 4.5 Sonnet, Claude Opus 4.1
- **Google**: Gemini 2.5 Pro, Gemini 2.0 Flash
- **Andere Anbieter**: Groq, Cerebras, xAI, Azure OpenAI, OpenRouter
- **Lokale Modelle**: Ollama-kompatible Modelle
- **Lokale Modelle**: Ollama oder VLLM-kompatible Modelle

### Temperatur

Expand Down
2 changes: 1 addition & 1 deletion apps/docs/content/docs/de/blocks/evaluator.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -52,7 +52,7 @@ Wählen Sie ein KI-Modell für die Durchführung der Bewertung:
- **Anthropic**: Claude 3.7 Sonnet
- **Google**: Gemini 2.5 Pro, Gemini 2.0 Flash
- **Andere Anbieter**: Groq, Cerebras, xAI, DeepSeek
- **Lokale Modelle**: Ollama-kompatible Modelle
- **Lokale Modelle**: Ollama oder VLLM-kompatible Modelle

Verwenden Sie Modelle mit starken Argumentationsfähigkeiten wie GPT-4o oder Claude 3.7 Sonnet für beste Ergebnisse.

Expand Down
8 changes: 4 additions & 4 deletions apps/docs/content/docs/de/blocks/guardrails.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -63,10 +63,10 @@ Verwendet Retrieval-Augmented Generation (RAG) mit LLM-Bewertung, um zu erkennen
4. Validierung besteht, wenn der Wert ≥ Schwellenwert ist (Standard: 3)

**Konfiguration:**
- **Wissensdatenbank**: Auswahl aus Ihren vorhandenen Wissensdatenbanken
- **Modell**: Wahl des LLM für die Bewertung (erfordert starkes Reasoning - GPT-4o, Claude 3.7 Sonnet empfohlen)
- **API-Schlüssel**: Authentifizierung für den ausgewählten LLM-Anbieter (automatisch ausgeblendet für gehostete/Ollama-Modelle)
- **Konfidenz-Schwellenwert**: Mindestwert zum Bestehen (0-10, Standard: 3)
- **Wissensdatenbank**: Wählen Sie aus Ihren vorhandenen Wissensdatenbanken
- **Modell**: Wählen Sie LLM für die Bewertung (erfordert starkes Denkvermögen - GPT-4o, Claude 3.7 Sonnet empfohlen)
- **API-Schlüssel**: Authentifizierung für den ausgewählten LLM-Anbieter (automatisch ausgeblendet für gehostete/Ollama oder VLLM-kompatible Modelle)
- **Vertrauensschwelle**: Mindestpunktzahl zum Bestehen (0-10, Standard: 3)
- **Top K** (Erweitert): Anzahl der abzurufenden Wissensdatenbank-Chunks (Standard: 10)

**Ausgabe:**
Expand Down
2 changes: 1 addition & 1 deletion apps/docs/content/docs/de/blocks/router.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -56,7 +56,7 @@ Wähle ein KI-Modell für die Weiterleitungsentscheidung:
- **Anthropic**: Claude 3.7 Sonnet
- **Google**: Gemini 2.5 Pro, Gemini 2.0 Flash
- **Andere Anbieter**: Groq, Cerebras, xAI, DeepSeek
- **Lokale Modelle**: Ollama-kompatible Modelle
- **Lokale Modelle**: Ollama oder VLLM-kompatible Modelle

Verwende Modelle mit starken Argumentationsfähigkeiten wie GPT-4o oder Claude 3.7 Sonnet für beste Ergebnisse.

Expand Down
41 changes: 21 additions & 20 deletions apps/docs/content/docs/de/execution/costs.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -47,33 +47,34 @@ Die Modellaufschlüsselung zeigt:

## Preisoptionen

<Tabs items={['Gehostete Modelle', 'Eigener API-Schlüssel']}>
<Tabs items={['Hosted Models', 'Bring Your Own API Key']}>
<Tab>
**Gehostete Modelle** - Sim stellt API-Schlüssel mit einem 2,5-fachen Preismultiplikator bereit:
**Hosted Models** - Sim stellt API-Schlüssel mit einem 2,5-fachen Preismultiplikator bereit:

| Modell | Basispreis (Eingabe/Ausgabe) | Gehosteter Preis (Eingabe/Ausgabe) |
| Modell | Basispreis (Input/Output) | Hosted-Preis (Input/Output) |
|-------|---------------------------|----------------------------|
| GPT-4o | 2,50 $ / 10,00 $ | 6,25 $ / 25,00 $ |
| GPT-4.1 | 2,00 $ / 8,00 $ | 5,00 $ / 20,00 $ |
| o1 | 15,00 $ / 60,00 $ | 37,50 $ / 150,00 $ |
| o3 | 2,00 $ / 8,00 $ | 5,00 $ / 20,00 $ |
| Claude 3.5 Sonnet | 3,00 $ / 15,00 $ | 7,50 $ / 37,50 $ |
| Claude Opus 4.0 | 15,00 $ / 75,00 $ | 37,50 $ / 187,50 $ |
| GPT-4o | $2,50 / $10,00 | $6,25 / $25,00 |
| GPT-4.1 | $2,00 / $8,00 | $5,00 / $20,00 |
| o1 | $15,00 / $60,00 | $37,50 / $150,00 |
| o3 | $2,00 / $8,00 | $5,00 / $20,00 |
| Claude 3.5 Sonnet | $3,00 / $15,00 | $7,50 / $37,50 |
| Claude Opus 4.0 | $15,00 / $75,00 | $37,50 / $187,50 |

*Der 2,5-fache Multiplikator deckt Infrastruktur- und API-Verwaltungskosten ab.*
</Tab>

<Tab>
**Ihre eigenen API-Schlüssel** - Nutzen Sie jedes Modell zum Basispreis:
**Eigene API-Schlüssel** - Nutzen Sie jedes Modell zum Basispreis:

| Anbieter | Modelle | Eingabe / Ausgabe |
| Anbieter | Modelle | Input / Output |
|----------|---------|----------------|
| Google | Gemini 2.5 | 0,15 $ / 0,60 $ |
| Deepseek | V3, R1 | 0,75 $ / 1,00 $ |
| xAI | Grok 4, Grok 3 | 5,00 $ / 25,00 $ |
| Groq | Llama 4 Scout | 0,40 $ / 0,60 $ |
| Cerebras | Llama 3.3 70B | 0,94 $ / 0,94 $ |
| Google | Gemini 2.5 | $0,15 / $0,60 |
| Deepseek | V3, R1 | $0,75 / $1,00 |
| xAI | Grok 4, Grok 3 | $5,00 / $25,00 |
| Groq | Llama 4 Scout | $0,40 / $0,60 |
| Cerebras | Llama 3.3 70B | $0,94 / $0,94 |
| Ollama | Lokale Modelle | Kostenlos |
| VLLM | Lokale Modelle | Kostenlos |

*Bezahlen Sie Anbieter direkt ohne Aufschlag*
</Tab>
Expand All @@ -85,11 +86,11 @@ Die Modellaufschlüsselung zeigt:

## Kostenoptimierungsstrategien

- **Modellauswahl**: Wähle Modelle basierend auf der Komplexität der Aufgabe. Einfache Aufgaben können mit GPT-4.1-nano erledigt werden, während komplexes Denken möglicherweise o1 oder Claude Opus erfordert.
- **Modellauswahl**: Wählen Sie Modelle basierend auf der Komplexität der Aufgabe. Einfache Aufgaben können GPT-4.1-nano verwenden, während komplexes Denken möglicherweise o1 oder Claude Opus erfordert.
- **Prompt-Engineering**: Gut strukturierte, präzise Prompts reduzieren den Token-Verbrauch ohne Qualitätseinbußen.
- **Lokale Modelle**: Nutze Ollama für unkritische Aufgaben, um API-Kosten vollständig zu eliminieren.
- **Caching und Wiederverwendung**: Speichere häufig verwendete Ergebnisse in Variablen oder Dateien, um wiederholte KI-Modellaufrufe zu vermeiden.
- **Batch-Verarbeitung**: Verarbeite mehrere Elemente in einer einzigen KI-Anfrage anstatt einzelne Aufrufe zu tätigen.
- **Lokale Modelle**: Verwenden Sie Ollama oder VLLM für unkritische Aufgaben, um API-Kosten vollständig zu eliminieren.
- **Caching und Wiederverwendung**: Speichern Sie häufig verwendete Ergebnisse in Variablen oder Dateien, um wiederholte AI-Modellaufrufe zu vermeiden.
- **Batch-Verarbeitung**: Verarbeiten Sie mehrere Elemente in einer einzigen AI-Anfrage anstatt einzelne Aufrufe zu tätigen.

## Nutzungsüberwachung

Expand Down
2 changes: 1 addition & 1 deletion apps/docs/content/docs/de/introduction/index.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -59,7 +59,7 @@ Ermöglichen Sie Ihrem Team, gemeinsam zu arbeiten. Mehrere Benutzer können Wor

Sim bietet native Integrationen mit über 80 Diensten in verschiedenen Kategorien:

- **KI-Modelle**: OpenAI, Anthropic, Google Gemini, Groq, Cerebras, lokale Modelle über Ollama
- **KI-Modelle**: OpenAI, Anthropic, Google Gemini, Groq, Cerebras, lokale Modelle über Ollama oder VLLM
- **Kommunikation**: Gmail, Slack, Microsoft Teams, Telegram, WhatsApp
- **Produktivität**: Notion, Google Workspace, Airtable, Monday.com
- **Entwicklung**: GitHub, Jira, Linear, automatisierte Browser-Tests
Expand Down
Loading