03 · AI Engineering

Eine Frage. Drei KIs. Sofort.

Stellt eine Frage — und seht, wie Claude, GPT und ein lokales Modell parallel antworten. Genau diese Wahl bauen wir auch in eure Systeme ein.

Anthropic Cloud

claude-haiku-4-5

Ein CRM bündelt Kunden, Leads und Service-Vorgänge an einem Ort, statt sie über E-Mails und Excel zu verteilen. Das spart Zeit, verhindert Doppelarbeit und macht Umsatz, Pipeline und Service-Qualität messbar.

Beispielantwort 0.84 s ~ 0.0001 €
OpenAI Cloud

gpt-4o-mini

Mit einem CRM hat eure Vertriebs- und Service-Mannschaft jederzeit den vollständigen Kundenkontext zur Hand — Verkaufschancen gehen seltener verloren, und ihr seht datenbasiert, wo investiert werden sollte.

Beispielantwort 0.71 s ~ 0.0001 €
Llama 3.1 Lokal

llama-3.1-8b · Groq

Ein CRM hält alle Kundenkontakte, Aufträge und offenen Themen an einem Ort fest. So kann jede Abteilung sehen, was läuft, statt Informationen aus zehn Tabellen zusammenzusuchen.

Beispielantwort 0.33 s 0,00 €

Was wir mit AI machen

Zwei Disziplinen. Vier Use Cases.

AI-Integration

KI in eure Systeme einbauen.

Copilots in Dynamics, AI-Assistenten in eurer Software, automatisierte Klassifikation, Zusammenfassung, Extraktion. Direkt im Workflow, nicht im separaten Chat-Fenster.

  • Copilot Studio
  • Custom Agents
  • RAG

AI-Schnittstellen

Anbindung verschiedener KIs.

Cloud-LLMs, lokale Modelle, gemischte Setups. Ein Provider-unabhängiger Layer, der den Wechsel offen hält — und Daten, die ihr behalten wollt, lokal.

  • Anthropic
  • OpenAI
  • Azure OpenAI
  • Llama · Mistral

Vier konkrete Use Cases

Dokument-Analyse

Verträge, Berichte, Lastenhefte — strukturiert ausgewertet.

CRM-Anreicherung

Notizen strukturieren, E-Mails klassifizieren, Cases zusammenfassen.

Coding-Beschleuniger

AI in unserem Build-Prozess — schneller, präziser, dokumentiert.

Wissens-Suche

RAG über interne Dokumente — präzise Antworten, mit Quellen.

Datenhoheit

Wenn Daten das Haus nicht verlassen dürfen.

Lokale LLMs auf eurer Hardware oder in eurer EU-Cloud. DSGVO-sauber, latenzarm, ohne Abhängigkeit von US-Anbietern. Ihr behaltet eure Daten — und unsere Beratung sagt euch, welche Modelle für welchen Use Case wirklich reichen.

  • Llama 3.x
  • Mistral
  • Qwen
  • Ollama · vLLM
// Provider-agnostic
const ai = new SoHo.AI({
  primary:   'claude-haiku',
  fallback:  'gpt-4o-mini',
  sensitive: 'local-llama',
});
// Provider wechseln,
// ohne Code zu ändern.

Reden wir über euren AI-Use-Case.

30 Minuten Erstgespräch. Ehrliche Einschätzung, ob und wo AI bei euch wirklich Sinn ergibt.