Künstliche Intelligenz

Lokale KI-Lösungen

KI auf Ihrer eigenen Hardware.

Finden Sie heraus, welche Modellgröße und Hardware für Ihre lokale KI-Infrastruktur die richtige Wahl ist — mit unserem interaktiven Rechner.

Lokale KI bedeutet volle Kontrolle über Ihre Daten. Kein Cloud-Anbieter sieht Ihre Anfragen, keine Daten verlassen Ihr Netzwerk. Wählen Sie unten ein Modell und eine Quantisierungsstufe, um sofort zu sehen, welche Hardware Sie benötigen.

NOTE

Dieser Rechner konzentriert sich auf kleinere bis mittelgroße Modelle, die auf einzelnen Consumer-GPUs laufen können — keine Enterprise-Server nötig. Für größere Modelle (70B+) beraten wir Sie gerne individuell.

Model Size

Quantization

VRAM Required
5.0 GB
RAM Minimum
12 GB
Bytes per Param
0.50 B
Token Speed
~40 tok/s
Quality
52 / 100

Hardware Requirements

VRAM Required
5.0 GB
System RAM
12 GB
Raw Size FP32
28 GB
Raw Size Q4
3.5 GB

Use Cases

TEXTVISIONTHINKING
Basic Q&ASummarizationSimple codingComplex codingMulti-step reasoningLong context tasksNuanced writingResearch-grade outputVision: image Q&AVision: OCR & docsVision: chart readingVision: scene understandingThinking: chain-of-thoughtThinking: step-by-step mathThinking: deep reasoningThinking: agentic planning

Compatible Hardware

HardwareVRAMSpeedFit
RTX 306012 GBFastFits
RTX 3090 / 409024 GBFastFits
RTX 509032 GBFastFits
2x RTX 309048 GBFastFits
Mac M2 Ultra (192 GB)192 GBFastFits
A100 80 GB80 GBFastFits
2x A100 80 GB160 GBFastFits
4x A100 80 GB320 GBFastFits
7B ist der klassische Einstieg fuer lokale KI. Laeuft fluessig auf einer 12 GB GPU oder einem MacBook mit Apple Silicon.

Grössere Modelle (70B+)

Modelle ab 70B Parametern (z.B. Llama 3.3 70B, DeepSeek-R1 70B oder Llama 3.1 405B) sind ebenfalls lokal möglich, erfordern jedoch spezielle Multi-GPU- oder Server-Hardware. Wir beraten Sie gerne individuell zu Setup und Kosten.

Beratungsgespräch vereinbaren

Workflows

Eine KI, die mitarbeitet — nicht nur mitredet.

Lokale KI ist kein Spielzeug-Chat. Mit den richtigen Schnittstellen agiert sie wie ein Mitarbeiter: liest Eingangspost, füllt Formulare, ruft APIs auf, schreibt Berichte — und meldet sich nur dann zurück, wenn ein Mensch entscheiden muss.

Eingangspost intelligent verarbeiten

Mails, PDFs und Faxe klassifizieren, beantworten oder an die richtige Person weiterleiten — bevor jemand morgens in die Inbox schaut.

Belege automatisch buchen

Rechnungen, Quittungen und Belege auslesen, kontieren und an DATEV, lexoffice oder Ihr ERP übergeben.

Anfragen 24/7 beantworten

Standardfragen aus eigener Wissensbasis beantworten, Akten zusammenfassen, Termine vorschlagen — komplexe Fälle ans Team eskalieren.

Verträge & Schriftsätze entwerfen

Sachverhalt rein, Erstentwurf raus. Mustertexte und frühere Akten als Grundlage — der Anwalt finalisiert.

Anamnesen & Arztbriefe vorbereiten

Anamnese transkribieren, Befund-Entwurf erstellen, Codes vorschlagen — der Arzt prüft und gibt frei.

Reports & Auswertungen automatisch

KI zieht Daten aus ERP, Datenbank oder Excel, schreibt den Wochenbericht und mailt das PDF — täglich, wöchentlich, monatlich.

Wie das technisch geht

Lokales LLM (z. B. Llama 3, Qwen, Mistral) plus Function Calling und Tool Use. Wir verbinden Modelle mit Ihren bestehenden Systemen über APIs, MCP-Server oder spezialisierte Integrationen — DATEV, lexoffice, Outlook, Ihre ERP, Ihre Datenbank. Daten bleiben in Ihrem Netz, das Modell handelt darin wie ein 24/7 verfügbarer Mitarbeiter.

Interesse geweckt?

Wir beraten Sie bei der Auswahl der passenden Hardware und richten Ihre lokale KI-Infrastruktur schlüsselfertig ein — inklusive der Workflow-Integrationen.

Jetzt Kontakt aufnehmen