# Large-Language-Modelle (LLMs)

Im aiWorkplace stehen verschiedene Large-Language-Modelle (LLMs) zur Verfügung, die für Chat, Text-, Code- und Grafikgenerierung uvm. genutzt werden.

# Voraussetzungen und Einrichtung

Damit LLMs genutzt werden können, müssen sie im Administrationsbereich von den Organisations-Inhaber bereitgestellt und freigeschaltet werden. Navigieren Sie dazu über Ihr Profil oben rechts zu Einstellungen > Modelle und aktivieren Sie die gewünschten Modelle.

Es empfiehlt sich, nicht alle verfügbaren Modelle freizuschalten, sondern eine überschaubare Auswahl bereitzustellen. So behalten Nutzer*innen den Überblick und es ist einfacher, Kosten, Qualität und Einsatzzwecke zu steuern.

# Modellauswahl

Im aiWorkplace können im Chat Modelle unterschiedlicher Anbieter genutzt werden, zum Beispiel:

  • kommerzielle Modelle von OpenAI, Anthropic, Google, Mistral
  • Open-Source-Modelle wie DeepSeek, Qwen, Kimi, GLM oder MiniMax

Die Modelle werden alle DSGVO-konform in Europa gehostet und eingegebene Daten werden nicht für Modelltraining verwendet.

Modell-Auswahl im Chat
Modell-Auswahl im Chat

Modelle unterscheiden sich vor allem in Kosten, Leistung und Geschwindigkeit: Leichtgewichtige, kostengünstige Modelle eignen sich für einfache Routineaufgaben wie kurze Zusammenfassungen oder Umformulierungen, während leistungsstärkere (oft teurere) Modelle bessere Ergebnisse bei komplexen, geschäftskritischen Aufgaben wie tiefgehenden Analysen, Coding oder anspruchsvoller Planung liefern.

# Empfohlene Modellauswahl (kommerzielle Anbieter)

Die Modellauswahl bietet eine Mischung aus unterschiedlichen Kosten und Qualitäten von unterschiedlichen Anbietern. Wenn Sie bestimmte Anbieter präferieren, können Sie die Auswahl weiter reduzieren.

Anbieter Modellname Kategorie Einsatzzweck im KI-Arbeitsplatz
OpenAI GPT-5.1 High-End / Flagship Hauptmodell für komplexes Reasoning, Analysen, lange Dokumente, anspruchsvolle Assistenztätigkeiten.
OpenAI GPT-5 mini Mittelgewicht Allround-Modell für schnellere, häufige Office-Tasks, Textbearbeitung, E-Mails, Standard-Workflows.
OpenAI GPT-5 nano Leichtgewichtig Sehr schnelle, einfache Aufgaben: Zusammenfassungen, Klassifikationen, kurze Antworten, Routing.
Anthropic Claude Opus 4.6 High-End / Flagship Alternativer „Top-Brain“ für komplexes Reasoning, Coding, kreative & mehrstufige Problemlösung.
Anthropic Claude Sonnet 4.6 Mittelgewicht Standardmodell für tägliche Arbeit: Coding, technische Dokus, lange Kontexte, Analyse-Workflows.
Anthropic Claude Haiku 4.5 Leichtgewichtig Sehr schnelle, kosteneffiziente Antworten für Chat, kurze Analysen, Agenten- und Tool-Workflows.
Google Gemini 2.5 Pro High-End / Multimodal Schwergewicht für multimodale Szenarien: komplexe Analysen mit Text, Bildern, ggf. Audio/Video.
Google Gemini 2.5 Flash Mittelgewicht / schnell Schnelle multimodale Reasoning-Aufgaben, Dashboards, Assistenz mit unterschiedlichen Datenquellen.
Google Gemini 2.0 Flash Lite Leichtgewichtig Effiziente, einfache Text- und Multimodal-Aufgaben, Chatbots mit Fokus auf Geschwindigkeit.
Mistral Mistral Large High-End / Spezial Stark für technische und wissenschaftliche Texte, Erklärungen, akademische und forschungsnahe Aufgaben.

# Modellauswahl: Open Source-Alternativen

Alternativ zu kommerziellen Modellen stehen auch Open Source Modelle zur Verfügung. Diese sind zwar weniger bekannt, aber kostengünstig und erreichen bei den meisten Aufgaben 90-98% der Performance von kommerziellen Modellen. Sie haben außerdem den Vorteil, dass sie auch im eigenen Rechenzentrum (on premise) betrieben werden können.

Empfehlung: Nutzende halten sich bei der Adoption weniger bekannter Modelle häufig eher zurück. Starten Sie mit einem etablierten kommerziellen Modell als Standard und testen Sie parallel ein äquivalentes Open Source Modell für unkritische Aufgaben.

Anbieter Modell Rolle Beschreibung Vergleichbar mit
DeepSeek DeepSeek V3-0324 Standard-Assistent Allround-Modell für alltägliche Aufgaben ohne Spezialisierung. Solide Leistung bei Text-Generierung, Analysen und Reasoning. GPT-4.1 mini / Gemini 2.5 Flash
Alibaba Qwen3 235B Instruct Standard-Assistent Allround-Modell für tägliche Aufgaben: Textgenerierung, Zusammenfassungen, Chat, Standard-Analysen. GPT-4.1
Alibaba Qwen3 Coder 480B Code-Spezialist Spezialisiert auf Programmierung: Code-Generierung, Debugging, Refactoring. Sehr gut bei Standardaufgaben und mittlerer Komplexität. GPT-4.1
Alibaba Qwen3 235B Thinking Advanced Reasoning Spezialisiert auf fortgeschrittenes logisches Denken und agentische Workflows. Kann schrittweise Probleme durchdenken. Gut für mehrstufige automatisierte Prozesse. Gemini 2.5 Flash (R)
Z.ai GLM-4.7 Reasoning & Analytik Spezialist für komplexes Denken: Mehrstufige Reasoning-Aufgaben, tiefe Analysen, schwierige logische Probleme. Erreicht etwa 95-98% der Performance von Top-Premium-Modellen. Bei Mathematik-Tests konkurriert mit GPT-5.1 und Gemini 3 Pro. GPT-5 / Claude Sonnet 4.6
MiniMax MiniMax M2.1 Coding & Long Context Leichtgewichtiges Coding-Modell mit extrem großem Kontextfenster (1 Million Tokens). Ideal für Aufgaben mit sehr langen Dokumenten oder mehrstufigen Prozessen. GPT-5-mini / Claude Sonnet 4 (R)

(R) = Erweitertes Denken aktiv

# Erweitertes Denken

Für einige Modelle steht im aiWorkplace die Option Erweitertes Denken (Reasoning-Modus) zur Verfügung, zum Beispiel bei neueren Anthropic-Modellen oder Google Gemini 2.5 Pro. Dieser kann über das Gehirn-Symbol im Chat aktiviert und deaktiviert werden.

Erweitertes Denken
Erweitertes Denken

Wenn Erweitertes Denken aktiviert ist, führt das Modell zusätzliche Reasoning-Schritte aus und kann so strukturiertere, besser begründete Antworten liefern, insbesondere bei komplexen Fragestellungen mit mehreren Teilschritten. Die Antworten können dadurch etwas länger dauern und verursachen in der Regel höhere Kosten pro Anfrage. Geeignet ist der Reasoning-Modus vor allem für mehrstufige Analysen und Planungen, Aufgaben mit komplexen Abhängigkeiten sowie Fälle, in denen nachvollziehbare Begründungen besonders wichtig sind. Für kurze, einfache Anfragen kann Erweitertes Denken meist deaktiviert bleiben, um Laufzeit und Kosten zu reduzieren.

LLM-Kosten verschiedener Anbieter im Vergleich
LLM-Kosten verschiedener Anbieter im Vergleich