#
Verfügbare Large Language Models (LLMs)
Hier finden Sie eine Übersicht der im aiStudio aktuell verfügbaren Large Language Models (LLMs). Diese Übersicht basiert auf Herstellerangaben und zeigt für jedes Modell Kernfähigkeiten, potenzielle Grenzen sowie Einsatzempfehlungen – damit Sie KI-Lösungen optimal auf Ihre Use Cases abstimmen können.
Alle in aiStudio angebotenen Modelle werden innerhalb der EU gehostet und entsprechen somit vollständig den Anforderungen der DSGVO – für maximale Datensicherheit und Datenschutz.
#
OpenAI
| Modell | Beschreibung | Context Window | Training abgeschlossen |
|---|---|---|---|
| GPT-5.2 | Flaggschiff-Modell mit Fokus auf tiefgreifendes Reasoning und autonome Agenten-Fähigkeiten. Verbindet State-of-the-Art-Sprachverständnis mit robuster Multimodalität (Text/Bild) und der Fähigkeit, komplexe, mehrstufige Aufgaben eigenständig zu lösen. Stärken: Überlegenes logisches und kausales Reasoning, autonome Verkettung von Tools (Function Calling), effizientes Kontextverständnis. Zu beachten: Höhere Latenz im Vergleich zu kleineren Modellen, stark ausgeprägte Safety-Filter können bei Grenzfällen zu übervorsichtigen Ablehnungen führen, erfordert präzises Prompting für Nischenanforderungen. Use Cases: Hochkomplexes (RAG), technische Dokumentation, professionelle Assistenzsysteme, multimodale Workflows |
272k | August 2025 |
| GPT-5.1 | Fortgeschrittenes Modell der GPT-5-Generation mit erweitertem Kontextverständnis, stabiler Antwortlogik und verbesserter Präzision bei komplexen Aufgaben. Optimiert für anspruchsvolle Reasoning-, Analyse- und Assistenz-Szenarien. Stärken: Stabile und konsistente Antworten, verbessertes kontextuelles Reasoning, geeignet für anspruchsvolle Dialog-Workflows. Zu beachten: Neigt zu Halluzinationen, sehr striktes Prompting notwendig, sonst kann es unzuverlässige oder irrelevante Ausgaben liefern. Use Cases: Komplexes Reasoning-RAG, strukturierte Datenanalyse, Agenten mit Tools, anspruchsvolle Assistenz- und Workflow-Aufgaben, Aufgaben mit langen Kontexten oder hoher Komplexität. |
272k | September 2024 |
| GPT-5.1 Chat | Dialogorientiertes Modell mit verbesserter Kontextverarbeitung, höherer Antwortstabilität und gesteigerter Präzision bei komplexen Unterhaltungen. Optimiert für nutzerzentrierte Interaktion, strukturiertes Dialog-Reasoning und Aufgaben, die konsistente, lange Gesprächsverläufe erfordern. Stärken: Sehr hohe Antwortqualität in langen Dialogen, verbessertes kontextuelles Verständnis, robuste und präzise Interaktionslogik. Zu beachten: Fokus auf Dialog und Assistenz. Use Cases: Chat-Agenten, komplexe Assistenz-Workflows, kundenspezifische Support-Bots, RAG-Systeme mit Fokus auf Dialogführung, strukturierte Prozess-Assistenten. |
128k | Oktober 2024 |
| GPT-5 | Ein Model mit multimodalen Fähigkeiten und erweiterten Funktionen im Textverständnis, logischem Schließen (Reasoning), Code-Generierung und agentenbasierten Aufgaben in verschiedenen Bereichen. Stärken: Verbesserte Reasoning-Fähigkeiten und Programmierleistung. ️Zu beachten: Hohe Latenz. Use Cases: Reasoning-RAG, Data Collection-Agenten, Agenten mit Tools. |
272k | Oktober 2024 |
| GPT-5 Codex | Spezialisiertes Modell der GPT-5-Generation, optimiert für fortgeschrittene Code-Generierung, Softwarearchitektur-Entwicklung und komplexe technische Problemlösung. Bietet erhöhte Präzision bei der Analyse großer Codebasen, Refactoring, Fehlersuche und automatisierten Workflows. Stärken: Außergewöhnliche Programmierleistung und präzises technisches Reasoning. Zu beachten: Nicht für breit gefächerte multimodale Aufgaben optimiert, Fokus klar auf Software- und technische Use Cases. Use Cases: Programmier-Agenten, Refactoring-Workflows, Analyse großer Codebasen, technische Dokumentations-Automatisierung. Zusätzlich dank starker mathematischer Trainingsbasis einsetzbar für kundenspezifische Berechnungen, Formeln und mathematische Ad-hoc-Aufgaben. |
272k | Oktober 2024 |
| GPT-5 mini | Kompakte Variante von GPT-5 mit Fokus auf Geschwindigkeit und Effizienz. Bietet multimodale Fähigkeiten und solide Reasoning-Performance, jedoch mit reduzierter Tiefe im Vergleich zum Flagship-Modell. Stärken: Gute Balance zwischen Leistung und Geschwindigkeit, Multimodalität, Function Calling. ️Zu beachten: Eingeschränkte Reasoning-Tiefe im Vergleich zu GPT-5, benötigt präziseres Prompting für komplexe Aufgaben. Use Cases: Mittelkomplexes RAG, gute Datenanalyse, Agenten mit Tools. |
272k | März 2024 |
| GPT-5 nano | Schnelle Variante von GPT-5, optimiert für Zusammenfassung, Klassifikation. Stärken: Multimodalität, Function Calling ️Zu beachten: Eingeschränkte Reasoning-Fähigkeiten im Vergleich zum großen Modell, präzises Prompting notwendig, nicht für umfassende, mehrstufige Anwendungen geeignet, mögliche Einschränkungen bei Multimodalität, höhere Latenz im Vergleich zu anderen mini-/nano-Modellen Use Cases: Einfachstes RAG: klare, fokussierte Aufgaben wie Zusammenfassung, Klassifikation, einfache Antworten, Agenten mit Tools. |
272k | März 2024 |
| GPT-4.1 | Präzisionsmodell für textbasierte Standardanwendungen und Inhaltsoptimierung. Führend im nicht-reasoning Bereich. Stärken: Textqualität, Prompt-Effizienz, Mehrsprachigkeit, Multimodalität, Function Calling, hohe Geschwindigkeit. ️Zu beachten: Kein Advanced Reasoning. Use Cases: Allrounder für komplexeres RAG und Custom Agenten, Agenten mit Tools. |
1 Mio | Juni 2024 |
| GPT-4.1 mini | Kompakte Lösung für schnelle Textinteraktionen und Routineanfragen. Stärken: Mehrsprachigkeit, Multimodalität, Function Calling, hohe Geschwindigkeit. Zu beachten: Verlangt exaktes Prompting. Use Cases: Simpleres RAG, einfache Agenten, Agenten mit Tools. |
1 Mio | Juni 2024 |
| GPT-4.1 nano | Ultrakompakte Basisversion für einfache Dialoge und Echtzeit-Applikationen. Besonders geeignet für einfache Textverarbeitung und kurze Hilfestellungen. Stärken: Höchstgeschwindigkeit, Massenskalierung, Mehrsprachigkeit, Multimodalität, Function Calling. Zu beachten: Nur Basisfunktionalitäten, verlangt exaktes Prompting, inkosistent mit Agenten mit Tools Use Cases: Einfachstes RAG: Keyword-Abfragen, Statuschecks. |
1 Mio | Juni 2024 |
| o4 mini | Experte für strukturierte Datenextraktion und automatisierte Analyseprozesse mit hoher logischer Präzision. Stärken: Systematische Informationsgewinnung, logische Verknüpfung, komplexe Analysen, Mehrsprachigkeit, Multimodalität, Function Calling, hohe Geschwindigkeit. Zu beachten: Längere Verarbeitungszeit bei hochkomplexen Anfragen. Use Cases: Reasoning-RAG, strukturierte Datenextraktion, Data Collection und Custom Agenten. |
200k | Juni 2024 |
| o3 mini | Premium-Lösung für theoretische Fragestellungen und wissenschaftliches Reasoning mit algorithmischer Tiefe. Stärken: Forschungsorientierte Analyse, theoretische Modellierung, kausale Schlussfolgerungen, Mehrsprachigkeit, Function Calling. ️Zu beachten: Höhere Ressourcennutzung für Maximalleistung, mittlere Geschwindigkeit. Use Cases: Reasoning-RAG, Analyse, Hypothesenprüfung, Data Collection und Custom Agenten. |
200k | Februar 2024 |
| GPT-4 Turbo | Allrounder mit breitem Wissensspektrum und zuverlässiger Performance für diverse Anwendungen. Stärken: Ausgewogene Leistung, bewährte Stabilität, Mehrsprachigkeit, Multimodalität, Function Calling. ️Zu beachten: Modell mit veralteter Architektur, deshalb geringe Antwortgeschwindigkeit – trotz des Namens "Turbo". Use Cases: Komplexeres RAG und Custom Agenten. |
128k | Dezember 2023 |
| GPT-4o | („o“ für „omni“) Vollständig multimodales Modell für Echtzeit-Interaktionen mit Text, Bild und Audio, optimiert für flüssige Dialoge und intuitive Anwendungen. Stärken: Vollständige Multimodalität, fließende, natürliche Dialoge, Function Calling. Zu beachten: Erfordert präzises Prompting für optimale Ergebnisse, variable Antwortgeschwindigkeit, zeigt Leistungseinbußen bei sehr komplexen Aufgaben oder hohem Datenvolumen. Use Cases: Simpleres RAG, einfache Agenten, Agenten mit Mail-Tools. |
128k | Oktober 2023 |
| GPT-4o mini | Balanciert Geschwindigkeit und Multimodalität für alltägliche Bild-Text-Anwendungen mit konsistenter Performance. Stärken: Extrem schnell, Mehrsprachigkeit, Multimodalität, Function Calling. ️ Zu beachten: Nur einfache Tasks. Use Cases: Einfaches RAG, einfache Agenten mit Tools. |
128k | Oktober 2023 |
#
Anthropic
| Modell | Beschreibung | Context Window | Training abgeschlossen |
|---|---|---|---|
| Claude 4.5 Sonnet | Neues leistungsstarkes Modell der Claude-Reihe mit nochmals gesteigerter logischer Präzision und technischer Ausdruckskraft. Es kombiniert präzises Retrieval-Verständnis mit natürlicher Dialogführung und außergewöhnlicher Kontexttreue über lange Dokumente hinweg. Stärken: Fortgeschrittenes logisches und mathematisches Reasoning, kreative technische Problemlösung, Multimodalität, Function Calling, hohe Antwortkohärenz auch bei langen Kontexten, stabile Tool- und API-Anbindung. Zu beachten: Leichte Priorisierung englischer Syntax bei gemischten Eingaben – klare Sprachangabe empfohlen. Bei offenen kreativen Aufgaben eher sachlich. Use Cases: Premium-RAG, komplexe technische Forschung, strukturierte Analysen, Code-Assistenten mit Tools, wissensintensive Agentensysteme. |
200k | September 2025 |
| Claude 4.5 Haiku | Ultraschnelles und kosteneffizientes Modell für Echtzeit-Anwendungen und Agenten-Workflows. Liefert in vielen Coding- und Automatisierungsaufgaben nahezu Sonnet-Niveau bei deutlich geringerer Latenz und Kosten, mit Fokus auf Skalierbarkeit und niedrige Reaktionszeiten. Stärken: Sehr hohe Geschwindigkeit und Kosteneffizienz, solide Coding-Fähigkeiten, prädestiniert für Echtzeitanwendungen und parallele Agenten-Orchestrierung, hohe Sicherheit und Ausrichtung. Zu beachten: Begrenztes Kontextfenster im Vergleich zu Flaggschiff-Modellen, nicht multimodal, für sehr komplexe Analyse- und Kreativaufgaben weniger geeignet. Use Cases: Schnelle Textgenerierung, effiziente Chatbots und Kundensupport, Agenten-Workflows mit hoher Parallelität, Pair Programming, Automatisierung und Low-Latency-Anwendungen. |
200k | Juli 2024 |
| Claude 4 Sonnet | Top-Modell für anspruchsvolle Programmiererklärungen und technische Konzeptentwicklung. Es hat beeindruckender Leistung für Text-Generierung, Tool-Nutzung, Suche, Agentensuche mit der richtigen Geschwindigkeit. Stärken: Code-Verständnis, Technische Kreativität, Führend in Code/Tools, Mehrsprachigkeit, Multimodalität, Function Calling, hohe Geschwindigkeit. ️Zu beachten: Sprachpriorisierung: Bei mehrsprachigen Prompts Dominanz von Englisch – explizite Sprachangabe erforderlich. Use Cases: Premium-RAG: Forschung, Analysen, starkes Reasoning, Agenten mit Tools. |
200k | Mai 2025 |
| Claude 3.7 Sonnet | Entschlüsselt komplexe logische Zusammenhänge mit verbesserter Abstraktionsfähigkeit. Stärker im logischen Reasoning für anspruchsvolle Fragestellungen mit verbesserter Verarbeitungstiefe. Stärken: Logisches Denken, Schlussfolgerungsstärke, Argumentationsstärke, Mehrsprachigkeit, Multimodalität, Function Calling. ️Zu beachten: Instabile Mehrsprachigkeit, Geschwindigkeit unter 3.5, sprachspezifische Anforderungen erfordern präzise Prompt-Formulierungen. Use Cases: Komplexeres RAG, SQL-Agenten, inkonsistent mit Agenten mit Tools. |
200k | November 2024 |
| Claude 3.5 Sonnet | Meistert mehrschichtige Textanalysen und natürliche Dialoge mit herausragendem Sprachgefühl. Das Modell ist auch sehr gut in Logik, Mathe, Antwortqualität. Stärken: Sprachliche Fähigkeiten, Kontexttiefe, Argumentationsklarheit, Mehrsprachigkeit, Function Calling, versteht Kontext und Nuancen außergewöhnlich gut. Zu beachten: Neigt zu sehr ausführlichen Antworten und überflüssiger Höflichkeit, nicht multimodal. Use Cases: Sehr komplexeres RAG, SQL-Agenten, inkonsistent mit Agenten mit Tools. |
200k | April 2024 |
#
Meta
| Modell | Beschreibung | Context Window | Training abgeschlossen |
|---|---|---|---|
| Llama 3.1 405B | Bewährte Open-Source-Lösung für generelle Textanwendungen mit breitem Wissensspektrum. Stärken: Open Source, Mehrsprachigkeit, Grundlagenwissen Zu beachten: Langsam bei komplexen Prompts, Qualität stark abhängend von Finetuning, keine Multimodalität, kein Function Calling, repetitive Antworten, benötigt starkes Prompting. Use Cases: Simpleres RAG: Basis-QA. |
128k | Juli 2024 |
#
Mistral
| Modell | Beschreibung | Context Window | Training abgeschlossen |
|---|---|---|---|
| Mistral Small | Marktführer in der Kategorie der kleinen Modelle mit der neuesten Version v3, die im Januar 2025 veröffentlicht wurde. Liefert blitzschnelle Antworten für Alltagsanfragen und einfache Übersetzungen. Stärken: Echtzeit-Performance, Mehrsprachigkeit, Multimodalität, Function Calling, hohe Geschwindigkeit. Zu beachten: Begrenzte Analysekomplexität, kleines Kontextfenster. Use Cases: Gut für einfache RAG-Tasks, Agenten mit Tools. |
32k | Januar 2025 |
| Pixtral | Spezialist für Bildinterpretation und visuell-textuelle Zusammenhänge. Es ist ein Modell mit 12 Milliarden Parametern, das Bildinhalte in präzise Textbeschreibungen transformieren kann. Stärken: Bildverständnis, visuelle Intelligenz, schnelle Objekterkennung. Zu beachten: Textfokus sekundär, ungeeignet für Agenten mit Tools. Use Cases: Visuelles RAG: Bild-Text-Korrelation, Objektidentifikation. |
128k | September 2024 |
| Mistral Large | Ist das fortschrittlichste LLM von Mistral AI. Löst technische und wissenschaftliche Problemstellungen mit tiefem Fachverständnis. Es ist hervorragend für akademische Texte und Code-Erklärungen. Stärken: Komplexe Analysen, technisches Verständnis, Code-Fähigkeiten, Mehrsprachigkeit, Function Calling. Zu beachten: Antwortzeit bei Maximalauslastung erhöht, neigt zu Halluzinationen beim unsauberem Prompting, keine Multimodalität, kleines Kontextfenster, inkonsistent mit Agenten mit Tools. Use Cases: Komplexeres RAG, Custom Agenten. |
32k | unbekannt |
#
Google
| Modell | Beschreibung | Context Window | Training abgeschlossen |
|---|---|---|---|
| Gemini 2.5 Pro | Multimodales Modell mit sehr starker Reasoning- und Analyse-Performance. Verarbeitet komplexe Aufgaben und große multimodale Datensätze (Text, Code, Bilder, Audio, Video) für anspruchsvolle Anwendungen. Stärken: Exzellentes multimodales Verständnis, sehr großes Kontextfenster, fortgeschrittene Coding- und Problemlösefähigkeiten, Function Calling. Zu beachten: Höhere Latenz als kleinere Modelle, weniger geeignet für extrem latenzkritische Anwendungen, für optimale Ergebnisse ist ein angepasstes Prompting erforderlich. Use Cases: Komplexes RAG mit Multimedia, fortgeschrittene Agenten- und Suchanwendungen, Code-Generierung und -Review, anspruchsvolle Analyse in Forschung und Enterprise. |
1 Mio | Januar 2025 |
| Gemini 2.5 Flash | Ist die neueste Version des Reasoning Modells mit extra Speed mit den besten Fähigkeiten für multimodale Aufgaben. Es ist besonders gut darin, verschiedene Datenarten zu kombinieren und komplexe Analysen durchzuführen. Stärken: Beste Multimodalität, komplexe Synthese, Mehrsprachigkeit, Function Calling, hohe Geschwindigkeit. Zu beachten: Ungeeignet für Data Collection Agenten, folgt nicht immer den Formatierungsanweisungen, ungeeignet für Tool-Calls. Use Cases: Komplexeres RAG: Multidokumenten-Analyse, Cross-Data-Synthese, Custom Agenten. |
1 Mio | Juni 2025 |
| Gemini 2.0 Flash | Bietet zuverlässige Leistung für kreative Aufgaben und textbasiertes Reasoning mit reduzierter Halluzinationsneigung. Stärken: Kreativität, Präzision, Textqualität, hohe Geschwindigkeit, Multimodalität. Zu beachten: Folgt nicht immer den Formatierungsanweisungen, ungeeignet für Data Collection Agenten. Use Cases: Simpleres RAG: Dokumenten-QA, Custom Agenten, ungeeignet für Tool-Calls. |
1 Mio | August 2024 |
| Gemini 2.0 Flash Lite | Leichtgewichtiges Einstiegsmodell der Gemini‑2.0‑Reihe, optimiert für schnelle Textverarbeitung und einfache Aufgaben. Fokus liegt auf Effizienz und Geschwindigkeit, mit Unterstützung großer Kontexte und Multimodal-Eingaben. Stärken: Sehr schnelle Verarbeitung kleiner Aufgaben, Multimodalität, kostengünstiger Betrieb. Zu beachten: Nicht ideal für umfangreiche Custom Agents und für RAG, kann repetitive Antworten erzeugen, nicht optimal für kreative oder komplexe Aufgaben. Use Cases: Schnelle Dokumenten-Checks, einfache Agenten. |
1 Mio | August 2024 |