| Anbieter | Website | Vorteile | Nachteile |
|---|---|---|---|
| ChatGPT | ChatGPT | • Allrounder • Sehr gutes Reasoning |
• Halluziniert oft • Gutes Prompting nötig |
| Claude | Claude | • Gutes Kontextverständnis | • Begrenzte Nutzung |
| Gemini | Gemini | • Mittelmäßig für alle Bereiche • Gutes Researching • Bildgenerierung möglich |
• Nur mittelmäßig gut in allen Bereichen • Stark Halluzinierend |
| Mistral | Mistral | • Viele Open-Source Modelle • Neuere Modelle gut in Mathe • Europäisches Modell |
• Nicht ganz auf dem Level von OpenAI Modellen |
| Perplexity | Perplexity | • Sehr gutes Researching | • Kaum logisches Denken |
| Qwen | Qwen | • Komplett kostenlos • Unendliche Anfragen • Gute Reasoning-Modelle • Breite Auswahl an Modellen • KI-Modelle parallellaufend (Vergleich zwischen KI-Modellen) |
• Chinafreundlich (schlechter für nicht-chinesische Geschichte und Geografie) |
| MiniMax | MiniMax | • Sehr hohes Tokenverständnis (1 Mio. Tokens) | • Schwächeres Reasoning und Research |
| Grok | Grok | • Zugriff auf X (ehemals Twitter)-Posts • Sehr aktuell • Gut für Foren |
• Nutzt X (ehemals Twitter) Posts → Hohe Fehleranfälligkeit |
| Scira | Scira | • Kostenlose Auswahl zwischen guten KI-Modellen • Hohe Auswahl von Research-Methoden |
• Viele KI-Modelle kostenpflichtig |
| Groq | Groq | • Viele sehr gute KI-Modelle zur Auswahl | • Keine Hochlade-Möglichkeit |
| Groq console | Groq console | • Systemprompt anpassbar • Viele KI-Modelle zur Auswahl |
• Professionelles Layout, kann verwirrend sein • Keine Hochlade-Möglichkeit |
| DeepSeek | DeepSeek | • Unendlich Anfragen • Komplett kostenlos • Reasoning |
• Chinafreundlich (schlechter für nicht-chinesische Geschichte und Geografie) • Keine spezifische Modellauswahl |
| Mistral | Mistral | • Gutes Geschichtsverständnis • Gutes Geografieverständnis |
• Begrenztes Logikverständnis |
| Kimi | Kimi | • Größtenteils kostenlos • Gutes Reasoning • Sehr gutes gratis KI-Modell |
• Chinafreundlich (schlechter für nicht-chinesische Geschichte und Geografie) |
| ChatGLM | ChatGLM | • Tiefes Reasoning • Gutes Logikverständnis |
• Interface größtenteils nur auf Chinesisch • Chinafreundlich (schlechter für nicht-chinesische Geschichte und Geografie) |
| Hugging Face | Hugging Face | • Große Auswahl an Open-Source-Modellen • Community-getrieben |
• Qualität der Modelle kann stark variieren |
| Cohere | Cohere | • Fokus auf Unternehmensanwendungen • Starke Textgenerierungs- und Klassifizierungsfähigkeiten |
• Weniger für den allgemeinen Gebrauch bekannt |
| Modellname | Website | Am besten für |
|---|---|---|
| GPT-5.2 | ChatGPT | • Allrounder • Reasoning • Schnelle Antworten |
| Claude Sonnet 4.5 | Claude | • Kontextverständnis • Tiefes (sehr starkes) Reasoning |
| Claude Haiku 4.5 | Claude | • Kontextverständnis • Schnelle Antworten |
| Gemini 3 Pro | Gemini | • Die besten Antworten insgesamt • Sehr intelligent • Sehr wenige Anfragen • Bildgenerierung möglich |
| Mistral 3 | Mistral | • Sehr gut in Mathematik • Europäisches Modell |
| Qwen3-Max | Qwen | • Allrounder • Komplexe Aufgaben |
| Qwen3-VL-235B-A22B | Qwen | • Visuelles Verständnis |
| Qwen3-Coder | Qwen | • Programmierung |
| MiniMax M2.1 | MiniMax | • Gutes Reasoning |
| MiniMax-01 | MiniMax | • 4 Millionen großes Kontextfenster |
| Grok 3 | Grok | • Schnelle Antworten |
| Grok 4 Fast | Scira | • Schnelle Antworten |
| Qwen3 4B Thinking | Scira | • Reasoning |
| Kimi K2 | Kimi | • Reasoning • Sehr gute Logik |
| GPT-OSS-120B | Groq | • Nah an GPT-5.2 • Open-Source Modell |
| Llama 4 | Hugging Face | • Leistungsstarkes Open-Source-Modell |
| Command R+ | Cohere | • Optimiert für Unternehmens-Workflows |
| Element | Beispiel |
|---|---|
| Rollenzuweisung | Du bist Astrophysiker mit 30 Jahren Berufserfahrung. |
| Thema | Die Sternenkonstellation über Sachsen und Bayern im Vergleich |
| Kontext | Als Komplexe Leistung |
| Niveaudefinition | Auf dem Niveau eines 10.-Klässlers mit fachlicher Sprache auf dem Niveau eines Gymnasiums |
| Positive Prompt (was enthalten sein soll) | Nutze viel Fachsprache und beziehe dich nur auf vertrauenswürdige Quellen, prüfe selbst kritisch die Richtigkeit deiner Informationen. |
| Negative Prompt | Mache keine Rechtschreibfehler und füge keine falschen Informationen hinzu. |
| Weiteres (Mehr Details) | Halte dich kurz, bringe es auf den Punkt... |
Du bist Astrophysiker mit 30 Jahren Berufserfahrung und hast die Aufgabe, die Sternenkonstellation über Sachsen und Bayern am Nachthimmel für eine komplexe Leistung zu vergleichen.
Halte dich auf dem Niveau eines 10.-Klässlers auf einem Gymnasium.
Nutze viel Fachsprache und beziehe dich nur auf vertrauenswürdige Quellen, behalte dabei aber die Niveauangabe bei. Prüfe selbst kritisch die Richtigkeit deiner Informationen.
Mache keine Rechtschreibfehler und füge keine falschen Informationen hinzu.
Halte dich kurz, bringe es auf den Punkt
Eine spezifische Anweisung oder Frage, die an ein KI-Modell gestellt wird, um eine Antwort oder eine bestimmte Ausgabe zu erhalten.
Der Prozess des Entwerfens und Formulierens von Prompts, um die gewünschten Ergebnisse von einem KI-Modell zu erzielen. Gutes Prompting ist entscheidend für die Qualität der KI-Antworten.
Eine vordefinierte Anweisung, die das Verhalten eines KI-Modells für eine gesamte Konversation festlegt (z.B. „Du bist ein hilfreicher Assistent, der immer höflich und präzise antwortet“).
Wenn ein KI-Modell falsche oder irreführende Informationen generiert, die nicht auf den Trainingsdaten basieren, und diese als Fakten darstellt.
Die kleinsten Einheiten, in die ein Text von einem KI-Modell zerlegt wird. Ein Token entspricht ungefähr 3 bis 4 Zeichen und ist die Basis für die Verarbeitung von Sprache.
Die Fähigkeit eines KI-Modells, logische Schlussfolgerungen zu ziehen, Probleme zu lösen und komplexe Zusammenhänge zu verstehen. Dies ist ein Maß für die "Intelligenz" des Modells.
Die Fähigkeit eines KI-Modells, Informationen aus dem Internet oder einer Datenbank zu suchen, zu analysieren und zusammenzufassen, um Fragen zu beantworten.
Bezieht sich auf Software oder Modelle, deren Quellcode öffentlich zugänglich ist. Jeder kann ihn einsehen, verändern und weiterverbreiten.
Ein künstliches neuronales Netzwerk, das darauf trainiert wurde, bestimmte Aufgaben wie Texterstellung, Übersetzung oder Bilderkennung auszuführen.
Ein sehr großes und komplexes Sprachmodell, das auf riesigen Datenmengen trainiert wurde, um menschenähnliche Texte zu verstehen und zu generieren.
Die maximale Anzahl an Tokens, die ein KI-Modell bei der Verarbeitung einer Anfrage berücksichtigen kann. Ein größeres Kontextfenster ermöglicht es dem Modell, längere Gespräche oder Dokumente zu verstehen.
Der Prozess, bei dem ein vortrainiertes KI-Modell mit einem spezifischeren Datensatz weiter trainiert wird, um seine Leistung für eine bestimmte Aufgabe zu verbessern.
Der Prozess, bei dem ein trainiertes KI-Modell neue, unbekannte Daten analysiert, um eine Vorhersage oder Entscheidung zu treffen.
| Provider | Website | Advantages | Disadvantages |
|---|---|---|---|
| ChatGPT | ChatGPT | • All-rounder • Very good reasoning |
• Often hallucinates • Good prompting necessary |
| Claude | Claude | • Good context understanding | • Limited usage |
| Gemini | Gemini | • Moderate for all areas • Good researching • Image generation possible |
• Only moderately good in all areas • Strong hallucinations |
| Mistral | Mistral | • Many Open-Source Models • Newer models good in Maths • European Model |
• Not exactly at the level of OpenAI Models |
| Perplexity | Perplexity | • Very good researching | • Hardly any logical thinking |
| Qwen | Qwen | • Completely free • Unlimited requests • Good reasoning models • Wide selection of models • AI models running in parallel (comparison between AI models) |
• China-friendly (worse for non-Chinese history and geography) |
| MiniMax | MiniMax | • Very high token understanding (1 million tokens) | • Worse reasoning and research than other models |
| Grok | Grok | • Access to X (formerly Twitter) posts • Very up-to-date • Good for forums |
• Uses X (formerly Twitter) posts → High susceptibility to errors |
| Scira | Scira | • Free choice between good AI models • Wide selection of research methods |
• Many AI models are paid |
| Groq | Groq | • Many very good AI models to choose from | • No upload possibilities |
| Groq console | Groq console | • System prompt customizable • Many AI models to choose from |
• Professional layout, can be confusing • No upload possibilities |
| DeepSeek | DeepSeek | • Unlimited requests • Completely free • Reasoning |
• China-friendly (worse for non-Chinese history and geography) • No specific model selection |
| Mistral | Mistral | • Good history understanding • Good geography understanding |
• Limited logic understanding |
| Kimi | Kimi | • Mostly free • Good reasoning • Very good free AI model |
• China-friendly (worse for non-Chinese history and geography) |
| ChatGLM | ChatGLM | • Deep reasoning • Good logic understanding |
• Interface mostly only in Chinese • China-friendly (worse for non-Chinese history and geography) |
| Hugging Face | Hugging Face | • Wide range of open-source models • Community-driven |
• Quality of models can vary heavily |
| Cohere | Cohere | • Focus on enterprise applications • Strong text generation and classification capabilities |
• Less known for general use |
| Model-name | Website | Best for |
|---|---|---|
| GPT-5.2 | ChatGPT | • All-rounder • Reasoning • Fast answers |
| Claude Sonnet 4.5 | Claude | • Context understanding • Deep (very strong) Reasoning |
| Claude Haiku 4.5 | Claude | • Context understanding • Fast answers |
| Gemini 3 Pro | Gemini | • The best answers overall • Very intelligent • Very few requests • Image generation possible |
| Mistral 3 | Mistral | • Very good in maths • European model |
| Qwen3-Max | Qwen | • All-rounder • Complex tasks |
| Qwen3-VL-235B-A22B | Qwen | • Visual understanding |
| Qwen3-Coder | Qwen | • Programming |
| MiniMax M2.1 | MiniMax | • Good Reasoning |
| MiniMax-01 | MiniMax | • 4 million big context window |
| Grok 3 | Grok | • Fast answers |
| Grok 4 Fast | Scira | • Fast answers |
| Qwen3 4B Thinking | Scira | • Reasoning |
| Kimi K2 | Kimi | • Reasoning • Very good logic |
| GPT-OSS-120B | Groq | • Close to GPT-5.2 • Open-source model |
| Llama 4 | Hugging Face | • Powerful open-source model • Open-Source |
| Command R+ | Cohere | • Optimized for enterprise workflows |
| Element | Example |
|---|---|
| Role assignment | You are an astrophysicist with 30 years of professional experience. |
| Topic | The star constellation over Saxony and Bavaria in comparison |
| Context | As a complex achievement |
| Level definition | At the level of a 10th grader with technical language at the level of a high school |
| Positive Prompt (what should be included) | Use a lot of technical language and only refer to trustworthy sources, critically check the accuracy of your information yourself. |
| Negative Prompt | Do not make spelling mistakes and do not add false information. |
| Further (More details) | Keep it short, get to the point... |
You are an astrophysicist with 30 years of professional experience and have the task of comparing the star constellation over Saxony and Bavaria in the night sky for a complex achievement.
Keep yourself at the level of a 10th grader at a high school.
Use a lot of technical language and only refer to trustworthy sources, but keep the level specification. Critically check the accuracy of your information yourself.
Do not make spelling mistakes and do not add false information.
Keep it short, get to the point
A specific instruction or question given to an AI model to get a response or a specific output.
The process of designing and formulating prompts to achieve the desired results from an AI model. Good prompting is crucial for the quality of the AI's answers.
A predefined instruction that sets the behavior of an AI model for an entire conversation (e.g., "You are a helpful assistant who always responds politely and accurately").
When an AI model generates false or misleading information that is not based on its training data and presents it as fact.
The smallest units into which a text is broken down by an AI model. One token corresponds to about 3 to 4 characters and is the basis for language processing.
The ability of an AI model to draw logical conclusions, solve problems, and understand complex relationships. This is a measure of the model's "intelligence."
The ability of an AI model to search, analyze, and summarize information from the internet or a database to answer questions.
Refers to software or models whose source code is publicly available. Anyone can view, modify, and distribute it.
An artificial neural network that has been trained to perform specific tasks such as text generation, translation, or image recognition.
A very large and complex language model that has been trained on huge amounts of data to understand and generate human-like text.
The maximum number of tokens an AI model can consider when processing a request. A larger context window allows the model to understand longer conversations or documents.
The process of further training a pre-trained AI model with a more specific dataset to improve its performance on a particular task.
The process by which a trained AI model analyzes new, unknown data to make a prediction or decision.