Künstliche Intelligenz (KI) ist längst Teil unseres Alltags. Sie unterstützt beim Übersetzen, hilft bei der Suche im Internet oder beantwortet in Form von Chatbots auch Fragen.
Weitere Informationen über KI findet ihr in diesem Blog auch unten dem Tag KI.
Doch was genau ist KI und wie funktioniert sie? Um das besser zu verstehen, haben wir RWTHgpt gefragt, unseren KI-gestützten Chatbot. Wer, wenn nicht er, könnte besser erklären, wie KI funktioniert? In der folgenden Grafik beschreibt RWTHgpt sich selbst:
Was heißt das jetzt für uns?
So viel zur Selbstbeschreibung der KI. Klingt faszinierend? Ist es auch!
Im nächsten Schritt werfen wir gemeinsam einen Blick auf zentrale Begriffe rund um Künstliche Intelligenz. Was bedeutet „Prompt Engineering“? Was steckt hinter einem „LLM“? Und warum ist das „Tokenlimit“ so wichtig? Wir erklären die wichtigsten Begriffe – einfach, verständlich und auf den Punkt. Fangen wir mit einer Erklärung von KI-Modelle und Bots allgemein.
Was ist ein generatives KI-Modell?
Generative KI-Modelle sind Programme, die auf Basis von vorhandenen Daten neue Inhalte erstellen können – etwa Texte, Bilder, Musik oder sogar Videos. Sie lernen aus großen Datenmengen Muster und Strukturen und erzeugen daraus neue Inhalte, die dem Gelernten ähneln. Eines der bekanntesten Modelle dieser Art ist GPT (Generative Pre-trained Transformer).
Chatbot vs. Bot – wo ist der Unterschied?
Ein Bot ist ein allgemeiner Begriff für Software, die automatisch Aufgaben ausführt – etwa beim Durchsuchen des Internets. Ein Chatbot hingegen ist darauf spezialisiert, mit Menschen zu kommunizieren, zum Beispiel im Kundenservice oder auf Webseiten. Moderne Chatbots wie RWTHgpt oder Ritchy nutzen Sprachmodelle, um menschenähnliche Gespräche zu führen.
Wichtigste KI-Begriffe
Prompt, Output und Prompt Engineering
Ein Prompt ist die Eingabe, die man einer KI gibt, also zum Beispiel eine Frage oder Anweisung. Der Output ist die Antwort oder das Ergebnis, das daraufhin generiert wird. Wie gut diese Antwort ist, hängt maßgeblich davon ab, wie klug der Prompt formuliert wurde. Deshalb gibt es mittlerweile sogar das sogenannte Prompt Engineering – die Kunst, Eingaben so zu gestalten, dass das KI-Modell optimale Ergebnisse liefert.
Was steckt hinter LLM?
LLM steht für Large Language Model, also ein großes Sprachmodell. Diese Modelle wurden mit enormen Mengen an Text trainiert, um natürliche Sprache zu verstehen und selbst zu erzeugen. Sie bilden die Grundlage für viele moderne KI-Anwendungen, etwa Übersetzungen, Texterstellungen oder Zusammenfassungen.
Token, Tokenlimit und warum das wichtig ist
In KI-Systemen wie GPT wird Text in kleine Einheiten zerlegt, sogenannte Tokens. Das können Wörter, Wortteile oder Satzzeichen sein. Das Tokenlimit beschreibt, wie viele solcher Einheiten das System auf einmal verarbeiten kann. Wird dieses Limit überschritten, muss der Text gekürzt oder aufgeteilt werden. Das hat direkte Auswirkungen auf die Kosten und Effizienz einer KI-Anfrage.
Was ist ein System Prompt?
Neben dem Nutzenden-Prompt gibt es auch den System Prompt: Das ist eine versteckte Anweisung an die KI, wie sie sich verhalten soll – etwa ob sie sachlich, kreativ oder besonders kurz antworten soll. Diese Systemanweisungen beeinflussen das Verhalten des Modells im Hintergrund.
Open-Source-Modelle – KI für alle?
Einige KI-Modelle werden als Open Source veröffentlicht. Das heißt, ihr Quellcode und teilweise auch ihre Trainingsdaten sind öffentlich einsehbar. Entwicklerinnen und Entwickler können diese Modelle weiterentwickeln, anpassen und verbessern. Das fördert Transparenz, Innovation und die unabhängige Nutzung von KI, auch jenseits großer Tech-Konzerne.
Wie KI aus Daten lernt
Dahinter steckt Maschinelles Lernen (ML) – ein Teilbereich der KI, bei dem Computer aus Daten lernen, ohne explizit für jede Aufgabe programmiert zu sein. Modelle wie GPT werden mit gewaltigen Mengen an Text trainiert. Dabei erkennen sie Muster, Strukturen und Bedeutungszusammenhänge und nutzen dieses Wissen, um Sprache zu verstehen und neue Inhalte zu generieren.
Doch so leistungsfähig diese Modelle auch sind: Ihr Wissen ist begrenzt auf den Zeitpunkt des Trainings. Sie können keine Informationen kennen, die später veröffentlicht wurden und irren sich manchmal bei Fakten.
Hier kommt Retrieval-Augmented Generation (RAG) ins Spiel: Dieser Ansatz kombiniert ein Sprachmodell mit einer externen Wissensquelle, zum Beispiel einer Datenbank, Webseite oder einem Dokumentenarchiv. Bevor das Modell eine Antwort generiert, sucht es gezielt nach passenden Informationen und bezieht diese aktiv in die Antwort mit ein.
Das Ergebnis: aktuellere, faktenbasierte und präzisere Antworten – besonders wertvoll in Forschung, Lehre und komplexen Anwendungsbereichen. [1]
So funktioniert auch unser Support-Chatbot Ritchy
Ritchy nutzt nicht nur leistungsstarke Sprachmodelle aus Microsoft Azure OpenAI, sondern greift mithilfe von RAG-Technologie in Echtzeit auf die Inhalte unseres Dokumentationsportals IT Center Help zu. Die Antworten basieren also nicht auf dem Internet, sondern auf geprüftem, kontextbezogenem Fachwissen – zuverlässig, aktuell und rund um die Uhr verfügbar.
So einfach kann KI sein
Die Welt der Künstlichen Intelligenz ist faszinierend und manchmal auch ganz schön technisch. Aber mit dem richtigen Grundverständnis lassen sich Begriffe wie LLM, Prompt oder Tokenlimit leicht entschlüsseln. Und genau dieses Verständnis hilft dabei, die Potenziale von KI besser einzuschätzen und verantwortungsvoll zu nutzen.
Verantwortlich für die Inhalte dieses Beitrags sind Hania Eid und Melisa Berisha.





Hallo IT Center Blog Team,
vielen Dank für diesen tollen Artikel. Das ist wirklich ein sehr gelungener Einstieg, noch dazu in nutzerfreundlicher Sprache, und um das Thema ein wenig für sich sortiert zu bekommen. Super hilfreich! Gerne mehr davon 🙂
Hallo Uschi,
vielen Dank für dein positives Feedback! Es freut uns sehr zu hören, dass dir der Artikel gefallen hat und du ihn als hilfreich empfindest. Wir werden unser Bestes tun, um weiterhin interessante und nutzerfreundliche Inhalte zu erstellen. Wenn du spezielle Themenvorschläge hast, lass es uns gerne wissen!
Viele Grüße
das IT Center Blog Team
Danke für die Erklärung.
Danke für den spannenden Artikel. Gibt es irgendwo eine Art Glossar, wo die Begriffe nachgeschlagen werden können? Es ist ja wirklich viel Input.
In der mobilen Ansicht ist die Antwort der KI nicht lesbar . Das Bild ist nicht zu vergrößern . Sehr schade.
Auch der riesige Absatz nach dem Bild ist nicht schön.
Hallo SommerSonneSonnenschein,
vielen Dank für dein Feedback. Wir freuen uns, dass du die Inhalte spannend findest! Zu deiner Frage nach einem Glossar: Momentan haben wir leider kein spezielles Glossar. Wir nehmen deine Anregung jedoch gerne auf und werden prüfen, wie wir unsere Leserschaft in Zukunft besser dabei unterstützen können, Begriffe nachzuschlagen.
Bezüglich der mobilen Ansicht bedauern wir, dass es Schwierigkeiten bei der Lesbarkeit gibt. Wir arbeiten ständig daran, unseren Blog zu optimieren und werden dein Feedback in unsere Überlegungen einfließen lassen.
Solltest du weitere Anregungen oder Fragen haben, zögere bitte nicht, dich bei uns zu melden.
Viele Grüße
Das IT Center Blog Team
Hallo SommerSonneSonnenschein,
hier ein Update zu unserem ersten Kommentar: Wir haben den Zoom des Bildes noch ein mal geprüft und konnten feststellen, dass dieser sich von Endgerät zu Endgerät unterschiedlich verhält. Probiere es also gerne an einem Endgerät aus. Wir werden in der Zwischenzeit herausfinden, woran das liegen könnte.
Bezüglich des Wunsches nach einem Glossar, können wir stolz mitteilen, dass nun einer auf IT Center Help veröffentlicht wurde. Dieser ist unter folgendem Link zu finden: https://help.itc.rwth-aachen.de/service/1808737e10424937b76e564ed15d8028/article/fe975ab86a154e5ab2fb845b30064d64/
Viele Grüße
Das IT Center Blog Team