Glossar
Auf dieser Seite finden Sie eine Übersicht über wichtige Begriffe und Konzepte, die Ihnen helfen sollen, Alan besser zu verstehen.
KI-Assistent Alan
Alan ist ein KI-Assistent, der künstliche Intelligenz (KI) verwendet, um Benutzer bei verschiedensten Fragen und Aufgaben zu unterstützen. Er ist darauf ausgelegt, natürliche Sprache zu verstehen und darauf zu reagieren, wodurch er in der Lage ist, mit Menschen auf intuitive Weise zu interagieren. Er analysiert die eingegebenen Prompts und generiert darauf basierende Antworten. Dafür nutzt Alan Large-Language-Modelle (LLMs) und weitere hochanspruchsvolle Algorithmen des maschinellen Lernens.
Large-Language-Modell (LLM)
Ein Large-Language-Modell (LLM) ist eine Form von generativer künstlicher Intelligenz, die darauf spezialisiert ist, natürliche Sprache zu verstehen und zu erzeugen. Es ist ein hochanspruchsvolles künstliches neuronales Netz, welches durch maschinelles Lernen trainiert wurde und dabei große Textmengen analysiert hat. Während dieses Trainingsprozesses hat das Modell gelernt, wie Wörter und Sätze miteinander in Beziehung stehen und wie Texte strukturiert sind. So kann das trainierte Modell zu einem gegebenen Kontext passende Antworten generieren.
LLM-Kontext
Der Kontext eines Large-Language-Modells (LLM) bezeichnet die Informationen, die dem Modell zu einem definierten Zeitpunkt zur Verfügung stehen. Er umfasst den System Prompt, den gesamten Chatverlauf, Quellen wie hochgeladene Dateien oder Ausschnitte aus Wissensdatenbanken, den aktuellen Prompt des Benutzers, sowie die (Teil-)Antwort des Modells die aktuell generiert wird. Bei der Generierung einer Antwort vervollständigt das LLM diesen aktuellen Kontext. Der Kontext steuert somit maßgeblich das Antwortverhalten und die Antwortqualität des Modells. Die maximale Größe des Kontexts ist jedoch begrenzt. Dadurch ist die Menge an Informationen, die dem Modell gleichzeitig zur Verfügung stehen können, und der Umfang der Antwort, die das Modell generieren kann, ebenfalls begrenzt.
Prompt
Als Prompt bezeichnet man eine Eingabe an ein Large-Language-Modell (LLM), die eine Antwort des Modells initiiert. Das Modell analysiert den aktuellen Kontext inklusive des Prompts und generiert dann basierend auf den in seinem Training erlernten Mustern und Strukturen eine passende Antwort. Der Prompt ist entscheidend für die Qualität und Relevanz der Antwort, die das Modell liefert.
Tipps zur Formulierung von Prompts finden Sie hier.
System Prompt
Ein System Prompt ist eine spezielle Art von Prompt, die verwendet wird, um das Antwortverhalten des Large-Language-Modells (LLMs) zu steuern. Er befindet sich am Anfang des Kontexts und wird nicht über Nutzer-Prompts in der Chat-Eingabe definiert. System Prompts werden verwendet, um allgemeine Anweisungen, Hintergrundinformationen oder Regeln festzulegen, die das Modell während seiner gesamten Interaktion berücksichtigen soll.
Soll der System Prompt in Alan angepasst werden, so kann das über die Verwendung von Experten erfolgen.
Halluzinationen
Halluzinationen eines Large-Language-Modells (LLMs) beziehen sich auf Situationen, in denen das Modell Informationen generiert, die nicht richtig oder gar irreführend sind. Diese Halluzinationen entstehen, weil das Modell zwar Muster und Strukturen der Sprache gelernt hat, aber nicht immer in der Lage ist, die Richtigkeit oder die Quelle der Informationen zu überprüfen. Halluzinationen sind ein bekanntes Problem bei LLMs und zeigen die Grenzen dieser Technologie auf. Es ist wichtig, sich dieser Einschränkungen bewusst zu sein und geeignete Maßnahmen zu ergreifen, um deren Auswirkungen zu minimieren.
Tipps zur Minimierung von Halluzinationen finden Sie hier.