User Guide
Willkommen im User Guide! Auf den folgenden Seiten führen wir Sie durch alle wichtigen Funktionalitäten der Benutzeroberfläche von Alan. So lernen Sie, Ihren KI-Assistenten Alan optimal zu nutzen.
Einen schnellen Überblick zu den wichtigsten Funktionalitäten von Alan erhalten Sie durch unsere Erklärungsvideos. Diese finden Sie unter Video-Anleitungen.
Für eine umfassende Einführung können Sie den User Guide chronologisch durcharbeiten. Wenn Sie Fragen zu bestimmten Themen haben, können Sie alternativ direkt zu den relevanten Seiten navigieren:
- Im Abschnitt Chats erfahren Sie alles zu den grundlegenden Chat-Funktionalitäten von Alan.
- Der Bereich Wissensdatenbanken erklärt, wie Sie spezifisches Wissen in Alan einbinden.
- Unter Experten finden Sie alle Informationen dazu, wie Sie mithilfe von Experten maßgeschneiderte KI-Assistenten für spezifische Anwendungsfälle nutzen und erstellen.
- Im Abschnitt Freigaben lernen Sie, wie Sie Wissensdatenbanken und Experten für Ihre Kolleginnen und Kollegen zugänglich machen können.
- Im Bereich Fortgeschrittene Bedienung haben wir alle Informationen zu Tastatur-Shortcuts und der Alan-Aktionsleiste zusammengefasst, mit deren Hilfe Sie Alan noch effizienter bedienen können.
Wichtiger Hinweis: Umgang mit Halluzinationen
Mit Alan erleichtern wir Ihnen den Zugang zu leistungsstarken Sprachmodellen (Large Language Models - LLMs) wie den Comma LLMs, die Ihre täglichen Aufgaben effizienter und effektiver gestalten können. Diese Modelle sind fortschrittliche KI-Technologien, die menschliche Sprache verstehen, generieren und darauf reagieren können. Durch das Training mit umfangreichen Textdaten lernen diese Modelle, Muster und Nuancen der Sprache zu erkennen, was sie zu einem flexiblen Werkzeug für eine Vielzahl von Anfragen macht.
Bevor Sie beginnen, ist es wichtig zu verstehen, dass LLMs, so fortschrittlich sie auch sein mögen, gelegentlich Informationen generieren können, die nicht exakt oder sogar irreführend sind – ein Phänomen, das oft als Halluzination bezeichnet wird. Obwohl wir durch die Implementierung von verschiedenen Mechanismen die Genauigkeit verbessern und die Wahrscheinlichkeit von Halluzinationen deutlich verringern, bleibt eine Restunsicherheit bestehen. Wir arbeiten kontinuierlich daran, die Genauigkeit unserer Modelle zu verbessern und bewegen uns damit am State of the Art, doch lassen sich Halluzination in Generativer KI nach aktuellem Stand der globalen Forschung noch nicht vollständig ausschließen. Es ist daher ratsam, die Antworten von Alan kritisch zu betrachten und, wenn möglich, zu verifizieren - besonders bei entscheidungskritischen Aufgaben.
Wie können Halluzinationen minimiert werden?
Um Halluzinationen zu minimieren können Sie beispielsweise folgende Maßnahmen ergreifen:
- Präzise Prompts: Je klarer und spezifischer Ihre Eingabe ist, desto wahrscheinlicher ist es, dass das Modell eine genaue Antwort liefert.
- Spezifische Informationen: Beim Chatten mit Dateien oder Wissensdatenbanken stehen dem LLM spezifische Informationen zur Verfügung, wodurch sich die Genauigkeit der generierten Antworten deutlich erhöht.
- Validierung und Überprüfung: Menschen sollten die von LLMs generierten Informationen überprüfen, insbesondere bei entscheidungskritischen Inhalten.