Skip to content

Experten erstellen und verwalten

Ein Experte kann in Alan in the Einstellungen unter "Experten" erstellt und verwaltet werden.

Dort finden Sie eine Übersicht aller bestehenden Experten, die Sie erstellt haben oder die für Sie freigegeben wurden.

Wenn Sie einen Experten öffnen, sehen Sie die Konfiguration des Experten und können ihn kopieren, bearbeiten, teilen oder direkt einen Chat mit ihm starten.

Erstellen

Um einen neuen Experten zu erstellen, klicken Sie auf die Schaltfläche "Neu". Nun können Sie alle erforderlichen Informationen eingeben, um das Erscheinungsbild sowie das Verhalten des Experten zu konfigurieren.

Zum Schluss klicken Sie auf "Speichern", um den Experten zu erstellen.

Bearbeiten

Nachdem Sie einen Experten erstellt haben, können Sie diesen fortlaufend bearbeiten und alle Konfigurationen optimieren.

Beispielsweise können Sie den System-Prompt auf Basis Ihrer Chat-Erfahrungen verbessern oder eine neue Wissensdatenbank hinzufügen.

INFO

Alle Anpassungen an Experten wirken sich nur auf neue und nicht auf bestehende Chats aus. Um Änderungen nutzen zu können, muss daher ein neuer Chat mit dem Experten begonnen werden.

Wenn Sie den Experten erstellt haben, können Sie ihn außerdem freigeben.

Löschen

Um einen Experten in Alan zu löschen, scrollen Sie in dem Experten nach unten und klicken Sie auf "Experten löschen".

Hinweise:

  • Stellen Sie sicher, dass ein geteilter Experte in Ihrer Organisation nicht mehr benötigt wird.
  • Gelöschte Experten können nicht wiederhergestellt werden.
  • Sie können ausschließlich Experten löschen, die Sie selbst erstellt haben.

Konfiguration

Das Erstellen eines Experten erfordert das Verständnis und die Konfiguration verschiedener Einstellungen. Jede Einstellung trägt dazu bei, das Erscheinungsbild und Verhalten des Experten zu definieren.

Durch sorgfältige Auswahl und Anpassung dieser Einstellungen können Sie sicherstellen, dass Ihr Experte genau auf Ihre Bedürfnisse zugeschnitten ist und optimale Ergebnisse liefert.

Passen Sie nach Möglichkeit alle Einstellungen an, die das Erscheinungsbild Ihres Experten beeinflussen, damit dieser für Sie und andere potentielle Nutzer leicht zu verwenden ist:

Passen Sie das Verhalten des Experten ausschließlich dort an, wo dies für Ihren Anwendungsfall benötigt wird. Für alle übrigen Einstellungen werden gute Standardwerte von Alan gesetzt:

Es folgt eine detaillierte Erläuterung jeder Einstellung:

Experten-Icon

Das Icon ist das erste, was Benutzer:innen sehen und sollte daher die Funktion des Experten widerspiegeln. Wählen Sie ein Icon, das thematisch zu dem Bereich passt, in dem der Experte spezialisiert ist.

Name

Der Name sollte prägnant und beschreibend sein, sodass Benutzer:innen auf einen Blick erkennen können, für welche Aufgaben oder Themengebiete der Experte geeignet ist. Ein klarer Name erleichtert die Nutzung und stellt sicher, dass die Benutzer sofort verstehen, was sie von dem Experten erwarten können.

Beschreibung

In der Beschreibung geben Sie einen Überblick über die Fähigkeiten des Experten, seinen Anwendungsbereich und eventuelle Besonderheiten. Eine gute Beschreibung hilft Ihren Kolleg:innen, schnell zu verstehen, was der Experte leisten kann und in welchen Szenarien er am besten eingesetzt wird. Für eine optimale Darstellung orientieren Sie sich bei der Textlänge an bestehenden Experten.

Begrüßung

Der Begrüßungstext wird in allen Chats mit dem Experten als erste Nachricht angezeigt. Hier können Sie beispielsweise Tipps zur Expertennutzung geben oder Nutzer mithilfe einer Frage auffordern, den Experten-Chat auf eine bestimmte Art zu beginnen.

Der Begrüßungstext ist nur ein Darstellungselement und wird nicht Teil des Chatverlaufs. Er beeinflusst daher nicht das Verhalten des Sprachmodells.

System Prompt

Der System Prompt dient als Anweisung an das KI-Modell, um das gewünschte Verhalten zu initialisieren oder zu steuern. Dies kann die Art der Kommunikation, die Tiefe der Analysen oder eine Persona beinhalten. Ebenso können relevante Informationen im System Prompt hinterlegt werden, dabei sollte jedoch darauf geachtet werden, dass deren Umfang überschaubar bleibt.

INFO

Manchmal kann es helfen, den System Prompt auf Englisch zu schreiben. Grundsätzlich werden aber sowohl Deutsch als auch Englisch unterstützt.

Beispiele für System Prompts

  1. Kommunikationsstil: Der System Prompt kann verwendet werden, um den gewünschten Ton und Stil der Antworten festzulegen.

    • Beispiel: Antworte immer freundlich und hilfsbereit. Versuche, technische Probleme verständlich zu erklären.
    • Effekt: Das Modell wird darauf achten, in einem freundlichen Ton zu antworten und technische Informationen einfach zu erklären.
  2. Analysentiefe: Sie können festlegen, wie tiefgehend die Analysen oder Erklärungen des Modells sein sollen.

    • Beispiel: Gib detaillierte technische Erklärungen und Schritt-für-Schritt-Anleitungen, wenn nach Fehlerbehebungen gefragt wird.
    • Effekt: Das Modell wird ausführlichere und detaillierte Antworten geben, wenn es um technische Probleme und deren Lösungen geht.
  3. Rolle und Persona: Der System Prompt kann das Modell anweisen, eine bestimmte Rolle oder Persona anzunehmen.

    • Beispiel: Du bist ein IT-Support-Experte, der auf Netzwerkprobleme spezialisiert ist. Antworte mit spezifischen und technischen Lösungen.
    • Effekt: Das Modell wird Antworten geben, die die Expertise eines IT-Support-Spezialisten widerspiegeln.
  4. Spezifische Formatierung: Der System Prompt kann verwendet werden, um das Modell zu bestimmten Antwortformaten zu leiten.

    • Beispiel: Wenn du eine Frage zu einer Softwareinstallation beantwortest, liste die Schritte nummeriert auf.
    • Effekt: Das Modell wird Antworten in einem klar strukturierten, nummerierten Format liefern.
  5. Technische Formate: Der System Prompt kann verwendet werden, um Antworten in einem bestimmten technischen Format zu erzeugen, z.B. als JSON oder YAML.

    • Beispiel: Gib die Antwort im folgenden JSON-Format zurück: {"Name": "<Extrahierter Name>", "Datum": "<Extrahiertes Datum>", "Adresse": "<Extrahierte Adresse>"}. Stelle sicher, dass alle Antworten korrekt formatiert sind.
    • Effekt: Das Modell wird die Antworten im definierten JSON-Format strukturieren.

Initiale Konversation

Die initiale Konversation kalibriert das Modell für spezifische Anwendungsfälle, indem es ihm einen Kontext und Beispiele für erwartete Antworten gibt. Dies hilft dem Modell, spezifische Szenarien besser zu verstehen und darauf zu reagieren.

Beispiele

  1. Kontextbereitstellung: Die initiale Konversation gibt dem Modell den notwendigen Kontext, um Anfragen korrekt einzuordnen und passend zu antworten.

    • Beispiel: Beginnen Sie mit einer Begrüßung und einer kurzen Einführung, um dem Modell den Kontext Ihrer Interaktion zu geben.
    • Frage: "Hallo, ich habe ein Problem mit meiner Netzwerkkonfiguration. Kannst du mir helfen?"
    • Antwort: "Natürlich, ich kann dir bei der Netzwerkkonfiguration helfen. Was genau funktioniert nicht?"
  2. Beispielhafte Dialoge: Durch das Bereitstellen von Beispielkonversationen können Sie das Modell auf bestimmte Antwortmuster trainieren.

    • Beispiel:
      • Frage: "Wie installiere ich die neue Softwareversion?"
      • Antwort: "Um die neue Softwareversion zu installieren, folgen Sie diesen Schritten: 1. Laden Sie die Installationsdatei herunter. 2. Öffnen Sie die Datei und folgen Sie den Anweisungen auf dem Bildschirm."
  3. Antwortformatierung: Sie können das Modell anweisen, Antworten in einem bestimmten Format zu geben, um die Konsistenz zu gewährleisten.

    • Beispiel:
      • Frage: "Kannst du mir die nächsten Schritte im JSON-Format geben?"
      • Antwort: "{ 'Schritt 1': 'Laden Sie die Installationsdatei herunter.', 'Schritt 2': 'Öffnen Sie die Datei.', 'Schritt 3': 'Folgen Sie den Anweisungen auf dem Bildschirm.' }"
  4. Informationsextraktion: Die initiale Konversation kann Anweisungen zur Extraktion bestimmter Informationen enthalten, um strukturierte Antworten zu liefern.

    • Beispiel:
      • Frage: "Extrahiere die Informationen im JSON-Format aus folgendem Text: 'Alan Turing hat am 23. Mai 2024 eine Bestellung aufgegeben. Die Lieferung soll an Pützchens Chaussee 202-204a in 53229 Bonn erfolgen.'"
      • Antwort: "{ 'Name': 'Alan Turing', 'Datum': '23. Mai 2024', 'Adresse': 'Pützchens Chaussee 202-204a, 53229 Bonn' }"

Durch diese Beispiele und detaillierten Erklärungen zur initialen Konversation können Sie sicherstellen, dass das Modell genau versteht, welche Art von Antworten und Interaktionen erwartet werden, und so die bestmöglichen Ergebnisse liefert.

Prompt-Vorschläge

Dies ist eine optionale Einstellung, um typische Anfragen für den Experten bereitzustellen. Diese Vorschläge können insbesondere für Nutzer:innen ohne viel Vorerfahrung im Umgang mit LLMs nützlich sein und helfen, häufig gestellte Fragen schneller zu beantworten.

Wissensdatenbanken

Sie können bestimmen, auf welche Datenquellen der Experte zugreifen soll. Das beeinflusst die Qualität und Relevanz der Antworten des Experten direkt. Die vorausgewählten Wissensdatenbanken können von Nutzer:innen während des Chats verändert werden.

INFO

Wenn Sie einen Experten mit konfigurierten Wissensdatenbanken freigeben, stellen Sie sicher, dass alle Kolleg:innen, denen Sie Zugriff auf den Experten gewähren, auch Zugriff auf die vorausgewählten Wissensdatenbanken haben.

Modell

Wählen Sie das zugrundeliegende Sprachmodell und passen Sie dessen Parameter an, um die Performance des Experten zu optimieren. Unterschiedliche Modelle und Parameter können die Genauigkeit und Reaktionsgeschwindigkeit des Experten beeinflussen. Verwenden Sie das Comma LLM L für anspruchsvollere Aufgaben und das Comma LLM S für schnelle Antworten, zum Beispiel in Kombination mit Wissensdatenbanken.

Modellparameter

Neben dem Modell selbst lassen sich auch einzelne Modellparameter anpassen. Diese Parameter setzen ein grundlegendes Verständnis von der Funktionsweise von Large Language Models voraus und müssen in den meisten Fällen nicht verändert werden.

Temperatur

Dieser Parameter bestimmt, wie deterministisch das Modell ist. Eine niedrige Temperatur (z.B. 0.2) führt zu deterministischeren Ergebnissen, da immer das wahrscheinlichste nächste Token gewählt wird. Eine höhere Temperatur (z.B. 0.8) erhöht die Zufälligkeit und kann zu vielfältigeren oder kreativeren Ausgaben führen. Für Aufgaben wie faktenbasierte Fragen und Antworten (Q&A) sollten Sie einen niedrigeren Temperaturwert (zwischen 0.1 und 0.3) verwenden, um präzisere und knappere Antworten zu fördern. Für kreative Aufgaben wie Brainstorming kann ein höherer Temperaturwert (zwischen 0.7 und 1.0) vorteilhaft sein.

Top P

Dieser Parameter steuert ebenfalls, wie deterministisch das Modell ist. Ein niedriger Top-P-Wert (z.B. 0.2) führt zu selbstsicheren Antworten, da nur die Token berücksichtigt werden, die die höchste Wahrscheinlichkeitsmasse bilden. Ein hoher Top-P-Wert (z.B. 0.9) ermöglicht dem Modell, mehr mögliche Wörter zu betrachten, einschließlich unwahrscheinlicherer Optionen, was zu vielfältigeren Ausgaben führt. Für exakte und faktische Antworten sollten Sie den Top-P-Wert niedrig halten, während Sie für vielfältigere Antworten einen höheren Wert einstellen können.

INFO

Ändern Sie entweder die Temperatur oder Top P, aber nicht beide Parameter gleichzeitig.