Anleitung & Dokumentation Nutzung des KI-Dienstes YoKI

Diese Dokumentation gibt Ihnen einen Überblick über die Funktionen der uniinternen Open-Source KI-Plattform YoKI. Der Dienst umfasst verschiedene große Sprachmodelle und eine eigene Benutzungsoberfläche.

Allgemeine Hinweise zur Nutzung

  • Bitte beachten Sie die Nutzungsbedingungen und die Datenschutzerklärung (siehe Links).
  • Die Nutzung von YoKI ist momentan ohne Anmeldung aus dem universitären Netz oder via VPN möglich. Mehr Informationen zur VPN-Einrichtung finden Sie in der Linkleiste.
  • Die Sprache der Weboberfläche von YoKI kann nicht eingestellt werden. Es ist unabhängig davon aber möglich, mit dem Chatbot auf mehreren Sprachen zu interagieren.
  • Aus datenschutzrechtlichen Gründen werden Chats und Systemprompts momentan nicht permanent gespeichert. Die Websearch-Funktion ist noch nicht verfügbar.
  • Bei Fragen zur Plattform YoKI, zur VPN-Einrichtung oder zur Datenschutzerklärung und den Nutzungsbedingungen, wenden Sie sich bitte an den IT-Service.
     

Hier geht es zur Plattform YoKi!

Inhaltsverzeichnis

Umfang von YoKI

Die Plattform umfasst Stand Juli 2025 vier verschiedene, große Sprachmodelle (sog. "Large Language Models), die unterschiedliche Aufgabenbereiche abdecken. So kann die anwendungsspezifische Arbeit mit YoKI gewährleistet werden. Die Modelle sind auf Studierende, Forschende und Beschäftigte ausgelegt und werden unten detaillierter vorgestellt.

Davon zu trennen ist der Chatbot bzw. die Plattform selbst. Sie chatten mit dem Chatbot YoKI, welcher unterschiedliche Sprachmodelle für Sie bereitstellt.

Sie können sowohl die einzelnen Modelle als auch das Verhalten des Chatbots selbst konfigurieren. Mehr Informationen finden Sie in den unteren Kapiteln.

Verfügbare Modelle in YoKI

Momentan verfügbare Modelle: Llama, DeepSeek, CohereForAI, Qwen

LLaMA 3.1 (70B): Metas Modell ist auf Argumentations-, Anweisungs- und Übersetzungsaufgaben ausgerichtet. Das Modell eignet sich besonders für den alltäglichen Gebrauch und für allgemeine Aufgabenstellung. (Hinweis: Standardmäßig ist dieses Modell eingestellt.)

DeepSeek-R1 Distill: Dieses LLM ist auf alltägliche Aufgaben ausgelegt und besonders nützlich in Umgebungen, in denen die GPU speicherbegrenzt ist.

Aya-23-8B: Das Modell eignet sich im besonderen Maße für multilinguale Aufgaben. Es wurde auf 23 Sprachen trainiert, darunter Arabisch, Indonesisch, Japanisch, Rumänisch, Russisch, Deutsch und Englisch.

Qwen2.5-Coder-14B: Qwen ist auf Generierung, Verbessern und Erweitern von Code ausgerichtet. Es ist in der Lage, Code in Python, C++ und anderen Sprachen zu schreiben, zu debuggen und zu kommentieren.

Ein Modell über die Modellauswahl auswählen

Von der Weboberfläche aus können Sie ein Modell über die Modellauswahl links auszuwählen. In dieser Ansicht können die Modelle nicht konfiguriert werden und es können keine weiteren Informationen über das Modell anzeigt werden lassen. Mehr zur Konfiguration der Modelle erfahren Sie im Kapitel „Ein Modell in den Modelleinstellungen konfigurieren“ . 

Sie können ein Modell alternativ über die Modelleinstellungen auswählen. Dies wird im Kapitel „Ein Modell über die Modelleinstellungen auswählen“ dokumentiert.

Hinweis: Standardmäßig ist das Sprachmodell „LLaMA 3.1 (70B)“ eingestellt.

1. Rufen Sie in der Weboberfläche die Modellauswahl links über die Schaltfläche „Models“ aus.

Rufen Sie links „Models“ auf.

2. Wählen Sie in der Mitte des Bildschirms das Modell aus, welches sie verwenden möchten.

In der Modellauswahl können Sie Ihr Modell auswählen.

Die Application Settings und Modelleinstellungen aufrufen

Die YoKI-Einstellungen lassen sind in die Modelleinstellungen und Application Settings eingeteilt.

  • In den Modelleinstellungen kann ein Sprachmodell (beispielsweise LLaMA oder DeepSeek) ausgewählt und ggf. konfiguriert werden.
  • In den Application Settings können Einstellungen bzgl. des Verhaltens des Chatbots YoKI vorgenommen werden.

YoKi-Einstellungen aufrufen

Es gibt drei Wege, die YoKI-Einstellungen zu öffnen.

Die ersten beiden Optionen leiten Sie direkt zu den Modelleinstellungen weiter, die dritte Option zu den Application Settings.

Option 1 (Weiterleitung auf Modelleinstellungen)

Klicken Sie auf der Startseite auf das Zahnrad rechts neben dem momentan ausgewählten Modell. Dort können Sie zusätzlich einsehen, welches Modell gerade ausgewählt ist. 

Hinweis: Diese Option können Sie nur verwenden, wenn Sie sich auf der Startseite der Plattform befinden. Zur Startseite gelangen Sie, indem Sie links oben auf das YoKI-Logo klicken.
 

Im Startbildschirm auf das Zahnrad klicken.

Option 2 (Weiterleitung auf Modelleinstellungen)

Klicken Sie in der Weboberfläche unter der Chatleiste auf den Modellnamen. Der angezeigte Modellname entspricht dem momentan ausgewählten Modell.
 

Klicken Sie auf den Modellnamen unter der Chatleiste.

Option 3 (Weiterleitung auf Application Settings)

Klicken Sie in der Weboberfläche links in der Chatliste auf die Schaltfläche „Settings".

Wählen Sie links „Settings“ aus.

Hinweis: Bei der dritten Option öffnen sich die Modelleinstellungen nicht direkt, da Sie die Einstellungen nicht über ein Modell aufrufen. Stattdessen sehen Sie die Application Settings, welche einen Teil der gesamten YoKI-Einstellungsoptionen ausmachen. Da die Modelleinstellungen und Application Settings beide in den allgemeinen YoKI-Einstellungen zu finden sind, können Sie von beiden Einstellungsbereichen aus jeweils in den anderen wechseln, da alles im „Settings“-Fenster aufzufinden ist.

Ein Modell über die Modelleinstellungen auswählen

Alternativ zur direkten Modellauswahl ist es möglich, ein Modell über die Modelleinstellungen auszuwählen.

Hinweis: Standardmäßig ist das Sprachmodell „LLaMA 3.1 (70B)“ eingestellt.
 

1. In den Modelleinstellungen können Sie links das Modell auswählen, welches Sie verwenden möchten.

2. Drücken Sie anschließend auf die Schaltfläche „New Chat“. Ihre Chats mit YoKI werden nun bis zur nächsten Änderung mit dem ausgewählten Modell geführt.

 

Wählen Sie links das Modell aus und drücken Sie dann auf "New Chat".

Ein Modell in den Modelleinstellungen konfigurieren

In den Modelleinstellungen haben Sie die Möglichkeit, die Sprachmodelle einzeln anzupassen:

  • Sie können einen Systemprompt für jedes Modell einstellen.
  • Sie können einen Direktlink für ein Modell in YoKI generieren lassen.
  • Sie können sich mehr Informationen über das Modell anzeigen lassen.

Einen Systemprompt erstellen

In den Modelleinstellungen können Sie einen Systemprompt einstellen. Mit einem Systemprompt ist es möglich, das Verhalten eines Sprachmodells zu konfigurieren. Ein Systemprompt ist der erste Befehl, der von Modellen verarbeitet wird. Dabei kann der selbst geschriebene Systemprompt fast ohne Einschränkungen gewählt werden. Sie können für jedes einzelne Sprachmodell einen eigenen Systemprompt konfigurieren.

Im Chat wird oben angezeigt, falls ein selbst festgelegter Systemprompt verwendet wird. Das Beispiel unten verdeutlicht einen möglichen Use-Case. Im Systemprompt-Beispiel ist hinterlegt, dass jeder Output von YoKI (basierend auf dem Sprachmodell LLaMA) mit „Ich bin ein Sprachmodell.“ beginnen soll.

Hinweis: Aus datenschutzrechtlichen Gründen werden Systemprompts nicht permanent gespeichert.

Ein Beispiel für ein Systemprompt

Einen Direktlink für ein Modell erstellen

In den Modelleinstellungen können Sie einen Direktlink für ein Modell in YoKI erstellen. Dies kann sinnvoll sein, wenn Sie sich YoKI im Web mit einem bestimmten Modell als Lesezeichen abspeichern wollen oder wenn Sie einer anderen Person den Link zum YoKI-Chatbot mit einem bestimmten, von Ihnen ausgewählten Modell senden möchten.

Sie können sich einen Direktlink für YoKI kopieren.

 

Mehr Informationen über ein Modell anzeigen lassen

In den Modelleinstellungen können Sie sich mehr Informationen über ein Modell anzeigen lassen. Sie können die offizielle Homepage sowie die Huggingface-Ressourcen-Seite des Modells und der Entwickelnden aufrufen.

Sie können die Weiterleitungen auf die Modellseiten in den Modelleinstellungen aufrufen.

Das Verhalten von YoKI in den Application Settings konfigurieren

Neben der Konfiguration der einzelnen Sprachmodelle ist es möglich, das Verhalten des Chatbots YoKI selbst zu steuern. Dies geschieht in den Application Settings.

Generierung des Outputs konfigurieren

Sie haben die Möglichkeit, das Generierungsverhalten der Plattform einzustellen. YoKI ist in der Lage, den Output der Modelle sukzessiv oder auf einmal anzeigen zu lassen. Diese Option können Sie in den Application Settings unter dem Menüpunkt „Disable streaming tokens“ aktivieren bzw. deaktivieren. Wenn die Option aktiviert ist, wird der Text generiert und nach der Generierung vollständig und auf einen Schlag angezeigt. Wenn die Option deaktiviert ist, wird der Text generiert und parallel zur Generierung „live“ ausgegeben.

Emojis in Chattiteln ausblenden

YoKI erstellt automatisiert für jede begonnenen Chatsession einen Titel mit einem Emoji am Anfang des Titels. Sie können diese Titel-Emojis in den Application Settings unter dem Menüpunkt „Hide emoticons in conversation topics“ ausblenden. Sie können die Chats außerdem einzeln manuell umbenennen.

Hier können Sie das Verhalten von YoKI anpassen.

Benutzungsoberfläche anpassen

Heller / Dunkler Modus

Sie können das Farbschema von YoKI anpassen, indem Sie links in der Weboberfläche in der Chatliste auf die Schaltfläche „Theme“ klicken. Momentan verfügbar sind der helle und dunkle Modus.

Vorschau der auswählbaren Farbschemata

Chats löschen

Sie können entweder Chats einzeln oder alle Chats auf einmal löschen.

Hinweis: Aus datenschutzrechtlichen Gründen werden Chats nicht permanent gespeichert.

Chats einzeln löschen

1. Klicken Sie in der Chatliste in der Weboberfläche von YoKI links auf das Papierkorb-Symbol eines Chats.

Drücken Sie auf das Papierkorb-Symbol.

2. Bestätigen Sie den Löschvorgang.

Bestätigen Sie den Löschvorgang.

Alle Chats löschen

1. Rufen Sie die Application Settings in der Weboberfläche links in der Chatliste über die Schaltfläche „Settings“ aus.

2. Klicken Sie auf „Delete all conversations“.

Drücken Sie auf „Delete all conversations“.

3. Bestätigen Sie den Löschvorgang.

Bestätigen Sie den Löschvorgang.

Tipps für Prompts

Was ist ein Prompt?

Ein Prompt ist eine Anweisung, die an ein KI-System gesendet wird, um eine bestimmte Aktion zu erhalten. Es ist unser menschlicher Input, den ein KI-System zu einem Output (z. B. zu  einem Bild oder einem Text) verarbeitet.

Wie sehen effektive Prompts aus?

Es gibt einige Tipps, die beim Prompt Engineering beachtet werden sollten:

1. Festlegung des Kontextes und einer Rolle

  • Statt einfach eine Frage zu stellen, ist es sinnvoll, einem KI-System eine Rolle und einen Situationskontext mitzuteilen.
  • Beispiel:
    • Nicht sinnvoll: „Schreibe einen Blogbeitrag über Microservices.“
    • ✅ Sinnvoll: „Als erfahrener Softwarearchitekt mit 15 Jahren Erfahrung im Bau von verteilten Systemen, schreibe einen technischen Blogbeitrag über Muster für die Architektur von Microservices."

 

2. Klar definierte Ziele und Einschränkungen

  • Geben Sie Ihr gewünschtes Ergebnis sowie eventuelle Einschränkungen an. Dadurch kann das KI-System näher an Ihrem Problem oder Ihrer Fragestellung arbeiten.
  • Beispiel:
    • Nicht sinnvoll: „Hilf mir bei meinem Python-Code.“
    • ✅ Sinnvoll: „Überprüfe diese Python-Funktion auf Leistungsverbesserung. Konzentriere dich auf die Reduzierung des Speicherbedarfs und die Verbesserung der Laufzeitkomplexität."

 

3. Definition des Ausgabeformats

  • Definieren Sie genau, auf welche Weise Sie die Informationen strukturiert haben möchten-
  • Beispiel:
    • Nicht sinnvoll: „Erzähl mir etwas über verschiedene Datenbanktypen.“
    • ✅ Sinnvoll: „Vergleiche NoSQL- und SQL-Datenbanken mit diesem Format: Einsatzszenarien, Leistungsmerkmale und Skalierbarkeitsüberlegungen."

       

Allgemein gilt, dass Ihre Prompts  am besten ausführlich und explizit das fordern sollten, was Sie vom KI-System erwarten.