Anleitung Mit einem Modell in YoKI chatten
Die folgende Anleitung erklärt Ihnen Schritt für Schritt, wie Sie eines der zahlreichen Sprachmodelle in YoKI auswählen und mit diesen chatten beziehungsweise interagieren können.
Hinweise zu der Auswahl der Modelle
Die Mitarbeitenden des URZ bemühen sich stets um die Aktualisierung und Verbesserung der Modelle in YoKI. Bitte beachten Sie, dass die Modelle, die auf den Screenshots zu sehen sind, veraltet sein könnten. Im Kapitel „Vorstellung der Modelle“ finden Sie die aktuellste Auswahl der Sprachmodelle sowie eine kurze Erklärung zu den Besonderheiten dieser.
Inhalt
Vorstellung der Modelle
YoKI umfasst momentan zwei Sprachmodelle:
- GPT OSS 120B: Dieses LLM ist eines der zwei Open-Source-Modelle von OpenAI und auf allgemeine Sprach- und Textaufgaben ausgelegt. Ferner ist es für das leistungsstarke Reasoning in Bezug auf die verhältnismäßig kleine Modellgröße bekannt. (Hinweis: Standardmäßig ist dieses Modell eingestellt.)
- Qwen 3 235B: Dieses LLM ist größer und leistungsstärker als GPT OSS 120B. Das Modell setzt sich aus vielen kleineren, sog. „Expertenmodellen“ zusammen, um breitangelegte Aufgabenbereiche lösen zu können.
Ein Modell auswählen
1. Rufen Sie die YoKI-Weboberfläche auf.
2. Klicken Sie im Chatfenster links oben auf das Modell, welches momentan eingestellt ist.

3. Wählen Sie das Modell aus, mit welchem Sie interagieren wollen.
Hinweis: Sie können unter „KI-Modelle durchsuchen...“ ein bestimmtes Modell anhand des Namens filtern. Das ausgewählte Modell erkennen Sie am Häkchen rechts neben der Modellbeschreibung.

4. Verfassen Sie eine Nachricht im Nachrichtenfenster und senden Sie diese ab.

Tipps für Prompts
Was ist ein Prompt?
Ein Prompt ist eine Anweisung, die an ein großes Sprachmodell oder ein KI-System allgemein gesendet wird, um eine bestimmte Aktion zu erhalten. Es ist unser menschlicher Input (bspw. eine Text- oder Spracheingabe), den ein KI-System zu einem Output (z.B. zu einem Bild oder einem Text) verarbeitet.
Wie sehen effektive Prompts aus?
Es gibt einige Tipps, die beim sogenannten Prompt Engineering beachtet werden sollten:
1. Festlegung des Kontextes und einer Rolle
- Statt schlicht eine Frage zu stellen, ist es sinnvoll, einem KI-System zusätzlich eine Rolle und einen Situationskontext mitzuteilen.
-
Beispiel:
- ❌ Nicht sinnvoll: „Schreibe einen Blog-Artikel über Microservices.“
- ✅ Sinnvoll: „Als erfahrener Softwarearchitekt mit 15 Jahren Erfahrung im Bau von verteilten Systemen, schreibe einen technischen Blog-Artikel über Muster für die Architektur von Microservices."
2. Klar definierte Ziele und Einschränkungen
- Geben Sie Ihr gewünschtes Ergebnis sowie eventuelle Einschränkungen an. Dadurch kann das KI-System näher an Ihrem Problem oder Ihrer Fragestellung arbeiten.
-
Beispiel:
- ❌ Nicht sinnvoll: „Hilf mir bei meinem Python-Code.“
- ✅ Sinnvoll: „Überprüfe diese Python-Funktion auf Leistungsverbesserung. Konzentriere dich auf die Reduzierung des Speicherbedarfs und die Verbesserung der Laufzeitkomplexität."
3. Definition des Ausgabeformats
- Definieren Sie genau, auf welche Weise Sie die Informationen strukturiert haben möchten.
-
Beispiel:
- ❌ Nicht sinnvoll: „Erzähl mir etwas über verschiedene Datenbanktypen.“
- ✅ Sinnvoll: „Vergleiche NoSQL- und SQL-Datenbanken anhand folgender Aspekte: Einsatzszenarien, Leistungsmerkmale und Skalierbarkeit."
Allgemein gilt, dass Ihre Prompts am besten ausführlich und explizit das fordern sollten, was Sie vom KI-System erwarten.