Anleitung Mit einem Modell in YoKI chatten

Die folgende Anleitung erklärt Ihnen Schritt für Schritt, wie Sie eines der zahlreichen Sprachmodelle in YoKI auswählen und mit diesen chatten beziehungsweise interagieren können.

Hinweis: Die Mitarbeitenden des URZ bemühen sich stets um die Aktualisierung und Erweiterung der Modelle in YoKI. Auf dieser Seite können Sie eine Auflistung der momentan verfügbaren Modelle einsehen.

Inhalt

Vorstellung der Modelle

YoKI umfasst momentan vier Sprachmodelle mit unterschiedlichen Aufgabenbereichen:

  • LLaMA 3.1 (70B): Metas Modell ist auf Argumentations-, Anweisungs- und Übersetzungsaufgaben ausgerichtet. Das Modell eignet sich besonders für den alltäglichen Gebrauch und für allgemeine Aufgabenstellung. (Hinweis: Standardmäßig ist dieses Modell eingestellt.)
  • DeepSeek-R1 Distill: Dieses LLM ist auf alltägliche Aufgaben ausgelegt und besonders nützlich in Umgebungen, in denen die GPU speicherbegrenzt ist.
  • Aya-23-8B: Das Modell eignet sich im besonderen Maße für multilinguale Aufgaben. Es wurde auf 23 Sprachen trainiert, darunter Arabisch, Indonesisch, Japanisch, Rumänisch, Russisch, Deutsch und Englisch.
  • Qwen2.5-Coder-14B: Qwen ist auf Generierung, Verbessern und Erweitern von Code ausgerichtet. Es ist in der Lage, Code in Python, C++ und anderen Sprachen zu schreiben, zu debuggen und zu kommentieren.

Ein Modell auswählen

1. Rufen Sie die YoKI-Weboberfläche auf.

2. Klicken Sie im Chatfenster links oben auf das Modell, welches momentan eingestellt ist. (Hinweis: Standardmäßig ist LLaMA 3.1 (70B) eingestellt.)

Klicken Sie auf das ausgewählte Modell rechts oben im Chatfenster.

3. Wählen Sie das Modell aus, mit welchem Sie interagieren wollen.

Hinweis: Sie können unter „KI-Modelle durchsuchen...“ ein bestimmtes Modell anhand des Namens filtern. Das ausgewählte Modell erkennen Sie am Häkchen rechts neben der Modellbeschreibung.

Wähle Sie Ihr gewünschtes Modell aus. Eine Filterung anhand des Namens ist links oben möglich.

4. Verfassen Sie eine Nachricht im Nachrichtenfenster und senden Sie diese ab.

Verfassen Sie eine Nachricht und senden Sie diese ab.

Tipps für Prompts

Was ist ein Prompt?

Ein Prompt ist eine Anweisung, die an ein großes Sprachmodell oder ein KI-System allgemein gesendet wird, um eine bestimmte Aktion zu erhalten. Es ist unser menschlicher Input (bspw. eine Text- oder Spracheingabe), den ein KI-System zu einem Output (z.B. zu einem Bild oder einem Text) verarbeitet.

Wie sehen effektive Prompts aus?

Es gibt einige Tipps, die beim sogenannten Prompt Engineering beachtet werden sollten:

1. Festlegung des Kontextes und einer Rolle

  • Statt schlicht eine Frage zu stellen, ist es sinnvoll, einem KI-System zusätzlich eine Rolle und einen Situationskontext mitzuteilen.
  • Beispiel:
    • Nicht sinnvoll: „Schreibe einen Blog-Artikel über Microservices.“
    • ✅ Sinnvoll: „Als erfahrener Softwarearchitekt mit 15 Jahren Erfahrung im Bau von verteilten Systemen, schreibe einen technischen Blog-Artikel über Muster für die Architektur von Microservices."

2. Klar definierte Ziele und Einschränkungen

  • Geben Sie Ihr gewünschtes Ergebnis sowie eventuelle Einschränkungen an. Dadurch kann das KI-System näher an Ihrem Problem oder Ihrer Fragestellung arbeiten.
  • Beispiel:
    • Nicht sinnvoll: „Hilf mir bei meinem Python-Code.“
    • ✅ Sinnvoll: „Überprüfe diese Python-Funktion auf Leistungsverbesserung. Konzentriere dich auf die Reduzierung des Speicherbedarfs und die Verbesserung der Laufzeitkomplexität."

3. Definition des Ausgabeformats

  • Definieren Sie genau, auf welche Weise Sie die Informationen strukturiert haben möchten.
  • Beispiel:
    • Nicht sinnvoll: „Erzähl mir etwas über verschiedene Datenbanktypen.“
    • ✅ Sinnvoll: „Vergleiche NoSQL- und SQL-Datenbanken anhand folgender Aspekte: Einsatzszenarien, Leistungsmerkmale und Skalierbarkeit."

Allgemein gilt, dass Ihre Prompts am besten ausführlich und explizit das fordern sollten, was Sie vom KI-System erwarten.