14. Juli 2025 - Künstliche Intelligenz KI-Plattform der Universität: Open-Source-Lösung YoKI im Regelbetrieb
Nach erfolgreicher Testphase ist YoKI als URZ-Service in den Regelbetrieb gestartet. Mit YoKI steht Studierenden, Forschenden und Beschäftigten ab sofort dauerhaft eine universitätsinterne KI-Plattform mit derzeit vier großen Sprachmodellen zur Verfügung. Alle über YoKI verfügbaren Open-Source-Modelle werden ausschließlich auf den Servern der Universität betrieben.
Die YoKI-Sprachmodelle können bei Aufgaben im Studien, Forschungs- und Arbeitsalltag unterstützen – ohne Kompromisse bei Datenhoheit und Datenschutz.

Die Plattform ist über einen Browser aus dem universitären Netz oder via VPN für Studierende, Forschende und Beschäftigte erreichbar, eine Anmeldung ist nicht notwendig. YoKI umfasst momentan vier verschiedene große Sprachmodelle (Large Language Models, sog. LLMs), die unterschiedliche Anwendungsbereiche abdecken. Mit den verfügbaren LLMs können z.B.
- große Mengen an Textdaten schnell verarbeitet, strukturiert oder zusammengefasst,
- neue Texte, Gliederungen oder Überschriften generiert,
- Texte in einer Vielzahl von Sprachen erstellt, überarbeitet oder übersetzt,
- Code in zahlreichen Programmiersprachen wie Python, C++ etc. generiert, verbessern und erweitert werden.
Detaillierte Informationen zu den YoKI-Features sowie den aktuellen Modellen und Einstellungsmöglichkeiten erhalten Sie in der verlinkten YoKI-Dokumentation.
Die Open-Source-Modelle mit unterschiedlichen Schwerpunkten im Überblick:
Derzeit stehen vier große Sprachmodelle zur Auswahl. Je nach Anwendungsbereich kann das für die Aufgabe am besten geeignete Modell verwendet werden:
- Llama von Meta: Standardmäßig eingestelltes, leistungsstarkes System zur allgemeinen Textgenerierung und -verarbeitung
- DeepSeek: alternatives, sehr leistungsstarkes Sprachmodell für allgemeine Aufgaben
- Aya von Cohere: Multiliguistisches Sprachmodell für die Kommunikation in über 100 Sprachen
- Qwen: LLM mit zahlreichen Programmiersprachen und dem Schwerpunkt Coding
KI-Infrastruktur made @University: Mit Teamarbeit zum Erfolg
Die Entstehung von YoKI war von Anfang an ein interdisziplinäres Gemeinschaftsprojekt unter der Leitung von Prof. Dr. Vincent Heuveline. An der Konzipierung, Umsetzung und Weiterentwicklung der universitären Plattform sind Teammitglieder des Engineering Mathematics and Computing Lab (EMCL) sowie dem Universitätsrechenzentrum beteiligt. Der neue Service entstand auf vielfachen Wunsch von Nutzer:innen.
Neugierig auf die Entstehung von YoKI geworden? Marcus Buchwald, der als Doktorand maßgeblich am Projekt YoKI beteiligt war, gibt im Gespräch Einblicke in die Entstehungsgeschichte sowie Hintergrundinformationen zu KI und LLMs im Allgemeinen.
Hier geht's zum Newsbeitrag mit Hintergundinfos: Interdisziplinär zur Open-Source-KI: YoKI im Fokus
Künstliche Intelligenz (KI) hat sich in der Wissenschaft fest etabliert und ist nicht mehr wegzudenken. Um den Umgang mit KI an unserer Universität optimal zu gestalten, sehen wir es als beste Lösung, eigene Plattformen zu betreiben. YoKI bietet diese Möglichkeit unter besonderer Berücksichtigung der Datensouveränität an. YoKI ist jedoch mehr als nur eine Plattform - es ist ein kontinuierlicher Prozess, in dem wir Schritt für Schritt die Entwicklungen im Bereich KI berücksichtigen und weiterentwickeln.
Prof. Dr. Vincent Heuveline, Direktor des URZ und CIO der Universität Heidelberg
YoKI setzt auf Datensicherheit, Open-Source und lokale Verarbeitung
Bei der Weiterentwicklung und dem Betrieb der Plattform hat neben der Leistungsfähigkeit der LLMs die Wahrung der Datensouveränität höchste Priorität. Die auf YoKI verfügbaren Open-Source-Modelle bieten Transparenz und Anpassbarkeit für den universitären Einsatz. Sie ermöglichen eine bedarfsgerechte Nutzung in Studium, Lehre, Forschung und Verwaltung. Frei von kommerziellen Abhängigkeiten werden sie datenschutzkonform auf Universitätsservern betrieben. So bleiben Kontrolle und Verantwortung über Daten und Technologie vollständig in universitärer Hand. Weitere Vorteile im Überblick:
- Transparenz und Vertrauen: Forschende können die Modellarchitekturen und Trainingsdaten von Open-Source-LLMs überprüfen, um Reproduzierbarkeit und das Einhalten ethischer Maßstäbe sicherzustellen.
-
Keinerlei Inhalte der YoKI-Plattform verlassen den Campus:
- Die Eingaben (Prompts) werden nach Schließen des Chats nicht gespeichert und nicht für Trainings und Weiterentwicklungen der Modelle genutzt.
- Informationen bleiben vertraulich, da kein Zugriff Dritter auf aktuelle Chats erfolgt.
- Die Dienste können ausschließlich im universitären Netz oder via VPN genutzt werden.
- unterschiedliche Schwerpunkte der Modelle für anwendungsspezifische Nutzung.
Weiterentwicklung und Ausbau universitärer KI: Neue Features & Tools in Planung
Der Service YoKI wird kontinuierlich weiterentwickelt, mit dem Ziel, eine sinnvolle Auswahl an leistungsfähigen, großen Sprachmodellen zur Verfügung zu stellen. Bestehende Modelle werden soweit möglich aktualisiert und angepasst oder durch bessere verfügbare Modelle ersetzt werden. Perspektivisch soll YoKI mit zusätzlichen Open-Source-Assistenten und weiteren Funktionen wie z.B. Websuche (derzeit nicht funktionsfähig) oder Speicherung der Chats erweitert werden. Eine benutzerfreundliche und deutlich verbesserte Bedienoberfläche ist ebenfalls in Planung. YoKI wird perspektivisch zudem Schritt für Schritt um Zusatzfunktionen wie Bild-Verarbeitung, Bild-Generierung und multimodale Tools z.B. zum Hochladen und Downloaden von Dokumenten erweitert. Angepasste Chatbots wie für den IT-Service befinden sich bereits in der Testphase. Auch für andere Anwendungszwecke in der Verwaltung, an Einrichtungen und Fakultäten sollen künftig eigene Chatbots für spezifische Fragenstellungen entwickelt und eingesetzt werden können.
Folgen Sie aktuellen Entwicklungen & bleiben Sie auf dem Laufenden! Hier geht es zu unserem Newsroom