19. September 2024 - Künstliche Intellligenz (KI)KI für alle: URZ etabliert Sprachmodell-Plattform für die Universität
Seit dem Launch von ChatGPT im November 2022 schreiten die rasanten Entwicklungen auf dem Markt der Anwendungen generativer künstlicher Intelligenz und deren Leistungssprünge weiter voran. Aufgrund dieser Dynamik gibt es inzwischen weltweit etliche große Sprachmodelle (sog. LLMs – Large Language Models), darunter leistungsstarke Open-Source-Systeme, die auch von großen Unternehmen eingesetzt werden. Für die Universität Heidelberg stellt das URZ Studierenden und Beschäftigten diese Technologie nun zur Verfügung.
Auf der Plattform „YoKI“ kann ab sofort ein solches Open-Source-Sprachmodell in einer ersten Testphase erprobt werden. Auf der KI-Plattform werden perspektivisch verschiedene Sprachmodelle angeboten, die je nach System unterschiedliche Bedarfe von Forschung, Lehre und Verwaltung berücksichtigen. So können die Nutzer:innen entscheiden, welches der Modelle sich am besten für ihren Anwendungszweck eignet und das für sie passende Modell auswählen.
Große Sprachmodelle (LLMs) und wie sie funktionieren
Ein Large Language Model (LLM) basiert auf der Methode des maschinellen Lernens und wird den generativen KI-Werkzeugen zugeordnet. Die Interaktion mit einem Chatbot erfolgt in Dialogform oder Frage-Antwort-Modus über Anfragen im Eingabefeld (sog. Prompts). Große Mengen an Textdaten können schnell verarbeitet, neue Texte z.B. generiert, übersetzt oder zusammenfasst werden. Die erstellten Texte sind dabei nicht auf Denkprozesse zurückzuführen, sondern sie sind das Ergebnis einer wahrscheinlichkeitsbasierten Zusammenstellung der Trainingsdaten, mit denen das Programm im Vorfeld gespeist (pre-trained) wurde.
Für die Nutzung bedeutet das konkret, dass solche Sprachmodelle falsche Informationen - sog. Halluzinationen liefern können und nicht für alle Anwendungsgebiete geeignet sind. Fakten sollten von den Anwender:innen stets geprüft werden. Das Verfassen von Texten ist auch im universitären Alltag nicht mehr auf menschliche Autor:innen beschränkt. Einschränkungen wie KI-Halluzinationen, toxische oder diskriminierende Sprache, Energieverbrauch und ethische Fragen sind nur einige der Risiken, die bei der Nutzung der Programme mitbedacht werden sollten.
KI-Infrastruktur auf universitären Servern: Anwendungen für den Campus
Die universitäre KI-Infrastruktur ist so aufgebaut, dass die Systeme on premise, d.h. lokal auf unseren eigenen Servern auf dem Campus betrieben werden, was folgende Vorteile mit sich bringt:
- Die Eingaben (Prompts) werden nach Schließen des Chats nicht gespeichert und nicht für Trainings und Weiterentwicklungen der Modelle genutzt.
- Personenbezogene Daten und Informationen bleiben vertraulich, da keine externen Anwendungen genutzt werden und kein Zugriff Dritter auf gerade aktuelle Chats erfolgt.
- Die Dienste können ausschließlich im universitären Netz oder via VPN genutzt werden.