14.01.2025
© Krot_Studio/stock.adobe.com
GPT@RUB wartet zum Jahresbeginn mit einer Neuerung auf: Ab sofort können alle Studierenden und Beschäftigten der RUB auch auf Open Source-Sprachmodelle zugreifen. Besonders interessant sind diese für spezielle Anwendungsfälle in Forschung, Studium und Lehre.
Bisher konnte man mit GPT@RUB lediglich auf kommerzielle Sprachmodelle von OpenAI zugreifen. Diese bleiben auch weiterhin kostenlos verfügbar. Hinzu kommen nun verschiedene Open Source-Sprachmodelle, die beispielsweise für besondere Programmieraufgaben oder Sprachübersetzungen genutzt werden können. Dr. Peter Salden, Leiter des Zentrums für Wissenschaftsdidaktik, sieht die digitale Souveränität als zentrales Argument für Open Source-Sprachmodelle:
„Die RUB geht mit dem Zugang zu Open Source-Sprachmodellen einen weiteren wichtigen Schritt in Richtung digitale Souveränität
und wird auf dem Weg der Bereitstellung generativer KI-Technologien unabhängiger von externen, kommerziellen Anbietern.“
Dr. Peter Salden, Leiter des ZfW.
Open Source-Sprachmodelle stellen aus verschiedenen Gründen eine attraktive Alternative zu firmeneigenen Systemen wie z.B. ChatGPT dar:
Wichtig zu wissen:
KI-Sprachmodelle sind eine experimentelle Technologie. Insbesondere Open Source-Sprachmodelle sollten zweckgebunden genutzt und als Forschungsgegenstand begriffen werden. Die Ausgaben der Modelle können Fehlinformationen enthalten und gesellschaftliche Biases reproduzieren. Es wird daher empfohlen, Informationen über ein Modell vor der Nutzung gründlich zu recherchieren.
Alle Nutzenden können in GPT@RUB künftig auswählen, welches Sprachmodell sie für ihre Aufgaben verwenden möchten. Jedes Modell hat einen unterschiedlichen Fokus. Folgende Open Source-Sprachmodelle stehen ab sofort über GPT@RUB zur Verfügung:
LLaMA 3.1 70B Instruct ist ein Modell für komplexere Aufgaben, wie z.B. die Erstellung detaillierter Berichte oder das Schreiben von Code Snippets. Höchste Genauigkeit und Vielseitigkeit.
LLaMA 3.1 Nemotron 70B Instruct ist ein Reward-Modelling Fine-Tune von LLaMA 3.1 für komplexere Aufgaben, wie z.B. die Erstellung detaillierter Berichte oder das Schreiben von Code Snippets. Höchste Genauigkeit und Vielseitigkeit.
Teuken 7B Instruct Research ist ein in der EU trainiertes Modell, welches einen Fokus auf Multilingualität für Sprachen von EU-Mitgliedsländern hat.
Mistral Large ist ein Modell mit einem Fokus auf Multilingualität, darunter insbesondere Französisch, Italienisch und Spanisch.
Codestral 22B ist ein Modell für Programmierung und kann mit Code in über 80 verschiedenen Programmiersprachen behilflich sein.
Um GPT@RUB und somit auch die Open Source-Sprachmodelle nutzen zu können, ist eine Registrierung bei GPT@RUB erforderlich. Personen, die bereits über einen Zugang zu GPT@RUB verfügen, müssen keine zusätzlichen Schritte unternehmen. Das gewünschte Sprachmodell kann in den Chat-Einstellungen einfach ausgewählt werden. Weitere Informationen zur Registrierung und Freischaltung sowie technischen Support finden Sie auf unserer Webseite zu GPT@RUB.
Auf den Webseiten des Zentrums für Wissenschaftsdidaktik finden Sie viele hilfreiche Informationen rund um das Thema generative Technologien in der Hochschulbildung. Weitere Informationen zu GPT@RUB finden Sie auf unserer Webseite.