Anpassung der API-Endpunkte
Für alle, die die API für Coscine nutzen: Einige Endpunkte wurden überarbeitet und sind nun klarer strukturiert, funktional erweitert und insgesamt einfacher zu handhaben. Konkret bedeutet das, dass Interaktionen mit Metadaten und Graphen einer Ressource künftig über Graph, GraphMetadata und GraphMetadataContent erfolgen. Zugriffe auf Objekte und Dateien finden Sie ab sofort unter Storage und StorageContent. Wenn Sie entsprechende Funktionen in Ihren Skripten verwenden, müssen diese zeitnah angepasst werden. Die bisherigen Endpunkte sind in der Swagger-Dokumentation bereits als veraltet markiert und werden voraussichtlich im August abgeschaltet. Vorab informieren wir Sie dazu noch einmal über den Newsletter sowie über entsprechende Hinweise auf der Plattform.
Information für Begutachtende von Coscine-Speicherplatzanträgen
Eine wichtige Information für Begutachtende von Speicherplatzanträgen: Die Option „Restrictedly suitable“ ist als finales Ergebnis eines Reviews nicht mehr auswählbar. Seit dem 16. März 2026 müssen sich Begutachtende nun für „suitable“ oder „not suitable“ entscheiden. Das FDM-Personal und der 1st-Level Support wurden über diese Änderung bereits in der monatlichen Sprechstunde informiert. Falls Sie sich zum FDM-Personal zählen, aber bisher keine Einladung zur monatlichen Sprechstunde haben, melden Sie sich gerne bei uns via E-Mail. Schauen Sie sich darüber hinaus auch gerne die Support-Angebote an.
Unterstützung für neue Modelle (GPT-5.3-Chat, Mistral-Small-4) (v1.15.0)
Funktionen:
- Unterstützung für neue Modelle hinzugefügt
- gpt-5.3-chat, Mistral-Small-4-119B-2603
Fehlerbehebungen und Verbesserungen:
- Bei internen Deployment-Namen sind keine Leer- oder Sonderzeichen mehr erlaubt
- Performance beim API-Zugriff verbessert
- Bei der Bildgenerierung wird das Eingabebild nur noch angezeigt, wenn es manuell ausgewählt wurde
- Kleinere Verbesserungen bei geteilten Chats, insbesondere bei der Modellauswahl und bei Chats mit Bildern
- Verhalten beim manuellen Abbruch einer Completion verbessert
- Fehler bei der Titelgenerierung behoben, wenn diese länger dauert als der eigentliche Prompt
- Problem mit Datenbankindizes behoben, das den Start der App verhinderte
Unterstützung für neue Modelle (GPT-5.3-Chat, Mistral-Small-4) (v1.15.0)
Funktionen:
- Unterstützung für neue Modelle hinzugefügt
- gpt-5.3-chat, Mistral-Small-4-119B-2603
Fehlerbehebungen und Verbesserungen:
- Bei internen Deployment-Namen sind keine Leer- oder Sonderzeichen mehr erlaubt
- Performance beim API-Zugriff verbessert
- Bei der Bildgenerierung wird das Eingabebild nur noch angezeigt, wenn es manuell ausgewählt wurde
- Kleinere Verbesserungen bei geteilten Chats, insbesondere bei der Modellauswahl und bei Chats mit Bildern
- Verhalten beim manuellen Abbruch einer Completion verbessert
- Fehler bei der Titelgenerierung behoben, wenn diese länger dauert als der eigentliche Prompt
- Problem mit Datenbankindizes behoben, das den Start der App verhinderte
Neues Standardmodell und Abkündigung von gpt-40 und gpt-40-mini Modellen (v1.14.0)
Hinweis:
- Die Modelle gpt-4o und gpt-4o-mini werden am 31. März 2026 eingestellt und aus der Modellliste entfernt. Sie stehen ab diesem Zeitpunkt auch bei der Nutzung mit API-Key nicht mehr zur Verfügung. Bestehende Chats müssen auf ein anderes Modell umgestellt werden, um weiterhin genutzt werden zu können.
Funktionen:
- gpt OSS 120b ist nun als Standardmodell ausgewählt
Fehlerbehebungen und Verbesserungen:
- Titelgenerierung wird nicht mehr auf die maximale Anzahl paralleler Requests pro Benutzer angerechnet
- Unterstützung für den Parameter
encoding_formatim Embedding-Endpunkt hinzugefügt - Zugriff auf eigene Chats in Nutzendengruppen, auf die kein Zugriff mehr besteht, eingeschränkt
Unterstützung für neue Modelle (Gemini, Gemma,) (v1.14.0)
Funktionen:
- Unterstützung für neue Modelle hinzugefügt
- Mistral-Large-3-675B-Instruct-2512, gemini-3-flash-preview, gemini-2.5-pro, gemini-2.5-flash, gemini-2.5-flash-lite, gemma-3-27b-it, gemma-3n-e4b-it
Fehlerbehebungen und Verbesserungen:
- Titelgenerierung wird nicht mehr auf die maximale Anzahl paralleler Requests pro Benutzer angerechnet
- Unterstützung für den Parameter
encoding_formatim Embedding-Endpunkt hinzugefügt - Verhalten der Parameterauswahl bei der Bildgenerierung verbessert
- Zugriff auf eigene Chats in Nutzendengruppen, auf die kein Zugriff mehr besteht, eingeschränkt
Release Notes Version 2.49
Verbesserungen und Fehlerbehebungen:
- Tastaturverhalten in Suchen wurde verbessert
- Mensa: Design für „geschlossene“ Gerichte wurde angepasst
Einführung von Nutzungsbedingungen
Um die Nutzung von RWTHmoodle künftig noch transparenter zu gestalten, führen das IT Center und das CLS mit der Wartung vom Donnerstag, dem 26. März 2026 erstmalig Nutzungsbedingungen für den Service RWTHmoodle ein.
Für Nutzende ändert sich nichts an der bisherigen Verwendung von RWTHmoodle. Mit den Nutzungsbedingungen werden erstmals die bereits geltenden Rahmenbedingungen für die Nutzung der Plattform schriftlich zusammengefasst und transparent dargestellt.
Im Anschluss an die Wartung werden die Nutzungsbedingungen allen Nutzenden nach erfolgreichem Login anzeigt. Die Nutzungsbedingungen müssen einmalig bestätigt werden, um den Service weiterhin nutzen zu können.
Runtime limits for GPU Jobs
On the 06.03.2026 we changed how many GPU nodes from the c23g partition are allowed to run user GPU Jobs with runtimes longer than 24 hours.
The change has the following main goals:
- Increase the throughput and reduce the waiting times for GPU jobs with runtimes lower than 24 hours.
- Encourage users to submit shorter jobs and make use of resilience methods like checkpointing if necessary.
- Reduce the maintenance downtime of GPU nodes.
The change effectively limits the amount of long running GPU jobs to only half the GPU nodes in the c23g partition. Long running GPU jobs are user GPU jobs with runtimes longer than 24 hours. GPU jobs with less than 24 hours of runtime are considered short and will be scheduled to all available GPU nodes of the c23g partition.
It is understood that the waiting times of long running GPU jobs will increase and we therefore encourage users to change their workflows to accommodate shorter running GPU jobs.
This change is necessary to improve QoS for users of the c23g partition and to allow for faster maintenance works on the GPU nodes.
Release Notes Version 2.48.1
Verbesserungen und Fehlerbehebungen:
- Diverse Bugfixes

