Kategorien
Seiten
-

IT Center Changes

Release Notes Version 2.42.0

14. Oktober 2025 | von

Verbesserungen und Fehlerbehebungen:

  • Animationen und das Verhalten der Pins in der Karte wurden angepasst
  • Diverse Bugfixes

Opencast: Upgrade auf Version 18

10. Oktober 2025 | von

New Project Limits

09. Oktober 2025 | von

As you know, we operate our cluster in 1-cluster-concept. This also means that the system is supported by multiple funding sources with different budgets. The NHR share (Tier-2) is the largest. Unfortunately, the project quota for RWTH-s, RWTH-thesis and RWTH-lecture (Tier-3) in the machine learning segment (GPU partition) is currently overbooked. Therefore, the following changes will take effect immediately for all new project applications (already granted projects are not affected):

  • RWTH-s projects: reduction of the maximum project size to 4000 GPU-h per project per year
  • RWTH-lecture and -thesis projects: reduction of the maximum project size to 1500 GPU-h per project

In order to ensure that all users can still successfully carry out their research projects, we propose the following approach for future proposals:

  • If you do not need more than 4000 GPU-h, please apply for RWTH-s as before.
  • If you do not need more than 10000 GPU-h and would like to conduct a project in the field of machine learning or artificial intelligence, please apply for a WestAI project.
  • If you do not need more than 10000 GPU-h, you are welcome to apply once (!) for an NHR Starter project. Please note that this category is intended as preparation for an NHR Normal or Large project. An extension is therefore only possible with a full proposal and should be for more than 10000 GPU-h. NHR Starter projects are allocated centrally by the NHR office; if you choose this route, please select RWTH as your preferred center.
  • If you need more than 10000 GPU-h, please apply for resources within an NHR Normal or Large project. To ensure appropriate use of the system, NHR projects undergo a science-led peer-review process.

We are convinced that this step is in the interest of all users in order to avoid overloading the GPU partition (ML segment).

Furthermore, please note that in future, NHR Normal projects may request up to 20 million core-h.

Please refer to the project catalogue for a complete overview (including a decision flow chart),

Please contact servicedesk@itc.rwth-aachen.de for any further questions.

Update zur Migration auf DataStorage.nrw

01. Oktober 2025 | von

Seit Anfang Juli 2025 läuft die Migration aller Coscine-Projekte: Das bisherige Speichersystem Research Data Storage (RDS) wird vollständig durch DataStorage.nrw abgelöst. Schritt für Schritt werden daher sämtliche Coscine-Projekte auf das neue System übertragen.

Inzwischen sind bereits rund 1380 Projekte migriert, das entspricht etwa 1 PB der insgesamt geplanten 2,5 PB. Projekt-Owner mit besonders großen Datenmengen wurden direkt kontaktiert, um individuelle Termine für die Migration abzustimmen.

Die Geschwindigkeit der Übertragung variiert je nach Projekt und hängt unter anderem von der Anzahl der Ressourcen sowie von Menge und Größe der enthaltenen Dateien ab.

Über den weiteren Fortschritt der Migration werden wir regelmäßig informieren.

Release Notes Version 2.41.0

23. September 2025 | von

Verbesserungen und Fehlerbehebungen:

  • Diverse Bugfixes

Slurm GPU HPC resource allocation changing on the 01.11.2025

17. September 2025 | von

The CLAIX HPC systems will be changing the way GPU resources are requested and allocated starting on the 01.11.2025.
Users submitting Slurm Jobs will no longer be able to request arbitrary amounts of CPU and Memory resources when using GPUs on GPU nodes.
Requesting an entire GPU node’s memory or all CPUs, but only a single GPU will no longer be possible.
Each GPU within a GPU node will have a corresponding strict maximum of CPUs and Memory that can be requested.
To obtain more than the strict maximum of CPUs or Memory per GPU, more GPUs will need to be requested too.
The specific limits per GPU on GPU nodes will be eventually documented separately.
Users are expected to modify their submission scripts or methods accordingly.

This change is driven by our efforts to update the HPC resource billing mechanism to comply with NHR HPC directives.
NHR requires that computing projects apply for CPU and GPU resources independently.
NHR also requires that HPC Centers track the use of these CPU and GPU resources.
The independent resources are then accounted for by Slurm jobs within our CLAIX nodes.
Therefore CPU nodes will only track CPUs (and equivalent memory) and GPU nodes will only track GPUs used.
The quota tools will eventually reflect this too.

Neue GPT-5-Modelle (v1.7.0)

05. September 2025 | von

Funktionen:

  • Unterstützung für neue Modelle:
    • gpt-5, gpt-5-mini, gpt-5-nano, gpt-5-chat
    • Beta-Support für verschiedene Modelle der Familien Llama, Mistral, Gemma, Qwen, Teuken und InternVL
  • Nutzende mit Zugriff auf mehrere Nutzendengruppen können jetzt im Frontend zwischen den Gruppen wechseln
  • Benachrichtigung über automatisch gelöschte Chats sowie neues Modal zum manuellen Löschen oder Verlängern dieser Chats hinzugefügt
    • [ADMIN] Zeitraum für automatische Chat-Löschung pro Tenant einstellbar
  • [ADMIN] Neuer Report „Stündliche Aktivitäts-Heatmap“
  • [ADMIN] Tenants können jetzt Infobanner schalten, die allen Nutzenden des Tenants angezeigt werden
  • [ADMIN] Automatische E-Mail-Benachrichtigungen bei 80 %, 90 % und 100 % Verbrauch des Hardlimits einer Nutzendengruppe
  • [ADMIN] Pro Deployment kann jetzt optional eine Datenverarbeitungsregion (Deutschland, EU, Weltweit) ausgewählt werden; diese wird entsprechend im Frontend angezeigt

Fehlerbehebungen und Verbesserungen:

  • Inhaltsseiten werden jetzt bei allen Tenants korrekt angezeigt
  • Druckdarstellung der Chathistorie optimiert
  • [ADMIN] Hilfemenüeinträge und Deployments sind jetzt per Drag & Drop sortierbar
  • [ADMIN] Im Deployment-Modal werden modelltypspezifische Parameter erst angezeigt, nachdem ein Modell ausgewählt wurde
  • [ADMIN] Das „Reasoning Effort Level“ ist jetzt ein Pflichtfeld; die maximale Token-Anzahl kann nicht mehr auf 0 gesetzt werden
  • [ADMIN] Modellauswahl im Deployment-Modal alphabetisch sortiert
  • [ADMIN] Für unterstützte Modelle kann jetzt ein Preis für gecachte Input-Tokens angegeben werden
  • [ADMIN] Deployments können dupliziert werden
  • [ADMIN] Deployments werden automatisch auf inaktiv gesetzt, wenn deren Endpunkt gelöscht wird
  • [ADMIN] Achsenbeschriftung der Reports verbessert

Neue GPT-5-Modelle (v1.7.0)

05. September 2025 | von

Funktionen:

  • Unterstützung für neue Modelle:
    • gpt-5, gpt-5-mini, gpt-5-nano, gpt-5-chat
    • Beta-Support für verschiedene Modelle der Familien Llama, Mistral, Gemma, Qwen, Teuken und InternVL
  • Nutzende mit Zugriff auf mehrere Nutzendengruppen können jetzt im Frontend zwischen den Gruppen wechseln
  • Benachrichtigung über automatisch gelöschte Chats sowie neues Modal zum manuellen Löschen oder Verlängern dieser Chats hinzugefügt

Fehlerbehebungen und Verbesserungen:

  • Inhaltsseiten werden jetzt bei allen Tenants korrekt angezeigt
  • Druckdarstellung der Chathistorie optimiert

Release Notes Version 2.40.0

02. September 2025 | von

Verbesserungen und Fehlerbehebungen:

  • Animationen wurden an einigen Stellen verbessert
  • Diverse Bugfixes

Integration von GPT-5 Chat

20. August 2025 | von
  • GPT-5 Chat als Sprachmodell integriert
    • GPT-5 Chat priorisiert Konversationston, sofortige Hilfsbereitschaft und schnellere Antworten
    • Optimiert für Klarheit, Kürze, Freundlichkeit und konsistentes Chat-Verhalten