Die Wissenschaftliche Einrichtung
Computerservice betreibt die zentralen Server des Instituts, wie Mail-, Druck-, Software-, Backup- und Web-Server, sowie Linux-basierte Abteilungs-Dateiserver, die auf ein gemeinsames zentrales Speichernetzwerk (SAN) zugreifen, dessen Datenbereiche mittels RAID6 mehrfach redundant ausgelegt sind. Die Daten im SAN werden täglich mithilfe von IBM Spectrum Protect (ehemals Tivoli Storage Manager) Backup- und Archivdienstes gesichert. Derzeit beträgt das Volumen der so gesicherten Daten 870 TB, davon sind 240 TB Archivdaten. Die Kapazität des Speichernetzes liegt bei 800 TB, um die Langzeitspeicherung wissenschaftlicher Daten nach den Regeln guter wissenschaftlicher Praxis zu gewährleisten. Etwa 750 PC-basierte Arbeits- und Messplätze, die zu 75% unter Windows, zu 20% unter Linux und zu einem kleinen Prozentsatz unter MacOS X arbeiten, werden betreut und bei Bedarf erneuert.
Ein seit 2017 an der MP-CDF gehosteter Rechencluster, der dort mit Grundwasser gekühlt wird, wurde im Rahmen der aktuellen Energiekrise abgeschaltet, ebenso die Häfte der 2014 beschafften Rechenknoten der Abteilung Alavi. In diesem Zusammenhang wurde der General-Purpose-Rechencluster für das gesamte Institut freigegeben. Der Stromverbrauch für das wissenschaftliche Hochleistungsrechnen (HPC) am Institut war vor Kriegsbeginn auf 170 kW angestiegen, geht aber seither massiv zurück, die IT dürfte durch die vorgenannten Maßnahmen und die Optimierung der weiter laufenden Server das mit 25% angesetzte Energiesparziel erreichen. Das Kühlwasser stammt aus der 1,3 MW-Kälteanlage des Hauses, es wird Prozesskühlwasser mit einer Temperaturspreizung von 20/25°C verwendet, wodurch an 8 Monaten im Jahr eine freie Kühlung möglich ist.
Insgesamt stehen den HPC-Anwendern des Instituts nach all den genannten Umbauten und Erweiterungen 26612 Rechenkerne und insgesamt 478 TB Hauptspeicher zur Verfügung, beide Werte haben sich im Berichtszeitraum verdoppelt bzw. verfünffacht.
Im Rahmen eines MPG-internen Pilotprojekts wurde eine dedizierte Glasfaser-Verbindung zwischen Stuttgart und der MP-CDF in Garching geschaltet. Diese wird für ein verteiltes gemeinsames GPFS-Dateisystem genutzt, auf welches die Rechencluster der Abteilung Alavi direkt zugreifen können, unabhängig davon, an welchem Standort die insgesamt 1,75 PB großen Speichersysteme aufgestellt sind.
Die den Xen-virtualisierten IT-Diensten zugrunde liegende Speicherarchitektur wurde auf CEPH migriert und erlaubt es nun die Dienste frei auf 2 Lokationen im Hauptgebäude und im Präzisionslabor zu verteilen und im Betrieb zu verschieben. Um höchste Verfügbarkeit zu gewährleisten ist der gemeinsame Speicher dabei sogar auf 3 Standorte verteilt.
Der Schwerpunkt der Arbeit der IT-Gruppe liegt derzeit auf der weiteren Absicherung des Institutsnetzwerks durch Verschärfungen bei den Regeln für die Institutsfirewalls und die VPN-Zugänge zu den Instituts-, Labor- und Präzisionslabor-Netzwerken, sowie der Unterstützung von Mitarbeitern beim Umgang mit IT-gestützten Angriffen, deren Intensität in den letzten Jahren erheblich zunahm. Die Schulung der Mitarbeitenden zur Erkennung und zum Umgang mit Cyberangriffen wurde weiter intensiviert. An der Einführung einer Zwei-Faktor-Authentifizierung für den Zugang von Außen wird derzeit gearbeitet.
Vor diesem Hintergrund hat die IT-Gruppe ein Identity Management-System eingeführt und aktualisiert, das trotz Beibehaltung betriebssystemübergreifender Standards wie OpenLDAP auch durch eine Active-Directory-Impementierung die Integration der Windows-Betriebssystemwelt verbessert und die feingranulare Vergabe von Benutzerrechten im Institut ermöglicht und damit einigen verbreiteten Angriffsszenarien vorbeugt.
mehr