Dzisiaj – w dobie skokowego rozwoju zarówno samej technologii, jak i aplikacji wykorzystujących możliwości oferowane przez nowoczesny sprzęt – superkomputery na dobre zagościły nie tylko w większości dziedzin nauki, ale także i gospodarce. Obecnie coraz trudniej wyobrazić sobie świadczenie usług bankowych, telekomunikacyjnych lub energetycznych bez wsparcia ze strony wydajnych klastrów komputerowych. Superkomputery wspomagają badania nad kolejnymi generacjami leków, poszukiwaniem nowych źródeł energii, czy wreszcie znacząco przyspieszają różnorodne prace projektowe jednocześnie wyraźnie redukując ich koszty. Bez cienia przesady można stwierdzić, że dostęp do tego typu instalacji stanowi obecnie nie tyle nawet o przewadze nad konkurencją, co wręcz o być albo nie być danego przedsięwzięcia. Z punktu widzenia rodzimych nauki i przemysłu niezwykle istotny jest zatem fakt, że perspektywa dostępu do możliwości oferowanych przez superkomputery nie dotyczy już wyłącznie podmiotów największych, mogących pozwolić sobie na zakup własnej infrastruktury lub jej outsourcing z zagranicy. Szansą jest tu oczywiście dynamiczny rozwój krajowych centrów przetwarzania danych, które dzięki umiejętnemu pozyskiwaniu funduszy same budują coraz wydajniejsze i sprawniejsze instalacje obliczeniowe.

Jeden z największych oraz pod wieloma względami najnowocześniejszy polski klaster obliczeniowy jest od 2009 r. budowany w Narodowym Centrum Badań Jądrowych w Świerku. Dzięki dofinansowaniu ze środków Europejskiego Funduszu Rozwoju Regionalnego (Program Operacyjny Innowacyjna Gospodarka) oraz dotacji celowej ministerstwa Nauki i Szkolnictwa Wyższego w ramach wartego niemal 98 mln. zł projektu Centrum Informatyczne Świerk powstaje klaster o docelowej wydajności rzędu 500 TFLOPS, a więc 500 bilionów operacji zmiennoprzecinkowych na sekundę. Równolegle z budową samej instalacji stworzony został zespół ekspertów nadzorujących pracę superkomputera oraz prowadzących własne badania naukowe. Głównym celem projektu jest zapewnienie odpowiedniego wsparcia informatycznego niezbędnego dla rozwoju polskiej energetyki – zarówno jądrowej, jak i konwencjonalnej.

Jednym z obszarów aktywności naszego projektu jest prowadzanie obliczeń eksploatacyjnych oraz analiz bezpieczeństwa nowoczesnych reaktorów jądrowych. Myśląc o tego typu instalacjach trzeba pamiętać, że rygory bezpieczeństwa są tu znacznie wyższe niż w jakiejkolwiek innej dziedzinie techniki, a ilość i złożoność występujących w tym obszarze wymagań oraz regulacji porównywalne są jedynie z lotnictwem i kosmonautyką. Także i w Polsce na długo przed planowanym uruchomieniem pierwszej elektrowni jądrowej musi zostać przeprowadzone szereg złożonych symulacji określających poziom jej bezpieczeństwa, a procedury pracy operatorów takiej instalacji powinny zostać ustalone oraz zweryfikowane jeszcze przed rozpoczęciem budowy bloku energetycznego. Jeśli weźmiemy pod uwagę fakt, że dokumentacja techniczna reaktora jądrowego to nawet kilkadziesiąt tysięcy stron różnego rodzaju danych inżynieryjnych i fizycznych, staje się oczywiste, iż sprawdzenie funkcjonowania takiej instalacji nie byłoby możliwe bez zastosowania zaawansowanych metod obliczeniowych. Dzięki komputerowym symulacjom działania reaktora w czasie normalnej pracy lub w trakcie wystąpienia ewentualnych sytuacji awaryjnych możliwe jest określenie mocnych i słabych stron systemów bezpieczeństwa danej elektrowni. Tworzeniem i badaniem modeli poszczególnych typów reaktorów zajmuje się Zespół Analiz Reaktorowych, a wynikami jego prac są wytyczne i sugestie dotyczące procedur bezpieczeństwa.

W ramach realizowanych w projekcie prac badawczych staramy się podejmować zadania ambitne i nowatorskie, adekwatne do możliwości oferowanych przez nasze zaplecze infrastrukturalne oraz potencjał intelektualny pracujących w projekcie naukowców. Jeden z naszych zespołów – Grupa Systemów Złożonych – podjął prace nad zaprojektowaniem i stworzeniem systemu do wielokryterialnej analizy różnego rodzaju struktur rynku energii. Rozwiązanie to jest odpowiedzią na zachodzące na europejskim rynku energetycznym procesy integracji i wynikające z nich dążenie do ujednolicenia występujących w poszczególnych krajach formuł ekonomiczno-prawnych. Tworzone w CIŚ narzędzie ma pozwolić na wypracowanie  merytorycznych podstaw dla politycznych decyzji dotyczących przyszłej struktury wspólnego rynku energetycznego UE. Prace nad systemem wymagają połączenia modelowania warstwy fizycznej przesyłu energii, aspektów ekonomicznych rynku oraz strategicznych zachowań graczy rynkowych. Do badań wykorzystywane są innowacyjne metodologie naukowe np. wyznaczające strefy w oparciu o minimalizację niekontrolowanych przepływów pomiędzy obszarami rynkowymi, czy biorące pod uwagę zmienne warunki pogodowe.  Całość prac prowadzona jest w ścisłej kooperacji z Polskimi Sieciami Energetycznymi S.A., a efekty dotychczasowych działań są na tyle obiecujące, że nasi naukowcy – jako jedna z trzech tego typu grup badawczych z całej Europy – mają szanse znaleźć się w międzynarodowym konsorcjum opracowującym model strefowania europejskiego rynku energetycznego na potrzeby analiz Komisji Europejskiej.

Kolejnym obszarem aktywności naszych specjalistów jest tworzenie oraz rozwijanie narzędzi umożlwiających monitorowanie i analizę rozprzestrzeniania się różnego rodzaju zanieczyszczeń. W dorobku grupy MANHAZ znajduje się chociażby dedykowany serwis do modelowania stężeń szkodliwych substancji w atmosferze. Na potrzeby związane z badaniem zjawiska rozprzestrzeniania się skażeń wykorzystywane są – na przykład – modele pozwalające śledzić trajektorię przemieszczających się cząstek substancji na podstawie pól wielkości meteorologicznych uzyskiwanych z dedykowanych, numerycznych prognoz pogody. Analizując ruch odpowiednio dużej liczby cząstek można dzięki temu uzyskać wiarygodne rezultaty dotyczące wartości stężeń w dowolnej objętości, nawet gdy dyspersja zanieczyszczeń zachodzi na stosunkowo rozległych powierzchniach lub w terenie zabudowanym. Ta sama grupa stworzyła również narzędzie pozwalające zlokalizować źródło pojawiającego się dla środowiska zagrożenia dokonując analizy danych pochodzących z usytuowanych na danym obszarze stacji pomiarowych.

Zasoby obliczeniowe tworzonego w ramach projektu Centrum Informatyczne Świerk superkomputera wykorzystywane są także w wielu różnorodnych projektach naukowych. W chwili obecnej mamy ok. 180 aktywnych użytkowników klastra, od początku funkcjonowania naszej instalacji udało się przeprowadzić już niemal 200 tys. różnego rodzaju zadań obliczeniowych. Jednym z największych i najciekawszych przedsięwzięć związanych z wykorzystywaniem tworzonej w Świerku instalacji jest przetwarzanie danych z wykonywanego w ośrodku CERN pod Genewą eksperymentu „Large Hadron Collider beauty”. Projektem LHCb zajmuje się obecnie ponad sześciuset naukowców z 63 grup naukowych z różnych laboratoriów całego świata, w tym także z Narodowego Centrum Badań Jądrowych. Celem wykorzystujących Wielki Zderzacz Hadronów badań jest poszukiwanie zjawisk fizycznych wykraczających poza Model Standardowy oddziaływań oraz zrozumienie łamania kombinowanej symetrii ładunkowo-przestrzennej CP. W języku potocznym oznacza to wyjaśnienie, czy procesy fizyczne przebiegają tak samo po odbiciu swoich cech w zwierciadle. Obecna teoria oddziaływań jest tak sformułowana, że materia i antymateria rozumiane są właśnie jako swoje lustrzane obrazy. Eksperyment „LHCb” należy zatem do najważniejszych przedsięwzięć naukowych naszych czasów i powinien znacząco przyczynić się m.in. do wyjaśnienia problemu obserwowanej asymetrii w ilościach materii i antymaterii we Wszechświecie. Udostępniane przez Centrum Informatyczne w Świerku zasoby oraz usługi posłużyły do utworzenia nowego ośrodka przetwarzania rozproszonego, który został przyłączony do gridu „Worldwide LHC Computing Grid”. Wydzielona infrastruktura tworzy ośrodek typu Tier-2D charakteryzujący się przede wszystkim udostępnianiem szybkiej i niezawodnej pamięci masowej do przechowywania danych eksperymentalnych. Pojemność wydzielonej przestrzeni dyskowej to 300TB. Dodatkowo CIŚ oddało do dyspozycji naukowców z CERN także ok. 1000 rdzeni obliczeniowych do przetwarzania zgromadzonych danych, specjalistyczne oprogramowanie naukowe oraz odpowiednią infrastrukturę sieciową.

Kolejnym obszarem zastosowań powstającego superkomputera są obliczenia i symulacje na potrzeby związane z projektowaniem oraz budową aparatury medycznej. Centrum Informatyczne Świerk wspomaga chociażby budowę nowoczesnego tomografu pozytonowego, nad którym pracują naukowcy z Wydziału Fizyki, Astronomii i Informatyki Stosowanej Uniwersytetu Jagiellońskiego. W dostępnych obecnie na rynku urządzeniach diagnostycznych tego typu, jako detektory promieniowania, powszechnie wykorzystuje się drogie kryształy nieorganiczne. W modelu opracowywanym przez specjalistów z Krakowa zostały one zastąpione kilkunastokrotnie tańszymi polimerami organicznymi, co umożliwi znaczne ograniczenie kosztów tak produkcji tomografu, jak i samego badania. Oczywiście zaprojektowanie od podstaw niezwykle złożonego urządzenia o tak innowacyjnej konstrukcji jest zadaniem bardzo skomplikowanym i długotrwałym. Znaczne oszczędności czasu oraz zaangażowanych środków finansowych umożliwia tu właśnie wykorzystanie zasobów naszego klastra. Dzięki pomocy wyspecjalizowanego oprogramowania jesteśmy w stanie prowadzić złożone badania pozwalające precyzyjnie określić np. kształt i wymiary poszczególnych elementów składowych tomografu. Zasoby naszej instalacji wykorzystywane są również do opracowania nowatorskiej metody odczytu oraz analizy sygnałów, która umożliwi szybką i dokładna analizę ogromnej ilości danych, jakie podczas każdego badania dostarcza tego typu urządzenie.