Visokozmogljivi računski sestav Fakultete za strojnišvo v Ljubljani namenjen raziskavam, ki zahtevajo vzporedno računanje znanstvenih problemov.

Platform Managment Console

Load Sharing Facility (LSF) na HPCFS lahko uporabniki spremljajo tudi preko spletnega vmesnika prikazanega na sliki. Uporabniki lahko z Platform Managment Console (PMC) spremljajo predvsem trenutno obremenitev in zgodovino po vozliščih. Na sliki je videti obremenitev posameznih vozlišč. Ker imajo vozlišča HPCFS vklopljen SMT oziroma Hyper-Threading se to kaže kot 50% obremenitev 12 procesorjev.

High Performance Linpack

HPL (High Performance LINPACK) je standardni industrijski test za HPC, ki rešuje (naključni) gosti linearni sistem v dvojni ločljivosti (64 bitov) na računalnikih s porazdeljenim spominom.

Cluster Management Utility

HP Cluster Management Utility (CMU) je osnovno orodje za trenutni nadzor stranja sestava. Uporabniki lahko vidijo trenutno zasedenost procesorjev, spomina in ostalih senzorjev, ki so na voljo. Aplikacija v JAVI je na voljo lokalno na nadzornem vozlišču http://prelog.hpc:8008/ Za pravilni zagon je potrebno prvič izbrati JNI web start, ki se nahaja na /usr/java/latest/javaws/javaws .

Invention Machine Goldfire Innovator

Osnovno okno programaProgramski paket Goldfire podjetja Invention Machine želi v smiselno celoto združiti korake na poti do inovacij. Nad izdelkom bdi od prvih poizvedb in iskanja idej do rešitev za novo generacijo izdelkov, ki bo aktualna šele čez nekaj let.

Mellanox® Unified Fabric Manager software

Posnetek aplikacije UFMAplikacija Unified Fabric Manager (UFM) se uporablja za nadzor Infiniband (IB) omrežja. Predvsem pomaga pri kontroli povezav in stanja celotnega sestava. V večjih sestavih se UFM uporablja predvsem za načrtovanje podomrežij z namenom optimiziranja skupin in povezovanju različnih sestavov v enotno omrežje. Na sestavu HPCFS ga uporabljamo predvsem za kontrolo in statistiko prometa.

Message Passing Interface (MPI)

MPI je dominanten način komuniciranja s pošiljanjem sporočil. Sporočila se pošiljajo na nivoju procesov. Model MPI omogoča vzporedno izvajanje s sodelovanjem večih procesov na isti nalogi. Vsak proces ima pri delu svoje podatke. Procesi komunicirajo tako, da si med sabo pošiljajo in sprejemajo sporočila.Večina MPI programov temelji na modelu SPMD (Single-Program-Multiple-Data), kar pomeni, da vsi procesi izvajajo isti program s svojimi podatki. Da se omogoča medsebojno delo imajo procesi vsak svoj ID. Običajno se poganja en proces na eno procesorsko jedro.

Programiranje z deljenim spominom v OpenMP

OpenMP je način paralelnega programiranja v načinu, ko je več proceorjev priklopljeno na skupen spomin. Glavna prednost takega programiranja je enoten naslovni prostor preko celotnega spominskega sistema

  • vsak procesor lahko bere in piše na vse spominske lokacije
  • eden logičen spominski prostor
  • vsi procesorji naslavjlajo spomin z istim naslovom

 

Strani

Subscribe to Visokozmogljivi računski sestav HPCFS RSS