Bienvenido a la página informativa del clúster del C3UPO
Introducción
El C3UPO dispone de un cluster de supercomputación, que ofrece servicios a diferentes grupos de investigación de la Universidad Pablo de Olavide para facilitar cálculos científicos.
El clúster ofrece herramientas específicas a los grupos de investigación. De esta forma se facilita el trabajo al investigador, ya que puede trabajar en un solo entorno, sin la necesidad de migrar datos de un lugar a otro.
Características de hardware
- El clúster se compone de 45 nodos de cálculo.
- Esos 45 nodos cuentan con 1704 cores de cálculo.
- 13 nodos (nodo01 - nodo13) x 24 cores/nodo = 312 cores.
- 18 nodos (nodo14 - nodo31) x 40 cores/nodo = 720 cores.
- 14 nodos (nodo32 - nodo45) x 48 cores/nodo = 672 cores.
- La memoria RAM de los nodos es la siguiente:
- Los nodos nodo01-nodo12 tienen 62 GB de RAM.
- El nodo nodo13 tiene 125 GB de RAM.
- Los nodos nodo14-nodo31 tienen 92 GB de RAM.
- Los nodos nodo32-nodo43 tienen 370 GB de RAM
- El nodo nodo44 tiene 750 GB de RAM
- El nodo nodo45 tiene 252 GB de RAM
- Todos los nodos tienen una carpeta scratch con la siguiente capacidad:
- Los nodos nodo01-nodo12 tienen una capacidad de almacenamiento de 207 GB.
- El nodo nodo13 tiene una capacidad de almacenamiento de 239 GB.
- Los nodos nodo14-nodo31 tienen una capacidad de almacenamiento de 7,3 TB.
- Capacidad de 69 TB en un sistema de ficheros compartidos BeeGFS.
- SLURM (Simple Linux Utility for Resource Management) como sistema de colas.
- Sistema Operativo CentOS Linux 7.2.
- Última ampliación de recursos destinada a entornos Big Data (512 cores y 6TB de RAM):
- Se incorporan 2 nuevos nodos de login
- Nodo master (hadoop masternode) que cuenta con 16 cores y 512 GB de RAM
- 4 Nodes compute rendimiento: cr01-cr04. Cada nodo cuenta con 64 cores y 1024 GB de RAM
- 4 Nodes compute capacidad: cc01-cc04. Cada nodo cuenta con 64 cores y 512 GB de RAM
- Se crean nuevos sistemas de ficheros BeeGFS para uso exclusivo de cálculos Big Data, al que sólo este nuevo equipamiento tiene acceso:
- Storage1 – 12TB nvme – RAID 0 - /mnt/beegfs-nvme
- Storage2 – 7TB SSD – RAID6 - /mnt/beegfs-ssd
- Storage3- 424TB SATA – RAID - /mnt/beegfs-sas
Sistema de colas
El clúster cuenta con el siguiente sistema de colas:
- Cola diaria. Los trabajos que se ejecuten en esta cola pueden durar como máximo 1 día. Limitada a 120 cores/usuario.
>srun -n1 -N1 -p day hostname - Cola semanal. Los trabajos que se ejecuten en esta cola pueden durar como máximo 7 días. Limitada a 120 cores/usuario.
>srun -n1 -N1 -p week hostname - Cola bimensual. Los trabajos que se ejecuten en esta cola pueden durar como máximo 14 días. Limitada a 80 cores/usuario.
>srun -n1 -N1 -p week2 hostname - Cola mensual. Los trabajos que se ejecuten en esta cola pueden durar como máximo 30 días. Limitada a 60 cores/usuario.
>srun -n1 -N1 -p month hostname - Cola bd. Para trabajos Big Data. Se necesitan permisos para hacer uso de la misma.
>srun -n1 -N1 -p bd hostname |
Características de los nodos
Los nodos permiten satisfacer necesidades específicas en función de sus características:
- SET1: Hace referencia al conjunto de nodos nodo01-nodo07.
- WEB: Hace referencia al nodo nodo08, encargado de realizar las peticiones solicitadas por el servidor web.
- GAUSSIAN: Hace referencia al conjunto de nodos nodo09-nodo12, que cuentan con mayor capacidad de almacenamiento.
- GPU: Hace referencia al nodo nodo13, que cuenta con GPU.
- SET2: Hace referencia al conjunto de nodos nodo14-nodo31.
>srun --constraint="SET1" hostname
|
Software instalado
- Bioinformática
- bedtools - v2.18
- Blast - v2.13
- Blast+ v2.7.1
- Bowtie2/2.3.2
- TransDecoder - v3.0
- Trinity - v2.4
- Trinotate - v3.0
Lenguajes de programación soportados
- Java
- Perl
- PHP
- Python
Sistema de paralelización
- OpenMPI