
Bienvenido a la página informativa del clúster del C3UPO
Introducción
El C3UPO dispone de un cluster de supercomputación, que ofrece servicios a diferentes grupos de investigación de la Universidad Pablo de Olavide para facilitar cálculos científicos.
El clúster ofrece herramientas específicas a los grupos de investigación. De esta forma se facilita el trabajo al investigador, ya que puede trabajar en un solo entorno, sin la necesidad de migrar datos de un lugar a otro.
Características de hardware
- El clúster se compone de 45 nodos de cálculo.
 - Esos 45 nodos cuentan con 1704 cores de cálculo.
	
- 13 nodos (nodo01 - nodo13) x 24 cores/nodo = 312 cores.
 - 18 nodos (nodo14 - nodo31) x 40 cores/nodo = 720 cores.
 - 14 nodos (nodo32 - nodo45) x 48 cores/nodo = 672 cores.
 
 - La memoria RAM de los nodos es la siguiente:
	
- Los nodos nodo01-nodo12 tienen 62 GB de RAM.
 - El nodo nodo13 tiene 125 GB de RAM.
 - Los nodos nodo14-nodo31 tienen 92 GB de RAM.
 - Los nodos nodo32-nodo43 tienen 370 GB de RAM
 - El nodo nodo44 tiene 750 GB de RAM
 - El nodo nodo45 tiene 252 GB de RAM
 
 - Todos los nodos tienen una carpeta scratch con la siguiente capacidad:
	
- Los nodos nodo01-nodo12 tienen una capacidad de almacenamiento de 207 GB.
 - El nodo nodo13 tiene una capacidad de almacenamiento de 239 GB.
 - Los nodos nodo14-nodo31 tienen una capacidad de almacenamiento de 7,3 TB.
 
 - Capacidad de 69 TB en un sistema de ficheros compartidos BeeGFS.
 - SLURM (Simple Linux Utility for Resource Management) como sistema de colas.
 - Sistema Operativo CentOS Linux 7.2.
 - Última ampliación de recursos destinada a entornos Big Data (512 cores y 6TB de RAM):
	
- Se incorporan 2 nuevos nodos de login
 - Nodo master (hadoop masternode) que cuenta con 16 cores y 512 GB de RAM
 - 4 Nodes compute rendimiento: cr01-cr04. Cada nodo cuenta con 64 cores y 1024 GB de RAM
 - 4 Nodes compute capacidad: cc01-cc04. Cada nodo cuenta con 64 cores y 512 GB de RAM
 - Se crean nuevos sistemas de ficheros BeeGFS para uso exclusivo de cálculos Big Data, al que sólo este nuevo equipamiento tiene acceso:
		
- Storage1 – 12TB nvme – RAID 0 - /mnt/beegfs-nvme
 - Storage2 – 7TB SSD – RAID6 - /mnt/beegfs-ssd
 - Storage3- 424TB SATA – RAID - /mnt/beegfs-sas
 
 
 
Sistema de colas
El clúster cuenta con el siguiente sistema de colas:
- Cola diaria. Los trabajos que se ejecuten en esta cola pueden durar como máximo 1 día. Limitada a 120 cores/usuario.
	
>srun -n1 -N1 -p day hostname  - Cola semanal. Los trabajos que se ejecuten en esta cola pueden durar como máximo 7 días. Limitada a 120 cores/usuario.
	
>srun -n1 -N1 -p week hostname  - Cola bimensual. Los trabajos que se ejecuten en esta cola pueden durar como máximo 14 días. Limitada a 80 cores/usuario.
	
>srun -n1 -N1 -p week2 hostname  - Cola mensual. Los trabajos que se ejecuten en esta cola pueden durar como máximo 30 días. Limitada a 60 cores/usuario.
	
>srun -n1 -N1 -p month hostname  - Cola bd. Para trabajos Big Data. Se necesitan permisos para hacer uso de la misma.
 
| >srun -n1 -N1 -p bd hostname | 
Características de los nodos
Los nodos permiten satisfacer necesidades específicas en función de sus características:
- SET1: Hace referencia al conjunto de nodos nodo01-nodo07.
 - WEB: Hace referencia al nodo nodo08, encargado de realizar las peticiones solicitadas por el servidor web.
 - GAUSSIAN: Hace referencia al conjunto de nodos nodo09-nodo12, que cuentan con mayor capacidad de almacenamiento.
 - GPU: Hace referencia al nodo nodo13, que cuenta con GPU.
 - SET2: Hace referencia al conjunto de nodos nodo14-nodo31.
 
| 
			 >srun --constraint="SET1" hostname 
			 | 
		
Software instalado
- Bioinformática
	
- bedtools - v2.18
 - Blast - v2.13
 - Blast+ v2.7.1
 - Bowtie2/2.3.2
 - TransDecoder - v3.0
 - Trinity - v2.4
 - Trinotate - v3.0
 
 
Lenguajes de programación soportados
- Java
 - Perl
 - PHP
 - Python
 
Sistema de paralelización
- OpenMPI