logo

 

Bienvenido a la página informativa del clúster del C3UPO

Introducción

El C3UPO dispone de un cluster de supercomputación, que ofrece servicios a diferentes grupos de investigación de la Universidad Pablo de Olavide para facilitar cálculos científicos.

El clúster ofrece herramientas específicas a los grupos de investigación. De esta forma se facilita el trabajo al investigador, ya que puede trabajar en un solo entorno, sin la necesidad de migrar datos de un lugar a otro.

 

Características de hardware

  • El clúster se compone de 45 nodos de cálculo.
  • Esos 45 nodos cuentan con 1704 cores de cálculo.
    • 13 nodos (nodo01 - nodo13) x 24 cores/nodo = 312 cores.
    • 18 nodos (nodo14 - nodo31) x 40 cores/nodo = 720 cores.
    • 14 nodos (nodo32 - nodo45) x 48 cores/nodo = 672 cores.
  • La memoria RAM de los nodos es la siguiente:
    • Los nodos nodo01-nodo12 tienen 62 GB de RAM.
    • El nodo nodo13 tiene 125 GB de RAM.
    • Los nodos nodo14-nodo31 tienen 92 GB de RAM.
    • Los nodos nodo32-nodo43 tienen 370 GB de RAM
    • El nodo nodo44 tiene 750 GB de RAM
    • El nodo nodo45 tiene 252 GB de RAM
  • Todos los nodos tienen una carpeta scratch con la siguiente capacidad:
    • Los nodos nodo01-nodo12 tienen una capacidad de almacenamiento de 207 GB.
    • El nodo nodo13 tiene una capacidad de almacenamiento de 239 GB.
    • Los nodos nodo14-nodo31 tienen una capacidad de almacenamiento de 7,3 TB.
  • Capacidad de 69 TB en un sistema de ficheros compartidos BeeGFS.
  • SLURM (Simple Linux Utility for Resource Management) como sistema de colas.
  • Sistema Operativo CentOS Linux 7.2.
  • Última ampliación de recursos destinada a entornos Big Data (512 cores y 6TB de RAM):
    • Se incorporan 2 nuevos nodos de login
    • Nodo master (hadoop masternode) que cuenta con 16 cores y 512 GB de RAM
    • 4 Nodes compute rendimiento: cr01-cr04. Cada nodo cuenta con 64 cores y 1024 GB de RAM
    • 4 Nodes compute capacidad: cc01-cc04. Cada nodo cuenta con 64 cores y 512 GB de RAM
    • Se crean nuevos sistemas de ficheros BeeGFS para uso exclusivo de cálculos Big Data, al que sólo este nuevo equipamiento tiene acceso:
      • Storage1 – 12TB nvme – RAID 0 - /mnt/beegfs-nvme
      • Storage2 – 7TB SSD – RAID6 - /mnt/beegfs-ssd
      • Storage3- 424TB SATA – RAID - /mnt/beegfs-sas
 

Sistema de colas

El clúster cuenta con el siguiente sistema de colas:

  • Cola diaria. Los trabajos que se ejecuten en esta cola pueden durar como máximo 1 día. Limitada a 120 cores/usuario.
    >srun -n1 -N1 -p day hostname
  • Cola semanal. Los trabajos que se ejecuten en esta cola pueden durar como máximo 7 días. Limitada a 120 cores/usuario.
    >srun -n1 -N1 -p week hostname
  • Cola bimensual. Los trabajos que se ejecuten en esta cola pueden durar como máximo 14 días. Limitada a 80 cores/usuario.
     
    >srun -n1 -N1 -p week2 hostname
  • Cola mensual. Los trabajos que se ejecuten en esta cola pueden durar como máximo 30 días. Limitada a 60 cores/usuario.
    >srun -n1 -N1 -p month hostname
  • Cola bd. Para trabajos Big Data. Se necesitan permisos para hacer uso de la misma.
>srun -n1 -N1 -p bd hostname

 

Características de los nodos

Los nodos permiten satisfacer necesidades específicas en función de sus características:

  • SET1: Hace referencia al conjunto de nodos nodo01-nodo07.
  • WEB: Hace referencia al nodo nodo08, encargado de realizar las peticiones solicitadas por el servidor web.
  • GAUSSIAN: Hace referencia al conjunto de nodos nodo09-nodo12, que cuentan con mayor capacidad de almacenamiento.
  • GPU: Hace referencia al nodo nodo13, que cuenta con GPU.
  • SET2: Hace referencia al conjunto de nodos nodo14-nodo31.
>srun --constraint="SET1" hostname
 

Software instalado

  • Bioinformática
    • ​bedtools - v2.18
    • Blast - v2.13
    • Blast+ v2.7.1
    • ​Bowtie2/2.3.2
    • ​TransDecoder - v3.0
    • Trinity - v2.4
    • Trinotate - v3.0

Lenguajes de programación soportados

  • Java
  • Perl
  • PHP
  • Python

Sistema de paralelización

  • OpenMPI
Nota: Si necesita una solución personalizada, no dude en contactar con nosotros a través de la dirección c3upo_admin@upo.es