Herramientas de usuario

Herramientas del sitio


wiki:licencias

¡Esta es una revisión vieja del documento!


SLURM

Slurm (Simple Linux Utility for Resource Management) es un sistema de gestión de recursos en clusters de computadoras. Nos permite asignar los recursos computacionales (núcleos, memoria, gpu, etc.) de una forma equitativa a medida de su disposición.


Entidades manejadas por los servicios de Slurm

Nodos: Sistema multiprocesador perteneciente al cluster

Particiones: es un mecanismo de agrupar en forma lógica los nodos. Sin importar el número de nodos que se disponen se puede crear la cantidad de particiones que uno desee. Un nodo puede pertenecer a varias particiones. Cada partición tiene sus propios parámetros: tiempo límite de trabajo, usuarios permitidos, que nodos la componen, etc.

Trabajos: Un trabajo o job es la asignación de recursos a un usuario específico por una cantidad de tiempo determinada.

Tareas: Son el conjunto de programas (seriales o paralelas) que serán ejecutadas dentro de un trabajo.


Modo uso de Slurm


Slurm proporciona una interfaz de usuario donde se pueden ejecutar comandos slurm desde el shell del sistema operativo.
El usuario envía los trabajos y Slurm se encarga de ubicarlo en la cola de espera. Si hay recursos pasa a ejecutar el trabajo.
En caso de estar ocupado el trabajo se ejecutará cuando estén disponibles los recursos.

En general, los pasos a seguir para ejecutar un trabajo son:


1. Analizar los recursos que dispone el cluster y las necesidades del trabajo. Utilizar los comandos "sinfo" y "squeue".

2. Enviar el trabajo :                       A) Interactivamente. Se utiliza "srun" con los parámetros de configuración del trabajo. Es una forma rápida de enviar el trabajo a ejecución, pero con varias restricciones.                       B) Utilizar scripts. Se debe crear un script con la configuración del trabajo. Usar "sbatch" y sus parámetros.

3. (Opcional) Verificar la correcta configuración. Utilizar el comando "scontrol show job <JOBID>".

4. (Opcional) Recuperar la información que resulta de la ejecución del trabajo. Interactivamente: los resultados, errores, etc. se verán en el shell.
Scripts: se guardan en un archivo llamado slurm-<JOBID>.out



Comandos para ejecutar un trabajo


Envía el trabajo para ser ejecutado a Slurm. Si no posee recursos para el trabajo el shell queda esperando a que se desocupen. Si posee recursos ejecuta el programa y nos proporciona por la consola los resultados de la ejecución

  • [usuario@clemente ~]$ srun <NombrePrograma>

 

Parámetros de srun

-n, --ntasks: especifica la cantidad de tareas para correr. Por default 1 tarea por 1 CPU.

-j, --job-name: especifica el nombre de la tarea

-N, --nodes: especifica el mínimo de nodos que deben ser reservado para el trabajo

-p, --partition: especifica la partición donde el trabajo se va a ejecutar.

-v -vv -vvv : Aumenta el nivel de verbosidad.

-o <ArchivoSalida>: Redirecciona la salida al archivo especificado.



Ejemplos srun


  • [usuario@clemente ~]$ srun -n 2 miPrograma

Ejecuta miPrograma en 2 tareas, cada una en diferentes CPUs


  • [usuario@clemente ~]$ srun -n 6 --tasks-per-node=3 --partition=debug miPrograma

Ejecuta miPrograma en 6 tareas distribuida en dos nodos, en la partición debug.




SBATCH es la forma más adecuada de ejecutar un trabajo. Se utiliza un archivo script para la configuración de Slurm y del sistema operativo para ejecutar el trabajo.

  • [usuario@clemente ~]$ srun <NombreScriptSlurm>

 

Parámetros de sbatch

-n, --ntasks: especifica la cantidad de tareas (procesos) para correr

-j, --job-name: especifica el nombre de la tarea

-N, --nodes: especifica el mínimo de nodos que deben ser reservado para el trabajo

-p, --partition: especifica la partición donde el trabajo se va a ejecutar.

--mail-user <email>--mail-type=ALL:  Envía un mail notificando el cambio de estado en el trabajo



Ejemplos sbatch


  • [usuario@clemente ~]$ sbatch -N2 --name=<nombre>  --mail-user= <email@address.com>  --mail-type=ALL <NombreScriptSlurm> /li>

Ejecuta el script NombreScriptSlurm en 2 nodos y enviá mail por cambios de estados


  • [usuario@clemente ~]$ sbatch -N3 --time=60

Ejecuta el script NombreScriptSlurm en 3 nodos y como limite máximo de tiempo 1 hora .



Para más información ver la sección "Script de lanzamientos y comandos SBATCH".




Ejemplos Script Slurm


  • Tarea: ejecutar programas utilizando gpu
  • Ejecución: sbatch submit_gpu_job.sh
  • Partición: gpu
  • Tiempo máximo: 3 días

submit_gpu_job.sh
  1. #!/bin/bash
  2.  
  3. ### Las líneas #SBATCH configuran los recursos de la tarea
  4. ### (aunque parezcan estar comentadas)
  5.  
  6. ### Nombre de la tarea
  7. #SBATCH --job-name=gpu_job
  8.  
  9. ### Cola de trabajos a la cual enviar.
  10. #SBATCH --partition=gpu
  11. #SBATCH --gres=gpu:1
  12.  
  13. ### Procesos a largar.
  14. ### Por defecto, se usa un solo proceso para tareas GPU.
  15. #SBATCH --ntasks-per-node=1
  16.  
  17. ### Tiempo de ejecucion. Formato dias-horas:minutos.
  18. #SBATCH --time 3-0:00
  19.  
  20. ### Script que se ejecuta al arrancar el trabajo
  21.  
  22. ### Cargar el entorno del usuario incluyendo la funcionalidad de modules
  23. ### No tocar
  24. . /etc/profile
  25.  
  26. ### Cargar los módulos para la tarea
  27. # FALTA: Agregar los módulos necesarios
  28. module load gcc
  29. module load cuda
  30. ### Largar el programa
  31. # FALTA: Cambiar el nombre del programa
  32. srun NOMBRE_DEL_PROGRAMA
  33.  

  • Tarea: ejecutar programas utilizando mpi
  • Ejecución: sbatch submit_mpi_job.sh
  • Partición: batch
  • Tiempo máximo: 3 días

submit_mpi_job.sh
  1. #!/bin/bash
  2.  
  3. ### Las líneas #SBATCH configuran los recursos de la tarea
  4. ### (aunque parezcan estar comentadas)
  5.  
  6. ### Nombre de la tarea
  7. #SBATCH --job-name=mpi_job
  8.  
  9. ### Tiempo de ejecucion. Formato dias-horas:minutos.
  10. #SBATCH --time 3-0:00
  11.  
  12. ### Numero de procesos a ser lanzados.
  13. #SBATCH --ntasks=2
  14.  
  15. ### Nombre de partcion
  16. #SBATCH --partition=batch
  17.  
  18. ### Script que se ejecuta al arrancar el trabajo
  19.  
  20. ### Cargar el entorno del usuario incluyendo la funcionalidad de modules
  21. ### No tocar
  22. . /etc/profile
  23.  
  24. ### Cargar los módulos para la tarea
  25. # FALTA: Agregar los módulos necesarios
  26. module load gcc
  27. module load openmpi
  28.  
  29. ### Largar el programa con los cores detectados
  30. ### La cantidad de nodos y cores se detecta automáticamente
  31. # FALTA: Cambiar el nombre del programa
  32. srun NOMBRE_DEL_PROGRAMA
  33.  

  • Tarea: ejecutar programas utilizando OPENMP
  • Ejecución: sbatch openmp
  • Partición: batch
  • Tiempo máximo: 3 días

LICENSE
  1. This is free and unencumbered software released into the public domain.
  2.  
  3. Anyone is free to copy, modify, publish, use, compile, sell, or
  4. distribute this software, either in source code form or as a compiled
  5. binary, for any purpose, commercial or non-commercial, and by any
  6. means.
  7.  
  8. In jurisdictions that recognize copyright laws, the author or authors
  9. of this software dedicate any and all copyright interest in the
  10. software to the public domain. We make this dedication for the benefit
  11. of the public at large and to the detriment of our heirs and
  12. successors. We intend this dedication to be an overt act of
  13. relinquishment in perpetuity of all present and future rights to this
  14. software under copyright law.
  15.  
  16. THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
  17. EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
  18. MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.
  19. IN NO EVENT SHALL THE AUTHORS BE LIABLE FOR ANY CLAIM, DAMAGES OR
  20. OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
  21. ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR
  22. OTHER DEALINGS IN THE SOFTWARE.
  23.  
  24. For more information, please refer to <https://unlicense.org>
  25.  



wiki/licencias.1660660273.txt.gz · Última modificación: 2022/08/16 14:31 por srgualpa