Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
leria:centre_de_calcul:cluster [10/10/2019 11:44]
Chantrein Jean-Mathieu [FAQ]
leria:centre_de_calcul:cluster [06/07/2020 10:53] (Version actuelle)
Chantrein Jean-Mathieu [IMPORTANT: Disponibilité et politique de gestion des ressources]
Ligne 100: Ligne 100:
 <​note>​Pour des raisons pratiques, nous nous loguons avec les mêmes identifiants que pour notre ENT. En cas de panne du serveur ldap de l'​Université d'​Angers,​ nos services devraient être tout de même disponibles pour tout usager qui s'est déjà logué au moins une fois sur ces mêmes services.</​note>​ <​note>​Pour des raisons pratiques, nous nous loguons avec les mêmes identifiants que pour notre ENT. En cas de panne du serveur ldap de l'​Université d'​Angers,​ nos services devraient être tout de même disponibles pour tout usager qui s'est déjà logué au moins une fois sur ces mêmes services.</​note>​
  
 +<note important>​Pour une meilleure sécurité et pour éviter d'​être banni après plusieurs mauvais mot de passe, je vous conseille d'​utiliser une authentification par clé ssh:
  
 +https://​www.linode.com/​docs/​security/​authentication/​use-public-key-authentication-with-ssh/</​note>​
 ==== Slurm: premiers tests et documentation ==== ==== Slurm: premiers tests et documentation ====
  
Ligne 255: Ligne 257:
 Il est tout a fait possible de surcharger ces valeurs par défaut avec les options --mem-per-cpu et --time. Toutefois, ​ Il est tout a fait possible de surcharger ces valeurs par défaut avec les options --mem-per-cpu et --time. Toutefois, ​
  
-<note important>​ATTENTION:​ vous ne devriez pas surévaluer les ressources de vos jobs. En effet, slurm fonctionne avec une notion de partage juste (fair share): si vous réservez des ressources, peu importe que vous les utilisiez ou non. Lors de vos prochaines soumissions,​ slurm considérera que vous aviez effectivement consommé ces ressources. Potentiellement,​ vous pourriez être considéré comme un utilisateur gourmand et être moins prioritaire que un utilisateur ayant correctement définit ses ressources pour la même quantité de travail effectué.+<note important>​ATTENTION: ​ 
 +  * vous ne devriez pas surévaluer les ressources de vos jobs. En effet, slurm fonctionne avec une notion de partage juste (fair share): si vous réservez des ressources, peu importe que vous les utilisiez ou non. Lors de vos prochaines soumissions,​ slurm considérera que vous aviez effectivement consommé ces ressources. Potentiellement,​ vous pourriez être considéré comme un utilisateur gourmand et être moins prioritaire que un utilisateur ayant correctement définit ses ressources pour la même quantité de travail effectué
 +  * Si vous avez un grand nombre de job à faire, **vous devez utiliser la soumission par array job**. 
 +    * Si ces jobs ont de grandes durées d'​exécutions (plus de 1 journée), **vous devez limiter le nombre d’exécution en parallèle afin de ne pas saturer le cluster**. Nous laissons la possibilité aux utilisateurs de fixer cette limite, mais en cas de problème de partage de ressources avec les autres utilisateurs,​ **nous supprimerons les jobs ne respectant pas ces conditions**.
 </​note>​ </​note>​
  
Ligne 522: Ligne 527:
  
 Par défaut, il est impossible de se connecter en ssh directement sur les nœuds de calcul. Cependant, si c'est justifié, nous pouvons facilement faire des exceptions si celles ci sont temporaires. Dans ce cas, merci de faire une demande explicite à technique [at] info.univ-angers.fr Par défaut, il est impossible de se connecter en ssh directement sur les nœuds de calcul. Cependant, si c'est justifié, nous pouvons facilement faire des exceptions si celles ci sont temporaires. Dans ce cas, merci de faire une demande explicite à technique [at] info.univ-angers.fr
 +
 +Les utilisateurs ayant un accès en ssh doivent être abonnés à la liste calcul-hpc-leria-no-slurm-mode@listes.univ-angers.fr.
 +Pour s'​inscrire à cette liste de diffusion, il suffit d'​envoyer un mail à sympa@listes.univ-angers.fr avec pour objet: subscribe calcul-hpc-leria-no-slurm-mode Nom Prénom
 +
 +__Règle par défaut:__ on ne lance pas un calcul sur un serveur sur lequel tourne déjà un calcul d'un autre utilisateur,​ **même si celui-ci n'​utilise pas toute les ressources**.
 +Exception pour les processus boinc. Ces processus se mettent en pause lorsque vous exécutez vos calculs.
 +
 +La commande htop vous permet de savoir qui calcule avec quelles ressources et depuis combien de temps.
 +
 +Si vous avez un doute, contactez l'​utilisateur qui calcule directement par email ou via la liste calcul-hpc-leria-no-slurm-mode@listes.univ-angers.fr
  
 ==== Cuda ==== ==== Cuda ====
Ligne 532: Ligne 547:
  
 Ces nœuds sont pour l'​instant hors des listes de soumissions de slurm (bien que la partition gpu existe déjà). Pour pouvoir vous en servir, merci d'en faire la demande explicite à technique [at] info.univ-angers.fr Ces nœuds sont pour l'​instant hors des listes de soumissions de slurm (bien que la partition gpu existe déjà). Pour pouvoir vous en servir, merci d'en faire la demande explicite à technique [at] info.univ-angers.fr
- 
-Listes des utilisateurs autorisés à se servir des nœuds gpu actuellement (en ssh): 
-  * benoit.damota 
-  * jean-michel.richer 
-  * o.goudet 
  
 ==== Nœud RAM ==== ==== Nœud RAM ====
Ligne 542: Ligne 552:
  
 Ce nœud est accesible par soumissions via slurm (partition ram). Pour pouvoir vous en servir, merci d'en faire la demande explicite à technique [at] info.univ-angers.fr Ce nœud est accesible par soumissions via slurm (partition ram). Pour pouvoir vous en servir, merci d'en faire la demande explicite à technique [at] info.univ-angers.fr
- 
-Listes des utilisateurs autorisés à se servir des nœuds ram actuellement (en ssh): 
-  * benoit.damota (pour boinc) 
-  * gilles.hunault (pour test) 
- 
-Listes des utilisateurs autorisés à se servir des nœuds ram actuellement (via slurm): 
-  * frederic.lardeux 
-  * gilles.hunault 
  
 ==== Cplex ==== ==== Cplex ====
leria/centre_de_calcul/cluster.1570700640.txt.gz · Dernière modification: 10/10/2019 11:44 par Chantrein Jean-Mathieu
CC Attribution-Noncommercial-Share Alike 4.0 International
Driven by DokuWiki Recent changes RSS feed Valid CSS Valid XHTML 1.0