
Abaqus peut utiliser des GPU NVIDIA pour certaines parties de Abaqus/Standard flux de travail. Cela n'accélère pas tous les modèles et les détails de configuration sont importants. Ce guide explique comment le faire fonctionner proprement, quels sont les avantages qui ont tendance à être bénéfiques et comment éviter les problèmes habituels.
Les versions diffèrent. Suivez toujours vos notes de publication pour connaître la couverture exacte des fonctionnalités et les indicateurs. \
Généralement, sur les loueurs de GPU, votre tâche s'exécute à l'intérieur d'un contenant. Vous n'avez pas besoin de Docker‑in‑Docker ; le pilote hôte est transmis.
NVIDIA Visible_Devices = TousNVIDIA Driver_Capabilities=Calcul, utilitaireContrôle de santé à l'intérieur du conteneur en marche :
nvidia-smi
Définissez la variable d'environnement dans votre modèle et connectez-vous via un VPN ou un tunnel SSH conformément à votre politique informatique (voir le guide des licences) :
ABAQUSLM_LICENSE_FILE= 27002@licenses.my-org.edu # exemple de port @server
En cas de tunneling, utilisez 27002 @localhost avec le port exact que vous avez transféré.
Apportez vous-même Abaqus.
CHEMIN/wrappers en conséquence.Éloignez les fichiers de licence et les programmes d'installation des images publiques. Montez des secrets au moment de l'exécution.
L'utilisation du GPU est configurée au lancement et/ou via les paramètres d'environnement de votre version. Une méthode courante consiste à demander un GPU lors du démarrage d'un Norme analyse. Exemple de squelette :
# Exemple : lancez une analyse standard avec CPU+GPU (ajustez à votre version)
abaqus job=model input=model.inp cpus=8 gpus=1 interactif
Remarques :
processeur graphique = <N> argument de lancement de style. Consultez la documentation de votre version.Vérifiez qu'il est actif
nvidia-smi pendant la résolution.Susceptible d'en bénéficier
Moins susceptibles d'en bénéficier
Exécutez un dossier représentatif sur CPU uniquement et CPU+GPU avec des réglages identiques.
coût_per_case = prix_par_heure × wall_heures
Conservez un bloc de méthodes court avec : la version d'Abaqus, la commande de travail, les threads du processeur, les GPU, le modèle GPU/la VRAM et les détails de l'instance/de l'image.
« Le GPU n'a pas été détecté ou n'a pas pu être initialisé »
Confirmer nvidia-smi fonctionne, le conteneur est prêt pour CUDA et vous avez lancé un Norme tâche avec le GPU activé pour votre version.
« Pas d'accélération »
Votre modèle se trouve peut-être sur une trajectoire de solveur que le GPU n'accélère pas ou qu'il est trop petit ou trop lié aux E/S. Profilez avec CPU ou CPU+GPU et décidez de manière pragmatique.
Mémoire insuffisante (VRAM)
Utilisez un GPU avec plus de VRAM, réduisez les sorties ou ajustez la taille du modèle en fonction des contraintes de validation.
Erreurs de licence
Vérifiez ABAQUSLM_LICENSE_FILE et accessibilité du réseau (VPN/tunnel). Consultez le guide des licences.
matériel :
processeur graphique : « <model>(<VRAM>Go) »
chauffeur : « <NVIDIA driver>»
<CUDA version>cuda : « »
processeur : « <model/cores> »
logiciel :
abaqus : « <version>(Standard) »
image : « Ubuntu 24.04 LTS (CUDA 12.6) »
licences :
FICHIER DE LICENCE ABAQUSLM : « 27002@licenses.my-org.edu »
courir :
cmd : « abaqus job=model input=model.inp cpus=8 gpus=1 interactif »
remarques : « GPU unique ; solveur standard »
sorties :
<hh:mm>heures_horaires : « »
iters_per_sec : « <... > »
convergence : « <criteria>»
Démarrez une instance GPU avec un modèle compatible CUDA (par exemple, Ubuntu 24.04 LTS/CUDA 12.6) ou votre propre image GROMACS. Profitez d'une facturation flexible à la seconde avec modèles personnalisés et la possibilité de démarrer, d'arrêter et de reprendre vos sessions à tout moment. Vous n'êtes pas sûr des exigences du FP64 ? Contactez le support pour vous aider à sélectionner le profil matériel le mieux adapté à vos besoins informatiques.