
Le solveur GPU natif de Fluent peut accélérer de nombreux cas basés sur la pression. Il ne couvre pas encore tous les modèles physiques ou maillages, et la VRAM est importante. Ce guide montre comment exécuter Fluent sur un service informatique tel que Compute sans conjectures, comment confirmer que le chemin du GPU est actif et ce qu'il faut vérifier avant de procéder à la mise à l'échelle.
Fluent évolue rapidement. Considérez cette page comme une liste de contrôle pratique. Vérifiez toujours la couverture du modèle par rapport aux notes de publication de la version installée.
Généralement, votre tâche s'exécute dans une image de conteneur que vous choisissez.
Tu le fais pas J'ai besoin de Docker‑in‑Docker. Le pilote hôte est généralement fourni par votre fournisseur informatique.
Définissez la bonne variable d'environnement dans celle de votre modèle Environnement → Variables et connectez-vous via VPN ou un Tunnel SSH (voir le guide des licences).
# Exemple (les ports sont des exemples ; utilisez vos valeurs épinglées)
ANSYSLMD_LICENSE_FILE= 1055@licenses.my-org.edu
En cas de tunnellisation, pointez sur 1055 @localhost et conservez le port fournisseur que vous avez transféré.
Apportez Fluent vous-même : HiveNet ne le distribue pas.
Gardez les licences et les installateurs hors de portée des images publiques. Montez-les au moment de l'exécution.
Les séries par lots sont reproductibles et faciles à automatiser. Préparez un journal (run.jou) et un correspondant cas/données (.cash .5/.dat.h5). Démarrez Fluent depuis la coque du conteneur :
# 3D, sans tête, tenez un journal
fluent 3d -g -i run.jou
3d ou 2e selon votre modèle.-g est headless (pas d'interface graphique).- je dirige .jou exécute votre journal.Vous préférez l'interface graphique ? Lancement 3D fluide (non -g) à l'intérieur du conteneur et utilisez votre flux de travail de bureau à distance. Pour les mailles lourdes, le batch est toujours préférable.
Utilisez le bouton documenté de votre version Fluent pour activer l'accélération GPU. Dans les versions récentes, il y a une case à cocher dans Général → Accélération GPU et une commande TUI correspondante. Faites preuve de simplicité pour la première utilisation :
Confirmez qu'il est actif: dans la console/le journal Fluent, vous devriez voir des messages indiquant qu'un périphérique GPU a été initialisé et que les noyaux du solveur sont déchargés. Si les journaux indiquent des chemins utilisant uniquement le processeur, la fonction ou le modèle que vous avez sélectionné n'est peut-être pas encore couvert par le GPU.
Chiffres
VRAM et maillage
nvidia-smi pour l'utilisation de la mémoire.Auto‑évaluation
Calcul des coûts
cost_per_converged_case = prix_par_heure × wall_hours
Il s'agit d'un modèle, et non un fichier déroulant : remplacez-le par les commandes adaptées à votre physique et à votre version.
/file/read-case-data case.cas.h5
; Activez l'accélération GPU via TUI pour votre version
; (Utilisez la commande documentée ou basculez dans Général → Accélération GPU)
/solve/initialiser/initialiser-flow
/résolver/itérer 1000
/file/write-case-data out.cas.h5
/exit oui
Gardez une note sur les méthodes avec : la version Fluent, le nom du boîtier, les modèles physiques, l'indicateur GPU activé et les critères d'arrêt.
« Le périphérique GPU est introuvable/non initialisé »
Confirmer nvidia-smi fonctionne à l'intérieur du conteneur. Le modèle doit disposer d'un espace utilisateur CUDA et l'hôte doit passer par le pilote (Compute le fait). Si vous utilisez votre propre image, associez CUDA à votre pilote dans la mesure du possible.
« Fonctionnalité non disponible en mode GPU »
Éteignez le modèle non pris en charge ou exécutez le boîtier sur le processeur pour cette étude.
Mémoire insuffisante (OOM)
Réduisez la taille du maillage ou les sorties ; ou sélectionnez un profil avec une VRAM plus importante.
Erreurs de licence
Vérifiez votre ANSYSLMD_LICENSE_FILE et votre tunnel VPN/SSH. Consultez le guide des licences.
Plus lent que le processeur
Tous les cas n'en bénéficient pas. Profilez d'abord avec un petit boîtier ; pensez au processeur si la physique/le maillage ne correspondent pas bien au chemin du GPU.
matériel :
processeur graphique : « <model>(<VRAM>Go) »
chauffeur : « <NVIDIA driver version>»
<CUDA version>cuda : « »
processeur : « <model/cores> »
logiciel :
fluent : « <version>(solveur GPU activé) »
os_image : « Ubuntu 24.04 LTS (CUDA 12.6) »
licences :
ansys : « ANSYSLMD_LICENSE_FILE= 1055@licenses.my-org.edu »
courir :
mode : « batch »
journal : « run.jou »
notes : « basé sur la pression, précision unique, processeur graphique unique »
sorties :
<hh:mm>heures_horaires : « »
<value>iter_par_seconde : « »
<residuals/metric>critères_convergents : « »
Démarrez une instance GPU avec un modèle compatible CUDA (par exemple, Ubuntu 24.04 LTS/CUDA 12.6) ou votre propre image GROMACS. Profitez d'une facturation flexible à la seconde avec modèles personnalisés et la possibilité de démarrer, d'arrêter et de reprendre vos sessions à tout moment. Vous n'êtes pas sûr des exigences du FP64 ? Contactez le support pour vous aider à sélectionner le profil matériel le mieux adapté à vos besoins informatiques.