You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Quand on demande un apprentissage sur CPU (trainer.accelerator=cpu), mais qu'il y a quand même des gpu demandés dans la config (trainer.gpus: 2) et que les gpus ne sont pas disponible, il refuse de se lancer en expliquant que les gpus ne sont pas là
The text was updated successfully, but these errors were encountered:
MichelDaab
changed the title
cherche à affecer les gpu même quand accelerator=cpu
cherche à affecter les gpu même quand accelerator=cpu
Sep 7, 2023
C'est la conséquence de différentes redondances dans l'API du Trainer de Pytorch-Lightning. C'est un problème qui avait été idenfié, et depuis mars 2022 le flag gpus est d'ailleurs déprécié (cf. cette PR), et la manière par défaut d'utiliser des devices est de spécifier trainer.devices=k trainer.accelerator=cpu/gpu.
C'est un soucis sans grande conséquence autre que de la confusion pour nous actuellement...
Si on met à jour Pytorch et Pytorch-Lightning ça peut être l'occasion de s'adapter à cette nouvelle API. D'ailleurs, dans la version actuelle de PLT, le flag gpus ne fait plus partie de l'API du Trainer et ce n'est pas clair si les mainteneur ont laissé la possibilité d'utiliser le flag gpus, donc il est possible qu'une mise à jour oblige à passer à la nouvelle API.
CharlesGaydon
changed the title
cherche à affecter les gpu même quand accelerator=cpu
Configuration : cherche à affecter les gpu quand 'trainer.gpus' est spécifié même quand 'accelerator=cpu'
Dec 18, 2023
Quand on demande un apprentissage sur CPU (trainer.accelerator=cpu), mais qu'il y a quand même des gpu demandés dans la config (trainer.gpus: 2) et que les gpus ne sont pas disponible, il refuse de se lancer en expliquant que les gpus ne sont pas là
The text was updated successfully, but these errors were encountered: