Bonjour.
Je cherche à avoir de l'accélération 3D sous Debian Bookworm, pour travailler avec Blender.
Je dois me faire payer une nouvelle station de travail et donc choisir mon matos.
J'aimerai autant ne pas me planter.
Je vais présenter 2 devis, un pour une tour, un pour un laptop.
Mon principal problème est de savoir quelle carte graphique je vais chercher à avoir, dans la tour ou dans le laptop.
Est-ce que tu connais des modèles de cartes graphiques, pas forcément le top, qui fonctionnent bien avec l'accélération 3D sous Debian Bookworm ou Bullseye ?
Merci d'avance !
# AMD
Posté par 🚲 Tanguy Ortolo (site web personnel) . Évalué à 9.
Aux dernières nouvelles que j'ai sur ce sujet, qui datent peut-être un peu :
Bref, mon conseil en découle directement : prends une carte graphique AMD. Mais vérifie d'abord son support sous Debian, histoire d'éviter une mauvaise surprise.
[^] # Re: AMD
Posté par Anthony Jaguenaud . Évalué à 3.
Les nouvelles cartes ARC de intel ont l’air bien. Par contre, ayant une nvidia, je ne sais pas comment fonctionne le driver.
Je pense que ma prochaine carte sera une ARC, mais pas avant 3—6 ans…
Donc pas de retour d’expérience de mon côté.
[^] # Re: AMD
Posté par Brunus . Évalué à 1.
Ha merci !
Intel ARC je ne connaissais pas, je vais regarder.
[^] # Re: AMD
Posté par Brunus . Évalué à 2.
Hello !
Merci pour ce commentaire qui résume bien la situation.
Situation dont je suis bien au courant, utilisant du Linux depuis 1998.
Ce que je cherche plus c'est un retour d'expérience sur : Bookworm et Bullseye, avec un ou des modèles précis de cartes graphique, et si possible avec Blender.
# Laptop
Posté par hitmanu . Évalué à 1. Dernière modification le 19 avril 2023 à 17:47.
évite les portables avec la technologie optimus Nvidia, c’est ce que j’ai et ça pose plus de problème qu’une carte vidéo dédiée.
une tour va te permettre de le modifier aux files du temps c’est bien mieux.
petit lien
Merci aux personnes qui mon aidé a trouvé des solutions pour essayer d’écrire sans faute d’orthographe.
[^] # Re: Laptop
Posté par 🚲 Tanguy Ortolo (site web personnel) . Évalué à 7. Dernière modification le 19 avril 2023 à 17:51.
Alors pour info, Optimus est une technologie Nvidia, et visiblement, comme tout ce qui est Nvidia, c'est galère sous Linux.
Côté AMD, l'équivalent s'appelle Hybrid Graphics, et ça marche juste impeccablement.
Même si ça y ressemble, je ne fais pas exprès de faire de la publicité pour AMD. En fait, Nvidia y arrivent très bien tout seuls, à faire la pub de leur concurrent pour les linuxiens.
[^] # Re: Laptop
Posté par Brunus . Évalué à 1.
Salut !
Meri pour ces commentaire.
J'ai un laptop Lenovo avec du Nvidia Optimus et j'ai bien pris la mesure de la galère.
Comme je disais dans un autre commentaire : Je suis à la recherche de retour d'expériences avec des modèles précis de cartes graphiques, sur Bookworm et Bullseye, et si possible avec Blender.
J'ai beaucoup de retours généralistes, y compris sur IRC ou Mastodon, mais jusqu'à présent personne ne m'a dit un tru du genre : J'ai une Radeon machintruc, est c'est top sous Linux/Debian.
C'est quand même vachement étrange…
# et CUDA, HIP?
Posté par ted (site web personnel) . Évalué à 4.
Je ne suis pas toute l'actualité dans le domaine, mais dans un cadre pro il serait peut être préférable d'utiliser du nVidia.
AMD a fait pas mal de progrès avec ses pilotes Linux libres pour l'accélération 3D, mais il a (avait?) beaucoup de retard concernant l'accélération des calculs sur GPU. Et de son côté Blender était très optimisé pour CUDA, le système propriétaire de nVidia. Je viens de voir que le système d'AMD, HIP, est maintenant disponible dans Blender et sous Linux, je ne sais cependant pas ce que ça vaut au niveau performances, tu devrais avoir des infos ici: https://www.phoronix.com/review/blender-32-gpus.
Après ça dépend surtout de si tu veux faire des rendus avec Blender et avec quel moteur. Le nouveau moteur Eevee se contentera de l'accélération OpenGL, mais Cycles aura besoin d'un système de rendu GPU pour être vraiment utilisable.
Un LUG en Lorraine : https://enunclic-cappel.fr
[^] # Re: et CUDA, HIP?
Posté par tata . Évalué à 4.
J'avais une carte NVIDIA. IL y a deux ans, Linux a commencé à planter sans cesse avec cette carte. J'ai acheté une carte AMD d'occasion, depuis, plus aucun souci. NVIDIA, c'est à éviter.
[^] # Re: et CUDA, HIP?
Posté par Brunus . Évalué à 1.
Hello est ce que tu peux me donner le modèle de ta carte AMD ? Est ce que c'est sur une carte mère avec proc Intel ou avec de l'AMD ?
Merci d'avance !
[^] # Re: et CUDA, HIP?
Posté par tata . Évalué à 2.
https://www.videocardbenchmark.net/gpu.php?gpu=Radeon+RX+460&id=3557
[^] # Re: et CUDA, HIP?
Posté par Brunus . Évalué à 1.
Hello !
Merci pour le lien.
Bon je n'ai rien compris au benchmark et du coup je ne sais pas quelles cartes ont pleinement rempli le contrat.
[^] # Re: et CUDA, HIP?
Posté par ted (site web personnel) . Évalué à 4. Dernière modification le 20 avril 2023 à 19:17.
Les tests consistent principalement à effectuer le rendu de scenes qui sont reconnues pour ça (BMW, Classroom), avec le moteur Cycles. On voit que la plus rapide des AMD testée est presque aussi performante que la plus lente des nVidia testée.
Mais ça ne correspond peut-être pas à ton cas d'usage, la question est: est-ce que tu prévois de faire des rendus avec Cycles?
Un LUG en Lorraine : https://enunclic-cappel.fr
[^] # Re: et CUDA, HIP?
Posté par Brunus . Évalué à 1.
Alors oui je peux avoir à faire du rendu avec Cycle. Mais je suppose que ce sera très rare.
Merci pour les explications.
Je rode toujours à la recherche du modèle de Radeon qui sera facilement installée sous Debian 12.
J'ai compris que c'était plus simple sous Ubuntu, les paquets étants dans les dépots.
Et j'ai vu un tuto horrible qui propose de mixer du paquet Ubuntu, Bookworm et Sid.
# Avis Debian + NVidia
Posté par cg . Évalué à 10. Dernière modification le 20 avril 2023 à 21:47.
Hello,
voici des configs que j'ai pu voir tourner sur Debian, avec Blender et d'autres logiciels 3D, dans un cadre professionnel (studio de VFX dans lequel je travaillais). Attention : je ne suis pas graphiste, mais j'ai maintenu une centaine de stations de travail dans ce cadre.
Toutes ces cartes fonctionnent très bien avec les drivers proprio, qui sont relativement simples à installer sur Debian de nos jours (activer le repo non-free). Ceci pour l'affichage et le calcul via Cuda.
Je peux juste te mettre en garde sur le tearing vidéo qui est plus problématique avec les GeForce qu'avec les Quadro. Niveau tarif ce n'est pas la même bien sûr :).
Enfin, sur les laptops avec Optimus, sache que certains modèles de la gamme Dell Precision ont une option dans le BIOS pour désactiver la carte Intel et passer sur la NVidia en principal. Au pire, ce que j'avais fait est d'utiliser la carte Intel comme passe-plat pour la carte NVidia, qui reste alors allumée en permanence (config dite "PRIME"). La conso est à la hausse, mais tu tiens 4-5 heures quand même sur batterie.
Je n'ai pas d'avis sur AMD, car pas eu l'occasion de tester, même si je préfère l'attitude de ce fabricant. Je ne connais aucun studio d'animation et de VFX qui en utilise à part dans les iMacs un peu anciens.
Voilà pour un retour « circonstancié » :p.
[^] # Re: Avis Debian + NVidia
Posté par Brunus . Évalué à 1.
Super ! Merci pour le retour précis.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.