En voilà une bonne nouvelle! (méthode directe pour le faire fonctionner sur la derniére ubuntu, vous savez...avec "Unity" comme "Unité avec les dev Gnome")
Pour les détails et questions naturelles qui se posent,il y a un petit thread reddit où j'ai péché l'info
Voila donc une floppée d'ordinateur qui va beaucoup mieux fonctionner sous GNU/Xorg/.../Linux même si ici c'était "impossible"
Et pour l'article wiki : Nvidia_Optimus
Peut-être que c'est une fausse joie
Hip Hip Hip! Hourra! Voici venu le journal multi-bookmarks!
# Plus précisément
Posté par Pierre Bourdon . Évalué à 10.
Optimus ne fonctionne pas totalement, dans le sens où il n'y a pas encore de bascule automatique entre la carte Intel à basse consommation et la carte Nvidia à forte consommation.
Faire fonctionner uniquement la carte Nvidia est un grand pas en avant (ça permet d'avoir enfin des performances 3D correctes sur les laptops munis de cette technologie), mais c'est encore un gros retard sur ce qui est fait sous Windows, notamment car la batterie s'épuise beaucoup plus vite maintenant que la carte Nvidia est tout le temps allumée.
L'auteur de l'article propose pour cela une solution qui ne fonctionne pas encore actuellement : faire tourner deux serveurs X, un qui utilise la carte Intel et un pour les applications 3D qui ont besoin de performance, qui utilise la carte Nvidia et qui n'est pas toujours lancé. C'est encore loin d'une bascule transparente, mais ça serait déjà très bien pour la plupart des utilisateurs. Et si j'ai bien compris, à moins de totalement changer l'architecture de X, proposer une bascule automatique entre les deux cartes est actuellement impossible. Wait and see!
[^] # Re: Plus précisément
Posté par pasScott pasForstall . Évalué à -10.
Ca fait rever dis donc, des packages qui viennent d'on ne sait trop qui, une procedure d'install longue comme ma bi^W comme un jour sans pain, tout ca pour un truc qui marche a moitie et en plus te pompe ta batterie aussi bien qu'une femme de petite vertue du quartier rouge.
Et le titre de l'article est "Optimus on Linux Problem Solved", ca en dit long!
If you can find a host for me that has a friendly parrot, I will be very very glad. If you can find someone who has a friendly parrot I can visit with, that will be nice too.
[^] # Re: Plus précisément
Posté par Pierre Bourdon . Évalué à 10.
Le titre de l'article a beau être un peu exagéré, j'ai du mal avec le reste de tes « critiques » :
[^] # Re: Plus précisément
Posté par Littleboy . Évalué à 3.
C'est juste qu'on a pas la meme definition de "fonctionnel".
En l'occurence, c'est plutot une version de test qui commence juste a marcher un peu. C'est une bonne avancee et il faut s'en rejouir, mais crier victoire, c'est s'exposer a ce que les gens avec un minimum de jugeote se moque de nous.
Dans la liste des points negatifs donnes dans l'article:
A part le point 1 qu'on peut considerer comme minime, les autres trucs sont beaucoup plus embetants. En particulier le point 5 (et c'est lie au 2 aussi) qui est plutot du genre critique, vu que la techno est justement la pour augmenter l'autonomie pour un usage hybride 3D/bureautique-web!
Et tant que les pilotes ne sont pas au point avec une integration avancee (liste d'applis qui ne font pas switcher sur la carte Nvidia par defaut par exemple, pour que ton FF ne vide pas ta batterie juste pour afficher une surface OpenGL, ce que la carte Intel fait tres bien toute seule normalement), avec une transition transparente entre les 2 cartes (sans redemarrer ton serveur X et toutes tes applis) et l'acceleration video en HW (pour pas vider la batterie la encore), ont peut pas dire que le probleme est resolu.
[^] # Re: Plus précisément
Posté par Judas Iscariote . Évalué à 2.
J'aurai du le précisé mais Il n'y a pas besoin de redemarrer X d'aprés ce que j'ai compris.
Un linuxfrien l'explique bien mieux que moi ici bas
[^] # Re: Plus précisément
Posté par houra . Évalué à 2.
Il me semble que le point 1 a quelque chose à voir avec ce qui est décrit dans la Faq de Wayland.
Pour le reste, je pense qu'on n'a pas fini de découvrir des bidouillages maisons.
L'idée d'un autre Xorg ( ce qui signifierait que le WM devrait être capable de lancer des applications dans d'autres serveurs X sur le bureau courant ) est une idée extrêmement intéressante, dans le sens où le serveur X et les extensions pourraient être rattachées chacune à un driver donc à un matériel, et dans le sens où fondamentalement X11 est déjà prévu pour pouvoir fonctionner comme ça ( suffit de faire un ssh -X pour s'en rendre compte ) .
Avec tout ce qu'implique cette évolution dans des bureaux modernes, évolution qui a été "oubliée" proprement par les développeurs qui se sont limités par essence à un seul serveur X sur un bureau. ( qui n'ont pas réfléchi aux possibilités de X ).
Et je pense que cette évolution des WM pourrait être réalisée en parallèle avec le développement de Wayland comme pile graphique concurrente de X.
Sedullus dux et princeps Lemovicum occiditur
[^] # Re: Plus précisément
Posté par pasScott pasForstall . Évalué à 1.
Si ce que c'est cense faire, c'est ne pas faire fonctionner ton matos comme il est cense marcher, alors oui, ca fait ce que c'est cense faire.
Le but d'optimus c'est d'avoir a la fois les perfs et la batterie, de facon totalement transparent. En gros, un truc hybride qui utilise la carte qui va bien quand il faut.
Dans le cas present, on a soit pas de 3d du tout (et donc je suppose une batterie de furieux) soit une 3d de ouf et une batterie qui va mourir tres vite. Pour changer, si j'ai bien compris, faut changer de session, ce qui est pour moi equivalent a un reboot.
Ca me parait etre totalement a l'oppose de la philosphie initiale du bouzin, tu trouves pas?
Pour ce qui est du "paquet qui vient d'ou ne sait ou", oui, ca reste un depot pas officiel du tout, maintenant par un gars dont c'est pas le boulot, qui n'a pas d'infrastructure de verification de son code.
Si ca te dit de faire tourner du code en root qui vient d'autre part de ta distro, grand bien t'en fasse, mais va falloir penser a arreter de se gargariser de la top securite de linux que le code est fiable parce que les distros y font gaffe...
If you can find a host for me that has a friendly parrot, I will be very very glad. If you can find someone who has a friendly parrot I can visit with, that will be nice too.
[^] # Re: Plus précisément
Posté par ymorin . Évalué à 5.
Tout projet commence avec des procédures longues et bidouillesques, pour finir par correctement scripter tout ca. C'est en partie aussi le rôle des distributions que d'empaqueter proprement tout ca pour le rendre transparent à l'installation et l'utilisation.
Même si la procédure sur le blog est aujourd'hui un peu longue et cryptique, elle va forcément être peaufinée au fur et à mesure que le support progresse. Bientôt, il ne restera même plus rien à taper ou éditer pour avoir le support d'Optimus sous Linux.
Hop,
Moi.
[^] # Re: Plus précisément
Posté par houra . Évalué à 7.
Mouais c'est là où j'ai décroché aussi.
Que des gens se démènent pour optimiser la procédure de dual card ou utilisant screen ( tant que les wm sont pas capables de gérer 25 serveurs X ) , c'est bien, on n'a pas fait le tour des possibilités de Xorg.
Mais te répéter quelque chose de faux pour te rassurer au mépris des descriptions réelles par le patron de NVidia lorsqu'il a sorti sa technologie sous Windows et MacOS, ça, non, je ne comprends pas.
Optimus c'est quoi ?
Optimus, c'est seul l'IGP Intel inclu dans ses processeurs fonctionne, l'autre IGP-GPU ( NVidia ) est éteint la plupart du temps ( courant coupé, dépenses énergétiques pour alimenter l'IGP-GPU NVidia proches de zéro Watts ).
Puis lorsque tu veux utiliser le GPU NVidia, par exemple à cause de VLC, ou de OpenArena, ou de toute autre combinaison, celui-ci se met en marche automatiquement, et ton application que tu viens de lancer sur ton bureau actif utilise le GPU NVidia. ( toutes les applications peuvent alors utiliser le GPU NVidia et se passer du GPU Intel, ça change rien au concept ) , mais dans les faits, c'est l'application gourmande en calculs parallèles qui pilote le fonctionnement ou pas du GPU NVidia .
Sur le même espace de travail, sans aucune interruption de service pour l'utilisateur.
C'est ça optimus.
Donc non, par rapport à la définition NVidiesque d'Optimus, ça ne marche pas du tout pour ce que c'est sensé faire .
Et à cause du problème de buffers inhérents à la version actuelle du protocole X11, ça ne marchera jamais correctement pour ce que c'est sensé faire avec Xorg.
Sedullus dux et princeps Lemovicum occiditur
[^] # Re: Plus précisément
Posté par Ph Husson (site web personnel) . Évalué à 2.
C'est possible d'avoir des détails ?
[^] # Re: Plus précisément
Posté par boq . Évalué à 3.
Je me permet de donner le lien d'un de ses commentaires (j'avoue ne pas avoir tout compris mais il me semble que ça répond à ta question)
https://linuxfr.org/nodes/84723/comments/1212048
[^] # Re: Plus précisément
Posté par flagos . Évalué à 6.
Et justement, Wayland n'est pas censé résoudre cette insuffisance du serveur X ?
[^] # Re: Plus précisément
Posté par Ph Husson (site web personnel) . Évalué à 2.
Il parait, même si pour l'instant j'ai toujours pas trouvé comment ils voulaient/pouvaient résoudre ce problème.
# Yata!!!
Posté par boq . Évalué à 5.
Épatant. Apparemment ça marche aussi avec nouveau mais j'ai des performances pas terrible.
Intel GMA HD
NVIDIA GeForce GT330M
OpenArena tourne au alentours de 30fps (alors qu'il tourne à 125 confortablement avec la carte intel.)
Pour la video c'est beaucoup mieux. J'ai regardé une video qui avait la particularité de faire ramer mon ancien laptop et dont Mplayer me donne comme caractéristiques:
et c'est quasi nickel (2 mini freeze). La même vid tourne parfaitement avec la carte Intel.
Est-ce que ça reflète le même résultat que pour ceux qui utilisent nouveau? (bon pour la vidéo mais troidé pas au point?)
Je vais essayer avec le driver proprio.
A noter que non, l'accélération avec la carte Intel n'est pas désactivée. Je suppose que c'est dû à une incompatibilité avec les libs OpenGL livrées avec le driver proprio (il n'utilise pas Mesa)
[^] # Re: Yata!!!
Posté par boq . Évalué à 4.
Okay j'y suis presque. Je n'ai plus l'accélération avec la Intel. Par contre la Nvidia ne fonctionne toujours pas. :+)
[^] # Re: Yata!!!
Posté par boq . Évalué à 10.
Bon bon bon. Ça ne fonctionne vraiment pas avec les drivers proprios. X ne démarre pas le screen attaché au driver nvidia.
Fonctionnement sommaire
Au démarrage de X on créé 2 Screen. l'un poussé par le driver intel et l'autre par le driver nvidia (ou nouveau). Dans la section ServerLayout on les met les deux en route:
Ensuite l'astuce est d'utiliser VirtualGL qui, au contraire de VNC et autres, dirige les commandes et données 3D vers la carte accélératrice 3D du server, puis envoie les images rendues vers la machine cliente.
Ici serveur et client sont la même machine. La carte nvidia effectue le boulot, la carte intel l'affiche.
Pour faire rendre la 3D à la carte nvidia, il suffit de prefixer
vglrun
à une commande graphique. Pas besoin donc de sortir de sa session pour utiliser la carte nvidia comme écrit dans des commentaires plus haut.[^] # Re: Yata!!!
Posté par ymorin . Évalué à 2.
Flute, tu es déjà arrivé à une note de 10. Je ne peux pas te pertinenter.. :-p
Bravo, et merci pour les explications !
[^] # Re: Yata!!!
Posté par foutaises . Évalué à 0.
Mais du coup les deux cartes sont allumées ?
Quid de la performance en autonomie ?
[^] # Re: Yata!!!
Posté par boq . Évalué à 2.
Effectivement les 2 cartes sont en route. Il y a surement moyen de se faire un script qui allume et éteint la carte en s'aidant de vga_switcheroo ou acpi_call mais je ne suis pas allé jusque là.
Je n'ai pas testé l'autonomie car je n'y ai juste pas pensé. Mon utilisation est assez sédentaire.
Le driver proprio a finit par fonctionner et donner de bon résultats mais pas moyen de faire fonctionner quakelive quand il est là donc pas très intéressant pour moi.
Donc j'ai juste arrêté mes tests pour le moment en continuant à lurker sur un peu tout ce qui se fait en la matière.
[^] # Re: Yata!!!
Posté par patrick.allaert . Évalué à 0.
Préfixer le démarrage d'un programme avec vglrun... oui mais... dans le cas d'un bureau 3D comme on peut l'avoir avec KDE et les effets de bureaux, c'est possible?
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.