aussi bien sur une carte Arm64 toute neuve que sur mon portable
Le problème c'est de savoir déjà ce que ces appareils supportent réellement. Pour avoir joué avec des cartes ARM, les débits mesurées sont souvent en deça des specs annoncées (particulièrement en cas d'utilisation intensive et de saturation des ports).
Vérifie si tu as le même problème en utilisant un autre OS connu pour sa compatibilité avec UHS-III.
ÀMHA, un moyen de contourner la limitation de l'OS c'est d'utiliser un adaptateur USB 3 vers SD UHS-III : le système hôte ne négociant probablement que la communication USB entre le processeur et le controleur de l'adaptateur, laissant la communication SD/MMC (vitesse, tension, switch de la résistance de pull-up, etc.) se gérer entre le controleur de l'adaptateur et le controleur de la carte SD.
Les débits ne seront certainement pas maximum mais certainement meilleurs qu'avec la gestion native de l'OS.
Je parle de la compatibilité matérielle, pas des outils à disposition. Le jour où Apple n'aura plus besoin de CPU ou GPU génériques et tournera uniquement sur des puces custom (avec des instructions ou des firmwares propres à eux) ou ses propres processeurs comme sur Iphone/Ipad, s'en sera terminé des Hackintosh. Vu leur politique d'entreprise en terme de fermeture du matériel, ils le feront dès que possible.
(et non, pas besoin d'en avoir l'absolue nécessité pour préférer travailler avec macOS…)
Je parle dans un contexte de décision entrepreneuriale. Il faut être un gestionnaire inconscient pour développer son business sur un parc essentiellement composé de machines tournant sur OSx. C'est pas une question de préférences d'environnement de bureau mais de coûts structurels et de maintenance. Sur ce point, rien n'a changé depuis le passage de PowerPC à x86 et OSx reste cantonné à certains pôles, voire certains postes.
Surtout que OSx n'est vendu/installable que sur les bécanes Apple (faire un Hackintosh devient de plus en plus compliqué au fil des versions et c'est pas légal partout) et que celles-ci deviennent de moins en moins fiables et de plus en plus hors-de-prix comparées aux machines concurrentes.
Pour utiliser OSx de nos jours, il faut vraiment en avoir la nécessité comme par exemple avoir du matériel de traitement audio qui ne fonctionne qu'avec Protools.
Et pour répondre à Ambroise, la façon d'utiliser Puppet ne permet pas d'utiliser des modules de manière classique, je vais pas rentrer dans les détails, mais c'est compliqué.
Je veux bien des détails, parce que là comme ça, ça veut pas forcément dire grand chose.
Please restore discussion on the Security threads.
Pour me contre-dire moi-même
Tu l'avais déjà fait en fait.
Si tu avais lu avant de poster tu aurais vu que cette issue concernait les messages effacés dans les issues de l'attaquant.
La réalité c'est que ces issues ont vite été spammé de message inutile et qu'un admin a décidé de les supprimer. Il est allé trop vite et a supprimé des messages pertinents. La plupart ont été "restauré" avec des captures d'écran.
Puis Github a probablement supprimé le compte et les messages/issues de l'attaquant (suite à un signalement ?).
T'es un peu trop rapide pour critiquer les autres, on espère que t'auras jamais à subir ce genre de problème sur ton infra, mais si ça se produit t’inquiète pas qu’on sera là pour t’asséner nos conseils de hautes volées en terme de sécurité et de communication.
Là où je bosse actuellement, on n’utilise plus de clef SSH à part sur nos bastions, pour tous les autres serveurs on utilise des certificats (Facebook décrit leur utilisation dans Scalable and secure access with SSH).
Ça permet de leur donner une validité assez courte, de segmenter en différentes zones (il faut faire signer un certificats différent pour se connecter en root sur les bastions ou en user sur un serveur web).
Sur mon infra perso, je rejoins le commentaire précédent, Puppet fait le taff :
Les clefs PGP qui servent à signer les paquets ont aussi été compromises. L’attaque n’a pas eu de grosses conséquences en dehors de l’infrastructure de matrix.org, mais il aurait pu.
c'est peut-être la personne qui a passé le plus de temps sur un Desktop Linux de nous tous, et ce n'est pas parce qu'il développe le noyau que son utilisation du desktop est moins pertinente ou que l'avis d'un pseudo spécialiste du desktop aurait plus de crédit à ce sujet.
ensuite c'est peut-etre le controleur de la carte mere qui te limite ?
Si un adaptateur USB est utilisé la limitation peut aussi venir de son controleur voire de la vitesse du port USB utilisé. Une oxydation des broches (ou un câble défaillant) peut aussi forcer un mode de communication dégradé, comme une bonne vieille connexion UART, SPI ou I²C.
J'ai envie de dire qu'il existe un desktop Unix qui répond à toutes ces exigences : Mac OS X (en termes de touch and feel, moderne, fiable, eye candy, bien fini etc. pas en terme d'opensourceness).
Si même le créateur de Linux dit qu'il y'a encore des progrès à faire dans le desktop c'est que ça ne doit pas être exagéré.
Il y'a pour moi un problème majeur pour le développement d'un desktop digne de ce nom, c'est son financement. Je serais prêt à mettre jusqu'à 50/60 euros pour acheter un bureau parfaitement intégré et abouti. Le problème des bureaux Linux étant qu'au final ils sont le fruits de l'assemblage de plusieurs couches/briques/logiciels qui ne sont pas forcément développés dans un même esprit ou avec les même préoccupations.
Je pense qu'on atteint un peu les limites du libre à savoir que oui on peut avoir un bureau fonctionnel sous linux, mais si on veut un truc vraiment poussé, standardisé, testé (pas avec des finitions mal foutues quand on gratte un peu), bah il faut passer par la case porte-monnaie.
Les bugs, les fonctionnalités, le dev, ca prend du temps donc de l'argent, il est là le vrai problème selon moi.
Je m'en rappelle dans les années 2000 où à chaque fois on disait qu'on tenait le killer feature du desktop linux, rappelez vous de Eazel, Nautilus, RedCarpet, Ximian Connector, Linspire/Lindows etc… 25 ans après on y est toujours pas.
Et le fameux argument : oui t'as plein de bureaux tu peux choisir celui qui te plait , ouais bof. Je préfère un seul bureau bien fini, bien développé, qui m'oblige à faire un petit effort d’adaptation au début. Que d'avoir à en tester 15 qui auxquels il manquera toujours quelque chose par rapport à un autre et qui au final ne me satisferont pas.
Le marché du bureau Linux est trop petit pour se permettre d'avoir autant de fragmentation, et on constate le même souci actuellement avec Android… mais bon certains continuent de clamer le contraire et ne se rendent pas compte que c'est ce qui freine aussi sa progression.
L’attaquant s’est servit d’un exploit sur Jenkins pour infiltrer un premier serveur sur lequel (si j’ai bien compris), un admin avait laissé une connexion SSH ouverte avec forward d’agent. Depuis là il a pu utiliser l’agent SSH pour rebondir sur les autres serveurs.
C’est dommage, c’est quelque chose qui aurait pu être évité avec juste un peu d’hygiène informatique : utiliser un bastion, utiliser des certificats SSH avec une validé assez courte, désactiver le forward d’agent, activer du MFA, etc…
En attendant, ça ternit beaucoup leur image alors qu’ils avaient pas mal gagné en crédibilité avec l’annonce de l’utilisation de Matrix pour les communications au sein de l’administration française.
c'est vrai, c'est dégueulasse d'avoir oublier d'effacer les noms des pilotes d'apache qui tirait au canon de 60 sur des civils, dans un état de droit il faut suivre et respecter les lois. Le bombardement d'un hôpital talibans était parfaitement justifié, pas besoin de publier les nom des commandant et donneur d'ordre et ordre, sans dec et leur sécurité ? qqu un y pense ?
l’équipe qui a abattu un fermier en Afghanistan, par erreur, il y avait pas besoin de les mettre en danger avec la divulgation de leur nom ! que diable le père et la mère se consoleront en gardant leurs chèvres voila tout !
Assange est vraiment inconscient. Et les Abrahams qui roulaient sur les bléssés, honnêtement ce sont des allégations et la video tourné par l'armée américaine sans wikileaks, l'AFP se serais fait un plaisir de la publier sans donner aucun lieux et aucun nom.
les noms des gradés qui ont torturé dans la prison irakienne, franchement si ca c'est pas de l'anarchie, leur vie privée sont bouleversé maintenant. Ils avait droit aussi a un procès équitable.
parlons de l'AFP qui est plus pro, ya qqun qui a eu des infos avec eux déjà ? a part la Russie et le Venezuela évidement.
il y a encore qqun sur terre qui croit que une seules de ses informations aurait du être censurée ? l'excuse de la sécurité des criminel de guerre en mission, c'est pas mal ! ca plait bien et sa touche la ménagère de moins de 50 ans.
Il n'y a quasiment plus d'exclusivités sur le marché des consoles.
L'exclusivité peut être temporaire. Même chose que les jeux sur le EpycStore qui ont une exclusivité d'un an sur cette plate-forme de vente. Les jeux AAA sont souvent développés pour console et la version PC arrive après.
Il reste encore pas mal d'exclusivité Sony, puis il y a Nintendo qui continue de faire bande à part.
même en assemblant toi même tu auras du mal à atteindre un tel prix pour une configuration équivalente.
Tout l'avantage du PC c'est que tu n'est pas obligé de racheter une machine entière.
De plus il y a beaucoup de config d'occasion qui font encore très bien le café. Pas besoin de 6 cœurs, de 16Go de DDR4 et d'un SSD NVME pour faire mieux qu'une console actuelle, pas besoin non plus d'une RTX2060/GTX1070 ou d'une Vega 56. Ça c'est une config pour garder de la marge sur les futurs titres ou pour jouer dans une qualité graphique ou une fréquence bien plus haute que ce que permet une console.
Le milieu de gamme actuel se trouve au prix de l'ancien haut de gamme.
Quand je parle de milieu de gamme, je parle de ce qui se vend le plus, pas de la puissance. Une RX570, 580 ou GTX1060 permettent déjà une expérience meilleure avec les jeux AAA que sur les consoles actuelles et leurs prix ont beaucoup baissé face à la récente GTX1660.
Certes Nvidia a peu fait baisser les prix avec sa gamme Turing mais encore une fois, l'exigence de graphisme des joueurs PC est souvent bien plus élevée que celle des joueurs console.
Et aussi, il y a des catégories entières de jeux qui nécessitent quasi-obligatoirement un clavier et une souris pour pouvoir être joués : stratégie (surtout temps réel), gestion…
FPS (t’iras jouer à CS:GO à la manette), simulation (genre KSP, ou FSX/P3D), …
En fait, globalement, à part les jeu de plateforme et les jeux à la troisième personnes (genre AC ou TR), y quand même VACHEMENT besoin d’un clavier et d’une souris.
Donc oui, le 500€ c'est sous entendu dans l'époque contemporaine, où un PC pour jouer ne s'envisage pas vraiment en dessous de 700-800€.
La machine est souvent plus chère à l'achat mais le prix des portages PC est lui souvent moins cher et le surcoût de l'ordinateur peut s’amortir rapidement. Tout le business des consoles est sur le prix de ces logiciels (et les exclusivités) ainsi que les licences d'exploitation, la machine elle-même est quasiment vendue à perte.
Sans compter que bien souvent, à prix égal, le matériel est bien plus performant. Malgré l'optimisation sur console (chose qu'on voit surtout en fin de vie du produit), les jeux sont plus beau ou plus fluides sur PC que sur console même sans jouer avec la meilleure qualité graphique.
Donc certes un PC de jeu ne s'envisage pas en dessous du prix d'une console mais c'est en grande partie dû à l'exigence supérieure des joueurs PC car de nos jours il ne faut pas un matériel onéreux pour bénéficier des mêmes performances et l'achat d'une nouvelle carte graphique de milieu de gamme est souvent suffisant pour obtenir un rendu supérieur à la génération suivante de consoles.
Bref l'argument du prix n'a pas véritablement de sens contrairement à l'argument du "prêt à jouer".
E-penser, autre bon "vulgarisateur" de sciences sur Youtube
Bruce Benamran a un discours souvent difficile à suivre même quand on connait un peu le sujet (surtout quand il n'a pas de script), il balance parfois des choses fausses ou met en avant certaines hypothèses plutôt que d'autres (et que bien entendu il ne corrige pas malgré les commentaires), il ne cite pas ses sources et ces dernières années il était davantage obsédé par le nombre d'abonnés (comme Astronogeek) ou par la fiction (et sa grosse caméra de cinéma) que par la qualité du travail de vulgarisation (et non ce n'est pas un gros mot, quand on parle du latin vulgaire c'est le latin populaire) qu'il en a perdu une bonne partie de son public.
Bref, les guillemets je les auraient placé autour du mot « bon ».
Sinon ça fait des années (au moins quatre ou cinq) que régulièrement les vidéastes sur Youtube ont des problèmes avec le ContentID, la baisse de rémunération des pubs, l'algorithme, les features du site qui dégagent et les différents bugs. Même avant Peertube il y avait des alternatives. La question a se poser est : pourquoi n'ont-ils pas migré leur contenu ailleurs, au moins de manière partielle ?
J'ai du mal à plaindre ces créateurs, tout comme je n'ai aucune empathie pour un vendeur sur Amazon, Banggood ou Ebay.
Parce que la norme n'est pas sur les claviers physiques mais sur les dispositions de clavier.
Puis de manière pratique est-ce que le marché français pèse suffisamment dans le monde pour inciter les fabricants à développer un produit très différent ?
L'avantage pour les industriels des claviers 105-107-109 touches est que leur matrice de touches est compatible avec les ANSI 104 donc la seule adaptation est le nombre, la position, la forme et le marquage des touches sinon le reste du clavier est commun.
Note aussi que le décalage en soi n'était pas un problème tant qu'il était pile à la moitié de la rangée adjacente, la position des mains y est d'ailleurs plus proche des claviers ergo dits "en V inversé" (Λ, en lambda). De ce que j'ai pu constater ce sont les machines à écrire électriques IBM Selectric dans les années 50-60 qui ont introduit en standard ce décalage pour personnes qui ont deux mains droites.
[^] # Re: pourtant c'est dans la slide 22
Posté par Anonyme . En réponse au message cartes SD UHS sous Linux. Évalué à 3.
Le problème c'est de savoir déjà ce que ces appareils supportent réellement. Pour avoir joué avec des cartes ARM, les débits mesurées sont souvent en deça des specs annoncées (particulièrement en cas d'utilisation intensive et de saturation des ports).
Vérifie si tu as le même problème en utilisant un autre OS connu pour sa compatibilité avec UHS-III.
ÀMHA, un moyen de contourner la limitation de l'OS c'est d'utiliser un adaptateur USB 3 vers SD UHS-III : le système hôte ne négociant probablement que la communication USB entre le processeur et le controleur de l'adaptateur, laissant la communication SD/MMC (vitesse, tension, switch de la résistance de pull-up, etc.) se gérer entre le controleur de l'adaptateur et le controleur de la carte SD.
Les débits ne seront certainement pas maximum mais certainement meilleurs qu'avec la gestion native de l'OS.
[^] # Re: Problème de financement aussi
Posté par Anonyme . En réponse au journal le bureau linux n'est pas mort ce sont les chromebook. Évalué à 2.
Je parle de la compatibilité matérielle, pas des outils à disposition. Le jour où Apple n'aura plus besoin de CPU ou GPU génériques et tournera uniquement sur des puces custom (avec des instructions ou des firmwares propres à eux) ou ses propres processeurs comme sur Iphone/Ipad, s'en sera terminé des Hackintosh. Vu leur politique d'entreprise en terme de fermeture du matériel, ils le feront dès que possible.
Je parle dans un contexte de décision entrepreneuriale. Il faut être un gestionnaire inconscient pour développer son business sur un parc essentiellement composé de machines tournant sur OSx. C'est pas une question de préférences d'environnement de bureau mais de coûts structurels et de maintenance. Sur ce point, rien n'a changé depuis le passage de PowerPC à x86 et OSx reste cantonné à certains pôles, voire certains postes.
[^] # Re: Via puppet directement
Posté par Anonyme . En réponse au journal Gestion de clés ssh publiques (~/.ssh/authorized_keys). Évalué à 3.
Ah, c’est votre utilisation de Puppet qui pose problème en fait. J’avais compris que tu disais que Puppet, en soit, posait problème.
# sed ou awk
Posté par Anonyme . En réponse au message Ajouter le contenu d'un fichier dans un autre par ordre et numéro. Évalué à 3.
Tout est dans le titre.
Choisis ton outil et écris ton algorithme. Bon courage.
[^] # Re: Problème de financement aussi
Posté par Anonyme . En réponse au journal le bureau linux n'est pas mort ce sont les chromebook. Évalué à 1.
Surtout que OSx n'est vendu/installable que sur les bécanes Apple (faire un Hackintosh devient de plus en plus compliqué au fil des versions et c'est pas légal partout) et que celles-ci deviennent de moins en moins fiables et de plus en plus hors-de-prix comparées aux machines concurrentes.
Pour utiliser OSx de nos jours, il faut vraiment en avoir la nécessité comme par exemple avoir du matériel de traitement audio qui ne fonctionne qu'avec Protools.
[^] # Re: Financement
Posté par Anonyme . En réponse au journal Matrix.org piraté. Évalué à 2.
C'est ce qui a été fait.
# Wheezy
Posté par Anonyme . En réponse au message Configuration IPsec. Évalué à 3.
Wheezy n'est plus supporté par Debian depuis presque une année, est-ce qu'une dist-upgrade de ton système n'est pas envisageable ?
[^] # Re: Via puppet directement
Posté par Anonyme . En réponse au journal Gestion de clés ssh publiques (~/.ssh/authorized_keys). Évalué à 5.
Je veux bien des détails, parce que là comme ça, ça veut pas forcément dire grand chose.
[^] # Re: Financement
Posté par Anonyme . En réponse au journal Matrix.org piraté. Évalué à 3.
Tu l'avais déjà fait en fait.
Si tu avais lu avant de poster tu aurais vu que cette issue concernait les messages effacés dans les issues de l'attaquant.
La réalité c'est que ces issues ont vite été spammé de message inutile et qu'un admin a décidé de les supprimer. Il est allé trop vite et a supprimé des messages pertinents. La plupart ont été "restauré" avec des captures d'écran.
Puis Github a probablement supprimé le compte et les messages/issues de l'attaquant (suite à un signalement ?).
T'es un peu trop rapide pour critiquer les autres, on espère que t'auras jamais à subir ce genre de problème sur ton infra, mais si ça se produit t’inquiète pas qu’on sera là pour t’asséner nos conseils de hautes volées en terme de sécurité et de communication.
# Certificats
Posté par Anonyme . En réponse au journal Gestion de clés ssh publiques (~/.ssh/authorized_keys). Évalué à 10.
Là où je bosse actuellement, on n’utilise plus de clef SSH à part sur nos bastions, pour tous les autres serveurs on utilise des certificats (Facebook décrit leur utilisation dans Scalable and secure access with SSH).
Ça permet de leur donner une validité assez courte, de segmenter en différentes zones (il faut faire signer un certificats différent pour se connecter en root sur les bastions ou en user sur un serveur web).
Sur mon infra perso, je rejoins le commentaire précédent, Puppet fait le taff :
[^] # Re: Pas Matrix donc
Posté par Anonyme . En réponse au journal Matrix.org piraté. Évalué à 5.
Les clefs PGP qui servent à signer les paquets ont aussi été compromises. L’attaque n’a pas eu de grosses conséquences en dehors de l’infrastructure de matrix.org, mais il aurait pu.
[^] # Re: Problème de financement aussi
Posté par Anonyme . En réponse au journal le bureau linux n'est pas mort ce sont les chromebook. Évalué à 2.
c'est peut-être la personne qui a passé le plus de temps sur un Desktop Linux de nous tous, et ce n'est pas parce qu'il développe le noyau que son utilisation du desktop est moins pertinente ou que l'avis d'un pseudo spécialiste du desktop aurait plus de crédit à ce sujet.
[^] # Re: pourtant c'est dans la slide 22
Posté par Anonyme . En réponse au message cartes SD UHS sous Linux. Évalué à 2.
Si un adaptateur USB est utilisé la limitation peut aussi venir de son controleur voire de la vitesse du port USB utilisé. Une oxydation des broches (ou un câble défaillant) peut aussi forcer un mode de communication dégradé, comme une bonne vieille connexion UART, SPI ou I²C.
# Problème de financement aussi
Posté par Anonyme . En réponse au journal le bureau linux n'est pas mort ce sont les chromebook. Évalué à -4.
J'ai envie de dire qu'il existe un desktop Unix qui répond à toutes ces exigences : Mac OS X (en termes de touch and feel, moderne, fiable, eye candy, bien fini etc. pas en terme d'opensourceness).
Si même le créateur de Linux dit qu'il y'a encore des progrès à faire dans le desktop c'est que ça ne doit pas être exagéré.
Il y'a pour moi un problème majeur pour le développement d'un desktop digne de ce nom, c'est son financement. Je serais prêt à mettre jusqu'à 50/60 euros pour acheter un bureau parfaitement intégré et abouti. Le problème des bureaux Linux étant qu'au final ils sont le fruits de l'assemblage de plusieurs couches/briques/logiciels qui ne sont pas forcément développés dans un même esprit ou avec les même préoccupations.
Je pense qu'on atteint un peu les limites du libre à savoir que oui on peut avoir un bureau fonctionnel sous linux, mais si on veut un truc vraiment poussé, standardisé, testé (pas avec des finitions mal foutues quand on gratte un peu), bah il faut passer par la case porte-monnaie.
Les bugs, les fonctionnalités, le dev, ca prend du temps donc de l'argent, il est là le vrai problème selon moi.
Je m'en rappelle dans les années 2000 où à chaque fois on disait qu'on tenait le killer feature du desktop linux, rappelez vous de Eazel, Nautilus, RedCarpet, Ximian Connector, Linspire/Lindows etc… 25 ans après on y est toujours pas.
Et le fameux argument : oui t'as plein de bureaux tu peux choisir celui qui te plait , ouais bof. Je préfère un seul bureau bien fini, bien développé, qui m'oblige à faire un petit effort d’adaptation au début. Que d'avoir à en tester 15 qui auxquels il manquera toujours quelque chose par rapport à un autre et qui au final ne me satisferont pas.
Le marché du bureau Linux est trop petit pour se permettre d'avoir autant de fragmentation, et on constate le même souci actuellement avec Android… mais bon certains continuent de clamer le contraire et ne se rendent pas compte que c'est ce qui freine aussi sa progression.
[^] # Re: Pas Matrix donc
Posté par Anonyme . En réponse au journal Matrix.org piraté. Évalué à 6.
L’attaquant s’est servit d’un exploit sur Jenkins pour infiltrer un premier serveur sur lequel (si j’ai bien compris), un admin avait laissé une connexion SSH ouverte avec forward d’agent. Depuis là il a pu utiliser l’agent SSH pour rebondir sur les autres serveurs.
C’est dommage, c’est quelque chose qui aurait pu être évité avec juste un peu d’hygiène informatique : utiliser un bastion, utiliser des certificats SSH avec une validé assez courte, désactiver le forward d’agent, activer du MFA, etc…
En attendant, ça ternit beaucoup leur image alors qu’ils avaient pas mal gagné en crédibilité avec l’annonce de l’utilisation de Matrix pour les communications au sein de l’administration française.
[^] # Re: Assange, Assange
Posté par Anonyme . En réponse au lien 😱Le fondateur de WikiLeaks Julian Assange arrêté dans l'ambassade d'Equateur à Londres. Évalué à 7.
c'est vrai, c'est dégueulasse d'avoir oublier d'effacer les noms des pilotes d'apache qui tirait au canon de 60 sur des civils, dans un état de droit il faut suivre et respecter les lois. Le bombardement d'un hôpital talibans était parfaitement justifié, pas besoin de publier les nom des commandant et donneur d'ordre et ordre, sans dec et leur sécurité ? qqu un y pense ?
l’équipe qui a abattu un fermier en Afghanistan, par erreur, il y avait pas besoin de les mettre en danger avec la divulgation de leur nom ! que diable le père et la mère se consoleront en gardant leurs chèvres voila tout !
Assange est vraiment inconscient. Et les Abrahams qui roulaient sur les bléssés, honnêtement ce sont des allégations et la video tourné par l'armée américaine sans wikileaks, l'AFP se serais fait un plaisir de la publier sans donner aucun lieux et aucun nom.
les noms des gradés qui ont torturé dans la prison irakienne, franchement si ca c'est pas de l'anarchie, leur vie privée sont bouleversé maintenant. Ils avait droit aussi a un procès équitable.
parlons de l'AFP qui est plus pro, ya qqun qui a eu des infos avec eux déjà ? a part la Russie et le Venezuela évidement.
il y a encore qqun sur terre qui croit que une seules de ses informations aurait du être censurée ? l'excuse de la sécurité des criminel de guerre en mission, c'est pas mal ! ca plait bien et sa touche la ménagère de moins de 50 ans.
[^] # Re: En finir avec les jeux natifs?
Posté par Anonyme . En réponse au journal Google Stadia : une chance pour le jeu sous Linux (desktop) ?. Évalué à 2.
L'exclusivité peut être temporaire. Même chose que les jeux sur le EpycStore qui ont une exclusivité d'un an sur cette plate-forme de vente. Les jeux AAA sont souvent développés pour console et la version PC arrive après.
Il reste encore pas mal d'exclusivité Sony, puis il y a Nintendo qui continue de faire bande à part.
Tout l'avantage du PC c'est que tu n'est pas obligé de racheter une machine entière.
De plus il y a beaucoup de config d'occasion qui font encore très bien le café. Pas besoin de 6 cœurs, de 16Go de DDR4 et d'un SSD NVME pour faire mieux qu'une console actuelle, pas besoin non plus d'une RTX2060/GTX1070 ou d'une Vega 56. Ça c'est une config pour garder de la marge sur les futurs titres ou pour jouer dans une qualité graphique ou une fréquence bien plus haute que ce que permet une console.
[^] # Re: En finir avec les jeux natifs?
Posté par Anonyme . En réponse au journal Google Stadia : une chance pour le jeu sous Linux (desktop) ?. Évalué à 2.
Quand je parle de milieu de gamme, je parle de ce qui se vend le plus, pas de la puissance. Une RX570, 580 ou GTX1060 permettent déjà une expérience meilleure avec les jeux AAA que sur les consoles actuelles et leurs prix ont beaucoup baissé face à la récente GTX1660.
Certes Nvidia a peu fait baisser les prix avec sa gamme Turing mais encore une fois, l'exigence de graphisme des joueurs PC est souvent bien plus élevée que celle des joueurs console.
[^] # Re: Testing
Posté par Anonyme . En réponse au journal Dernière version de KDE sous Debian testing. Évalué à 3.
Bah je dois avoir particulièrement de la chance de ne rencontrer aucun de ces problèmes alors.
[^] # Re: En finir avec les jeux natifs?
Posté par Anonyme . En réponse au journal Google Stadia : une chance pour le jeu sous Linux (desktop) ?. Évalué à 4. Dernière modification le 11 avril 2019 à 16:22.
Ouais, c’est aussi la réflexion que je me faisais en jouant à RDR2 et The Last Of Us sur PC… Ah non…
[^] # Re: En finir avec les jeux natifs?
Posté par Anonyme . En réponse au journal Google Stadia : une chance pour le jeu sous Linux (desktop) ?. Évalué à 4.
FPS (t’iras jouer à CS:GO à la manette), simulation (genre KSP, ou FSX/P3D), …
En fait, globalement, à part les jeu de plateforme et les jeux à la troisième personnes (genre AC ou TR), y quand même VACHEMENT besoin d’un clavier et d’une souris.
[^] # Re: En finir avec les jeux natifs?
Posté par Anonyme . En réponse au journal Google Stadia : une chance pour le jeu sous Linux (desktop) ?. Évalué à 4.
La machine est souvent plus chère à l'achat mais le prix des portages PC est lui souvent moins cher et le surcoût de l'ordinateur peut s’amortir rapidement. Tout le business des consoles est sur le prix de ces logiciels (et les exclusivités) ainsi que les licences d'exploitation, la machine elle-même est quasiment vendue à perte.
Sans compter que bien souvent, à prix égal, le matériel est bien plus performant. Malgré l'optimisation sur console (chose qu'on voit surtout en fin de vie du produit), les jeux sont plus beau ou plus fluides sur PC que sur console même sans jouer avec la meilleure qualité graphique.
Donc certes un PC de jeu ne s'envisage pas en dessous du prix d'une console mais c'est en grande partie dû à l'exigence supérieure des joueurs PC car de nos jours il ne faut pas un matériel onéreux pour bénéficier des mêmes performances et l'achat d'une nouvelle carte graphique de milieu de gamme est souvent suffisant pour obtenir un rendu supérieur à la génération suivante de consoles.
Bref l'argument du prix n'a pas véritablement de sens contrairement à l'argument du "prêt à jouer".
[^] # Re: Jouer sous linux c'est jouable
Posté par Anonyme . En réponse au journal Google Stadia : une chance pour le jeu sous Linux (desktop) ?. Évalué à 4.
Il me semblait que KSP était disponible nativement sous Linux depuis presque le tout début.
[^] # Re: Extraits
Posté par Anonyme . En réponse à la dépêche « Hygiène mentale » : une chaîne de vidéos sur l’esprit critique, sous licence de libre diffusion. Évalué à 10.
Bruce Benamran a un discours souvent difficile à suivre même quand on connait un peu le sujet (surtout quand il n'a pas de script), il balance parfois des choses fausses ou met en avant certaines hypothèses plutôt que d'autres (et que bien entendu il ne corrige pas malgré les commentaires), il ne cite pas ses sources et ces dernières années il était davantage obsédé par le nombre d'abonnés (comme Astronogeek) ou par la fiction (et sa grosse caméra de cinéma) que par la qualité du travail de vulgarisation (et non ce n'est pas un gros mot, quand on parle du latin vulgaire c'est le latin populaire) qu'il en a perdu une bonne partie de son public.
Bref, les guillemets je les auraient placé autour du mot « bon ».
Sinon ça fait des années (au moins quatre ou cinq) que régulièrement les vidéastes sur Youtube ont des problèmes avec le ContentID, la baisse de rémunération des pubs, l'algorithme, les features du site qui dégagent et les différents bugs. Même avant Peertube il y avait des alternatives. La question a se poser est : pourquoi n'ont-ils pas migré leur contenu ailleurs, au moins de manière partielle ?
J'ai du mal à plaindre ces créateurs, tout comme je n'ai aucune empathie pour un vendeur sur Amazon, Banggood ou Ebay.
[^] # Re: Décalage des touche
Posté par Anonyme . En réponse à la dépêche La norme française de dispositions de clavier a été publiée. Évalué à 3. Dernière modification le 09 avril 2019 à 18:31.
Parce que la norme n'est pas sur les claviers physiques mais sur les dispositions de clavier.
Puis de manière pratique est-ce que le marché français pèse suffisamment dans le monde pour inciter les fabricants à développer un produit très différent ?
L'avantage pour les industriels des claviers 105-107-109 touches est que leur matrice de touches est compatible avec les ANSI 104 donc la seule adaptation est le nombre, la position, la forme et le marquage des touches sinon le reste du clavier est commun.
Note aussi que le décalage en soi n'était pas un problème tant qu'il était pile à la moitié de la rangée adjacente, la position des mains y est d'ailleurs plus proche des claviers ergo dits "en V inversé" (Λ, en lambda). De ce que j'ai pu constater ce sont les machines à écrire électriques IBM Selectric dans les années 50-60 qui ont introduit en standard ce décalage pour personnes qui ont deux mains droites.