Anonyme a écrit 62265 commentaires

  • [^] # Re: quel forceur ce Martoni

    Posté par  . En réponse au journal Le retour du RiscPC ?. Évalué à 2.

    Je comprends bien ce que tu veux dire, mais changer la fréquence, ça se voit, surtout sur un CPU fanless. Tu peux mesurer la consommation, la fréquence des bus, avec des outils externes.

    Bien sûr mais y a-t-il au moins une poignée de tests qui vérifient ça ?

    Maintenant pour les bench CPU, le contexte est totalement différent, même si tu n'as pas accès aux sources de l'OS et du compilateur, tu as accès aux instructions, aux compteurs HW et tu peux analyser et tracer très facilement ce que tu veux.

    Pareil, pour l'instant j'ai vu aucun test qui vérifie si ces compteurs sont bien exposés sur ce système.

    Mais on peut aussi faire cela sous Linux!

    Effectivement et dans ce cas un testeur consciencieux va s'assurer que ces paramètres d'optimisation soient les mêmes pour toutes les machines à comparer. C'est tout l'intérêt d'utiliser un OS unique dans un tel protocole de test.

    Je veux bien admettre qu'Apple joue à ce petit jeux, mais je crois que personne ne se prive de le faire,

    La triche serait trop grillé chez les différents concurrents puisqu'ils ne sont pas exclusifs à un couple matériel+OS.
    Apple est dans un cas particulier favorable à ce genre de triche.

  • [^] # Re: quel forceur ce Martoni

    Posté par  . En réponse au journal Le retour du RiscPC ?. Évalué à 1.

    En gros c'est le seul argument que t'as

    Je parle pas que du hardware, je parle aussi du comportement de l'OS qui peut très bien changer à la volée (mettre une priorité d'execution insane sur la tâche, lui assigner un ou des cœurs exclusifs, jouer sur les différents caches, etc.).
    Si seulement t'avais un peu mieux lu au lieu d'écrire que j'étale ma confiture.

    (j'en aurais bien d'autres)

    Ouai donc là tu dis que t'es juste en train de troller.

    tu ne peux quasiment pas changer les paramètres du FSB, ni de façon importante les fréquences du CPU.

    En même temps le "FSB" change aussi la fréquence des bus PCIe… ce qui n'empèche pas des constructeurs de le gonfler comme avec les tensions.
    Sur Zen de toute façon les gains se font majoritairement au niveau de la vitesse de l'Infinity Fabric.

    Et ça n'apporte que peu de performances. Prouve moi les gains. S'ils arrivent à 20 % je te pais un soda.

    Même si c'est 10% ça ne change pas le propos. La somme de tous les petits gains HW et SW artificiellement crées falsifient le résultat.
    Tu ne peux rien prouver donc n'exige rien en retour.

    Parce que les BIOS, ou les firmware de ta carte mère, ils sont ouverts ?? Les firmwares des CPU font tous ça

    Comment un firmware peut savoir que je lance spécifiquement un bench ? Ça n'a aucun sens ce que tu dis. Je parle de changer le comportement normal pour passer temporairement en mode "bench"

    Le throttle, le boost de fréquence pour un bench mono-threadé, ou changer d'autres paramètre associé à un process, c'est ce que font de base tous les utilisateurs un peu averti

    Les utilisateurs oui, quand le firmware leur permet de le faire, pas l'OS quand il détecte qu'un bench est lancé. Elle est ici la subtilité.

    Mon point de vue, c'est que si les CPU d'Apple supporte bien l'O/C, tant mieux pour eux. C'est pas les premiers à le faire, donc, ton bel argument n'a aucune valeur.

    Non encore une fois tu n'as pas lu. Mon argument était que des changements peuvent être faits à l'insu de l'utilisateur et dans des proportions qu'on ne retrouve que chez les compétiteurs qui se foutent de la dissipation, des dégats sur le long terme ou d'avoir un système utilisable pour d'autres tâches à côté.
    L'overclocking n'était qu'un exemple de ce qu'il est possible de faire pour changer un résultat de benchmark, pas un argument en lui-même.
    Sérieusement, t'es pénible.

  • [^] # Re: cloudflare

    Posté par  . En réponse au lien HCAPTCHA. Une solution non libre mais pas GAFAM. Évalué à 1.

    qui utilise cloudflare et qui donc me demande de bosser pour… hcaptcha :)

  • [^] # Re: quel forceur ce Martoni

    Posté par  . En réponse au journal Le retour du RiscPC ?. Évalué à -2.

    On peut pas lancer une compilation d’un même projet avec la même version de clang/swiftc et voir combien de temps ça prend?
    On peut pas lancer l’encodage de la même vidéo avec les mêmes encodeurs, et voir comment de temps ça prend?
    On peut pas lancer le même programme en mode émulation, et voire combien de temps ça prend?
    Ou un rendu 3D, ou des animations dans Uikit et mesurer les fps, ou quoi que ce soit qui utilise le cpu et mesurer si ça va aussi vite, moins vite ou plus vite?

    Tu peux toujours faire mumuse sur leur plate-forme de dev, mais pas sur le reste de leur matériel ARM. Puis cette couche OS ne permet toujours pas de mesurer les perfs du hard pour le comparer dans les mêmes conditions que les autres acteurs.

    Tu nous dit que c’est littéralement impossible de mesurer les performances d’un mac commun face à un pc spécifique, et déterminer lequel va le plus vite, lequel consomme le moins, quel autre compromis performance on peut trouver?

    Tu as lu la discussion ou tu veux juste troller ? On parle pas de Mac "commun" (ce que je comprend comme x86), on parle de leur matériel basé sur ARM. Y a aucun problème de mesure avec leur matériel x86 vu qu'il est accessible pour d'autres OS.

    je suis convaincu que s’il y a une optimisation hard à trouver, ils l’ont trouvée d’un côté ou de l’autre.

    Tu parles de personnes qui sont pas fichus de mettre une solution de refroidissement adéquat pour le CPU ou qui vendent des laptops avec des claviers de mauvaise conception dont bon nombre d'utilisateurs se plaignent et qui ne sont pas corrigés.
    Tout me porterait plutôt à penser qu'ils sabotent déjà leur gamme x86 pour forcer leurs captifs à basculer sur leur nouvelle solution ayant davantage d'intégration verticale.
    Brider les perfs d'un côté pour combler le manque de perf de la prochaine solution est un scénario totalement plausible quand on peut constater qu'ils sont pret à fournir des MÀJ de la mort pour forcer le renouvellement.

    Parce que les performances du cpu, c’est pas decide par apple non plus?

    C'est surtout que osef total gros ! Apple c'est l'une des rares sinon la seule boite qui fait des SoC ARM sans fournir au minimum une stack Linux. Pour constater l'évolution d'ARM, faut oublier ce fabricant là et consacrer son temps sur d'autres.

    C'est vraiment fatigant de devoir répéter les mêmes choses à chaque fois qu'on parle de ce sujet.

  • [^] # Re: quel forceur ce Martoni

    Posté par  . En réponse au journal Le retour du RiscPC ?. Évalué à -1.

    Ok, donc déjà la définition fait référence à la définition

    Pas vraiment non. Les gammes de processeurs sont nommées Desktop d'abord par opposition avec les gammes Server puis avec les gammes Mobile.

    et en plus ça contredit la définition déjà acceptée qui est “ordinateur conçu pour être utilisé sur un bureau, fixe”.

    On est sur un site relativement technique dans un journal qui l'est. Tout le monde n'a pas toujours la même définition des choses.

    C'est pareil que pour les termes "ordinateur" ou "PC".

    Le problème que je vois dans la définition que tu donnes c'est que bien que monté sur un circuit format ITX, le SoC lui-même n'est pas conçu pour ce genre d'usage. Comme pour les RaspberryPi et autres clones, c'est par nature une carte de développement pour des systèmes embarqués de puissance modeste, pas un ordinateur de bureau au sens propre.
    Les mini-PC sont d'ailleurs davantage utilisés en HTPC : des ordinateurs de meuble télé plutôt que de bureau.

  • [^] # Re: quel forceur ce Martoni

    Posté par  . En réponse au journal Le retour du RiscPC ?. Évalué à 2.

    Ta vérité n'est pas universelle.

    La tienne encore moins mon gars. Et c'est pas en faisant un combat de punchlines que tu vas prouver quoi que ce soit.

    Et ? Tu crois vraiment que sur la plupart des benchs CPU l'OS à un impacte ?

    Il y a TOUJOURS un impact, reste à en connaitre les proportions sur ce matériel et le problème justement c'est qu'on peut pas faire de réelles mesures isolées. C'est ce que je me tue à dire ici depuis des années.

    Elle est bonne celle là, "l'Overclocking", c'est donc le seul argument que tu as pour que l'OS optimise le bench … C'est énorme.

    T'es gentil et tu relis l'extrait que tu cites au lieu de choisir des bouts de phrase qui t'arranges.
    Si t'es pas capable de comprendre ce qu'on te répond, abstiens-toi.

    Comment veux-tu que je ne te prenne pas de haut avec ce genre de réponse ?

  • [^] # Re: quel forceur ce Martoni

    Posté par  . En réponse au journal Le retour du RiscPC ?. Évalué à -2.

    La question c’est grosse modo: comment est ce que ce cpu arm se place face aux machines actuelles?

    La réponse étant : Vu le nombre d'inconnues, on ne peut pas avoir de certitudes donc c'est inutile de prendre ce produit comme exemple de cpu ARM.

    Le reste de tes questions c'est pas le sujet et de toute façon c'est déjà tout décidé par Apple, peu importe que les raisons soient dans l'intérêt de leur clientèle ou non.

  • [^] # Re: quel forceur ce Martoni

    Posté par  . En réponse au journal Le retour du RiscPC ?. Évalué à -1.

    T'apprends rien à personne, oui, il faut procéder avec méthode, on fait de la dichotomie pour faire de l'optimisation, en analysant ce qui se passe dans le CPU, le GPU, et en ne changeant qu'un paramètre à la fois, merci. Je vois pas à quoi répond ce genre de remarque

    Faut savoir. Je répond à toi qui me dit que vous faites pas comme ça dans ta branche. Là on tourne en rond.

    Et le client lui, comme tout le monde à part toi, déduit du benchmark les perfo du CPU.

    Pas de ma faute si tes clients sont des gros pigeons.

    c'est qu'au pire, Apple ne fait qu'exploiter son CPU

    Mais justement ça c'est de l'optimisation ! Ça ne permet absolument pas d'affirmer que tel CPU est équivalent à tel autre de la concurrence comme vous le faites !
    Sachant qu'en plus iOS/OSX ça tourne sur un nombre restreint de machines bien définies, l'optimisation y est logiquement plus présente.

    à te lire, on a l'impression qu'il "accélère" les choses en trichant, ça n'a AUCUN sens…

    Pourtant ça reste aussi une possibilité pour gonfler les chiffres. Les benchs peuvent très bien subir un traitement prioritaire par l'OS, faisant fi des limites de frequence/tension, de consommation, d'enveloppe thermique, de gestion de la mémoire ou de gouverneur qui s'appliqueraient normalement pour conserver un usage et une durée de vie acceptable sur le long terme.
    C'est déjà hyper facile de fausser des résultats sur des PC en les boostant avec différents paramètres d'overclocking. Ça peut même souvent arriver de manière involontaire sans faire attention, voire à l'insu de l'acheteur avec les réglages d'usine (Ya plein de cas récents de fabricants de carte-mère pour x86 qui activent par défaut une option d'OC ou qui augmente les tensions, les fréquences ou les durées de turbo au delà des specs).

    C'est tout le problème de cet environnement fermé. On ne peut rien infirmer ou affirmer avec certitudes.

  • [^] # Re: quel forceur ce Martoni

    Posté par  . En réponse au journal Le retour du RiscPC ?. Évalué à 1.

    Du calme… Pas la peine de monter sur tes grands chevaux

    Je monte sur mes grands chevaux parce que vous brisez les noix à systématiquement prendre en argument des comparatifs foireux sur ces iBidules pour dire que ARM devient plus performant. Des comparatifs ARM vs x86 vs Tartempion existent déjà pour d'autres gammes d'utilisation et ces tests sont bien plus fiables.

    On verra les benchs de l'A14X (ou je sais pas quoi), par rapport à l'Intel.

    On verra rien du tout puisque c'est une grosse boite noire qui ne permet pas de conduire un comparatif sérieux et que comme remarqué dans d'autres discussions ultérieures les Mac à base d'Intel ne sont vraiment pas ce qu'on trouve de mieux pour tester ces CPU puisque ces machines ont de gros problèmes de thermal throttling contrairement aux machines concurrentes qui ne tournent pas sur OSX.

    Et encore une fois, c'est AMD qui lead x86 en ce moment, osef d'intel qui patauge.

    Pour ta preuve "scientifique", on optimise pas de la même façon CATIA, Oracle et du HPTC avec du MPI.

    Quand tu optimises un système, tu compares bien les variations sans changer d'autres paramètres hard ou soft, non ? sinon c'est pas possible de mesurer l'impact individuel de chaque changement. Ici c'est la même chose : tu peux pas comparer les perfs brutes de différents CPU/GPU si tu changes d'autres paramètres en même temps.
    À part les ingénieurs d'Apple, personne ne peut donc évaluer ce que leurs processeurs ont réellement dans le ventre face à la concurrence puisque l'environnement est clos et possède ses propres optimisations qui faussent toute mesure absolue. L'entreprise jouait déjà sur cet obscurantisme avec ses iPhone et iPad.

  • [^] # Re: quel forceur ce Martoni

    Posté par  . En réponse au journal Le retour du RiscPC ?. Évalué à 0.

    Ha bon? pour avoir travaillé 7 ans dans l'optimisation CPU, je peux te dire que personne ne s'empêche de faire des bench entre différents OS, sur différentes ISA …

    Sans base commune, aucun moyen de comparer.
    Si vous aimez vous torcher avec la méthode scientifique dans ta profession c'est votre problème mais faut pas venir nous montrer vos résultats biaisés pour appuyer des croyances.

    ça n'a pas toujours été le cas, en plus d'ARM, Windows a supporté l'Itanium et autres.

    Et il supporte ARM depuis longtemps, tu ne m'apprends rien. Le seul problème c'est que Windows n'est pas dispo partout ce qui fait qu'on le réduit à certaines ISA.

    on peut prédire l'année prochaine un CPU au niveau d'un i5, voir i7.

    Prédit ce que tu veux, moi je parle du présent et je réagi sur vos affirmations non fondées. ARM a évolué je n'en doute pas mais x86 aussi et appuyer son argumentation sur les soi-disant performances des boites noires d'Apple c'est du pur sophisme.

    Je voulais dire RISC, l'architecture RISC, pas forcément RISC-V ou OpenPower.

    La prochaine fois tu te relira mieux avant de poster.
    Mais soit, je vois pas ce que ça a à voir vu que le modèle CISC n'existe plus en interne et que ARM n'est techniquement plus du RISC.

    Pas la peine de poster des liens vers des choses dont on parle régulièrement ici depuis des années.

    J'hésite à te coller l'étiquette "je travaille chez ESI Group sur des clusters Intel" ou "je travaille chez Intel tout court"

    Donc pour toi si on est opposé aux "tests" bidons on est forcément pro-Intel. Désolé mais contrairement à toi je suis agnostique, j'attends des résultats concrets (ce qu'on trouve avec Risc-V, OpenPower, x86 et plein de SoC ARM) et pas de la hype marketing fournie par des pseudo-journalistes.

  • [^] # Re: quel forceur ce Martoni

    Posté par  . En réponse au journal Le retour du RiscPC ?. Évalué à 4.

    À chaque fois qu'on parle de CPU vous ressortez la même chose, on dirait que personne ici ne comprend qu'une méthodologie de test correcte c'est une équation à une seule inconnue. Si vous laissez des variables supplémentaires, le résultat n'a plus aucun sens.
    Si tu veux comparer du soft, tu le fais sur le même hardware. Si tu veux comparer du matériel tu le fais avec le même environnement software. C'est simple.
    Le problème étant que c'est impossible de décorréler les deux avec ce matériel Apple donc y a aucune comparaison objective possible.

    Arrêtez de ressortir toujours les mêmes exemples et arguments bidons qui finissent en discussions stériles. Vous êtes des VRP Apple ou quoi !?

    En quoi un benchmark sous Windows, ou avec n'importe quel binaire est-il plus ouvert ?

    La différence est que les tests sur Windows sont généralement intra ISA. Quand on compare deux ISA, on utilise un OS commun avec des builds reproductibles, càd un Linux ou BSD.
    De plus Microsoft ne vend pas de matériel x86 donc y a pas de risque que leur OS trafique ces résultats.
    Les binaires de bench n'ont qu'une valeur indicative intrinsèque. Un testeur sérieux utilisera une palette d'applications réelles qui lui permettra de constater si tel ou tel soft favorise tel ou tel matériel.

    Aujourd'hui, tu as les performances d'un "Desktop" x86 (i7, i9), dans un boîtier de Nuc.

    Vous avez fumé la moquette les gars. Regardez les specs et les perfs d'un i7, i9, R7 ou R9 desktop de cette année. Regardez aussi ce qui est sorti récemment en laptop. Aucune chance que cette puce faites pour les contraintes d'une tablette leur arrive à la cheville. C'est comme comparer une console de salon avec un PC gaming.

    Intel ne peut rien y faire de par la nature de leur ISA. Elle est la moins efficace de toutes. Le surcoût est au minimum de 30 % de transistor supplémentaire pour les étapes fetch/decode par rapport à de l'ARM.

    Déjà Intel est à la bourre niveau process de lithographie, regarde surtout ce que fait AMD en ce moment.
    La taille du die, la conso, le rendement on s'en fiche un peu pour du desktop. Même le process de gravure est étudié pour optimiser les performances au détriment de la conso.

    Un petit test du dernier CPU Microsoft : Surface Pro X review, TheVerge.

    Déjà si The Verge c'est ta référence on est mal. Cet article n'est pas un "test", y a aucun chiffre, aucune méthodologie, aucune comparaison. Rien que le début part mal quand ils parlent de Intel en oubliant complètement que c'est désormais AMD qui mène la course en x86 depuis quelques temps. Ça pue le fanboyisme.
    Ensuite là encore on parle pas du tout d'une puce desktop. Il y a un fossé à combler entre un netbook d'entrée de gamme et une workstation.

    C'est juste leur 1er CPU maison.

    "C'est juste leur 1er assemblage maison" serait plus juste. Ils ont seulement utilisé des briques provenant de ARM et d'un designer de GPU/VPU (d'ailleur lequel?). C'est ce que font les taiwanais et les chinois depuis au moins 10 ans.
    Ça ne tiendra jamais la distance face au travail du géant Qualcomm qui lui a une licence architecte et des designs bien plus optimisés depuis des années.

    De plus, il me semble que le jeu d'instruction RISC-V est utilisé par IBM pour leurs stations de travail…

    Merci pour le fou-rire. Désolé mais c'est bien la preuve que tu ne sais vraiment pas de quoi tu parles et que t'as même pas la curiosité de chercher. Petit indice : OpenPower.

  • # cloudflare

    Posté par  . En réponse au lien HCAPTCHA. Une solution non libre mais pas GAFAM. Évalué à 10.

    si on ignore que cette solution est utilisée par cloudflare, qui fait office de MITM pour une énorme partie du web mondial, alors on peut dire que ce n'est pas GAFAM… mais GAFAMC.

    si ce n'est pas libre, pourquoi en faire promotion/référencement ici ?

  • [^] # Re: quel forceur ce Martoni

    Posté par  . En réponse au journal Le retour du RiscPC ?. Évalué à 4.

    Pour ceux-ci il s'agissait d'une comparaison de performances de codage video: exécuté en hard par le DTK, et en soft par les autres.

    Ce qu'on peut faire sur n'importe quel gamme d'ordi et qui ne représente rien du tout puisqu'avec ce genre de test un SoC d'entrée de gamme poutrera un flagship dix fois plus puissant.

    Je vois pas l'intérêt de publier ce genre de résultat, à part pour tromper les crédules. Niveau crédibilité c'est aussi pourri que les journalistes tech qui relayent les rumeurs et les leaks douteux façon tabloids.

  • [^] # Re: quel forceur ce Martoni

    Posté par  . En réponse au journal Le retour du RiscPC ?. Évalué à 1.

    Déjà ces valeurs ne veulent rien dire, y a pas d'unité. C'est un score de benchmark synthétique, pas une tâche réelle. Y a rien de quantifiable.

    Ensuite on parle d'un gros SoC comparé à celui du journal et pourtant selon leur test il ne fait que l'équivalent d'un vieux processeur haut de gamme qui se fait désormais humilier par celui d'un laptop actuel à 500 balles (et là les tests sont nombreux et plus rigoureux qu'un simple score).

    Tu ne fais que prouver mon point : ce n'est pas du tout comparable à un desktop actuel.

  • [^] # Re: quel forceur ce Martoni

    Posté par  . En réponse au journal Le retour du RiscPC ?. Évalué à 1.

    Bref, ça manque de précision.

    Complètement.

    Pour moi un "ordinateur de bureau" c'est pas un mini-PC avec des composants de tablette ou de laptop conçus pour du nomade, c'est un ordi avec un processeur de gamme desktop optimisé pour la performance et non la consommation.
    C'est déjà téléphoné quand il n'y a aucun espoir que ce quadcore peu rapide fournisse la même puissance que les derniers né des gammes mobiles en x86 (même en gamme relativement basse AMD propose actuellement de l'hexacore ou du quadcore avec SMT). J'ai pas été voir de tests de leur précédente devboard mais vu les specs c'est impossible que ce soit du même niveau.

    Ça veut pas dire que ce Syfive n'est pas suffisant pour bon nombre d'activités, seulement que ça joue pas dans la même cour que les processeurs x86 récents.

    Sinon ça sert à rien de prendre Apple en exemple, les biais de ces comparatifs sur ce genre de matériel ultra fermé ont déjà été débattus ultérieurement. Tant qu'on pourra pas y faire tourner un autre OS pour isoler le hard du soft, ça n'est que mélanger des choux et des carottes.

  • # quel forceur ce Martoni

    Posté par  . En réponse au journal Le retour du RiscPC ?. Évalué à 1.

    ARM s'est contenté d'envahir le marché de l'embarqué pour le dominer complètement aujourd'hui.

    Déjà l'embarqué c'est pas uniquement du low-power.
    Puis ARM est très populaire dans ce marché mais ne le domine pas complètement. Y a toujours eu d'autres ISA (dont x86) et sa popularité décroit avec l'émergence de Risc-V et la libération de mips.

    SiFive a décidé de produire un processeur aux performances compatible avec les performances d'un ordinateur de bureau d'aujourd'hui le U740.

    Les perfs d'un processeur AMD ou Intel actuel pour desktop sont quand même bien au-delà. Si tu avais parlé des perfs d'un laptop x86 d'entrée de gamme j'aurais moins sourcillé (même si cette année il y a eu d'énormes progrès) mais là c'est vraiment trop gros comme affirmation.

  • [^] # Re: Plastique

    Posté par  . En réponse à la dépêche Diskio Pi, et si c’était à refaire ?. Évalué à 5.

    Vu que l'alim n'est pas incluse (donc qu'on peut pas être certain de sa construction) et que l'appareil est en flottant, il vaut mieux assurer une double isolation même en TBTS.

  • [^] # Re: carte pine 64

    Posté par  . En réponse à la dépêche Diskio Pi, et si c’était à refaire ?. Évalué à 7.

    Oui, ça serait l'idéal. Mais je pensais plutôt à développer une carte 12V, qui serait proposée en remplacement de la 5V, et un choix à l'achat.

    Dans ce cas ça serait sans doute plus rentable d'avoir un circuit unique avec un jumper type R0 à ajouter/retirer pour passer en 12V. Ça ferait moins de dev, moins de proto, moins de gestion de stock.

    Pour la coque ajourée, il me semble qu'il manque une autre ouverture pour avoir le flux d'air qui passe à l'intérieur du boitier. Avec un ventilo en extraction (ou en passif) l'air frai ne peut rentrer que par quelques interstices tandis qu'en admission l'air envoyé sur le rad galère à sortir.

  • # Anglais facile

    Posté par  . En réponse au journal Comment se compose un exécutable Linux ?. Évalué à 1.

    (en anglais facile)

    C’est quoi de l’anglais facile ?

  • [^] # Re: carte pine 64

    Posté par  . En réponse à la dépêche Diskio Pi, et si c’était à refaire ?. Évalué à 4.

    sortir du 5V ou du 12V est sensiblement la même chose

    Ça veut quand même dire qu'il faudra revoir la partie alim du circuit et ajouter un switch pour pouvoir configurer la tension de sortie du convertisseur. Avec tout ce que tu veux déjà ajouter, ça va commencer à devenir dense pour le placement et le routage.

    mais après il faut un ventilateur assez puissant et/ou un ventirad sur mesure

    Pine propose déjà un ventirad lowprofile pour sa RockPro ou un radiateur 20mm, à l'acheteur de le prendre là bas.
    Faut juste des trous d'aération sur la coque arrière.

    Puis selon la carte y a pas nécessairement besoin d'un ventirad complet. Fort possible qu'un petit ventilo 40mm peu puissant monté sur la coque et qui souffle directement sur le SOC suffise pour un RPi4. Même si ça n'est pas aussi efficace qu'en ajoutant en plus des radiateurs sur les puces, y a finalement pas énorme à dissiper comme puissance et le design du circuit est conçu pour être optimisé en terme de refroidissement passif.

    Pour moi le véritable problème c'est qu'un SBC plus gourmand + un ventilo ça va diminuer l'autonomie.

  • [^] # Re: carte pine 64

    Posté par  . En réponse à la dépêche Diskio Pi, et si c’était à refaire ?. Évalué à 4.

    Alimentation 5V3A maximum

    C'est bien ce qui me semblait, c'est mort pour la RockPro avec son 12VDC 3A minimum.
    Leurs autres SBCs sont sans doute compatibles mais utilisent un A64 ou un RK3328 qui n'ont pas d'avantage majeur par rapport à un Rpi 3.

    Hauteur double USB maxi

    Là aussi ça risque de bloquer pour un RK3399 vu que le radiateur doit être assez conséquent, à moins d'utiliser la solution ventirad.
    Au moins eux ont prévu une solution de refroidissement, pas comme le RPi 4 qui n'a pas de trous de fixation pour un radiateur et qui fait du thermal throttling dès qu'on commence à le pousser.

  • [^] # Re: Randi et la science « rigoureuse »

    Posté par  . En réponse au lien Bronsonisation de James Randi. Évalué à 2.

    faudrait vraiment qu'ils placent le PID ou le DOI, il y aurait moins de connerie de dite sur les fameuse étude qui deviennent une regles universel, les études en elle même sont correctement faite, un résumé n'est pas une étude :(

    un peu comme le schéma du poste ci dessous

  • [^] # Re: Randi et la science « rigoureuse »

    Posté par  . En réponse au lien Bronsonisation de James Randi. Évalué à 3.

    de temps en temps a la radio on nous sort : une étude américaine prouve que la consommation de piment réduit le risque de cancer. ou un autre truc bidon voir même sans mentionner l'origine

    une fois j'ai recherché cette étude, notez bien que jamais le journal de diffuse le PID ou DOI qui permet de retrouver facilement l'étude et surtout pas de lien sur leur site internet. Pendant 3 ou 4 jours les journaux ont repris l'information, qui n’était que le résumé en accès libre exact de l’étude traduit en français. /o\ résumé publié sur elsevier.

    c'est vrai que payer 20 euros pour avoir l’étude et la lire et faire un propre résumé ça rapporte moins que de recopier le résumé déjà fait et le vendre comme un article complet, pour un pigiste par exemple.

    Mon petit doigts me dit que certain pigiste on la vie facile, trouver un bon résumé bien disruptif sur elsevier et tu as un papier sans travailler, avec le mots clé cancer, covid, tu peux trouver ton bonheur \o/

  • [^] # vous êtes minables

    Posté par  . En réponse au message ClaVier qui eCrit aVeC des maj un peu nimporte ou. Évalué à 2.

    Un sèche-cheveux avec une température un peu trop élevée et appliqué de manière prolongée sur une zone fera ramollir des plastiques comme l'ABS ou le PBT. La déformation étant aidée par l'intensité du flux d'air.
    On ne parle pas du point de fusion mais de la transition vitreuse de ces polymères, ça peut arriver à seulement 70°C donc bien avant les 300°C d'un décapeur.

    Bref, avant de tenter de faire de l'humour en vous foutant ouvertement de la gueule de quelqu'un essayez un minimum de comprendre de quoi il parle.

  • [^] # Re: L'animation dans GIMP ?

    Posté par  . En réponse à la dépêche GIMP 2.10.22 : consolidation des formats. Évalué à 3. Dernière modification le 26 octobre 2020 à 18:45.

    « science » est le premier thème mis en avant par CNC/talent

    peut-être mais dans le domaine technologique il est l'un des rares à avoir été accepté alors que c'est certainement loin d'être le premier à l'avoir demandé.
    C'est pareil dans le domaine du jeu vidéo, il n'y a qu'une ou deux chaines d'analyse qui l'ont eu.
    Même chose pour le domaine de la revue de produits. Personne n'a eu cette aide alors que c'est censé être éligible.

    Ça ne dis pas s'il y a copinage ou pas, mais presque tout ce qu'il faut pour le révéler.

    C'est bien pour ça que je suis autant affirmatif, j'ai pu lire ces documents qui ont étayé mes suspicions. On peut constater que depuis le départ il y a des boites de prod et des collectifs qui trustent les nominations. Comme pour le cinoche, on a des gens qui ne créent plus qu'autour de ces subventions.

    Je ne serait pas surpris qu'il y ai des "ratés".

    Moui enfin t'as quand même des mecs assez anciens et bien rodés dans leurs process qui ont été refusés. Le dossier à remplir est tout de même moins compliqué qu'un prêt bancaire et même les semi-pro français doivent de base gérer pas mal de démarches administratives bien plus lourdes rien que pour être fiscalement dans les clous.

    C'est surtout le signe qu'en plus d'une professionnalisation, ce sont de plus en plus des entreprises de taille moyenne plus ou moins dérivées de la télé qui étouffent les indépendants et les amateurs sur des plates-formes comme Youtube ou Vimeo.
    Cette aide n'a fait que plomber davantage les petits acteurs face aux changements de politique des plates-formes (contraintes de monétisation amoindrie, de copyright trolls, de visibilité) et a contribué à faire abandonner un paquet de chaines semipro francophones ces dernières années ou à les faire migrer sur Twitch pour ne plus proposer que des rediffusions à peine montées.