<troll>
Si RMS préfère les logiciels GPL à LGPL, on se demande pourquoi il a soutenu Gnome face à KDE… (si je me souviens bien, le principal reproche venait de QT non libre, mais ce dernier est sous GPLv2 depuis la version 2.2 sortie en l'an 2000 !). </troll>
Autre exemple : le noyau Linux est sous licence GPL, ce qui empêche par exemple de faire un fork pour le transformer en micro-noyau et de copier-coller du code et des algos sous forme de libs userspace, car les seules applis GPL auraient le droit de se linker dessus. D'une manière générale, la GPL restreint l'usage du code en empêchant sa réutilisation dans d'autres contextes tels que des libs. Je trouve que la MPL est un bon compromis entre GPL (trop "virale" à mon goût, et entrainant ensuite des barrières techniques pour des raisons non techniques) et la BSD (qui ne se protège pas, permettant à des industriels peu scrupuleux de prendre sans reverser…)
Hmmm… en télécoms, on est de toute façon sur un système très règlementé qui amène forcément un oligopole (l'Arcep a affirmé explicitement se projeter sur un marché à 4 opérateurs lors de l'appel d'offre pour les licences "4G". D'ailleurs cet appel d'offres était d'une hypocrisie à mourir de rire tellement c'était taillé pour les 4 gros opérateurs en place et prévu pour ne pas laisser entrer de nouvel acteur sans vraiment le dire explicitement !).
Donc la comparaison avec le livre ne tient pas. Par ailleurs, sur le plan environnemental, notre système actuel oblige à multiplier le nombre d'équipements et à mal gérer les ressources spectrales en ne permettant pas d'homogénéiser dynamiquement le ratio MHz/nb_clients.
Bref, on aurait probablement pu avoir un modèle analogue à ERDF ou RFF : une entité publique qui gère les infras structurantes sur l'aménagement du territoire (i.e. la boucle locale), et une myriade d'opérateurs qui sont en fait juste des full-MVNO par dessus… Il y a des avantages et des inconvénients
+ moins d'équipements et moins de sites => moindre empreinte environnementale
+ meilleure gestion des fréquences (mutualisation des ressources => tout le monde a le même ratio MHz/nb_client)
+ pas de licence exorbitante à rentabiliser pour les opérateurs => tarifs moins élevés
+ plus d'opérateurs => plus de concurrence et tarifs moins élevés (et peut-être plus de taxe professionnelle à long terme ?)
+ pas de concurrence sur l'infra ou de contrainte sur les coûts => meilleur déploiement en zone rurale ?
- pas de contrôle fin des opérateurs sur l'infra => pas de garantie que ça corresponde aux besoins de couverture, surtout lorsqu'ils souhaitent adresser des marchés spécifiques
- pas de concurrence sur l'infra => tarifs plus élevés ?
- moins d'argent à court terme dans les caisses de l'état (licences)
- moins de déploiements et d'équipements => moins d'emplois pour le secteur télécoms
- contrôle de l'état sur toutes les infrastructure de boucle locale (peut-être pas souhaitable en démocratie).
Aaah, les méchants opérateurs télécoms qui complotent pour garder captive la population… Sans dénier que la concurrence puisse parfois stimuler un milieu et des offres trop statiques, j'ai de nombreuses remarques (souvent d'ordre technique) :
Pourquoi payer un demi euro la minute pour une connexion 56k quand vous pouviez en passer 10 000 à la place pour un prix fixe bien inférieur ? Les industries de télécom allaient bientôt mourir ou se réduire à peau de chagrin.
Ton discours est d'une manière générale totalement décorrélé des ressources. Or, dans le monde du sans-fils, la quantité de spectre disponible n'est pas infinie, pas plus que le nombre de sites avec énergie et backhaul. Ce n'est pas pour rien que des discussions (parfois animées et beaucoup de stratégie/politique cachée derrière un vernis en apparence technique) ont lieu lors des CMR tous les 4 ans à l'ITU, et plus près de nous à la CEPT et à la commission européenne, pour récupérer plus de spectre (le RSPP demande aux administrations de dégager des fréquences pour avoir en tout 1200 MHz de spectre mobile d'ici 2015).
J'aimerais rappeler qu'un appel VoIP consomme plus de ressource radio qu'un appel en mode circuit (codecs moins efficaces, en-têtes…). Alors partir du principe que c'est gratuit => ça ne consomme rien, c'est un raccourci un peu rapide…
En 1999, la Suède était n°3 pour la rapidité moyenne de téléchargement montant, après seulement le Japon et la Corée du Sud. À présent, la Suède est en place 18 derrière Hong Kong, Singapour, Taïwan, mais aussi l'Ukraine, la Lettonie, la Lituanie, la Moldavie, et la Roumanie ! À présent en Europe, les pays de l'Est dépassent largement les pays de l'Ouest.
On parle du fixe ou du mobile ? Dans tous les cas (mais particulièrement pour le mobile), on est dans un milieu très règlementé donc ce que les opérateurs font ne dépend pas que de leur volonté propre mais aussi des moyens (notamment en ressource spectrale) qui leurs sont alloués.
L'autre point : de manière tout à fait logique, les pays qui se lancent plus tardivement ont forcément équipements plus modernes ! Les investissements sont beaucoup plus colossaux que tu ne l'imagines (juste pour te faire une idée : installer un site macrocell mobile coûte dans les 100000 EUR) et donc ça prend un certain temps à rentabiliser (je ne parle pas de s'en mettre plein les poches, juste d'avoir un retour sur investissement !)
Par exemple, le WiMax est un fiasco. Le WiMax était le « Wifi à l'échelle de la ville ». C'était un réseau wifi à longue distance dont les performances dépassaient celles de la 4G et qui ne coûtait pas cher à déployer. Les compagnies de télécoms ont réussi à placer les fréquences officielles du Wifi dans le spectre qu'ils contrôlent. Et le WiMax en est aussitôt mort, aussi sûrement que les pierres tombent. Nous aurions pu avoir des couvertures réseaux urbaines sans identifiant, sans restriction de rapidité ou de taille de données échangées, et… rien. C'est pourtant dans l'intérêt de tous sauf des télécoms.
Alors là, ça montre clairement que tu n'y connais rien ! Pourtant si tu te penches un peu sur la question (bouquins, réponses aux consultations Arcep, discussions avec des équipementiers, etc.), tu verras que :
non, les performances du WiMAX ne dépassent pas celles de la 4G (qui d'ailleurs n'est pas 4G au sens de l'ITU/IMT-Advanced : une technologie "4G" doit permettre 1GB/s, et seul le LTE-Advanced / R10 répond au cahier des charges) ! Certains des choix technique du 802.16e et son efficacité spectrale sont relativement proches du LTE (de même que le HSPA+ a une efficacité spectrale quasi-identique au LTE), mais le standard date de 2005 et de nombreuses choses sont très inférieures - notamment la gestion des interférences, le roaming, l'implémentation de différentes tailles de canal (en WiMAX l'espacement inter-porteuses n'est pas le même entre 7 MHz et 10 MHz), la modulation uplink (PAPR bien moindre en SC-FDMA utilisé en LTE), l'overhead de la couche MAC, etc. Quant aux débits WiMAX : au mieux, en lab, sur 10 MHz TDD avec un ratio 20:18, tu as un débit downlink de 34MB/s (MIMO 2x2 inclus et supposé parfait), et 5.7 MB/s en uplink (pas de MIMO en uplink. Par contre tu peux doubler la capacité avec le MU-MIMO). Comme dans toute technologie radio, le débit dépend entre autres
de la taille de canal (5, 7 ou 10 MHz TDD—en comparaison le LTE supporte jusqu'à 2x20 MHz, et sa R10 supportera 2x40 MHz). Les "70MB/s à 50 km" si souvent évoqués concernent des profils de canal >10 MHz qui existent dans la norme IEEE 802.16 mais n'ont pas été retenu par le WiMAX Forum (et donc n'existent pas industriellement), de même que des profils FDD étaient définis au niveau IEEE mais pas au niveau WiMAX Forum
du MCS (modulation & coding rate), qui dépend notamment +/- du rapport signal/bruit, donc de la distance à la station de base et des interférences environnantes. Note que le MCS peut être différent en uplink et en downlink, et de fait on est souvent limité par l'uplink car les terminaux ont une puissance d'émission limitée (23 dBm typiquement). Le MIMO et les techniques de diversité dépendent également du fait que la matrice de canal soit "bien conditionnée" i.e. que tes trajets entre antennes soient suffisamment décorrélés, ce qui en pratique signifie en milieu urbain / multi-trajets.
Du nombre d'utilisateurs effectuant du trafic simultané (car la bande passante est évidemment partagée), du MCS de chacun d'eux, et de la politique d'ordonnancement (tradeoff entre équité et utilisation optimale de tes ressource : à débit identique, un utilisateur loin de la cellule a un MCS plus faible et consomme donc plus de ressources). Par rapport au HSPA+, le LTE et le WiMAX n'ont pas une meilleure efficacité spectrale. Mais par contre le fait de recourir à de plus grandes canalisations entraine un meilleur multiplexage statistique.
Des limites du terminal (nombreux étaient ceux qui n'avaient pas la puissance de calcul suffisante pour gérer mieux que 5 MB/s…)
donc en pratique sur un secteur 10 MHz, tu as à peu près une capacité de 12-15MB/s downlink et 5 MB/s uplink à partager entre tous tes usagers actifs. N.B. le LTE ne fait pas de miracle non plus (non, tu n'auras pas 300 MB/s !), mais par contre les canalisations sont plus larges (2x20 MHz) donc le ressenti utilisateur sera à l'avenant.
toujours pour casser le mythe "70 MB/s à 50 km" qui a décidément la vie dure : les "50km" provenaient de profils point-à-point dans d'autres bandes de fréquences et qui n'ont pas grand chose à voir avec les équipements point-multipoint dont il est question ici. Le rayon de couverture est tout à fait comparable à une cellule 4G (sauf que les licences WiMAX sont dans la bande 3.5 GHz, donc en gros "ça va moins loin et ça passe moins les murs"). Ce n'est pas plus un « Wifi à l'échelle de la ville », c'est une technologie d'opérateur avec une couche MAC qui n'a rien à voir (elle est plutôt inspirée du DOCSIS, et propose une QoS sophistiquée)
Comme tu dois le savoir, le marché de l'électronique est guidé par les économies d'échelles. Dans le monde, la plupart des "gros" opérateurs sont sur des technologies 3GPP (donc le WiMAX avait déjà du plomb dans l'aile dès le départ, même si des opérateurs comme Sprint/Clearwire se lançaient dedans, et ont d'ailleurs fait volte-face depuis). En Europe, on a eu la bonne idée de choisir une bande de fréquences différente du "mouvement d'ensemble" (donc on ne pouvait même pas utiliser les mêmes terminaux, ni les mêmes composants RF qu'aux US/Japon/Russie/…), et comme le marché était beaucoup plus petit, eh bien les composants et les terminaux ne sont jamais apparus ! Les rares terminaux qui sont apparus étaient buggés, pas finis, inutilisables et surtout non interopérables (par exemple, il fallait "patcher" le firmware en fonction du fournisseur de station de base en face…), ceci parce que les équipementiers n'investissaient que très peu en R&D. C'est le problème de la poule et de l'oeuf : les équipementiers ne veulent pas créer de produits s'il n'y a pas de marché, et les opérateurs ne veulent pas déployer s'il n'y a pas de produit ! A ce jeu là, seuls les gros acteurs peuvent briser ce cercle vicieux. Intel était en position de le faire (Centrino WiMAX), mais ne l'a pas fait. Game over.
je t'invite à réfléchir en terme de stratégie et à te mettre à la place d'un opérateur : il existe 3 licences de 2x15 MHz en France dans la bande 3.5 GHz (3437.5-3442.5, 3465-3480, 3480-3495 MHz, et l'autre duplex 100 MHz plus haut). Outre quelques "détails techniques" (comme le fait que la canalisation typique WiMAX était de 1x10 MHz TDD i.e. très mal adaptée à ces licences, ou 1x7 MHz mais supportée par très peu de chipsets/terminaux), est-ce que tu te projettes dans un marché de type BLR (rural) ou dans de la pré-4G (urbain) ?
Si considères le marché BLR, il faut savoir que les zones rurales ne sont intrinsèquement pas rentables donc il faut trouver un subventionnement public. Sauf que je t'ai dit qu'il y avait 3 licences en tout point du territoire, et les collectivités ne vont évidemment n'en subventionner qu'une (au mieux). Les deux autres attributaires de licences sont donc condamnés à financer les campagnes non rentables par des déploiements pré-4G en zone urbaine rentable ! C'est ce que font typiquement les opérateurs mobile, mais qui n'était pas possible en WiMAX car…
les déploiements urbains sont un marché différent qui nécessite des terminaux nomades, inexistants sur cette bande (il n'y a guère que des terminaux fixes). De plus, il faut bien que tes clients aient du service partout donc qu'ils puissent faire du roaming sur la 3G quand ils sortent de la zone couverte et/ou le temps que le réseau se déploie (comme Free). Or, je te souhaite bon courage pour trouver des terminaux nomades multi-mode multi-bande capables de roaming 3G, ceci à la fois à cause du WiMAX en soi (pas de composants baseband supportant WiMAX+3G) et de la bande de fréquence (pas de RFIC/PA/FEM supportant 3.5 GHZ + les autres bandes IMT, même si c'est en train de changer. Notons aussi que les PAs ont une efficacité typique de 20% dans cette bande, contre environ 40% dans les bandes plus basses => si tu veux faire un smartphone WiMAX@3.5 GHz, l'autonomie sera pourrie et ça va chauffer !). Bref, les quelques équipementiers qui n'ont pas jeté l'éponge ont bien vite recentré le WiMAX (fût-il "mobile" depuis le 802.16e) comme une technologie exclusivement fixe/BLR à destination des pays en développement et essentiellement dans la bande 2.5 GHz.
"Les compagnies de télécoms ont réussi à placer les fréquences officielles du Wifi dans le spectre qu'ils contrôlent. Et le WiMax en est aussitôt mort" : Gnii ??? Les bandes Wi-Fi sont du spectre non-licencié (donc n'appartiennent pas aux opérateurs) !
"Nous aurions pu avoir des couvertures réseaux urbaines sans identifiant" : et la marmotte…, "sans restriction de rapidité ou de taille de données échangées" : la quantité de ressources radio allouées au WiMAX fait que la donne est fondamentalement analogue à la 3G, donc il n'y avait de toute façon pas de raison de faire sauter les quotas et les mécanismes de QoS (qui sont un garde-fou pour préserver un confort acceptable pour tout le monde). Pour changer ça il faudrait des ressources spectrales plus grandes ! C'est en partie ce qui s'est passé avec les licences 4G (même si je pressens qu'elles seront rapidement saturées à leur tour. D'ailleurs ce n'est pas pour rien que le RSPP demande de trouver 1200 MHz d'ici 2015 !)
Bref, s'il n'y avait que quelques "vilains petits canards" et que le WiMAX était un succès mondial, on pourrait peut-être reprocher aux acteurs Français (qui sont de petits opérateurs) de ne pas avoir suffisamment bougé. Mais en l'occurence et vu la situation, peut-on leur reprocher de ne pas avoir investi quelques millions ou milliards dans une technologie qui allait mourir… ? (d'ailleurs ceux qui ont investi en Europe ont tous déposé le bilan !). Le 3GPP a défini un profil LTE@3.5 GHz l'année dernière (et entre temps, les composants RF multi-bande évoluent aussi, et le LTE a une modulation uplink différente du WiMAX, permettant de concevoir des PAs plus efficaces) donc on verra peut-être des choses progressivement bouger sur la bande 3.5 GHz - notamment avec la saturation de la bande 2.6 GHz qui arrivera inéluctablement. Mais par contre le WiMAX est clairement mort et enterré, et les opérateurs Français n'y sont pas pour grand chose (ni les petits chipsettiers d'ailleurs, qui ont fait ce qu'ils pouvaient. BTW, pour ceux qui ne connaissent pas, la France compte un fabricant de chipsets très en pointe sur le WiMAX/4G qui s'appelle Sequans. Je vous laisse regarder jusqu'à quel point leur site parle encore de WiMAX…)
J'ai cru comprendre que le bitcode utilisé par LLVM n'était pas sensé être stable dans le temps et donc ne pouvait pas être utilisé pour de la diffusion de code (contrairement au bytecode JVM/CLR/Dalvik…). Pourtant, je me disais que ça serait bien pratique d'avoir un langage intermédiaire stable et de pouvoir compiler Debian<notre distro favorite> pour une seule architecture "virtuelle" (je considère naïvement que le gros du temps de compilation doit être dans le frontend+optimisation, mais je suis preneur d'avis éclairés sur la question !), et que apt-get s'occupe de la dernière phase (backend+édition de liens…). ça éviterait à <la distro favorite> de devoir stocker les versions compilées pour toutes les architectures (ce qui occupe de la place sur les serveurs), et ça permettrait aussi d'utiliser les optims spécifiques à son CPU (i386/i686, Altivec, SSE, armhf/armel, etc.) sans pour autant avoir les inconvénients d'une Gentoo (temps de compilation prohibitif, surtout sur des petites machines). Qu'en pensez-vous ? Est-ce que l'IR de LLVM pourrait tenir ce rôle à terme ? Ou sinon, <votre bytecode préféré> ?
(N.B. bon évidemment ça ne marche pas avec les programmes qui contiennent de l'asm inline. Mais je présume que ces programmes sont minoritaires dans une distro ?)
Pourtant un dongle Android à 30 € s'en sort très bien même avec des sites un peu complexes (voir les vidéos sur YouTube), commme quoi il n'y a pas besoin d'un monstre qui consomme 300W…
Non juste un tableur (ou une feuille de calcul sur papier) lors du dépouillement pour faire des additions ! (les bulletins pouvant parfaitement être des bulletins papier glissés dans une urne en plexiglas)
Ah ? Moi j'ai relancé mon vieil Amiga 1200, avec un disque dur probablement plus lent que ledit portable… et ça ne rame pas un poil (démarre même plus rapidement que mon laptop+SSD actuel). Bon évidemment, on ne peut pas comparer des choux et des carottes et il ne faut pas lui demander de fonctionner en 1080p et d'interprêter des trucs modernes, mais cette machine continue de m'impressionner quand on pense aux limitations du hardware !
Tu peux pinailler si tu le souhaites sur le sens du mot "consommable", il n'empêche que je persiste à dire que c'est une solution non durable (du point de vue de la société) tout simplement parce qu'il n'y a pas des quantités infinies de lithium sur terre ! (sans parler de la pollution liée au retraitement)
??? pas des consommables ?
Lis (ou relis) le livre de P. Bihouix sur les métaux ou regarde cette intervention, tu verras que le recyclage est très incomplet (pas seulement dans ce qui est fait aujourd'hui mais dans ce qui est faisable en général et qui implique toujours des pertes !)
parce que EDF voulait éviter cette concurrence/indépendance
Je pense plutôt qu'EDF emploie des ingénieurs, que ceux-ci savent ce qu'ils font, et que ce n'est pas pour rien qu'on est dans un modèle centralisé : c'est ce qui permet de mieux répartir et distribuer l'énergie (qui n'est pas homogène) car tout le monde ne pompe pas 16A en même temps (de la même manière que tout le monde ne télécharge pas à 24MB/s en même temps => les réseaux sont dimensionnés en ce sens, pour faire une analogie plus proche de notre domaine… mais le principe d'un taux de contention ne fonctionne que dans un modèle centralisé !)
[complément de mon précédent post faute d'avoir pu l'insérer comme modif. N.B. pour les modérateurs : le timeout pour "modifier" est vraiment trop court ! C'est la 2ème fois que je commence à modifier un message mais que je me fais jeter par le système à la fin car j'ai été trop long pour l'écrire !]
Bien sûr que l'effet joule existe. Mais relis mon post précédent : il est question d'_ordres de grandeur_. En l'occurence
je ne suis pas sûr qu'il soit prédominant
je suis sûr que remplacer un modèle centralisé par un modèle décentralisé va nécessiter des batteries partout (ou alors tu vas à nouveau avoir bien (plus) de pertes par effet joule). Et les quantités de lithium (et autres saloperies) que ça impliques sont très significatives
parce que EDF voulait éviter cette concurrence/indépendance
L'exemple même d'un préjugé idéologique… ça n'est pas rationnel quand on voit le tarif (ahurissant) auquel EDF rachète l'électricité que tu produis avec ton éolienne (alors même que l'électricité intermittente "qui arrive quand elle veut" devrait valoir moins cher que celle qui est disponible quand tu en as besoin !)
Selon les régions, les éoliennes suffisent pour des besoins locaux, éventuellement en appoint.
"En appoint" == disponible quand tu en as besoin == incompatible avec la notion d'intermittence (sauf à avoir plein de batteries, ce qui est résolument non durable et anti-écolo !)
"suffisent" == j'attends de voir des chiffres ! Pour rappel, on va devoir sortir du pétrole (de gré ou de force, il n'y en aura bientôt plus) et l'énergie pilote le PIB au premier ordre (donc pas seulement notre "pouvoir d'achat" sur le superflu, mais nos emplois, nos marges de manoeuvre pour faire fonctionner écoles et hôpitaux, etc.). Il est urgent d'investir dans la décarbonisation des transports (sans batteries, donc du train ou des trolleybus électriques), de l'industrie lourde, de l'industrie manufacturière, etc. et comme on aura besoin de plus d'électricité pour faire tourner tout ça car les économies ne suffiront pas à compenser la baisse du pétrole, je doute très fortement qu'on puisse s'en sortir juste avec quelques éoliennes (encore une fois, on ne parle pas de simplement payer son électricité "un peu" plus cher, mais on parle de disponibilité en volume d'une ressource vitale !)
Selon les régions, il peut aussi être possible d'installer une micro-centrale hydroélectrique
Je soupçonne que ce point de vue est également très idéologique. Les sites permettant de faire de l'hydroélectricité sont à peu près saturés à ma connaissance (mais je suis preneur d'infos)
Si chacun peut économiser les besoins en énergie par l'isolation, et l'utilisation judicieuses des équipements (dont les mises à l'arrêt des appareils électriques quand c'est crédible (pas un frigo, mais la TV et le magnétoscope, le lecteur DVD) en dehors de leur utilisation), on vit mieux et on économise des sous
Encore une fois, tu parles de concept. Relis mon post (et surtout le lien) pour avoir des ordres de grandeur. Eteindre la TV et le magnétoscope, remplacer ses lampes à incandescence par des fluocompactes, etc. représente des bouts de chandelles pas du tout à la hauteur de l'enjeu (ce qui ne veut pas dire qu'il ne faut pas le faire. Quoique dans le cas des fluocompactes je pense aussi que c'était une fausse bonne idée vu la toxicité du machin au retraitement).
Vaut-il mieux faire un projet 100% écolo, mais plus cher, plus contraignant à mettre en place, limitant la diffusion du projet et de sa technologie et donc continuer à centraliser la production d'énergie dans de grosses centrales thermiques/nucléaires/hydrauliques ?
La consommation d'énergie n'étant pas homogène ni constante (et sauf à déployer des batteries partout), le modèle centralisé est probablement le plus efficace pour limiter les pertes. Donc il est un peu simpliste de simplement affirmer idéologiquement que le modèle décentralisé est meilleur
Aucun projet n'est "100% écolo", mais dans tous les cas il convient de prendre en compte les ordres de grandeurs et pas seulement les concepts. Le nucléaire est probablement une s*loperie (à cause des risques et des déchets) mais je ne vois pas aujourd'hui comment s'en passer sans bouleversement majeur de notre mode de vie (car je pense que la priorité est de sortir du pétrole, et aucune énergie renouvelable n'est capable de passer à l'échelle pour le remplacer (même en prenant en compte les économies d'énergies qu'il faudra de toute façon développer)).
Voir ce bouquin pour avoir quelques ordres de grandeur.
Ou vaut-il mieux monter un projet libre, pas entièrement écologique et avec un potentiel de diffusion important donnant une chance de limiter l'utilisation de centrales ?
Le fait qu'un projet soit libre est très bien en soi (diffuser la connaissance et l'expertise est souhaitable), mais parler d'un potentiel de diffusion important est une autre paire de manches, notamment du fait que les éoliennes ne constituent pas une solution capable de passer à l'échelle (pour les raisons que j'ai évoquées : pas assez de lithium et de neodyme sur terre, pas de possibilité de dépenser son argent deux fois (or il me semble que les économies d'énergies représentent aujourd'hui un "gisement" beaucoup plus important que les renouvelables !)
de se passer de batteries (le lithium est en quantité limitée sur terre, et l'extraction des composants est polluante et énergivore, de même que leur retraitement)
de se passer de neodyme pour l'aimant (même combat…)
que le rapport puissance/coût de l'équipement (sans neodyme) soit intéressant par rapport à l'investissement du même argent ailleurs, par exemple dans les économies d'énergies (isolation des logements, etc.)
Le projet est-il toujours réalisable avec ces contraintes ?
Le mk802 coûte environ 30 € en Chine, et le nouveau mk808 (dual-core 1.2 GHz, Mali400 quad-core 200 MHz, 1GB RAM, moins de problèmes de surchauffe et meilleur Wi-Fi que mk802, 8GB flash) coûte environ 50 € (gros inconvénient cependant : Rockchip est bien moins coopératif avec le monde du libre que Allwinner => pas de solution pour le moment pour faire tourner Linux en standalone (hormis peut-être dans un chroot sous Android)).
Sur beaucoup de machines modernes (le raspberry pie était donné en exemple), la RAM est soudée, fixe et non extensible. Sur des machines un peu moins modernes, la RAM est limitée par le chipset (par exemple 3 Go sur les machines à base de 945GM, pas si ancien que ça), et pourtant elles devraient pouvoir continuer à rendre les mêmes services qu'autrefois.
Je comprends le raisonnement disant que le salaire d'un dev coûte plus cher que le hardware (ceci parce qu'on ne paye pas l'énergie ni les matières premières à leur vrai prix : on ne paye que l'effort nécessaire à leur extraction, mais rien correspondant à la ressource elle-même, qui est finie et non renouvelable). Mais à la fin on n'a qu'une planète => sans aller jusqu'à dire qu'il faut tout coder en assembleur, ce serait bien que les devs fassent un petit peu attention aux ressources qu'ils consomment pour éviter de nous faire changer de machine tout le temps ! Un raspberry pie avec 256 Mo de RAM devrait pouvoir être largement suffisant pour ce genre d'usage serveur ! (c'est quand même moins contraint qu'un C64 ! :)
Par exemple, pour le a et g, chaque paire de rates 6 et 9, 12 et 18, 24 et 36, 48 et 54, utilisent la même modulation physique, mais avec un taux de codage plus ou moins redondant/robuste (1/2, 2/3 ou 3/4).
Non, le système adapte aussi la taille de la constellation QAM (QPSK, 16QAM ou 64QAM. Dans le cas du 802.11ac, cela va même jusqu'à la 256QAM). C'est la même chose en WiMAX et LTE.
La différence, c'est que la redondance ne s'opère que sur quelques bits et en continue. Si la première moitié d'un paquet est parfaite et la seconde manquante, c'est mort
Je ne connais pas le détail du codage canal employé en wi-fi, mais ce dernier s'arrange pour assurer une résilience au niveau trame (en plus du codage canal, il y a aussi un mécanisme de CRC et ARQ afin que les trames ne recevant pas de ACK soit retransmises par l'émetteur sans passer par TCP). C'est aussi la raison pour laquelle le multicast est assez pourri en wi-fi (tout le monde utilise la même modulation i.e. la plus basse, et il n'y a pas d'ARQ…)
En fait, les technologies radio font à peu près toutes déjà ça (elles adaptent leur modulation et taux de codage (donc le débit) en fonction de la qualité du lien radio : par exemple, en QPSK-1/2, le 1/2 signifie bien qu'on consomme la moitié du débit physique en redondance liée au codage canal), et HARQ sert aussi à fiabiliser autant que possible le lien L2 car malheureusement TCP n'aime pas du tout les pertes de paquets (qu'il interprête comme de la congestion).
Rappelons tout de même que faire fonctionner simultanément deux interfaces radio dans un terminal mobile (e.g. Wi-FI@2.4 GHz et LTE@2.6 GHz) ne va pas sans poser quelques contraintes sur la gestion des interférences et sur la durée de vie de la batterie.
Oui, tout pareil avec mon NOVO7Paladin. D'ailleurs j'aimerais en faire un petit serveur Debian (car en usage tablette elle est disons… limitée par son jeu d'instructions MIPS qui la rend incompatible avec quasi toutes les applications du Market) mais je bute sur un petit souci : je recherche comment forcer le port miniUSB OTG à être en mode host tout en acceptant du courant (depuis le hub USB) au lien d'en fournir, car il n'y a qu'un seul port USB qui sert également à charger la tablette (pas de connecteur DC5V séparé). Est-ce que quelqu'un saurait s'il y aurait un réglage à faire dans /proc ou /sys (ou ailleurs) pour faire cette bidouille pas standard, ou est-ce que c'est tout bonnement impossible (comportement câblé dans le HW) ?
[^] # Re: Mouais
Posté par karteum59 . En réponse au journal La FSF, de dangereux crétins réactionnaires. Évalué à 1. Dernière modification le 20 décembre 2012 à 16:23.
<troll>
Si RMS préfère les logiciels GPL à LGPL, on se demande pourquoi il a soutenu Gnome face à KDE… (si je me souviens bien, le principal reproche venait de QT non libre, mais ce dernier est sous GPLv2 depuis la version 2.2 sortie en l'an 2000 !).
</troll>
[^] # Re: Mouais
Posté par karteum59 . En réponse au journal La FSF, de dangereux crétins réactionnaires. Évalué à -3.
Autre exemple : le noyau Linux est sous licence GPL, ce qui empêche par exemple de faire un fork pour le transformer en micro-noyau et de copier-coller du code et des algos sous forme de libs userspace, car les seules applis GPL auraient le droit de se linker dessus. D'une manière générale, la GPL restreint l'usage du code en empêchant sa réutilisation dans d'autres contextes tels que des libs. Je trouve que la MPL est un bon compromis entre GPL (trop "virale" à mon goût, et entrainant ensuite des barrières techniques pour des raisons non techniques) et la BSD (qui ne se protège pas, permettant à des industriels peu scrupuleux de prendre sans reverser…)
[^] # Re: Non-éligible à la réduction d'impôts
Posté par karteum59 . En réponse à la dépêche Au pays des chatons, la saison 2 du Packliberté. Évalué à 3. Dernière modification le 13 décembre 2012 à 14:43.
Wow, consternant !
Est-ce que c'est susceptible d'être reconsidéré maintenant qu'on a changé de couleur politique ?
[^] # Re: Chroot ?
Posté par karteum59 . En réponse au journal J'ai installé ubuntu sur une nexus 7. Évalué à 1. Dernière modification le 12 décembre 2012 à 11:38.
Même celui-là ? (disponible sur F-Droid)
[^] # Re: Idéal (par ce que je le veau bien)
Posté par karteum59 . En réponse au journal Se fier aux fournisseurs d’accès pour Internet, c’est se fier à des renards dans un poulailler. Évalué à 4.
Hmmm… en télécoms, on est de toute façon sur un système très règlementé qui amène forcément un oligopole (l'Arcep a affirmé explicitement se projeter sur un marché à 4 opérateurs lors de l'appel d'offre pour les licences "4G". D'ailleurs cet appel d'offres était d'une hypocrisie à mourir de rire tellement c'était taillé pour les 4 gros opérateurs en place et prévu pour ne pas laisser entrer de nouvel acteur sans vraiment le dire explicitement !).
Donc la comparaison avec le livre ne tient pas. Par ailleurs, sur le plan environnemental, notre système actuel oblige à multiplier le nombre d'équipements et à mal gérer les ressources spectrales en ne permettant pas d'homogénéiser dynamiquement le ratio MHz/nb_clients.
Bref, on aurait probablement pu avoir un modèle analogue à ERDF ou RFF : une entité publique qui gère les infras structurantes sur l'aménagement du territoire (i.e. la boucle locale), et une myriade d'opérateurs qui sont en fait juste des full-MVNO par dessus… Il y a des avantages et des inconvénients
+ moins d'équipements et moins de sites => moindre empreinte environnementale
+ meilleure gestion des fréquences (mutualisation des ressources => tout le monde a le même ratio MHz/nb_client)
+ pas de licence exorbitante à rentabiliser pour les opérateurs => tarifs moins élevés
+ plus d'opérateurs => plus de concurrence et tarifs moins élevés (et peut-être plus de taxe professionnelle à long terme ?)
+ pas de concurrence sur l'infra ou de contrainte sur les coûts => meilleur déploiement en zone rurale ?
- pas de contrôle fin des opérateurs sur l'infra => pas de garantie que ça corresponde aux besoins de couverture, surtout lorsqu'ils souhaitent adresser des marchés spécifiques
- pas de concurrence sur l'infra => tarifs plus élevés ?
- moins d'argent à court terme dans les caisses de l'état (licences)
- moins de déploiements et d'équipements => moins d'emplois pour le secteur télécoms
- contrôle de l'état sur toutes les infrastructure de boucle locale (peut-être pas souhaitable en démocratie).
# "nous aussi on est des gentils et on n'aime pas les méchants..."
Posté par karteum59 . En réponse au journal Se fier aux fournisseurs d’accès pour Internet, c’est se fier à des renards dans un poulailler. Évalué à 10.
Aaah, les méchants opérateurs télécoms qui complotent pour garder captive la population… Sans dénier que la concurrence puisse parfois stimuler un milieu et des offres trop statiques, j'ai de nombreuses remarques (souvent d'ordre technique) :
Ton discours est d'une manière générale totalement décorrélé des ressources. Or, dans le monde du sans-fils, la quantité de spectre disponible n'est pas infinie, pas plus que le nombre de sites avec énergie et backhaul. Ce n'est pas pour rien que des discussions (parfois animées et beaucoup de stratégie/politique cachée derrière un vernis en apparence technique) ont lieu lors des CMR tous les 4 ans à l'ITU, et plus près de nous à la CEPT et à la commission européenne, pour récupérer plus de spectre (le RSPP demande aux administrations de dégager des fréquences pour avoir en tout 1200 MHz de spectre mobile d'ici 2015).
J'aimerais rappeler qu'un appel VoIP consomme plus de ressource radio qu'un appel en mode circuit (codecs moins efficaces, en-têtes…). Alors partir du principe que c'est gratuit => ça ne consomme rien, c'est un raccourci un peu rapide…
On parle du fixe ou du mobile ? Dans tous les cas (mais particulièrement pour le mobile), on est dans un milieu très règlementé donc ce que les opérateurs font ne dépend pas que de leur volonté propre mais aussi des moyens (notamment en ressource spectrale) qui leurs sont alloués.
L'autre point : de manière tout à fait logique, les pays qui se lancent plus tardivement ont forcément équipements plus modernes ! Les investissements sont beaucoup plus colossaux que tu ne l'imagines (juste pour te faire une idée : installer un site macrocell mobile coûte dans les 100000 EUR) et donc ça prend un certain temps à rentabiliser (je ne parle pas de s'en mettre plein les poches, juste d'avoir un retour sur investissement !)
Alors là, ça montre clairement que tu n'y connais rien ! Pourtant si tu te penches un peu sur la question (bouquins, réponses aux consultations Arcep, discussions avec des équipementiers, etc.), tu verras que :
Bref, s'il n'y avait que quelques "vilains petits canards" et que le WiMAX était un succès mondial, on pourrait peut-être reprocher aux acteurs Français (qui sont de petits opérateurs) de ne pas avoir suffisamment bougé. Mais en l'occurence et vu la situation, peut-on leur reprocher de ne pas avoir investi quelques millions ou milliards dans une technologie qui allait mourir… ? (d'ailleurs ceux qui ont investi en Europe ont tous déposé le bilan !). Le 3GPP a défini un profil LTE@3.5 GHz l'année dernière (et entre temps, les composants RF multi-bande évoluent aussi, et le LTE a une modulation uplink différente du WiMAX, permettant de concevoir des PAs plus efficaces) donc on verra peut-être des choses progressivement bouger sur la bande 3.5 GHz - notamment avec la saturation de la bande 2.6 GHz qui arrivera inéluctablement. Mais par contre le WiMAX est clairement mort et enterré, et les opérateurs Français n'y sont pas pour grand chose (ni les petits chipsettiers d'ailleurs, qui ont fait ce qu'ils pouvaient. BTW, pour ceux qui ne connaissent pas, la France compte un fabricant de chipsets très en pointe sur le WiMAX/4G qui s'appelle Sequans. Je vous laisse regarder jusqu'à quel point leur site parle encore de WiMAX…)
# bitcode vs bytecode ?
Posté par karteum59 . En réponse à la dépêche Rencontre des Développeurs LLVM 2012. Évalué à 4.
J'ai cru comprendre que le bitcode utilisé par LLVM n'était pas sensé être stable dans le temps et donc ne pouvait pas être utilisé pour de la diffusion de code (contrairement au bytecode JVM/CLR/Dalvik…). Pourtant, je me disais que ça serait bien pratique d'avoir un langage intermédiaire stable et de pouvoir compiler
Debian<notre distro favorite>
pour une seule architecture "virtuelle" (je considère naïvement que le gros du temps de compilation doit être dans le frontend+optimisation, mais je suis preneur d'avis éclairés sur la question !), et que apt-get s'occupe de la dernière phase (backend+édition de liens…). ça éviterait à<la distro favorite>
de devoir stocker les versions compilées pour toutes les architectures (ce qui occupe de la place sur les serveurs), et ça permettrait aussi d'utiliser les optims spécifiques à son CPU (i386/i686, Altivec, SSE, armhf/armel, etc.) sans pour autant avoir les inconvénients d'une Gentoo (temps de compilation prohibitif, surtout sur des petites machines). Qu'en pensez-vous ? Est-ce que l'IR de LLVM pourrait tenir ce rôle à terme ? Ou sinon,<votre bytecode préféré>
?(N.B. bon évidemment ça ne marche pas avec les programmes qui contiennent de l'asm inline. Mais je présume que ces programmes sont minoritaires dans une distro ?)
[^] # Re: obsolète
Posté par karteum59 . En réponse au journal Munich a économisé grâce au logiciel libre. Évalué à 3.
Pourtant un dongle Android à 30 € s'en sort très bien même avec des sites un peu complexes (voir les vidéos sur YouTube), commme quoi il n'y a pas besoin d'un monstre qui consomme 300W…
[^] # Re: La réponse.
Posté par karteum59 . En réponse au journal Avis aux abstentionnistes. Évalué à 1.
Non juste un tableur (ou une feuille de calcul sur papier) lors du dépouillement pour faire des additions ! (les bulletins pouvant parfaitement être des bulletins papier glissés dans une urne en plexiglas)
[^] # Re: La réponse.
Posté par karteum59 . En réponse au journal Avis aux abstentionnistes. Évalué à 3.
Sinon, il y a le vote de valeur qui est peut-être plus simple à comprendre.
[^] # Re: moi aussi
Posté par karteum59 . En réponse au journal De l'inéluctable progrès de l'informatique, ou pas.. Évalué à 3.
Ah ? Moi j'ai relancé mon vieil Amiga 1200, avec un disque dur probablement plus lent que ledit portable… et ça ne rame pas un poil (démarre même plus rapidement que mon laptop+SSD actuel). Bon évidemment, on ne peut pas comparer des choux et des carottes et il ne faut pas lui demander de fonctionner en 1080p et d'interprêter des trucs modernes, mais cette machine continue de m'impressionner quand on pense aux limitations du hardware !
[^] # Re: Ecolo ?
Posté par karteum59 . En réponse à la dépêche Un projet d’éolienne sous licences libres. Évalué à 0.
Tu peux pinailler si tu le souhaites sur le sens du mot "consommable", il n'empêche que je persiste à dire que c'est une solution non durable (du point de vue de la société) tout simplement parce qu'il n'y a pas des quantités infinies de lithium sur terre ! (sans parler de la pollution liée au retraitement)
[^] # Re: Ecolo ?
Posté par karteum59 . En réponse à la dépêche Un projet d’éolienne sous licences libres. Évalué à 1.
??? pas des consommables ?
Lis (ou relis) le livre de P. Bihouix sur les métaux ou regarde cette intervention, tu verras que le recyclage est très incomplet (pas seulement dans ce qui est fait aujourd'hui mais dans ce qui est faisable en général et qui implique toujours des pertes !)
[^] # Re: Ecolo ?
Posté par karteum59 . En réponse à la dépêche Un projet d’éolienne sous licences libres. Évalué à 3.
Je pense plutôt qu'EDF emploie des ingénieurs, que ceux-ci savent ce qu'ils font, et que ce n'est pas pour rien qu'on est dans un modèle centralisé : c'est ce qui permet de mieux répartir et distribuer l'énergie (qui n'est pas homogène) car tout le monde ne pompe pas 16A en même temps (de la même manière que tout le monde ne télécharge pas à 24MB/s en même temps => les réseaux sont dimensionnés en ce sens, pour faire une analogie plus proche de notre domaine… mais le principe d'un taux de contention ne fonctionne que dans un modèle centralisé !)
[complément de mon précédent post faute d'avoir pu l'insérer comme modif. N.B. pour les modérateurs : le timeout pour "modifier" est vraiment trop court ! C'est la 2ème fois que je commence à modifier un message mais que je me fais jeter par le système à la fin car j'ai été trop long pour l'écrire !]
[^] # Re: Ecolo ?
Posté par karteum59 . En réponse à la dépêche Un projet d’éolienne sous licences libres. Évalué à 3.
Bien sûr que l'effet joule existe. Mais relis mon post précédent : il est question d'_ordres de grandeur_. En l'occurence
L'exemple même d'un préjugé idéologique… ça n'est pas rationnel quand on voit le tarif (ahurissant) auquel EDF rachète l'électricité que tu produis avec ton éolienne (alors même que l'électricité intermittente "qui arrive quand elle veut" devrait valoir moins cher que celle qui est disponible quand tu en as besoin !)
"En appoint" == disponible quand tu en as besoin == incompatible avec la notion d'intermittence (sauf à avoir plein de batteries, ce qui est résolument non durable et anti-écolo !)
"suffisent" == j'attends de voir des chiffres ! Pour rappel, on va devoir sortir du pétrole (de gré ou de force, il n'y en aura bientôt plus) et l'énergie pilote le PIB au premier ordre (donc pas seulement notre "pouvoir d'achat" sur le superflu, mais nos emplois, nos marges de manoeuvre pour faire fonctionner écoles et hôpitaux, etc.). Il est urgent d'investir dans la décarbonisation des transports (sans batteries, donc du train ou des trolleybus électriques), de l'industrie lourde, de l'industrie manufacturière, etc. et comme on aura besoin de plus d'électricité pour faire tourner tout ça car les économies ne suffiront pas à compenser la baisse du pétrole, je doute très fortement qu'on puisse s'en sortir juste avec quelques éoliennes (encore une fois, on ne parle pas de simplement payer son électricité "un peu" plus cher, mais on parle de disponibilité en volume d'une ressource vitale !)
Je soupçonne que ce point de vue est également très idéologique. Les sites permettant de faire de l'hydroélectricité sont à peu près saturés à ma connaissance (mais je suis preneur d'infos)
Encore une fois, tu parles de concept. Relis mon post (et surtout le lien) pour avoir des ordres de grandeur. Eteindre la TV et le magnétoscope, remplacer ses lampes à incandescence par des fluocompactes, etc. représente des bouts de chandelles pas du tout à la hauteur de l'enjeu (ce qui ne veut pas dire qu'il ne faut pas le faire. Quoique dans le cas des fluocompactes je pense aussi que c'était une fausse bonne idée vu la toxicité du machin au retraitement).
[^] # Re: Ecolo ?
Posté par karteum59 . En réponse à la dépêche Un projet d’éolienne sous licences libres. Évalué à 3.
Voir ce bouquin pour avoir quelques ordres de grandeur.
Le fait qu'un projet soit libre est très bien en soi (diffuser la connaissance et l'expertise est souhaitable), mais parler d'un potentiel de diffusion important est une autre paire de manches, notamment du fait que les éoliennes ne constituent pas une solution capable de passer à l'échelle (pour les raisons que j'ai évoquées : pas assez de lithium et de neodyme sur terre, pas de possibilité de dépenser son argent deux fois (or il me semble que les économies d'énergies représentent aujourd'hui un "gisement" beaucoup plus important que les renouvelables !)
# Ecolo ?
Posté par karteum59 . En réponse à la dépêche Un projet d’éolienne sous licences libres. Évalué à 7. Dernière modification le 08 novembre 2012 à 00:46.
Si le projet se veut écolo, il serait souhaitable
Le projet est-il toujours réalisable avec ces contraintes ?
[^] # Re: je doute...
Posté par karteum59 . En réponse au journal Mini PC ARM MK802 II tournant sous Linux. Évalué à 2.
Argh, plus moyen d'éditer mon post…
Mon lien concernant la clé amlogic était erroné, je voulais mettre celui-ci
Haipad annonce aussi une clé quad-core
[^] # Re: je doute...
Posté par karteum59 . En réponse au journal Mini PC ARM MK802 II tournant sous Linux. Évalué à 2. Dernière modification le 07 novembre 2012 à 11:27.
Le mk802 coûte environ 30 € en Chine, et le nouveau mk808 (dual-core 1.2 GHz, Mali400 quad-core 200 MHz, 1GB RAM, moins de problèmes de surchauffe et meilleur Wi-Fi que mk802, 8GB flash) coûte environ 50 € (gros inconvénient cependant : Rockchip est bien moins coopératif avec le monde du libre que Allwinner => pas de solution pour le moment pour faire tourner Linux en standalone (hormis peut-être dans un chroot sous Android)).
Edit: apparemment amlogic s'y met aussi
# SPICE vs NX ?
Posté par karteum59 . En réponse à la dépêche Virtualisation avec bureau SPICE. Évalué à 3.
Comment SPICE se compare t-il à d'autres protocoles comme VNC, NX, RDP… ?
(j'ai toujours été bluffé par les performances de NX)
[^] # Re: Gitlab recommend at least 1Gb ram
Posté par karteum59 . En réponse à la dépêche Nouveautés autour de Git. Évalué à 2.
Sur beaucoup de machines modernes (le raspberry pie était donné en exemple), la RAM est soudée, fixe et non extensible. Sur des machines un peu moins modernes, la RAM est limitée par le chipset (par exemple 3 Go sur les machines à base de 945GM, pas si ancien que ça), et pourtant elles devraient pouvoir continuer à rendre les mêmes services qu'autrefois.
Je comprends le raisonnement disant que le salaire d'un dev coûte plus cher que le hardware (ceci parce qu'on ne paye pas l'énergie ni les matières premières à leur vrai prix : on ne paye que l'effort nécessaire à leur extraction, mais rien correspondant à la ressource elle-même, qui est finie et non renouvelable). Mais à la fin on n'a qu'une planète => sans aller jusqu'à dire qu'il faut tout coder en assembleur, ce serait bien que les devs fassent un petit peu attention aux ressources qu'ils consomment pour éviter de nous faire changer de machine tout le temps ! Un raspberry pie avec 256 Mo de RAM devrait pouvoir être largement suffisant pour ce genre d'usage serveur ! (c'est quand même moins contraint qu'un C64 ! :)
[^] # Re: En parlant de TCP...
Posté par karteum59 . En réponse à la dépêche MPTCP, TCP dans un monde ultra‐connecté. Évalué à 2.
Non, le système adapte aussi la taille de la constellation QAM (QPSK, 16QAM ou 64QAM. Dans le cas du 802.11ac, cela va même jusqu'à la 256QAM). C'est la même chose en WiMAX et LTE.
Je ne connais pas le détail du codage canal employé en wi-fi, mais ce dernier s'arrange pour assurer une résilience au niveau trame (en plus du codage canal, il y a aussi un mécanisme de CRC et ARQ afin que les trames ne recevant pas de ACK soit retransmises par l'émetteur sans passer par TCP). C'est aussi la raison pour laquelle le multicast est assez pourri en wi-fi (tout le monde utilise la même modulation i.e. la plus basse, et il n'y a pas d'ARQ…)
[^] # Re: En parlant de TCP...
Posté par karteum59 . En réponse à la dépêche MPTCP, TCP dans un monde ultra‐connecté. Évalué à 5.
En fait, les technologies radio font à peu près toutes déjà ça (elles adaptent leur modulation et taux de codage (donc le débit) en fonction de la qualité du lien radio : par exemple, en QPSK-1/2, le 1/2 signifie bien qu'on consomme la moitié du débit physique en redondance liée au codage canal), et HARQ sert aussi à fiabiliser autant que possible le lien L2 car malheureusement TCP n'aime pas du tout les pertes de paquets (qu'il interprête comme de la congestion).
[^] # Re: Je sens que je vais me faire traiter de troll mais ...
Posté par karteum59 . En réponse à la dépêche MPTCP, TCP dans un monde ultra‐connecté. Évalué à 6. Dernière modification le 29 octobre 2012 à 16:19.
Rappelons tout de même que faire fonctionner simultanément deux interfaces radio dans un terminal mobile (e.g. Wi-FI@2.4 GHz et LTE@2.6 GHz) ne va pas sans poser quelques contraintes sur la gestion des interférences et sur la durée de vie de la batterie.
[^] # Re: Réseau
Posté par karteum59 . En réponse au journal ice cream sandwich, je ne mange pas de ce pain-là. Évalué à 3.
Oui, tout pareil avec mon NOVO7Paladin. D'ailleurs j'aimerais en faire un petit serveur Debian (car en usage tablette elle est disons… limitée par son jeu d'instructions MIPS qui la rend incompatible avec quasi toutes les applications du Market) mais je bute sur un petit souci : je recherche comment forcer le port miniUSB OTG à être en mode host tout en acceptant du courant (depuis le hub USB) au lien d'en fournir, car il n'y a qu'un seul port USB qui sert également à charger la tablette (pas de connecteur DC5V séparé). Est-ce que quelqu'un saurait s'il y aurait un réglage à faire dans /proc ou /sys (ou ailleurs) pour faire cette bidouille pas standard, ou est-ce que c'est tout bonnement impossible (comportement câblé dans le HW) ?