C'est clair qu'a l'education nationale ils ont aucun moyen de depenser l'argent autrement. A part pour les logiciels ils ont absolument tout ce dont ils peuvent rever.
Tiens d'ailleurs je crois que la securite sociale va se lancer dans une manoeuvre similaire pour les memes raisons.
Manifestement l'hyperthreafding fiche le bazard. J'imagine que tu n'as pas de CPU0 dans /proc/acpi/processor....
CPU1 doit etre le pseudo-proc qui permet l'hyperthreading. C'est un peu normal qu'il ne laisse rien passer...
Si c'est comme dans l'acpi classique ca va etre un truc du genre :
/proc/acpi/processor/CPU0/{limit, info, performance, power, throtling }
Normalement tu n'es suppose touche qu'a limit et performance. Throtling peut avoir des consequences assez desagreables...(Decalage timer, choc electrique, vidage batterie etc...)
Il y a deux gros problemes avec les dits outils de detection.
Ce sont ce qu'on apelle des outils d'analyse semantique, c'est a dire des outils capables de comprendre le contexte general et le message d'un contenu/d'une image.
Ces outils ont souvent un systeme d'apprentissage et sont surtou utilises par deux grands groupes industriels :
1) Les traducteurs
2) La presse
Ces outils fonctionnent par recoupment d'information et generalisation. Ils fonctionnent majoritairement dans un monde ou les gens cherchent a etre compris et a se demarquer. Il faut bien reconnaitre que dans ces deux domaines ces outils sont assez performants.
Le seul de ses outils disponibles pour le grand public est "systran pro" encore qu'il y ait des traces d'analyse semantique dans certains traitements de texte, logiciel d'OCR et de reconnaisance vocale.
Malheureusement l'analyse semantqiure est un des domaines dans lequels l'etre humain est tres tres en avance sur l'ordinateur. Il est extrement facile de rendre fou un analyseur semantique ou tout simplement de le faire se tromper completement.
La reconnaissance de motifs qui est a la base de beaucoup d'outil d'analyse semantique est aussi un autre domaine dans lequel l'etre humain est beaucoup plus fort que l'ordinateur.
S| \/0uS 3Cr|\/3z <--- comme ca un analyseur semantique va avoir du mal.
De meme la reconnaissance de motif semi-complexe est impossible aux ordinateurs (cf la protection par message dans une image lors de l'inscription pour un compte AOL).
La chose que les politiciens (et meme Bill Gates, si on en juge par sa declaration anti-spam) ne semblent pas comprendre et que l'on a pas affaire a un probleme technique. Il ne s'agit pas de resoudre un probleme regit par des lois physiques rigides, il s'agit de bloquer des humains qui vont tout faire pour passer. On a affaire a un combat intelligence humaine contre intelligence humaine. Ca ne veut pas dire qu'il faut baisser les bras, mais ca veut dire a coup sur que sur un nouveau systeme l'equipe d'en face trouvera un moyen de contourner le probleme.
Et en ce qui concerne le Web on comence a voir pas mal de sites fortements illegaux (et dont du coup je ne donnerais pas les adresses) qui utilisent les CSS pour passer outre les verifs standards. Comment ? Tres simple : Vous pouvez casser une image et 150 images plus petites et recomposer derriere, vous pouvez choisir quelles informations faire apparaitre et dans quel ordre (pratique pour les serials numbers, mais a mon avis totu a fait utilisable pour d'autres choses) etc...
L'analyse semantique informatique de donnees ecrites par des gens qui a) savent que les outils existent et b) ne veulent pas etre compris de ces outils est a l'heure actuelle techniquement impossible. Le fait que des outils comme les filtres baysiens fonctionnent est autant lie a la qualite du logiciel qu'a sa rarete (et donc les spammeurs/verolleurs ne voient pas l'interet de se defoncer pour moins de 0,5% des configs). Vouloir rendre obligatoire un type de filtre ou de moteur est stupide, car celui ci deviendra vite "connu" des personnes qui veulent passer au travers. Sans compter le fait qu'il est tres facile de "sur-entrainer" un analyseur syntaxique...
Bref ce qui me gene c'est uen fois de plus la volonte de mettre en place un systeme dont on sait deja au niveau universitaire qu'il sera innefficace a terme...
Ah non, Disney n'a jamais fait que de la non-diffusion. Dysney a un contrat avec Ghibli pour avoir l'exclusivite sur les droits de diffusion des DA Ghibli. A ma connaissance ils se sont servi de ce droit pour bloquer toute tentative de diffusion des DAs Ghibli le plus longtemps possible (et quand on compare Totoro et Hercules on comprend un peu pourquoi ...). Il y a des Ghibli sur nos ecrans que depuis tres peu de temps, et Dysney n'a jamais participe a la production d'un seul Ghibli. Ils ont exclusivite de diffusion, mais ils n'ont aucun droit sur les oeuvres.
Le nombre de Ghibli qui sont passes au travers des mailles de diffusion Dysney parceque le temps de priorite etait ecoule est impressionant. :
-Le tombeau des Lucioles
-I can ear the sea (Je peux entendre la mer)
-Gonshu le violoncelliste
-Mon voisin Totoro
-Porco Rosso
etc...
Au final Dysney n'est que diffuseur, et en fait meme pas vraiment...
- Tonton Dudule qui a son logiciel et son CD de d'emails et qui est persuade qu'il va faire fortune. Tonton Dudule est lourd mais il fait a peine 10% du Spam en etant large. Tonton Dudule ne vous a probablement jamais envoye d'email, et lui il va prendre gras si le systeme de calcul est mis en place
- Les harvesteurs/bombeurs, eux ils comptent sur les robots pour fair ele boulot a leur place, scan du net, virus et zombis spams, quelques spywares et le tour et joue. Les harvesteurs/bombeurs n'envoient jamais d'emails il laissent le virus faire a leur place et essayent de vous forcer la main par pleins d'autres methodes (pop-ups lors du surf si vous etes sous windows, redirection, collection de donnees perso etc.)
Les harvesteurs/bombers se foutent completement du systeme de verification, si quelqu'un doit faire les calculs ce sera la machine infectee. (cf thread un peu plus haut). Ils representent a peu pres 60% du spam actuel
- Les fulls spammeurs. Dans la mafia du spam ce sont les gros morceaux, les serveurs sont en russie et en asie et ils fournissent le kit total. Pour les newbies le profgramme et le cd sus-cite, pour els clients un peu plus gros tout le toutim. Sendsafe.com (Russe) et Himailer.com (asie) par exemple. Leur domaine est connu et ils savent ce qu'ils font (hint : leur serveurs webs ne sont pas des IIS en fait). Pour les clients qui ne veulent pas prendre de risques et qui ont les moyens il prennent tout en charge. Ce sont generalement eux qui envoient les spams en HTML et qui fabriquent les outils a spamer. Ils sont probablement de meches avec les harvesters/bombers. Ils representent probablement un petit 30% du spam mais ne demande qu'a grossir si la concurrence faiblit.
Leur domaine/donnees/serveurs sont tres mechament proteges (tu parles il y a 200 000 admins qui veulent leur peaux) et je pense que l'on peut definitvement considerer que ce sont des pros.
C'est justement ca qui est trompeur, les spammeurs en enorme majorite sont des petits cons chez eux avec qqes machines qui font tourner des softs de spam qu'ils ont achete sur des CD d'addresses qu'ils ont achete.
La majorite des spameurs oui, mais ce n'est pas eux qui envoient la majorite du spam.
Comprenons nous bine le mec qui monte la societe Dushmuc, les meilleurs lubrifiants a zinctron de la terre et qui est persuade qu'il va faire fortune grace a son programme et a son CD tout ce qui va lui arriver c'est de se faire couper sa connection internet avec perte et fracas. Une fois qu'il aura fait le tour des ISPs autour de chez lui 3 fois, qu'il aura paye pour le cable et l'ADSL (dont l'install est pas gratuite) ben il ira pleurer...
Le pauvre Alfred qui envoit de la pub pour son site porno amateur a des gens que ca ennerve il le retrouve en miette au petit matin (litterament, ca sert a rien de restaurer le backup...). Il a pas les compteneces techniques pour durer. En plus son CD il perd 50% de ses adresses tous les mois ou a peu pres. Et c'est pas donne.
Le seul vrai probleme se sont les gros (Asie et Russie) qui bombardent vraiment comme des sagouins parceque 1) ils ont la bande passante et 2) le plus gros client de leur ISP c'est eux alors avant de se faire fermer leur connection (et ca c'est quand ils ont pas un plug direct backbone).... 3) Ils ne sont pas leur propre client, quand ils envoient du spam ils sont payes instantanement !
Ces gros spameurs sont des experts en securite, reseau, hardware etc. Il y a deja une equipe technique dont le boulot est de trouver des failles, des routeurs pas securise, de contrer les attaques des gens qui veulent leur peau etc. Ces gens la mettre cents ordis de calcul sur un gigaswitch ils font ca pendant la pause dejeuner.
Comme je te l'ai montre avant, 1 machine ne peut calculer plus de 86400 valeurs par jour si on prend un temps d'1s.
Je maintiens que ca n'est pas le probleme. Peut importe le temps moyen pour envoyer un mail. J'ai calcule plus haut que l'on pouvait envoyer 128 mails/secondes a peu pres. donc on peut donner un temps moyen d'envoit d'email de l'ordre du 1/100 de seconde. Si le temps de calcul est effectivement de 1s il faut 100 machines de calcul par seveur, et le surcout est de l'ordre de 25cts/1000 mails. C'est risible et je le maintien.
Maintenant si on introduit vraiment un rapport de 100 entre la duree normal d'un envoit mail et la duree calcul le syteme s'effondrera tout seul, parceque personne au monde ou a peu pres n'a de serveur mail utilise a 1%, ce qui veut dire que l'ensemble des serveurs qui suivront ce syteme ou y seront confrontes satureront, et il n'y a pas que des liaisons client-serveur dans le monde mail, il y a aussi des liaisons serveur-serveur, et il y en a pas mal. Un rapport superieur a 10 est utopique, si en en croit les tests fait dans ton doccument on passe de l'ordre de 1/128 de seconde a 3 secondes soit un rapport de 384...
A se stade la question ne se pose meme pas, la reponse est non.
Ok je viens de lire le doccument,
Donc c'est bien de complexcite exponentielle, le memory bound aide un peu mais il est assez "bizarre" les temps d'acces memoire sont un poil faible par rapport a ce qui se fait de mieux maintenant (dans le grand public). Mais bon. L'immense avantage de leur technique est de rendre inefficace la genration de table sur une machine et de rendre cette generation quasiment imparallelisable. Par contre cette methode a un defaut ennorme : Elle prend en compte les envois client vers serveur exclusivement. Et pas les envoits serveur vers serveur.
Si on met ensemble les differentes choses on a deux possibilites :
Soit les serveurs exigent des calculs en meme temps qu'ils acceptent les mails d'un autre serveur (ce que le papier recomande fortement) et la on a une catastrophe, soit ils se "font confiance" et la on a une passoire.
Dans le premier cas on a un calcul qui bouffe 32 megs de ram et les bloque pendant plusieurs secondes (3 secondes dans l'exemple). Un serveur devient donc techniquement incapable d'envoyer plus d'une dizaine de mails par seconde vers un autre serveur. (30 mails necessitent 1Go de memoire et mettent 3 secondes a partir dans le meilleur des cas, et encore jefais grace du temps de transmission du mail a proprement parler). Dans la pratique avec le fait que la plupart des serveurs mails n'ont pas 1Go de ram et que peu de serveurs (au sens logiciel du terme) sont capables de gerer 30 connections ouvertes en simultanee on risque d'etre en dessous. Et la bien sur je parle de serveur pros, pas de systemes "maison". Bref j'ai un gros doute. Simplement dans la boite ou je suis en tenant compte des chiffres plus haut il faudrait multiplier par au moins 10 le nombre de serveurs (5 -> 50, on a des pics a plus de 230 mails/secondes et on est des tous petits joueurs...). J'imagine qu'il faudrait aussi adapter la bande passante pour qu'elle puisse soutenir ces transactions longues, mettre en place un systeme de load-balancing et de routage monstrueux pour que les mails se repartissent correctement sur les differents serveurs, plus une equipe d'admin de chez severe etc. Bref la premiere chose que l'on ferait serait d'aller voir nos differents ISPs et de leur demander gentillement d'enlever ce controle a la noix. Je pense que les ISPs passeraient aussi des accords entre eux. Et hop retour a la case depart.
Meme si le spam represente plus de 70% du traffic, je pense qu'il risque de falloir investir en masse pour gerer les 30 % qui restent.
En ce qui concerne le spoofage d'ip et la diversion de routeur, penses-tu serieusement que les boites vont installer des controles mails en interne ? A mon avis la plupart des boites non ISP considereront que les emails qui arrivent d'une IP connue a l'interieur du domaine sont forcements valides (ou alors il faut encore faire des changements structurels fort), de meme si j'arrive a faire croire que mon email (que je suis en train de streamer sur un routeur) vient de serv_mailIntern pour aller vers serv_mailExtern je pens eque je vais encore etre dispense de calcul a ce moment la. Ensuite quand serv_mailExtern aura accpete le mail et cherchera a le distribuer ca ne sera plus mon probleme...
Tu viens de multiplier le cout d'envoyer un spam par un facteur gigantesque et de le rendre bcp moins lucratif.
100 machine c'est un maximum tres tres large, a mon avis la realite sera inferieure a 10 machines.
Ce sont des machines sans stockage , avec un mini BSD sur une prom ou eventuellement une flash si il faut un peu de place. Apres tout on a besoin d'une station telnet capable de faire des calculs et c'est tout. Un os complet capable de faire ca doit tenir sur une disquette.
Un admin ? Pourquoi faire ? sans vouloir etre mechant je ne vois pas comment un truc aussi simple pourrait planter... Reste la panne materielle, la la solution c'est poubelle. Un PC celeron 2.4 Ghz neuf de chez dell avec OS + logiciels + clavier/souris/ecran/enceinte + 1 an de garantie ca vaut 299$ aux US et c'est plus que surpuissant pour faire ce qui est demande (ou alors il va y avoir un probleme).
Les mecs qui font du spam a l'echelle planetaire n'ont pas deux machines dans leur appart, ils ont une salle serveur complete avec des connections dans tous les sens. La plupart sont bases en Asie si j'ai bien compris.
Sans disque dur et sans ecran un PC consome de l'ordre de 20-100 watts (suivant le proc). 100 PCs consonmants 100 watts ca fait 240Kwh/J, un surcout de l'odre de 15 Euros par jour, c'est clair que c'est ca qui va crucifier les spammeurs.
Tu viens de multiplier le cout d'envoyer un spam par un facteur gigantesque et de le rendre bcp moins lucratif.
allons-y gentillement.
Mettons que l'on ait besoin de 100 PCs/serveur (hautement improbable), qu'il faille en changer tous les six mois (ben voyons), que les spammeurs n'augmentent pas les tarifs (ha ha) et qu'il faille des ordinateurs a 500$ (pour etre sur).
faisons le calcul.
On compte 2Ko par email
Un serveur qui sature une liaison 2 megabits peut envoyer 128 mails par seconde soit environ 11 000 000 de mails par jour (faut deja les trouver).
Le surcout est de 2800$ par jour en comptant l'electricite et un suplement livraison/install.
Ca fait un surcout de 0,00025 $/mail. soit 0,25$ par 1000 mails.
Aux dernieres nouvelles les tarifs etaient de l'ordre de 2$/1000 mails pour les mails non certifes (on ne sait pas si quelqu'un les lit) et 10$/1000 mails pour les boites aux lettres certifies (quelqu'un les lit on en est sur). Cela pouvait monter jusqu'a 30 ou 40$ les 1000 mails pour les boites aux lettre profilees(passiones du sujet ou qui ont deja repondus a du spam).
Donc meme dans un cas totalement abherant a tout point de vue, le sapm reste encore tres tres rentable, et le surcout du spam reste negligeable. A mon sens cela ne fera que contrebalancer la baisse du prix des liaisons tres haut debit et specialisees.
La question n'est pas de savoir combien de temps tu mets pour faire un calcul, mais quel est le rapport (temps de calcul)/(temps d'envoit).
Mettons qu'il vale X, il te faut alors X serveurs de calcul par serveur d'envoit. Comme X ne peut pas etre ennorme sous peine de peser sur l'architecture existante, le probleme est vite regle. Je peux parfaitemet pour un prix risible me payer 10 20 ou 100 serveurs dont le seul but sera de faire des calculs.
Si X vaut 100 (ce qui est hautement improbable) il me faut donc 100 machines qui ouvrent des envoits email simultanement pour un serveur ? Des machines qui n'ont besoin ni de stoquage, ni d'os, ni de clavier ni d'ecran ? Je dois pouvoir avoir ca chez un brocker a moins de 100$ la machine. Si je veux du veloce (sparc, arm, alpha...) 500 $ (oui cent machines d'un coup quand on est pas regardant on a des prix). Bref cout maximum pour une ferme de calcul tout a fait honorable compte tenu des conditions ? 50 000 $ MAX. En etant vraiment super large.
Bien sur il y a la consomation d'electricite qui va monter, la maintenance et le stockage. Mais 100 sparcs ca prend pas beaucoup de place, et c'est solide...
Tu sais, il y a des types de calculs qui sont long a faire et rapide a verifier, --> lent pour le gars qui doit trouver la reponse et rapide pour le gars qui verifie
Ils sont pas completement idiots chez MS Research non plus, ils ont fait un peu plus que le Bac comme etudes.
Oui je sais, masi ce n'est absolument pas ce dont je parle.
Pour etre clair tout d'abord les calculs long a faire et facile a verifier (extraction de racines complexes, prob trigo a la noix, decomposition en facteurs premiers etc...) sont aussi de complexite exponentielle. Donc soit ils plafonnent assez vite a des niveaux faisables par un ordi (< quelques secondes) et a ce moment la il suffit de les stoquer dans une base de donnees (la decompisition des nombres de 1 a 65536 en facteur premier ca prend pas beaucoup de place) pour court circuite rle systeme. Soit ils sont long et ils deviennent tres vite tres long...
Mais le probleme n'est pas la. Supposons un serveur qui envoit 100 000 emails par jour avec des emails dont la transmission dure en moyenne 1 seconde, il rsique de prendre une mechante baffe si la transmission moyenne passe a 3 secondes. Ca peut entrainner dans l'ordre une saturation des connections (je ne pense pas que l'on coupe la ligne entre le debut et la fin des calculs), une saturation memoire (l'air de rien garder en memoire le calcul + le resultat + l'id du mec qui fait la demande, ca peut monter assez vite) , des problemes de relaying entre deux domaines (ben vi quand je vais reemettre le mail que je viens de recevoir vers son destinataire si je suis pas sur une white liste je suis bon pour me frapper les calculs aussi) etc.
Bref mon serveur qui encaissait sans broncher (avec un tout petit peu de mal en periode de pointe) les 100 000 mais ils risque de faire la gueule...
Et ca va changer quoi ? Les e-mails devront toujours etre verifies avant d'arriver.
Si je place mon email direct dans un routeur ? Je pense en effet qu'il va etre verifie, mais c'est pas mes ordis qui vont bosser, j'ai jamais eu la moindre connection avec un serveur SMTP... Si je me mets en relaying avec une adresse bidon spoofee d'un routeur de la meme boite ? Je ne pense pas faire de calcul non plus, je ne vois pas trop la societe Toto depenser de la'rgent pour valider les mails @toto.com... Une fois de plus la validation aurau lieu, mais c'est pas moi qui vais me la frapper... Apres 1000 email par ci, 500 emails par la et c'est meme pas sur que le traffic soit visible...
Toutes les grosses entreprises savent comment faire car elles ont les competences, tous les gros ISP aussi, hotmail, yahoo aussi, etc...
Le gars qui sait pas fermer son serveur au relaying et sait pas mettre de challenge-response, il emmerdera ses utilisateurs et personne d'autre, alors qu'aujourd'hui il emmerde toute la planete
Tous ceux qui ont leur compte mail sur un serveur correctement administre seront tranquilles, car le serveur n'acceptera pas d'e-mail sans challenge-response.
Le probleme est qui va faire ce challenge response ? C'est vrai que si je veux envoyer 100 000 emails ca me casse les pieds, mais si je casse ca en 200 paquets de 500 emails que je ventile vers des sites bien ouvert (ce qui est deja ce que font la plupart des spameurs aujourd'hui). Perso je n fais aucun calcul, chacun des pigeons fait bien les 500 calculs qui vont bien (bon dans le lot il y en aura peut-etre qui se poseront la question du pourquoi de cette montee du load mais j'en doute) et les mails arrivent a destination... Propre net et precis...
Si les spameurs devaient changer radicalement de methode pour mettre en place un nouveau systeme ca aurait peut-etre un impact, mais vu qu'ils procedent deja comme ca ....
1000 machines ? Pourquoi faire ?
2 ou 3 en plus suffiront largement...
Le systeme c'est bien j'envoie un calcul , je recupere le resultat et si c'est bon je laisse passer le mail ? En deux secondes avec un proxy je peux avoir la machine qui fait les calculs qui est completement differente de la machine qui envoie les mails non ?
Donc mon robot se conecte, effectue le calcul et passe la main au serveur d'envoit de mail. Et pendant que le serveur envoit son mail mon robot est deja en train de demander un autre calcul ailleurs.
En d'autres terme si le temps mis a faire le calcul est sensiblement egal au temps mis a envoyer un email (mettons une seconde pour un mail HTML) alors je perd une seconde la premiere fois (le moment ou le serveur "attend" le robot) et apres ca roule.
Si le temps est moitie moindre un seul robot peu debloquer des envoit d'email pour deux serveurs. Si le temps est double ou triple il faut deux ou trois robots pour debloquer le serveur. Mais a chaque fois la perte de temps sera quasi nul.
Si le temps mis pour faire le calcul est plus que triple a celui de l'envoit d'un email ca peut genrer des effets de bords amusants (comme la necessite pour les FAIs de devoir tripler la quantite de serveur pour traiter le meme nombre d'email).
Mais restons sobre meme si le temps est decuple, (10 secondes de verif pour une seconde de transmission) a moins de 1000 $ le calculateur sans ecran (uen sparc ou un alpha sur Ebay font ca tres bien), le spammeur doit donc debourser 10 000$ pour continuer a utiliser son serveur a plein potentiel ? A mon avis ca doit quasiment rentrer dans la section "consomables".
Si il faut vraiment faire des calculs colossaux pour envoyer un malheureux mail les heureux possesseurs de becannes annee modele <2001 vont pouvoir se tirer des balles tout de suite. Sans compter les FAIs qui vont devoir generer et verifier ces calculs...
Est-ce que c'est juste moi ou le monsieur a strictement rien compris a comment fonctionne le Spam ?
En ce qui concerne les filtres, et notamment les filtres Baysiens, la pire chose qui puisse arriver ets une norme.
Je m'explique si un filtre devient connu et se repend, les spammeurs serot tout a fait capable de le contourner, soit en comprenant sa methode d'apprentissage dans le cas d'un filtre evolutif, soit en evitant soigneusement les mots clefs dans le cas de filtres statiques. A aprtir du moment ou il y a un filtre, il y a moyen de tester son email contre ce filtre, c'est d'ailleurs deja ce que beaucoup de spammeurs font, ils testent leurs emails contre les filtres "repandus" qu'ils metten soigneusement a jour avec leur propres spams et ceux des concurrents. Les filtres emails vont genrer le meme type de course que ce que l'on a actuellement au niveau virus/anti-virus. De plus la plupart des filtres necessitet que l'on telecharge l'ensemble du mail pour etre actif, en d'autres termes la bande passante est deja consomee au moins pour le FAI. Bref le filtrage est un serum mais il ne eput en aucun cas pretendre etre un vaccin et donc n'est pas la solution...
En ce qui concerne le calcul obligatoire pour chaque email, c'est une chose completement ridicule, tout d'abord elle necessite que le destinataire ou le relayeur de l'email verifie le calcul, a savoir genere le calcul a faire, le transemette a l'emeteur du mail, recoivent la reponse de l'emetteur, la verifie puis donne le feu vert pour l'email.
Soit les calculs sont long (plus d'une seconde) et a ce moment la avant meme de savoir si le spameur va pouvoir envoyer son email il faut grandement augmenter la puissance et la disponibilite des serveurs, soit les calculs sont court et ca ne sert a rien.
Un spammeur utilsie rarement le systeme d'envoit d'email standard, 90 fois sur 100 il passe par des routeurs mal configures, des serveurs ouvert en relaying ou un peu laxiste quand a l'identification d'appartenance au domaine. Les "gros" spammeurs utilisent des centaines de routes simultanement.
Outre le fait que je ne vois pas comment un admin qui n'est pas capable de fermer on serveur au relaying ou de configurer un routeur proprement va faire pour mettre en place un systeme de challenge-response fiable, il faut 30 secondes a un spammeur pour creer un systeme qui va "debloquer" les calculs (avec un robot) a la file avant qe passer la main a l'ordinateur emetteur du mail proprement dit. Avec un tel systeme et en comptant des mails en HTML qui mettent de l'ordre de la seconde a partir le systeme de calcul a donc un impact absolument nul sur les spameurs... Ca leur coute une seconde de perdue pour le premier calcul et un nouveau serveur qui calcule vite (cout estimee : 10 000$ en etant tres large). Bref ca fait surtout bien rire.
L'idee du timbre digital est de loin la plus ridicule, de deux choses l'une soit on connait le nom et le domaine du spammeur et on le blackliste, soit on ne le connait pas et on va vaoir du mal a le faire payer. Vous pensez vraiment que xfghytre@hotmail.com, ____##@yahoo.com et noone@nothere.not vont payer la facture ? Personellement j'ai un gros doute. Il existe un certain nombre de groupes qui luttent contre le spam depuis des annees, si il etait possible de remonter jusqu'a la source des spams le probleme serait regle depuis un moment. Certes il existe des boites qui proposent des listes d'emails a vendre mais je peux vous garantir qu'elles n'utilisent jamais un nom de domaine en leur possesion pour effectivement envoyer les emails...
Bref une declaration qui aura surement autant d'impact que la derniere (celle sur l'annee de la securite, je ne sais pas si vous vous souvenez). En tout cas a dans 3 ans pour de nouveaux spams !
Bien que j'approuve grandement 90% de ton texte, pour les firewalls je te conseille quand meme d'utiliser OpenBSD. Au niveau flexibilite, parametrage et resistance aux attaques il y a pas photo. En plus c'est un peu fait pour ca....
Alors non ce n'est pas juste un streamer, c'est un gestionnaire de flux complet. Ca permet de splitter/concatener/diffuser des flux dans tous les sens en appliquant des filtres que ce soit sur le reseau ou via une application en local.
Par exemple on peut prendre un fichier vob DVD, le passer dans un demuxeur, passer le flux DVD dans un decodeur Video, puis dans un encodeur Xvid, pendant que les 5 channels audio seront splittes en deux faisceaux (gauche+cente, droite +centre) puis passe dans un encodeur vorbis. Au final les flux videos et audios seront recuperes par un derniers filtres et lies dans un OGG.
Voila poyur la difference, ca permet de construire un decodeur/encodeur/diffuseur brique a brique tranquilement.
Pour le cote innovation par contre il y a un hic, Direct Show fait ca depuis des annees, et il y a meme une interface graphique qui marche tres bein (Graphedit). Bon ca passe pas par le reseau mais ca revient un peu au meme....
Là, un patron pourra embaucher un informaticien pour réaliser un logiciel, pour disons, 4-5 ans, et ensuite s'en débarraser sans problème.
Il peut aussi se debarasser de l'informaticien si le projet est abandonne, qu'il y a des changements significatif dans le projet (avant c'etait e-toto, maintenant c'est toto.net, rien a voir), que la mission n'est pas finie dans les temps etc.
Pour l'instant les notions de primes de precarite (comme pour le CDD), de duree minimale, de reclassement et de niveau de qualification (pour les points retraite) sont a definir. Il y a une notion de prime de fin de mission, mas la notion de mission restant tres floue et l'obligation de garder un employe jusqu'a ce que la mission soit consideree comme finie etant inexistante je sens que ca va pas peser lourd.
En fait il suffit de dire la "mission est finie" pour que la personne n'ait plus qu'a rentrer chez elle.... Vachement plus simple que de limoger et beaucoup moins cher que de faire appel a de l'interim ou une SSII.
Et puis un simple coup d'oeuil aux debordements causes par la loi sur les intermittants du spectacle (un ingenieur du son peut etre considere comme tel) permet de se faire une bonne idee sur ce qui va se passer.
Ah oui tu as du te planter dans la config,
Perso que ce soit avec du BSD ou du Linux 2.4, mes serveus Samba saturent la bande passante 100Mb/s sans probleme. Copie disque a disque via le reseau va taper dans les 12Mo/s (si il y a rien d'autre en cours bien sur). J'ai essaye de monter le meme reseau en 1Gb/s pour refaire les tests mais j'ai pas reussi a trouve assez de materiel compatible a l'epoque (1 an).
Mais bon Samba pour moi ca reste la reference des partage reseau :
Voici les possibilite qu'a un Samba et que n'a pas Windows :
- Connections concurentes illimites avec gestion de cache optimisable (tres pratique si 200 personnes accedent au meme fichier texte en lecture seule)
- Double gestion des droits (triple si on rajoute un SE_Linux par dessus) qui permet une granularite d'une finesse incroyable
- Redistribution de partage (Ca c'est le pied, monter un disque en NFS puis le casser en morceaux et les redistribuer via Samba)
- Creation automatique de partages personalisees (le nouvel employe n'a qu'a se loguer pour avoir un espace disque reseau pour lui tout seul, meme si il n'est pas dans un domaineNT)
Plus une granularite quand il s'agit de gerer la facon dont les partages sont accedes (cache local et distant , priorite, visibilite des repertoires etc.. ) que l'on ne trouve que sur le "high end" des serveurs Microsoft.
Et des perfs que je ne'ai personellement jamais retrouve sous les serveurs de fichiers Windows (Mais la je dosi reconnaitre que niveau optimisation je susi une brute en Samba et que je n'ai pas trop touche a windows).
On va se calmer un un peu, ca c'etait avant que le 2.4 soit operationnel. Depuis Linux a fait de tres gros progres (au point d eme faire lacher BSD pour voir ce qui se passe). Et le 2.6 est tres prometteur...
Ben dit leur juste de lire les licenses, generalement ca calme.
Surotut pour le Windows Media Player les parties ou ils se reservent le droit de scanner ton disque dur et d'effacer les fichiers.
Et puis les licenses pour les mises a jour critiques (celles qu'on est absolument oblige de faire sous peine de voir son OS transforme en passoire) sont pas tristes non plus. Deja rien que le fait qu'il faille accepter une nouvelle license toujours differente pour corriger un defaut majeur est drole.
Toute personne avec un poil de sens commun devient verte (heureusement qu'en France on a la LEN pour nous entrainner un peu).
Le compilo a l'air de chercher dans /usr/bin/perl, est-ce dans ce repertoire que tu as installe Perl ? Sinon une reinstalle au bon endroit (ou un ln ) peuvent aider.
Pour ceux qui lisent ce journal et se posent des questions,
1) La technologie ne question consiste a augmenter la granularite des droits sur la memoire, de autorise/interdit on passe a lecture/ecriture/execution.
2) Non AMD n'est pa sle premier, tous les "gros" processeurs ou presque possedent cette fonction, a part les processeur x86 et derives.
3) La protection logicielle offerte par Linux vaut ce qu'elle vaut, OpenBSD porpose un systeme de protection similaire. Mais cela n'arrive pas au niveau d'un equivalent hardware. les limitations par domaines de SE-Linux restent la meilleure protection contre ce genre d'attaques en x86.
4) Windows NT pour Alpha possede deja cette capacite (bien oblige vu que les processeurs Alpha possedent la granularite en hard etq ue l'armee americaine exigeait que ce soit pris en charge.)
Il est trop bete ton fils, tu prends le PC encore branche et qui tourne et tu le balance par la fenetre en arrachant les cables.
Et hop preuve flagrante que tous les OS sont aussi secure les uns que les autres...
Non sans rire on ne peut pas empecher une personne qui a un acces physique a une machine de la demolir (aus sens logique comme au sens physique). Une personne qui peut booter ta machine sur une disquette ou quoi que ce soit d'autre peut demolir le logique. Un bon marton ou un verre d'eau suffisent pour le physique.
Seule solution mettre le PC sous clef dans une boite relativement solide.
Sans vouloir me montrer le moins du monde vexant, meme si FreeBSD 5.2 n'est pas recommande en production on ne peut pas vraiment considerer cela comme une version instable, c'est juste que les technologies et les programmes qui tournent dessus ne sont pas aussi epprouves que ce qui tourne sur les versions 4. Bref c'est un peu comme un noyeau 2.6.1...
Par contre si oil faut vraiment faire rentrer en ligne de compte la stabilite et l'utilisabilte en production des logiciels, alors je pense que Source-Mage (en version pre-1.0), Nasgaia (Certes en version 1.0 officiellement, bien que le site ne soit pas a jour) et Simple-init-MSB (dont les scripts quoi que tres impressionants techniquement, ne permette pas un rempalcement simple de la procedure de boot classique) se font un poil disqualifier d'office.
Personellement je vois d'un cote une evolution, certes mineure, mais d'un produit majeur, tres attendu et dont la version precedente est tres utilisee et qui laisse penser que la version exploitable professionellement sera la suivante. Et de l'autres une faille certes grave (encore que ce soit plus un bug manifestement) sur un systeme experimental et peu repandu livre avec un nombre tres reduit de distribs tres jeunes.
[^] # Re: L'éducation nationale s'est engagée sur l'achat de 450K licences Office 2003
Posté par Jerome Herman . En réponse au journal L'éducation nationale s'est engagée sur l'achat de 450K licences Office 2003. Évalué à 3.
Tiens d'ailleurs je crois que la securite sociale va se lancer dans une manoeuvre similaire pour les memes raisons.
Kha
[^] # Re: CPUFREQ et kernel 2.6
Posté par Jerome Herman . En réponse au journal CPUFREQ et kernel 2.6. Évalué à 1.
CPU1 doit etre le pseudo-proc qui permet l'hyperthreading. C'est un peu normal qu'il ne laisse rien passer...
Kha
# Re: CPUFREQ et kernel 2.6
Posté par Jerome Herman . En réponse au journal CPUFREQ et kernel 2.6. Évalué à 2.
/proc/acpi/processor/CPU0/{limit, info, performance, power, throtling }
Normalement tu n'es suppose touche qu'a limit et performance. Throtling peut avoir des consequences assez desagreables...(Decalage timer, choc electrique, vidage batterie etc...)
Kha
[^] # Re: La LEN se défend
Posté par Jerome Herman . En réponse à la dépêche La LEN se défend. Évalué à 10.
Ce sont ce qu'on apelle des outils d'analyse semantique, c'est a dire des outils capables de comprendre le contexte general et le message d'un contenu/d'une image.
Ces outils ont souvent un systeme d'apprentissage et sont surtou utilises par deux grands groupes industriels :
1) Les traducteurs
2) La presse
Ces outils fonctionnent par recoupment d'information et generalisation. Ils fonctionnent majoritairement dans un monde ou les gens cherchent a etre compris et a se demarquer. Il faut bien reconnaitre que dans ces deux domaines ces outils sont assez performants.
Le seul de ses outils disponibles pour le grand public est "systran pro" encore qu'il y ait des traces d'analyse semantique dans certains traitements de texte, logiciel d'OCR et de reconnaisance vocale.
Malheureusement l'analyse semantqiure est un des domaines dans lequels l'etre humain est tres tres en avance sur l'ordinateur. Il est extrement facile de rendre fou un analyseur semantique ou tout simplement de le faire se tromper completement.
La reconnaissance de motifs qui est a la base de beaucoup d'outil d'analyse semantique est aussi un autre domaine dans lequel l'etre humain est beaucoup plus fort que l'ordinateur.
S| \/0uS 3Cr|\/3z <--- comme ca un analyseur semantique va avoir du mal.
De meme la reconnaissance de motif semi-complexe est impossible aux ordinateurs (cf la protection par message dans une image lors de l'inscription pour un compte AOL).
La chose que les politiciens (et meme Bill Gates, si on en juge par sa declaration anti-spam) ne semblent pas comprendre et que l'on a pas affaire a un probleme technique. Il ne s'agit pas de resoudre un probleme regit par des lois physiques rigides, il s'agit de bloquer des humains qui vont tout faire pour passer. On a affaire a un combat intelligence humaine contre intelligence humaine. Ca ne veut pas dire qu'il faut baisser les bras, mais ca veut dire a coup sur que sur un nouveau systeme l'equipe d'en face trouvera un moyen de contourner le probleme.
Et en ce qui concerne le Web on comence a voir pas mal de sites fortements illegaux (et dont du coup je ne donnerais pas les adresses) qui utilisent les CSS pour passer outre les verifs standards. Comment ? Tres simple : Vous pouvez casser une image et 150 images plus petites et recomposer derriere, vous pouvez choisir quelles informations faire apparaitre et dans quel ordre (pratique pour les serials numbers, mais a mon avis totu a fait utilisable pour d'autres choses) etc...
L'analyse semantique informatique de donnees ecrites par des gens qui a) savent que les outils existent et b) ne veulent pas etre compris de ces outils est a l'heure actuelle techniquement impossible. Le fait que des outils comme les filtres baysiens fonctionnent est autant lie a la qualite du logiciel qu'a sa rarete (et donc les spammeurs/verolleurs ne voient pas l'interet de se defoncer pour moins de 0,5% des configs). Vouloir rendre obligatoire un type de filtre ou de moteur est stupide, car celui ci deviendra vite "connu" des personnes qui veulent passer au travers. Sans compter le fait qu'il est tres facile de "sur-entrainer" un analyseur syntaxique...
Bref ce qui me gene c'est uen fois de plus la volonte de mettre en place un systeme dont on sait deja au niveau universitaire qu'il sera innefficace a terme...
Kha
[^] # Re: Pixar quitte Disney
Posté par Jerome Herman . En réponse à la dépêche Pixar quitte Disney. Évalué à 6.
Le nombre de Ghibli qui sont passes au travers des mailles de diffusion Dysney parceque le temps de priorite etait ecoule est impressionant. :
-Le tombeau des Lucioles
-I can ear the sea (Je peux entendre la mer)
-Gonshu le violoncelliste
-Mon voisin Totoro
-Porco Rosso
etc...
Au final Dysney n'est que diffuseur, et en fait meme pas vraiment...
Kha
# Re: La "Linux Expo/Solutions Linux" 2004 :
Posté par Jerome Herman . En réponse au sondage La "Linux Expo/Solutions Linux" 2004 :. Évalué à 8.
Kha
(pas taper ...)
[^] # Re: Bill Gates veut signer l'arrêt de mort du spam
Posté par Jerome Herman . En réponse à la dépêche Bill Gates veut signer l'arrêt de mort du spam. Évalué à 4.
- Tonton Dudule qui a son logiciel et son CD de d'emails et qui est persuade qu'il va faire fortune. Tonton Dudule est lourd mais il fait a peine 10% du Spam en etant large. Tonton Dudule ne vous a probablement jamais envoye d'email, et lui il va prendre gras si le systeme de calcul est mis en place
- Les harvesteurs/bombeurs, eux ils comptent sur les robots pour fair ele boulot a leur place, scan du net, virus et zombis spams, quelques spywares et le tour et joue. Les harvesteurs/bombeurs n'envoient jamais d'emails il laissent le virus faire a leur place et essayent de vous forcer la main par pleins d'autres methodes (pop-ups lors du surf si vous etes sous windows, redirection, collection de donnees perso etc.)
Les harvesteurs/bombers se foutent completement du systeme de verification, si quelqu'un doit faire les calculs ce sera la machine infectee. (cf thread un peu plus haut). Ils representent a peu pres 60% du spam actuel
- Les fulls spammeurs. Dans la mafia du spam ce sont les gros morceaux, les serveurs sont en russie et en asie et ils fournissent le kit total. Pour les newbies le profgramme et le cd sus-cite, pour els clients un peu plus gros tout le toutim. Sendsafe.com (Russe) et Himailer.com (asie) par exemple. Leur domaine est connu et ils savent ce qu'ils font (hint : leur serveurs webs ne sont pas des IIS en fait). Pour les clients qui ne veulent pas prendre de risques et qui ont les moyens il prennent tout en charge. Ce sont generalement eux qui envoient les spams en HTML et qui fabriquent les outils a spamer. Ils sont probablement de meches avec les harvesters/bombers. Ils representent probablement un petit 30% du spam mais ne demande qu'a grossir si la concurrence faiblit.
Leur domaine/donnees/serveurs sont tres mechament proteges (tu parles il y a 200 000 admins qui veulent leur peaux) et je pense que l'on peut definitvement considerer que ce sont des pros.
Kha
[^] # Re: Bill Gates veut signer l'arrêt de mort du spam
Posté par Jerome Herman . En réponse à la dépêche Bill Gates veut signer l'arrêt de mort du spam. Évalué à 6.
La majorite des spameurs oui, mais ce n'est pas eux qui envoient la majorite du spam.
Comprenons nous bine le mec qui monte la societe Dushmuc, les meilleurs lubrifiants a zinctron de la terre et qui est persuade qu'il va faire fortune grace a son programme et a son CD tout ce qui va lui arriver c'est de se faire couper sa connection internet avec perte et fracas. Une fois qu'il aura fait le tour des ISPs autour de chez lui 3 fois, qu'il aura paye pour le cable et l'ADSL (dont l'install est pas gratuite) ben il ira pleurer...
Le pauvre Alfred qui envoit de la pub pour son site porno amateur a des gens que ca ennerve il le retrouve en miette au petit matin (litterament, ca sert a rien de restaurer le backup...). Il a pas les compteneces techniques pour durer. En plus son CD il perd 50% de ses adresses tous les mois ou a peu pres. Et c'est pas donne.
Le seul vrai probleme se sont les gros (Asie et Russie) qui bombardent vraiment comme des sagouins parceque 1) ils ont la bande passante et 2) le plus gros client de leur ISP c'est eux alors avant de se faire fermer leur connection (et ca c'est quand ils ont pas un plug direct backbone).... 3) Ils ne sont pas leur propre client, quand ils envoient du spam ils sont payes instantanement !
Ces gros spameurs sont des experts en securite, reseau, hardware etc. Il y a deja une equipe technique dont le boulot est de trouver des failles, des routeurs pas securise, de contrer les attaques des gens qui veulent leur peau etc. Ces gens la mettre cents ordis de calcul sur un gigaswitch ils font ca pendant la pause dejeuner.
Comme je te l'ai montre avant, 1 machine ne peut calculer plus de 86400 valeurs par jour si on prend un temps d'1s.
Je maintiens que ca n'est pas le probleme. Peut importe le temps moyen pour envoyer un mail. J'ai calcule plus haut que l'on pouvait envoyer 128 mails/secondes a peu pres. donc on peut donner un temps moyen d'envoit d'email de l'ordre du 1/100 de seconde. Si le temps de calcul est effectivement de 1s il faut 100 machines de calcul par seveur, et le surcout est de l'ordre de 25cts/1000 mails. C'est risible et je le maintien.
Maintenant si on introduit vraiment un rapport de 100 entre la duree normal d'un envoit mail et la duree calcul le syteme s'effondrera tout seul, parceque personne au monde ou a peu pres n'a de serveur mail utilise a 1%, ce qui veut dire que l'ensemble des serveurs qui suivront ce syteme ou y seront confrontes satureront, et il n'y a pas que des liaisons client-serveur dans le monde mail, il y a aussi des liaisons serveur-serveur, et il y en a pas mal. Un rapport superieur a 10 est utopique, si en en croit les tests fait dans ton doccument on passe de l'ordre de 1/128 de seconde a 3 secondes soit un rapport de 384...
A se stade la question ne se pose meme pas, la reponse est non.
kha
[^] # Re: Bill Gates veut signer l'arrêt de mort du spam
Posté par Jerome Herman . En réponse à la dépêche Bill Gates veut signer l'arrêt de mort du spam. Évalué à 3.
Donc c'est bien de complexcite exponentielle, le memory bound aide un peu mais il est assez "bizarre" les temps d'acces memoire sont un poil faible par rapport a ce qui se fait de mieux maintenant (dans le grand public). Mais bon. L'immense avantage de leur technique est de rendre inefficace la genration de table sur une machine et de rendre cette generation quasiment imparallelisable. Par contre cette methode a un defaut ennorme : Elle prend en compte les envois client vers serveur exclusivement. Et pas les envoits serveur vers serveur.
Si on met ensemble les differentes choses on a deux possibilites :
Soit les serveurs exigent des calculs en meme temps qu'ils acceptent les mails d'un autre serveur (ce que le papier recomande fortement) et la on a une catastrophe, soit ils se "font confiance" et la on a une passoire.
Dans le premier cas on a un calcul qui bouffe 32 megs de ram et les bloque pendant plusieurs secondes (3 secondes dans l'exemple). Un serveur devient donc techniquement incapable d'envoyer plus d'une dizaine de mails par seconde vers un autre serveur. (30 mails necessitent 1Go de memoire et mettent 3 secondes a partir dans le meilleur des cas, et encore jefais grace du temps de transmission du mail a proprement parler). Dans la pratique avec le fait que la plupart des serveurs mails n'ont pas 1Go de ram et que peu de serveurs (au sens logiciel du terme) sont capables de gerer 30 connections ouvertes en simultanee on risque d'etre en dessous. Et la bien sur je parle de serveur pros, pas de systemes "maison". Bref j'ai un gros doute. Simplement dans la boite ou je suis en tenant compte des chiffres plus haut il faudrait multiplier par au moins 10 le nombre de serveurs (5 -> 50, on a des pics a plus de 230 mails/secondes et on est des tous petits joueurs...). J'imagine qu'il faudrait aussi adapter la bande passante pour qu'elle puisse soutenir ces transactions longues, mettre en place un systeme de load-balancing et de routage monstrueux pour que les mails se repartissent correctement sur les differents serveurs, plus une equipe d'admin de chez severe etc. Bref la premiere chose que l'on ferait serait d'aller voir nos differents ISPs et de leur demander gentillement d'enlever ce controle a la noix. Je pense que les ISPs passeraient aussi des accords entre eux. Et hop retour a la case depart.
Meme si le spam represente plus de 70% du traffic, je pense qu'il risque de falloir investir en masse pour gerer les 30 % qui restent.
En ce qui concerne le spoofage d'ip et la diversion de routeur, penses-tu serieusement que les boites vont installer des controles mails en interne ? A mon avis la plupart des boites non ISP considereront que les emails qui arrivent d'une IP connue a l'interieur du domaine sont forcements valides (ou alors il faut encore faire des changements structurels fort), de meme si j'arrive a faire croire que mon email (que je suis en train de streamer sur un routeur) vient de serv_mailIntern pour aller vers serv_mailExtern je pens eque je vais encore etre dispense de calcul a ce moment la. Ensuite quand serv_mailExtern aura accpete le mail et cherchera a le distribuer ca ne sera plus mon probleme...
Kha
[^] # Re: Bill Gates veut signer l'arrêt de mort du spam
Posté par Jerome Herman . En réponse à la dépêche Bill Gates veut signer l'arrêt de mort du spam. Évalué à 2.
100 machine c'est un maximum tres tres large, a mon avis la realite sera inferieure a 10 machines.
Ce sont des machines sans stockage , avec un mini BSD sur une prom ou eventuellement une flash si il faut un peu de place. Apres tout on a besoin d'une station telnet capable de faire des calculs et c'est tout. Un os complet capable de faire ca doit tenir sur une disquette.
Un admin ? Pourquoi faire ? sans vouloir etre mechant je ne vois pas comment un truc aussi simple pourrait planter... Reste la panne materielle, la la solution c'est poubelle. Un PC celeron 2.4 Ghz neuf de chez dell avec OS + logiciels + clavier/souris/ecran/enceinte + 1 an de garantie ca vaut 299$ aux US et c'est plus que surpuissant pour faire ce qui est demande (ou alors il va y avoir un probleme).
Les mecs qui font du spam a l'echelle planetaire n'ont pas deux machines dans leur appart, ils ont une salle serveur complete avec des connections dans tous les sens. La plupart sont bases en Asie si j'ai bien compris.
Sans disque dur et sans ecran un PC consome de l'ordre de 20-100 watts (suivant le proc). 100 PCs consonmants 100 watts ca fait 240Kwh/J, un surcout de l'odre de 15 Euros par jour, c'est clair que c'est ca qui va crucifier les spammeurs.
Tu viens de multiplier le cout d'envoyer un spam par un facteur gigantesque et de le rendre bcp moins lucratif.
allons-y gentillement.
Mettons que l'on ait besoin de 100 PCs/serveur (hautement improbable), qu'il faille en changer tous les six mois (ben voyons), que les spammeurs n'augmentent pas les tarifs (ha ha) et qu'il faille des ordinateurs a 500$ (pour etre sur).
faisons le calcul.
On compte 2Ko par email
Un serveur qui sature une liaison 2 megabits peut envoyer 128 mails par seconde soit environ 11 000 000 de mails par jour (faut deja les trouver).
Le surcout est de 2800$ par jour en comptant l'electricite et un suplement livraison/install.
Ca fait un surcout de 0,00025 $/mail. soit 0,25$ par 1000 mails.
Aux dernieres nouvelles les tarifs etaient de l'ordre de 2$/1000 mails pour les mails non certifes (on ne sait pas si quelqu'un les lit) et 10$/1000 mails pour les boites aux lettres certifies (quelqu'un les lit on en est sur). Cela pouvait monter jusqu'a 30 ou 40$ les 1000 mails pour les boites aux lettre profilees(passiones du sujet ou qui ont deja repondus a du spam).
Donc meme dans un cas totalement abherant a tout point de vue, le sapm reste encore tres tres rentable, et le surcout du spam reste negligeable. A mon sens cela ne fera que contrebalancer la baisse du prix des liaisons tres haut debit et specialisees.
Mes 2 cts
Kha
[^] # Re: Bill Gates veut signer l'arrêt de mort du spam
Posté par Jerome Herman . En réponse à la dépêche Bill Gates veut signer l'arrêt de mort du spam. Évalué à 3.
Mettons qu'il vale X, il te faut alors X serveurs de calcul par serveur d'envoit. Comme X ne peut pas etre ennorme sous peine de peser sur l'architecture existante, le probleme est vite regle. Je peux parfaitemet pour un prix risible me payer 10 20 ou 100 serveurs dont le seul but sera de faire des calculs.
Si X vaut 100 (ce qui est hautement improbable) il me faut donc 100 machines qui ouvrent des envoits email simultanement pour un serveur ? Des machines qui n'ont besoin ni de stoquage, ni d'os, ni de clavier ni d'ecran ? Je dois pouvoir avoir ca chez un brocker a moins de 100$ la machine. Si je veux du veloce (sparc, arm, alpha...) 500 $ (oui cent machines d'un coup quand on est pas regardant on a des prix). Bref cout maximum pour une ferme de calcul tout a fait honorable compte tenu des conditions ? 50 000 $ MAX. En etant vraiment super large.
Bien sur il y a la consomation d'electricite qui va monter, la maintenance et le stockage. Mais 100 sparcs ca prend pas beaucoup de place, et c'est solide...
Kha
[^] # Re: Bill Gates veut signer l'arrêt de mort du spam
Posté par Jerome Herman . En réponse à la dépêche Bill Gates veut signer l'arrêt de mort du spam. Évalué à 3.
Ils sont pas completement idiots chez MS Research non plus, ils ont fait un peu plus que le Bac comme etudes.
Oui je sais, masi ce n'est absolument pas ce dont je parle.
Pour etre clair tout d'abord les calculs long a faire et facile a verifier (extraction de racines complexes, prob trigo a la noix, decomposition en facteurs premiers etc...) sont aussi de complexite exponentielle. Donc soit ils plafonnent assez vite a des niveaux faisables par un ordi (< quelques secondes) et a ce moment la il suffit de les stoquer dans une base de donnees (la decompisition des nombres de 1 a 65536 en facteur premier ca prend pas beaucoup de place) pour court circuite rle systeme. Soit ils sont long et ils deviennent tres vite tres long...
Mais le probleme n'est pas la. Supposons un serveur qui envoit 100 000 emails par jour avec des emails dont la transmission dure en moyenne 1 seconde, il rsique de prendre une mechante baffe si la transmission moyenne passe a 3 secondes. Ca peut entrainner dans l'ordre une saturation des connections (je ne pense pas que l'on coupe la ligne entre le debut et la fin des calculs), une saturation memoire (l'air de rien garder en memoire le calcul + le resultat + l'id du mec qui fait la demande, ca peut monter assez vite) , des problemes de relaying entre deux domaines (ben vi quand je vais reemettre le mail que je viens de recevoir vers son destinataire si je suis pas sur une white liste je suis bon pour me frapper les calculs aussi) etc.
Bref mon serveur qui encaissait sans broncher (avec un tout petit peu de mal en periode de pointe) les 100 000 mais ils risque de faire la gueule...
Et ca va changer quoi ? Les e-mails devront toujours etre verifies avant d'arriver.
Si je place mon email direct dans un routeur ? Je pense en effet qu'il va etre verifie, mais c'est pas mes ordis qui vont bosser, j'ai jamais eu la moindre connection avec un serveur SMTP... Si je me mets en relaying avec une adresse bidon spoofee d'un routeur de la meme boite ? Je ne pense pas faire de calcul non plus, je ne vois pas trop la societe Toto depenser de la'rgent pour valider les mails @toto.com... Une fois de plus la validation aurau lieu, mais c'est pas moi qui vais me la frapper... Apres 1000 email par ci, 500 emails par la et c'est meme pas sur que le traffic soit visible...
Toutes les grosses entreprises savent comment faire car elles ont les competences, tous les gros ISP aussi, hotmail, yahoo aussi, etc...
Le gars qui sait pas fermer son serveur au relaying et sait pas mettre de challenge-response, il emmerdera ses utilisateurs et personne d'autre, alors qu'aujourd'hui il emmerde toute la planete
Tous ceux qui ont leur compte mail sur un serveur correctement administre seront tranquilles, car le serveur n'acceptera pas d'e-mail sans challenge-response.
Le probleme est qui va faire ce challenge response ? C'est vrai que si je veux envoyer 100 000 emails ca me casse les pieds, mais si je casse ca en 200 paquets de 500 emails que je ventile vers des sites bien ouvert (ce qui est deja ce que font la plupart des spameurs aujourd'hui). Perso je n fais aucun calcul, chacun des pigeons fait bien les 500 calculs qui vont bien (bon dans le lot il y en aura peut-etre qui se poseront la question du pourquoi de cette montee du load mais j'en doute) et les mails arrivent a destination... Propre net et precis...
Si les spameurs devaient changer radicalement de methode pour mettre en place un nouveau systeme ca aurait peut-etre un impact, mais vu qu'ils procedent deja comme ca ....
Kha
[^] # Re: Bill Gates veut signer l'arrêt de mort du spam
Posté par Jerome Herman . En réponse à la dépêche Bill Gates veut signer l'arrêt de mort du spam. Évalué à 3.
2 ou 3 en plus suffiront largement...
Le systeme c'est bien j'envoie un calcul , je recupere le resultat et si c'est bon je laisse passer le mail ? En deux secondes avec un proxy je peux avoir la machine qui fait les calculs qui est completement differente de la machine qui envoie les mails non ?
Donc mon robot se conecte, effectue le calcul et passe la main au serveur d'envoit de mail. Et pendant que le serveur envoit son mail mon robot est deja en train de demander un autre calcul ailleurs.
En d'autres terme si le temps mis a faire le calcul est sensiblement egal au temps mis a envoyer un email (mettons une seconde pour un mail HTML) alors je perd une seconde la premiere fois (le moment ou le serveur "attend" le robot) et apres ca roule.
Si le temps est moitie moindre un seul robot peu debloquer des envoit d'email pour deux serveurs. Si le temps est double ou triple il faut deux ou trois robots pour debloquer le serveur. Mais a chaque fois la perte de temps sera quasi nul.
Si le temps mis pour faire le calcul est plus que triple a celui de l'envoit d'un email ca peut genrer des effets de bords amusants (comme la necessite pour les FAIs de devoir tripler la quantite de serveur pour traiter le meme nombre d'email).
Mais restons sobre meme si le temps est decuple, (10 secondes de verif pour une seconde de transmission) a moins de 1000 $ le calculateur sans ecran (uen sparc ou un alpha sur Ebay font ca tres bien), le spammeur doit donc debourser 10 000$ pour continuer a utiliser son serveur a plein potentiel ? A mon avis ca doit quasiment rentrer dans la section "consomables".
Si il faut vraiment faire des calculs colossaux pour envoyer un malheureux mail les heureux possesseurs de becannes annee modele <2001 vont pouvoir se tirer des balles tout de suite. Sans compter les FAIs qui vont devoir generer et verifier ces calculs...
Kha
# Re: Bill Gates veut signer l'arrêt de mort du spam
Posté par Jerome Herman . En réponse à la dépêche Bill Gates veut signer l'arrêt de mort du spam. Évalué à 2.
En ce qui concerne les filtres, et notamment les filtres Baysiens, la pire chose qui puisse arriver ets une norme.
Je m'explique si un filtre devient connu et se repend, les spammeurs serot tout a fait capable de le contourner, soit en comprenant sa methode d'apprentissage dans le cas d'un filtre evolutif, soit en evitant soigneusement les mots clefs dans le cas de filtres statiques. A aprtir du moment ou il y a un filtre, il y a moyen de tester son email contre ce filtre, c'est d'ailleurs deja ce que beaucoup de spammeurs font, ils testent leurs emails contre les filtres "repandus" qu'ils metten soigneusement a jour avec leur propres spams et ceux des concurrents. Les filtres emails vont genrer le meme type de course que ce que l'on a actuellement au niveau virus/anti-virus. De plus la plupart des filtres necessitet que l'on telecharge l'ensemble du mail pour etre actif, en d'autres termes la bande passante est deja consomee au moins pour le FAI. Bref le filtrage est un serum mais il ne eput en aucun cas pretendre etre un vaccin et donc n'est pas la solution...
En ce qui concerne le calcul obligatoire pour chaque email, c'est une chose completement ridicule, tout d'abord elle necessite que le destinataire ou le relayeur de l'email verifie le calcul, a savoir genere le calcul a faire, le transemette a l'emeteur du mail, recoivent la reponse de l'emetteur, la verifie puis donne le feu vert pour l'email.
Soit les calculs sont long (plus d'une seconde) et a ce moment la avant meme de savoir si le spameur va pouvoir envoyer son email il faut grandement augmenter la puissance et la disponibilite des serveurs, soit les calculs sont court et ca ne sert a rien.
Un spammeur utilsie rarement le systeme d'envoit d'email standard, 90 fois sur 100 il passe par des routeurs mal configures, des serveurs ouvert en relaying ou un peu laxiste quand a l'identification d'appartenance au domaine. Les "gros" spammeurs utilisent des centaines de routes simultanement.
Outre le fait que je ne vois pas comment un admin qui n'est pas capable de fermer on serveur au relaying ou de configurer un routeur proprement va faire pour mettre en place un systeme de challenge-response fiable, il faut 30 secondes a un spammeur pour creer un systeme qui va "debloquer" les calculs (avec un robot) a la file avant qe passer la main a l'ordinateur emetteur du mail proprement dit. Avec un tel systeme et en comptant des mails en HTML qui mettent de l'ordre de la seconde a partir le systeme de calcul a donc un impact absolument nul sur les spameurs... Ca leur coute une seconde de perdue pour le premier calcul et un nouveau serveur qui calcule vite (cout estimee : 10 000$ en etant tres large). Bref ca fait surtout bien rire.
L'idee du timbre digital est de loin la plus ridicule, de deux choses l'une soit on connait le nom et le domaine du spammeur et on le blackliste, soit on ne le connait pas et on va vaoir du mal a le faire payer. Vous pensez vraiment que xfghytre@hotmail.com, ____##@yahoo.com et noone@nothere.not vont payer la facture ? Personellement j'ai un gros doute. Il existe un certain nombre de groupes qui luttent contre le spam depuis des annees, si il etait possible de remonter jusqu'a la source des spams le probleme serait regle depuis un moment. Certes il existe des boites qui proposent des listes d'emails a vendre mais je peux vous garantir qu'elles n'utilisent jamais un nom de domaine en leur possesion pour effectivement envoyer les emails...
Bref une declaration qui aura surement autant d'impact que la derniere (celle sur l'annee de la securite, je ne sais pas si vous vous souvenez). En tout cas a dans 3 ans pour de nouveaux spams !
Kha
[^] # Re: Pourquoi on ne vous vend que du MICRO$OFT ?
Posté par Jerome Herman . En réponse au journal Pourquoi on ne vous vend que du MICRO$OFT ?. Évalué à 2.
Kha
[^] # Re: quelqu'un se dévoue ?
Posté par Jerome Herman . En réponse à la dépêche Où en est Gstreamer ?. Évalué à 7.
Par exemple on peut prendre un fichier vob DVD, le passer dans un demuxeur, passer le flux DVD dans un decodeur Video, puis dans un encodeur Xvid, pendant que les 5 channels audio seront splittes en deux faisceaux (gauche+cente, droite +centre) puis passe dans un encodeur vorbis. Au final les flux videos et audios seront recuperes par un derniers filtres et lies dans un OGG.
Voila poyur la difference, ca permet de construire un decodeur/encodeur/diffuseur brique a brique tranquilement.
Pour le cote innovation par contre il y a un hic, Direct Show fait ca depuis des annees, et il y a meme une interface graphique qui marche tres bein (Graphedit). Bon ca passe pas par le reseau mais ca revient un peu au meme....
Kha
[^] # Re: Intermittents de l'informatique, voici les "contrats de projet"
Posté par Jerome Herman . En réponse à la dépêche Intermittents de l'informatique, voici les "contrats de projet". Évalué à 10.
Il peut aussi se debarasser de l'informaticien si le projet est abandonne, qu'il y a des changements significatif dans le projet (avant c'etait e-toto, maintenant c'est toto.net, rien a voir), que la mission n'est pas finie dans les temps etc.
Pour l'instant les notions de primes de precarite (comme pour le CDD), de duree minimale, de reclassement et de niveau de qualification (pour les points retraite) sont a definir. Il y a une notion de prime de fin de mission, mas la notion de mission restant tres floue et l'obligation de garder un employe jusqu'a ce que la mission soit consideree comme finie etant inexistante je sens que ca va pas peser lourd.
En fait il suffit de dire la "mission est finie" pour que la personne n'ait plus qu'a rentrer chez elle.... Vachement plus simple que de limoger et beaucoup moins cher que de faire appel a de l'interim ou une SSII.
Et puis un simple coup d'oeuil aux debordements causes par la loi sur les intermittants du spectacle (un ingenieur du son peut etre considere comme tel) permet de se faire une bonne idee sur ce qui va se passer.
Kha
[^] # Re: Microsoft fournit ses SFU 3.5 aux possesseurs de Windows
Posté par Jerome Herman . En réponse à la dépêche Microsoft fournit ses SFU 3.5 aux possesseurs de Windows. Évalué à 4.
Perso que ce soit avec du BSD ou du Linux 2.4, mes serveus Samba saturent la bande passante 100Mb/s sans probleme. Copie disque a disque via le reseau va taper dans les 12Mo/s (si il y a rien d'autre en cours bien sur). J'ai essaye de monter le meme reseau en 1Gb/s pour refaire les tests mais j'ai pas reussi a trouve assez de materiel compatible a l'epoque (1 an).
Mais bon Samba pour moi ca reste la reference des partage reseau :
Voici les possibilite qu'a un Samba et que n'a pas Windows :
- Connections concurentes illimites avec gestion de cache optimisable (tres pratique si 200 personnes accedent au meme fichier texte en lecture seule)
- Double gestion des droits (triple si on rajoute un SE_Linux par dessus) qui permet une granularite d'une finesse incroyable
- Redistribution de partage (Ca c'est le pied, monter un disque en NFS puis le casser en morceaux et les redistribuer via Samba)
- Creation automatique de partages personalisees (le nouvel employe n'a qu'a se loguer pour avoir un espace disque reseau pour lui tout seul, meme si il n'est pas dans un domaineNT)
Plus une granularite quand il s'agit de gerer la facon dont les partages sont accedes (cache local et distant , priorite, visibilite des repertoires etc.. ) que l'on ne trouve que sur le "high end" des serveurs Microsoft.
Et des perfs que je ne'ai personellement jamais retrouve sous les serveurs de fichiers Windows (Mais la je dosi reconnaitre que niveau optimisation je susi une brute en Samba et que je n'ai pas trop touche a windows).
Kha
[^] # Re: comparaisons pertinantes entre Windows et Linux
Posté par Jerome Herman . En réponse au journal comparaisons pertinantes entre Windows et Linux. Évalué à 1.
Kha
[^] # Re: comparaisons pertinantes entre Windows et Linux
Posté par Jerome Herman . En réponse au journal comparaisons pertinantes entre Windows et Linux. Évalué à 4.
C'est pas mon argument, avec le LL j'accepte une license, ensuite quand il y a des trous de securite je patche et c'est marre.
Avec Windows a chaque patch sa license et ses restrictions, et souvent pas des moindres...
Relis moi mieux...
Kha
# Re: comparaisons pertinantes entre Windows et Linux
Posté par Jerome Herman . En réponse au journal comparaisons pertinantes entre Windows et Linux. Évalué à 5.
Surotut pour le Windows Media Player les parties ou ils se reservent le droit de scanner ton disque dur et d'effacer les fichiers.
Et puis les licenses pour les mises a jour critiques (celles qu'on est absolument oblige de faire sous peine de voir son OS transforme en passoire) sont pas tristes non plus. Deja rien que le fait qu'il faille accepter une nouvelle license toujours differente pour corriger un defaut majeur est drole.
Toute personne avec un poil de sens commun devient verte (heureusement qu'en France on a la LEN pour nous entrainner un peu).
Kha
[^] # Re: The Gimp 2.0 pre1
Posté par Jerome Herman . En réponse au journal The Gimp 2.0 pre1. Évalué à 1.
Kha
# Re: Sécurité informatique et publicité mensongère
Posté par Jerome Herman . En réponse au journal Sécurité informatique et publicité mensongère. Évalué à 9.
1) La technologie ne question consiste a augmenter la granularite des droits sur la memoire, de autorise/interdit on passe a lecture/ecriture/execution.
2) Non AMD n'est pa sle premier, tous les "gros" processeurs ou presque possedent cette fonction, a part les processeur x86 et derives.
3) La protection logicielle offerte par Linux vaut ce qu'elle vaut, OpenBSD porpose un systeme de protection similaire. Mais cela n'arrive pas au niveau d'un equivalent hardware. les limitations par domaines de SE-Linux restent la meilleure protection contre ce genre d'attaques en x86.
4) Windows NT pour Alpha possede deja cette capacite (bien oblige vu que les processeurs Alpha possedent la granularite en hard etq ue l'armee americaine exigeait que ce soit pris en charge.)
Bref du tout neuf qui a meme pas 10 ans...
Kha
# Re: Planquez vos PC !
Posté par Jerome Herman . En réponse au journal Planquez vos PC !. Évalué à 10.
Et hop preuve flagrante que tous les OS sont aussi secure les uns que les autres...
Non sans rire on ne peut pas empecher une personne qui a un acces physique a une machine de la demolir (aus sens logique comme au sens physique). Une personne qui peut booter ta machine sur une disquette ou quoi que ce soit d'autre peut demolir le logique. Un bon marton ou un verre d'eau suffisent pour le physique.
Seule solution mettre le PC sous clef dans une boite relativement solide.
Mais bon...
Kha
[^] # Re: Bug critique et mise à jour de simpleinit-msb
Posté par Jerome Herman . En réponse à la dépêche Bug critique et mise à jour de simpleinit-msb. Évalué à 6.
Par contre si oil faut vraiment faire rentrer en ligne de compte la stabilite et l'utilisabilte en production des logiciels, alors je pense que Source-Mage (en version pre-1.0), Nasgaia (Certes en version 1.0 officiellement, bien que le site ne soit pas a jour) et Simple-init-MSB (dont les scripts quoi que tres impressionants techniquement, ne permette pas un rempalcement simple de la procedure de boot classique) se font un poil disqualifier d'office.
Personellement je vois d'un cote une evolution, certes mineure, mais d'un produit majeur, tres attendu et dont la version precedente est tres utilisee et qui laisse penser que la version exploitable professionellement sera la suivante. Et de l'autres une faille certes grave (encore que ce soit plus un bug manifestement) sur un systeme experimental et peu repandu livre avec un nombre tres reduit de distribs tres jeunes.
Kha