Bonjour,
Je suis à la recherche d'un proxy cache web préemptif ou anticipant les requêtes du navigateur pour télécharger les différents éléments de la page (images, css, javascript)
J'ai bien regardé du coté de google, de squid etc..
les seuls informations que j'ai trouvé parlent du "prefetching" qui consiste à mettre en cache TOUTES les pages qui ont un lien sur la première page. donc bonjour la bande passante.
Je subis des problèmes de latences importantes entre ma connexion internet et mes ordinateurs
(là n'est pas le problème de ce post)
(ma connexion a une latence normale, c'est la suite de mon réseau qui ne suit pas)
je me dis que mettre un serveur proxy juste derrière ma connexion internet qui anticiperait tout ce qui est téléchargement des images, css et javascript de la page en cours, me ferait gagner 500ms x (le nombre d'éléments)
Merci d'avance pour vos lumières
# IPoT
Posté par BAud (site web personnel) . Évalué à 5.
toi il te manque un proxy IPoT quoi :D
http://kadreg.org/ipot/
[^] # Re: IPoT
Posté par john Smith (site web personnel) . Évalué à 1.
ce que je voudrais c'est que le proxy mette en cache en avance les éléments de la page en cours de téléchargement.
1) le navigateur appelle la page xyz.htm
2) le proxy la récupère et l'envoie au navigateur
2bis) en parallèle le proxy commence déjà a télécargé les images, les css, les javascripts incluent dans cette page juste avant que le navigateur a son tour les demande au proxy
[^] # Re: IPoT
Posté par Romeo . Évalué à 2.
Je ne vois pas l'interet.
Que va faire ton navigateur quand tu ouvres une page :
* Charger la page xyz.htm
* Parser les documents à charger, charger les documents.
Ton proxy va faire exactement la même chose et n'apportera rien de plus.
Ce qui peut t'apporter plus c'est comme te propose les autres un prefetch, ce n'est pas si lourd que ça si c'est bien configuré.
[^] # Re: IPoT
Posté par Barnabé . Évalué à 4.
Dit d'une autre manière, le temps que tu vas gagner, c'est juste le temps que met un fichier html à aller de ton proxy à ton poste client, il est négligeable par rapport au temps de téléchargement du même fichier sur internet.
# squid-prefetch
Posté par Christophe Nowicki (site web personnel) . Évalué à 2.
Package: squid-prefetch
...
Description: Simple page-prefetch for Squid web proxy
Squid-Prefetch will perform early fetches of pages linked to by pages already
read. This means that a user that clicks on a link will have that new page
appear instantly instead of having to wait for it to be fetched from the
Internet. Only text pages are prefetched on the assumption that the images
can be loaded later so long as the text of a page is available for display.
[^] # Re: squid-prefetch
Posté par claudex . Évalué à 3.
« Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche
[^] # Re: squid-prefetch
Posté par john Smith (site web personnel) . Évalué à 2.
[^] # Re: squid-prefetch
Posté par Jean B . Évalué à 3.
# manque ?
Posté par bubar🦥 (Mastodon) . Évalué à 2.
La location de la ligne chez eux prévoyait l' aménagement chez toi d' un peu de leur équipement : un serveur proxy entre autre. (et l' antenne bi-dir bien sûr). Le proxy fonctionnait sur ce principe :
1. enregistrement des habitudes de navigation :
Pré-chargement, mise en cache, des mises à jours des pages et morceaux de sites visités.
2. possibilités de mots clefs sur sites aléatoires :
Pré-chargement, mise en cache, des sites et morceaux de sites répondant à un certains de critères définis par l' utilisateur.
Tout le matos fonctionnait avec Linux, et le proxy était Squid. Je me demande ce qu' il est advenu de l' interface web spécifique, et des cgi perl derrières...
Bon ça doit pas être simple à faire [bien entendu toujours pas de i-pot], pour obtenir des facilités de recherche [sur google] de traitement, et de mises en cache régulières, pour obtenir un 'système' proposant un accès rapide, local, à un grand nombres de sites qui ont été pré-chargés en cache et qui sont maintenus à jour.
La difficulté réside certainement dans la constitution des arbres hierarchiques de mots clefs (pas question de tous les traiter à même hauteur, sinon c' est le foutoir, et ton proxy va pomper tout...). Il doit falloir faire des arbres de dépendances de mots clefs afin d' obtenir quelque chose de sympa.
par exemple :
science & vie
______________|>astronomie
____________________________|> cosmologie (mais pas !système solaire [histoire d' éviter les trucs rabachés])
______________|>nouvelles (toutes)
______________|>informatique
______________________________|>linux unix
______________|dossiers (tous)
ou encore :
politique française mais uniquement dans le-figaro
et économie uniquement dans libération
politiques internationales dans le monde diplo (et uniquement ça pour le monde diplo)
etc etc
Bref, bonjour l' énorme mind mapping à se faire avant de créer la BD, qui sera totalement personnelle, forcément. (par contre la constitution d' arbres par une interface web pourrait être générique)
Bon courage ;)
# DNS?
Posté par ʭ ☯ . Évalué à 5.
⚓ À g'Auch TOUTE! http://afdgauch.online.fr
[^] # Re: DNS?
Posté par solsTiCe (site web personnel) . Évalué à 3.
au lieu d'utiliser les dns de ma *box, j'utilise directement opendns et j'ai l'impression de surfer plus vite !
[^] # Re: DNS?
Posté par kertiam . Évalué à 1.
Beaucoup de lenteurs sont dues au chargement de "bruits" tels google-analytics, xiti avec leur meta html "no-cache".
# Pipelining
Posté par chytux . Évalué à 1.
Par exemple pour Firefox, le pipelining s'active en utilisant la propriété "network.http.pipelining" dans about:config. Il est possible également de configurer le nombre maximal de requêtes pipelinées.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.