Bonjour,
Ds le cadre d'un développement d'une db, je dois créer un dossier où seront stocké des fichiers images de +/- 20ko.
la db est assez grande et pourrait contenir près de 10.000.000 de photos. après les avoir triées par catégories je devrai obtenir plusieurs dossiers de +/- 60.000 photos.
Le système linux peut-il supporter un nombre aussi grand de fichier par dossier?
ce nombre peut-il avoir une influence sur la vitesse des requêtes http?
Merci
# Il suffit de tester
Posté par Pinaraf . Évalué à 2.
(Système en reiserfs sur du LVM2)
Voici mon script python :
import os
for i in range(80000): os.system("cp base.png %i.png" % i)
C'est tout de même assez long à copier.. :) Je donnerai le résultat quand je l'aurai
[^] # Re: Il suffit de tester
Posté par Pinaraf . Évalué à 2.
(désolé pour le lag, j'ai eu un orage donc j'ai préféré couper la machine)
Et en plus konqueror arrive à survivre à ce dossier !
[^] # Re: Il suffit de tester
Posté par JJD . Évalué à 4.
Attention toutefois à bien choisir son sytème de fichier pour ne pas avoir des performances qui se dégradent (en particulier si on fait un ls dans le répertoire ...) : par exemple reiserfs est certainement plus adapté à ce type d'utilisation que ext2/ext3.
Pour l'accès à un fichier particulier, dont on connaît ke nom, il ne devrait pas il y avoir de soucis.
En revanche, je ne sais pas ce que cela pourrait donner si l'on parcourt le répertoire avec un gestionnaire de fichiers graphique (nautilus, konquerror, ...) : là ça rique d'être plus problématique, surtout s'il faut afficher des vignettes !
[^] # Re: Il suffit de tester
Posté par cv_freex . Évalué à 1.
# /etc/security/limits.conf
Posté par kurun . Évalué à 3.
Il y a des limites pour la taille des fichiers, le nombre de fichiers ouverts, etc.
On peut changer ces limites dans le fichier /etc/security/limits.conf (en root)
[^] # Re: /etc/security/limits.conf
Posté par JJD . Évalué à 3.
J'ai déjà rencontré le problème, sous AIX, de partitions sur lesquelles il restait de l'espace disque libre mais sans possibilité de créer de nouveaux fichiers parce qu'il n' y avait plus d'inodes libres (il y avait des répertoires avec beaucoup de petits fichiers).
Dans la problématique de cv_freex il faut prendre en compte ce paramètre, en particulier s'il y a plusieurs répertoires avec quelques dizaines de miliers de fichiers sur la même partition (chez moi, sur un FS ext3 de 1.5GO, formaté avec les options par défaut, il y a 175872 fichiers possibles)
[^] # Re: /etc/security/limits.conf
Posté par cv_freex . Évalué à 1.
le problème est que tt doit se trouver sur un serveur web :(
dans ce cas, j'abandonne d'ore at déjà le hébergement mutualisé.
# Sous Linux je sais pas ...
Posté par dinomasque . Évalué à 0.
Quand les 1000 fichiers sont des fichiers temporaires de Word, ce dernier perd aussi méchamment les pédales (c'est du vécu).
BeOS le faisait il y a 20 ans !
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.