Philippe M a écrit 963 commentaires

  • [^] # Re: PLUME CMS

    Posté par  (site web personnel) . En réponse au journal Rencontre avec les CMS. Évalué à 1.

    Pour les programmes entierements orientés groupware le hic est que j'ai besoin de gérer des nouvelles et qu'elles soient visible sans forcement que l'utilisateur soit logger. Et d'après ce que j'ai vu des groupware aucun ne sait gérer les nouvelles.

    Born to Kill EndUser !

  • [^] # Re: un autre

    Posté par  (site web personnel) . En réponse au journal Rencontre avec les CMS. Évalué à 1.

    Xoops a été éliminé directement, je l'avais déjà essayé avant la séparation e-xoops et c'est une vrai central nucléaire le truc.

    Born to Kill EndUser !

  • [^] # Re: Pour completer, un chti lien ...

    Posté par  (site web personnel) . En réponse au journal Rencontre avec les CMS. Évalué à 1.

    hooo punaise la liste est longue...

    Born to Kill EndUser !

  • [^] # Re: Et Typo3

    Posté par  (site web personnel) . En réponse au journal Rencontre avec les CMS. Évalué à 1.

    D'après ce qu'on m'a dit, il est aussi lourd qu'un Plone :(

    Born to Kill EndUser !

  • [^] # Re: Et un autre ...

    Posté par  (site web personnel) . En réponse au journal Rencontre avec les CMS. Évalué à 1.

    Je le connais pas celui, je le rajoute à la liste.

    Born to Kill EndUser !

  • [^] # Re: et CPS ?

    Posté par  (site web personnel) . En réponse au journal Rencontre avec les CMS. Évalué à 1.

    Je l'ai testé indirectement par le biais d'objectis ( http://www.objectis.org/(...) ) et comme tu le dis il est aussi gourmand que Plone.

    Born to Kill EndUser !

  • [^] # Re: Un heureux de plus

    Posté par  (site web personnel) . En réponse au journal Evangélisme : joindre l'utile à l'agréable.... Évalué à 1.

    Merci pour cette playlist, ce soir je m'occupe de compenser mon manque de triphop. Malheureusement je n'ai pas un niveau d'anglais qui me permet de décoder en live les paroles (enfin pas tout) :( mais il est vrai que le peu que j'ai compris de Portishead... ba c'est pas jolijoli :-)

    Born to Kill EndUser !

  • # Y a du bon

    Posté par  (site web personnel) . En réponse à la dépêche LRS : support optimisé de LVM pour la sauvegarde système. Évalué à 5.

    Ca a l'air sympathoche ce système, mais apparament il faut un serveur vierge qui sera didié à cette fonction.

    Born to Kill EndUser !

  • # Un heureux de plus

    Posté par  (site web personnel) . En réponse au journal Evangélisme : joindre l'utile à l'agréable.... Évalué à 3.

    Je répond pas forcement pour le cd même si cela montre qu'il en faut peu pour faire un jolie cadeau.

    En bon fan de Portishead en manque d'album gloque et torturé, je me suis dis ouaaa enfin un groupe qui arrive à faire quelque chose qui me fais autant tripé qu'un Wandering star... Et effectivement j'ai écouté les extraits sur le site de Lamb est c'est du bonheur, moins glauque que Portishead mais a force de se ronger le frein à cause de l'attente d'une éventuel info sur un futur projet d'album de Portishead... on prend ce qu'on trouve.

    Si t'en a d'autre dans le même style je prend, Merci pour la découverte.

    Born to Kill EndUser !

  • [^] # Re: Et la compta

    Posté par  (site web personnel) . En réponse à la dépêche Sortie officielle de Tiny ERP 3.0. Évalué à 1.

    ha :( C'est dommage d'utiliser encore un autre programme pour faire une partie de la gestion d'une société. Il va falloir developper des passerelles entre les prog avec toute la complexité que cela peut avoir.

    Born to Kill EndUser !

  • # Et la compta

    Posté par  (site web personnel) . En réponse à la dépêche Sortie officielle de Tiny ERP 3.0. Évalué à 2.

    Ca a l'air vraiment bien comme ERP, il reste un question sans réponse pour moi, est-ce qu'il est capable de gérer la compta française ?

    Born to Kill EndUser !

  • [^] # Re: Euh...

    Posté par  (site web personnel) . En réponse au journal Sauvegarder sur DAT en activant la compression. Évalué à 2.

    j'ai essayé sur un répertoire plus petit /tmp et voila ce que me donne les log :

    avec -zcf ou -jzf
    [11aoû-08:32] : Lancement de la sauvegarde de /tmp
    tar: Retrait de l'en-tête `/' des noms des membres
    tar: /tmp/.font-unix/fs7100: porte (socket) ignorée
    tar: /tmp/.X11-unix/X0: porte (socket) ignorée
    tar: Ceci ne ressemble pas à une archive de type «tar»
    tar: Escamotage jusqu'à la prochaine en-tête.
    tar: Statut d'erreur reporté d'erreurs précédentes.
    [11aoû-08:33] : Erreur a la creation de l'index

    Born to Kill EndUser !

  • [^] # Re: Euh...

    Posté par  (site web personnel) . En réponse au journal Sauvegarder sur DAT en activant la compression. Évalué à 2.

    Alors j'ai essayé et voila le résultat... je préviens c'est pas beau à voir ;)

    [11Aug-03:00] : Lancement de la sauvegarde de /home/users
    tar: Removing leading `/' from member names
    [11Aug-03:02] : Lancement de la sauvegarde de /home/users
    /dev/tape: Device or resource busy
    tar (child): /dev/st0: Cannot open: Device or resource busy
    tar (child): Error is not recoverable: exiting now
    tar: Removing leading `/' from member names
    tar: /dev/st0: Cannot open: Device or resource busy
    tar: Error is not recoverable: exiting now
    [11Aug-03:02] : Erreur a la creation de l'index
    tar: This does not look like a tar archive
    tar: Skipping to next header
    tar: Archive contains obsolescent base-64 headers
    tar: Archive contains `\375\\\325Q}\307\214e\232\342\266\325' where numeric off_t value expected
    tar: Skipping to next header
    tar: Archive contains `G\245\0203\315;\\A\024g\350\351' where numeric off_t value expected
    tar: Skipping to next header
    tar: Archive contains `\'\353pS\260\244\237\364\351\227l\226' where numeric off_t value expected
    tar: Skipping to next header
    tar: Error exit delayed from previous errors
    [11Aug-04:55] : Erreur a la creation de l'index

    Born to Kill EndUser !

  • [^] # Re: J'ai une bonne et une mauvaise nouvelle pour toi

    Posté par  (site web personnel) . En réponse au journal Sauvegarder sur DAT en activant la compression. Évalué à 2.

    sniffff... il me reste plus qu'à essayé ton prog...

    merci :)

    Born to Kill EndUser !

  • [^] # Re: Euh...

    Posté par  (site web personnel) . En réponse au journal Sauvegarder sur DAT en activant la compression. Évalué à 2.

    Il me semble que j'ai déjà essayé sans résultat mais dans le doute je viens de relancer la commande avec zcf... réponse dans quelques heures.

    Born to Kill EndUser !

  • [^] # Re: tar/zip

    Posté par  (site web personnel) . En réponse au journal Sauvegarder sur DAT en activant la compression. Évalué à 3.

    J'ai fais des tests avec le tar.gz pour la compression total.
    Pour ce qui est du parcours de la bande, j'utilise la création d'un fichier index.txt

    INDEX=`tar -tf $PERIF > /tmp/index.txt 2>>$LOGDIR`


    Comme ça si une personne me demande le fichier toto.superimportant mais qu'elle ne connait pas le répertoire ou même le nom complet, je fais un petit grep sur le fichier index.txt et hop je récupère le necessaire.

    Born to Kill EndUser !

  • # oups

    Posté par  (site web personnel) . En réponse au journal Sauvegarder sur DAT en activant la compression. Évalué à 7.

    Désolé toute l'indentation a sauté :(

    Born to Kill EndUser !

  • [^] # Re: En décembre dernier, vous nous aviez contacté

    Posté par  (site web personnel) . En réponse au journal La société Gale et Firefox. Évalué à 3.

    Surtout que maintenant faut les appeler pour ajouter un compte de virement :D

    Born to Kill EndUser !

  • [^] # Re: Mon avis

    Posté par  (site web personnel) . En réponse au journal Que penser de MacOSX server. Évalué à 3.

    MacOS X ne cible pas le haut de gamme mais plutôt comme à son habitude les utilisateurs qui n'ont pas envie de se prendre la tête et qui ont de petits besoins, comme les PME de 5 personnes par exemple.


    Petit besoins mais gros moyens, je pense pas que ta pme de 5 personnes à assez d'argent pour ce payer un Server MacOSX. Alors qu'avec un pc de récup, une fedora (ou autre) et les outils qui vont bien (webmin) tu peux faire presque aussi simple.

    Born to Kill EndUser !

  • [^] # Re: ??

    Posté par  (site web personnel) . En réponse au journal Gérer les clés étrangère avec Mysql. Évalué à 2.

    le mysql_insert_id() je l'ai vu, mais faut que je re-organise tout mon code... :) mais je vais pas avoir le choix parce qu'avec le SELECT... Ca marche mais c'est pas super optimisé.

    Born to Kill EndUser !

  • [^] # Re: ??

    Posté par  (site web personnel) . En réponse au journal Gérer les clés étrangère avec Mysql. Évalué à 2.

    Je remplis d'abord les tables familles et professions donc elles sont présentent. Après la syntaxe j'applique les filtres suivants :
    $fam = $val[0]; <-- $val est un valeur comprise dans le tableau qui correspond au fichier lu
    $fam = ltrim($fam);
    $fam = strtr($fam, CHAINE_A, CHAINE_B);
    $fam = str_replace(chr(10),'',$fam);
    $fam = str_replace(chr(13),'',$fam);

    Et tout ce pour chaque chaine intégré sur chaque fichier, donc il ne devrait pas avoir de soucis. Je mettrais bien le code complet mais ça fait un pavé de 300 lignes :(

    Born to Kill EndUser !

  • [^] # Re: ??

    Posté par  (site web personnel) . En réponse au journal Gérer les clés étrangère avec Mysql. Évalué à 1.

    Exacte, je vais pousser un peu plus loin sur ce chemin. Le peu de doc que j'ai lu pour le moment est très interressant.

    http://www.nexen.net/docs/mysql/annotee/innodb-and-autocommit.php(...)

    Born to Kill EndUser !

  • [^] # Re: ??

    Posté par  (site web personnel) . En réponse au journal Gérer les clés étrangère avec Mysql. Évalué à 1.

    Mysql sait (il me semble) indexer les champs type chaine.
    Et en effet je débute... Enfin j'suis entre le débutant et l'expert, donc je ne connais pas toute les ficelles des bdd.

    Born to Kill EndUser !

  • [^] # Re: ??

    Posté par  (site web personnel) . En réponse au journal Gérer les clés étrangère avec Mysql. Évalué à 1.

    Justement si je fais comme tu le dis j'obtient le message "a foreign key constraint fails" et mes fichiers sont bien comme il le faut.

    mes fichiers sont composés comme ça :
    Famille :
    nom famille
    désignation
    code

    professions
    nom_prof

    prof_fam
    nom famille
    nom professions

    dans le dernier, par exemple pour la famille 0 il peut avec 5 lignes qui contient à chaque fois :
    0;TOTO
    0;TATA
    0;TUTU
    ...

    Et ainsi de suite pour les familles suivantes.

    Born to Kill EndUser !

  • [^] # Re: ??

    Posté par  (site web personnel) . En réponse au journal Gérer les clés étrangère avec Mysql. Évalué à 2.

    L'intérêt ? Pouvoir faire des imports en masse. Par exemple pour mon cas on me donne trois fichiers, un qui contient les familles, un autre les professions et le dernier la correspondance entre les familles / professions. Pour importer je passe par un formulaire qui upload les fichiers sur le serveur, mon script les lit, retriture et envoi le tout dans mysql. Là où ca bloque c'est lorsque j'arrive à la table prof_fam, j'ai le fameux message a foreign key constraint fails. Donc pour réussir mon import je désactive les clés étrangères, j'importe, et je re-active mais j'utilise se sytème uniquement pour remplir en masse ma base, après pour le coups par coups je garde les clés étrangères sinon c'est clair que cela n'a aucun intérêt.

    Pour ce qui est des id, c'est clair c'est pas propre comme je l'ai fais, mais je vois pas trop comment je pourrais récupérer les id de la table familles (par exemple) qui correspondent au familles présentent dans mon fichier. A moins de faire un select...WHERE nom_fam='$mafamille' mais la c'est pas 10 sec qu'il faut au script, mais 1 heure. Mon fichier prof_fam contient 4000 lignes :(

    Born to Kill EndUser !