Gyro Gearllose a écrit 1322 commentaires

  • [^] # Re: Ou alors

    Posté par  . En réponse au journal [S.F.] Le bon vieux docteur avait il une fois de plus raison ?. Évalué à 2.

    Pour ta remarque sur l'IA, elle est infondée (mais ça, à moins d'avoir le jeu en question sous la main, tu ne peux le savoir), car elle se positionne une fois pour toutes. En l'occurence, tu n'as que 3 niveaux : Facile, Moyen et Brutal. Et je ne joue qu'avec ce dernier. Mais ce n'est pas le fond du problème.
    Pour répondre à ton P.S. fort pertinent, oui, c'est vrai, je n'y crois pas un seul instant, à cette conspiration des machines !
    Je me suis juste laissé entraîner dans un mélodrame à la petite semaine dans un moment d'énervement face à cette foutue bestiole.
    Je voulais pousser un peu la réflexion, et d'après certains commentaires, il semblerait bien qu'un point soit acquis : le codeur de telle ou telle fonction passe un peu de son "intélligence" à la machine. Ca reste limité, et dans un cadre bien défini. Tant qu'on en reste là, mais on peut faire à mon sens deux constats :
    1) d'abord au présent : surtout du côté du libre, ce sont d'innombrables contributeurs qui "cèdent" un peu de leur "intelligence" à tout ce qui est codé aujourd'hui. Tant qu'on reste dans un cadre bien défini, tout roule.
    Je remarque quand même qu'il est parfois difficile, pour ne pas dire de plus en plus difficile d'apréhender la complexité totale de tout ce fourbi, ce qui m'amène à mon :
    2) en se projetant dans le futur [ Attention, dans le titre de mon journal, y'a S.F. comme Science Fiction, hein ;-) ], on peut imaginer que cette complexité va gagner en puissance, tandis que de plus en plus de choses seront résolues "automatiquement".
    Voilà, sans y croire vraiment, je voulais lancer une petite réflexion sur le sujet, histoire d'y voir un peu plus clair et me faire une opinion un peu plus réaliste, sans l'être totalement....
    Ce sont les joies de la SF : se laisser aller à un truc pas très réel, mais suffisement pour que ça parraisse "crédible".
    Nota : Les termes entre guillemets ne sont que des approximations de ce que je voulais dire réellement, car je n'ai pas trouvé de terme plus approprié lors de la rédaction de ce post.
  • # Non !

    Posté par  . En réponse au message un lien web qui envois une commande systeme. Évalué à 2.

    Enfin presque.
    Je crois savoir que c'est faisable avec du javascript signé, à la condition que la seule application exécutée après le login dans kdm soit justement firefox, et qu'il soit appelé dans un script-shell qui se déconnecte juste après l'exécution de firefox. Ce qui a pour conséquence que le simple fait de quitter firefox quitte l'environnement graphique.
    Autrement, pour le coup du javascript signé, je laisse le soin à ceux qui connaissent mieux que moi le système de t'expliquer comment procéder. Je n'en ai pour ma part qu'une idée très vague.
    Je pense que c'est une question de sécurité. A faire confirmer donc, mais tu as probablement la moitié du problème de résolue.
  • [^] # Re: Je ne sais pas si c'est la bonne méthode, mais....

    Posté par  . En réponse au message champs "durée" et postgres. Évalué à 2.

    Bon, ben à ce que je vois, on est sur la même longueur d'onde !
    Et je ne veux *pas* avoir de code spécifique au calcul dans l'appli,(...)
    Mon Dieu, comme je suis d'accord avec toi !
    De mon côté, j'ai tout fait entre d'un côté les tables, et de l'autre, des vues et des triggers. Pas question, à quelque moment que ce soit, d'avoir le moindre calcul innérent à la cohérence de la base ailleurs que dans la base elle-même.
    Pour le côté php, j'ai conçu des fonctions qui, selon l'appel, me conçoivent les requêtes à passer à la base de données. Comme tu souhaite apprendre par toi même, ce qui est fort louable, je ne te les propose pas !
    Par contre, j'ai pu constater que php se démerdait très bien avec les tableaux, et je dois bien avouer que j'en ai usé et abusé dans tous les sens. Surtout des tableaux multi-dimentionnnels avec indices non numériques. C'est fort pratique pour récupérer les champs de fomulaires, dans un tableau à 3 dimentions qui me donne le nom du formulaire d'où les informations proviennent, la ligne ou l'indice, qui me permet de numéroter les requêtes ainsi générées, ainsi que les noms des tables et des champs.
    Pour les problèmes de sécurités, les informations correctes vis-à-vis de la base de données sont dans la session, alors que les valeurs des formulaires ne sont que les clefs qui me permettent d'accéder à ces valeurs. Je ne sais pas si je suis clair, mais passons.
    Pour le coup du pointage par clef usb, c'est une bonne idée, mais pourquoi ne pas prévoir un interface web (tout du moins intranet) sur lequel les gens peuvent éventuellement corriger les horraires oubliés ou "mal pointés". Il faudra de toute façon un tel dispositif, car tu ne peux décider pour les gens si leur absence correspond à un congé, un stage, un arrêt maladie ou une journée de R.T.T.
    Enfin, ce ne sont que quelques idées en vrac, comme ça !
    Bon courage, quoi qu'il en soit !
  • [^] # Re: Je ne sais pas si c'est la bonne méthode, mais....

    Posté par  . En réponse au message champs "durée" et postgres. Évalué à 2.

    En fait, je parlais d'une centaine de personnes gérées par cette appli, pour arrondir, mais dans ma table servant à renseigner les heures de pointage, j'ai décomposé les informations de cette façon :
    - un champ id_pers (int)
    - un champ date de pointage (date)
    - un champ est_matin (booleen)
    - l'heure d'arrivée (char(5))
    - l'heure de départ (char(5))
    - Le temps travaillé dans la demi-journée (char(5))
    - Une observation.
    - Un champ qui indique si cette demi-journée est travaillée ou non (booléen).
    Le booléen sert à différencier le matin de l'après-midi.
    La clef primaire se calcule sur les 3 premiers champs.
    Par ailleurs, j'ai un trigger qui intervient après mise à jour et qui permet de fixer la valeur de la demi-journée à ce que doit (je suis fonctionnaire, et de part les conventions passées entre l'état et les syndicats, il y a certaines règles à appliquer, je ne vais pas rentrer dans le détail).
    Une période de pointage s'étale entre le 01/09 et le 31/08 (année scolaire). Sur cette période, les agents titulaires ont automatiquement une période de travail équivalente, sur laquelle ils ne peuvent intervenir que pour en changer la quotité de travail (personnes à temps partiels). La complexité intervient pour les gens qui sont à temps partiel que par périodes, par ex : 6 mois à 80% et 6 mois à temps plein. Bref. Pour les agents non titulaires, il faut qu'ils entrent les dates de début et de fin de leur contrat, dans une table à part, ainsi que la quotité de travail associée. Chaque contractuel est soumis au régimé des 35H par semaines tantis que les agents titulaires ont 1593 Heures à réaliser sur le total de la période.
    Je n'ai visiblement pas les mêmes soucis que toi, car :
    - Nous ne pointons que sur les heures d'ouverture "standard" régie plus ou moins par des contraintes matérielles : les portes et grilles n'ouvrent qu'à 07H le matin, et nous sommes obligés de partir avant 19H30 à cause des alarmes.
    - De ce fait, et comme nous sommes sur le même site, je n'ai aucunement à gérer les heures d'hiver ou d'été. Chacun renseigne son heure de départ ou d'arrivée à la main.
    - Pour le problème des jours fériés, j'ai conçu une table jour_fériés qui renferme les 11 jours avec leur libellé, car je trouvais ça joli ;-) !
    Cette table est utilisée par un trigger pour calculer la durée attribuée à la journée selon les cas.
    Quoi qu'il en soit, pour me faciliter le travail, lorsqu'un agent se voit attribuer une période de travail, qu'il soit contractuel ou titulaire, les lignes correspondante sont automatiquement ajoutées dans la table de pointage, pour tous les jours concernés, c'est à dire du lundi matin au samedi matin inclus. De cette façon, mon application, développée en php, certes, n'a à gérer que des mises à jour.
    Enfin, j'ai remarqué par expérience que les gens ne pointent pas quand ils devraient, mais quand ils n'ont rien d'autre à faire. Par exemple, Mme Michu, arrivée à 08H03, et partant manger vers 12H07, se rendra compte dans l'après-midi, juste avant de partir, qu'elle a failli oublier cette @!#%! de pointeuse, et elle renseignera allégrement qu'elle est arrivée à 08H00 et est partie manger à 12H10. (ce qui lui fait un bonni de 6 min, bref).
    Enfin, ce n'est pas le propos. J'espère que ce petit débroussaillage te sera utile.
    J'ai mis pas mal de temps pour en arriver à ce système, mais il fonctionne pour nos besoins, à quelques bugs près que je corrigerais fin août.
    Si tu as besoins de plus d'infos, tu sais où me trouver !
    Sur ce, bon courage !
  • # Je ne sais pas si c'est la bonne méthode, mais....

    Posté par  . En réponse au message champs "durée" et postgres. Évalué à 3.

    Logiquement, si tu peux avoir le cas de quelqu'un qui arrive à 22H00 et part à 01H00, il faudrait récupérer dans ta base, non seulement l'heure de départ et celle d'arrivée, mais aussi le jour... Sinon, ça ne peut pas fonctionner.
    Pour ce qui est de la durée, effectivement, un champ de type timezone ne peut dépasser les 24H. Il faut donc créer un nouveau type pour ça.
    Je n'ai pas mes sources sous la main, mais en gros, voici comment j'ai procédé :
    - J'enregistre les heures de départ et d'arrivée sous forme de texte à 5 caractères (heure + séparateur + minutes).
    - J'ai fait une fonction de conversion de cette chaîne vers des entiers (pour avoir un nombre entier de minutes) et l'inverse, en plpgSQL, mais on doit pouvoir le faire en C pour améliorer les perfs (?).
    Ce n'est pas trop compliqué à faire, et je te conseille éventuellement de lire la doc de postgres concernant la fonction "create type" de façon à voir comment l'appliquer à ton cas.
    Si tu as besoin de plus d'infos, fais-le savoir dans ce thread.
    Voilà, en espérant que ça aide.
    P.S. : côté perfs, je n'ai pas à me plaindre, mais je ne gère qu'une centaine de personnes, pas plus, par le biais de la chaîne apache + php + postgreSQL.
  • [^] # Re: felicitations

    Posté par  . En réponse au journal Rien que de bonnes nouvelles !. Évalué à 2.

    Oh, mais tu sais, j'ai dit ça comme j'aurais pu dire autre chose. C'est juste que c'est , comme tu le dis, le fs de beaucoup de distributions, et aussi celui que j'utilise quotidiennement et qui me satisfait.
    Je ne veux pas troller non plus. Après tout, c'est ce qui fait la force du libre : on a le choix.
    Pour l'instant, le mien n'est pas fait, du moins sur ce point de vue là, puisque ce n'est qu'à l'état de projet pour l'instant.
  • [^] # Re: felicitations

    Posté par  . En réponse au journal Rien que de bonnes nouvelles !. Évalué à 5.

    Bon, ok, les termes ne sont pas très choisis. Ca ne m'empêche pas de ne pas aimer. Pour être franc, et exprimer mon point de vue de façon plus tempérée, voici ce que je pense vraiment.
    En fait, je ne supporte pas ce nombrilisme parisien. Les habitants de la plus belle ville du monde n'y sont pour rien, c'est juste que beaucoup de monde résume la France à Paris, et le reste ne compte pas. Un exemple ? Hier ou avant-hier soir aux infos : "La canicule touche les régions de france où il est désormais interdit d'arroser, de laver ses voitures, etc (...) Voici un reportage de notre correspondant local, à ----- en région parisienne.". Bref, qu'est-ce qu'elle a la campagne, qu'est-ce qu'elles ont nos belles régions ? Elles sont trop loin de cette sacro-sainte métropole surpolluée ? Elle pue ?
    Voilà ce que je pense vraiment sur ce thème. L'hégémonie de paris m'exaspère.
    Microsoft et windows, je n'ai rien contre. Si il y a des gens prêts à payer pour des trucs qui ne fonctionnent que quand ils ont le temps, pour lesquels le code est si secret qu'il ne faut surtout pas le montrer, c'est leurs problèmes. Ce n'est pas ma vision des choses. Après tout, qu'est-ce qui nous certifie qu'une copie de notre beau document word n'est pas expédiée chez bilou lors de l'enregistrement sur disque si une connexion au réseau des réseaux est active ? Je sais, c'est de la parano, et je n'y crois pas vraiment. Mais tant qu'il n'y aura pas eu de preuve formelle, je reste dans le doute.
    Enfin, bref, ce n'est pas ma profession de foi.
    Tu le dis toi même : "Aimes ton prochain". Mais je ne fais que ça, si tu savais.
    "Ne fais pas à autrui ce que tu n'aimerais pas qu'on te fasse" et "la violence est le dernier refuge de l'incompétence" (Merci Isaac), et "vivre et laisser vivre" sont mes principes, point.
    En tout cas, saches que je ne suis pas vindicatif, et que je ne suis pas comme certains qui cherchent à imposer leurs points de vue. Je respecte les choix des autres, même si je n'en pense pas moins.
  • [^] # Re: felicitations

    Posté par  . En réponse au journal Rien que de bonnes nouvelles !. Évalué à 2.

    Le premier commence déjà à s'intéresser au pingouin manchot, bien qu'il n'ait que 14 mois. Pour le seconde (la seconde, j'espère), ce sera le même régime.
    Tant qu'à faire, autant leur donner de bonnes valeurs dès le départ. Ca en fera deux de moins à convaincre.
    Et puis, de toutes façons, à la maison, il y a 66,66 % de PC sous Linux, et 33.33% de PC sous windows pour jouer à pile ou face écran bleu ou "envoyer un rapport de bug".
    Ce dernier bastion de résistance devrait succomber aux vacances, et périra corps et biens dans un "mkfs.ext3" bien senti.
    Encore que....
    Je pense plutôt m'orienter vers une solution de ce type :
    - gicler mon ipcop qui me bouffe du courant (vieux pentium MMX 166),
    - virer mon Athlon 1400 qui ne me sert jamais (je hais windows),
    - Convertir ma femme @ linux
    - Monter mon Athlon XP 1800+ sur un LFS 6.1 avec ceci : http://disjunkt.com/dualhead/(...)
    Et mon Athlon 1400 ira prendre des vacances chez mes parents, et leur (mon) Duron 850 qui est chez eux partira égayer un nouveau parc informatique...
    Bref, pleins de choses bien excitantes à faire pour les vacances !
  • # Pourquoi changer ?

    Posté par  . En réponse au message Cherche Perle Rare pour Sauvegarde Serveur Linux. Évalué à 6.

    La commande "tar", couplée à quelques utilitaires standards sait déjà faire tout ce que tu demandes !
    Les sauvegardes journalières : merci cron (ou fcron).
    Incrémentales : y'a des options de tar pour ça.
    Contrôles, restaurations : tar sait faire (tar -t pour tester, tar -x pour restaurer).
    Sauvegarder tout le système.... Ben tar jcvf /dev/tape /
    Bref, je ne comprend pas trop...
    Si, si, si... L'interface graphique ! Ben ouais, il manque ça à tar. Mais il y a pleins d'outils qui savent gérer ça. Au moins sous KDE, il y a KDat. Semble un peu "simplet" de prime abord, mais permet de faire déjà quelques sauvegardes et de les restaurer.
    Enfin, bref, ce n'est que mon avis. Pour moi, rien ne remplacera jamais un bon script fait main pour gérer toutes mes sauvegardes. Ce n'est certainement qu'une question de goûts.
  • # Ils ont prévu de le mettre ou le Ctrl+Alt+Del ? :)

    Posté par  . En réponse au journal Un jour des ordinateurs seront implantés dans le corps humain, prédit Bill Gates. Évalué à 10.

    Facile : DTC !
  • [^] # Re: Parce que je suis tenace ! et plein d'illusions...

    Posté par  . En réponse au message Execution background et code de sortie. Évalué à 2.

    Quand tu en auras marre de démonter mes shells, tu me feras signe ;-) !
    Le pire, c'est que tu as une fois encore raison, mais là, je pense être plus proche de LA SOLUTION que jamais.....
    Que penses-tu de ça :

    code1 = `(commande1 > fichier1 ; echo $? ) ` &
    code2 = `(commande2 > fichier2 ; echo $? ) ` &
    code3 = `(commande3 > fichier3 ; echo $? )` &
    wait
    echo $code1, $code2, $code3

    En déplaçant les & en dehors des quotes, c'est l'affectation qui passe en arrière plan, et non seulement la tâche exécutée à droite du signe =.
    Là, je pense que ça peut fonctionner, ça, mince alors !

    Pour le coup de l'export, tu as fort raison, mais mes cours de shell sont bien loins maintenant, et je l'utilise si rarement que ... ben ... bref.
    En tout cas, le coup de la persévérance, c'est surtout pour ma culture personnelle et parce que je me dis que peut-être, un jour, ça me servira à quelque chose.
    D'ailleurs, j'utilise déjà quelque chose un peu dans ce genre, mais sans contrôle d'erreur... "Ce qui est bien mais pas top", comme dirait l'autre, et finalement, le problème de notre ami pourrait m'aider à résoudre le mien !
    Et puis merci à toi, car si tu trouves que je suis persévérant, tu sembles l'être au moins autant que moi puisque tu es toujours là pour me corriger !
  • # Parce que je suis tenace !

    Posté par  . En réponse au message Execution background et code de sortie. Évalué à 2.

    Pourquoi ne pas procéder ainsi :
    code1 = `(commande1 > fichier1 ; echo $? ) &`
    code2 = `(commande2 > fichier2 ; echo $? ) &`
    code3 = `(commande3 > fichier3 ; echo $? )&`
    wait
    echo $code1, $code2, $code3

    J'ai pu tester avec un pauv' ksh que j'ai ressorti d'un vieux serveur...
    Ca semble fonctionner comme tu veux....
  • [^] # Re: ... malheureusement

    Posté par  . En réponse au message Execution background et code de sortie. Évalué à 1.

    Tout ceci est très pertinent, mais m'amène à penser la chose suivante :
    plutôt que d'utiliser des fichiers temporaires, pourquoi ne pas utiliser la commande export pour positionner les variables de code de retour une bonne fois pour toutes ?
    Ce qui reviendrait à :
    { commande1 > fichier1 && export CODE1 = $? } &
    { commande2 > fichier2 && export CODE2 = $? } &
    { commande3 > fichier3 && export CODE3 = $? } &
    wait
    echo La commande1 a eu pour code de retour $CODE1
    echo La commande2 a eu pour code de retour $CODE2
    echo La commande3 a eu pour code de retour $CODE3

    Si jamais on veut faire propre, il suffit de faire quelques appels bien sentis avant de quitter le shell pour virer les variables indésirables :
    export CODE1= CODE2= CODE3=

    Je ne dispose pas de ksh pour tester, alors je vous laisse tester le tout pour voir ce que ça donne.
  • [^] # Re: LFS en production ?

    Posté par  . En réponse au message Aïe, j'ai tout pété gcc...... Évalué à 3.

    Merci pour l'aide de tout le monde.
    En fait, c'était le fichier /lib/libgcc_s.so.1 qui foutait tout en l'air. J'ai pas trop compris. Je l'ai écrabouillé avec celui compilé lors du make dans le répertoire gcc-build et tout est redevenu normal....
    Pour l'instant. Il me fallait une solution qui me permette de mettre à jour mon KDE (car plus de mails et j'en ai cruellement besoin en ce moment).
    Je laisse donc ça en l'état jusqu'à avoir un peu de temps pour mettre à niveau mon LFS car je ne suis qu'en version 5.1.1 "custum" puisque j'ai passé quelques mises à jour depuis sans tout ré-installer.
    Pour la question concernant le LFS en prod, je suis bien conscient qu'il y a des arguments pour et des arguments contre. Ce qui me chifonne c'est que systématiquement, dès qu'on en parle, on passe pour un illuminé, et y'en a toujours un pour dire < ma_distro > c'est ce qu'il te faut. Faut être {fou,cinglé, inconscient, etc.} pour utiliser LFS sur autre chose qu'un jouet destiné à compiler_LFS_pour_comprendre_et_on_jette_tout_après.
    Je ne demande rien à personne, moi. Je ne cherche pas à imposer LFS à qui que ce soit. C'est un système que j'apprécie, qui est apprécié par mes collègues et qui nous va bien (en fait tous sauf un intégriste gentooiste qui se reconnaitra si il passe par là ;-) !!!!!!! ). Bref, mon propos, et celui du libre, je pense, c'est de laisser à chacun le choix de ce qu'il veut.
    Il se trouve que dans notre cas, c'est une bonne solution, à défaut d'être la meilleure !
    Voilà, ne prend surtout pas mal ce que je viens de poster ci-dessus car mon propos n'est pas d'être vindicatif ni de chercher à convaincre ou encore à dire que tu as tort ! Nous avons tous raison (sauf ceux qui cherchent à imposer !).
    Quoi qu'il en soit merci encore à tous ceux qui ont essayé de se pencher sur mon problème.
  • # Utilise....

    Posté par  . En réponse au message Chiffres significatifs. Évalué à 5.

    printf ! C'est fait pour ça...
    Genre :
    printf ("%2.2f%%", $nombre);
    En espérant que ça aide !
  • [^] # Re: Solution non testée....

    Posté par  . En réponse au message Execution background et code de sortie. Évalué à 4.

    M@#!?# ! J'ai oublié de préciser : pour avoir les signes cabalistiques sur linuxfr, utilise les entités html ("& g t ;" pour supérieur, sans les espaces, "& l t" ; pour infiérieur, "& e u r o ;" pour le symbole € etc.).
  • # Solution non testée....

    Posté par  . En réponse au message Execution background et code de sortie. Évalué à 2.

    { commande1 > fichier1 && CODE1 = $? } &
    { commande2 > fichier2 && CODE2 = $? } &
    { commande3 > fichier3 && CODE3 = $? } &
    wait
    echo La commande1 a eu pour code de retour $CODE1
    echo La commande2 a eu pour code de retour $CODE2
    echo La commande3 a eu pour code de retour $CODE3

    Comme dit en titre, je n'ai pas testé, mais ça devrait marcher, non ?
  • # Solution script-shell...

    Posté par  . En réponse au message Backup CDRW pour petit réseau. Évalué à 2.

    Y'a que ça de vrai !
    Personnellement, je procéderais comme suit.
    Sur la machine qui doit faire la gravre, créer un script qui
    1) récupère les données à sauvegarder dans un répertoire prévu à cet effet uniquement. Ca peut se faire en utilisant la solution de ton choix, tel que rsync, scp, ftp, wget, etc.
    2) Quand tout est récupéré, ça ne coûte rien de faire un tar puis un bzip2 de l'ensemble dans un fichier unique.
    3) coller (que dis-je : graver) le tout grâce aux outils idoines (mkisofs, cdrecord).
    4) faire le ménage.

    Voià.
    Je fais des sauvegardes de mes différentes bases de données réparties sur 3 machines en procédant ainsi, et ça fonctionne plutôt bien.
    Pour parfaire le tout, voici quelques astuces que j'utilise également :
    - d'abord, je place un label sur mes fichiers .tar.bz2. Ca me permet de vérifier facilement si c'est la bonne cassette qui est dans le lecteur, car je fais deux sauvegardes par jour. Donc, j'ai deux types de crons : un qui vérifie que c'est la bonne cassette en milieu de matinée et en milieu d'après-midi, et un qui fait la sauvegarde effectivement.
    - ensuite, les déchargements des bases de données (effectués via ssh par un script dédié qui me fais des pg_dump à tire-larigot) sont effectués sur les machines qui les hébergent, ça évite de monopoliser mon processeur et du réseau pour rien. Ces processus sont lancés en arrière-plan.Typiquement, on trouve ce genre de lignes dans mon script :
    ssh user@machine1 decharge_bases &
    ssh user@machine2 decharge_bases &
    ssh user@machine3 decharge_bases &
    wait

    Le "&" fait passer les processus en arrière-plan, et le wait attend la fin des trois commandes avant de poursuivre le script.
    Après, je fais de même avec quelques commandes rsync -az bien senties, toujours en arrière-plan et suivies d'un wait.
    Pour finir, je colle tout dans une archive labélisée sur ma cassette.
    Voilà, j'espère que ça t'aidera et de donnera quelques idées.
    Tiens-nous au courant de la solution retenue.
    P.S. : en me relisant, je viens de voire le 4).... Ben moi, je ne fais pas de ménage, vu que j'utilise rsync pour ne récupérer que les nouveaux fichiers et ceux qui sont différents de la dernière sauvegarde. Voilà aussi une façon de faire gagner du temps.
  • # /etc/profile

    Posté par  . En réponse au message changer les locales à tous les utilisateurs. Évalué à 2.

    Tout est dans le titre.
    Si je ne m'abuse, ce fichier est parsé avant les fichiers de l'utilisateurs ($HOME/.profile, $HOME/.bash_profile, $HOME/.bashrc, etc.).
  • [^] # Re: LFS en production ?

    Posté par  . En réponse au message Aïe, j'ai tout pété gcc...... Évalué à 5.

    C'est la machine qui heberge nos applications intranet, oui. Plus nos bases de données postgreSQL, et quelques autres services (nmbd, ssh, etc.).
    Ce n'est pas une machine "vitale", mais les applications qui sont dessus sont utilisées tous les jours. Notamment mon application de gestion du temps ; sorte de pointeuse qui est utilisée à chaque fois que c'est nécessaire, par tout le monde.
    Je ne comprends pas ce qui vous gêne avec LFS. Pour moi, c'est une excellente solution qui permet - moyennant du temps, je vous l'accorde - d'avoir une machine sur mesure, et surtout de contrôler absolument tout ce qui s'y trouve.

    N.B. : Je ne veux pas lacher de trolls, surtout que ce n'est pas le sens de ma question, et que je l'avais précisé en PS de mon message initial.
    Mon patron ne lit pas linuxfr, et se fiche pas mal de ce que j'installe sur nos serveurs tant que ça fonctionne et que j'en assume la responsabilité. En tout cas, cette machine n'est pas hors-circuit, elle continue de remplir son office. Mon gros problème du moment, c'est que gcc est mort et que je ne peux installer quoi que ce soit. J'aimerais résoudre mon problème, d'une façon ou d'une aurte. SI possible sans tout ré-installer depuis le début, c'est pas le moment !
    Voilà qui, j'espère, satisfera votre curiosité !
  • # Euh ?

    Posté par  . En réponse au message postgres avec php. Évalué à 5.

    Tu peux être un peu plus explicite sur ce que tu veux faire ?
    Executer un script php depuis ta base (genre dans une procédure stockée) ? Pas possible à ma connaissance.
    Exécuter un script php depuis psql, l'interface en ligne de commande de postgreSQL ? Au prompt, tu tapes :
    => \!./monscript.php
    Exécuter un script php qui interroge ta base de données postgreSQL ? La doc est ici : http://www.php.net/manual/en/ref.pgsql.php(...) en anglais, et http://www.php.net/manual/fr/ref.pgsql.php(...) en français.
    Dans ce dernier cas, ça se résume en gros à :
    <?php
    $connId = pg_connect ('dbname=mabasededonnees username=user password=mdp');
    $req = "select * from table;";
    $resId = pg_exec ($connId, $req);
    $index = 0;
    while ($rSet = @pg_fetch_array ($resId, $index++, PGSQL_ASSOC))
    {
    // Traitement des données (affichage, etc.)
    }
    pg_close ($connId);
    ?>
    Voilà, en espérant répondre à ta question un peu floue...
  • [^] # Re: Toujours pas pour moi....

    Posté par  . En réponse à la dépêche Nouvelle version de Kolab Groupware. Évalué à 1.

    Oui, enfin, quand je parlais du "reste", je parlais de rpm, d'openpdk sans le savoir, et comme je me suis laissé tromper par cette extention, je suis parti en live sur alien et tout le bla bla.
    Pour ce qui est de l'environnement permettant de faire tourner kolab, nous sommes d'accord.
    C'est ce qui est nécessaire pour l'installation qui me dérange. Visiblement, je ne suis pas le seul (cf le post en dessous du mien).
    Bref, je pense que mon propos a été mal compris (en tout cas certains aspects), car il ne m'étais même pas venu à l'idée de descendre en flame le travail fait par tout ceux qui font vivre kolab, faudrait quand même être sacrément con, surtout que je n'ai jamais pu ni l'installer, ni l'utiliser.
    Je me répète, c'est la façon de le packager qui me gêne.
    Peut-être qu'un jour, soit j'aurais le temps et le courage d'installer openpkg, soit ils proposeront de belles archives comme on aime au format .tar.bz2.
    Bref, je présente mes plus plates excuses pour m'être égaré sur une fausse piste, je vous remercie de m'avoir corrigé, et j'espère qu'un jour j'obtiendrais satisfaction.
    Quant-à la version cvs, j'y a déjà pensé, j'avais fait un essai une fois, mais c'était un tel bazar, car il y avait pleins de dépendances non résolues, que j'ai laissé tomber pour l'instant.
  • # Toujours pas pour moi....

    Posté par  . En réponse à la dépêche Nouvelle version de Kolab Groupware. Évalué à 2.

    Pourquoi fournissent-ils les sources au format rpm ?
    Pourquoi fournissent-ils les packets pré-compilés pour debian au format rpm ?
    Encore que je ne me fiche pas mal de la 2ème question, je suis sous LFS.
    C'est bien là le problème, d'ailleurs, car depuis l'annonce des premiers développements de cette suite, pas moyen d'obtenir des sources "propres" au format .tar.{bz2,gz}. C'est dommage.
    Peut-être qu'un jour, quelqu'un pourra proposer une doc d'installation de cette suite sur LFS, ou plutôt BLFS, avec des archives des sources compatibles.
    Oui, je sais, on peut toujours installer rpm sur un LFS, et puis Alien, et puis....
    Mais ça me gave. Ce que je voudrais, c'est kolab, pas le reste.
  • [^] # Re: J'espère que ce qui suit t'aidera....

    Posté par  . En réponse au message Impossible d'ajouter une station Windows XP Pro à un domaine Samba3/Openldap.. Évalué à 2.

    Je ne sais pas trop comment ça fonctionne, mais regarde quand même dans les logs de samba.
    Sur notre serveur, cette manip' ne fonctionne pas. Il faut que les noms d'utilisateurs et les comptes machines soient présents dans les fichiers /etc/passord, /etc/shadow et /etc/smbusers avec les mêmes noms et les mêmes uid. Sinon, samba braille qu'il ne trouve pas la correspondance et refuse la connexion.
    Dans ton cas, il faudrait même probablement que ce soit synchro avec ton annuaire ldap.
    Voilà, en espérant que ça aide.
    P.S. : Nous avons mis comme directive log file = /var/log/samba/log.%U ce qui fait qu'on a les logs non pas par machine, mais par utilisateurs.
  • # J'espère que ce qui suit t'aidera....

    Posté par  . En réponse au message Impossible d'ajouter une station Windows XP Pro à un domaine Samba3/Openldap.. Évalué à 2.

    Voilà la situation dans ma boîte et comment j'ai compris les choses.
    D'abord, nous n'utilisons pas d'annuaire ldap, mais je pense que le principe reste le même, quel que soit la méthode utilisée pour stocker les informations sur les comptes.
    1) Nous avons créé les comptes des machines localement pour que samba ne refuse pas de les ajouter au smb.conf :
    $ useradd -g machines -s /bin/false -d /dev/null machine$
    Il ne faut surtout pas oublier le "$" final au nom de la machine
    2) Nous avons créé les comptes machines au niveau de samba :
    $ smbpasswd -a -m machine
    3) Nous avons créé le compte des utilisateurs de samba de la même façon, sauf que dans ce cas, nous avons mis un shell et un répertoire perso, et évidement, nous n'avons ni mis le $ en fin de la première commande, ni l'option -m de la seconde.
    4) Selon la version de samba utilisée, il faut que le compte root soit créé avec la commande smbpasswd, de façon à avoir un "super utilisateur" capable d'intégrer une machine windows dans le domaine. Nous, nous l'avons fait ainsi :
    $ smbpasswd -a root
    C'est tout ce que nous avons fait sur le serveur
    Sur le poste du client (nommé "machine" dans notre exemple), nous avons demandé à joindre le domaine avec les informations ainsi créées, et ça fonctionne, en s'identifiant comme root avec le mot de passe fourni en 4.
    Si j'ai bien compris ce qui se passe, il faut fournir un compte administrateur à la machine XP pour que celle-ci aille s'identifier en tant que tel sur le serveur et valide son adhésion au domaine.
    J'espère avoir été assez clair, et que ces informations te seront utiles.