Philippe M a écrit 719 commentaires

  • [^] # Re: Bind

    Posté par (page perso) . En réponse au message Samba 4 et dhcp. Évalué à 1 (+0/-0). Dernière modification le 15/02/18 à 08:18.

    De ce que j'ai lu avec bind en backend il y a un problème avec les zones… C'est pas très clair encore tout ça. Et puis l'idée est de ne plus avoir à gérer les enregistrements DNS à la main.

    Born to Kill EndUser !

  • [^] # Re: elasticsearch + kibana

    Posté par (page perso) . En réponse au message Analyse de données. Évalué à 2 (+1/-0).

    Metabase est très très simple à mettre en place, il y a un gros boulot de "traduction" des tables et champs. Ensuite faut comprendre la logique mais même un non informaticien est capable de créer ces propres requêtes.

    Je n'ai pas fini de le mettre en place encore, il me reste des tables à traduire, mais je l'ai déjà montré à notre contrôleur de gestion et il en ai tombé amoureux. Il utilisait avant des solutions propriétaires et m'a dit que c'était des vrai usines à gaz.

    Born to Kill EndUser !

  • [^] # Re: Google ne se lance plus

    Posté par (page perso) . En réponse au journal Culte du Cargo et développement informatique. Évalué à 4 (+3/-0).

    Voila pourquoi je ne veux plus avoir à faire à l'utilisateur. Bien souvent il n'est pas en cause car il utilise un outil qui doit fonctionner, le problème est le manque de formations des utilisateurs. Je vous l'accorde une partie s'en fustige le scoubidou de savoir la différence entre un fichier et un dossier (c'est le truc jaune qui a pas la même images que les autres… véridique), ou bien de taper l'adresse du site qu'il connaisse par cœur sur internet, google. Par exemple monsitequejeconnaisladresse.fr dans le champ recherche de google.

    Parfois c'est désespérant et avec les années j'ai arrêté d'accorder du temps cerveau à essayer de faire comprendre ça aux utilisateurs mais surtout à leurs manager et l'idée qu'il serait bon pour tout le monde de former les collaborateurs correctement… Mais je me suis souvent rincé les dents tellement le vent était fort ;)

    Born to Kill EndUser !

  • [^] # Re: elasticsearch + kibana

    Posté par (page perso) . En réponse au message Analyse de données. Évalué à 1 (+0/-0).

    J'ai trouvé metabase grâce à ton lien vers le journal. Pour le moment il me plait bien, simple à mettre en place, beau et à priori simple.

    Il me reste à faire fonctionner le connecteur Oracle et je pense que je vais pouvoir répondre au besoin.

    Merci à tous.

    Born to Kill EndUser !

  • [^] # Re: Outils pour trier, analyser, ... les données

    Posté par (page perso) . En réponse au message Analyse de données. Évalué à 1 (+0/-0).

    Merci pour tes pistes.

    Illico j'étais déjà tombé dessus en réalisant d'autres recherches et pour moi c'est un, bon, outils pour qualifier les données.

    Open Refine me parait complexe, en tout cas les vidéos de démo me donnent cette impression.

    Plus je réfléchi et mieux le besoin est exprimé : un outil capable de se connecter à une base existante (Oracle, csv, mysql…), croisé les données et le recracher dans un format (csv, office, db…). J'en suis arrivé aux ETL et Talend qui pourrait correspondre à ce besoin.

    Reste que dans tout les cas l'utilisateur devra connaitre la structure d'une base, d'une table, d'un fichier… Pas de bouton magique ;)

    Born to Kill EndUser !

  • [^] # Re: Docker fourre-tout ?

    Posté par (page perso) . En réponse à la dépêche L’application « OnlyOffice pour Nextcloud » est disponible. Évalué à 4.

    Depuis plusieurs mois je tests beaucoup de logiciels (ERP, PIM…), au début je me prenais la tête à chercher des paquets (rpm) pour ma plateforme de test mais c'est peine perdue car il faut tenir compte de la version de l'os disponible sur l'infra, la version des logiciels installés, des besoins de chaque appli déjà installé sur la futur plateforme de prod (en cas d'incompatibilités), des dépendances de l'appli à tester, du sens du vent et du cour de la cacahuète en nouvelle Papouasie… Autant se pendre par la paupière droite tout de suite :(

    Exemple pour le PIM Akeneo
    C'est une appli web dev en php. L'installation est préconisé sur Debian, mince j'ai que du RedHat au boulot. Ca commence mal, mais je continue la lecture de la doc. Classiquement Apache 2.x (facile), Mysql-server (trop fastoche), php 7.1 (oupss), php-fpm (re oupss). La suite ressemble à la course poursuite d'Indiana et la boule géante dans "Les aventuriers de l'arche perdue", surtout ne pas trébucher : Elasticsearch, Java, Nodejs, Yarn… J'en oublie probablement… Celui qui me trouve tout ça en rpm sur Redhat 7.2 je lui fais une… ola. Sur Debian Strech c'est presque plus simple ou en tout cas documenté. Il y a une image Docker dispo mais j'ai pas vraiment réussi à la faire marcher. Du coups je me suis créé un petit dockerfile de base pour une debian, installé, malmené, torturé, fouetté, bisouillé… tout ce que vous voulez en é, sans me prendre la tête avec l'os de base. Maintenant que j'ai validé que c'est l'appli qu'il nous faut j'ai 3 choix possibles :

    • tenter l'expérience avec une Redhat (voir si la paupière droite tient encore);
    • installer une Debian Strech : pourquoi pas;
    • installer une VM de prod avec Docker et pousser le container en prod.

    Pour moi les gestionnaires de paquets sont bien pour la distribution des "programmes systèmes", mais dès qu'on est dans la distribution d'applications plus lourdes et/ou métier je trouve que docker est une bonne solution.

    Born to Kill EndUser !

  • [^] # Re: Documentation

    Posté par (page perso) . En réponse à la dépêche Sortie de Tryton 4.6. Évalué à 4.

    Parfait j'ai l'interface web, merci.

    Voila le genre de chose qu'il manque aussi dans la doc :)

    Born to Kill EndUser !

  • [^] # Re: Documentation

    Posté par (page perso) . En réponse à la dépêche Sortie de Tryton 4.6. Évalué à 3. Dernière modification le 07/11/17 à 16:29.

    J'ai réussi à initialisé la base à avoir un fichier de configuration de base qui me permet de démarrer trytond. Pour le moment je n'arrive pas à me connecter en client web (Erreur 405 Method not Allowed).

    Un fichier de configuration par défaut en exemple serait pas mal

    Born to Kill EndUser !

  • # Documentation

    Posté par (page perso) . En réponse à la dépêche Sortie de Tryton 4.6. Évalué à 2.

    Parfais je suis pil en recherche d'un ERP. Je créé un petit container basé sur debian strech, un coup de pip install trytond, apt install postgresql… C'est à partir de là que la configuration de tryton devient obscurs.

    La doc est bien là mais c'est comme si cétait plus une prise de note pour faire la rédaction de la doc plus tard que vraiment une procédure d'installation.

    Born to Kill EndUser !

  • [^] # Re: cegid ?

    Posté par (page perso) . En réponse à la dépêche Développement très rapide d’applications libres : Extended Man/XML Frames. Évalué à 3.

    C'est la méthode de beaucoup d'éditeur d'ERP (et d'autres surement), ils rachètent au lieu de créer. Plus facile, pas de R&D, plus d'argent car une nouvelle version que le marketing s'empresse de vendre au client de l'ancienne version.

    Born to Kill EndUser !

  • [^] # Re: odoo (ex openERP)

    Posté par (page perso) . En réponse au message Facturier multi-société. Évalué à 1.

    Que dans la version Entreprise les montées en versions soient payantes pourquoi pas, puisque je paye un service de support, de suivi des dev spécifiques que j'ai fais faire. Mais que dans la version communautaire, où justement j'ai fais le choix de tout faire moi même, que les scripts de montées en version ne soit pas dispo, je suis pas trop d'accord… Pas très OpenSource tout ça. Pour moi c'est juste un moyen de forcer le passage en version Entreprise.

    Born to Kill EndUser !

  • [^] # Re: odoo (ex openERP)

    Posté par (page perso) . En réponse au message Facturier multi-société. Évalué à 1.

    J'ai bien pensé à Odoo mais la politique de l'éditeur me pose problème. Par exemple pour la version communautaire ne pas proposer de processus de mise à jour. Je trouve ça très très moyen :(

    Born to Kill EndUser !

  • [^] # Re: Tryton

    Posté par (page perso) . En réponse au message Facturier multi-société. Évalué à 1.

    Pas mal cette page avec beaucoup d'ERP que je ne connais pas.

    Merci.

    Born to Kill EndUser !

  • [^] # Re: Au boulot

    Posté par (page perso) . En réponse au journal RAID is no Backup!. Évalué à 1.

    Ca coule de source…

    Born to Kill EndUser !

  • [^] # Re: Au boulot

    Posté par (page perso) . En réponse au journal RAID is no Backup!. Évalué à 1.

    Avec 2 onduleurs tu aura la même problématique lorsque les batteries seront vides sur le 2. Autant envisager un onduleur pour pallier le temps de démarrage d'un groupe électrogène. Ensuite tu es sur l'autonomie du groupe qui est sans fin tant qu'il y a du gasoil dans le réservoir ou une personne pour en remettre.

    J'ai un smartups 5000va, il encaisse pas mal, avec la petite carte réseau qui va bien et une vm capable de piloter l'arrêt des VM's et des hôtes ESX, ensuite un agent sur chaque machine physique (autre que ESX) qui est pilotée par cette même VM. Reste que la baie qui pour le moment n'est pas très ouverte à la communication avec l'onduleur :(

    Born to Kill EndUser !

  • [^] # Re: Au boulot

    Posté par (page perso) . En réponse au journal RAID is no Backup!. Évalué à 1.

    Logiquement

    Je suis d'accord avec toi et pas de bol c'est arrivé en pleine nuit… Et comme beaucoup de monde la nuit je dors malgré la notif envoyée sur mon téléphone posé sur ma table nuit…

    Born to Kill EndUser !

  • # Au boulot

    Posté par (page perso) . En réponse au journal RAID is no Backup!. Évalué à 3.

    Au boulot c'est en gros 200Go de données qui bougent tout les jours, il y a de la VM (vmware), de la base de données Oracle/Mysql et les données utilisateurs (office, images…).

    On a prévue slip/caleçon/ceinture/bretelles/parachute… Les données sont stockés sur des espaces des travail prévues sur une baie NetApp avec tout ce qui faut (double alim, doubles disques, doubles réseaux) pour prévoir la panne matériel, ensuite backupé sur un nas syno (avec du raid) et ensuite le tout est sortie sur un autre syno (encore du raid) chez Ikoula avec une fibre 100/100.

    Au niveau des programmes il y a ArcServe UDP pour les VM, ArcServe backup pour les fichiers et db que je suis en train de virer car infernal à utiliser au quotidien à cause d'une interface qui date d'un autre temps et d'une logique basée sur le fonctionnement en cassette de backup (dat, lto…) et puis du script maison pour les dump et Windows (robocopy).

    Pour remplacer ArcServe Backup je test BackupPC 4.1.3, je l'avais utilisé quand c'était encore la branche 3 puis viré car il ne gérait pas la partie VM (ce qui est toujours le cas) mais comme j'ai UDP (oui je me suis laissé avoir par les chants des sirènes d'une interface unifié pour les VM et les fichiers et les DB…).

    Un exemple dernièrement nous avons eu un coupure de courant, l'onduleur a pris le relais pendant 30mn et il aurait dû lancer la procédure d'arrêt en fin de batterie… "Aurait dû", car pour une raison encore inconnu ça n'a pas été le cas. Du coups arrêt brutal des toutes l'infra et résultat des courses une LUN complètement morte avec un fs irrécupérable. Pas de bol c'était la db Oracle de l'ERP qui était dessus, je commence à transpirer et après quelques appelles à des amis ont (enfin surtout mes amis), remontent le dump du dernier backup, pas mal d'heures d'import après tout est reparti. Si le dump local avait eu un problème il nous était possible de revenir à celui de la veille, de l'avant veille, de l'avant avant […] veille. Je vous avoue que j'ai eu bien transpiré. Car pas d'ERP, plus d'activité pour la société. Je pense que j'aurais perdu mon boulot et pas que moi car un fort risque que la boite ferme la porte à cause d'un onduleur qui a chié dans la colle.

    Born to Kill EndUser !

  • [^] # Re: les graines en France

    Posté par (page perso) . En réponse à la dépêche Open Source Seeds : les graines de tomates libres. Évalué à 1.

    L'année dernière j'ai vue passer plusieurs reportage sur des assos qui se chargent de "vendre" des graines hors catalogue et surtout ré-utilisable mais je n'arrive pas à trouver le nom ou le site.

    Born to Kill EndUser !

  • [^] # Re: rsync devrait suffire

    Posté par (page perso) . En réponse au message BackupPc et réplication. Évalué à 1.

    C'est bien ce que je pensais mais que faire en cas de croisement de copie (la réplication copie un fichier en cours de copie par backuppc) ? rsync va générer une erreur et du coups la réplication n'est plus consistante et il est possible de ne pas pouvoir tout re-importer en cas de besoins depuis le datastore de réplication.

    Born to Kill EndUser !

  • [^] # Re: Et les autres sources de données

    Posté par (page perso) . En réponse à la dépêche Urbackup un logiciel de sauvegarde moderne. Évalué à 3.

    j'ai bricolé

    Voila le problème avec les solutions opensource. Dès qu'on est plus dans le fichier c'est du bricolage et en matière de backup il n'y a pas de place pour le bricolage. L'enjeu est bien trop important.

    Ne vous méprenez pas, je suis un fervent défenseur de l'opensource mais sur ce coups je n'ai pas trouvé une solution répondant aux exigences du backup même chez backuppc ou bacula.

    automysqlbackup passe par mysqldump, c'est juste une surcouche qui gère la rotation, les logs… J'avais dev un truc dans le genre il y a quelques années pour nos besoins internes : backupeur http://blogoflip.fr/backupeur-0-3-3 mais par manque de temps j'ai arrêté le dev. L'idée était la même, une surcouche avec mysqldump; rsync, ftp, ldapdif… qui me permettais de gérer les rotations, les logs, les alertes/notifications par mail… Le plus gros point noir : limiter à l'univers linux/serveurs. Pas de bol les utilisateurs sont en Windows et à l'époque des versions différentes de Windows.

    Born to Kill EndUser !

  • [^] # Re: Et les autres sources de données

    Posté par (page perso) . En réponse à la dépêche Urbackup un logiciel de sauvegarde moderne. Évalué à 5.

    Le dump d'une base est une bonne idée mais pour moi pas la plus optimisé en terme de gestion de l'espace disque et de la bande passante.
    Par exemple pour mes bases Oracle, un dump prends quelques giga et chaque dump est différent donc pas moyen d'utiliser le différentiel, la dédupe peut être mais au niveau bloc.

    Oracle propose un outil d'historisation rman, qui permet de générer tout les x temps un fichier historique qui fait quelques méga. Le plus simple serait de les copier mais Oracle a la main en permanence dessus afin de garantir la consistance des fichiers. Pour les copier il faut soit passer par un outil capable de communiquer avec rman soit arrêter la base et copier les fichiers… Autant dire impensable est production.

    A ma connaissance, mysql ne propose pas d'outils de (vrai) backup autre que mysqldump qui reprend le principe du fichier qui est différent à chaque lancement.

    Lorsque j'ai commencé à mon poste d'admin j'avais une fenêtre de sauvegarde d'une nuit et à peine 1G de données. 15 ans plus tard la fenêtre de backup est réduite à 6 heures avec ~120Go de données à sauvegarder en local et distant (pour le distant j'ai grugé en augmentant la bande passante de la connexion internet).

    Born to Kill EndUser !

  • # Et les autres sources de données

    Posté par (page perso) . En réponse à la dépêche Urbackup un logiciel de sauvegarde moderne. Évalué à 6.

    Bonjour à tous,

    Je trouve tout ces outils libre de backup très bien, tous ayant un plus ou un moins. Mais tous se concentrent sur la sauvegarde du fichier (en mode bloc ou fichier).

    Comment faire lorsqu'on a des base mysql, oracle, sql server. Du vmware, du fichiers utilisateurs et qu'en plus on veut un versionning local sur 1 semaine et un archivage en datacenter le tout en prod avec l'impossibilité d'arrêter une base ou une VM ?

    Pour le moment je n'ai pas le choix, je mixe en 3 solutions :
    - ArcServe UDP (simple au quotidien, souple, et clair);
    - ArcServe backup (un truc immonde au quotidien digne de l'usage des DAT avec tar);
    - Du script maison à base de rsync ou robocopy (environnement windows).

    Pour moi le plus gros problème de la sauvegarde n'est pas de copier les données mais bien d'avoir un outil clair et simple à utiliser. C'est déjà compliqué de devoir faire de la restauration après un crash (vole, effacement, feu, inondation…) mais si en plus l'outil est une usine à gaz c'est un coups à se louper et définitivement perdre les données.

    Born to Kill EndUser !

  • [^] # Re: C'était quoi ?

    Posté par (page perso) . En réponse au journal Tootella is down. Évalué à 2.

    Tout pareil j'ai découvert linuxfr grâce à tootella, du coups maintenant j'ai ajouté les flux rss dans mon agrégateur. Dommage j'aimais bien aller faire mon tour quotidien sur tootella pour me rappeler que la simplicité est ce qu'il y a de mieux ;)

    Born to Kill EndUser !

  • [^] # Re: Software collections

    Posté par (page perso) . En réponse au message Docker en prod. Évalué à 2.

    Je vais jeter un coups d'oeil. Mais l'idée, que je n'ai pas mentionné, est aussi d'avoir une solution portable sur d'autres distri. On est pas à l'abris d'avoir une debian qui débarque un jour pour une raison x ou y ;)

    Born to Kill EndUser !

  • # Réseau

    Posté par (page perso) . En réponse à la dépêche OCS Inventory 2.3 Stable. Évalué à 4.

    J'utilise FusionInventory couplé à GLPI et pour différentes raisons dont je n'ai jamais trouvé la raison, la partie inventaire switch ne marche pas correctement.

    Avant de me lancer dans l'installation d'OCS est-ce que l'inventaire de matériel réseau est prévue ? Si oui est-ce qu'il est possible de connaitre, sur un switch ce qui est connecté dessus ?

    Born to Kill EndUser !