J'ai commencé à regardé du côté du reverse proxy mais tout est basé sur le nom de domaine et un préfixe du coups c'est très orienté appli web (http) mais pour le cas d'une appli qui utilise pas le nom de domaine et qui n'utilise pas http, comment faire ?
Effectivement passer par docker-compose serait pas mal mais vu qu'on est plusieurs à gérer le truc je préfère limiter les accès au serveur. La création / modification se fait par une UI Portainer.
Les images sont basées sur Debian mais adaptées au besoin, j'aime pas trop prendre les images toutes faites et pas trop savoir comment et quoi est installé… Non j'suis pas parano.
Il n'y normalement pas d’intérêt à sauvegarder un container, surtout sur de la prod. Le container lui même doit pouvoir être changé et n'a pas de besoin à être sauvegarder.
Je suis d'accord qu'un container vie, mais imaginons un container lancé en prod il y a 1 an avec des paramètres spécifique (volumes montés, réseaux, port ouvert…). Au début tout ça peut être créé via un dockerfile. 6 mois plus tard je modifie un paramètre du container et tête en l'air que je suis j'oublie de reporter ces modifications dans le dockerfile. 3 mois plus tard… pouff crash. Je remonte l'image
docker load -i monimage
Mince y a quoi déjà qui tourne sur le bouzin, quelle volume est mappé avec cette image, est-ce que le réseau est linké avec un autre docker… Vite le dockerfile… oups il est pas à jour.
Alors qu'avec une sauvegarde du container (enfin des paramètres) 30s tout est repartie.
De ce que j'ai lu avec bind en backend il y a un problème avec les zones… C'est pas très clair encore tout ça. Et puis l'idée est de ne plus avoir à gérer les enregistrements DNS à la main.
Metabase est très très simple à mettre en place, il y a un gros boulot de "traduction" des tables et champs. Ensuite faut comprendre la logique mais même un non informaticien est capable de créer ces propres requêtes.
Je n'ai pas fini de le mettre en place encore, il me reste des tables à traduire, mais je l'ai déjà montré à notre contrôleur de gestion et il en ai tombé amoureux. Il utilisait avant des solutions propriétaires et m'a dit que c'était des vrai usines à gaz.
Voila pourquoi je ne veux plus avoir à faire à l'utilisateur. Bien souvent il n'est pas en cause car il utilise un outil qui doit fonctionner, le problème est le manque de formations des utilisateurs. Je vous l'accorde une partie s'en fustige le scoubidou de savoir la différence entre un fichier et un dossier (c'est le truc jaune qui a pas la même images que les autres… véridique), ou bien de taper l'adresse du site qu'il connaisse par cœur sur internet, google. Par exemple monsitequejeconnaisladresse.fr dans le champ recherche de google.
Parfois c'est désespérant et avec les années j'ai arrêté d'accorder du temps cerveau à essayer de faire comprendre ça aux utilisateurs mais surtout à leurs manager et l'idée qu'il serait bon pour tout le monde de former les collaborateurs correctement… Mais je me suis souvent rincé les dents tellement le vent était fort ;)
Illico j'étais déjà tombé dessus en réalisant d'autres recherches et pour moi c'est un, bon, outils pour qualifier les données.
Open Refine me parait complexe, en tout cas les vidéos de démo me donnent cette impression.
Plus je réfléchi et mieux le besoin est exprimé : un outil capable de se connecter à une base existante (Oracle, csv, mysql…), croisé les données et le recracher dans un format (csv, office, db…). J'en suis arrivé aux ETL et Talend qui pourrait correspondre à ce besoin.
Reste que dans tout les cas l'utilisateur devra connaitre la structure d'une base, d'une table, d'un fichier… Pas de bouton magique ;)
Depuis plusieurs mois je tests beaucoup de logiciels (ERP, PIM…), au début je me prenais la tête à chercher des paquets (rpm) pour ma plateforme de test mais c'est peine perdue car il faut tenir compte de la version de l'os disponible sur l'infra, la version des logiciels installés, des besoins de chaque appli déjà installé sur la futur plateforme de prod (en cas d'incompatibilités), des dépendances de l'appli à tester, du sens du vent et du cour de la cacahuète en nouvelle Papouasie… Autant se pendre par la paupière droite tout de suite :(
Exemple pour le PIM Akeneo
C'est une appli web dev en php. L'installation est préconisé sur Debian, mince j'ai que du RedHat au boulot. Ca commence mal, mais je continue la lecture de la doc. Classiquement Apache 2.x (facile), Mysql-server (trop fastoche), php 7.1 (oupss), php-fpm (re oupss). La suite ressemble à la course poursuite d'Indiana et la boule géante dans "Les aventuriers de l'arche perdue", surtout ne pas trébucher : Elasticsearch, Java, Nodejs, Yarn… J'en oublie probablement… Celui qui me trouve tout ça en rpm sur Redhat 7.2 je lui fais une… ola. Sur Debian Strech c'est presque plus simple ou en tout cas documenté. Il y a une image Docker dispo mais j'ai pas vraiment réussi à la faire marcher. Du coups je me suis créé un petit dockerfile de base pour une debian, installé, malmené, torturé, fouetté, bisouillé… tout ce que vous voulez en é, sans me prendre la tête avec l'os de base. Maintenant que j'ai validé que c'est l'appli qu'il nous faut j'ai 3 choix possibles :
tenter l'expérience avec une Redhat (voir si la paupière droite tient encore);
installer une Debian Strech : pourquoi pas;
installer une VM de prod avec Docker et pousser le container en prod.
Pour moi les gestionnaires de paquets sont bien pour la distribution des "programmes systèmes", mais dès qu'on est dans la distribution d'applications plus lourdes et/ou métier je trouve que docker est une bonne solution.
J'ai réussi à initialisé la base à avoir un fichier de configuration de base qui me permet de démarrer trytond. Pour le moment je n'arrive pas à me connecter en client web (Erreur 405 Method not Allowed).
Un fichier de configuration par défaut en exemple serait pas mal
Parfais je suis pil en recherche d'un ERP. Je créé un petit container basé sur debian strech, un coup de pip install trytond, apt install postgresql… C'est à partir de là que la configuration de tryton devient obscurs.
La doc est bien là mais c'est comme si cétait plus une prise de note pour faire la rédaction de la doc plus tard que vraiment une procédure d'installation.
C'est la méthode de beaucoup d'éditeur d'ERP (et d'autres surement), ils rachètent au lieu de créer. Plus facile, pas de R&D, plus d'argent car une nouvelle version que le marketing s'empresse de vendre au client de l'ancienne version.
Que dans la version Entreprise les montées en versions soient payantes pourquoi pas, puisque je paye un service de support, de suivi des dev spécifiques que j'ai fais faire. Mais que dans la version communautaire, où justement j'ai fais le choix de tout faire moi même, que les scripts de montées en version ne soit pas dispo, je suis pas trop d'accord… Pas très OpenSource tout ça. Pour moi c'est juste un moyen de forcer le passage en version Entreprise.
J'ai bien pensé à Odoo mais la politique de l'éditeur me pose problème. Par exemple pour la version communautaire ne pas proposer de processus de mise à jour. Je trouve ça très très moyen :(
Avec 2 onduleurs tu aura la même problématique lorsque les batteries seront vides sur le 2. Autant envisager un onduleur pour pallier le temps de démarrage d'un groupe électrogène. Ensuite tu es sur l'autonomie du groupe qui est sans fin tant qu'il y a du gasoil dans le réservoir ou une personne pour en remettre.
J'ai un smartups 5000va, il encaisse pas mal, avec la petite carte réseau qui va bien et une vm capable de piloter l'arrêt des VM's et des hôtes ESX, ensuite un agent sur chaque machine physique (autre que ESX) qui est pilotée par cette même VM. Reste que la baie qui pour le moment n'est pas très ouverte à la communication avec l'onduleur :(
Je suis d'accord avec toi et pas de bol c'est arrivé en pleine nuit… Et comme beaucoup de monde la nuit je dors malgré la notif envoyée sur mon téléphone posé sur ma table nuit…
Au boulot c'est en gros 200Go de données qui bougent tout les jours, il y a de la VM (vmware), de la base de données Oracle/Mysql et les données utilisateurs (office, images…).
On a prévue slip/caleçon/ceinture/bretelles/parachute… Les données sont stockés sur des espaces des travail prévues sur une baie NetApp avec tout ce qui faut (double alim, doubles disques, doubles réseaux) pour prévoir la panne matériel, ensuite backupé sur un nas syno (avec du raid) et ensuite le tout est sortie sur un autre syno (encore du raid) chez Ikoula avec une fibre 100/100.
Au niveau des programmes il y a ArcServe UDP pour les VM, ArcServe backup pour les fichiers et db que je suis en train de virer car infernal à utiliser au quotidien à cause d'une interface qui date d'un autre temps et d'une logique basée sur le fonctionnement en cassette de backup (dat, lto…) et puis du script maison pour les dump et Windows (robocopy).
Pour remplacer ArcServe Backup je test BackupPC 4.1.3, je l'avais utilisé quand c'était encore la branche 3 puis viré car il ne gérait pas la partie VM (ce qui est toujours le cas) mais comme j'ai UDP (oui je me suis laissé avoir par les chants des sirènes d'une interface unifié pour les VM et les fichiers et les DB…).
Un exemple dernièrement nous avons eu un coupure de courant, l'onduleur a pris le relais pendant 30mn et il aurait dû lancer la procédure d'arrêt en fin de batterie… "Aurait dû", car pour une raison encore inconnu ça n'a pas été le cas. Du coups arrêt brutal des toutes l'infra et résultat des courses une LUN complètement morte avec un fs irrécupérable. Pas de bol c'était la db Oracle de l'ERP qui était dessus, je commence à transpirer et après quelques appelles à des amis ont (enfin surtout mes amis), remontent le dump du dernier backup, pas mal d'heures d'import après tout est reparti. Si le dump local avait eu un problème il nous était possible de revenir à celui de la veille, de l'avant veille, de l'avant avant […] veille. Je vous avoue que j'ai eu bien transpiré. Car pas d'ERP, plus d'activité pour la société. Je pense que j'aurais perdu mon boulot et pas que moi car un fort risque que la boite ferme la porte à cause d'un onduleur qui a chié dans la colle.
L'année dernière j'ai vue passer plusieurs reportage sur des assos qui se chargent de "vendre" des graines hors catalogue et surtout ré-utilisable mais je n'arrive pas à trouver le nom ou le site.
[^] # Re: acl, views
Posté par Philippe M (site web personnel) . En réponse au message Dns, ajouter un domaine avec un point. Évalué à 2.
Merci pour les mots clés ;)
Born to Kill EndUser !
[^] # Re: acl, views
Posté par Philippe M (site web personnel) . En réponse au message Dns, ajouter un domaine avec un point. Évalué à 2.
Parfait c'est exactement ce que je cherche à faire ;)
Merci
Born to Kill EndUser !
[^] # Re: Traefik ?
Posté par Philippe M (site web personnel) . En réponse au message Docker, plusieurs services et virtualhost. Évalué à 1. Dernière modification le 12 avril 2018 à 12:28.
J'ai commencé à regardé du côté du reverse proxy mais tout est basé sur le nom de domaine et un préfixe du coups c'est très orienté appli web (http) mais pour le cas d'une appli qui utilise pas le nom de domaine et qui n'utilise pas http, comment faire ?
Born to Kill EndUser !
[^] # Re: docker compose
Posté par Philippe M (site web personnel) . En réponse au message Docker, sauvegarde de container. Évalué à 2. Dernière modification le 12 mars 2018 à 17:00.
Effectivement passer par docker-compose serait pas mal mais vu qu'on est plusieurs à gérer le truc je préfère limiter les accès au serveur. La création / modification se fait par une UI Portainer.
Les images sont basées sur Debian mais adaptées au besoin, j'aime pas trop prendre les images toutes faites et pas trop savoir comment et quoi est installé… Non j'suis pas parano.
Born to Kill EndUser !
[^] # Re: docker compose
Posté par Philippe M (site web personnel) . En réponse au message Docker, sauvegarde de container. Évalué à 3. Dernière modification le 12 mars 2018 à 16:10.
Je suis d'accord qu'un container vie, mais imaginons un container lancé en prod il y a 1 an avec des paramètres spécifique (volumes montés, réseaux, port ouvert…). Au début tout ça peut être créé via un dockerfile. 6 mois plus tard je modifie un paramètre du container et tête en l'air que je suis j'oublie de reporter ces modifications dans le dockerfile. 3 mois plus tard… pouff crash. Je remonte l'image
docker load -i monimage
Mince y a quoi déjà qui tourne sur le bouzin, quelle volume est mappé avec cette image, est-ce que le réseau est linké avec un autre docker… Vite le dockerfile… oups il est pas à jour.
Alors qu'avec une sauvegarde du container (enfin des paramètres) 30s tout est repartie.
Born to Kill EndUser !
[^] # Re: docker inspect
Posté par Philippe M (site web personnel) . En réponse au message Docker, sauvegarde de container. Évalué à 2.
Yep je lisais la doc mais avant je vais tester rekcod. Pourquoi re-inventer la roue ;)
Born to Kill EndUser !
[^] # Re: docker inspect
Posté par Philippe M (site web personnel) . En réponse au message Docker, sauvegarde de container. Évalué à 1.
Pas mal ça. Je commençais à me lancer dans le parse de la sortie de inspect.
Je vais tester tout ça, merci.
Born to Kill EndUser !
[^] # Re: Bind
Posté par Philippe M (site web personnel) . En réponse au message Samba 4 et dhcp. Évalué à 1. Dernière modification le 15 février 2018 à 08:18.
De ce que j'ai lu avec bind en backend il y a un problème avec les zones… C'est pas très clair encore tout ça. Et puis l'idée est de ne plus avoir à gérer les enregistrements DNS à la main.
Born to Kill EndUser !
[^] # Re: elasticsearch + kibana
Posté par Philippe M (site web personnel) . En réponse au message Analyse de données. Évalué à 2.
Metabase est très très simple à mettre en place, il y a un gros boulot de "traduction" des tables et champs. Ensuite faut comprendre la logique mais même un non informaticien est capable de créer ces propres requêtes.
Je n'ai pas fini de le mettre en place encore, il me reste des tables à traduire, mais je l'ai déjà montré à notre contrôleur de gestion et il en ai tombé amoureux. Il utilisait avant des solutions propriétaires et m'a dit que c'était des vrai usines à gaz.
Born to Kill EndUser !
[^] # Re: Google ne se lance plus
Posté par Philippe M (site web personnel) . En réponse au journal Culte du Cargo et développement informatique. Évalué à 4.
Voila pourquoi je ne veux plus avoir à faire à l'utilisateur. Bien souvent il n'est pas en cause car il utilise un outil qui doit fonctionner, le problème est le manque de formations des utilisateurs. Je vous l'accorde une partie s'en fustige le scoubidou de savoir la différence entre un fichier et un dossier (c'est le truc jaune qui a pas la même images que les autres… véridique), ou bien de taper l'adresse du site qu'il connaisse par cœur sur
internet, google. Par exemple monsitequejeconnaisladresse.fr dans le champ recherche de google.Parfois c'est désespérant et avec les années j'ai arrêté d'accorder du temps cerveau à essayer de faire comprendre ça aux utilisateurs mais surtout à leurs manager et l'idée qu'il serait bon pour tout le monde de former les collaborateurs correctement… Mais je me suis souvent rincé les dents tellement le vent était fort ;)
Born to Kill EndUser !
[^] # Re: elasticsearch + kibana
Posté par Philippe M (site web personnel) . En réponse au message Analyse de données. Évalué à 1.
J'ai trouvé metabase grâce à ton lien vers le journal. Pour le moment il me plait bien, simple à mettre en place, beau et à priori simple.
Il me reste à faire fonctionner le connecteur Oracle et je pense que je vais pouvoir répondre au besoin.
Merci à tous.
Born to Kill EndUser !
[^] # Re: Outils pour trier, analyser, ... les données
Posté par Philippe M (site web personnel) . En réponse au message Analyse de données. Évalué à 1.
Merci pour tes pistes.
Illico j'étais déjà tombé dessus en réalisant d'autres recherches et pour moi c'est un, bon, outils pour qualifier les données.
Open Refine me parait complexe, en tout cas les vidéos de démo me donnent cette impression.
Plus je réfléchi et mieux le besoin est exprimé : un outil capable de se connecter à une base existante (Oracle, csv, mysql…), croisé les données et le recracher dans un format (csv, office, db…). J'en suis arrivé aux ETL et Talend qui pourrait correspondre à ce besoin.
Reste que dans tout les cas l'utilisateur devra connaitre la structure d'une base, d'une table, d'un fichier… Pas de bouton magique ;)
Born to Kill EndUser !
[^] # Re: Docker fourre-tout ?
Posté par Philippe M (site web personnel) . En réponse à la dépêche L’application « OnlyOffice pour Nextcloud » est disponible. Évalué à 4.
Depuis plusieurs mois je tests beaucoup de logiciels (ERP, PIM…), au début je me prenais la tête à chercher des paquets (rpm) pour ma plateforme de test mais c'est peine perdue car il faut tenir compte de la version de l'os disponible sur l'infra, la version des logiciels installés, des besoins de chaque appli déjà installé sur la futur plateforme de prod (en cas d'incompatibilités), des dépendances de l'appli à tester, du sens du vent et du cour de la cacahuète en nouvelle Papouasie… Autant se pendre par la paupière droite tout de suite :(
Exemple pour le PIM Akeneo
C'est une appli web dev en php. L'installation est préconisé sur Debian, mince j'ai que du RedHat au boulot. Ca commence mal, mais je continue la lecture de la doc. Classiquement Apache 2.x (facile), Mysql-server (trop fastoche), php 7.1 (oupss), php-fpm (re oupss). La suite ressemble à la course poursuite d'Indiana et la boule géante dans "Les aventuriers de l'arche perdue", surtout ne pas trébucher : Elasticsearch, Java, Nodejs, Yarn… J'en oublie probablement… Celui qui me trouve tout ça en rpm sur Redhat 7.2 je lui fais une… ola. Sur Debian Strech c'est presque plus simple ou en tout cas documenté. Il y a une image Docker dispo mais j'ai pas vraiment réussi à la faire marcher. Du coups je me suis créé un petit dockerfile de base pour une debian, installé, malmené, torturé, fouetté, bisouillé… tout ce que vous voulez en é, sans me prendre la tête avec l'os de base. Maintenant que j'ai validé que c'est l'appli qu'il nous faut j'ai 3 choix possibles :
Pour moi les gestionnaires de paquets sont bien pour la distribution des "programmes systèmes", mais dès qu'on est dans la distribution d'applications plus lourdes et/ou métier je trouve que docker est une bonne solution.
Born to Kill EndUser !
[^] # Re: Documentation
Posté par Philippe M (site web personnel) . En réponse à la dépêche Sortie de Tryton 4.6. Évalué à 4.
Parfait j'ai l'interface web, merci.
Voila le genre de chose qu'il manque aussi dans la doc :)
Born to Kill EndUser !
[^] # Re: Documentation
Posté par Philippe M (site web personnel) . En réponse à la dépêche Sortie de Tryton 4.6. Évalué à 3. Dernière modification le 07 novembre 2017 à 16:29.
J'ai réussi à initialisé la base à avoir un fichier de configuration de base qui me permet de démarrer trytond. Pour le moment je n'arrive pas à me connecter en client web (Erreur 405 Method not Allowed).
Un fichier de configuration par défaut en exemple serait pas mal
Born to Kill EndUser !
# Documentation
Posté par Philippe M (site web personnel) . En réponse à la dépêche Sortie de Tryton 4.6. Évalué à 2.
Parfais je suis pil en recherche d'un ERP. Je créé un petit container basé sur debian strech, un coup de pip install trytond, apt install postgresql… C'est à partir de là que la configuration de tryton devient obscurs.
La doc est bien là mais c'est comme si cétait plus une prise de note pour faire la rédaction de la doc plus tard que vraiment une procédure d'installation.
Born to Kill EndUser !
[^] # Re: cegid ?
Posté par Philippe M (site web personnel) . En réponse à la dépêche Développement très rapide d’applications libres : Extended Man/XML Frames. Évalué à 3.
C'est la méthode de beaucoup d'éditeur d'ERP (et d'autres surement), ils rachètent au lieu de créer. Plus facile, pas de R&D, plus d'argent car une nouvelle version que le marketing s'empresse de vendre au client de l'ancienne version.
Born to Kill EndUser !
[^] # Re: odoo (ex openERP)
Posté par Philippe M (site web personnel) . En réponse au message Facturier multi-société. Évalué à 1.
Que dans la version Entreprise les montées en versions soient payantes pourquoi pas, puisque je paye un service de support, de suivi des dev spécifiques que j'ai fais faire. Mais que dans la version communautaire, où justement j'ai fais le choix de tout faire moi même, que les scripts de montées en version ne soit pas dispo, je suis pas trop d'accord… Pas très OpenSource tout ça. Pour moi c'est juste un moyen de forcer le passage en version Entreprise.
Born to Kill EndUser !
[^] # Re: odoo (ex openERP)
Posté par Philippe M (site web personnel) . En réponse au message Facturier multi-société. Évalué à 1.
J'ai bien pensé à Odoo mais la politique de l'éditeur me pose problème. Par exemple pour la version communautaire ne pas proposer de processus de mise à jour. Je trouve ça très très moyen :(
Born to Kill EndUser !
[^] # Re: Tryton
Posté par Philippe M (site web personnel) . En réponse au message Facturier multi-société. Évalué à 1.
Pas mal cette page avec beaucoup d'ERP que je ne connais pas.
Merci.
Born to Kill EndUser !
[^] # Re: Au boulot
Posté par Philippe M (site web personnel) . En réponse au journal RAID is no Backup!. Évalué à 1.
Ca coule de source…
Born to Kill EndUser !
[^] # Re: Au boulot
Posté par Philippe M (site web personnel) . En réponse au journal RAID is no Backup!. Évalué à 1.
Avec 2 onduleurs tu aura la même problématique lorsque les batteries seront vides sur le 2. Autant envisager un onduleur pour pallier le temps de démarrage d'un groupe électrogène. Ensuite tu es sur l'autonomie du groupe qui est sans fin tant qu'il y a du gasoil dans le réservoir ou une personne pour en remettre.
J'ai un smartups 5000va, il encaisse pas mal, avec la petite carte réseau qui va bien et une vm capable de piloter l'arrêt des VM's et des hôtes ESX, ensuite un agent sur chaque machine physique (autre que ESX) qui est pilotée par cette même VM. Reste que la baie qui pour le moment n'est pas très ouverte à la communication avec l'onduleur :(
Born to Kill EndUser !
[^] # Re: Au boulot
Posté par Philippe M (site web personnel) . En réponse au journal RAID is no Backup!. Évalué à 1.
Je suis d'accord avec toi et pas de bol c'est arrivé en pleine nuit… Et comme beaucoup de monde la nuit je dors malgré la notif envoyée sur mon téléphone posé sur ma table nuit…
Born to Kill EndUser !
# Au boulot
Posté par Philippe M (site web personnel) . En réponse au journal RAID is no Backup!. Évalué à 3.
Au boulot c'est en gros 200Go de données qui bougent tout les jours, il y a de la VM (vmware), de la base de données Oracle/Mysql et les données utilisateurs (office, images…).
On a prévue slip/caleçon/ceinture/bretelles/parachute… Les données sont stockés sur des espaces des travail prévues sur une baie NetApp avec tout ce qui faut (double alim, doubles disques, doubles réseaux) pour prévoir la panne matériel, ensuite backupé sur un nas syno (avec du raid) et ensuite le tout est sortie sur un autre syno (encore du raid) chez Ikoula avec une fibre 100/100.
Au niveau des programmes il y a ArcServe UDP pour les VM, ArcServe backup pour les fichiers et db que je suis en train de virer car infernal à utiliser au quotidien à cause d'une interface qui date d'un autre temps et d'une logique basée sur le fonctionnement en cassette de backup (dat, lto…) et puis du script maison pour les dump et Windows (robocopy).
Pour remplacer ArcServe Backup je test BackupPC 4.1.3, je l'avais utilisé quand c'était encore la branche 3 puis viré car il ne gérait pas la partie VM (ce qui est toujours le cas) mais comme j'ai UDP (oui je me suis laissé avoir par les chants des sirènes d'une interface unifié pour les VM et les fichiers et les DB…).
Un exemple dernièrement nous avons eu un coupure de courant, l'onduleur a pris le relais pendant 30mn et il aurait dû lancer la procédure d'arrêt en fin de batterie… "Aurait dû", car pour une raison encore inconnu ça n'a pas été le cas. Du coups arrêt brutal des toutes l'infra et résultat des courses une LUN complètement morte avec un fs irrécupérable. Pas de bol c'était la db Oracle de l'ERP qui était dessus, je commence à transpirer et après quelques appelles à des amis ont (enfin surtout mes amis), remontent le dump du dernier backup, pas mal d'heures d'import après tout est reparti. Si le dump local avait eu un problème il nous était possible de revenir à celui de la veille, de l'avant veille, de l'avant avant […] veille. Je vous avoue que j'ai eu bien transpiré. Car pas d'ERP, plus d'activité pour la société. Je pense que j'aurais perdu mon boulot et pas que moi car un fort risque que la boite ferme la porte à cause d'un onduleur qui a chié dans la colle.
Born to Kill EndUser !
[^] # Re: les graines en France
Posté par Philippe M (site web personnel) . En réponse à la dépêche Open Source Seeds : les graines de tomates libres. Évalué à 1.
L'année dernière j'ai vue passer plusieurs reportage sur des assos qui se chargent de "vendre" des graines hors catalogue et surtout ré-utilisable mais je n'arrive pas à trouver le nom ou le site.
Born to Kill EndUser !