Kwiknclean a écrit 402 commentaires

  • [^] # Re: FreeBSD sur le poste de travail?

    Posté par  . En réponse à la dépêche FreeBSD 9.3 sort des cartons. Évalué à -1. Dernière modification le 20 août 2014 à 16:31.

    En tout honnêteté je ne suis pas sur que FreeBSD soit réellement adapté à un usage bureautique, je sens que je vais me faire cracher dessus mais bon … c'est mon avis.

    A moins d'aimer passer des heures à bidouiller encore et encore … ce qui peut-être ton cas.

    Cela dit, pour pondérer je trouve déjà que GNU/Linux n'est pas adapté à MON usage bureautique, au mieux je le fais tourner dans une VM VirtualBox quand j'en ai besoin (avec la puissance des machines maintenant c'est simple comme bonjour), mais il est vrai que je tourne en permanence sous MS Windows, j'ai l'impression que GNU/Linux à raté un peu le coche du PC … bref ..

    Le réel intérêt de FreeBSD à mon sens c'est le côté "cathédrale" du décisionnel qui rend l'ensemble cohérent (t'es pas prés de te faire emmerder avec system d par exemple ..), avec le userland réellement détaché du système, qui rend le tout vraiment solide et évite ainsi les merdes lors des grosses montées de version.
    Ca et les jails qui ont X longueurs d'avances sur LxC.

    Non il ne s'agit pas d'un troll.

  • # En gros ... elle récolte les correctifs / update de la 10.0

    Posté par  . En réponse à la dépêche FreeBSD 9.3 sort des cartons. Évalué à 2.

    Le userland étant bien et proprement détaché du système, faut juste migrer vers la 10.0.

    Quel est l'intérêt de rester sous "L'ancienne" branche 9 ?

  • [^] # Re: ext2 ou ext3

    Posté par  . En réponse à la dépêche FreeBSD 9.3 sort des cartons. Évalué à 6. Dernière modification le 19 août 2014 à 23:52.

    Essayé il y a à peine quelques semaines sous FreeBSD 10.0 + un disque USB formaté en ext4 , c'est juste une blague ext4 est uniquement utilisable en lecture seule avec un paquet fusefs-ext4 (je ne sais plus trop comment) … ça fait un peu honte quand même …

    Faire cohabiter les deux OS ou avoir un disque dur USB lisible par les deux OS, c'est juste la croix et la bannière, sérieusement ils branlent quoi ?

    NTFS est presque mieux géré par les deux OS …

  • # Ha oui ..

    Posté par  . En réponse à la dépêche YunoHost 2.0 : l’auto-hébergement à portée de clic. Évalué à 1.

    Mais il manque quand même un p'tit serveur de streaming à la ampache ou subsonic pour que cela soit complet :/

    Comment cela fonctionne t il si je veux utiliser une application qui n'est pas dans la liste initiale … je peux l'ajouter sous couvert de quelques bidouilles ?!

  • # Et bha ...

    Posté par  . En réponse à la dépêche Encore une couche de rouille avec Rust 0.11. Évalué à 2.

    … ça m'a l'air tout de même beaucoup claire à lire que C++ quand même : )

  • [^] # Re: analogie avec linux

    Posté par  . En réponse au message [BSD-Debutant] S'en sortir avec PF ... et les jails. Évalué à 1.

    En gros j'ai ceci en conf :

    root@cube-box:~ # pfctl -sn
    No ALTQ support in kernel
    ALTQ related functions disabled
    nat pass on bge0 inet from 10.8.8.0/24 to any -> 192.168.0.25
    nat on bge0 inet proto tcp from 10.8.8.8 to 192.168.0.25 -> 192.168.0.24
    nat on bge0 inet proto udp from 10.8.8.8 to 192.168.0.25 -> 192.168.0.24
    nat on bge0 inet proto icmp from 10.8.8.8 to 192.168.0.25 -> 192.168.0.24
    rdr pass on bge0 inet proto tcp from any to 192.168.0.25 port = http -> 10.8.8.8
    rdr pass on bge0 inet proto tcp from any to 192.168.0.25 port = https -> 10.8.8.8
    

    Effectivement le principe est le même qu'avec IpTable.

  • [^] # Re: Docker vs LXC

    Posté par  . En réponse à la dépêche La folie Docker. Évalué à 1.

    Hello,

    Je me pose le même genre de question.
    Docker est-il conçu dans le cadre de "dock" qui auraient des nécessités d'inter-connnexion (Socket Unix pour une BDD mutualisée par exemple, ou encore pour un proxy-http style Varnish).
    J'ai du mal à vraiment voir ce que m'apporterait Docker par rapport aux Conteneurs "standards".
    Docker me semble être avant tout des conteneurs isolés et indépendant les un des autres ?
    En fait … j'ai vraiment du mal à saisir la différence de concept entre les Docks et les conteneurs LxC.

  • [^] # Sauvé !

    Posté par  . En réponse au message Problémes avec contener LxC qui ne démarrent plus .... Évalué à 2.

    La méthode "brutale" est celle ayant donnée le plus de résultat j'ai réussi à retrouver mes tables, et effectué mes dumps de mes deux bases …. ouf …

    Bon vu que j'ai complétement explosé la conf de l'host Ubuntu Server mon N54L et que je ne peux plus démarrer aucun conteneur (et que j'ai clairement la flemme et pas le temps, de passer en mode debug testing pour Ubuntu) … je vais en profiter pour enfin sauter le pas vers le combo FreeeBSD / JAIL / ZFS … qui m'a l'air d'être une combinaison bien plus cohérente.

    J'utilisais déjà ZFS / LxC sous Ubuntu mais la montée de version vers 14.04 a bien foutu la grouille notamment dans les conteneurs … faut dire que bon couplé à ZFS c'est p'tête pas très "best practice" …

  • [^] # Re: Le système a accès au conteneur

    Posté par  . En réponse au message Problémes avec contener LxC qui ne démarrent plus .... Évalué à 1.

    Effectivement le contener est de type debian 6 :/ pas si eloigné donc …

  • [^] # Re: Le système a accès au conteneur

    Posté par  . En réponse au message Problémes avec contener LxC qui ne démarrent plus .... Évalué à 1.

    Bon en fait j'avais mal modifié le my.cnf,

    en forçant le paramètre datadir=/var/lib/lxc/www-prod/rootfs/var/lib/mysql/

    MySQL refuse bien de démarrée … j'ai pourtant collé un 777 de cochon sur le repertoire du conteneur …

    mysql.error :

    140704 22:04:42 mysqld_safe mysqld from pid file /var/run/mysqld/mysqld.pid ended
    140704 22:05:17 mysqld_safe Starting mysqld daemon with databases from /var/lib/lxc/www-prod/rootfs/var/lib/mysql
    140704 22:05:17 [Warning] Using unique option prefix key_buffer instead of key_buffer_size is deprecated and will be removed in a future release. Please use the full name instead.
    140704 22:05:17 [Warning] Can't create test file /var/lib/lxc/www-prod/rootfs/var/lib/mysql/cube-box.lower-test
    140704 22:05:17 [Warning] Can't create test file /var/lib/lxc/www-prod/rootfs/var/lib/mysql/cube-box.lower-test
    140704 22:05:17 [Warning] Using unique option prefix myisam-recover instead of myisam-recover-options is deprecated and will be removed in a future release. Please use the full name instead.
    140704 22:05:17 [Note] Plugin 'FEDERATED' is disabled.
    /usr/sbin/mysqld: Can't find file: './mysql/plugin.frm' (errno: 13)
    140704 22:05:17 [ERROR] Can't open the mysql.plugin table. Please run mysql_upgrade to create it.
    140704 22:05:17 InnoDB: The InnoDB memory heap is disabled
    140704 22:05:17 InnoDB: Mutexes and rw_locks use GCC atomic builtins
    140704 22:05:17 InnoDB: Compressed tables use zlib 1.2.8
    140704 22:05:17 InnoDB: Using Linux native AIO
    140704 22:05:17 InnoDB: Initializing buffer pool, size = 128.0M
    140704 22:05:17 InnoDB: Completed initialization of buffer pool
    140704 22:05:17 InnoDB: Operating system error number 13 in a file operation.
    InnoDB: The error means mysqld does not have the access rights to
    InnoDB: the directory.
    InnoDB: File name ./ibdata1
    InnoDB: File operation call: 'create'.
    InnoDB: Cannot continue operation.
    140704 22:05:17 mysqld_safe mysqld from pid file /var/run/mysqld/mysqld.pid ended

  • [^] # Re: Le système a accès au conteneur

    Posté par  . En réponse au message Problémes avec contener LxC qui ne démarrent plus .... Évalué à 1.

    J'ai testé cette méthode mais je rencontre un petit problème.

    L'instance MySQL ne démarrait pas en modifiant simplement la ligne datafile avec le repertoire du conteneur,

    Alors j'ai brutalement copié le my.cnf de mon conteneur vers celui de mon hôte.
    Mysql démarre à présent correctement mais je ne vois pas mes bases …

    mysql> show databases;
    +--------------------+
    | Database           |
    +--------------------+
    | information_schema |
    | mysql              |
    | performance_schema |
    +--------------------+
    3 rows in set (0.00 sec)
    
  • [^] # Re: Le système a accès au conteneur

    Posté par  . En réponse au message Problémes avec contener LxC qui ne démarrent plus .... Évalué à 1.

    Oui la question est effectivement :

    "Comment est il possible de réaliser un dump SQL, sachant que le contener est down donc le service mysql down aussi" … evidemment je n'ai pas fait de sauvegardes depuis longtemps … :/

    C'est faisable ?

  • # Merci de continuer ce genre de dépêche.

    Posté par  . En réponse à la dépêche Ça bouge du côté de la virtualisation chez FreeBSD. Évalué à 4. Dernière modification le 02 juillet 2014 à 17:04.

    Sympa de nous tenir informé de la virtu côté BSD, continuez comme ça.

    J'aime beaucoup les jails notamment avec ezjail que je trouve bien,bien plus mature que LxC, bien qu'il manque quand même quelques fonctionnalités je trouve (notamment sur la gestion de la RAM, du CPU … qu'il n'est pas possible de définir je crois).

    Avec l'intégration casi native de ZFS on "/root_fs" ça rend simplement les machines et la data hypermodulable.

    Cela fait pas mal de temps que je me tate à dégager ma Ubuntu Server vers une FreeBSD Jail/ZFS … je ne sais pas ce qui me retient …

  • # Je n'ai toujours pas compris comment fonctionnait ce bordel ...

    Posté par  . En réponse à la dépêche Mise aux poings sur systemd. Évalué à -3.

    … faudrait que je prenne le temps de me documenter un jour.
    Le seul avantage que je perçois actuellement sur ce sac de nouille est que sur les dernières RH lorsqu'un LUN iSCSI est introuvable tu ne patientes pas 1 à 2 minutes avant d'avoir le timeout et continuer le boot .. plutôt pratique lorsque tu en as plusieurs en carafes.

    Après c'est sûrement exceptionnel puisque c'est porté par RH, ça je peux pas remettre en cause, tout comme la saincro-saint puissance de VMWare plébiscitée chaque jour par mes collègues.

  • [^] # Re: En prod

    Posté par  . En réponse à la dépêche Sortie de ZFS On Linux (ZOL) 0.6.3. Évalué à 1.

    He .. le titre principal du billet c'est simplement l'annonce de la nouvelle version de ZOL … je peux me tromper toutefois, je ne suis que le contributeur.

  • [^] # Re: Le vendredi c'est permis.

    Posté par  . En réponse à la dépêche Mise aux poings sur systemd. Évalué à 4. Dernière modification le 17 juin 2014 à 23:21.

    En même temps ils avaient/ont raison les quinca, ADSL c'est clairement de la merde face à T1 … jusqu'a preuve du contraire il n'y a strictement aucune causalité entre standard de fait, et performance/efficience … malheureusement l'expérience montre que cela semble être plutôt l'inverse … M$, VHS …

  • [^] # Re: En prod

    Posté par  . En réponse à la dépêche Sortie de ZFS On Linux (ZOL) 0.6.3. Évalué à 5.

    La question n'est pas sur la taille de la volumétrie, mais la capacité de disponibilité de cette dernière.

    6To de data (utile) à 100€/euros par mois, je veux bien mais avec quelles genre de sécurités ? Quel Niveau de RAID ? Redondance, Double, triple, avec réplication topologie Fabric (la ton DSI vient de transpirer à cause du tarif), Alimentation redondée ? Combien de disques de Spare ? Quel Niveau de service pour le changement d'un disque ? Réactivé sous 4H lors du claquage d'un disque ? A mon avis rien de tout ça, un disque ou deux en Raid 1 et c'est tout : 6To de Stockage avec tout ça, c'est lourd même en 2014 …

    Il y a une petite différence entre de la volumétrie "NAS" qui est sensée garantir une très haute disponibilité, limite, paranoïaque et du stockage disque lambda sur une machine physique sans sauvegarde (et la sauvegarde ça pèse lourd en UO), si tu veux de la perf oublie le SAN, achète un Dell R715 avec une dizaine de disques SAS 15K (ou SSD si t'as du fric) et laisse le bon vieux LVM / EXT4 et la carte RAID Dell (si t'es confiant) s'occuper de tout ça, prévoit quand même un bon budget sauvegarde, les perfs exploseront n'importe quelle solution SAN.

    Je ne suis pas inquiet concernant la capacité de ZFS à s'occuper de PetaOctet de fichiers (Jusqu'a Zeta comme son nom l'indique).

    Concernant l'infra de notre client cité en exemple, c'est clairement du lowcost (Déjà Supermicro Bon ça fait un peu rire …) avec du disque SATA et ses fabuleux 10 i/o secondes …, on ne fait pas de RAIDZ , mais du pool Mirroring façon RAID10, pour ne pas charger le CPU avec le calcul de la parité, pas non plus de compression (du moins je ne crois) au fait la / les baies (car c'est répliqué sur nos deux salles via Gigabit ou FC je ne sais plus), pour "uniquement" 20To Utiles, (et non pas 6 comme indiqué) c'est pas lourd, mais faut bien la servir H24, puis le client à pas besoin de 50 Peta de stockages non plus, tout le monde n' a pas l'infra d'Orange, ou Total ;) Pis si le client avait eu des sous, il aurait acheté un FAS2240 en SAS 15K mais là on change encore de grille tarifaire … ;)

    Sinon faut quand même faire attention à bien tuner ta conf ZFS, car en cas de "low memory" la Ubuntu va se charger elle même de libérer de l'espace en mémoire et elle ne se prive pas, elle purge, que ça soit les daemons de supervision ou le daemon d'export NFS .. elle purge …

    sudo zpool status
      pool: zdata
    state: ONLINE
      scan: resilvered 1K in 0h0m with 0 errors on Sun Apr 21 13:45:37 2013
    config:
            NAME                                           STATE     READ WRI
            zdata                                          ONLINE       0
              mirror-0                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-1                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-2                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-3                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-4                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-5                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-6                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-7                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-8                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-9                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
            cache
              scsi-SATA_INTEL_SSDSC2XXXXXXXXXXXXXXXXXXXXXX ONLINE       0
            spares
              scsi-SATA_WDC_WDXXXXXXXXXXXXXXXXXXXXXXXXX    AVAIL
    

    Tout ces disques pour "uniquement" 21 To ..

    sudo zfs list
    NAME                                          USED  AVAIL  REFER  MOUNTPOINT
    zdata                                        21,4T  5,37T    46K  /zdata
    

    Je ne mets pas les autres mountpoint de l’agrégat ZFS pour des raisons évidentes ;)

    free -g
                 total       used       free     shared    buffers     cached
    Mem:            31         31          0          0          0          0
    -/+ buffers/cache:         30          0
    Swap:           18          0         18
    

    Bha oui il a tout mangé le cochon de ZFS …

  • [^] # Re: En prod

    Posté par  . En réponse à la dépêche Sortie de ZFS On Linux (ZOL) 0.6.3. Évalué à 6. Dernière modification le 15 juin 2014 à 13:42.

    Un de nos clients s'en sert pour présenter du NFS à des ESX sur une infra supermicro + Ubuntu 12.04 + ZFS 0.6.2 avec environ 5 ou 6T de data et une bonne 20aine de VM.

    Avec un disque SSD pour le cache et 32 Go de RAM et des disques SATA (basses perfs donc) de type Western Digital Raid (on doit changer à peu près un disque tout les deux à trois mois) : Ça fonctionne correctement.
    On se sert des snapshots pour la sauvegarde restauration, ce qui est plutôt efficace (bien plus que de s'emmerder avec un soft de sauvegarde type Netbackup).
    Le seul soucis que l'on a vient apparemment du hardware supermicro qui n'est pas VMWare Certified, du coup en cas d'appel vers le support ce dernier nous rit un peu au nez … à part ça, ça fait son boulot.

    En revanche je ne saurais dire si les perfs auraient été équivalentes/supérieurs avec du stockage proprio type EMC / NetApp … à un tarif autrement différent. Le soucis étant que pour le coup avec cette solution y a peu d'outils pour monitorer/bencher produire du reporting du graphe, latence NFS, Fibre .. peut être que ZED change un peu la donne.

    Pour la prod je pense que c'est OK depuis la 0.6.1 (fin des RC), le fait que nous soyons encore en numéro < 1 ne signifie pas que le projet est Beta mais que la Roadmap de développement est ambitieuse (faire plus que ce que proposait nativement ZFS sour Solaris).

    Au fait Illuminos participe également au développement ZFS sous FreeBSD qui est (si je ne m'abuse), le FS par défaut sur la 10.0 qui est tout sauf une distribution "not production ready".

    Voir premier chapitre.

    On me demanderait de monter du projet stockage, je réfléchirai à plusieurs fois avant d'acheter du EMC/NetApp/Hitachi …

  • [^] # Re: Compatibilité avec le noyau Linux

    Posté par  . En réponse à la dépêche Sortie de ZFS On Linux (ZOL) 0.6.3. Évalué à 2.

    Oui tout à fait erreur, d’interprétation de ma part et c'est apparemment passé à la trappe lors de la relecture il s'agit des noyo <= 3.14 et pas l'inverse ;).

    Soi dit en passant l'intégration avec Systemd qui fait aussi partie des nouveautés.

  • [^] # Re: Mais ou est ce donc?

    Posté par  . En réponse à la dépêche Appel à proposition du prochain Open World Forum #OWF14. Évalué à -2.

    Un jour, un jour peut-être nous aurons le droit à ce genre d’événements à Lyon, Nantes, Toulouse, Strasbourg ou Bordeaux …
    Pardon je suis encore mal réveillé je rêve encore un peu.

  • # Dans une jail freenas ?

    Posté par  . En réponse à la dépêche Seafile, un Dropbox-like libre à héberger sort en version 3. Évalué à 1.

    Quelqu'un a t-il essayé de l'installer dans une jail BSD sous freenas ?!

  • [^] # Re: 3000$ et incapable de sauvegarder en RAW nativement

    Posté par  . En réponse au journal Magic Lantern : un projet open-source (trop?) discret. Évalué à 1.

    A mon avis une bonne partie du prix n'est pas justifié on achète beaucoup plus la pub et le "prestige" que la finition à ce tarif et 5k et pas de tropicalisation c'est juste aimer se faire bananer…. Canon préfére arroser le pigeon avec de la course au Mpixel le lambda pensant un peu à l'instar des Ordinateur que plus il y a de Mhz (px..) mieux c'est, plutôt que de se concentrer sur leur algo de dématrissage et là y a encore du boulot pour rattraper la qualité Pentax (qui est sérieusement en train de casser leur grille tarifaire).

  • [^] # Re: Article Intéressant mais ...

    Posté par  . En réponse à la dépêche Encore un exemple de code spaghetti : Toyota. Évalué à -4. Dernière modification le 07 mars 2014 à 18:44.

    Félicitation pour ta recherche Google, mais tu n'es pas sans savoir que "François" n'est absolument pas utilisé dans ce sens sur Internet mais bien avec une connotation purement péjorative …

  • [^] # Re: Quelle est l'utilité de faire un « gros » programme pour freiner ?

    Posté par  . En réponse à la dépêche Encore un exemple de code spaghetti : Toyota. Évalué à -5.

    en Europe et aux USA, la législation oblige un lien physique entre entre la pédale de frein/étriers et volant/direction.

    A part les voitures de 199x, il y a bien longtemps que je n'ai pas vu de liaisons physique entre le volant et l'arbre de direction des roues … les seules liaisons sont Electronique voir pneumatiques … faut choisir volant que tu peux tourner à 2 doigts ou sensation de devoir manœuvrer 1200 Kg lorsque tu te gares.

  • # Article Intéressant mais ...

    Posté par  . En réponse à la dépêche Encore un exemple de code spaghetti : Toyota. Évalué à -5. Dernière modification le 07 mars 2014 à 13:56.

    … pourrait-on arrêter de s'auto-flageller en utilisant le néologisme/barbarisme "françois", je trouve ridicule cette tendance à toujours se rabaisser, oui oui nous savons, l'anglais est bien l'anglais est universel, nous ne sommes que des cul-terreux nous pauvres FrançOis non civilisés et en retard technologiquement (en autre …), sérieusement c'est fatiguant.

    Sinon en substance, encore un effet de bord de la politique de management globale des entreprises sur les X dernières années, réduction des goûts, pas chère, toujours moins chère, vite, et surtout pas cher, court-circuitage des processus d'études et de qualités. Rien d'étonnant à ce qu'on trouve de la merde dans un code qui pourtant semble critique (gestion des freins sur une voiture ce n'est pas rien), externalisation à outrance vers des plateformes de dev offshore ou seule la rentabilité et la plus-value compte, où la SSII a du revoir ses tarifs pour obtenir le contrat … bref on connait les manœuvres usuelles pour fournir du "pas cher", ce qui est plus étonnant c'est qu'on continue à s'étonner (désolé) des conséquences de ce genre de "gouvernance".