BB a écrit 527 commentaires

  • [^] # Re: quel est le besoin en matière de son?

    Posté par  . En réponse à la dépêche Un entretien avec Lennart Poettering. Évalué à 1.

    Oh ! J’en sais fichtrement rien :) Je ne m’y connaît pas plus que ça en audio numérique et bien sûr, tout dépend de l’usage qui est fait du signal derrière. C’était juste pour signaler que la contrainte sur la latence est possiblement très supérieur à un bête retard sur le son. Évidement, si derrière il y a directement les enceintes ça a peu d’intérêt, mais on parle d’un usage pro. là, donc je m’attends à trouver tout un tas de matériel derrière… qui peut récupérer du signal venant de plusieurs sources.

  • [^] # Re: quel est le besoin en matière de son?

    Posté par  . En réponse à la dépêche Un entretien avec Lennart Poettering. Évalué à 6.

    À 15 KHz tu es largement en-dessous des 0,1 ms. Ce qui est important c’est la fréquence du son, car une latence va se traduire par un déphasage, et un déphasage est totalement audible s’il interfère avec une autre source.

  • [^] # Re: Modestie...

    Posté par  . En réponse à la dépêche Un entretien avec Lennart Poettering. Évalué à 3.

    Apple ne pratiquerait pas la vente liée ?

    http://bons-constructeurs-ordinateurs.info/

  • [^] # Re: FFT

    Posté par  . En réponse au journal Cherche exemple d'expression de calcul lourd. Évalué à 0.

    Tu as les fonctions trigonométriques dans le tas (cos et sin) pour récupérer les parties réelles et imaginaires.

  • # FFT

    Posté par  . En réponse au journal Cherche exemple d'expression de calcul lourd. Évalué à 3.

    Je n’ai pas bien compris ton besoin, mais la transformée de Fourier, son équivalent discret et la version rapide, la FFT, sont un bon exemple de calcul scientifique, courant et bien lourd.

  • [^] # Re: cool je vais tester sur mon portable ;)

    Posté par  . En réponse au journal La surconsommation électrique de Linux identifiée. Évalué à 0.

    Rha, j’ai fait un proposition à ce sujet, malheureusement sans succès :
    http://linuxfr.org/suivi/blacklist-personnelle-des-contributeurs

  • [^] # Re: Tri comptage

    Posté par  . En réponse au journal Une autre excuse pour ne pas bosser…. Évalué à 1.

    C’est ce que j’ai pensé aussi, d’un point de vue algorithmique, si on considère le petit bout de code du lien, c’est le cas.

    Mais comme dit au dessus et dans le lien, les propriétés (complexité&co) dépendent de la façon dont tu prépares tes tâches pour les réveiller au moment opportun, à la fin du sleep. Si le système d’exploitation utilise un algorithme de tri pour préparer les processus qui dorment, alors la complexité du sleep sort ne pourra pas être meilleure que la complexité du tri fait par le système :
    — c’est un peu couillon vu que le tri comptage est en O(N), je classerais même presque le sleep sort dans la classe O(1), car l’opération de tri ne dépend pas de la taille du tableau (presque car il reste les opérations d’accès mémoire&co) ;
    — on ne peut plus parler de tri par comptage car lorsqu’on déroule l’opération sleep un tri apparaîtra, c’est qu’il n’est pas explicite mais bien présent ;
    — toute la question est alors de savoir ce qui est implémenté derrière sleep pour vraiment parler d’un tri comptage.

  • [^] # Re: Jusqu’à un certain point...

    Posté par  . En réponse au journal PulseAudio ou comment casser ce qui marche (pour le plaisir de casser). Évalué à 2.

    C’est uniquement pour synthétiser des sons. Probablement pour pouvoir jouer des fichiers midi. Il fonctionnera sans problème pour le reste avec alsa seul, et peut être considéré comme « PulseAudio free ». Je me sers de fluidsynth et libpulse pour vmpk et kmetronome ; je lance manuellement PulseAudio (et qsynth) à cette occasion, mais le reste du temps il est éteint.

  • [^] # Re: Ponzi

    Posté par  . En réponse au journal Le bitcoin perd la moitié de sa valeur. Évalué à -2.

    Ma pensée était que le but de l’arnaque était de ne pas passer comme telle. Par conséquent la forme changera toujours d’un cas d’école à son application, plus ou moins sophistiquée. Et que jusque là on se fait fort de décrire les différence avec la chaîne de Ponzi archi-classique. Mais je reconnais personnellement dans le système bitcoin l’ossature de l’arnaque de Ponzi.

    Note que je me faisais une très vague idée de ce qu’était l’arnaque de Ponzi, j’assimilais cette dernière à une arnaque pyramidale. Jusque là je n’assimilais pas bitcoins à du Ponzi, et c’est en allant voir Wikipedia que j’y ai reconnu tout ce qui fait bitcoin.

    Quand à l’argumentation, avec tout ce qui a été dit ces derniers temps, j’ai largement eu l’occasion de me faire ma propre idée. Et le commentaire auquel tu réponds contient un des reproches à son argumentation, je ne suis pas allé plus loin car j’estime qu’il se suffit à lui-même (note qu’un autre commentaire met en exergue une autre faiblesse, les « si » et « à part » qui émaillent l’argumentation). Pas la peine de répéter une troisième fois la même chose si c’est pour entrer dans un dialogue de sourd.

  • [^] # Re: Ponzi

    Posté par  . En réponse au journal Le bitcoin perd la moitié de sa valeur. Évalué à -5.

    La forme de l’arnaque a changé. Mais je soutiens que c’est bien du Ponzi. Le principe de base de toute arnaque c’est de ne pas en paraître une. Me dire que ça n’y ressemble pas me conforte juste dans mon sentiment, surtout avec des arguments aussi faibles. Arguments dont la faiblesse se jauge à ton évidente aptitude à ignorer ma deuxième citation qui est notée comme une arnaque de Ponzi et qui repose précisément sur la création d’une monnaie, méthode très similaire à ce qui est fait pour bitcoin.

  • # Ponzi

    Posté par  . En réponse au journal Le bitcoin perd la moitié de sa valeur. Évalué à -5.

    Je croyais que c’était une arnaque similaire à la Ponzi. En fait c’est exactement l’arnaque de Ponzi.

    Une chaîne de Ponzi est un circuit financier frauduleux qui consiste à rémunérer les investissements effectués par les clients, au moyen essentiellement des fonds procurés par les nouveaux entrants, le système étant découvert et s'écroulant quand les sommes procurées par les nouveaux entrants ne suffisent plus à couvrir les rémunérations des clients.

    Wikipedia

    En février 2009, le Japonais Kazutsugi Nami a été arrêté avec 20 autres personnes, car il était soupçonné d'avoir détourné 126 milliards de yens (un peu moins d'un milliard d'euros) en organisant une chaîne de Ponzi. Dans ce cas précis, le mécanisme utilisé faisait appel à un investissement minimum de 100 000 yens investi dans une monnaie virtuelle appelée l'« enten », avec un retour sur investissement annoncé de 36 % par an.

    Wikipedia

    À noter que dans le cas du bitcoin il n’y a pas que je sache de retour sur investissement comme « offre d’appel ». On utilise d’autres arguments relativement à la « mode ». Le piège ne se situe pas dans l’appât du gain mais plutôt dans le sentiment de rejet de la finance classique suite à la crise récente. C’est à mon avis loin d’être un hasard mais issu d’un calcul savamment préparé.

  • [^] # Re: le swapin est normal sous linux...

    Posté par  . En réponse au message swap. Évalué à 4.

    J’ajouterai, pour régler tout ça :
    echo 0/100 > /proc/sys/vm/swappiness
    et direction /etc/sysctl.(conf|d)

  • [^] # Re: Python et Matplotlib

    Posté par  . En réponse à la dépêche Petite actu des outils d’analyse numérique. Évalué à 2.

    Quelques dizaines de secondes c’est qu’il y a un problème. Par contre me suis bêtement fait avoir parce que j’étais en interactif. Du coup :

    pyplot.plot(a)
    xlim(0, 1)
    xscale('log')
    legend()
    ...
    

    Recalculait le graphe à chaque ligne… -_-

    Une fois corrigé ce petit problème j’ai mes graphes en même pas une seconde (des milliers de points et leur carte de densité). Ceci en deux passes de sauvegarde (j’ai surchargé les fonctions de pyplot pour faire ma petite tambouille).

  • [^] # Re: ouhais

    Posté par  . En réponse au journal il est minuit 4. Évalué à 2.

    La version de KDE dans debian est antideluvienne

    Et la debian testing ne te convient pas ?

    Il est vrai qu’on est longtemps resté sur du 4.4 à cause du gel, mais très récemment j’ai eu la mise à jour vers la 4.6.

    Ceci dit je n’utilise pas KDE complètement, uniquement des bouts. En particulier l’indexation et nepomuk qui est utilisable mais reste très moyen : déjà j’ai augmenté la limite de inotify comme précisé dans un autre commentaire, ensuite je limite l’indexation à un nombre limité de repertoires plutôt que la totalité. Ça n’empêche qu’il y a encore quelques bugs ici ou là, plutôt des lenteurs inexpliquées en fait, Dolphin qui fait des siennes, un processus KDE qui s’affole. C’est vite corrigé et j’attribue parfois ces comportement à mon utilisation très particulière. Mais c’est un peu galère.

  • [^] # Re: Culture

    Posté par  . En réponse au journal Les pubs contre, eux pour HADOPI. Évalué à 2.

    Shakespeare et Mallarmé

    Il est question de Voltaire dans le premier lien.

  • [^] # Re: Bon sens...

    Posté par  . En réponse au journal Énergie nucléaire et bon sens. Évalué à 6.

    Excellent ! Vous êtes du genre à voir le verre à moitié plein ou c’était juste un exercice de style “langue de bois” ?

    D'ailleurs il parait que certains animaux arrivent à éviter les zones contaminées.

    Genre ils ont un détecteur à radiation intégré, c’est une option spéciale CCCP. Autrement dit : ceux qui, pour une raison ou une autre, passent par les zones contaminées sont morts. Restent ceux qui n’y vont pas.

    On a ainsi découvert que des espèces végétales sont plus "résistantes" que d'autres à la radio-activité, voir même cette dernière n'a aucun effet sur elle.

    Autrement dit : bon on croyait que tout allait crever, en fait quelques plantes survivent. (Le reste crève.)

    Il suffit de cultiver uniquement certaines espèces de légumes ou fruits sur lesquels les effets de la radio-activité sont minimes voir nulle.

    Oui, quelles conditions de vie enviables. Et quel est le taux de mortalité du coin ? Et la fréquence des cancers ?

    les effets néfastes sur la nature sont en définitive moins importants qu'on pourrait le croire

    Bon effectivement, c’est pas devenu désertique…

    Le paradis qu’on vous dit.

    c'est quasi un paradis

    PS : je sais bien que mes citations partielles sont forcément très injustes avec ce que vous avez écrit. Je voulais juste montré comment, avec les tournures adaptées, on peut changer la signification des choses.

  • [^] # Re: mouais

    Posté par  . En réponse au journal Le futur jukebox d'Orange vous fera peut-être bientôt regretter son « internet ».... Évalué à 3.

    Oui, mes les géants des médias ne vont certainement pas se gêner pour finir par racheter les FAI. Si, comme ça se profile (tv à la demaine et compagnie), les fournisseurs de contenus brassent plus d’argents que les FAI, ils auront tout intérêt à en prendre le contrôle, plutôt que d’en dépendre.

    Le lien donné a un commentaire qui pointe sur http://www.confessions-voleur.net/confessions/node10.html
    qui explique la problématique. Toujours d’actualité ? Me trompé-je ?
    « Les fournisseurs de transit américains par exemple, bien qu'ils utilisent les câbles transatlantiques lorsque leurs clients se connectent à un site européen, ne paient rien, alors que leurs homologues européens doivent payer le prix fort pour utiliser ces mêmes câbles dans le sens inverse. En très grande majorité, ce sont les Européens qui souhaitent se connecter sur les sites web américains et non le contraire. Les Américains n'ont donc aucune raison de financer des tuyaux qui servent aux Européens presque à sens unique. Et quand bien même ils décideraient de venir en masse visiter les boutiques virtuelles de l'Ancien Continent, les Européens auront toujours un besoin vital d'être reliés aux grands centres de transit internationaux des données qui se trouvent, bien entendu, aux États-Unis

    Ainsi, les Européens paient plus cher que les Américains pour se servir du même outil. Outre-Atlantique, les utilisateurs de l'Internet ne paient pas pour le transit, c'est-à-dire le droit d'usage des tuyaux qui relient les réseaux nationaux ou régionaux les uns avec les autres. Le prix du débit est donc moins élevé là-bas qu'en Europe puisque le coût du transit n'est pas répercuté sur les clients, ce qui explique l'attractivité des États-Unis sur les entreprises utilisant l'Internet. Voilà ce qui draine davantage d'utilisateurs sur les sites hébergés en Californie ou à New York. Les États-Unis n'auront donc jamais le moindre intérêt à financer le transit international puisque les autres pays le financent pour eux. »

  • [^] # Re: mouais

    Posté par  . En réponse au journal Le futur jukebox d'Orange vous fera peut-être bientôt regretter son « internet ».... Évalué à 2.

    « 3) Le problème n'est pas récent (cf. https://linuxfr.org/news/probleme-de-peering-entre-free-et-france-t%C3%A9l%C3%A9com qui date de 2003 ) »

    Je clique sur le lien, et je tombe sur :
    — « Le probleme semble être plus politique que technique. Free est près a passer a 2.5Go/s mais France Télécom traine du pied. Et pour cause. Free est l'un de leurs gros concurrents. »
    — « On espère que rapidement FT mettra en place la capa nécessaire puisque le problème se situe de leur côté. »
    — « De notre côté tout est okey. On attend plus que FT fasse le nécessaire de leur côté. »

    Je ne comprends pas le rapport avec la problématiques FAI-fournisseur de contenu, parce que là, on a deux FAI : l’un a payé pour mettre à jour la liaison, l’autre fait juste preuve de mauvaise volonté. (Tout commentaires concernant les acteurs en jeux serait déplacé, n’est-ce pas ?)

    Il ne faut pas oublier que si les FAI ont des abonnés c’est parce qu’Internet s’est développé. Entre autre Google a aidé en fournissant un moteur de recherche enfin un poil pertinent (j’ai connu le temps d’avant Google, ce n’était pas joyeux). Les FAI ont besoin de contenus sur Internet pour vendre leur connections.

    Par contre je suis d’accord avec toi, il y a un véritable bras de fer en cours, les gros fournisseurs de contenus aka les média se sont (enfin!) rendu compte du potentiel et de la manne que représente Internet. Je crois qu’ils aimeraient bien se l’accaparer. Face à ça les FAI se font (ou vont se faire) bouffer tout cru. Pour eux le seul moyen de s’en sortir passe par la fourniture de contenu par eux-mêmes. Mécontents d’y arriver eux-même, pour ceux qui essaient, ils aimeraient pouvoir récupérer une partie du pactole que se font les gros des media.

  • [^] # Re: Déjà signalé

    Posté par  . En réponse à l’entrée du suivi Autorisation d'accès à l'espace de rédaction. Évalué à 1 (+0/-0).

    Ce serait une bonne chose d’avoir un lien vers la liste des articles en préparation, le titre suffirait à défaut du contenu complet. Ça permettrait de se tenir au courant de ce qui se prépare ; de ne pas proposer de doublons, ce qui est déjà arrivé ; voir faire « une proposition d’amélioration » d’une dépêche existante, plutôt que de tout réécrire ex nihilo.

  • [^] # Re: ben je crois que tu as tout dit

    Posté par  . En réponse au message Informations pertinentes pour un banc d'essai ?. Évalué à 1.

    Pour le nombre d’occurences N. L’idéal est de calculer l’écart-type σ non-biaisé, la plupart des logiciels ou langages numériques ont une fonction « std ». La moyenne aura une écart-type ν=σ/√N. L’idéal est de donner l’erreur qui vous commettez sur la moyenne, qui sera en théorie : ε=3ν.

    Ensuite à vous d’augmenter ou réduire N en fonction de l’erreur ε acceptable. Si la mesure n’est faite qu’un petit nombre de fois ce n’est pas très rigoureux, mais au moins ça donne un ordre de grandeur, et ce sera infiniment mieux que n’importe quel benchmark informatique !

    Pour le script, en python ça donnerait un truc comme ça, disons un fichier ASCII avec m colonnes (pour différentes mesures) et n échantillons. Attention a bien avoir des réels en entrée, avec des entiers ça peut poser problème.

    from numpy import *
    from matplotlib import *
    tab = loadtxt('fichier.dat')
    moyenne = []
    error = []
    for i in range(m):
      moyenne.append(mean(tab[:,i]))
      error.append(3*std(tab[:,i], ddof=1)/sqrt(len(tab[:,i])))
    errorbar(range(m), moyenne, error)
    
  • [^] # Re: Résultats de mes investigations

    Posté par  . En réponse au message Disque dur, température et Load_Cycle_Count. Évalué à 1.

    PS : as-tu essayé hdparm avec l’option
    -S Put the drive into idle (low-power) mode, and also set the standby (spindown) timeout for the drive. This timeout value is used by the drive to determine how long to wait (with no disk activity) before turning off the spindle motor to save power. Under such circumstances, the drive may take as long as 30 seconds to respond to a subsequent disk access, though most drives are much quicker. The encoding of the timeout value is somewhat peculiar. A value of zero means "time‐outs are disabled": the device will not automatically enter standby mode. Values from 1 to 240 specify multiples of 5 seconds, yielding timeouts from 5 seconds to 20 minutes. Values from 241 to 251 specify from 1 to 11 units of 30 minutes, yielding timeouts from 30 minutes to 5.5 hours. A value of 252 signifies a time‐out of 21 minutes. A value of 253 sets a vendor-defined timeout period between 8 and 12 hours, and the value 254 is reserved. 255 is interpreted as 21 minutes plus 15 seconds. Note that some older drives may have very different interpretations of these values.
  • # Résultats de mes investigations

    Posté par  . En réponse au message Disque dur, température et Load_Cycle_Count. Évalué à 1.

    J’ai eu le même problème très récemment. J’étais tombé sur une page qui expliquait assez bien le problème et qui tordait le cou à certaines idées reçue : difficile de savoir la vérité à ce sujet, mais ce que j’ai vécu confirme plutôt ce que j’y ai lu et je livre donc les conclusions, assez spéculatives, ici.

    Mon disque dur présentait des signes évidents de fatigue : messages du noyau linux comme quoi il n’arrivait pas à lire sur le disque dur, toujours au même positions, les self-test smartctl -t me retournait des erreurs et le fameux Load_Cycle_Count rendu à plus de 1 000 000.

    Premier point : il se peut que le Load_Cycle_Count retourné ne soit pas correct, il faut aussi regarder la colonne VALUE qui est un pourcentage (load_cycle_count disponible / load_cycle_count maximal), s’il tombe à 0 c’est pas bon du tout… Second point : il est indicatif, on peut tomber en panne largement en-dessous comme être largement au-dessus et parfaitement fonctionnel, prenez toutefois vos précautions, mais il va de soit que vous faites des sauvegardes régulièrement !

    J’ai donc changé ce disque dur. Là encore quelques idées reçues qui semblent fausses : ce n’est pas nécessairement le paramétrage trop aggressif de Linux qui est en cause, en fait ça dépend totalement de l’ensemble (disque dur, ordinateur, os), il faut bien se dire que le fabricant a lui même mis en place une valeur par défaut, et que les bios des portables ne doivent sûrement pas se priver de régler ce genre de détails. En effet, sans activer aucun mode d’économie d’énergie sur ma distribution ou au niveau du noyau Linux je me retrouve toujours avec un ratio load_cycle_count / heure bien trop élevé (> 20—30) et le disque dur a son économie d’énergie activée (hdparm -B /dev/sda retourne 128).

    La solution est alors de régler le niveau d’économie d’énergie avec hdparm. Personellement, le passer à 254 a définitivement réglé mon problème, sans que la température ne dépasse les 39° C. Il faut ensuite faire un script : là attention! il faut penser au démarrage de l’ordinateur, mais aussi à la sortie de veille (suspend-to-ram et suspend-to-disk) ; les distributions proposent normalement le moyen de régler ça, mais il faut mettre les mains dans le cambouis.

    Votre problème est que ça chauffe. Ce que je ferais c’est d’accepter une valeur d’économie d’énergie faible (genre 128). Il y a ensuite des moyens de « limiter la casse » du Load_Cycle_Count : il s’agira de limiter les accès disque. Le mieux est de chercher du côté des économies d’énergies, et c’est ce que j’ai fait. Mais ça créé d’autres problèmes, il faudra donc faire un compromis. Par exemple, j’ai mis l’option relatime au montage des partition, j’ai augmenté la valeur de /proc/sys/vm/dirty_writeback_centisecs à 1500 (mais on peut aller au-delà si on veut, sur un portable avec batterie on peut se permettre de ne pas craindre les coupures), désactiver le swap peut être une idée aussi (quoi que de mon expérience, swap ⇒ cache disque plus grand ⇒ moins d’accès disque) et enfin il faut faire la chasse aux programmes qui réclament régulièrement des accès disques pour soit les supprimer, soit les configurer correctement (par exemple tout ce qui surveille activement la modification sur des fichiers est à bannir, il y a inotify pour ça, ou à défaut augmenter l’intervalle et râler/déposer un rapport de bug).
  • [^] # Re: Se mettre au sport!

    Posté par  . En réponse au message Comment classer ses idées efficacement?. Évalué à 3.

    Basket est parfaitement fonctionnel, au moins depuis les quelques mois que je l’utilise. Il n’avance pas très vite mais, sans se fier à la dénomination de bêta, il avance tout de même, c’est-à-dire au rythme d’un logiciel qui compte peu de développeurs et peu mis en avant par kde à mon goût. La bêta 2 a permis par exemple l’utilisation de références internes, pour faire de liens vers d’autres « baskets » (ce sont les entrées de l’arbre hiérarchique, chaque basket peut ensuite contenir autant de texte, image, son, lanceur, etc. que l’on désire). Je m’en sers pour mes prises de note bibliographique et il remplit pas trop mal le besoin !

    Effectivement il n’existe pas de tags, et pour la prise de note le classement hiérarchique montre très vite ses limites. L’autre fonctionnalité demandée est la possibilité de faire des recherches globales car, à l’heure actuelle, seul le filtre, dans un seul basket, est possible.

    Il y a une petite astuce pour avoir des tags, que j’ai découverte il y a peu avec la bêta2. Il faut créer un basket qui regroupera des liens vers les autres basket grâce à aux références internes. Chaque lien doit se trouver dans une note séparée qui aura au choix une liste de tags écrits directement dedans ou des marques ; la première solution est à privilégier si vous voulez avoir pour chaque référence un retour visuel des tags, la seconde si vous voulez au contraire les cacher. Ensuite il suffit de filtrer : uniquement les notes avec le tag sélectionné s’afficheront et il n’y a plus qu’à cliquer dessus pour qu’elle ouvre le basket correspondant. C’est un peu lourd, par conséquent on ne peut pas vraiment utiliser les tags de façon atomique : je ne me permets de tagguer que certaines catégories de basket, pour ceux qui ont suffisamment de contenu. Mais ensuite il y a toujours la possibilité, à l’intérieur d’un basket, de filtrer les notes.

    Si on fait une recherche google on remarque qu’il a été question de l’intégration de Nepomuk en septembre. Je ne sais pas où ça en est, mais si ça aboutit ça permettra plein de possibilités sympathiques dont une vraie gestion des tags et une recherche globale et indexée, ce depuis le bureau kde. C’est ma commande à papa Noël, mais il n’est malheureusement pas programmeur.

    L’autre axe de développement semble être une version web, en tout cas j’ai vu passé un article dans mes flux rss, pour un accès distant. Avec, je l’espère, une compatibilité avec le client lourd, ce serait le top !
  • [^] # Re: plus tout ce que je n'ai pas vu...

    Posté par  . En réponse au message Un gestionnaire de téléchargement en shell. Évalué à 2.

    Je veux récupérer l’avant dernière ligne. Peut-être y’a-t-il moyen de le faire avec awk seul ? Je connais assez mal son langage, du coup je fais usage immodéré des sed, tail et head entubés. Pourquoi ce serait mal ?

    À vrai dire je me suis contenté d’avoir un script fonctionnel, toutefois j’utilise dash, ce qui devrait déjà le rendre relativement portable, c’est sûr qu’il y aura toujours les gnu-keries dans awk&co que j’ai tendance à utiliser sans faire attention.
  • [^] # Re: plus tout ce que je n'ai pas vu...

    Posté par  . En réponse au message Un gestionnaire de téléchargement en shell. Évalué à 1.

    Je prends note pour la version raccourcie des conditions simples, je n’y pense pas en shell.

    Pour le '*' non developpé c’est exactement le but ! Lorsqu’il n’existe aucun fichier dans ~/.dm/*.tmp, ma boucle « for tmp in $dir/*.tmp » fait une itération dans laquelle $tmp prend la valeur $dir/'*'.tmp ('*' est là pour signaler que le * n’est pas développé) je teste donc la valeur de cette variable, et arrête le « serveur » dans ce cas précis.

    Pour le « echo $(basename… », oups! Effectivement ça peut se simplifier, disons pour ma défense qu’un script shell ça bouge pas mal et que j’ai sûrement été amené à simplifier cette ligne en oubliant le echo superflu.

    « plus tout ce que je n'ai pas vu... »

    Mais non, mais non… 0:)

    Ceci dit, merci, le but inavoué était aussi de me faire reprendre un peu le code pour voir ce qui était améliorable. :)