Sommaire
Bonjour,
Je souhaitais écrire un document sur les sémaphores ici. J’ai même commencé une implémentation de FIFO. Mais le temps me manque pour le finaliser. Néanmoins, cette semaine j’ai réagi au fait que je trouve dommage qu’un démon ne rende pas la main, seulement une fois que l'ensemble des processus résidents sont prêts à répondre. On m’a dit que : « Tu forkes pas une fois ton programme en train de fonctionner, mais avant. » là Cette affirmation, est juste dans une certaine mesure, mais rien ne justifie, à mes yeux, qu’on ne fasse pas meilleure synchronisation. UNIX, dispose d’un nombre impressionnant de moyens de communiquer entre des processus qu’ils soient afiliés ou non (Mémoire partagée, tube, tube nommé, sémaphore, file de messages…). J’ai choisi de poursuivre mon exemple ici, de lui ajouter des démons, et une synchronisation par sémaphore. Je vais essayer d'être didactique.
Sémaphore
Les sémaphores sont une manière de gérer une ressource limitée. On pourrait imaginer un moyen de communication, de 100 ko/s divisé en 10 tranches de 10 ko. Pour communiquer, un processus demande une partie de la ressource, si disponible, alors la fonction P rend la main et le processus peut utiliser la ressource demandée. Lorsqu’il a fini, il doit rendre la ressource avec la fonction V pour qu’un autre puisse l’utiliser. En fonction de ces besoins, il peut demander 1, 2, 3… 10 tranches. Pour assurer la cohérence de l’ensemble, les opération P et V sont atomiques
Les sémaphores sont souvent utilisés avec une quantité de ressource à 1, de façon à créer des mutex (verrou d’exclusion mutuelle).
Dépôt git
J’ai fait un petit dépôt git, que j’ai compressé un tgz. Il se trouve ici. Il y a 3 tags : sans_ipc
, synchro_1
et final
.
sans_ipc
contient le source de base écrit dans le journal précédent.synchro_1
est la transformation avec des sémaphores.final
est la version finale sans bug.
Il y a une version entre sans_ipc
et synchro_1
, qui est la modification du squelette de programme.
Architecture du logiciel
Le programme est démarré depuis un shell, celui-ci démarre le fils
, le fils
change de session id et démarre le démon1, le démon2 et les démonsN. Chaque démon s’initialise pendant un temps certain, implémenté avec un magnifique sleep
. Ensuite, chacun appelle la fonction synchro
. Le rôle de cette dernière est de prévenir le fils
que le démon est prêt.
Nous avons vu qu’un sémaphore compte des ressources. Quelles sont nos ressources et combien en avons nous ?
Nos ressources sont un droit de s’initialiser. Chaque démon en a une au départ. Lorsque son initialisation est finie, il rend la ressource. Puis attend une synchronisation. Cette dernière provient d’une particularité des sémaphores sysV, qui n’ont pas 2 mais 3 opérations possibles. La première est de prendre des ressources, opération strictement négative sur le stock. La deuxième est de rendre des ressources, opération strictement positive. La troisième concerne la valeur nulle de l’opération. Dans ce cas, on attend que la ressource (la valeur du sémaphore) soit à 0.
Pour résumer, le démon lors de la synchronisation va rendre sa ressource (son droit à s’initialiser) en effectuant une opération positive. Puis, il va attendre que le nombre de ressources repasse a 0.
Le fils
, qui a démarré les processus, essaye de reprendre toutes les ressources d’initialisation. Comme il essaye de tout reprendre, il n’y arrivera que lorsque tous les démons auront rendu la leur. À ce moment, la ressource passera à 0 et tous les démons pourront quitter la synchro
.
Le fils
détruira le sémaphore et sortira proprement, ne rendant la main que lorsque tout est fini.
Cette implémentation est visible avec le label synchro_1
.
shell --|
V
père
|
|------|
wait V
: fils
: |
: init
: sémaphore
: |-------……--|-----|
: P(-nb_res) V V
: : Init Init
: : | |
: : | V(+1)
: : V(+1) S(=0)
: : S(=0) : (dernier)
: | | |
: rm_sem … … (travail de démon)
|<-----
shell <--
Cette implémentation, si elle semble bonne sur le papier, a néanmoins un problème. Peut-être le verrez-vous à l’exécution, mais peut-être pas. En fonction du nombre de cœur du CPU, des options du noyau… ce n’est pas forcément visible. Je ne m’attendais à l’observer, pourtant je l’ai vu en faisant mes tests.
Le fils
, reprend la main, dès que le dernier V(+1) est fait. Si, pour n’importe quelle raison, le S(=0) n’est pas immédiat (reschedule), l’effacement du sémaphore se fera avant et le S(=0) retournera une erreur car le sémaphore n’existe plus.
Pour résoudre ce problème, j’ai utilisé deux autres particularités des sémaphores sysV. La première, c’est que nous disposons non pas d’un sémaphore, mais d’un ensemble de sémaphores. Si lors de la création, j’ai demandé un ensemble de 1 élément, nous allons utiliser un ensemble de 2 éléments. La deuxième particularité, c’est qu’on peut réaliser plusieurs opérations sur un même ensemble de manière atomique.
En ajoutant un 2° élément à l’ensemble, on ajoute donc une ressource qui sera : « Je suis synchronisé ». Donc la synchronisation se fera de la sorte :
V<0>(+1) (Comme avant, pour rendre la ressource d’init)
S<0>(=0),V<1>(+1) (Ces deux opérations sont atomiques)
Le fils
quant à lui, va refaire une opération P<1>(-nb)
. Cette opération ne sera effective que lorsque tous les démons auront quitté la fonction synchro
.
On aurait pu simplifier et ne pas avoir de synchronisation de démarrage. C’est-à-dire, que chaque processus, une fois prêt font le V(+1) et commence son travail immédiatement.
# ouah..
Posté par nomorsad . Évalué à 9.
Dès le matin, ça pique un peu les yeux! je le relirai tout à l'heure pour voir si je fini par comprendre quelque chose à ce journal…
# Pourquoi ?
Posté par gnumdk (site web personnel) . Évalué à 7.
Ok, des sémaphores, on faisait ça en IUT mais:
tu crois vraiment que les devs de services utilisant des sockets ne savent pas que cela existe ? Ou alors ils s'en foutent parce que tu essayes de résoudre un non problème.
[^] # Re: Pourquoi ?
Posté par Badeu . Évalué à 3.
C'est tellement 90 les sémaphores :D
[^] # Re: Pourquoi ?
Posté par ckyl . Évalué à 8.
Oui depuis les gens ne savent plus coder ni les concepts fondamentaux de l'informatique ;)
[^] # Re: Pourquoi ?
Posté par Badeu . Évalué à 3.
Cela dit tu as tout à fait raison :-/
Je faisais une petite boutade sur ça par rapport aux supers algos non-bloquants qu'on peut croiser aujourd'hui, mais pour la plupart des gens, ça se résume à "Cette implémentation de XXXX est thread-safe, tu peux y aller Bobby, la gestion des ressources c'est pour les vieux cons"
ps : on accorde "super[s]" ?!
[^] # Re: Pourquoi ?
Posté par Kerro . Évalué à 3.
Ben oui, c'est un adjectif.
Mais pas de bol, il y a des exceptions pour l'accord des adjectifs. Sinon c'est pas marrant.
Et super fait partie des exceptions : c'est un adjectif invariable.
Quels sont ces super
sserpents qui sifflent sur votre superetête ?[^] # Re: Pourquoi ?
Posté par benoar . Évalué à 1.
Cette constatation me paraît tout à fait juste. J'ai l'impression qu'entre la vitesse de découverte de nouvelles techniques et celle sa mise en œuvre, ainsi que l'apprentissage, par les générations d'informaticiens « dans la vraie vie », c'est un gouffre qui se creuse de plus en plus. Une sorte d'accumulation des « nouveautés » qui fait que ça « bouche » le cerveau de ceux qui apprennent sans être à la pointe (tout le monde ne peut pas aller voir tout le temps les dernières technos sorties) qui fait que les techniques modernes mettent de plus en plus de temps à arriver chez les développeurs lambda.
[^] # Re: Pourquoi ?
Posté par Anthony Jaguenaud . Évalué à 1.
Très bien, puisque tu maîtrises le sujet, ce journal ne t’est pas destiné.
[^] # Re: Pourquoi ?
Posté par Maclag . Évalué à 2.
Tu crois vraiment que tous les lecteurs de Linuxfr sont passés par un IUT info? ou même des études d'info, quel que soit le niveau ou la portée?
[^] # Re: Pourquoi ?
Posté par ckyl . Évalué à 2.
Non. Par contre soit tu écris toujours du code séquentiel, soit t'as intérêt à connaître les bases de chez base du sujet. On est en 2012, les machines parallèles et les systèmes asynchrones sont partout. Ces concepts doivent être maîtrisé par n'importe quel programmeur et non plus seulement système.
Donc dans un sens il a raison. Si tu découvres ca par hasard dans un journal soit tu fais parti d'un public non technique qui n'aura jamais à s'en servir, soit ça fait des années que tu fais n'importe quoi et que tu n'as lu aucune bouquin ou aucune documentation traitant du sujet sur lequel tu travailles. Et si c'est pour éduquer la masse il existe moultes excellent bouquin/articles sur le sujet selon le domaine.
[^] # Re: Pourquoi ?
Posté par Anthony Jaguenaud . Évalué à 1.
Si j’ai bien compris ton propos, tu parles de programmation événementielle. La plupart des frameworks faisant de l’événementiel que je connais, genre win32, Qt, le web, sont par défaut mono-thread. Donc, oui, c’est événementiel, mais il n’y a pas de concurrence d’accès. C’est possible en Qt, mais il faut que la boucle d’événement soit dans le thread principale. Pour la communication inter-thread, Qt facilite les choses via les signaux, ce qui évite de se poser des questions. Sachant que même sans protection, de nombreux algorithme marche la plupart du temps, je ne ferais pas le même constat que toi.
[^] # Re: Pourquoi ?
Posté par ckyl . Évalué à 3.
Même un développeur web a besoin de comprendre le principe d'asynchronisme quand il va écrire ses tests Selenium où il va lancer une ou des actions dont il va devoir attendre la fin avant de valider. Comme il n'y a pas de primitives de synchronisation efficaces possibles, tu voudrais une barrière, entre les deux parties il va se l'implémenter à la main avec un busy wait (cf. FluentWait). Si le mec n'a pas compris ca, il va faire de la merde avec des suites de tests totalement instables et non déterministes. Ce n'est qu'un exemple parmi des tas.
Mais en même temps la programmation ca ne s'arrête pas à pisser du code frontend dans un framework. Autrement tu en arrives au syndrome du "codeur PHP". Et dès que tu sors de ce cadre tu as forcément des choix à faire en terme de design qui t'imposent de comprendre et la base de la base théorique et des technos avec lesquels tu travailles. Autrement tu passes ton temps a faire des trucs qui tombent en marche. Donc oui pour moi ce sont des concepts fondamentaux à notre époque.
# Manque de contexte
Posté par reno . Évalué à 7.
Ton post est difficile a lire car tu n'explique pas bien le contexte.
La question est: un script de démarrage lançant des démons doit-il rendre la main immédiatement(1) ou bien rendre la main quand tous les démons sont prêts à fonctionner(2) (par exemple en synchronisant les démons avec un sémaphore comme tu le fais)?
Les deux systèmes ayant leurs avantages et inconvénients, je doute qu'il y ait une réponse qui convienne a tout le monde (1 est plus rapide, 2 est plus 'prévisible' mais pas toujours simple a implémenter).
[^] # Re: Manque de contexte
Posté par Anthony Jaguenaud . Évalué à 5.
Tu as raison. Je n’ai pas bien expliqué pourquoi je fais ce post.
Ça fait quelques temps que je voulais écrire un petit journal sur les sémaphores, pour plusieurs raisons. 90% si ce n’est plus de l’usage d’un sémaphore se fait via des mutex, qui ne sont qu’un cas particulier. J’ai l’impression que certains confondent sémaphore et mutex. Donc je voulais faire un post dessus.
Il y a un mois à peu près, quelqu’un a proposé une implémentation de fifo. Ça m’a donné l’idée de faire un journal en utilisant les ipc standard en utilisant un sémaphore comme compteur de place disponible. Mais le temps m’a manqué. Suite à la discussion sur le démarrage des démons, je me suis dis, que c’était un bon exemple de sémaphore non mutex.
Mon journal est peut-être un peu rapide, mais le code est disponible, et est, je crois un bon exemple assez compréhensible. Je ne voulais pas poster tout le code sur le journal car ça l’aurait rendu long et indigeste.
J’ai peut-être eu tort.
# Mauvais lien vers le code
Posté par jacobus77 . Évalué à 1.
[^] # Re: Mauvais lien vers le code
Posté par BAud (site web personnel) . Évalué à 2.
corrigé, il manquait le http:// devant.
[^] # Re: Mauvais lien vers le code
Posté par Anthony Jaguenaud . Évalué à 3.
Oups, j’ai fait ça vite. J’ai copier/coller la barre d’adresse de firefox. Mais je n’ai pas revérifié sur le journal.
Merci pour la correction.
# Hum
Posté par lolop (site web personnel) . Évalué à 3.
A mon avis, si c'est pour expliquer ce qu'est un sémaphore, l'exemple est trop lourd.
S'il y a une quantité de ressources à allouer qui peut varier, alors ce n'est plus un sémaphore, c'est une variable de condition (ou encore un couple mutex/sémaphore[1])
Si on a besoin d'un mutex, on utilise un mutex, pas un sémaphore. Un mutex assure l'acquisition/libération par le même processus d'une ressource unique.
Un sémaphore au contraire cible des fonctionnements producteur / consommateur, où des processus génèrent des "jetons" et d'autres les consomment, le sémaphores permettant de compter les jetons et de mettre certains processus en attente de disponibilité.
[1] implémentable avec sémaphore public / sémaphore privé - faudrais que je remette la main sur mon cours système du CNAM.
Votez les 30 juin et 7 juillet, en connaissance de cause. http://www.pointal.net/VotesDeputesRN
[^] # Re: Hum
Posté par Anthony Jaguenaud . Évalué à 2.
Pourquoi ? Les opérations sur les sémaphores ne sont pas uniquement des +1, -1. Donc, pour une quantité de ressource je trouve ça adapté. Après, s’il s’agit d’allocation de slot… oui, ce n’est pas adapté.
Mon propos est justement, qu’un mutex est un sémaphore, mais un sémaphore avec une seule ressource et donc un sous ensemble des possibilité d’usage d’un sémaphore. Le mutex est un peu comme un bâton de parole. Je le prends, je peux lire ou/et écrire une variable (ou un ensemble de variable), puis je le rend.
Pas forcément dans un seul processus. On peut utiliser un mutex pour protéger une mémoire partagée entre deux processus.
On produit quoi et on consomme quoi ? Dans le cas de mon exemple, on produit une ressource qui est : « Je suis initialisé », et le chef d’orchestre, consomme ces ressources, pour être sûr que tout le monde à bien fini. Je ne vois pas en quoi ça ne respecte pas le principe ? Sauf, l’usage de l’opération de synchro qui est possible grâce aux sémaphores sysV.
[^] # Re: Hum
Posté par neologix . Évalué à 3.
Attention, sémaphore binaire et mutex ne sont pas exactement identiques, du moins sous POSIX.
Un mutex ne peut être déverrouillé que par le thread qui l'a verrouillé, alors que n'importe quel process/thread peut faire un up sur une sémaphore. Ca permet par exemple d'implémenter simplement un rendez-vous point.
Les locks Python sont des sémaphores binaires, pas des mutex.
[^] # Re: Hum
Posté par lolop (site web personnel) . Évalué à 2.
C'est le cas aussi sous Windows avec l'API Win32:
(source)
Votez les 30 juin et 7 juillet, en connaissance de cause. http://www.pointal.net/VotesDeputesRN
[^] # Re: Hum
Posté par lolop (site web personnel) . Évalué à 3.
Sémantiquement et dans les API, un mutex n'est pas un sémaphore. Même si au niveau de l'implémentation il y a du code commun pour gérer les processus en attente.
Tout à fait. Quand je dis le même processus, c'est dans le sens que c'est le processus qui a alloué qui doit faire la libération, ce n'est pas une obligation avec un sémaphore.
Un rajout là dessus, un (ou plusieurs) sémaphore peut aussi être utilisé conjointement à un mutex dans le cadre de synchronisations complexes, où on l'utilise pour gérer un nombre de processus en attente d'un état particulier.
Votez les 30 juin et 7 juillet, en connaissance de cause. http://www.pointal.net/VotesDeputesRN
[^] # Re: Hum
Posté par Anthony Jaguenaud . Évalué à 1.
Les sémaphores sysV, rendent justement ce service. Il suffit de déclarer un seul ensemble de sémaphores, et on peut faire diverses opérations conjointes. L’avantage par rapport à une implémentation avec mutex, c’est de limité les cas d’inter blocage. Si on prend le cas des philosophes, en un seul appel à semop, je peux prendre les deux fourchettes, ou attendre que les deux soient disponibles. Là où, avec un mutex, il faut prendre le mutex, essayer de prendre les deux fourchettes :
Ensuite on rend le mutex. Si on est pas dans le cas 1, il faut réessayer de reprendre les fourchettes. Ce qui complique l’algorithme, mais et plus formateur pour un TP ;-).
Réf : Dîner des philosophes.
[^] # Re: Hum
Posté par lolop (site web personnel) . Évalué à 2.
Je ne connaissais pas cette possibilité. Qu'est-ce qu'il y a comme prévention d'interblocage, une simple acquisition des sémaphores toujours dans le même ordre ou bien un algo de détection vis à vis d'autres ressources ?
J'avais fait un texte sur les synchros complexes (de ce que j'avais compris du cours de C.Kaiser)… faudrait que je remettes la main dessus.
Votez les 30 juin et 7 juillet, en connaissance de cause. http://www.pointal.net/VotesDeputesRN
[^] # Re: Hum
Posté par Anthony Jaguenaud . Évalué à 1.
Je ne sais pas comment c’est implémenté. Mais la lib, défini un comportement et garanti un certain nombre de choses.
Ici on prend les fourchettes 0 et 1. semop garanti que ces deux opérations seront faites de manière atomique. Mais, il ne réserve pas. Si la fourchette 1 est prise mais pas la 0, il ne prend rien. Aucun risque d’interblocage ici. J’imagine qu’en interne il doit y avoir une file d’attente des opérations non résolu, et que à chaque libération, il vérifie si une opération est devenue possible, dans ce cas il la fait, et repasse le processus à READY.
# barrière
Posté par neologix . Évalué à 4.
Ce que tu implémentes ici, c'est ce qu'on appelle une barrière.
C'est disponible pour les threads POSIX avec pthread_barrier_init()/pthread_barrier_wait(), mais pas pour les IPC.
Sous Python, le module multiprocessing supporte les barrières inter-process, par exemple.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.