De tout manière, avec ton raisonnement, actuellement, ton prog
préféré à toi 200% GPL, il fonctionne:
- avec du hard propriétaire (tu as les spécifs complètes de ton
disque dur, de ta mémoire, de ton alimentation...);
- avec un bios propriétaire;
- éventuellement sur un système propriétaire.
On empile les couches opaques les unes sur les autres.
Si essayer d'en éclairsir et d'en libérer une est valable (le code
de ton prog GPL), je ne vois pas pourquoi essayer d'en libérer une
autre est idiot.
J'avais discé avec un gus qui avait déposé un brevet sur un
algo de compression.
Son point de vue était que s'il ne brevetait pas son algo, quelqu'un
le modifierait un poil et le breveterait. Il ne comptait pas utiliser
son brevet mais il voulait empêcher quelqu'un de le faire.
La thèse Church de énonce que tout ce qui est « calculable » est
calculable par un SAP (système acceptable de programmation).
Les machines de Turing forment un SAP, le programmes C aussi et
plus généralement tout langage de programmation est un SAP.
Donc, on peut tout faire avec tout.
La meilleur façon de s'en rendre compte est qu'on peut écrire un
interprète LISP est C. Donc tout programme LISP peut se coder
en C (le code de l'interprète + le code LISP dans un tableau).
L'inverse est vrai aussi.
Maintenant, il faut se demander la facilité qu'on peut avoir a faire
certaines choses. Et là, ben c'est plus si clair.
Je n'aime pas le LISP mais pour ce qui est du paradigme fonctionnel,
OCAML est très bon des qu'il faut manipuler des structures de
données un peu évoluées. La récursion plus le filtrage, c'est
vraiment très puissant.
Excuse moi mais le grid computing, c'est juste des gens qui
n'arrivent plus à vendre leur parallélisme (après 10 ans sans
résultats, ça devient plus dur) et qui expliquent qu'ils vont
faire un truc totalement ré-vo-lu-tion-naire: le grid computing.
À part des problèmes déjà parallélisé (SETI) et des trucs très
particulier (calcul matriciel), on ne SAIT pas paralléliser à AUCUNE
échelle.
Sauf que le grid computing, c'est nouveau, c'est chaud, ça
utilise des crédits et des biologistes ou des gens du CERN qui
ont besoin de beaucoup de puissance possent derrière car ils se
disent que comme ça, ils pourront faire plein de truc. Et donc les
décideurs pressésn'y voient que du feu et donne le fric.
un principe de base sous unix (et linux) est que les fichiers
ont des permissions.
Voici la base des permissions (il y a des subtilités)
Il y a trois groupe de permission:
- celles du propriétaire du fichier;
- celles du groupe du fichier;
- celles des autres.
Le groupe sert à pouvoir céder des droits aux autres sans les
donner à tout le monde.
Il y a trois permission par groupe:
- lecture;
- écriture;
- execution.
Comme son nom l'indique, pour lire le contenu d'un fichier,
il faut pouvoir le lire, pour pouvoir écrire dans un fichier,
il faut pouvoir l'écrire et pour pouvoir l'executer...
Note au passage que le caractère executable d'un fichier
correspond juste à la présence du droit d'execution et pas
à une extention .exe ou autre.
La ou les choses se corsent, c'est pour les répertoires.
Pour pouvoir voir le contenu d'un répertoire, il faut de droit de
lecture
Pour pouvoir créer ou effacer un fichier, il faut le droit d'écriture.
Ainsi, on peut se retrouver à pouvoir écrire dans un fichier (on
a le droit sur le fichier) mais pas pouvoir l'effacer (on a pas le
droit sur le répertoire).
Pour pouvoir « entrer » dans un répertoire, il faut de droit
d'execution.
Donc, si tu veux interdire à un utilisateur l'accès à une partition,
tu retires les droits d'execution sur le répertoire correspondant.
Attention, pour que certains programmes fonctionnent, il faut
des droits sur /usr /bin /tmp ou /var.
J'imagine qu'avec ça, tu dois pouvoir faire ce que tu cherches.
Après, il y a des façons beaucoup plus bourrines pour faire ce
que tu veux mais ce n'est pas l'objet ici.
J'avais compris que BitMachin était un SCM distribué, que Linus
l'avais choisi pour ça et que d'autres systèmes étaient caca
parce qu'ils étaient centralisés.
Et là, tu me dis qu'il suffit qu'une seule machine contrôlée par
BitDidule ferme et pouf, on ne peut plus faire un seul commit?
Merde, ils ont changé la définition du mot distribué sans me
prévenir.
Plus sérieusement, y a-t-il quelqu'un pour m'expliquer comment
fonctionne ce truc?
Qu'est-ce qui force à ce qu'ils trouvent un remplaçant à BT si vite.
D'accord, BT change de licence et ne sera plus libre mais la
version actuelle est encore utilisable. Non?
Et si changer de système n'est pas si urgent, qu'est-ce qui empèche
Linus et ses acolytes de s'intéresser à un système existant pour
l'améliorer?
De (très) loin, ça me semble plus une réaction épidermique de
quelqu'un pris en flagrant déli de s'être planté (merde, ce connard
de RMS a eu raison) et qui veut changer le plus vite possible pour
montrer que ce qu'a dit RMS n'était pas si grave (BT, c'est bien
mais regardez, en 10 minutes, je m'en passe).
Se dire qu'on écrit un petit hack super spécifique et que les autres
vont améliorer, c'est:
1. mépriser les autres qui devront faire un gros boulot pour au final
devoir presque tout réécrire;
2. mépriser ceux qui travaillent depuis longtemps (à 2) sur des
systèmes génériques qui voient 100 mecs se ruer sur 100 lignes
de code du dieu Linus (ça me ferait mal ça);
Au fait, je ne sais pas si les PDP10 sotn supporté par debian,
c'était juste une tentative d'exemple d'une archi vieille. Alors pour
enfoncer encore plus le clou, passons au support debian de l'ENIAC.
Je ne suis pas d'accord.
Pas mal de problèmes sont dus au fait qu'XFree 4 ne
compile pas sur ENIAC.
Et non, ça ne déplace pas le problème.
Les gens n'arrivent pas à compiler sur certaines architecture
tellement c'est lent.
xorg aura beau être optimisé à mort, il n'en demeure pas moins
qu'une application utilisant les extensions DAMAGE and co sera
horriblement lente sur un ENIAC.
Sur une architecture qui n'a pas de carte son, on ne cherche pas
à porter audacity. Pour un certain nombre de choses, c'est pareil.
Une application qui nécessite 10000Tflop de puissance pour
fonctionner, on peut essayer de la porter sur un 8086 mais ça ne
sert à rien.
Je comprend la démarche debian et je la respecte.
Mais je ne suis pas sûr qu'il soit bon de vouloir qu'un
paquet qui fonctionne sur une architecture X fonctionne
sur les 11.
L'exemple de xfree est flagrant.
Pourquoi passer à xfree 4.0 ?
Réponse, parce que certaines cartes n'étaient pas bien gérée
par xfree 3.
C'est la même chose avec xorg.
Mais bon, a-t-on vraiment besoin du support de la toute dernière
Gforce 1234124+ sur un PDP10?
xorg est-il vraiment nécessaire sur ce genre d'archi?
Je ne pense pas.
Ceci dit, le travail de portage total permet de mettre à jour de
nombreux bug et c'est bien.
J'ai lu quelque part un petit commentaire qui me semble pas
forcément idiot:
Ian Murdoch n'a pas peur pour debian, il a peur pour sa boite
(progeny) qui doit vraissemblablement souffrir du succès
d'ubuntu mais comme ça ne se fait pas de le dire...
À la base, OCAML est compilé vers une machine virtuelle.
Ceci dit, je n'ai jamais essayé de faire tourner un prog compilé
sur un i386 sur autre chose mais j'imagine que ça doit marcher
sans problèmes.
Maintenant, il existe des compilateurs spécifiques pour obtenir
un code natif pour quelques architectures.
Ce que je veux dire, c'est que si tu connais à fond 1 langage
impératif (par exemple le C), tu peux rapidement être opérationnel
sur n'importe quel langage impératif.
La situation est semblable avec les autres paradigmes de
programmation.
De ce point de vue, je pense qu'il est bien de montrer à des étudiants
qu'il existe des langages fonctionnels, logiques, à poil raz.
Messieurs Turing et Church étant passé par là, on peut tout faire en
COBOL. Ceci dit, il peut être intelligent de ne pas TOUT faire en COBOL
(même si on adore COBOL et qu'on le connait par coeur).
Par exemple, un langage fonctionnel comme OCAML est très pratique
pour écrire un interpréteur ou un compilo.
C'est drole, en maîtrise, j'ai eu un projet compil à faire.
Pas le choix, c'était OCAML imposé. Il y a eu un tolé général:« c'est
quoi ce langage que personne ne connait! Nous, on veut être
crédible au près des boites, on veut du C++, du JAVA... »
La prof a tenu bon. Trois mois plus tard, quasiment toute le module
trouvait qu'OCAML roxositationnait des maman ou et même des papa
ours, ta mère en short.
OCAML est vraiment un bon langage. Son principal problème est
fonctionnel et que les informaticiens sont plus habitué au paradigme
impératif. Ceci dit, c'est justement très bien qu'on impose ce genre
de langage dans les cursus universitaires. C'est beaucoup plus
important pour former un gars polyvalent que de lui apprendre
C, C++, Java, Basic, Pascal, Cobol...
Le point sur les interfaces graphique est peut-être ridicule mais
je n'ai aucune idée du fonctionnement de l'ordonnanceur de windows.
Peux-tu nous donner des infos la dessus?
Vous pensez vraiment qu'un jour, on aura un vraie version d'IE en
- anglais;
- français;
- catalan;
- mandarin;
- japonais;
- ouzbèque;
- congolais;
- esperanto;
- martien?
Je ne pense pas.
Microsoft (et aucune autre boite privée) ne peut à elle seule traduire un
logiciel en 50 langues. Alors bien sûr, les maliens ne sont peut-être pas
la priorité de microsoft mais pour tous les gens dans ce cas, firefox a
plus que ses chances.
Moi, je connais sa recette:
- savoir de quoi on parle;
- argumenter;
- écrire proprement et rester respectueux même des ¹~#{'&é qui répondent: le hurd, si c'était bien, ça s'sorait!
Ceci dit, si tout le monde faisait ça, le trafic sur linuxfr serait divisé par beaucoup.
> or le sommeil profond ne doit certainement pas s'atteindre instantannément...
Raconte ça à mon médecin du sommeil.
Suite à mes problèmes de sommeil, je me suis enfin décidé à aller voir un
spécialiste du sommeil. J'ai fait un enregistrement polysomnique du sommeil.
Ça consiste à te poser des électrodes un peu partout. On te demande de
faire 4 siestes de 20 minutes espacées de 2 heures: par exemple, sièste à
12/14/16/18, puis une nuit complète.
Je suis tombé systématiquement en sommeil de niveau 4 (paradoxal) en moins
de 10 minutes alors que je n'étais pas en manque de sommeil -- j'avais eu du
mal à m'endormir.
Quand je suis crevé, je n'en ai pas la preuve car je n'ai pas eu d'enregistrement
durant ces périodes là, je pense tomber en sommeil paradoxal en une ou deux
minutes.
Je ne prenais aucune drogue.
Avant de commencer, j'avais tendance à vivre de façon décallé.
J'étais dans une école et pas mal d'élèves veillaient tard.
En gros, je me couchais vers 5-6 heures du matin et je me levais
vers 12-13 heures.
J'ai commencé par pousser mes veilles jusqu'à 9 heures.
À 9 heures, gros coup de barre et personne pour discuter (les
fêtard dorment, les autres sont en cours) donc dodo.
Au début, je mettais le réveil vers 12h. J'étais pas mal dans le
pâté mais ça bouge autour. Et puis, c'est l'heure du petit dej
(oups, du repas). Ça aide. Ensuite, boulot jusqu'à 22 heures
et à nouveau gros coup de barre. Mais là, il y a les fêtard pour
aider. Passage au foyer de l'école pour discuter en attendant
que le coup de barre passe. Après, c'est parti pour la nuit.
Après quelques jours, j'étais tellement dans mon optique boulot
qu'au bout de 30 minutes, je me réveillais spontanément. Alors
ben boulot quoi!
Au bout de trois semaines, mon corps m'a dit stop. Je suis
migraineux. Pas trop mais quand même. J'ai la chance de pouvoir
arêter les crises facilement avec de l'aspirine. Toujours est-il
qu'un matin, après ma « nuit » de 30 minutes, je m'installe devant
ma machine et au bout d'une minute, je sens une migraine qui
monte. Je bouffe mon aspirine, je fais un tour. Ça passe. Je retourne
à ma machine. Presque instantanément, je sens une nouvelle crise.
Comprenant que je n'arriverai pas à bosser, je retourne me coucher.
Réveil 24 heures plus tard.
J'ai fini comme j'ai pu mon boulot. Pendant un mois, j'ai été vraiment
pas bien. Maintenant encore (8 ans après), j'ai des troubles du
sommeil important pour lesquels je suis soigné alors qu'avant, je
n'avais aucun problèmes.
Il y a quelqs année, j'ai fait ce que je pense être une TRÈS grosse connerie.
J'avais beaucoup de boulot et pendant 3 semaines, je n'ai dormi que 30 minutes
par nuit.
C'est totalement faisable, j'étais très productif, je n'avais pas sommeil.
Sauf que ça m'a complètement détraqué le sommeil et qu'il m'a fallu plusieurs
années pour réccupérer.
Je déconseille fortement (tout du moins dans la version extrème que j'ai pratiqué).
Je ne sais pas mais il y a peut-être une raison subtile pour cela.
J'ai recemment compris une convention de C dans NetBSD.
Au lieu d'écrire
int foo(...)
{
}
ils écrivent
int
foo(...)
{
}
Étrange non, je trouvai que la première solution était plus lisible.
Sauf que si tu cherche à comprendre un bout de code et que tu tombes
sur une fonction schmurtsz, pour trouver où elle est définie, il suffit de
faire un bête:
grep ^schmutrz *.c
pour la trouver alors qu'autrement, on doit utiliser une expréssion régulière
beaucoup plus compliquée et qui fonctionnera moins bien.
En gros, les bureaux virtuels, c'est juste dire que le bureau,
c'est Z^2. On se focalise sur la région [n,n+1[*[m,m+1[ avec n et m entiers
(ou sur [x,x+1[*[y,y+1[ avec x et y réels).
Ce que j'aimerai, c'est d'une part, pouvoir prendre du recul en
se focalisant sur [n-k,n+k+1[*[m-k,m+k+1[. D'une certaine façon, c'est ce
qu'exposé fait (sauf qu'en plus, ils réplacent les fenêtres pour qu'elles ne se
recouvrent pas). En plus des bindings usuels pour se déplacer à gauche,
à droite, en haut et en bas, on aurait zoom avant et zoom arrière.
Un pager, c'est juste une petite fenêtre qui permet d'avoir la vue
[n-k,n+k+1[*[m-l,m+l+1[ dans un coin.
L'intéret est qu'on peut avoir plus de fenêtres visible d'un coup. Le problème
est qu'il devient difficile de travailler parceque les fenêtres 10 pixel*10 pixels,
c'est pas top.
Après, ce qui serait encore mieux, ce serait d'avoir des bindings pour
augmenter ou diminuer la courbure du plan. En gros, au départ, on est
en courbure nulle (i.e. sur le plan classique). Toutes les fenêtres sont en
taille réelles. Puis, on peut diminuer la courbure (passer sur un plan
hyperbolique). De cette façon les fenêtres au centre de l'écran grossissent
alors que celles qui sont plus au bord diminuent. Combiné avec le truc précédent,
on peut avoir à l'oeil un bureau [n-k,n+k+1[*[m-k,m+k+1[ tout en gardant
la fenêtre centrale grosse.
De cette façon, si on se déplace d'un écran à droite, la fenêtre centrale qui
était grosse se déplace à gauche en diminuant et celle qui était à droite et
qui était un peu petite se déplace au centre en grossissant.
On garde de cette façon le comportement classique des bureaux virtuels
en ajoutant des trucs. Si on veut garder son navigateur web en plein écran,
ben on fait k=0 et courbure=0.
Attention, je n'ai pas essayé looking glass ni aucun environnement 3D.
-------------------------------------------------------------------------------------
À mon avis, un problème des environnement 2D est la taille des fenêtres.
En gros, une fenêtre non iconifiée a une taille fixe grosse (il faut bien afficher
ne serait-ce que les menus). Résultats, on ne peut pas représenter plein de
fenêtre ouvertes simultanément sans qu'elles ne se recouvrent.
Dans la plupart des cas, on ne bosse pas simultanément avec 30 fenêtres.
On en utilise 2-3 au plus. Éventuellement, on fait du multitâche coopératif:
hop, je regarde ce qui se passe sur linuxfr,
hop, je lis mon mail,
hop, je tape mon rapport,
hop, 3 lignes de code,
hop.
Pour gérer ce multi-tâche coopératif, il existe plusieurs méthodes:
- les bureaux virtuels;
- exposé sous macOS X;
- les fenêtres iconifiées;
- les tabs.
La 3D permets aussi d'aborder ce genre de problèmes. Avec une perspective,
on peut avoir toutes les fenêtres ouvertes visibles. Celles qui sont les moins
intéressantes sont juste plus loin derrière. Le problème est qu'il faut pouvoir
se déplacer facilement dans cet environnement 3D.
Une autre méthode pour gérer le problème de la multiplicité des fenêtres
serait un bureau 2D hyperbolique. En gros, toutes les fenêtres restent sur
un même plan 2D. la fenêtre se concentre sur un point particulier du plan et
plus les fenêtres sont loin du focus, plus elles sont petites. De cette façon,
toutes les fenêtres restent visibles en permanence tout en gardant la facilité
de déplacement du monde en 2D. Le problème est que dans ce mode, la fenêtre
centrale ne peut utiliser qu'une partie relativement réduite du bureau ou alors
il faut pouvoir régler la courbure du bureau.
Bref, idée à la con que je n'implémenterai jamais mais voilà.
[^] # Re: Pas sûr que développer un tel matériel soit compatible avec du libre
Posté par fmaz fmaz . En réponse à la dépêche Le projet OpenGraphics abandonné par Tech Source. Évalué à 1.
T'es sur que quelqu'un n'a pas un brevet sur l'aliage ou sur le
plastique dont est fait la boite de ta machine.
Et puis Si ça se trouve, il y a un mouchard coulé dedans. On ne
sait jamais, il y en a déjà dans les alims...
[^] # Re: Pas sûr que développer un tel matériel soit compatible avec du libre
Posté par fmaz fmaz . En réponse à la dépêche Le projet OpenGraphics abandonné par Tech Source. Évalué à 4.
préféré à toi 200% GPL, il fonctionne:
- avec du hard propriétaire (tu as les spécifs complètes de ton
disque dur, de ta mémoire, de ton alimentation...);
- avec un bios propriétaire;
- éventuellement sur un système propriétaire.
On empile les couches opaques les unes sur les autres.
Si essayer d'en éclairsir et d'en libérer une est valable (le code
de ton prog GPL), je ne vois pas pourquoi essayer d'en libérer une
autre est idiot.
[^] # Re: le journal sur le sujet
Posté par fmaz fmaz . En réponse à la dépêche Microsoft et l'INRIA vont créer un laboratoire commun à Orsay (91). Évalué à 1.
algo de compression.
Son point de vue était que s'il ne brevetait pas son algo, quelqu'un
le modifierait un poil et le breveterait. Il ne comptait pas utiliser
son brevet mais il voulait empêcher quelqu'un de le faire.
# Church and SAP...
Posté par fmaz fmaz . En réponse au journal Lisp: pourquoi est-ce different ?. Évalué à 5.
La thèse Church de énonce que tout ce qui est « calculable » est
calculable par un SAP (système acceptable de programmation).
Les machines de Turing forment un SAP, le programmes C aussi et
plus généralement tout langage de programmation est un SAP.
Donc, on peut tout faire avec tout.
La meilleur façon de s'en rendre compte est qu'on peut écrire un
interprète LISP est C. Donc tout programme LISP peut se coder
en C (le code de l'interprète + le code LISP dans un tableau).
L'inverse est vrai aussi.
Maintenant, il faut se demander la facilité qu'on peut avoir a faire
certaines choses. Et là, ben c'est plus si clair.
Je n'aime pas le LISP mais pour ce qui est du paradigme fonctionnel,
OCAML est très bon des qu'il faut manipuler des structures de
données un peu évoluées. La récursion plus le filtrage, c'est
vraiment très puissant.
Frédéric
[^] # Re: Un projet d'avenir
Posté par fmaz fmaz . En réponse à la dépêche Projet SkoleLinux à la recherche de volontaires. Évalué à 1.
Excuse moi mais le grid computing, c'est juste des gens qui
n'arrivent plus à vendre leur parallélisme (après 10 ans sans
résultats, ça devient plus dur) et qui expliquent qu'ils vont
faire un truc totalement ré-vo-lu-tion-naire: le grid computing.
À part des problèmes déjà parallélisé (SETI) et des trucs très
particulier (calcul matriciel), on ne SAIT pas paralléliser à AUCUNE
échelle.
Sauf que le grid computing, c'est nouveau, c'est chaud, ça
utilise des crédits et des biologistes ou des gens du CERN qui
ont besoin de beaucoup de puissance possent derrière car ils se
disent que comme ça, ils pourront faire plein de truc. Et donc les
décideurs pressésn'y voient que du feu et donne le fric.
# outre la solution RTFM...
Posté par fmaz fmaz . En réponse au message la meme question plus "directe" ;-). Évalué à 3.
un principe de base sous unix (et linux) est que les fichiers
ont des permissions.
Voici la base des permissions (il y a des subtilités)
Il y a trois groupe de permission:
- celles du propriétaire du fichier;
- celles du groupe du fichier;
- celles des autres.
Le groupe sert à pouvoir céder des droits aux autres sans les
donner à tout le monde.
Il y a trois permission par groupe:
- lecture;
- écriture;
- execution.
Comme son nom l'indique, pour lire le contenu d'un fichier,
il faut pouvoir le lire, pour pouvoir écrire dans un fichier,
il faut pouvoir l'écrire et pour pouvoir l'executer...
Note au passage que le caractère executable d'un fichier
correspond juste à la présence du droit d'execution et pas
à une extention .exe ou autre.
La ou les choses se corsent, c'est pour les répertoires.
Pour pouvoir voir le contenu d'un répertoire, il faut de droit de
lecture
Pour pouvoir créer ou effacer un fichier, il faut le droit d'écriture.
Ainsi, on peut se retrouver à pouvoir écrire dans un fichier (on
a le droit sur le fichier) mais pas pouvoir l'effacer (on a pas le
droit sur le répertoire).
Pour pouvoir « entrer » dans un répertoire, il faut de droit
d'execution.
Donc, si tu veux interdire à un utilisateur l'accès à une partition,
tu retires les droits d'execution sur le répertoire correspondant.
Attention, pour que certains programmes fonctionnent, il faut
des droits sur /usr /bin /tmp ou /var.
J'imagine qu'avec ça, tu dois pouvoir faire ce que tu cherches.
Après, il y a des façons beaucoup plus bourrines pour faire ce
que tu veux mais ce n'est pas l'objet ici.
[^] # Re: L'info sur kerneltrap
Posté par fmaz fmaz . En réponse à la dépêche Linus développe un remplaçant original à BitKeeper. Évalué à 2.
Je ne comprens plus rien.
J'avais compris que BitMachin était un SCM distribué, que Linus
l'avais choisi pour ça et que d'autres systèmes étaient caca
parce qu'ils étaient centralisés.
Et là, tu me dis qu'il suffit qu'une seule machine contrôlée par
BitDidule ferme et pouf, on ne peut plus faire un seul commit?
Merde, ils ont changé la définition du mot distribué sans me
prévenir.
Plus sérieusement, y a-t-il quelqu'un pour m'expliquer comment
fonctionne ce truc?
[^] # Re: L'info sur kerneltrap
Posté par fmaz fmaz . En réponse à la dépêche Linus développe un remplaçant original à BitKeeper. Évalué à 4.
Qu'est-ce qui force à ce qu'ils trouvent un remplaçant à BT si vite.
D'accord, BT change de licence et ne sera plus libre mais la
version actuelle est encore utilisable. Non?
Et si changer de système n'est pas si urgent, qu'est-ce qui empèche
Linus et ses acolytes de s'intéresser à un système existant pour
l'améliorer?
De (très) loin, ça me semble plus une réaction épidermique de
quelqu'un pris en flagrant déli de s'être planté (merde, ce connard
de RMS a eu raison) et qui veut changer le plus vite possible pour
montrer que ce qu'a dit RMS n'était pas si grave (BT, c'est bien
mais regardez, en 10 minutes, je m'en passe).
Se dire qu'on écrit un petit hack super spécifique et que les autres
vont améliorer, c'est:
1. mépriser les autres qui devront faire un gros boulot pour au final
devoir presque tout réécrire;
2. mépriser ceux qui travaillent depuis longtemps (à 2) sur des
systèmes génériques qui voient 100 mecs se ruer sur 100 lignes
de code du dieu Linus (ça me ferait mal ça);
[^] # Re: Un bon coup de pieds dans le cul !
Posté par fmaz fmaz . En réponse à la dépêche Ubuntu, un cauchemar pour la Debian ?. Évalué à 10.
c'était juste une tentative d'exemple d'une archi vieille. Alors pour
enfoncer encore plus le clou, passons au support debian de l'ENIAC.
Je ne suis pas d'accord.
Pas mal de problèmes sont dus au fait qu'XFree 4 ne
compile pas sur ENIAC.
Et non, ça ne déplace pas le problème.
Les gens n'arrivent pas à compiler sur certaines architecture
tellement c'est lent.
xorg aura beau être optimisé à mort, il n'en demeure pas moins
qu'une application utilisant les extensions DAMAGE and co sera
horriblement lente sur un ENIAC.
Sur une architecture qui n'a pas de carte son, on ne cherche pas
à porter audacity. Pour un certain nombre de choses, c'est pareil.
Une application qui nécessite 10000Tflop de puissance pour
fonctionner, on peut essayer de la porter sur un 8086 mais ça ne
sert à rien.
[^] # Re: Un bon coup de pieds dans le cul !
Posté par fmaz fmaz . En réponse à la dépêche Ubuntu, un cauchemar pour la Debian ?. Évalué à 10.
Mais je ne suis pas sûr qu'il soit bon de vouloir qu'un
paquet qui fonctionne sur une architecture X fonctionne
sur les 11.
L'exemple de xfree est flagrant.
Pourquoi passer à xfree 4.0 ?
Réponse, parce que certaines cartes n'étaient pas bien gérée
par xfree 3.
C'est la même chose avec xorg.
Mais bon, a-t-on vraiment besoin du support de la toute dernière
Gforce 1234124+ sur un PDP10?
xorg est-il vraiment nécessaire sur ce genre d'archi?
Je ne pense pas.
Ceci dit, le travail de portage total permet de mettre à jour de
nombreux bug et c'est bien.
# Vous devez entrer un sujet et un commentaire
Posté par fmaz fmaz . En réponse au journal Le "succès" d'Ubuntu serait-il gènant pour ... Debian ?. Évalué à 10.
forcément idiot:
Ian Murdoch n'a pas peur pour debian, il a peur pour sa boite
(progeny) qui doit vraissemblablement souffrir du succès
d'ubuntu mais comme ça ne se fait pas de le dire...
Bref.
[^] # Re: Droits d'auteurs....
Posté par fmaz fmaz . En réponse au journal Siffler n'est pas jouer. Évalué à 0.
Parce que bon, la rue, c'est quand même un endroit public.
J'imagine bien un inspecteur de la SACEM interpeler quelqu'un
dans la rue parce qu'il sifflote le dernier titre de « qui vous voulez ».
Glou
[^] # Re: Lent ?
Posté par fmaz fmaz . En réponse à la dépêche Présentation d'OCaml à Rennes le jeudi 7 avril, 20h, MCE, 48 bd Magenta. Évalué à 1.
Ceci dit, je n'ai jamais essayé de faire tourner un prog compilé
sur un i386 sur autre chose mais j'imagine que ça doit marcher
sans problèmes.
Maintenant, il existe des compilateurs spécifiques pour obtenir
un code natif pour quelques architectures.
[^] # Re: Pérénité
Posté par fmaz fmaz . En réponse à la dépêche Présentation d'OCaml à Rennes le jeudi 7 avril, 20h, MCE, 48 bd Magenta. Évalué à 2.
impératif (par exemple le C), tu peux rapidement être opérationnel
sur n'importe quel langage impératif.
La situation est semblable avec les autres paradigmes de
programmation.
De ce point de vue, je pense qu'il est bien de montrer à des étudiants
qu'il existe des langages fonctionnels, logiques, à poil raz.
Messieurs Turing et Church étant passé par là, on peut tout faire en
COBOL. Ceci dit, il peut être intelligent de ne pas TOUT faire en COBOL
(même si on adore COBOL et qu'on le connait par coeur).
Par exemple, un langage fonctionnel comme OCAML est très pratique
pour écrire un interpréteur ou un compilo.
[^] # Re: Lent ?
Posté par fmaz fmaz . En réponse à la dépêche Présentation d'OCaml à Rennes le jeudi 7 avril, 20h, MCE, 48 bd Magenta. Évalué à 1.
Faut comparer ce qui est comparable.
[^] # Re: Pérénité
Posté par fmaz fmaz . En réponse à la dépêche Présentation d'OCaml à Rennes le jeudi 7 avril, 20h, MCE, 48 bd Magenta. Évalué à 3.
Pas le choix, c'était OCAML imposé. Il y a eu un tolé général:« c'est
quoi ce langage que personne ne connait! Nous, on veut être
crédible au près des boites, on veut du C++, du JAVA... »
La prof a tenu bon. Trois mois plus tard, quasiment toute le module
trouvait qu'OCAML roxositationnait des maman ou et même des papa
ours, ta mère en short.
OCAML est vraiment un bon langage. Son principal problème est
fonctionnel et que les informaticiens sont plus habitué au paradigme
impératif. Ceci dit, c'est justement très bien qu'on impose ce genre
de langage dans les cursus universitaires. C'est beaucoup plus
important pour former un gars polyvalent que de lui apprendre
C, C++, Java, Basic, Pascal, Cobol...
[^] # Re: Ah oui...
Posté par fmaz fmaz . En réponse au journal Migration Windows vers Linux, BSD. Évalué à 1.
je n'ai aucune idée du fonctionnement de l'ordonnanceur de windows.
Peux-tu nous donner des infos la dessus?
merci
# L'internationnalisation
Posté par fmaz fmaz . En réponse au journal Quelle avenir pour Firefox?. Évalué à 2.
- anglais;
- français;
- catalan;
- mandarin;
- japonais;
- ouzbèque;
- congolais;
- esperanto;
- martien?
Je ne pense pas.
Microsoft (et aucune autre boite privée) ne peut à elle seule traduire un
logiciel en 50 langues. Alors bien sûr, les maliens ne sont peut-être pas
la priorité de microsoft mais pour tous les gens dans ce cas, firefox a
plus que ses chances.
[^] # Re: combien, combien ??
Posté par fmaz fmaz . En réponse à la dépêche Hurd : nouvelle version de Debian GNU/Hurd et avancée du port sur L4. Évalué à 8.
- savoir de quoi on parle;
- argumenter;
- écrire proprement et rester respectueux même des ¹~#{'&é qui répondent: le hurd, si c'était bien, ça s'sorait!
Ceci dit, si tout le monde faisait ça, le trafic sur linuxfr serait divisé par beaucoup.
[^] # Re: Ouet....
Posté par fmaz fmaz . En réponse au journal Sommeil polyphasique. Évalué à 4.
Raconte ça à mon médecin du sommeil.
Suite à mes problèmes de sommeil, je me suis enfin décidé à aller voir un
spécialiste du sommeil. J'ai fait un enregistrement polysomnique du sommeil.
Ça consiste à te poser des électrodes un peu partout. On te demande de
faire 4 siestes de 20 minutes espacées de 2 heures: par exemple, sièste à
12/14/16/18, puis une nuit complète.
Je suis tombé systématiquement en sommeil de niveau 4 (paradoxal) en moins
de 10 minutes alors que je n'étais pas en manque de sommeil -- j'avais eu du
mal à m'endormir.
Quand je suis crevé, je n'en ai pas la preuve car je n'ai pas eu d'enregistrement
durant ces périodes là, je pense tomber en sommeil paradoxal en une ou deux
minutes.
Frédéric
[^] # Re: Il y a 5 jours a peine
Posté par fmaz fmaz . En réponse au journal Sommeil polyphasique. Évalué à 10.
Avant de commencer, j'avais tendance à vivre de façon décallé.
J'étais dans une école et pas mal d'élèves veillaient tard.
En gros, je me couchais vers 5-6 heures du matin et je me levais
vers 12-13 heures.
J'ai commencé par pousser mes veilles jusqu'à 9 heures.
À 9 heures, gros coup de barre et personne pour discuter (les
fêtard dorment, les autres sont en cours) donc dodo.
Au début, je mettais le réveil vers 12h. J'étais pas mal dans le
pâté mais ça bouge autour. Et puis, c'est l'heure du petit dej
(oups, du repas). Ça aide. Ensuite, boulot jusqu'à 22 heures
et à nouveau gros coup de barre. Mais là, il y a les fêtard pour
aider. Passage au foyer de l'école pour discuter en attendant
que le coup de barre passe. Après, c'est parti pour la nuit.
Après quelques jours, j'étais tellement dans mon optique boulot
qu'au bout de 30 minutes, je me réveillais spontanément. Alors
ben boulot quoi!
Au bout de trois semaines, mon corps m'a dit stop. Je suis
migraineux. Pas trop mais quand même. J'ai la chance de pouvoir
arêter les crises facilement avec de l'aspirine. Toujours est-il
qu'un matin, après ma « nuit » de 30 minutes, je m'installe devant
ma machine et au bout d'une minute, je sens une migraine qui
monte. Je bouffe mon aspirine, je fais un tour. Ça passe. Je retourne
à ma machine. Presque instantanément, je sens une nouvelle crise.
Comprenant que je n'arriverai pas à bosser, je retourne me coucher.
Réveil 24 heures plus tard.
J'ai fini comme j'ai pu mon boulot. Pendant un mois, j'ai été vraiment
pas bien. Maintenant encore (8 ans après), j'ai des troubles du
sommeil important pour lesquels je suis soigné alors qu'avant, je
n'avais aucun problèmes.
[^] # Re: Il y a 5 jours a peine
Posté par fmaz fmaz . En réponse au journal Sommeil polyphasique. Évalué à 10.
J'avais beaucoup de boulot et pendant 3 semaines, je n'ai dormi que 30 minutes
par nuit.
C'est totalement faisable, j'étais très productif, je n'avais pas sommeil.
Sauf que ça m'a complètement détraqué le sommeil et qu'il m'a fallu plusieurs
années pour réccupérer.
Je déconseille fortement (tout du moins dans la version extrème que j'ai pratiqué).
Frédéric
[^] # Re: Les goûts et les couleurs
Posté par fmaz fmaz . En réponse au message Question existentiel sur le coding style de GNOME. Évalué à 4.
J'ai recemment compris une convention de C dans NetBSD.
Au lieu d'écrire
int foo(...)
{
}
ils écrivent
int
foo(...)
{
}
Étrange non, je trouvai que la première solution était plus lisible.
Sauf que si tu cherche à comprendre un bout de code et que tu tombes
sur une fonction schmurtsz, pour trouver où elle est définie, il suffit de
faire un bête:
grep ^schmutrz *.c
pour la trouver alors qu'autrement, on doit utiliser une expréssion régulière
beaucoup plus compliquée et qui fonctionnera moins bien.
[^] # Re: Idée à la con
Posté par fmaz fmaz . En réponse à la dépêche Sortie de Looking Glass 0.6.1. Évalué à 2.
En gros, les bureaux virtuels, c'est juste dire que le bureau,
c'est Z^2. On se focalise sur la région [n,n+1[*[m,m+1[ avec n et m entiers
(ou sur [x,x+1[*[y,y+1[ avec x et y réels).
Ce que j'aimerai, c'est d'une part, pouvoir prendre du recul en
se focalisant sur [n-k,n+k+1[*[m-k,m+k+1[. D'une certaine façon, c'est ce
qu'exposé fait (sauf qu'en plus, ils réplacent les fenêtres pour qu'elles ne se
recouvrent pas). En plus des bindings usuels pour se déplacer à gauche,
à droite, en haut et en bas, on aurait zoom avant et zoom arrière.
Un pager, c'est juste une petite fenêtre qui permet d'avoir la vue
[n-k,n+k+1[*[m-l,m+l+1[ dans un coin.
L'intéret est qu'on peut avoir plus de fenêtres visible d'un coup. Le problème
est qu'il devient difficile de travailler parceque les fenêtres 10 pixel*10 pixels,
c'est pas top.
Après, ce qui serait encore mieux, ce serait d'avoir des bindings pour
augmenter ou diminuer la courbure du plan. En gros, au départ, on est
en courbure nulle (i.e. sur le plan classique). Toutes les fenêtres sont en
taille réelles. Puis, on peut diminuer la courbure (passer sur un plan
hyperbolique). De cette façon les fenêtres au centre de l'écran grossissent
alors que celles qui sont plus au bord diminuent. Combiné avec le truc précédent,
on peut avoir à l'oeil un bureau [n-k,n+k+1[*[m-k,m+k+1[ tout en gardant
la fenêtre centrale grosse.
De cette façon, si on se déplace d'un écran à droite, la fenêtre centrale qui
était grosse se déplace à gauche en diminuant et celle qui était à droite et
qui était un peu petite se déplace au centre en grossissant.
On garde de cette façon le comportement classique des bureaux virtuels
en ajoutant des trucs. Si on veut garder son navigateur web en plein écran,
ben on fait k=0 et courbure=0.
wala wala wala
Frédéric
# Idée à la con
Posté par fmaz fmaz . En réponse à la dépêche Sortie de Looking Glass 0.6.1. Évalué à 6.
-------------------------------------------------------------------------------------
À mon avis, un problème des environnement 2D est la taille des fenêtres.
En gros, une fenêtre non iconifiée a une taille fixe grosse (il faut bien afficher
ne serait-ce que les menus). Résultats, on ne peut pas représenter plein de
fenêtre ouvertes simultanément sans qu'elles ne se recouvrent.
Dans la plupart des cas, on ne bosse pas simultanément avec 30 fenêtres.
On en utilise 2-3 au plus. Éventuellement, on fait du multitâche coopératif:
hop, je regarde ce qui se passe sur linuxfr,
hop, je lis mon mail,
hop, je tape mon rapport,
hop, 3 lignes de code,
hop.
Pour gérer ce multi-tâche coopératif, il existe plusieurs méthodes:
- les bureaux virtuels;
- exposé sous macOS X;
- les fenêtres iconifiées;
- les tabs.
La 3D permets aussi d'aborder ce genre de problèmes. Avec une perspective,
on peut avoir toutes les fenêtres ouvertes visibles. Celles qui sont les moins
intéressantes sont juste plus loin derrière. Le problème est qu'il faut pouvoir
se déplacer facilement dans cet environnement 3D.
Une autre méthode pour gérer le problème de la multiplicité des fenêtres
serait un bureau 2D hyperbolique. En gros, toutes les fenêtres restent sur
un même plan 2D. la fenêtre se concentre sur un point particulier du plan et
plus les fenêtres sont loin du focus, plus elles sont petites. De cette façon,
toutes les fenêtres restent visibles en permanence tout en gardant la facilité
de déplacement du monde en 2D. Le problème est que dans ce mode, la fenêtre
centrale ne peut utiliser qu'une partie relativement réduite du bureau ou alors
il faut pouvoir régler la courbure du bureau.
Bref, idée à la con que je n'implémenterai jamais mais voilà.