Gné ? Pourquoi un trait d'union ? Il n'y a ni lettre de complémentarité (je ne connais pas le terme grammatical exact) comme dans "a-t-on", ni verbe suivi d'un pronom personnel ("as-tu"). Il n'y a absolument aucune raison de mettre un trait d'union entre "suggéra" et "mon ego". C'est même carrément pas naturel.
« Python, Perl, Ruby, Haskell et autres sont bien la preuve qu'on peut développer des programmes plus ou moins simple sans forcément passer par la case "gestion de pointeurs et allocation de la mémoire". »
Bien sûr. Mais je dis que quelqu'un qui veut pouvoir se dire « informaticien » devrait avoir touché aux pointeurs & co, et vraiment essayé de piger comment ça marche. Tout simplement parce qu'ensuite, entre les machines virtuelles, les ramasse-miettes, etc., beaucoup de ces mécanismes sont cachés mais pas forcément invisibles (cf. les références circulaires non gérées dans pas mal de ramasse-miettes ou de machins façon les autoptr de boost).
Tu parles de biologistes, mécaniciens, etc. Ceux-là ne sont pas des informaticiens, mais des biologiste, etc., qui ont besoin de l'outil informatique pour faire leurs simulations. C'est différent. Là bien sûr, s'il est possible d'éviter de les faire passer par le C ou le C++, il faut ! Maintenant, mon expérience me dit que Fortran et C++ sont un peu les deux mamelles de la simulation numérique en physique ... avec d'excellentes raisons pour Fortran (même si je déteste ce langage).
Il fallait donc bien lire mon post « littérallement » : je proposais un programme pour IUT génie informatique, et certainement pas pour gens qui ont besoin d'apprendre à programmer.
Par contre, dans les facs de science, je suis tout à fait pour une sorte de « piscine light », un peu comme celle d'EPITA/EPITECH, avec un langage adapté. Après tout, les étudiants font des maths depuis le CP, de la physique/chimie depuis la 4è, de la bio depuis la 6è... En « vraie » informatique, la plupart ne font pas grand chose (apparemment ça a changé et en seconde ils commencent à faire de l'algo, ce qui est déjà mieux). La programmation va devenir, selon moi, un passage obligé de la plupart des sciences appliquées. Autant apprendre aux étudiants à correctement utiliser les outils à leur disposition.
En effet, c'est un peu trop centré sur "moi on m'a enseigné comme ça". ;)
Dans la catégorie "moi je" :
IUT 1è année:
- 6 mois de C / algorithmique;
- 3 mois de C++;
- 3 mois de Visual Basic.
- Un ou deux TP d'assembleur pour compléter la formation en architecture.
IUT 2è année :
- 6 mois de Java;
- 6 mois de HTML+XML+ASP
(c'est ce que j'ai fait en prenant l'option réseaux/info répartie)
ou
- 6 mois de C++ avancé
- 6 mois de COBOL
(pour ceux qui avaient pris l'option génie logiciel)
En école d'ingé j'ai vu en plus :
- Common LISP
- PROLOG
Ce que je préconise pour former les nouveaux étudiants:
En IUT génie informatique :
- 1 langage compilé et un langage interprété;
- 1 langage procédural et un langage orienté objet;
- 1 langage pour apprendre à faire de la prog système.
En tout, il faut au moins 3 langages différents (car finalement, les études en informatique devraient former à s'adapter à de nouveaux environnement rapidement).
En école d'ingé, je proposerais en plus :
- 1 langage fonctionnel;
- 1 langage déclaratif.
Du coup, avec ce cahier des charges, on pourrait avoir (par exemple) :
- le langage C : procédural, compilé, et permet la prog système;
- Python ou Ruby : orienté objet et interprété;
- HTML+CSS+Javascript : événementiel, interprété, et euh... bizarre ;-) OU Java OU C++.
En école d'ingé, je rajouterais :
- Common LISP, Haskell, OCaml, etc. (certes ce sont des langages multi-paradigmes, mais ils sont clairement plus connus pour leur côté fonctionnel);
- PROLOG ou Erlang (pour se faire des nœuds au cerveau au moins une fois dans sa vie).
Je suis volontairement vague, parce que mon expérience me dit que le plus important, c'est le prof. Malgré tout, avec la façon dont j'ai tourné les choses, j'impose un peu le C, mais je trouve que c'est important : ne pas faire d'assembleur, passe encore, mais même si on peut parfaitement comprendre les problèmes liés à l'allocation/désallocation de la mémoire, aux plantages divers, etc., simplement en écoutant le cours, à mon avis rien ne remplace l'expérience.
Les autres langages, on s'en fout, du moment qu'ils sont utilisés dans des projets de taille conséquente, pour forcer l'étudiant à s'investir et comprendre.
« A y réfléchir, le malentendu sur l'utilité/inutilité du contrôle parental doit se situer la : l'âge. »
Comme tu le fais remarquer, il s'agit non seulement d'âge, mais de la volonté-même du gamin. Je considère un logiciel de contrôle parental comme un filtre à site à contenu « adulte » -- après tout, dans les boites qui filtrent le contenu, y'a des choses équivalentes, et tout le monde (même adulte !) n'est pas forcément capable de contourner lesdits filtres.
Ensuite nous sommes bien d'accord, si un gamin veut absolument trouver du porno (ou quelqu'autre contenu), il va y arriver (ou tomber sur ce fil de discussion qui sera non censuré car il y a absence de toute photo ... :-)). L'intérêt pour moi est que ça ralentit (même un peu !) le moment où le gamin tombera sur des sites qui lui promettront une double pénétration vagino-anale sur une blonde aux seins et aux lèvres refaits, par exemple au moment où il cherchera des cracks pour un de ses jeux. Quant à quand ce sera « forcément » volontaire, je dirais plutôt que jusqu'à 10 ans, on ne craint pas grand chose. Aussi futés soient-ils, ils ont affaire à des informaticiens comme parents, merde ! (au moins sur linuxfr) :-)
Trouver du cul « gratuit » n'était pas évident, car sur un modem 28.8 kbps (ou même 56.6kbps en fait), charger une pauvre image de cul, et trouver tout bêtement un site qui en proposait prenait un temps de chargement clairement non-négligeable. Du coup, chopper 2 ou 3 photos porno, c'était déjà le grand luxe (et donc récupérer les magazines des cousins/grands frères/papas/etc restait tout de même plus rentable à l'époque).
Quand ensuite je suis passé à Internet via câble, j'ai pu commencer à voir ce que donnait le peer-to-peer. Du coup je me demande : ton « avant », il date de quand ? Parce que mes premières amours de p2p, c'était Napster (donc ni eMule, LimeWire, ni ...), et quand je téléchargeais un MP3, c'était ... ben, un MP3. :)
Et je rejoins Zenitram là-dessus, à l'époque au moins, trouver du porno, ça voulait dire en chercher, ou bien chercher des cracks. De nos jours, il faut aussi chercher, mais la différence, c'est qu'avec la bande-passante que tout le monde se paie, et certains sites que je ne nommerai pas ici, chopper des heures de pr0n à pas cher (lire : gratuit), c'est vraiment qu'à un clic de souris.
Dernière chose: à 14 ans, vouloir taper "porno", "sexe?", etc., c'est tout à fait normal, sauf qu'on peut se retrouver avec vraiment un peu tout dans Google. Donc honnêtement, même si on ne peut pas tout filtrer, essayer de freiner un peu tout ça n'est pas forcément une mauvaise idée...
Je me souviens d'une connaissance qui à l'époque avait configuré la machine parentale pour que sa petite sœur de 7 ans ne puisse tomber sur des choses pas belles à voir. À l'époque, le filtrage « adulte / pas adulte » de Google n'existait pas encore sur Google Image. La petite sœur a simplement tapé « chatte » là-bas et ... Je vous laisse deviner.
Et moi je persiste à dire que l'erreur d'Intel n'est pas dans Larabee en lui-même, mais au fait que clairement ça vise le calcul intensif sous toutes ses formes, et pas seulement le calcul pour faire dans le graphique. À ce titre, il est plus « simple » à utiliser car il s'agit de bêtes cœurs in-order à base de x86. Et ça, le mec qui fait de la simulation/du calcul haute-perf, il commence à maîtriser.
[parlant de Fedora en 2003] > ca sert a quoi si le distrib est dans un etat tel qu'elle est inutilsiable par le pekin moyen ?
FUD
Pas d'accord. J'ai essayé Fedora à l'époque, et j'avais effectivement plein, PLEIN de problèmes pour faire fonctionner tout ça (depuis j'ai l'impression que ça va beaucoup mieux). Avant ça, j'avais essayé quelques distribs différentes (j'ai commencé avec red hat 5.1 en 99, puis se sont succédées debian, FreeBSD, OpenBSD, Fedora, etc).
« Même le grand Intel a tenté l'aventure de la carte graphique dédiée avant de laisser tomber: le niveau atteint par ATI et nVidia est tout simplement hors de portée! »
N'exagérons rien. Intel a fait une faute de communication en voulant faire de Larabee une carte type GPU. S'ils avaient dit « c'est un accélérateur », au même titre que les cartes ATI/Nvidia sont utilisées par les scientifiques pour faire du calcul (GPGPU), je pense que ça serait beaucoup mieux passé. Mais non, ils ont voulu jouer directement dans la cour des deux grands fabricants de GPU, et du coup, se sont cassé les dents.
Cela dit, Larabee n'est absolument pas abandonné. Il est tout au plus retardé.
Ah bon ? Ils se sont mariés religieusement, donc ? Parce qu'à ma connaissance, il n'y a que là que tu jures fidélité à ta moitié. À la mairie, on t'apprend juste que tu as un devoir de solidarité ...
Au CEA/DAM, on ne fait pas que des machins pour fabriquer des armes (nucléaires ou pas) : on fait aussi de la simulation de tremblements de terre (ben oui, quand une grosse bombe pète, faut savoir quel impact sismique ça aura), de tsunamis (ben oui, quand un grosse bombe pète... enfin tu m'as compris), etc.
En fait tout un tas de catastrophes naturelles qui pourraient être causées par des bombes sont aussi simulées, et ça, pour le coup, ça aide vraiment tout le monde. Ne pas oublier que la science et la technique ne sont pas mauvaises en soi, et que beaucoup de machins inventés au départ pour les militaires ont fini par arriver chez les civils (le nucléaire, par exemple...).
Et comment le sais-tu ? Je veux dire, Berlin, à la limite je peux comprendre : c'était la capitale de l'ennemi. Mais Paris, même collabo, était un pays occupé.
C'est Godard qui disait que la principale différence entre la TV et le cinéma, c'était que la télévision avait des spectateurs passifs, dont le regard est concentré sur un petit écran. Alors qu'au contraire, avec le cinéma, le spectateur doit tourner la tête, et faire des choix sur l'endroit qu'il veut regarder dans une scène précise.
« Marrant, mon FF sous Windows, il est capable de se mettre à jour tout seul. »
Ton FF sous linux pourrait aussi se mettre à jour tout seul, il suffirait d'installer le paquet proposé sur le site de la fondation Mozilla. Sinon, tout comme Windows, mon Ubuntu et ma CentOS me proposent de se mettre à jour tous seuls comme des grands, mettant à jour mes applis aussi du même coup (contrairement à FF, Java, etc., qui me proposent de se mettre à jour individuellement et donc me forcent à clicouiller à chaque fois qu'une appli individuelle a décidé qu'il fallait se mettre à jour sous Windows [1]). Bref cet argument n'est pas valide selon moi.
« Quant aux gestures, je ne vois pas ce que ca change. Si le développeur ne l'utilise pas dans son appli, qu'elle soit sous forme de dépendance ou en statique , ca n'y change rien. »
Justement. Dès lors qu'on parle d'appli graphique, et qui donc implicitement dépend de certaines bibliothèques, jusqu'où arrête-t-on le « statique » ? Parce que euh, si je dois me taper chaque appli graphique en statique, je vais me retrouver avec 15 libqt/libkde embarqués dans mes applis en RAM...
[1] Oui je sais, c'est un argument de mauvaise fois, puisque si FF propose une màj sous Linux, puis un jour plus tard Thunderbird, puis un jour plus tard... Ça reviendra au même. Mais (au moins en France) c'est la veille d'un loooooooooong week-end, c'est un peu comme un vendredi quoi. :-)
Pourquoi « vaguement » ? C'est quand même tout l'intérêt de l'article initial (« Semantic Subtyping ») : prouver qu'en théorie des types, l'intuition qui veut qu'un sous-type fait partie du plus grand ensemble de type dont il dérive est vrai. La démo n'utilise que des opérateurs logiques, fait très très mal à la tête, mais est parfaitement juste.
Pour XML, je pense qu'il faut considérer deux choses.
1/ L'équipe qui a réalisé CDuce, c'est celle des bases de données à Orsay. Ça fait un moment que les chercheurs en BDD s'amusent plus avec les bases orientées XML que les classiques BDD relationnelles.
2/ Justement, XML, ce n'est finalement qu'un ensemble d'arbres (ou parfois de graphes) orientés et ordonnés dont chaque noeud représente un type. Ça permet (proof of concept, tout ça) de générer tout un tas de « types intermédiaires » depuis CDuce, chose qu'il n'est pas possible de faire directement avec OCaml (car il faudrait établir le produit cartésien de tous les types pour pouvoir les faire interagir entre eux).
[^] # Re: J'en ai trouvé une :-P !
Posté par lasher . En réponse au journal Python çaymal. Évalué à 3.
/me vire la poutre de son œil.
[^] # Re: J'en ai trouvé une :-P !
Posté par lasher . En réponse au journal Python çaymal. Évalué à 0.
[^] # Re: Et pis .....thon
Posté par lasher . En réponse au journal Lamentations ou les remords d'un geek. Évalué à 3.
Bien sûr. Mais je dis que quelqu'un qui veut pouvoir se dire « informaticien » devrait avoir touché aux pointeurs & co, et vraiment essayé de piger comment ça marche. Tout simplement parce qu'ensuite, entre les machines virtuelles, les ramasse-miettes, etc., beaucoup de ces mécanismes sont cachés mais pas forcément invisibles (cf. les références circulaires non gérées dans pas mal de ramasse-miettes ou de machins façon les autoptr de boost).
Tu parles de biologistes, mécaniciens, etc. Ceux-là ne sont pas des informaticiens, mais des biologiste, etc., qui ont besoin de l'outil informatique pour faire leurs simulations. C'est différent. Là bien sûr, s'il est possible d'éviter de les faire passer par le C ou le C++, il faut ! Maintenant, mon expérience me dit que Fortran et C++ sont un peu les deux mamelles de la simulation numérique en physique ... avec d'excellentes raisons pour Fortran (même si je déteste ce langage).
Il fallait donc bien lire mon post « littérallement » : je proposais un programme pour IUT génie informatique, et certainement pas pour gens qui ont besoin d'apprendre à programmer.
Par contre, dans les facs de science, je suis tout à fait pour une sorte de « piscine light », un peu comme celle d'EPITA/EPITECH, avec un langage adapté. Après tout, les étudiants font des maths depuis le CP, de la physique/chimie depuis la 4è, de la bio depuis la 6è... En « vraie » informatique, la plupart ne font pas grand chose (apparemment ça a changé et en seconde ils commencent à faire de l'algo, ce qui est déjà mieux). La programmation va devenir, selon moi, un passage obligé de la plupart des sciences appliquées. Autant apprendre aux étudiants à correctement utiliser les outils à leur disposition.
[^] # Re: Et pis .....thon
Posté par lasher . En réponse au journal Lamentations ou les remords d'un geek. Évalué à 3.
Dans la catégorie "moi je" :
IUT 1è année:
- 6 mois de C / algorithmique;
- 3 mois de C++;
- 3 mois de Visual Basic.
- Un ou deux TP d'assembleur pour compléter la formation en architecture.
IUT 2è année :
- 6 mois de Java;
- 6 mois de HTML+XML+ASP
(c'est ce que j'ai fait en prenant l'option réseaux/info répartie)
ou
- 6 mois de C++ avancé
- 6 mois de COBOL
(pour ceux qui avaient pris l'option génie logiciel)
En école d'ingé j'ai vu en plus :
- Common LISP
- PROLOG
Ce que je préconise pour former les nouveaux étudiants:
En IUT génie informatique :
- 1 langage compilé et un langage interprété;
- 1 langage procédural et un langage orienté objet;
- 1 langage pour apprendre à faire de la prog système.
En tout, il faut au moins 3 langages différents (car finalement, les études en informatique devraient former à s'adapter à de nouveaux environnement rapidement).
En école d'ingé, je proposerais en plus :
- 1 langage fonctionnel;
- 1 langage déclaratif.
Du coup, avec ce cahier des charges, on pourrait avoir (par exemple) :
- le langage C : procédural, compilé, et permet la prog système;
- Python ou Ruby : orienté objet et interprété;
- HTML+CSS+Javascript : événementiel, interprété, et euh... bizarre ;-) OU Java OU C++.
En école d'ingé, je rajouterais :
- Common LISP, Haskell, OCaml, etc. (certes ce sont des langages multi-paradigmes, mais ils sont clairement plus connus pour leur côté fonctionnel);
- PROLOG ou Erlang (pour se faire des nœuds au cerveau au moins une fois dans sa vie).
Je suis volontairement vague, parce que mon expérience me dit que le plus important, c'est le prof. Malgré tout, avec la façon dont j'ai tourné les choses, j'impose un peu le C, mais je trouve que c'est important : ne pas faire d'assembleur, passe encore, mais même si on peut parfaitement comprendre les problèmes liés à l'allocation/désallocation de la mémoire, aux plantages divers, etc., simplement en écoutant le cours, à mon avis rien ne remplace l'expérience.
Les autres langages, on s'en fout, du moment qu'ils sont utilisés dans des projets de taille conséquente, pour forcer l'étudiant à s'investir et comprendre.
[^] # Re: C'est pour ton bien
Posté par lasher . En réponse au journal Nanny, logiciel de contrôle parental pour linux.. Évalué à 2.
Comme tu le fais remarquer, il s'agit non seulement d'âge, mais de la volonté-même du gamin. Je considère un logiciel de contrôle parental comme un filtre à site à contenu « adulte » -- après tout, dans les boites qui filtrent le contenu, y'a des choses équivalentes, et tout le monde (même adulte !) n'est pas forcément capable de contourner lesdits filtres.
Ensuite nous sommes bien d'accord, si un gamin veut absolument trouver du porno (ou quelqu'autre contenu), il va y arriver (ou tomber sur ce fil de discussion qui sera non censuré car il y a absence de toute photo ... :-)). L'intérêt pour moi est que ça ralentit (même un peu !) le moment où le gamin tombera sur des sites qui lui promettront une double pénétration vagino-anale sur une blonde aux seins et aux lèvres refaits, par exemple au moment où il cherchera des cracks pour un de ses jeux. Quant à quand ce sera « forcément » volontaire, je dirais plutôt que jusqu'à 10 ans, on ne craint pas grand chose. Aussi futés soient-ils, ils ont affaire à des informaticiens comme parents, merde ! (au moins sur linuxfr) :-)
[^] # Re: Spam
Posté par lasher . En réponse au journal P****n de Google Groups. Évalué à 10.
[^] # Re: Fork
Posté par lasher . En réponse au journal Nanny, logiciel de contrôle parental pour linux.. Évalué à 2.
[^] # Re: C'est pour ton bien
Posté par lasher . En réponse au journal Nanny, logiciel de contrôle parental pour linux.. Évalué à 3.
Quand ensuite je suis passé à Internet via câble, j'ai pu commencer à voir ce que donnait le peer-to-peer. Du coup je me demande : ton « avant », il date de quand ? Parce que mes premières amours de p2p, c'était Napster (donc ni eMule, LimeWire, ni ...), et quand je téléchargeais un MP3, c'était ... ben, un MP3. :)
Et je rejoins Zenitram là-dessus, à l'époque au moins, trouver du porno, ça voulait dire en chercher, ou bien chercher des cracks. De nos jours, il faut aussi chercher, mais la différence, c'est qu'avec la bande-passante que tout le monde se paie, et certains sites que je ne nommerai pas ici, chopper des heures de pr0n à pas cher (lire : gratuit), c'est vraiment qu'à un clic de souris.
Dernière chose: à 14 ans, vouloir taper "porno", "sexe?", etc., c'est tout à fait normal, sauf qu'on peut se retrouver avec vraiment un peu tout dans Google. Donc honnêtement, même si on ne peut pas tout filtrer, essayer de freiner un peu tout ça n'est pas forcément une mauvaise idée...
[^] # Re: C'est pour ton bien
Posté par lasher . En réponse au journal Nanny, logiciel de contrôle parental pour linux.. Évalué à 3.
[^] # Re: La fin du libre ?
Posté par lasher . En réponse à la dépêche Sortie d'OGD1. Évalué à 2.
[^] # Re: Bah, c'est du bon sens
Posté par lasher . En réponse au journal Google interdit l'usage de windows à ses employés. Évalué à 2.
> ca sert a quoi si le distrib est dans un etat tel qu'elle est inutilsiable par le pekin moyen ?
FUD
Pas d'accord. J'ai essayé Fedora à l'époque, et j'avais effectivement plein, PLEIN de problèmes pour faire fonctionner tout ça (depuis j'ai l'impression que ça va beaucoup mieux). Avant ça, j'avais essayé quelques distribs différentes (j'ai commencé avec red hat 5.1 en 99, puis se sont succédées debian, FreeBSD, OpenBSD, Fedora, etc).
[^] # Re: La fin du libre ?
Posté par lasher . En réponse à la dépêche Sortie d'OGD1. Évalué à 2.
N'exagérons rien. Intel a fait une faute de communication en voulant faire de Larabee une carte type GPU. S'ils avaient dit « c'est un accélérateur », au même titre que les cartes ATI/Nvidia sont utilisées par les scientifiques pour faire du calcul (GPGPU), je pense que ça serait beaucoup mieux passé. Mais non, ils ont voulu jouer directement dans la cour des deux grands fabricants de GPU, et du coup, se sont cassé les dents.
Cela dit, Larabee n'est absolument pas abandonné. Il est tout au plus retardé.
[^] # Re: C'est quoi ?
Posté par lasher . En réponse au journal A mort les tristes journées. Évalué à 3.
[^] # Re: C'est quoi ?
Posté par lasher . En réponse au journal A mort les tristes journées. Évalué à 3.
[^] # Re: C'est quoi ?
Posté par lasher . En réponse au journal A mort les tristes journées. Évalué à 3.
[^] # Re: Journalistes de merde
Posté par lasher . En réponse au journal Le monde.fr et les hackers. Évalué à 0.
Bon bon.
[^] # Re: Journalistes de merde
Posté par lasher . En réponse au journal Le monde.fr et les hackers. Évalué à 0.
[^] # Re: ça sert quand même à faire des bombes…
Posté par lasher . En réponse au journal Un français #3 dans le Top500. Évalué à 6.
Au CEA/DAM, on ne fait pas que des machins pour fabriquer des armes (nucléaires ou pas) : on fait aussi de la simulation de tremblements de terre (ben oui, quand une grosse bombe pète, faut savoir quel impact sismique ça aura), de tsunamis (ben oui, quand un grosse bombe pète... enfin tu m'as compris), etc.
En fait tout un tas de catastrophes naturelles qui pourraient être causées par des bombes sont aussi simulées, et ça, pour le coup, ça aide vraiment tout le monde. Ne pas oublier que la science et la technique ne sont pas mauvaises en soi, et que beaucoup de machins inventés au départ pour les militaires ont fini par arriver chez les civils (le nucléaire, par exemple...).
[^] # Re: ça sert quand même à faire des bombes…
Posté par lasher . En réponse au journal Un français #3 dans le Top500. Évalué à 4.
[^] # Re: Zut alors!
Posté par lasher . En réponse au journal tabnabbing, un nouveau genre de phishing. Évalué à 2.
[^] # Re: Dans la meme émission
Posté par lasher . En réponse au journal crétin.fr sur M6. Évalué à 4.
[^] # Re: Gros ratage.
Posté par lasher . En réponse au journal De l'abération de la notion même d'antivirus. Évalué à 2.
[^] # Re: Installinging software was never this easy and powerful !
Posté par lasher . En réponse au journal Brainstorming : ce que Linux a de mieux que mac os. Évalué à 2.
Ton FF sous linux pourrait aussi se mettre à jour tout seul, il suffirait d'installer le paquet proposé sur le site de la fondation Mozilla. Sinon, tout comme Windows, mon Ubuntu et ma CentOS me proposent de se mettre à jour tous seuls comme des grands, mettant à jour mes applis aussi du même coup (contrairement à FF, Java, etc., qui me proposent de se mettre à jour individuellement et donc me forcent à clicouiller à chaque fois qu'une appli individuelle a décidé qu'il fallait se mettre à jour sous Windows [1]). Bref cet argument n'est pas valide selon moi.
« Quant aux gestures, je ne vois pas ce que ca change. Si le développeur ne l'utilise pas dans son appli, qu'elle soit sous forme de dépendance ou en statique , ca n'y change rien. »
Justement. Dès lors qu'on parle d'appli graphique, et qui donc implicitement dépend de certaines bibliothèques, jusqu'où arrête-t-on le « statique » ? Parce que euh, si je dois me taper chaque appli graphique en statique, je vais me retrouver avec 15 libqt/libkde embarqués dans mes applis en RAM...
[1] Oui je sais, c'est un argument de mauvaise fois, puisque si FF propose une màj sous Linux, puis un jour plus tard Thunderbird, puis un jour plus tard... Ça reviendra au même. Mais (au moins en France) c'est la veille d'un loooooooooong week-end, c'est un peu comme un vendredi quoi. :-)
[^] # Re: la qualif coute cher...
Posté par lasher . En réponse au journal Declaration impot sur le revenu en ligne interdite pour Linux. Évalué à 4.
[^] # Re: Un langage amateur sympa, mais qui se prend trop au sérieux
Posté par lasher . En réponse à la dépêche Le langage ooc auto-hébergé - les nouveautés de rock 0.9.0. Évalué à 3.
Pour XML, je pense qu'il faut considérer deux choses.
1/ L'équipe qui a réalisé CDuce, c'est celle des bases de données à Orsay. Ça fait un moment que les chercheurs en BDD s'amusent plus avec les bases orientées XML que les classiques BDD relationnelles.
2/ Justement, XML, ce n'est finalement qu'un ensemble d'arbres (ou parfois de graphes) orientés et ordonnés dont chaque noeud représente un type. Ça permet (proof of concept, tout ça) de générer tout un tas de « types intermédiaires » depuis CDuce, chose qu'il n'est pas possible de faire directement avec OCaml (car il faudrait établir le produit cartésien de tous les types pour pouvoir les faire interagir entre eux).