Et si il avait consacré 7 de ses pages à un dossier "publi-informatif" vantant
les mérites des outils Microsoft, il serait alors "un misérable torchon à la solde
des élites capitalistes"... non?
Ça me dérange pas qu'on dise du bien de ce journal (il le mérite), de là à parler
"d'excellence", et de plus en l'associant à une prise d'opinion qui va dans le sens
des lecteurs de linuxfr, c'est du flagrant délit de partialité...
Déjà si t'as des caractères compris entre 0x80 et 0x9F tu peux être sûr que c'est pas de l'iso-8859-x. C'est probablement un truc anti-standard de microsoft
...ou Mac, mais sur ce point là je leur donne entièrement raison. Ces caractères interdits sont en fait des caractères de contrôles antédiluviens. La seul doc que j'ai trouvée dessus date de 1983 (http://www.itscj.ipsj.or.jp/ISO-IR/077.pdf(...))
L'emplacement 80-9F a été choisi car si un texte contenant ces caractères passait par erreur par un filtre 7 bits, on aurait obtenu des caractères de contrôles 00-1F qui aurait pu fortement changer la mise en page du document... pour moi cette raison n'est pas suffisante pour se priver de 32 caractères sur 256, déjà que la plupart des caractères 00-1F ne servent à rien... c'était peut être valable il y a quelque temps, mais c'est maintenant un boulet qu'on traine... et cette plage interdite a encore été incluse dans l'unicode (mais là c'est moins grave : on a en gros 2^32 caractères possibles...)
Je suppose effectivement qu'il s'agisse d'un texte littéraire (une ou plusieures langues)
ou d'une base de données contenant des noms, adresses, téléphones, email, etc...
Mais le cas d'un texte formatté ou par exemple d'un source en C ne posent
pas de problèmes car tous les signes, mot clés, ponctuations tordues sont en
général codés avec les caractères inférieurs à 128, càd ascii, et les différences
entre charsets ne concernent que les caractères entre 128 et 255 (à part l'utf,
reconnaissable facilement par d'autres manières et qqs charsets préhistoriques :),
ça n'est donc que sur ces caractères (et peut être leur contexte, à priori du texte
"littéraire") que va se faire la reconnaissance. Celle ci ne sera pas parfaite (cf plus
haut) mais tant qu'elle marche dans la majorité des cas...
Quant à l'unicode, c'est effectivement la solution pour exporter un fichier, mais
pas pour l'importer, ou tout au moins pas tant que les autres charsets ne seront
pas morts et enterrés (et pour l'instant c'est pas gagné...)
La reconnaissance ne se fait effectivement que sur les 128 derniers caractères.
Pour l'utf, même l'utf8 est facilement reconnaissable, car tous les chars>128
doivent être ordonnés de manière particulière. Le problème est effectivement
pour les autre charsets, et il n'y a sûrement pas d'algo magique (car plusieurs
charsets possible dans les cas particuliers), mais il est possible de noter chaque
version d'un document source dans les différents charsets et d'en choisir le
meilleur... et si il n'est pas possible de départager dans les cas particuliers, on
doit alors laisser l'utilisateur se débrouiller avec ces noms barbares :)
Maintenant je cherche l'algo (ou les algos) permettant sans trop se compliquer la
vie de noter avec une exactitude satisfaisante.
Si j'arrive à quelque chose de concluant, je diffuserais la bibliothèque, bien que vu
comme c'est parti l'api risque d'être assez bordélique...
En fait, je ne recherche pas le moyen de convertir un fichier d'un encodage
vers un autre, mais de reconnaître l'encodage d'un fichier. L'idée est de
pouvoir charger un fichier dans un soft sans imposer à l'utilisateur de choisir
l'encodage, ou tout au mois de lui proposer le plus probable, ce qui est un
peu plus chaud (et intéressant) .
Sinon dans le même genre qu'iconv, il y a recode sur lequel je suis tombé
dans mes recherches : http://recode.progiciels-bpi.ca/(...)
qui est pas mal mais je n'ai pas réussi à compiler la version en download sur
le site, il faut en chercher une autre je ne sais plus où...
"Bonvenon al la Vikipedio en Esperanto, rete konstruata enciklopedio. Hodia? estas ?a?do, la 15-a de januaro, 2004 / (la? UTC), la Esperanto-versio komenci?is en novembro 2001, kaj ni nun kunlaboras pri 10587 artikoloj. Dankon al ?iuj! Ni volas havi pli ol 100 000, do ni laboru! "
Désolé de faire du mauvais esprit, mais d'un point de vue informatique l'anglais est bien plus simple que l'esperanto : il n'y a pas d'accent... Je suis en ce moment en plein dans
les charsets, l'unicode et compagnie, et c'est vraiment un immense bordel (et encore on parle pas des recherches de chaînes)...
L'intérêt d'une distrib, pour moi, c'est son "utilisabilité" je veux dire par là sa stabilité, la
pertinence du choix des logiciels qui la compose, sa facilité d'utilisation, son support, bref
tout ce qui fait qu'elle soit utile et efficace tous les jours... Il peut aussi exister la catégorie
des distrib-figures de style : celles dont tous les développeurs ont des canaris chez eux,
celles dont aucun fichier ne contient l'octet 0x45 ('E'), celles programmées avec des
moufles ou encore celles 100% libres (enfin moins la part de SCO bien sûr et celle du
hardware générallement 100% non libre) mais ça resterait des distribs de rigolos dont
debian ne devrait pas faire parti.
Je suis bien sûr pour la promotion du libre, d'autant plus que les logiciels libres à l'heure
actuelle font, dans le cadre d'une utilisation courante, pratiquement tout ce que font ceux
proprios, mais refuser d'utiliser ces derniers même dans les qqs % où l'on n'a pas
vraiment d'alternative est un choix d'intégriste.
Qu'on limite leur utilisation ok, qu'on les éradique totalement c'est s'imposer de porter
une camisole de force, et dans le cas de supprimer la section non-libre de debian, c'est
imposer à tous ses utilisateurs de la porter... (bon bon d'accord, ils peuvent toujours
changer de distrib ou chercher, choisir et s'installer les softs proprios à la main eux même
mais c'est bien moins simple)
Les + et les - étant ceux du pavé numérique, n'oublions pas de le préciser car sinon cela fait apparaître assez mystérieusement des 6 dans le terminal :) ...
Ah? Et en plus de tuer tout le monde il fait quoi de beau ce fameux "CMJN" ??? Il aurait pas un nom un peu plus parlant, aussi, pour les simples d'esprit?
Parmi les informations difficiles à trouver par ailleurs, on apprendra notamment à créer ses propres certificats, sans avoir recours aux ténors du marché, en général fort onéreux.
Difficiles à trouver? Faut peut être pas éxagérer non plus...
Perso, je ne connais pas de boîte non américaine qui fasse des
microprocesseurs (j'entend par là : que l'on puisse utiliser pour
le coeur d'un ordinateur de bureau actuel).
ST par exemple ne fait pas de processeurs qui puissent rivaliser
avec des x86 ou des PowerPC...
Super le coup du lien dans l'astuce, sauf que le principe de cette rubrique
c'est d'avoir l'astuce simplement et rapidement, pas après 36h de balade aux
quatre coins du net...
Et maintenant que le lien pointe dans les choux, ça en devient totallement
ridicule...
J'ai voulu essayer eclipse... après avoir pas mal galéré sur leur site web pour trouver les liens vers les téléchargements, j'ai reussi à récupéré une archive SDK et une plateform (74 et 22Mo!!), toutes les deux 3.0M5 ; je les installe, je lance l'executable eclipse et à chaque fois je tombe sur une interface graphique assez incompréhensible et lorsque je reussi à charger un source C++, je tombe sur un éditeur un peu bidon...
Bon je suppose que si je lisais le f****** manual je comprendrais un peu mieux ce qui se passe, et par exemple comment on charge le plug in c++, mais ça commence à faire beaucoup de temps investi juste pour tester un soft...
Il y aurait pas un tutoriel qui traine, ou queqlqu'un qui veuille bien m'expliquer comment arriver sur un environnement de dev C++ digne de ce nom?
J'utilise la 1.1.97, et c'est plutôt 0.6 qu'elle mérite comme numéro de version. Je sais pas ce qu'il en est de la 1.2, mais ça m'étonnerait qu'ils aient corrigé tous les petits bugs qui sont assez génant (enfin elle reste tout à fait utilisable...)
Et sans vouloir faire dans le pro-microsoft, je trouve ça assez risible que y en a qui prennent ça au serieux sous pretexte que windows-c-est-nul et linux-c-est-baleze...
On peut taper sur bill gates pour pas mal de raisons, mais pas parce qu'il a un peu plus d'humour que le linuxien moyen frustré qu'on dise du mal de son os...
# Re: La culture libre dans Courrier International
Posté par calandoa . En réponse à la dépêche La culture libre dans Courrier International. Évalué à 9.
Et si il avait consacré 7 de ses pages à un dossier "publi-informatif" vantant
les mérites des outils Microsoft, il serait alors "un misérable torchon à la solde
des élites capitalistes"... non?
Ça me dérange pas qu'on dise du bien de ce journal (il le mérite), de là à parler
"d'excellence", et de plus en l'associant à une prise d'opinion qui va dans le sens
des lecteurs de linuxfr, c'est du flagrant délit de partialité...
# Re: Sortie de Monkey Bubble 0.1.8
Posté par calandoa . En réponse à la dépêche Sortie de Monkey Bubble 0.1.8. Évalué à 6.
[^] # Re: Comment identifier un encodage?
Posté par calandoa . En réponse au journal Comment identifier un encodage?. Évalué à 1.
...ou Mac, mais sur ce point là je leur donne entièrement raison. Ces caractères interdits sont en fait des caractères de contrôles antédiluviens. La seul doc que j'ai trouvée dessus date de 1983 (http://www.itscj.ipsj.or.jp/ISO-IR/077.pdf(...))
L'emplacement 80-9F a été choisi car si un texte contenant ces caractères passait par erreur par un filtre 7 bits, on aurait obtenu des caractères de contrôles 00-1F qui aurait pu fortement changer la mise en page du document... pour moi cette raison n'est pas suffisante pour se priver de 32 caractères sur 256, déjà que la plupart des caractères 00-1F ne servent à rien... c'était peut être valable il y a quelque temps, mais c'est maintenant un boulet qu'on traine... et cette plage interdite a encore été incluse dans l'unicode (mais là c'est moins grave : on a en gros 2^32 caractères possibles...)
Quelques sites en vrac:
guide très complets sur les charsets: http://www.cs.tut.fi/~jkorpela/chars/index.html(...)
autre guide (en ce moment dans les choux) : http://www.diffuse.org/charguide.html(...)
description de charsets et de leur utilisation selon les langues: http://www.eki.ee/letter/(...)
le projet unicode: http://www.unicode.org(...)
liste de caractères unicode: http://www.alanwood.net/unicode/(...)
[^] # Re: Comment identifier un encodage?
Posté par calandoa . En réponse au journal Comment identifier un encodage?. Évalué à 1.
ou d'une base de données contenant des noms, adresses, téléphones, email, etc...
Mais le cas d'un texte formatté ou par exemple d'un source en C ne posent
pas de problèmes car tous les signes, mot clés, ponctuations tordues sont en
général codés avec les caractères inférieurs à 128, càd ascii, et les différences
entre charsets ne concernent que les caractères entre 128 et 255 (à part l'utf,
reconnaissable facilement par d'autres manières et qqs charsets préhistoriques :),
ça n'est donc que sur ces caractères (et peut être leur contexte, à priori du texte
"littéraire") que va se faire la reconnaissance. Celle ci ne sera pas parfaite (cf plus
haut) mais tant qu'elle marche dans la majorité des cas...
Quant à l'unicode, c'est effectivement la solution pour exporter un fichier, mais
pas pour l'importer, ou tout au moins pas tant que les autres charsets ne seront
pas morts et enterrés (et pour l'instant c'est pas gagné...)
[^] # Re: Comment identifier un encodage?
Posté par calandoa . En réponse au journal Comment identifier un encodage?. Évalué à 2.
Pour l'utf, même l'utf8 est facilement reconnaissable, car tous les chars>128
doivent être ordonnés de manière particulière. Le problème est effectivement
pour les autre charsets, et il n'y a sûrement pas d'algo magique (car plusieurs
charsets possible dans les cas particuliers), mais il est possible de noter chaque
version d'un document source dans les différents charsets et d'en choisir le
meilleur... et si il n'est pas possible de départager dans les cas particuliers, on
doit alors laisser l'utilisateur se débrouiller avec ces noms barbares :)
Maintenant je cherche l'algo (ou les algos) permettant sans trop se compliquer la
vie de noter avec une exactitude satisfaisante.
Si j'arrive à quelque chose de concluant, je diffuserais la bibliothèque, bien que vu
comme c'est parti l'api risque d'être assez bordélique...
[^] # Re: Comment identifier un encodage?
Posté par calandoa . En réponse au journal Comment identifier un encodage?. Évalué à 2.
vers un autre, mais de reconnaître l'encodage d'un fichier. L'idée est de
pouvoir charger un fichier dans un soft sans imposer à l'utilisateur de choisir
l'encodage, ou tout au mois de lui proposer le plus probable, ce qui est un
peu plus chaud (et intéressant) .
Sinon dans le même genre qu'iconv, il y a recode sur lequel je suis tombé
dans mes recherches : http://recode.progiciels-bpi.ca/(...)
qui est pas mal mais je n'ai pas réussi à compiler la version en download sur
le site, il faut en chercher une autre je ne sais plus où...
[^] # Re: Kurso de Esperanto - Enfin sous linux !
Posté par calandoa . En réponse à la dépêche Kurso de Esperanto - Enfin sous linux !. Évalué à 2.
Désolé de faire du mauvais esprit, mais d'un point de vue informatique l'anglais est bien plus simple que l'esperanto : il n'y a pas d'accent... Je suis en ce moment en plein dans
les charsets, l'unicode et compagnie, et c'est vraiment un immense bordel (et encore on parle pas des recherches de chaînes)...
Y a pas un esperanto 2.0 sans accents prévu?
[^] # Re: Vivement http://www.non-free.org/
Posté par calandoa . En réponse à la dépêche Abandonner la section non-free de Debian. Évalué à 2.
pertinence du choix des logiciels qui la compose, sa facilité d'utilisation, son support, bref
tout ce qui fait qu'elle soit utile et efficace tous les jours... Il peut aussi exister la catégorie
des distrib-figures de style : celles dont tous les développeurs ont des canaris chez eux,
celles dont aucun fichier ne contient l'octet 0x45 ('E'), celles programmées avec des
moufles ou encore celles 100% libres (enfin moins la part de SCO bien sûr et celle du
hardware générallement 100% non libre) mais ça resterait des distribs de rigolos dont
debian ne devrait pas faire parti.
Je suis bien sûr pour la promotion du libre, d'autant plus que les logiciels libres à l'heure
actuelle font, dans le cadre d'une utilisation courante, pratiquement tout ce que font ceux
proprios, mais refuser d'utiliser ces derniers même dans les qqs % où l'on n'a pas
vraiment d'alternative est un choix d'intégriste.
Qu'on limite leur utilisation ok, qu'on les éradique totalement c'est s'imposer de porter
une camisole de force, et dans le cas de supprimer la section non-libre de debian, c'est
imposer à tous ses utilisateurs de la porter... (bon bon d'accord, ils peuvent toujours
changer de distrib ou chercher, choisir et s'installer les softs proprios à la main eux même
mais c'est bien moins simple)
# Re: Redimensionner la police votre émulateur de terminal
Posté par calandoa . En réponse au message [X-Window] Redimensionner la police votre émulateur de terminal. Évalué à 1.
[^] # Re: Sortie de Gimp 2.0 pre1
Posté par calandoa . En réponse à la dépêche Sortie de Gimp 2.0 pre1. Évalué à 1.
[^] # Re: Et Linux n'y a pas droit non plus à la première page ?
Posté par calandoa . En réponse à la dépêche Disponibilité du noyau 2.4.24. Évalué à 1.
# Re: L'extraordinaire odyssée de KliK la souris chez les Klaviers
Posté par calandoa . En réponse à la dépêche L'extraordinaire odyssée de KliK la souris chez les Klaviers. Évalué à 4.
# Re: Faire du DocBook facile ...
Posté par calandoa . En réponse au journal Faire du DocBook facile .... Évalué à 2.
en java...
J'ai écrit une doc sur le docbook il y a quelques mois mais je ne l'ai pas mis
en ligne ni vraiment finalisé (la paresse est un vilain défaut)
L'archive est là : http://calandoa.free.fr/intro_docbook.tgz(...)
Y a la plupart des éditeurs XML/docbook qui sont passé en revue, une référence des
balises et pas mal de liens... la doc elle même est bien sûr en xml
[^] # Re: Y a-t-il un futur pour Savannah ?
Posté par calandoa . En réponse à la dépêche Y a-t-il un futur pour Savannah ?. Évalué à 5.
Et paquetage se traduit par pack!!!!
Si si, je déconnes pas : http://dico.isc.cnrs.fr/dico_html/fr/index_tr.html(...)
(il est très bien d'ailleurs ce traducteur / dico de synonyme)
[^] # Re: Mise à jour News avec versions vulnérables
Posté par calandoa . En réponse à la dépêche Vulnérabilité de mystification de l'URL dans la barre d'état de Mozilla. Évalué à 1.
Ça déchire opera!
# Re: PKI OpenSource : TCQVATVSSJOLD*
Posté par calandoa . En réponse à la dépêche PKI OpenSource : TCQVATVSSJOLD*. Évalué à 2.
Difficiles à trouver? Faut peut être pas éxagérer non plus...
http://tirian.magd.ox.ac.uk/~nick/openssl-certs/(...)
http://www.pseudonym.org/ssl/(...)
http://raibledesigns.com/tomcat/ssl-howto.html(...)
http://www.tldp.org/HOWTO/SSL-Certificates-HOWTO/(...)
D'autre part, générer soit même ses certificats est la porte ouverte à une attaque
man in the middle...
# Re: La longue marche vers le hardware libre
Posté par calandoa . En réponse à la dépêche La longue marche vers le hardware libre. Évalué à 0.
Celui de tous les intégristes du libre qui prêchent "Oui Madame, moi je ne fais tourner que du libre sur mon ordinateur!"
Avec une platefrome hardware libre, ils pourront enfin être crédibles!
(désolé jim)
[^] # Re: La longue marche vers le hardware libre
Posté par calandoa . En réponse à la dépêche La longue marche vers le hardware libre. Évalué à 1.
microprocesseurs (j'entend par là : que l'on puisse utiliser pour
le coeur d'un ordinateur de bureau actuel).
ST par exemple ne fait pas de processeurs qui puissent rivaliser
avec des x86 ou des PowerPC...
# Re: Utiliser Mozilla à travers un tunnel SSH
Posté par calandoa . En réponse au message [Terminal] Utiliser Mozilla à travers un tunnel SSH. Évalué à 1.
c'est d'avoir l'astuce simplement et rapidement, pas après 36h de balade aux
quatre coins du net...
Et maintenant que le lien pointe dans les choux, ça en devient totallement
ridicule...
[^] # Re: Réinventer la roue
Posté par calandoa . En réponse à la dépêche Anjuta 1.2. Évalué à 2.
Bon je suppose que si je lisais le f****** manual je comprendrais un peu mieux ce qui se passe, et par exemple comment on charge le plug in c++, mais ça commence à faire beaucoup de temps investi juste pour tester un soft...
Il y aurait pas un tutoriel qui traine, ou queqlqu'un qui veuille bien m'expliquer comment arriver sur un environnement de dev C++ digne de ce nom?
# Re: Anjuta 1.2
Posté par calandoa . En réponse à la dépêche Anjuta 1.2. Évalué à 1.
[^] # Re: Transfert s'arrête
Posté par calandoa . En réponse à la dépêche Transfert s'arrête. Évalué à 3.
C'est un portail vers des articles sur d'autres sites...
[^] # Re: xterm & la souris
Posté par calandoa . En réponse au message [Terminal] xterm & la souris. Évalué à 1.
[^] # Re: Changer
Posté par calandoa . En réponse au message [Editeur] Changer. Évalué à 1.
Le prb c'est que ^M ça fait un retour au début de la même
ligne, pas de la suivante... il suffit de mettre un ^J me direz vous?
Ben sed n'est pas d'accord...:
sed: -e expression #1, char 4: Unterminated `s' command
[^] # Re: Bill Gates dans la Matrix
Posté par calandoa . En réponse à la dépêche Bill Gates dans la Matrix. Évalué à 3.
Et sans vouloir faire dans le pro-microsoft, je trouve ça assez risible que y en a qui prennent ça au serieux sous pretexte que windows-c-est-nul et linux-c-est-baleze...
On peut taper sur bill gates pour pas mal de raisons, mais pas parce qu'il a un peu plus d'humour que le linuxien moyen frustré qu'on dise du mal de son os...