-alwaysdata, tout joli sur le papier, mais (bien que le stockage soit de 100Mo) : au bout de six mois sans aller sur l'interface webftp (non, pas l'interface administration de votre CMS préféré, mais le webftp), le site disparait. Trois mois un premier avertos pour vous informer que le compte est désactivé, plus trois mois pour tout supprimer.. De bleu, je croyais qu'en RGPD, c'était moi le maitre de mes données (je ne veux pas qu'elles disparaissent), et non le fournisseur?
On demande effectivement à nos clients qui ont un compte gratuit de se connecter tous les 3 à 12 mois (en fonction de l'ancienneté) à l'interface d'administration, tout simplement pour pouvoir détecter les comptes abandonnés et les supprimer.
On prévient naturellement nos clients en envoyant des mails à J-30, J-7 et J-2 avant la suspension (qui déclenche un nouveau mail). Il suffit de se connecter pour réactiver le compte. C'est seulement après 30 jours de suspension qu'on supprime les données. Certains fournisseurs de mail (en particulier Gmail) ont hélas tendance à mettre ces mails dans les spams, c'était peut-être ton cas.
J'ajoute qu'il n'y a pas de rapport avec le RGPD, qui n'oblige évidemment pas les fournisseurs à conserver éternellement les données gratuitement, au contraire.
Enfin, les 100 Mo d'espace disque seront fortement augmentés dans les prochains mois :)
Franchement, si le coût n'est pas un problème, va chez un hébergeur pro ayant une connectivité irréprochable (style Level3). Tu auras certainement (au moins) les mêmes débits qu'avec des machines situés dans le pays, sans la complexité d'avoir à gérer 3 machines et surtout, *avec* la garantie de débit, ce que ne proposent jamais les « low cost » à la OVH/Dedibox. Et tu auras un meilleur support.
Tu n'as pas précisé tes besoins en bande passante (1, 10, 100 Mbps ?).
Néanmoins je te conseillerais OVH. Je ne sais pas ce à quoi tu fais référence à propos des 900 euros, et de toute façon la bande passante n'est pas garantie. Pour info, le Mbps garanti tourne autour des 15 euros par mois, suivant le volume... évidemment aux alentours de 100 euros tu trouveras rien.
Sinon Dedibox c'est pas terrible en dehors de la France. Je déconseille si tu veux une bonne présence en Europe.
Enfin la solution que tu as évoquée, à savoir faire ton propre CDN, est sans doute la meilleure mais aussi la plus chère et la plus complexe.
PS : j'ai plusieurs bécanes chez OVH et chez Dedibox.
Il me semble que c'est ce que propose http://del.icio.us , bien que n'utilisant pas le service. C'est même plus que ça, c'est un réseau social de marque-pages, mais ce que tu désires est supporté.
Citations du site :
Keep all your bookmarks in delicious and access them from home, office, anywhere.
Avant d'avoir son propre nom de domaine, AltaVista était hébergé sur http://www.altavista.digital.com/(...) dont archive.org a une version remontant à mai 1996, soit presque 10 ans :-)
Je pense que tu confonds avec les exokernels, qui sont effectivement très proches dans l'idée de la virtualisation.
Un micro-noyau, en revanche, contient beaucoup plus de fonctionnalités (L4 est un peu à part et pourrait presque être appelé un nano-noyau, tellement il propose peu de choses).
Certes, l'existence de la citation était mentionnée dans le journal, mais ni son contenu, ni un lien pour le lire. Je l'ai donc incluse dans mon commentaire parce que ça me semble être une précision pertinente dès lors qu'on choisit de débattre sur le sujet.
Full-disclosure update: When we first wrote these "10 things" four years ago, we included the phrase "Google does not do horoscopes, financial advice or chat." Over time we've expanded our view of the range of services we can offer –- web search, for instance, isn't the only way for people to access or use information -– and products that then seemed unlikely are now key aspects of our portfolio. This doesn't mean we've changed our core mission; just that the farther we travel toward achieving it, the more those blurry objects on the horizon come into sharper focus (to be replaced, of course, by more blurry objects).
Je ne commenterai pas les points 1 et 2, ne m'étant pas plongé dans les méandres du code.
Concernant le point 3, c'est effectivement un problème crucial et général. Il arrive malheureusement que des programmes dépendent, volontairement ou non, de détails d'implémentation qui sont suceptibles de changer à tout moment (effets de bord, fonctions non documentées, etc.).
Je pense qu'on ne devrait pas se retenir de changer (et améliorer) une implémentation sous prétexte que des programmes bogués en dépendent. Comme le dit Theo, c'est un peu dur au début, le temps de corriger les programmes, mais au final tout le monde y gagne : le système étant moins laxiste, il laisse passer moins de bugs.
Mais c'est parfois plus facile à dire qu'à faire. Microsoft, garant de la sacro-sainte compatibilité, a souvent préféré faire l'inverse. Le blog « The Old New Thing » de l'un des programmeurs du noyau de Windows regorge d'histoires croustillantes expliquant certains choix techniques pris historiquement par Microsoft (au hasard http://blogs.msdn.com/oldnewthing/archive/2003/12/24/45779.aspx(...) ). Je me rappelle notamment qu'une faille avait dû être insérée dans le noyau de Windows 95 uniquement car Sim City en dépendait, et sortir un nouveau Windows incompatible avec l'un des jeux phares du moment aurait été impensable (invendable).
Non, aucun accès privilégié n'est nécessaire, il suffit d'écrire un pilote pour le système invité (disons Windows) qui émule, par exemple, la carte graphique ou la carte son. C'est comme ça que ça marche déjà avec VMWare, ils fournissent des pilotes Windows à installer.
Pour la 3D par exemple, puisqu'on parle de jeu, le pilote Windows (Direct3D) ne ferait que « traduire » les appels qui lui sont faits par les jeux en appels OpenGL vers la machine hôte. Nullement besoin d'accès privilégié, on émule.
Tout simplement parce que le logiciel doit émuler le CPU, or les x86 sont extrêmement complexes, d'où les bugs.
La virtualisation dans les CPU est presque triviale : en gros, le logiciel hôte dit au CPU : exécute-moi tel code (l'OS invité) avec quelques protections autour, et le CPU exécute à peu près « normalement » le code invité, à peu près comme si c'était n'importe quel code.
Donc le CPU rajoute un peu de sucre autour, mais il n'émule rien. Ce n'est qu'une gestion de contexte.
En très gros, c'est une technologie qui permet d'émuler un CPU (voire tout un système). Jusqu'à aujourd'hui, c'était fait logiciellement, donc lent (VMWare Workstation, Virtual PC de Microsoft, l'excellent logiciel libre QEMU de Fabrice Bellard).
Intel et AMD s'apprêtent à intégrer des technologies de virtualisation dans leurs processeurs (au moyen d'un nouveau jeu d'instruction), ce qui permet de faire la même chose, mais beaucoup plus rapidement (à vitesse native), et donc a priori de démocratiser la chose et de la rendre utile alors que ça ne l'était pas jusqu'à maintenant.
Oula, de quoi tu parles ? La virtualisation desktop, c'est un VMWare Workstation ou QEMU qui laisse le CPU (équipé de VT ou Pacifica) faire ce qui est fait aujourd'hui logiciellement, mais plus rapidement.
Il ne s'agit pas de donner accès au système invité aux périphériques physiques. L'hôte simule des périphériques (carte graphique, carte réseau), exactement comme ce qui est fait aujourd'hui, mais moins rapidement. Ça permet d'avoir son OS invité dans une fenêtre de l'OS hôte, les deux fonctionnant parallèlement.
Pourtant combien de linuxiens ont un double boot parce que telle ou telle appli ne passe pas sous Linux ? Combien d'utilisateur de Windows seraient susceptibles de passer totalement à Linux s'il était possible de jouer à tous les jeux sans avoir à redémarrer sous Windows ou à galérer avec Wine ?
Évidemment, ce n'est pas un fin en soi, mais c'est comme les drivers non-libres de NVidia ou ATI : c'est pas l'idéal, mais c'est quand même mieux avec.
... pour les linuxiens, cela devrait nous permettre de faire tourner Windows (et n'importe quel autre OS) sous Linux, à vitesse quasi native, et sans problème de compatibilité.
Mais quel dommage qu'Intel et AMD n'aient pas adopté une norme commune, ça promet encore un beau bordel dans le futur et des transistors qui ne servent à pas grand chose :(
Non, Ext3 activait la journalisation totale par défaut dans sa version 1. À partir de la version 2, c'est par défaut uniquement la journalisation des méta-données, comme ReiserFS. Je suppose que cela avait plus de sens de choisir par défaut la solution qui convient le mieux à 99 % des utilisateurs.
Quant aux benchmarks, je ne sais pas auxquels tu fais référence, mais je te conseille de changer de sources. Les quelques benchmarks que j'ai trouvés : soit spécifient dans quel mode ils utilisent Ext3, soit lorsque ce n'est pas spécifié, on peut supposer qu'il s'agit de la journalisation par défaut (méta-données uniquement).
Il faudrait être tordu pour changer le mode de journalisation et ne pas le mentionner dans ses résultats. Même Namesys ne le fait pas.
Bien sûr, ReiserFS peut aussi le faire, mais concrètement ce n'est pas vraiment utilisable en pratique sachant que toutes les données doivent être écrites deux fois sur le disque... les performances s'écroulent.
Autant utiliser du RAID si on a vraiment besoin d'une sécurité maximale (en plus des UPS).
Les systèmes de fichiers journalisés ne garantissent pas la non corruption des données mais la non corruption du système de fichiers en lui-même (les méta-données).
Cela garantit (en théorie) que le système de fichiers restera sain, mais le contenu des fichiers, lui, peut parfaitement être corrompu si, par exemple, la coupure intervient pendant l'écriture d'un fichier (le début du fichier peut être valide mais pas la fin).
Bien que celle par défaut soit vraiment bien, ça permet de varier un peu le style (notamment pour se différencier si tout le monde autour de soi utilise déjà LaTeX).
Je suis passé à LaTeX il y a environ un an et demi, et je ne regrette absolument pas mon choix. J'ai réalisé pas mal de documents avec (thèse, CV, articles, rapports et même présentations « à la Powerpoint » avec Beamer), et le résultat fait bien souvent pâlir d'envie mes camarades.
Même ma copine, non informaticienne et formée à Office comme tout le monde, y est passée après que je l'aie forc^Hencouragée. Elle non plus ne regrette pas un instant.
Tu as bien résumé le gros point fort de LaTeX : on s'occupe avant tout du fond. Parmi les autres avantages :
- c'est portable (Linux, MacOS, Windows, et vraisemblablement bien d'autres), il ne suffit que d'un éditeur de texte pour écrire son document.
- c'est stable et pérenne. LaTeX date d'il y a une vingtaine d'années et ne disparaitra probablement pas demain. Non seulement les documents réalisés à l'époque sont parfaitement utilisables aujourd'hui, mais cela garantit également qu'on n'apprend pas un outil que l'on devra réapprendre quelques années plus tard. À comparer avec Word ou tout autre traitement de texte d'il y a 20 ans... les documents sont aujourd'hui inutilisables et l'interface n'a plus rien à voir avec un Word récent.
- les centaines de packages disponibles permettent d'étendre les possibilités de LaTeX pour faire à peu près n'importe quoi avec (diagrammes, présentation, etc.), tout en gardant la même philosophie (le fond dissocié de la forme).
- c'est libre dans tous les sens du terme.
- on peut frimer auprès des camarades.
Pour autant, LaTeX n'est pas exempt de défauts. Certaines tâches sont franchement peu pratiques à réaliser, comparé à un traitement de texte classique (tableaux, faire une page de garde, gestion des encodages, etc.). Et les erreurs de compilation sont pas toujours très claires, même si avec l'habitude on commence à les connaître. J'ai bien souvent pesté pendant la réalisation d'un document à causes de ça.
Et puis évidemment, c'est difficile à apprendre. Étant informaticien (et programmeur), ça va, mais j'imagine difficilement un utilisateur lambda s'y mettre tout seul. Mais bon, comme dit plus haut, c'est hautement rentable... J'ai quelque espoir de ne pas avoir à réapprendre un autre traitement de texte avant quelques années, voire décennies (soyons fous).
Pour faire mes documents, j'utilise Kile sous Linux. C'est un éditeur non WYSIWYG mais qui dispose de tout le confort que l'on peut espérer (complétion minimale, coloration syntaxique, accès aux commandes usuelles et moins usuelles via les menus, compilation et visualisation automatique, etc.). J'aurais tendance à dire qu'un éditeur WYSIWYG pour LaTeX serait un peu un contre-sens, mais pour commencer pourquoi pas.
Pour l'interligne, un \usepackage{doublespace} suffit.
Pour les marges, tu as le package vmargin (par exemple : \setmarginsrb{2cm}{1cm}{2cm}{1cm}{0cm}{0cm}{0cm}{0cm}).
Pour la taille de tes polices, ça se choisit dès le début : \documentclass[a4paper,11pt]{article} (tu peux mettre 12pt si tu veux plus gros).
Bon courage, ne cède pas à la première envie de retourner sous Word, et abuse de Google (surtout Google Groups) pour t'aider lorsque tu cherches à faire quelque chose de particulier sous LaTeX.
Étant moi-même sous Ubuntu (Hoary), j'ai pas mal galéré pour signer ma déclaration. Contrairement à toi, j'avais un message d'erreur peu explicite m'invitant à réessayer plus tard. Après de nombreux essais étalés sur plusieurs jours et plages horaires différentes, j'ai eu un doute, et il s'est avéré que ça venait de moi.
Concrètement, il faut faire quelques manips au niveau des locales (rien de bien méchant). Tu peux trouver les détails sur le lien suivant, dans la section « Déclarer et signer » : http://www.abul.org/article293.html(...)
En espérant que ça règle ton problème... et que ce ne soit pas trop tard.
J'ai déjà eu ce problème (Firefox, xft + gtk2). Il a disparu depuis que j'ai tripatouillé la résolution d'affichage (Preferences/General/Fonts & Colors/Display resolution).
De mémoire, je devais être en "System setting", ce qui posait ce problème de rognement. En passant en 96 dpi tout est revenu dans l'ordre.
Pour info :
> xdpyinfo | grep resolution
resolution: 90x90 dots per inch
[^] # Re: Mon avis
Posté par Lagoon . En réponse à la dépêche La mort lente de TuxFamily : pensez à déplacer vos projets ailleurs. Évalué à 10 (+15/-0).
On demande effectivement à nos clients qui ont un compte gratuit de se connecter tous les 3 à 12 mois (en fonction de l'ancienneté) à l'interface d'administration, tout simplement pour pouvoir détecter les comptes abandonnés et les supprimer.
On prévient naturellement nos clients en envoyant des mails à J-30, J-7 et J-2 avant la suspension (qui déclenche un nouveau mail). Il suffit de se connecter pour réactiver le compte. C'est seulement après 30 jours de suspension qu'on supprime les données. Certains fournisseurs de mail (en particulier Gmail) ont hélas tendance à mettre ces mails dans les spams, c'était peut-être ton cas.
J'ajoute qu'il n'y a pas de rapport avec le RGPD, qui n'oblige évidemment pas les fournisseurs à conserver éternellement les données gratuitement, au contraire.
Enfin, les 100 Mo d'espace disque seront fortement augmentés dans les prochains mois :)
[^] # Re: Herbergement
Posté par Lagoon . En réponse à la dépêche Sortie de Ruby on Rails 2.0. Évalué à 2.
[^] # Re: OVH
Posté par Lagoon . En réponse au journal Serveur dédié de qualité. Évalué à 1.
[^] # Re: Bande passante
Posté par Lagoon . En réponse au journal Serveur dédié de qualité. Évalué à 3.
J'ai eu de très bons échos de zonepro : http://www.zonepro.fr/ mais il y en a d'autres.
# OVH
Posté par Lagoon . En réponse au journal Serveur dédié de qualité. Évalué à 3.
Néanmoins je te conseillerais OVH. Je ne sais pas ce à quoi tu fais référence à propos des 900 euros, et de toute façon la bande passante n'est pas garantie. Pour info, le Mbps garanti tourne autour des 15 euros par mois, suivant le volume... évidemment aux alentours de 100 euros tu trouveras rien.
Sinon Dedibox c'est pas terrible en dehors de la France. Je déconseille si tu veux une bonne présence en Europe.
Enfin la solution que tu as évoquée, à savoir faire ton propre CDN, est sans doute la meilleure mais aussi la plus chère et la plus complexe.
PS : j'ai plusieurs bécanes chez OVH et chez Dedibox.
[^] # Re: Hebergement mutualisé
Posté par Lagoon . En réponse au journal Serveur Virtuel "pas cher". Évalué à 1.
Si l'asso rentre dans les critères (humanitaire/caritatif/logiciels libres), c'est gratuit, sinon ça commence à 50 ¤ par an.
# Delicious ?
Posté par Lagoon . En réponse au journal Idée: Marque-pages et RSS. Évalué à 8.
Citations du site :
Keep all your bookmarks in delicious and access them from home, office, anywhere.
Accès à ses marque-pages par RSS :
User: del.icio.us/rss/joe
[^] # Re: Google, c'est pas...
Posté par Lagoon . En réponse au journal humour google traduction. Évalué à 6.
http://web.archive.org/web/19960511013133/http://www.altavista.digi(...)
[^] # Re: Retour des micro-noyaux
Posté par Lagoon . En réponse au journal La virtualisation directement dans le CPU. Évalué à 3.
Un micro-noyau, en revanche, contient beaucoup plus de fonctionnalités (L4 est un peu à part et pourrait presque être appelé un nano-noyau, tellement il propose peu de choses).
Sinon Linux sur L4 ça existe déjà avec L4Linux http://os.inf.tu-dresden.de/L4/LinuxOnL4/(...)
[^] # Re: Précisions
Posté par Lagoon . En réponse au journal Plus que deux. Évalué à 6.
Non ?
# Précisions
Posté par Lagoon . En réponse au journal Plus que deux. Évalué à 7.
Full-disclosure update: When we first wrote these "10 things" four years ago, we included the phrase "Google does not do horoscopes, financial advice or chat." Over time we've expanded our view of the range of services we can offer –- web search, for instance, isn't the only way for people to access or use information -– and products that then seemed unlikely are now key aspects of our portfolio. This doesn't mean we've changed our core mission; just that the farther we travel toward achieving it, the more those blurry objects on the horizon come into sharper focus (to be replaced, of course, by more blurry objects).
Après, on en pense ce qu'on veut...
# Choix cornélien
Posté par Lagoon . En réponse au journal "Improved Memory Allocation" dans OpenBSD 3.8. Évalué à 5.
Concernant le point 3, c'est effectivement un problème crucial et général. Il arrive malheureusement que des programmes dépendent, volontairement ou non, de détails d'implémentation qui sont suceptibles de changer à tout moment (effets de bord, fonctions non documentées, etc.).
Je pense qu'on ne devrait pas se retenir de changer (et améliorer) une implémentation sous prétexte que des programmes bogués en dépendent. Comme le dit Theo, c'est un peu dur au début, le temps de corriger les programmes, mais au final tout le monde y gagne : le système étant moins laxiste, il laisse passer moins de bugs.
Mais c'est parfois plus facile à dire qu'à faire. Microsoft, garant de la sacro-sainte compatibilité, a souvent préféré faire l'inverse. Le blog « The Old New Thing » de l'un des programmeurs du noyau de Windows regorge d'histoires croustillantes expliquant certains choix techniques pris historiquement par Microsoft (au hasard http://blogs.msdn.com/oldnewthing/archive/2003/12/24/45779.aspx(...) ). Je me rappelle notamment qu'une faille avait dû être insérée dans le noyau de Windows 95 uniquement car Sim City en dépendait, et sortir un nouveau Windows incompatible avec l'un des jeux phares du moment aurait été impensable (invendable).
[^] # Re: Bonne nouvelle...
Posté par Lagoon . En réponse au journal La virtualisation directement dans le CPU. Évalué à 2.
Pour la 3D par exemple, puisqu'on parle de jeu, le pilote Windows (Direct3D) ne ferait que « traduire » les appels qui lui sont faits par les jeux en appels OpenGL vers la machine hôte. Nullement besoin d'accès privilégié, on émule.
[^] # Re: super codeurs ?
Posté par Lagoon . En réponse au journal La virtualisation directement dans le CPU. Évalué à 7.
La virtualisation dans les CPU est presque triviale : en gros, le logiciel hôte dit au CPU : exécute-moi tel code (l'OS invité) avec quelques protections autour, et le CPU exécute à peu près « normalement » le code invité, à peu près comme si c'était n'importe quel code.
Donc le CPU rajoute un peu de sucre autour, mais il n'émule rien. Ce n'est qu'une gestion de contexte.
[^] # Re: Un peu d'aide...
Posté par Lagoon . En réponse au journal La virtualisation directement dans le CPU. Évalué à 4.
En très gros, c'est une technologie qui permet d'émuler un CPU (voire tout un système). Jusqu'à aujourd'hui, c'était fait logiciellement, donc lent (VMWare Workstation, Virtual PC de Microsoft, l'excellent logiciel libre QEMU de Fabrice Bellard).
Intel et AMD s'apprêtent à intégrer des technologies de virtualisation dans leurs processeurs (au moyen d'un nouveau jeu d'instruction), ce qui permet de faire la même chose, mais beaucoup plus rapidement (à vitesse native), et donc a priori de démocratiser la chose et de la rendre utile alors que ça ne l'était pas jusqu'à maintenant.
[^] # Re: Bonne nouvelle...
Posté par Lagoon . En réponse au journal La virtualisation directement dans le CPU. Évalué à 5.
Il ne s'agit pas de donner accès au système invité aux périphériques physiques. L'hôte simule des périphériques (carte graphique, carte réseau), exactement comme ce qui est fait aujourd'hui, mais moins rapidement. Ça permet d'avoir son OS invité dans une fenêtre de l'OS hôte, les deux fonctionnant parallèlement.
[^] # Re: Bonne nouvelle...
Posté par Lagoon . En réponse au journal La virtualisation directement dans le CPU. Évalué à 10.
Évidemment, ce n'est pas un fin en soi, mais c'est comme les drivers non-libres de NVidia ou ATI : c'est pas l'idéal, mais c'est quand même mieux avec.
# Bonne nouvelle...
Posté par Lagoon . En réponse au journal La virtualisation directement dans le CPU. Évalué à 1.
Mais quel dommage qu'Intel et AMD n'aient pas adopté une norme commune, ça promet encore un beau bordel dans le futur et des transistors qui ne servent à pas grand chose :(
[^] # Re: Reiserfs
Posté par Lagoon . En réponse au journal Système de fichier et serveur en prod. Évalué à 2.
Quant aux benchmarks, je ne sais pas auxquels tu fais référence, mais je te conseille de changer de sources. Les quelques benchmarks que j'ai trouvés : soit spécifient dans quel mode ils utilisent Ext3, soit lorsque ce n'est pas spécifié, on peut supposer qu'il s'agit de la journalisation par défaut (méta-données uniquement).
Il faudrait être tordu pour changer le mode de journalisation et ne pas le mentionner dans ses résultats. Même Namesys ne le fait pas.
[^] # Re: Reiserfs
Posté par Lagoon . En réponse au journal Système de fichier et serveur en prod. Évalué à 2.
Autant utiliser du RAID si on a vraiment besoin d'une sécurité maximale (en plus des UPS).
[^] # Re: Reiserfs
Posté par Lagoon . En réponse au journal Système de fichier et serveur en prod. Évalué à 4.
Cela garantit (en théorie) que le système de fichiers restera sain, mais le contenu des fichiers, lui, peut parfaitement être corrompu si, par exemple, la coupure intervient pendant l'écriture d'un fichier (le début du fichier peut être valide mais pas la fin).
[^] # Re: a moi, a moi !
Posté par Lagoon . En réponse au journal LaTeX correspond-t-il à mes besoins?. Évalué à 1.
Bien que celle par défaut soit vraiment bien, ça permet de varier un peu le style (notamment pour se différencier si tout le monde autour de soi utilise déjà LaTeX).
# Excellente initiative
Posté par Lagoon . En réponse au journal LaTeX correspond-t-il à mes besoins?. Évalué à 6.
Même ma copine, non informaticienne et formée à Office comme tout le monde, y est passée après que je l'aie forc^Hencouragée. Elle non plus ne regrette pas un instant.
Tu as bien résumé le gros point fort de LaTeX : on s'occupe avant tout du fond. Parmi les autres avantages :
- c'est portable (Linux, MacOS, Windows, et vraisemblablement bien d'autres), il ne suffit que d'un éditeur de texte pour écrire son document.
- c'est stable et pérenne. LaTeX date d'il y a une vingtaine d'années et ne disparaitra probablement pas demain. Non seulement les documents réalisés à l'époque sont parfaitement utilisables aujourd'hui, mais cela garantit également qu'on n'apprend pas un outil que l'on devra réapprendre quelques années plus tard. À comparer avec Word ou tout autre traitement de texte d'il y a 20 ans... les documents sont aujourd'hui inutilisables et l'interface n'a plus rien à voir avec un Word récent.
- les centaines de packages disponibles permettent d'étendre les possibilités de LaTeX pour faire à peu près n'importe quoi avec (diagrammes, présentation, etc.), tout en gardant la même philosophie (le fond dissocié de la forme).
- c'est libre dans tous les sens du terme.
- on peut frimer auprès des camarades.
Pour autant, LaTeX n'est pas exempt de défauts. Certaines tâches sont franchement peu pratiques à réaliser, comparé à un traitement de texte classique (tableaux, faire une page de garde, gestion des encodages, etc.). Et les erreurs de compilation sont pas toujours très claires, même si avec l'habitude on commence à les connaître. J'ai bien souvent pesté pendant la réalisation d'un document à causes de ça.
Et puis évidemment, c'est difficile à apprendre. Étant informaticien (et programmeur), ça va, mais j'imagine difficilement un utilisateur lambda s'y mettre tout seul. Mais bon, comme dit plus haut, c'est hautement rentable... J'ai quelque espoir de ne pas avoir à réapprendre un autre traitement de texte avant quelques années, voire décennies (soyons fous).
Pour faire mes documents, j'utilise Kile sous Linux. C'est un éditeur non WYSIWYG mais qui dispose de tout le confort que l'on peut espérer (complétion minimale, coloration syntaxique, accès aux commandes usuelles et moins usuelles via les menus, compilation et visualisation automatique, etc.). J'aurais tendance à dire qu'un éditeur WYSIWYG pour LaTeX serait un peu un contre-sens, mais pour commencer pourquoi pas.
Pour l'interligne, un \usepackage{doublespace} suffit.
Pour les marges, tu as le package vmargin (par exemple : \setmarginsrb{2cm}{1cm}{2cm}{1cm}{0cm}{0cm}{0cm}{0cm}).
Pour la taille de tes polices, ça se choisit dès le début : \documentclass[a4paper,11pt]{article} (tu peux mettre 12pt si tu veux plus gros).
Bon courage, ne cède pas à la première envie de retourner sous Word, et abuse de Google (surtout Google Groups) pour t'aider lorsque tu cherches à faire quelque chose de particulier sous LaTeX.
# Problème de locales ?
Posté par Lagoon . En réponse au journal impots : declaration en ligne et signature - histoire d'un echec. Évalué à 2.
Concrètement, il faut faire quelques manips au niveau des locales (rien de bien méchant). Tu peux trouver les détails sur le lien suivant, dans la section « Déclarer et signer » : http://www.abul.org/article293.html(...)
En espérant que ça règle ton problème... et que ce ne soit pas trop tard.
# DPI
Posté par Lagoon . En réponse au journal Ecrasement des caractères avec Mozilla. Évalué à 6.
De mémoire, je devais être en "System setting", ce qui posait ce problème de rognement. En passant en 96 dpi tout est revenu dans l'ordre.
Pour info :
> xdpyinfo | grep resolution
resolution: 90x90 dots per inch