Compte tenu du fait que tout organisme voulant entrer dans la danse se doit de posséder un mécanisme de perception d'une part et qu'il se doit de reverser cette perception aux ayants-droits et aux éditeurs originels (avec la part des yants droits qui ne peut être inférieure à celle des éditeurs). L'auteur devrait y gagner normalement.(surtout vu que depuis dix ans minimum il ne gagne rien sur ces oeuvres).
anti-monopole : bof, on aura une SACEM de plus
C'est clair que c'est une dérive possible, mais au moins il s'agira d'une SACEM avec uen répartition paritaire entre les éditeurs et les auteurs, pas d'un système ou les sociétaires sont noyés dans la masse. Comme indiqué j'attend de voir quels organismes seront autorisés ou non. Si on dépasse la dizaine ce sera plutôt une nouvelle positive.
Comme d'habitude, agoravox se vautre de tout son long sur le contenu du texte de loi.
Tentative de traduction en langage non juridique par un (totalement) non juriste :
a) Le texte ne concerne QUE les livres qui ont été publiés en France avant le premier janvier 2001 et non réédités depuis sous quelques forme que ce soit. Les autres formats d'oeuvres ne sont pas impactées.
b) Un livre peut être déclaré comme indisponible auprès de la Bibliothèque Nationale de France, qui 1°) vérifie (elle a accès à la liste de toutes les publications) et 2°) ajoute le livre à la liste des livres indisponibles.
c) Si au bout de six mois aucun éditeur ou ayant droit n'a fait de demandes motivées pour justifier la non publication du livre de façon convaincante (comme par exemple la publication d'une oeuvre réécrite en lieu et place, le droit au repentir ou au retrait des auteurs ou que sais-je) un organisme spécialisé qui doit être composé de professionnels du livre peut demander une licence non exclusive d'exploitation pour 5 ans renouvelable.
d) Cet organisme doit être composé de dirigeants professionels du livre avec une diversité d'origine des associés et notamment une répartition paritaire entre les auteurs et les éditeurs. Cet organisme doit pouvoir justifier :
- d'un moyen de perception des ventes
- d'une répartition équitable du produit des ventes entre les différents ayants-droits, qu'ils soient liés ou non par contrat à l'éditeur originel. L'argent perçu par les ayants droits ne pouvant en aucun cas être inférieur à celui perçu par les éditeurs
- de la mise en place sérieuse de recherche des ayants droits qu'ils soient liés ou non par contrat à l'éditeur originel.
- de la défense des intérêts des différents ayants droits qu'ils soient liés ….
Cet organisme doit être approuvé par le ministre de la culture.
e) Si l'éditeur originel s'oppose à la publication par un tel organisme, il dispose d'un délais de deux ans pour reimprimer et redistribuer le livre. Faute de quoi son opposition saute.
f) Les bibliothèques accessibles au public disposent d'un droit à titre gratuit sur l'ensemble des oeuvres re-publiées en vertu de cette loi (i.e sur lesquelles ni l'auteur ni l'éditeur n'ont fait une opposition qui tienne la route).
Je me trompe peut-être, et il faut attendre de voir combien d'organismes vont se créer et comment ils seront approuvés ou non par le ministre de la culture. Mais là j'ai plutôt envie d'applaudir des deux mains. D'un point de vue d'un non initié il n'y a pas grand chose à redire à cette loi qui est à la fois pro-auteur, pro-diffusion et anti-monopole.
ET la celeber sentence "Nul n'est cense ignorer la loi" est fausse.
Elle est vraie, mais incomprise. Ce qu'elle signifie c'est que quel que soit tes raisons et ta situation, quand tu reçois une injonction d'une autorité légale tu es tenu de t'y soumettre.
En d'autre terme tu ne peux pas ignorer une décision de justice/arrété préfectoral/commandement judiciaire etc. Une fois que celui-ci t'a été soumis.
Non mais vous allez pas tous vous y mettre. Bien sur que c'est une analyse complètement biaisée, bien sur qu'il y a de très bon codeurs dans le proprio. Bien sur que la notion de "meilleur codeur C au mode" ne veut pas dire grand chose et bien sur également que quand on participe à une abomination comme Network Manager ca veut dire que sa compréhension du monde des Unixes et unix like en général, et du code C en particulier est forcément médiocre.
Donc oui, j'ai annoncé que Theo était le meilleur codeur du monde, et je m'attendais à ce que ca parte un peu en troll avec échange de diverses personnes qui donnent des noms de concurents potentiels. Ca a pas marché donc forcément (et sur demande) je rajoute une couche. Pourtant j'ai pas fait dans le détail avec Seymour Cray en meilleur codeur C du monde jusqu'à sa mort même si il n'a jamais écrit une ligne de code C. Mais non il y a quand même des gens pour le prendre au premier degré et m'expliquer que ma méthodologie n'est pas sérieuse ou scientifique.
De la part de Zenitram c'est presque classique (si on n'a pas de Zenitram dans les 5 premiers posts, c'est qu'on a raté son troll), mais les autres, un peu de jugeotte quoi…
Qu'est ce qui te fait dire que c'est le meilleur codeur C au monde?
Déjà il code exclusivement pour du (vraiment) libre, ce qui fait qu'il est forcément meilleur que ceux qui codent en proprio.
Ensuite il a plusieurs fois repris et corrigé du code écrit par Kernighan/Ritchie/Thompson ou Billy Joy dans le cadre de NetBSD puis de FreeBSD. Jamie Jawinski est devenu tenancier de bar et Seymour Cray est mort (bien que Seymour Cray n'ait jamais écrit une ligne de code en C il était quand même le meilleur codeur C au monde de son vivant. Paix à ton âme Seymour Cray :'( ).
La concurrence c'est qui donc ?
- Tanenbaum (Dont l'histoire est en train d eprouver que même si il code bien, il est pas complètement en phase avec certaines réalités)
- Alan Cox
- Linus Torvalds (si je le mets pas, les gens vont raler, alors que c'est un codeur de bon niveau mais sans plus)
- Robert Love ( qui était dans le top 10, puis il a participé à Network Manager…)
- Fabrice Bellard (Mais là on va nous accuser de chauvinisme)
- Michael Abrash (Zen timer is dead baby, Zen Timer is dead)
- Poul Henning Kamp (Lui aussi indiscutablement dans le top 10, et le pire c'est que vous ne savez même pas qui c'est…)
- Tom Lane (Vous savez le mec qui sait faire des systèmes de cache et qui bosse ni pour Oracle, ni pour MS)
Ce sont à peu prés les seuls à pouvoir prétendre au titre de meilleur codeur du monde. Après je peux défendre becs et ongle smon point de vue comme quoi Alan Cox et Theo de Raadt sont les meilleurs. Je dirais que la queue de liste est constitué par PHK et Robert Love (qui sont des brutes finies, on est d'accord, mais quand même un micro-poil en retrait par rapport aux autres). Quand à Fabrice Bellard, je sais pas trop. Il y a des fois ou je me dis qu'il est peut-être le meilleur, et d'autres fois ou je me dis qu'il souffre d'une forme étrange de déficit chronique d'attention qui le pousse à créer des projets complètement à l'ouest même si parfois très très utiles.
Il faut obtenir un score minimum de 25 % sur « l'échelle normalisée de Theo de Raadt ».
Sauf que Theo de Raadt est le meilleur codeur C du monde (Ex-aequo avec Alan Cox dont le code est légèrement moins portable mais légèrement plus rapide) et que je ne l'ai jamais vu cracher sur un contributeur. De plus Theo averti (souvent plusieurs fois) avant de mordre.
C'est un peu comme dire "je suis pilote de ligne dans le domaine du pilotage d'avions de ligne" ou "je suis informaticien dans le domaine de l'informatique, spécialisé dans les ordinateurs".
Oui, mais aujourd'hui le marketting frappe de plein fouet le domaine de la sécurité informatique. On parlera donc de chiffrement réversible par clef basé sur une infrastructure de clefs privées PKI. De mise en place de branche réseaux sécurisées virtuelles accesibles à distance par tunnels sécurisés par IP de type IPSEC/VPN avec distribution sur internet par protocole sécurisée double IKE/ESP. Ou encore de processus d'isolation des applications et de réduction de droits grâce aux techniques de sandoxing de mise en jail et de d'abandons de privileges.
Forcément au bout d'un moment ca devient une déformation professionnelle et on finit par devenir des professionnel de la profession, des experts du domaine avec une forte expertise dans le domaine ou encore des spécialiste de la spécialités spécialisé dans la spécificité concernée.
Par contre je n'ai pas vu d'UI "Faire un schéma qui en jette en Visio", or c'est devenu une donnée importante du métier, on peut bricoler avec du Dia retouché et recolorié sous InkScape, mais ça fait pas le même effet au client, et pour gagner des appels d'offres c'est plus compliqué.
C'est le principe de toute méthodologie agile pour faire dans le buzzword
Faire de l'agile quand tu n'as pas encore de client c'est la bonne méthode pour partir dans le mur, ou au mieux pur se retrouver avec pleins de fonctionnalités qui ne te servent à rien ou qui ne répondent plus au besoin. L'agile nécessite de savoir ou on va pour garder une certaine conhérence entre les modules.
Ensuite la méthode qui consiste à livrer très tôt un produit avec peu de fonctionnalités et à developper au fur et à mesure les fonctionnalités en fonction des retours clients c'est pas de l'agile. C'est plus proche de la RACHE comme approche. C'est la fameuse méthode "si le client s'en rend compte/en a besoin/le demande on developpe, sinon on laisse tel quel". C'est typiquement la méthode utilisée par OVH en ce moment sur ce produit.
Ca te permet d'évoluer très facilement et plutôt que de bourriner bêtement, en se disant qu'on verra plus tard
Ben il y a pas de bourrinage bête (les problèmes de tenue de charge ne sont que très rarement le résultat d'un bourrinage, au contraire quand on bourrine on a plutôt tendance à se retrouver avec des trucs disproportionnés par rapport au besoin) quand au "on verra plus tard" c'est par contre nécessaire dans toutes les approches. Le mec qui pense pouvoir créer un produit parfait dès le début se ramasse systématiquement. La méthode que tu cites avec petits ajouts par couches c'est du "on verra plus tard". Bien sur il faut que la possibilité reste ouverte pour éviter de casser l'existant, mais pour l'implémentation ben … On verra plus tard.
Et ma remarque soulignait que certains sont les champions du vite fait, mal fait, jamais fixé.
Ta remarque visait l'implémentation OVH en disant que c'était du vite fait mal fait. Or si je suis d'accord sur le vite fait, je ne désapprouve le mal fait. OVH livre un service complet doccumenté et basé sur des standards ouverts. Avec en sus un client windows pour les non techniques. Mais ca n'en fait pas un produit mal fait. Il est sous dimensionné par rapport à la demande (mais le contraire aurait été une prise de risque déraisonable) et il est en retrait niveau fonctionnalités par rapport à d'autres produits (mais tu sembles approuver au moins cette partie de l'approche). Donc que reproches-tu au service OVH tel qu'il existe aujourd'hui ? Des promesses non tenues ? Des fonctionnalités dues mais non présentes ? Des performances limités par rapport aux specs ? Tu n'as pas vu la signalétique "beta" et "alpha" sur les services ? Tu n'as pas remarqué que le produit en vente était exclusivement sur android pour l'instant ?
Le rapport avec ce dont je parle ? Faire de l'hosting c'est une autre problématique.
Là il va falloir que tu m'expliques lentement la différence entre sauvegarder des données dans le cloud, et sauvegarder des données dans le cloud. Parceque personellement j'ai du mal. Tu perçois peut-être le service hubic comme autre chose qu'un disque hébergé dans le cloud OVH, mais techniquement OVH ne vend pas autre chose. Les services autour sont pour l'instant exclusivement en vente pour android, et sous android ca marche plutôt bien.
Faire les choses de manière carrée, pro et lancer un service qui marche, quitte a fournir des features de façon incrémentales ca coute pas plus cher c'est même l'inverse.
Quand tu copies une architecture connue oui, quand tu mets en place un nouveau service non. Regarde les commentaires, 80% du thread compare le service à DropBox, alors que bon il n'y a pas vraiment de rapport entre les deux. L'un des deux est un espace de stockage webdav orienté utilisation personelle/entreprise alors que l'autre est un espace de stockage au format propriétaire orienté partage.
La première question est "est-ce que le service OVH va interresser du monde ?" apparament la réponse est oui. La seconde question est "Quelles fonctionnalités vont vouloir les utilisateurs" là la réponse semble être "faciliter le partage". Mais ca aurait pu être du chiffrement, de la création de sous-disques isolés, un accès aux partitions en mode raw ou compressed raw etc.
Difficile de savoir sans lancer le service, difficile d'investir massivement dans une optique sans tester (perso je suis plus interressé par du compressed raw qui me permettrait de faire du SAN réparti pour des bases en NO-SQL mais il semblerait que je sois seul dans ce cas)
Une boite qui n'est pas capable de gérer son dev correctement
Ils savent gérer leur dev correctement. La preuve : ca marche et ils ont un succès qui dépasse systématiquement leurs espérances. Ils ont une excellente maitris des outils et des techno "cloud", notamment une bonne maitrise des outils VMWare et ils sont plutôt bien placés sur le marché quand on regarde le rapport qualité/prix.
_, perso je lui confie ni mes données ni mon site web. Et c'est triste qu'en 2012 on en soit encore là. _
C'est triste que tu en sois encore là en 2012 en effet. Perso j'ai des dizaines de serveurs chez OVH, avec un taux de pannes hardware très faible (et systématiquement des problèmes d'alim d'ailleurs - trois alims changées en quatre ans). Maintenant OVH c'est pas du serveur multi-redondant avec triple backup logique et copie d'architecture complet sur site distant, mais c'est pas le même prix. Personellement sur mes serveurs critiques je triple les instances, et j'ai un taux de disponibilité délirant (deux heures de pannes en quatre ans sur mes serveurs mails par exemple, et en plus des interruptions partielles de services sans pertes de données) pour un prix délirant lui aussi (moins de 300€ H.T/mois, même pas le prix de la bande passante seule chez 90% des hébergeurs pros).
Mince il me semblait que c'était "on commence à l'arrache et on fera un nouveau truc à l'arrache dans quelque mois"
C'est l'avantage d'avoir des banques qui ne veulent pas financer, des investisseurs locaux qui rigolent en voyant les business plan et des instances gouvernementales qui filent leur fric à Bull quasi exclusivement.
Free s'est fait foutre de sa gueule un nombre incalculable de fois, quand ils ont mis en place le système teaser (vous faites du minitel rose les gars, internet ca sert à rien et vous allez pas savoir faire), quand Orange leur a ouvert tous les NRA juste pour montrer à l'UE qu'ils n'abusaient pas de leur position dominante (Bon les gars vous êtes nuls et tout petits, donc pas dangereux. On va vous filer l'accès à nos infras juste pour pouvoir éviter de les ouvrir un peu plus longtems à nos vrais concurents), quand ils ont lancés l'offre gratuite (Internet gratuit illimité sur ligne analogique, mais ca sert à rien en France et puis ca n'interresse personne. D'ailleurs on a toujours le minitel alors..) etc. jusqu'à la bataille pour que Free ne fasse pas de téléphonie mobile.
OVH c'est pareil, très peu de financements extérieurs, aucune reconnaissance, pas mal de gens qui se foutent de leur gueule en permanence (Ca sert à quoi une interco à Roubaix ? Fabriquer vos propre machine ? Laissez ça aux pros les gars… Un datacenter sans clim ? Vous avez fumé les gars).
Et malgré tout ce sont des boites qui progressent à toute allure, qui gagnent (beaucoup) d'argent et qui jouissent d'une très bonne réputation à l'étranger.
Donc oui, faute de moyens ils utilisent la méthode RACHE en permanence pour faire fasse aux évolutions permanentes des réseaux (la durée de vie d'une infra interconnectée ets de l'ordre de 24 mois). Mais ca marche, et ca marche suffisament bien pour qu'ils puissent continuer à grossir chaque année. Et il n'y a guère plus que les français qui les prennent de haut aujourd'hui. J'imagine que nul n'est prophète en son pays…
Bah genre ils meurent de maladies qui ont disparu chez nous ?
Et ils évitent d'autres maladies qui ne sont pas encore apparues chez eux. Entre choléra et staphilocoque doré mon coeur balance.
Le truc étant qu'en période de calme les problèmes sanitaires liés à la nouriture sont moins fréquents et moins graves dans les petits villages de la région de goa que dans les élevages britaniques.
Et allez faisons un amalgame entre élevage et élevage intensif. Indice chez vous : l'adjectif a du sens.
J'imagine que cela fait référence à la phrase du dessus, (parcequ'un boeuf même élevé à l'ancienne et en plein air consommera toujours plus d'espace de culture que ce qui aurait été nécessaire pour fournir une quantité comparable de nouriture). Mais revenons à notre élevage intensif. Il s'agit du mot au sens large, c'est à dire avec un objectif de productivité à la clef. Pas forcément un élevage en batterie. En d'autres termes tout ce qui pousse à choisir une race de bestiau parceque c'est elle qui produit le plus de viandes et à lui filer la nourriture qui a le meilleur rapport nutrition/prix. On se retrouve au final avec de la tournante du mouton et de la vache folle, des dioxines dans le poulet et des espèces qui disparaissent ou se "surspécialisent". Au final il y a toujours une bactérie à la con, un virus idiot ou autre qui y trouve son compte et qui se répand comme une trainée de poudre.
Alors, qui a raison, les européens en minorité intolérant au lactose, ou les asiatiques sains qui n'ont pas le gène pour digérer leur lait bio
Les extrèmes-orientaux, particulièrement les Japonais, mais de façon générale toutes les populations qui vivent dans des régions montagneuses impropres à l'élevage de bovins (c'est à dire région montagneuse+terre trop sèche ou trop humide pour faire du fourrage l'hiver) sont intolérants au lactose pour cause de non exposition à celui ci pendant des générations.
Les européens qui possèdent le géne, mais qui sont intolérants quand même parceque surexposés sont un réel indicateur d'une mauvaise voie choisie pour l'alimentation en général dans nos pays.
Oui et un tas d'infections, de bactéries, et autres joyeusetés, passent les filtres inexistants dans ces pays. À choisir…
C'est à se demander comment font les pays qui ne stérilisent pas leur lait et qui ne filent pas d'antibiotiques à leurs poulets. On me souffle à l'oreillette que dans les pays sans élevages intensifs ces problèmes sont rares. Un coup de chance sans doute.
Rétablissons le droit de chasse réservé à la noblesse. On sera bien forcé de revenir à une alimentation saine. Celle où une mauvaise récolte tous les 10 ans provoquait une famine qui éradiquait 20% de la population.
C'est clair que le problème de famine a été résolu par la nouriture carnée. Par exemple c'est l'ouverture de la chasse à la patate qui a sauvé les Irlandais… Au fait on me souffle à l'oreillette (encore) qu'il faut de meilleures récoltes pour nourrir les animaux qui vont nourrir les humains que pour nourrir les humains directement avec les produits de l'agriculture. Mais alors en cas de mauvaise récolte que se passerait-il ? On continue à nourrir les bestiaux quitte à ne pouvoir nourrir qu'une portion de la population ou on s'ouvre un peu au régime végétarien.
Un bon 50% des humains sont intolérants au lait d'autres animaux. Parce que le seul animal naturellement apte à boire du lait de vache, c'est le veau. Et le seul lait adapté à l'homme, c'est le lait de femme. Et ainsi de suite.
C'est clair, les gens qui boivent du lait sans intolérance c'est une race à part, en occident. Curieusement dans les pays ou on ne fout pas des dérivés de lactose dans tous les produits et ou on alterne entre plusieurs laits (vache, chèvre, brebis etc.) le problème ne se pose pas. C'est bien la preuve qu'il n'y a rien à changer dans notre mode de nutrition actuel et que les autres sont des idiots qui ne se rendent pas compte qu'il courrent à la catastrophe.
Oui et des générations d'africains vivent en guerre civile permanente et ils sont encore là.
Laissent leur le temps, ils ont reçus les vraies guerres tribales en même temps que la démocratie. Avant certaines ethnies avaient l'ascendant sur d'autres et les massacres étaient nettement plus modérés. Ethiquement c'est discutable comme solution, mais d'un point de vue de la survie de l'individu c'était plutôt meilleur.
L'homme est une espèce omnivore, le renier n'est pas beaucoup mieux que se croire purement carnivore.
L'homme est une espèce qui part essence renie ce qu'il est. L'homme ne peut pas voler, il ne peut pas se déplacer à plus de 30km/h. Il ne peut pas faire de trou dans les montagnes ou soulever des blocs de pierre de plusieurs tonnes.
La "mode" vegan et la philosophie qui va derrière sont des approches tout à fait raisonnées d'un changement majeur dans la vision du monde par l'homme. Bien que je n'en soit pas (j'adore la côte de boeuf béarnaise, bien saignante et persillée de fins fuseau de gras bien juteux, le tout coupé le plus proche de l'os possible à la française. Tu sais le genre de trucs ou tu entends tes artères se boucher à chaque morceau) bien que je n'en soit pas donc, je respecte grandement leur approche. L'homme peut parfaitement vivre et avoir un développement normal tout en étant complètement végétarien (et en faisant gaffe à la B12 comme dit précédamment), nier l'intelligence des vegan est une attitude complètement passéiste et maintes fois cassée par des faits vérifiables sur des centaines de millions d'individus depuis des centaines de milliers d'années.
si il marche très bien mais à condition d'avoir un CHU à son service, c'est peut-être parce qu'en fait c'est de la grosse connerie ?
Salut ami bobo, et toi tu t'es pas dit que si en occident on avait besoin d'un CHU pour être végétarien c'est parceque la bouffe qu'on nous vend est tellement traité de partout que certains nutriments essentiels passent à la trappe de la "désinfection/stérilisation/principe de précaution". Dans tout un tas d'autres pays ces problèmes ne se posent pas.
Donc oui l'alimentation végétale exclusive (régime végétalien) est possible, elle est même quasi obligatoire dans tout un tas de pays pour de simple raisons pratiques (y a pas de viande, elle est chère, elle est chasse gardée etc.)
Ces pays ont adaptés leurs connaissances diététiques à ce qui était mangeable et s'en sortent très bien. En occident on a perdu ce savoir (genre les protéines du choux vert des haricots ou des lentilles, les carences de la carotte moderne vs la carotte sauvage, la nécessité de s'exposer, mais pas trop, au soleil etc.)
Donc oui pour un occidental de base il lui faut de l'aide pour bouffer correctement en ne mangeant que des légumes. Dans la plupart des autres pays il suffit de bouffer en quantité suffisante la plante locale qui contient de la vitamine B12 activée ou de boire du lait, les oeufs sont également pouvu en B12 dans des proportions suffisantes pour l'homme.
Pour ceux qui refusent vraiment tout produit d'origine animal, il est vivement recommandé de prendre des suppléments qui contiennent de la B12.
Maintenant des populations entières vivent en suivant un régime végatalien strict, et ce depuis des décénies sans extinction massive. Donc ce n'est pas une "grosse connerie".
Eh bé… Fais ça avec tes animaux si ça t'amuse, mais évite pour tes enfants. Il y en a qui ont essayé, pas de chance leurs gosses n'ont pas survécu à cette alimentation anormale
Il y a des imbéciles partout, et on va dire que les végétariens occidentaux ne sont pas particulièrement épargnés. Mais il est possible de nourrir ses enfants avec une nouriture végétarienne. Ca demande là aussi pas mal d'attention et le suivi par un pédiatre et un diététicien qui connaissent leur affaire.
Ceci dit en Inde les enfants (comme les adultes) ont une alimentation quasi exclusivement végétarienne - et en ce moment ils sont plus de 1 milliard maintenant. Donc ca marche.
Je t'invite à lire les paquets de croquettes Connerie'Cat pour constater par toi même l'ajout de taurine synthétique.
La taurine est essentielle à la plupart des félins, sans cette molécules il sont incapables de se développer et de se maintenir en bonne santé. La taurine est présente dans l'alimentation naturelle du chat et aide au fonctionnement du système digestif, des fonctions cognitives, de la vision, de la croissance et du renouvellement musculaire y compris des muscles cardiaques.
Le chat est capable de synthétiser en partie de la taurine, mais dans des quantités insuffisantes pour son besoin.
L'alimentation végétalienne du chat (qui est possible, quoi que complexe) nécessite néanmoins une présence suffisante de taurine pour permettre sa croissance et son maintien en bonne forme. Le suppléments alimentaires (type vegecat phi et d'autres) contiennent cette taurine.
La taurine naturelle étant couteuse à extraire des muscles, c'est dans la plupart des cas de la taurine de synthèse qui est utilisée. Dans le cas des produits dit "végétariens" c'est exclusivement de la taurine de synthèse (ben oui pas d'animaux morts dans les produits de ce type).
Il faut bien faire attention que la plupart des croquettes végétalienne ne contiennent pas cette taurine et qu'il est nécessaire pour le bien être du chat d'utiliser des compléments qui eux en contiennent. (Accessoirement certaines croquettes végétalienne ne contiennent pas de parfums artificiels, les chats ne possédant pas de papilles gustatives pour la plupart végétaux les croquettes n'auront pour eux aucun gout sans un supplément de parfum).
Une fois de plus l'alimentation végétalienne d'un chat par un non professionnel requiert pas mal d'attention, si la vue de votre chat semble baisser (déplacement dans le noir compliqué par exemple) arrêtez les conneries et filez lui de la viande, même en petites quantités.
Le monde d'aujourd'hui se focalise plutôt sur la copie illégale. L'oeuvre illégale ca existe depuis assez longtemps (plus longtemps que l'oeuvre légale en fait). Citons par exemple les ouvrages (pedo)pornographiques, certains symboles de tristes mémoires (croix gammée par exemple), les trucs que le pouvoir en place/les gens bien pensant/les institutions reconnues n'aiment pas (Galilé) et tout un tas d'autres oeuvres de réécriture de l'histoire ou d'incitation à la débauche, au meurtre, au viol au suicide etc.
Ca n'est pas forcément une mauvaise chose, même si il y a ennormément d'abus.
La différence qu'il faisait à l'époque, n'a aucun sens aujourd'hui. (ps: je suis ingénieur en microélectronique numérique)
J'avoue bien volontiers n'être qu'un utilisateur de produits vis à vis de tout ce qui concerne la microélectronique, mais les catalogues que j'ai sous les yeux font la différence entre circuit intégré de base, microcontrôleurs et microprocesseurs.
J'imagine que Moore voulait insister sur le fait que ce serait la puissance des unités de calcul elle même qui doublerait et pas le cache/la mémoire eeprom embarqué/la ram embarqué.
Ce que fais l'industrie, c'est de baisser le prix unitaire du transistor à chaque changement de techno
C'est le cas, mais ca n'a pas de rapport avec la loi de Moore.
Je ne vois pas non plus quelle différence, tu fais entre "circuits intégrés" et "microprocesseurs". C'est les même techno.
C'est pas moi qui fait la différence, c'est Moore. Et même si effectivement c'est les mêmes principes physiques sous-jacents les circuits intégrés sont des éléments indépendants les uns des autres et cablés à la queue leu leu, les microprocesseurs forment un ensemble logique intègre.
Pour mémoire, la loi de Moore c'est le doublement du nombre de transistor pour le même prix tous les 18 mois
Non.
La première loi de Moore c'est que la complexité des circuits intégrés double tous les ans à prix constant.
La seconde loi de Moore c'est que le nombre de transistors des microprocesseurs doublait tous les deux ans. C'est une correction de la première loi.
En mettant deux microprocesseur sur le même circuit intégré on double certes le nombre de transistors mais on n'augmente ni la complexité ni le nombre de transistors par microprocesseur. Alors un processeur multi-coeur c'est un peu plus complexe que deux microprocesseurs sur le même circuit intégré mais c'est quand même vachement plus simple qu'un seul microprocesseur avec le double de transistor. D’où le terme de "triche".
Si, si, ça s'appelle petite erreur de calcul car Aujourd'hui fait des calculs en diminuant la profondeur des divers types d’interactions, et que de fait il néglige (à mon sens) de nombreux facteurs de puissance.
Dans 20 ans, on aura plus de 1 To de RAM, et sans doute 1000 à 10 000 fois plus de puissance de calcul si on suit la loi de Moore
Même en supposant que l'on arrive à suivre la loi de Moore (ce dont je doute vu que l'on a déjà commencer à "tricher" en utilisant des architectures multi-coeurs en en faisant grossir les puces), je ne pense pas que les super-calculateurs dans 20 ans arriveront à simuler un cerveau. C'est à dire un individu conscient de lui même et capable d'appréhender une quasi infinité de stimulus avec une telle précision qu'il n'en retire jamais deux fois le même résultat.
Il ne faut pas oublier non plus l'avènement de technologie comme la spintronic ou l'ordinateur quantique.
Ils ont un léger problème avec les technos quantiques, faire un transistor ça marche, une porte aussi, mais le problème de construire une puce entière dont on puisse lire un résultat sans affecter l'ensemble de tous les autres éléments n'est pas encore résolu sur le papier. En clair quand on teste la valeur d'un spin ou d'un bit quantique on impacte l'ensemble des spins ou des bits quantiques avoisinants. Il faut donc soit réussir à lire tout l'état de la puce d'un seul coup, soit empêcher cet impact.
Si ce problème est résolu dans 20 ans alors oui on pourra commencer à construire des systèmes neuronaux d'un niveau de complexité comparable à ceux des créatures biologiques. Mais
a) j'y crois pas, les technos d'ordinateurs quantiques piétinent depuis 15 ans. On est pas à l'abri d'une découverte qui permette enfin d'avancer mais faire les étapes théorie -> physique fondamentale -> physique pratique -> concept -> proto -> fabrication industrielle en 20 ans c'est très très court.
b) On aura un système d'une complexité et d'une versatilité similaire, pour autant on aura pas forcément la possibilité de se rapprocher d'un simulateur de cerveau humain.
Il faut juste une structure XML/JSON qui accepte
- Les blobs binaires (pas trop dur, c'est pas si compliqué que ça à échapper/convertir en ascii)
- des erreurs avec des morceaux de XML/JSON dedans (Une fois de plus on peut toujours échapper, à moins que le caractère d'échapemment ne soit lui aussi dans l'erreur auquel cas on le double échappe à moins que le double échappement ne soit aussi dans ….)
- des trames réseaux brutes (cf blobs binaires) qui soient analysables par un outil genre tcpdump (ben on a qu'à convertir les logs à la volée si c'est accédé via une certaine option du parser) et rejouables (gna gna gna) en mode parallèle (tee et cat tu connais ?) en spoofant/modifiant un paramètre (tu prend ton log, tu le parse comme tu veux, tu rediriges le résultat vers un fichier que tu appelles vieux_format.log et tu fais pas chier !)
- Un système qui dise que le message précédent a été répété 27 fois (ça ça devrait passer)
Ensuite je veux un parseur qui puisse parser tout ça en traitant les éléments par ordre chronologique réel système y compris quand l'horloge corrige un drift NTP de 40 minutes juste avant le passage à l'heure d'été mais après que le système ait corrigé la date bios en date UTC.
Bien entendu il faut que le parseur soit linké statiquement et utilisable en mode mono utilisateur pour l'analyse après panne, sans pour autant occuper trop de mémoire (si ça se trouve c'est une barrette qui déconne qui est à l'origine de la panne).
Je plaisante bien sur, même si vous me donnez tout ça je vais rester sur mes vieux outils, mais si vous passez sous ce système un jour je veux bien que vous me racontiez comment vous analysez les logs d'une authentification SIP qui foire au niveau de la gateway pour cause de SSO/Kerberos/SASL qui déconne.
On ne parle pas de la même chose, bien sur que la modélisation de n'importe quoi est techniquement possible, mais la question ici est de savoir si on peut avoir un prototype fonctionnel dans un laps de temps raisonnable (disons à horizon 20 ans).
Un cerveau artificiel dans 20 ans, je n'y crois pas. Et les ordres de grandeurs tant au niveau puissance de calcul que capacité de stockage sont démesurés par rapport à ce qu'il est possible de faire.
Après attendons un peu et voyons si ça passe ou pas.
Et alors ? En quoi n'est-ce pas simulable ? Ce n'est pas pour rien que je parle de VHDL, c'est possible d'écrire se genre de comportement dans ce langage…
Autant pour moi si c'est le cas, mais on est bien d'accord qu'il s'agit pour B de retransmettre un message qu'il n'a pas encore reçu. Dans le cerveau ce type de transmission est effectué par des sauts de potentiel et des transmissions de molécules via la glia. Il existe 10 fois plus de cellules gliales que de neurones.
L’horloge s'est un peu surfait (l'asynchrone est la mode pour avaler facilement les délais de transmission). VHDL n'est pas synchrone de base, les horloges sont explicites. C'est pas gagné, mais c'est fait tous les jours.
Même si tu simules des transmissions analogiques ou des évolutions non discrètes de potentiel, au final au moment de la simulation tu sera quand même dépendant d'un échantillonnage et d'une horloge. Le calcul des états sera lui complètement discret, on aura une succession de "snapshots" du cerveau émulé et il faudra trouver une fréquence d'échantillonnage raisonnable pour éviter les cumuls d'incertitudes qui conduiraient le modèle à s'éloigner progressivement du réel.
Je ne voix pas ou tu veux en venir, un neurone représente aussi une quantité de matière fini. Il n'y rien d'infini dans le monde réel (sauf l'espace), même en biologie.
Le neurone est certes un élément fini, mais ce n'est pas pour autant qu'un réseau de neurone est un automate à état fini. On peut peut-être l'approximer avec des automates à état fini, mais on ne peut pas être sur d'avoir un résultat comparable. Je t'accorde le fait que les réseaux de neurones ne sont pas infinis, mais le nombre de stimulus auquel le cerveau peut être soumis et réagir est quand même assez vaste, alors qu'en VHDL tu vas devoir te contenter d'un nombre limité de bus pour dialoguer. Ce nombre peut être très très vaste, mais de toutes les façons :
a) On sera de nouveau soumis au problème d'échantillonnage vu plus haut
b) Même avec un nombre délirant de bus et une sensibilité très poussée le transcodage en numérique va faire passer de simulation à émulation.
Je pensais aux dialogues asynchrones entre machine d'état indépendante. Mais on peut aussi rajouter les indéterminismes que l'on peut avoir sur les "network on chip" qui sont asynchrones pour des raisons de performance.
Mais l'asynchronicité n'empêche pas le déterminisme, heureusement d'ailleurs. Quand aux NoC, si il peut y avoir de l’indéterminisme au niveau du routage, mais généralement il n'y en a pas au niveau du traitement du message. (Et pour finir j'ajouterai que j'attend de voir un NoC qui fonctionne ailleurs que sur le simulateur VHDL du labo qui l'a codé avant de considéré la techno comme prête à la mise en vente sous 5/10 ans)
Sauf que dans le monde des bases de données, il n'y a que des internet explorer!
La grande majorité des bases de données proprios et même la plupart des bases de données libre sont compatibles SQL92 voire SQL99.
Après comme partout il y a des extensions propriétaires, parfois bien pratiques et donc souvent sur-utilisées. Mais même Oracle commence à faire les cascade de CASE proprement.
Après au niveau du support du support SQL2003 c'est assez variable, mais bon SQL2003 part un peu dans tous les sens avec de multiples modules et des éléments comme le support d'ADA ou l'accès aux données via des maps objet/XML qui sont d'une utilité assez limité quand même.
J'adore cette partie de la doc MySQL, c'est je crois ma préférée :
Elle commence par expliquer comment enlever les auto-insert et les auto-update du timestamp :
Auto-initialization and auto-update:
col_name TIMESTAMP DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP
Auto-initialization only:
col_name TIMESTAMP DEFAULT CURRENT_TIMESTAMP
Auto-update only:
col_name TIMESTAMP DEFAULT 0 ON UPDATE CURRENT_TIMESTAMP
Neither:
col_name TIMESTAMP DEFAULT 0
Donc si on veut pas mettre le timestamp à jour il suffit de rajouter DEFAULT 0 dans la définition de la colonne
C'est d'ailleurs redonné en exemple plus tard
CREATE TABLE t (
ts1 TIMESTAMP DEFAULT 0,
ts2 TIMESTAMP DEFAULT CURRENT_TIMESTAMP
ON UPDATE CURRENT_TIMESTAMP);
Là on voit bien, ts1 aura une valeur à 0 par défaut, et ts2 aura la valeur current_timestamp
SAUF QUE :
The following examples that use DEFAULT 0 do not work if the NO_ZERO_DATE SQL mode is enabled because that mode causes “zero” date values (specified as 0, '0000-00-00, or '0000-00-00 00:00:00') to be rejected. Be aware that the TRADITIONAL SQL mode includes NO_ZERO_DATE.
Ah oui, si on est en mode transactionnel, par défaut le 0 est en fait le #0 et ne peut pas être utilisé pour une date. C'est l'option NO_ZERO_DATE. Bon alors comme le #0 c'est un poil un standard SQL on va peut-être pas y toucher de peur des effets de bords et décider de mettre à jour à une autre date. Le truc c'est qu'il y a peut être des éléments dont on ne connais pas encore la date, ou d'autres qui n'en ont pas. Dans ce cas là on prend NULL
SAUF QUE :
By default, TIMESTAMP columns are NOT NULL, cannot contain NULL values, and assigning NULL assigns the current timestamp.
Ah merde, ils l'aiment vraiment le current_timestamp chez MySQL. Bon alors si je mets NULL, ca va me rentrer le current_timestamp et en plus je peux pas mettre 0 comme date repère… Heureusement je peux déclarer NULL comme une valeur possible.
Bon alors ts2 ne marche pas en transactionnel parce que NO_ZERO_DATE est actif par défaut. Mais avec les deux autres on devrait pouvoir s'en sortir. Cependant on a un peu pleuré quand même pour la mise en place.
Phénomène amusant : sous MySQL la première colonne définie de type timestamp qui n'a pas de default est considéré comme auto-initialisée / auto-updatée. Ce qui veut dire que si vous mettez un default 0/default 1/default NULL dans cette première colonne, la colonne de type timestamp suivante deviendra auto-updatée automatiquement. On ajoute à cela le fait que MySQL jusqu'à la version 5.6.4 prend les microsecondes, les affiche, peut faire des calculs dessus MAIS NE LES STOCKE PAS ! Il arrondit à la seconde supérieure avant de stocker.
Après les gens se demandent pourquoi sous MySQL je stocke toutes mes dates au format DECIMAL, et je fais les conversions à la volée.
[^] # Re: Pour les juristes
Posté par Kaane . En réponse au journal Suppression des droits d'auteurs. Évalué à 0.
pro-auteur : bah non, il ne va rien toucher.
Compte tenu du fait que tout organisme voulant entrer dans la danse se doit de posséder un mécanisme de perception d'une part et qu'il se doit de reverser cette perception aux ayants-droits et aux éditeurs originels (avec la part des yants droits qui ne peut être inférieure à celle des éditeurs). L'auteur devrait y gagner normalement.(surtout vu que depuis dix ans minimum il ne gagne rien sur ces oeuvres).
anti-monopole : bof, on aura une SACEM de plus
C'est clair que c'est une dérive possible, mais au moins il s'agira d'une SACEM avec uen répartition paritaire entre les éditeurs et les auteurs, pas d'un système ou les sociétaires sont noyés dans la masse. Comme indiqué j'attend de voir quels organismes seront autorisés ou non. Si on dépasse la dizaine ce sera plutôt une nouvelle positive.
# Pour les juristes
Posté par Kaane . En réponse au journal Suppression des droits d'auteurs. Évalué à 9.
J'ai eu un peu de mal à retrouver, mais voici le texte intégral :
http://www.legifrance.gouv.fr/jopdf/common/jo_pdf.jsp?numJO=0&dateJO=20120302&numTexte=1&pageDebut=03986&pageFin=03988
Comme d'habitude, agoravox se vautre de tout son long sur le contenu du texte de loi.
Tentative de traduction en langage non juridique par un (totalement) non juriste :
a) Le texte ne concerne QUE les livres qui ont été publiés en France avant le premier janvier 2001 et non réédités depuis sous quelques forme que ce soit. Les autres formats d'oeuvres ne sont pas impactées.
b) Un livre peut être déclaré comme indisponible auprès de la Bibliothèque Nationale de France, qui 1°) vérifie (elle a accès à la liste de toutes les publications) et 2°) ajoute le livre à la liste des livres indisponibles.
c) Si au bout de six mois aucun éditeur ou ayant droit n'a fait de demandes motivées pour justifier la non publication du livre de façon convaincante (comme par exemple la publication d'une oeuvre réécrite en lieu et place, le droit au repentir ou au retrait des auteurs ou que sais-je) un organisme spécialisé qui doit être composé de professionnels du livre peut demander une licence non exclusive d'exploitation pour 5 ans renouvelable.
d) Cet organisme doit être composé de dirigeants professionels du livre avec une diversité d'origine des associés et notamment une répartition paritaire entre les auteurs et les éditeurs. Cet organisme doit pouvoir justifier :
- d'un moyen de perception des ventes
- d'une répartition équitable du produit des ventes entre les différents ayants-droits, qu'ils soient liés ou non par contrat à l'éditeur originel. L'argent perçu par les ayants droits ne pouvant en aucun cas être inférieur à celui perçu par les éditeurs
- de la mise en place sérieuse de recherche des ayants droits qu'ils soient liés ou non par contrat à l'éditeur originel.
- de la défense des intérêts des différents ayants droits qu'ils soient liés ….
Cet organisme doit être approuvé par le ministre de la culture.
e) Si l'éditeur originel s'oppose à la publication par un tel organisme, il dispose d'un délais de deux ans pour reimprimer et redistribuer le livre. Faute de quoi son opposition saute.
f) Les bibliothèques accessibles au public disposent d'un droit à titre gratuit sur l'ensemble des oeuvres re-publiées en vertu de cette loi (i.e sur lesquelles ni l'auteur ni l'éditeur n'ont fait une opposition qui tienne la route).
Je me trompe peut-être, et il faut attendre de voir combien d'organismes vont se créer et comment ils seront approuvés ou non par le ministre de la culture. Mais là j'ai plutôt envie d'applaudir des deux mains. D'un point de vue d'un non initié il n'y a pas grand chose à redire à cette loi qui est à la fois pro-auteur, pro-diffusion et anti-monopole.
[^] # Re: Appelez moi Dieu !
Posté par Kaane . En réponse au journal Pourquoi constituer des fichiers et y donner accès sans contrôle c'est mal.. Évalué à 6.
ET la celeber sentence "Nul n'est cense ignorer la loi" est fausse.
Elle est vraie, mais incomprise. Ce qu'elle signifie c'est que quel que soit tes raisons et ta situation, quand tu reçois une injonction d'une autorité légale tu es tenu de t'y soumettre.
En d'autre terme tu ne peux pas ignorer une décision de justice/arrété préfectoral/commandement judiciaire etc. Une fois que celui-ci t'a été soumis.
[^] # Re: Une main de fer dans un gant d'acier
Posté par Kaane . En réponse au journal La glibc s'ouvre à la communauté. Évalué à 9.
Non mais vous allez pas tous vous y mettre. Bien sur que c'est une analyse complètement biaisée, bien sur qu'il y a de très bon codeurs dans le proprio. Bien sur que la notion de "meilleur codeur C au mode" ne veut pas dire grand chose et bien sur également que quand on participe à une abomination comme Network Manager ca veut dire que sa compréhension du monde des Unixes et unix like en général, et du code C en particulier est forcément médiocre.
Donc oui, j'ai annoncé que Theo était le meilleur codeur du monde, et je m'attendais à ce que ca parte un peu en troll avec échange de diverses personnes qui donnent des noms de concurents potentiels. Ca a pas marché donc forcément (et sur demande) je rajoute une couche. Pourtant j'ai pas fait dans le détail avec Seymour Cray en meilleur codeur C du monde jusqu'à sa mort même si il n'a jamais écrit une ligne de code C. Mais non il y a quand même des gens pour le prendre au premier degré et m'expliquer que ma méthodologie n'est pas sérieuse ou scientifique.
De la part de Zenitram c'est presque classique (si on n'a pas de Zenitram dans les 5 premiers posts, c'est qu'on a raté son troll), mais les autres, un peu de jugeotte quoi…
[^] # Re: Une main de fer dans un gant d'acier
Posté par Kaane . En réponse au journal La glibc s'ouvre à la communauté. Évalué à 9. Dernière modification le 28 mars 2012 à 04:15.
Qu'est ce qui te fait dire que c'est le meilleur codeur C au monde?
Déjà il code exclusivement pour du (vraiment) libre, ce qui fait qu'il est forcément meilleur que ceux qui codent en proprio.
Ensuite il a plusieurs fois repris et corrigé du code écrit par Kernighan/Ritchie/Thompson ou Billy Joy dans le cadre de NetBSD puis de FreeBSD. Jamie Jawinski est devenu tenancier de bar et Seymour Cray est mort (bien que Seymour Cray n'ait jamais écrit une ligne de code en C il était quand même le meilleur codeur C au monde de son vivant. Paix à ton âme Seymour Cray :'( ).
La concurrence c'est qui donc ?
- Tanenbaum (Dont l'histoire est en train d eprouver que même si il code bien, il est pas complètement en phase avec certaines réalités)
- Alan Cox
- Linus Torvalds (si je le mets pas, les gens vont raler, alors que c'est un codeur de bon niveau mais sans plus)
- Robert Love ( qui était dans le top 10, puis il a participé à Network Manager…)
- Fabrice Bellard (Mais là on va nous accuser de chauvinisme)
- Michael Abrash (Zen timer is dead baby, Zen Timer is dead)
- Poul Henning Kamp (Lui aussi indiscutablement dans le top 10, et le pire c'est que vous ne savez même pas qui c'est…)
- Tom Lane (Vous savez le mec qui sait faire des systèmes de cache et qui bosse ni pour Oracle, ni pour MS)
Ce sont à peu prés les seuls à pouvoir prétendre au titre de meilleur codeur du monde. Après je peux défendre becs et ongle smon point de vue comme quoi Alan Cox et Theo de Raadt sont les meilleurs. Je dirais que la queue de liste est constitué par PHK et Robert Love (qui sont des brutes finies, on est d'accord, mais quand même un micro-poil en retrait par rapport aux autres). Quand à Fabrice Bellard, je sais pas trop. Il y a des fois ou je me dis qu'il est peut-être le meilleur, et d'autres fois ou je me dis qu'il souffre d'une forme étrange de déficit chronique d'attention qui le pousse à créer des projets complètement à l'ouest même si parfois très très utiles.
[^] # Re: Une main de fer dans un gant d'acier
Posté par Kaane . En réponse au journal La glibc s'ouvre à la communauté. Évalué à 5.
Il faut obtenir un score minimum de 25 % sur « l'échelle normalisée de Theo de Raadt ».
Sauf que Theo de Raadt est le meilleur codeur C du monde (Ex-aequo avec Alan Cox dont le code est légèrement moins portable mais légèrement plus rapide) et que je ne l'ai jamais vu cracher sur un contributeur. De plus Theo averti (souvent plusieurs fois) avant de mordre.
[^] # Re: Spécialiste dans le domaine de la spécialisation
Posté par Kaane . En réponse à la dépêche Sécurité des Réseaux et licence professionnelle à Bordeaux. Évalué à 8.
C'est un peu comme dire "je suis pilote de ligne dans le domaine du pilotage d'avions de ligne" ou "je suis informaticien dans le domaine de l'informatique, spécialisé dans les ordinateurs".
Oui, mais aujourd'hui le marketting frappe de plein fouet le domaine de la sécurité informatique. On parlera donc de chiffrement réversible par clef basé sur une infrastructure de clefs privées PKI. De mise en place de branche réseaux sécurisées virtuelles accesibles à distance par tunnels sécurisés par IP de type IPSEC/VPN avec distribution sur internet par protocole sécurisée double IKE/ESP. Ou encore de processus d'isolation des applications et de réduction de droits grâce aux techniques de sandoxing de mise en jail et de d'abandons de privileges.
Forcément au bout d'un moment ca devient une déformation professionnelle et on finit par devenir des professionnel de la profession, des experts du domaine avec une forte expertise dans le domaine ou encore des spécialiste de la spécialités spécialisé dans la spécificité concernée.
Par contre je n'ai pas vu d'UI "Faire un schéma qui en jette en Visio", or c'est devenu une donnée importante du métier, on peut bricoler avec du Dia retouché et recolorié sous InkScape, mais ça fait pas le même effet au client, et pour gagner des appels d'offres c'est plus compliqué.
(Quoi ? Moi aigri ? Meuh non….)
[^] # Re: Pas de parcours sur le web, pas de readme dans le tarball linux !
Posté par Kaane . En réponse au journal HUBIC online. Évalué à 2.
C'est le principe de toute méthodologie agile pour faire dans le buzzword
Faire de l'agile quand tu n'as pas encore de client c'est la bonne méthode pour partir dans le mur, ou au mieux pur se retrouver avec pleins de fonctionnalités qui ne te servent à rien ou qui ne répondent plus au besoin. L'agile nécessite de savoir ou on va pour garder une certaine conhérence entre les modules.
Ensuite la méthode qui consiste à livrer très tôt un produit avec peu de fonctionnalités et à developper au fur et à mesure les fonctionnalités en fonction des retours clients c'est pas de l'agile. C'est plus proche de la RACHE comme approche. C'est la fameuse méthode "si le client s'en rend compte/en a besoin/le demande on developpe, sinon on laisse tel quel". C'est typiquement la méthode utilisée par OVH en ce moment sur ce produit.
Ca te permet d'évoluer très facilement et plutôt que de bourriner bêtement, en se disant qu'on verra plus tard
Ben il y a pas de bourrinage bête (les problèmes de tenue de charge ne sont que très rarement le résultat d'un bourrinage, au contraire quand on bourrine on a plutôt tendance à se retrouver avec des trucs disproportionnés par rapport au besoin) quand au "on verra plus tard" c'est par contre nécessaire dans toutes les approches. Le mec qui pense pouvoir créer un produit parfait dès le début se ramasse systématiquement. La méthode que tu cites avec petits ajouts par couches c'est du "on verra plus tard". Bien sur il faut que la possibilité reste ouverte pour éviter de casser l'existant, mais pour l'implémentation ben … On verra plus tard.
Et ma remarque soulignait que certains sont les champions du vite fait, mal fait, jamais fixé.
Ta remarque visait l'implémentation OVH en disant que c'était du vite fait mal fait. Or si je suis d'accord sur le vite fait, je ne désapprouve le mal fait. OVH livre un service complet doccumenté et basé sur des standards ouverts. Avec en sus un client windows pour les non techniques. Mais ca n'en fait pas un produit mal fait. Il est sous dimensionné par rapport à la demande (mais le contraire aurait été une prise de risque déraisonable) et il est en retrait niveau fonctionnalités par rapport à d'autres produits (mais tu sembles approuver au moins cette partie de l'approche). Donc que reproches-tu au service OVH tel qu'il existe aujourd'hui ? Des promesses non tenues ? Des fonctionnalités dues mais non présentes ? Des performances limités par rapport aux specs ? Tu n'as pas vu la signalétique "beta" et "alpha" sur les services ? Tu n'as pas remarqué que le produit en vente était exclusivement sur android pour l'instant ?
Le rapport avec ce dont je parle ?
Faire de l'hosting c'est une autre problématique.
Là il va falloir que tu m'expliques lentement la différence entre sauvegarder des données dans le cloud, et sauvegarder des données dans le cloud. Parceque personellement j'ai du mal. Tu perçois peut-être le service hubic comme autre chose qu'un disque hébergé dans le cloud OVH, mais techniquement OVH ne vend pas autre chose. Les services autour sont pour l'instant exclusivement en vente pour android, et sous android ca marche plutôt bien.
[^] # Re: Pas de parcours sur le web, pas de readme dans le tarball linux !
Posté par Kaane . En réponse au journal HUBIC online. Évalué à 4.
Faire les choses de manière carrée, pro et lancer un service qui marche, quitte a fournir des features de façon incrémentales ca coute pas plus cher c'est même l'inverse.
Quand tu copies une architecture connue oui, quand tu mets en place un nouveau service non. Regarde les commentaires, 80% du thread compare le service à DropBox, alors que bon il n'y a pas vraiment de rapport entre les deux. L'un des deux est un espace de stockage webdav orienté utilisation personelle/entreprise alors que l'autre est un espace de stockage au format propriétaire orienté partage.
La première question est "est-ce que le service OVH va interresser du monde ?" apparament la réponse est oui. La seconde question est "Quelles fonctionnalités vont vouloir les utilisateurs" là la réponse semble être "faciliter le partage". Mais ca aurait pu être du chiffrement, de la création de sous-disques isolés, un accès aux partitions en mode raw ou compressed raw etc.
Difficile de savoir sans lancer le service, difficile d'investir massivement dans une optique sans tester (perso je suis plus interressé par du compressed raw qui me permettrait de faire du SAN réparti pour des bases en NO-SQL mais il semblerait que je sois seul dans ce cas)
Une boite qui n'est pas capable de gérer son dev correctement
Ils savent gérer leur dev correctement. La preuve : ca marche et ils ont un succès qui dépasse systématiquement leurs espérances. Ils ont une excellente maitris des outils et des techno "cloud", notamment une bonne maitrise des outils VMWare et ils sont plutôt bien placés sur le marché quand on regarde le rapport qualité/prix.
_, perso je lui confie ni mes données ni mon site web. Et c'est triste qu'en 2012 on en soit encore là. _
C'est triste que tu en sois encore là en 2012 en effet. Perso j'ai des dizaines de serveurs chez OVH, avec un taux de pannes hardware très faible (et systématiquement des problèmes d'alim d'ailleurs - trois alims changées en quatre ans). Maintenant OVH c'est pas du serveur multi-redondant avec triple backup logique et copie d'architecture complet sur site distant, mais c'est pas le même prix. Personellement sur mes serveurs critiques je triple les instances, et j'ai un taux de disponibilité délirant (deux heures de pannes en quatre ans sur mes serveurs mails par exemple, et en plus des interruptions partielles de services sans pertes de données) pour un prix délirant lui aussi (moins de 300€ H.T/mois, même pas le prix de la bande passante seule chez 90% des hébergeurs pros).
[^] # Re: Pas de parcours sur le web, pas de readme dans le tarball linux !
Posté par Kaane . En réponse au journal HUBIC online. Évalué à 10.
Mince il me semblait que c'était "on commence à l'arrache et on fera un nouveau truc à l'arrache dans quelque mois"
C'est l'avantage d'avoir des banques qui ne veulent pas financer, des investisseurs locaux qui rigolent en voyant les business plan et des instances gouvernementales qui filent leur fric à Bull quasi exclusivement.
Free s'est fait foutre de sa gueule un nombre incalculable de fois, quand ils ont mis en place le système teaser (vous faites du minitel rose les gars, internet ca sert à rien et vous allez pas savoir faire), quand Orange leur a ouvert tous les NRA juste pour montrer à l'UE qu'ils n'abusaient pas de leur position dominante (Bon les gars vous êtes nuls et tout petits, donc pas dangereux. On va vous filer l'accès à nos infras juste pour pouvoir éviter de les ouvrir un peu plus longtems à nos vrais concurents), quand ils ont lancés l'offre gratuite (Internet gratuit illimité sur ligne analogique, mais ca sert à rien en France et puis ca n'interresse personne. D'ailleurs on a toujours le minitel alors..) etc. jusqu'à la bataille pour que Free ne fasse pas de téléphonie mobile.
OVH c'est pareil, très peu de financements extérieurs, aucune reconnaissance, pas mal de gens qui se foutent de leur gueule en permanence (Ca sert à quoi une interco à Roubaix ? Fabriquer vos propre machine ? Laissez ça aux pros les gars… Un datacenter sans clim ? Vous avez fumé les gars).
Et malgré tout ce sont des boites qui progressent à toute allure, qui gagnent (beaucoup) d'argent et qui jouissent d'une très bonne réputation à l'étranger.
Donc oui, faute de moyens ils utilisent la méthode RACHE en permanence pour faire fasse aux évolutions permanentes des réseaux (la durée de vie d'une infra interconnectée ets de l'ordre de 24 mois). Mais ca marche, et ca marche suffisament bien pour qu'ils puissent continuer à grossir chaque année. Et il n'y a guère plus que les français qui les prennent de haut aujourd'hui. J'imagine que nul n'est prophète en son pays…
[^] # Re: Puérile!!!
Posté par Kaane . En réponse au journal La pâtée pour chats est-elle un bienfait ?. Évalué à 2. Dernière modification le 19 mars 2012 à 23:39.
Bah genre ils meurent de maladies qui ont disparu chez nous ?
Et ils évitent d'autres maladies qui ne sont pas encore apparues chez eux. Entre choléra et staphilocoque doré mon coeur balance.
Le truc étant qu'en période de calme les problèmes sanitaires liés à la nouriture sont moins fréquents et moins graves dans les petits villages de la région de goa que dans les élevages britaniques.
Et allez faisons un amalgame entre élevage et élevage intensif. Indice chez vous : l'adjectif a du sens.
J'imagine que cela fait référence à la phrase du dessus, (parcequ'un boeuf même élevé à l'ancienne et en plein air consommera toujours plus d'espace de culture que ce qui aurait été nécessaire pour fournir une quantité comparable de nouriture). Mais revenons à notre élevage intensif. Il s'agit du mot au sens large, c'est à dire avec un objectif de productivité à la clef. Pas forcément un élevage en batterie. En d'autres termes tout ce qui pousse à choisir une race de bestiau parceque c'est elle qui produit le plus de viandes et à lui filer la nourriture qui a le meilleur rapport nutrition/prix. On se retrouve au final avec de la tournante du mouton et de la vache folle, des dioxines dans le poulet et des espèces qui disparaissent ou se "surspécialisent". Au final il y a toujours une bactérie à la con, un virus idiot ou autre qui y trouve son compte et qui se répand comme une trainée de poudre.
Alors, qui a raison, les européens en minorité intolérant au lactose, ou les asiatiques sains qui n'ont pas le gène pour digérer leur lait bio
Les extrèmes-orientaux, particulièrement les Japonais, mais de façon générale toutes les populations qui vivent dans des régions montagneuses impropres à l'élevage de bovins (c'est à dire région montagneuse+terre trop sèche ou trop humide pour faire du fourrage l'hiver) sont intolérants au lactose pour cause de non exposition à celui ci pendant des générations.
Les européens qui possèdent le géne, mais qui sont intolérants quand même parceque surexposés sont un réel indicateur d'une mauvaise voie choisie pour l'alimentation en général dans nos pays.
[^] # Re: Puérile!!!
Posté par Kaane . En réponse au journal La pâtée pour chats est-elle un bienfait ?. Évalué à 2. Dernière modification le 19 mars 2012 à 23:14.
Oui et un tas d'infections, de bactéries, et autres joyeusetés, passent les filtres inexistants dans ces pays. À choisir…
C'est à se demander comment font les pays qui ne stérilisent pas leur lait et qui ne filent pas d'antibiotiques à leurs poulets. On me souffle à l'oreillette que dans les pays sans élevages intensifs ces problèmes sont rares. Un coup de chance sans doute.
Rétablissons le droit de chasse réservé à la noblesse. On sera bien forcé de revenir à une alimentation saine. Celle où une mauvaise récolte tous les 10 ans provoquait une famine qui éradiquait 20% de la population.
C'est clair que le problème de famine a été résolu par la nouriture carnée. Par exemple c'est l'ouverture de la chasse à la patate qui a sauvé les Irlandais… Au fait on me souffle à l'oreillette (encore) qu'il faut de meilleures récoltes pour nourrir les animaux qui vont nourrir les humains que pour nourrir les humains directement avec les produits de l'agriculture. Mais alors en cas de mauvaise récolte que se passerait-il ? On continue à nourrir les bestiaux quitte à ne pouvoir nourrir qu'une portion de la population ou on s'ouvre un peu au régime végétarien.
Un bon 50% des humains sont intolérants au lait d'autres animaux. Parce que le seul animal naturellement apte à boire du lait de vache, c'est le veau. Et le seul lait adapté à l'homme, c'est le lait de femme. Et ainsi de suite.
C'est clair, les gens qui boivent du lait sans intolérance c'est une race à part, en occident. Curieusement dans les pays ou on ne fout pas des dérivés de lactose dans tous les produits et ou on alterne entre plusieurs laits (vache, chèvre, brebis etc.) le problème ne se pose pas. C'est bien la preuve qu'il n'y a rien à changer dans notre mode de nutrition actuel et que les autres sont des idiots qui ne se rendent pas compte qu'il courrent à la catastrophe.
Oui et des générations d'africains vivent en guerre civile permanente et ils sont encore là.
Laissent leur le temps, ils ont reçus les vraies guerres tribales en même temps que la démocratie. Avant certaines ethnies avaient l'ascendant sur d'autres et les massacres étaient nettement plus modérés. Ethiquement c'est discutable comme solution, mais d'un point de vue de la survie de l'individu c'était plutôt meilleur.
L'homme est une espèce omnivore, le renier n'est pas beaucoup mieux que se croire purement carnivore.
L'homme est une espèce qui part essence renie ce qu'il est. L'homme ne peut pas voler, il ne peut pas se déplacer à plus de 30km/h. Il ne peut pas faire de trou dans les montagnes ou soulever des blocs de pierre de plusieurs tonnes.
La "mode" vegan et la philosophie qui va derrière sont des approches tout à fait raisonnées d'un changement majeur dans la vision du monde par l'homme. Bien que je n'en soit pas (j'adore la côte de boeuf béarnaise, bien saignante et persillée de fins fuseau de gras bien juteux, le tout coupé le plus proche de l'os possible à la française. Tu sais le genre de trucs ou tu entends tes artères se boucher à chaque morceau) bien que je n'en soit pas donc, je respecte grandement leur approche. L'homme peut parfaitement vivre et avoir un développement normal tout en étant complètement végétarien (et en faisant gaffe à la B12 comme dit précédamment), nier l'intelligence des vegan est une attitude complètement passéiste et maintes fois cassée par des faits vérifiables sur des centaines de millions d'individus depuis des centaines de milliers d'années.
[^] # Re: Puérile!!!
Posté par Kaane . En réponse au journal La pâtée pour chats est-elle un bienfait ?. Évalué à 4.
si il marche très bien mais à condition d'avoir un CHU à son service, c'est peut-être parce qu'en fait c'est de la grosse connerie ?
Salut ami bobo, et toi tu t'es pas dit que si en occident on avait besoin d'un CHU pour être végétarien c'est parceque la bouffe qu'on nous vend est tellement traité de partout que certains nutriments essentiels passent à la trappe de la "désinfection/stérilisation/principe de précaution". Dans tout un tas d'autres pays ces problèmes ne se posent pas.
Donc oui l'alimentation végétale exclusive (régime végétalien) est possible, elle est même quasi obligatoire dans tout un tas de pays pour de simple raisons pratiques (y a pas de viande, elle est chère, elle est chasse gardée etc.)
Ces pays ont adaptés leurs connaissances diététiques à ce qui était mangeable et s'en sortent très bien. En occident on a perdu ce savoir (genre les protéines du choux vert des haricots ou des lentilles, les carences de la carotte moderne vs la carotte sauvage, la nécessité de s'exposer, mais pas trop, au soleil etc.)
Donc oui pour un occidental de base il lui faut de l'aide pour bouffer correctement en ne mangeant que des légumes. Dans la plupart des autres pays il suffit de bouffer en quantité suffisante la plante locale qui contient de la vitamine B12 activée ou de boire du lait, les oeufs sont également pouvu en B12 dans des proportions suffisantes pour l'homme.
Pour ceux qui refusent vraiment tout produit d'origine animal, il est vivement recommandé de prendre des suppléments qui contiennent de la B12.
Maintenant des populations entières vivent en suivant un régime végatalien strict, et ce depuis des décénies sans extinction massive. Donc ce n'est pas une "grosse connerie".
[^] # Re: Puérile!!!
Posté par Kaane . En réponse au journal La pâtée pour chats est-elle un bienfait ?. Évalué à 9.
Eh bé… Fais ça avec tes animaux si ça t'amuse, mais évite pour tes enfants. Il y en a qui ont essayé, pas de chance leurs gosses n'ont pas survécu à cette alimentation anormale
Il y a des imbéciles partout, et on va dire que les végétariens occidentaux ne sont pas particulièrement épargnés. Mais il est possible de nourrir ses enfants avec une nouriture végétarienne. Ca demande là aussi pas mal d'attention et le suivi par un pédiatre et un diététicien qui connaissent leur affaire.
Ceci dit en Inde les enfants (comme les adultes) ont une alimentation quasi exclusivement végétarienne - et en ce moment ils sont plus de 1 milliard maintenant. Donc ca marche.
[^] # Re: Puérile!!!
Posté par Kaane . En réponse au journal La pâtée pour chats est-elle un bienfait ?. Évalué à 10.
Je t'invite à lire les paquets de croquettes Connerie'Cat pour constater par toi même l'ajout de taurine synthétique.
La taurine est essentielle à la plupart des félins, sans cette molécules il sont incapables de se développer et de se maintenir en bonne santé. La taurine est présente dans l'alimentation naturelle du chat et aide au fonctionnement du système digestif, des fonctions cognitives, de la vision, de la croissance et du renouvellement musculaire y compris des muscles cardiaques.
Le chat est capable de synthétiser en partie de la taurine, mais dans des quantités insuffisantes pour son besoin.
L'alimentation végétalienne du chat (qui est possible, quoi que complexe) nécessite néanmoins une présence suffisante de taurine pour permettre sa croissance et son maintien en bonne forme. Le suppléments alimentaires (type vegecat phi et d'autres) contiennent cette taurine.
La taurine naturelle étant couteuse à extraire des muscles, c'est dans la plupart des cas de la taurine de synthèse qui est utilisée. Dans le cas des produits dit "végétariens" c'est exclusivement de la taurine de synthèse (ben oui pas d'animaux morts dans les produits de ce type).
Il faut bien faire attention que la plupart des croquettes végétalienne ne contiennent pas cette taurine et qu'il est nécessaire pour le bien être du chat d'utiliser des compléments qui eux en contiennent. (Accessoirement certaines croquettes végétalienne ne contiennent pas de parfums artificiels, les chats ne possédant pas de papilles gustatives pour la plupart végétaux les croquettes n'auront pour eux aucun gout sans un supplément de parfum).
Une fois de plus l'alimentation végétalienne d'un chat par un non professionnel requiert pas mal d'attention, si la vue de votre chat semble baisser (déplacement dans le noir compliqué par exemple) arrêtez les conneries et filez lui de la viande, même en petites quantités.
[^] # Re: Rabat-joie
Posté par Kaane . En réponse au journal L'enfant caché de SMB et de Portal.. Évalué à 1.
Le monde d'aujourd'hui se focalise plutôt sur la copie illégale. L'oeuvre illégale ca existe depuis assez longtemps (plus longtemps que l'oeuvre légale en fait). Citons par exemple les ouvrages (pedo)pornographiques, certains symboles de tristes mémoires (croix gammée par exemple), les trucs que le pouvoir en place/les gens bien pensant/les institutions reconnues n'aiment pas (Galilé) et tout un tas d'autres oeuvres de réécriture de l'histoire ou d'incitation à la débauche, au meurtre, au viol au suicide etc.
Ca n'est pas forcément une mauvaise chose, même si il y a ennormément d'abus.
[^] # Re: Légère erreur de calcul
Posté par Kaane . En réponse au journal See the World in True Colors.. Évalué à 1.
La différence qu'il faisait à l'époque, n'a aucun sens aujourd'hui. (ps: je suis ingénieur en microélectronique numérique)
J'avoue bien volontiers n'être qu'un utilisateur de produits vis à vis de tout ce qui concerne la microélectronique, mais les catalogues que j'ai sous les yeux font la différence entre circuit intégré de base, microcontrôleurs et microprocesseurs.
J'imagine que Moore voulait insister sur le fait que ce serait la puissance des unités de calcul elle même qui doublerait et pas le cache/la mémoire eeprom embarqué/la ram embarqué.
[^] # Re: Légère erreur de calcul
Posté par Kaane . En réponse au journal See the World in True Colors.. Évalué à 1.
Ce que fais l'industrie, c'est de baisser le prix unitaire du transistor à chaque changement de techno
C'est le cas, mais ca n'a pas de rapport avec la loi de Moore.
Je ne vois pas non plus quelle différence, tu fais entre "circuits intégrés" et "microprocesseurs". C'est les même techno.
C'est pas moi qui fait la différence, c'est Moore. Et même si effectivement c'est les mêmes principes physiques sous-jacents les circuits intégrés sont des éléments indépendants les uns des autres et cablés à la queue leu leu, les microprocesseurs forment un ensemble logique intègre.
[^] # Re: Légère erreur de calcul
Posté par Kaane . En réponse au journal See the World in True Colors.. Évalué à 0.
Pour mémoire, la loi de Moore c'est le doublement du nombre de transistor pour le même prix tous les 18 mois
Non.
La première loi de Moore c'est que la complexité des circuits intégrés double tous les ans à prix constant.
La seconde loi de Moore c'est que le nombre de transistors des microprocesseurs doublait tous les deux ans. C'est une correction de la première loi.
En mettant deux microprocesseur sur le même circuit intégré on double certes le nombre de transistors mais on n'augmente ni la complexité ni le nombre de transistors par microprocesseur. Alors un processeur multi-coeur c'est un peu plus complexe que deux microprocesseurs sur le même circuit intégré mais c'est quand même vachement plus simple qu'un seul microprocesseur avec le double de transistor. D’où le terme de "triche".
[^] # Re: Légère erreur de calcul
Posté par Kaane . En réponse au journal See the World in True Colors.. Évalué à 1.
Non, ce n'était pas le débat du tout.
Si, si, ça s'appelle petite erreur de calcul car Aujourd'hui fait des calculs en diminuant la profondeur des divers types d’interactions, et que de fait il néglige (à mon sens) de nombreux facteurs de puissance.
Dans 20 ans, on aura plus de 1 To de RAM, et sans doute 1000 à 10 000 fois plus de puissance de calcul si on suit la loi de Moore
Même en supposant que l'on arrive à suivre la loi de Moore (ce dont je doute vu que l'on a déjà commencer à "tricher" en utilisant des architectures multi-coeurs en en faisant grossir les puces), je ne pense pas que les super-calculateurs dans 20 ans arriveront à simuler un cerveau. C'est à dire un individu conscient de lui même et capable d'appréhender une quasi infinité de stimulus avec une telle précision qu'il n'en retire jamais deux fois le même résultat.
Il ne faut pas oublier non plus l'avènement de technologie comme la spintronic ou l'ordinateur quantique.
Ils ont un léger problème avec les technos quantiques, faire un transistor ça marche, une porte aussi, mais le problème de construire une puce entière dont on puisse lire un résultat sans affecter l'ensemble de tous les autres éléments n'est pas encore résolu sur le papier. En clair quand on teste la valeur d'un spin ou d'un bit quantique on impacte l'ensemble des spins ou des bits quantiques avoisinants. Il faut donc soit réussir à lire tout l'état de la puce d'un seul coup, soit empêcher cet impact.
Si ce problème est résolu dans 20 ans alors oui on pourra commencer à construire des systèmes neuronaux d'un niveau de complexité comparable à ceux des créatures biologiques. Mais
a) j'y crois pas, les technos d'ordinateurs quantiques piétinent depuis 15 ans. On est pas à l'abri d'une découverte qui permette enfin d'avancer mais faire les étapes théorie -> physique fondamentale -> physique pratique -> concept -> proto -> fabrication industrielle en 20 ans c'est très très court.
b) On aura un système d'une complexité et d'une versatilité similaire, pour autant on aura pas forcément la possibilité de se rapprocher d'un simulateur de cerveau humain.
# C'est une bonne idée ça de structurer les logs
Posté par Kaane . En réponse à la dépêche Projet Lumberjack. Évalué à 3.
Il faut juste une structure XML/JSON qui accepte
- Les blobs binaires (pas trop dur, c'est pas si compliqué que ça à échapper/convertir en ascii)
- des erreurs avec des morceaux de XML/JSON dedans (Une fois de plus on peut toujours échapper, à moins que le caractère d'échapemment ne soit lui aussi dans l'erreur auquel cas on le double échappe à moins que le double échappement ne soit aussi dans ….)
- des trames réseaux brutes (cf blobs binaires) qui soient analysables par un outil genre tcpdump (ben on a qu'à convertir les logs à la volée si c'est accédé via une certaine option du parser) et rejouables (gna gna gna) en mode parallèle (tee et cat tu connais ?) en spoofant/modifiant un paramètre (tu prend ton log, tu le parse comme tu veux, tu rediriges le résultat vers un fichier que tu appelles vieux_format.log et tu fais pas chier !)
- Un système qui dise que le message précédent a été répété 27 fois (ça ça devrait passer)
Ensuite je veux un parseur qui puisse parser tout ça en traitant les éléments par ordre chronologique réel système y compris quand l'horloge corrige un drift NTP de 40 minutes juste avant le passage à l'heure d'été mais après que le système ait corrigé la date bios en date UTC.
Bien entendu il faut que le parseur soit linké statiquement et utilisable en mode mono utilisateur pour l'analyse après panne, sans pour autant occuper trop de mémoire (si ça se trouve c'est une barrette qui déconne qui est à l'origine de la panne).
Je plaisante bien sur, même si vous me donnez tout ça je vais rester sur mes vieux outils, mais si vous passez sous ce système un jour je veux bien que vous me racontiez comment vous analysez les logs d'une authentification SIP qui foire au niveau de la gateway pour cause de SSO/Kerberos/SASL qui déconne.
[^] # Re: Légère erreur de calcul
Posté par Kaane . En réponse au journal See the World in True Colors.. Évalué à 1.
On ne parle pas de la même chose, bien sur que la modélisation de n'importe quoi est techniquement possible, mais la question ici est de savoir si on peut avoir un prototype fonctionnel dans un laps de temps raisonnable (disons à horizon 20 ans).
Un cerveau artificiel dans 20 ans, je n'y crois pas. Et les ordres de grandeurs tant au niveau puissance de calcul que capacité de stockage sont démesurés par rapport à ce qu'il est possible de faire.
Après attendons un peu et voyons si ça passe ou pas.
[^] # Re: Légère erreur de calcul
Posté par Kaane . En réponse au journal See the World in True Colors.. Évalué à 1.
Et alors ? En quoi n'est-ce pas simulable ? Ce n'est pas pour rien que je parle de VHDL, c'est possible d'écrire se genre de comportement dans ce langage…
Autant pour moi si c'est le cas, mais on est bien d'accord qu'il s'agit pour B de retransmettre un message qu'il n'a pas encore reçu. Dans le cerveau ce type de transmission est effectué par des sauts de potentiel et des transmissions de molécules via la glia. Il existe 10 fois plus de cellules gliales que de neurones.
L’horloge s'est un peu surfait (l'asynchrone est la mode pour avaler facilement les délais de transmission). VHDL n'est pas synchrone de base, les horloges sont explicites. C'est pas gagné, mais c'est fait tous les jours.
Même si tu simules des transmissions analogiques ou des évolutions non discrètes de potentiel, au final au moment de la simulation tu sera quand même dépendant d'un échantillonnage et d'une horloge. Le calcul des états sera lui complètement discret, on aura une succession de "snapshots" du cerveau émulé et il faudra trouver une fréquence d'échantillonnage raisonnable pour éviter les cumuls d'incertitudes qui conduiraient le modèle à s'éloigner progressivement du réel.
Je ne voix pas ou tu veux en venir, un neurone représente aussi une quantité de matière fini. Il n'y rien d'infini dans le monde réel (sauf l'espace), même en biologie.
Le neurone est certes un élément fini, mais ce n'est pas pour autant qu'un réseau de neurone est un automate à état fini. On peut peut-être l'approximer avec des automates à état fini, mais on ne peut pas être sur d'avoir un résultat comparable. Je t'accorde le fait que les réseaux de neurones ne sont pas infinis, mais le nombre de stimulus auquel le cerveau peut être soumis et réagir est quand même assez vaste, alors qu'en VHDL tu vas devoir te contenter d'un nombre limité de bus pour dialoguer. Ce nombre peut être très très vaste, mais de toutes les façons :
a) On sera de nouveau soumis au problème d'échantillonnage vu plus haut
b) Même avec un nombre délirant de bus et une sensibilité très poussée le transcodage en numérique va faire passer de simulation à émulation.
Je pensais aux dialogues asynchrones entre machine d'état indépendante. Mais on peut aussi rajouter les indéterminismes que l'on peut avoir sur les "network on chip" qui sont asynchrones pour des raisons de performance.
Mais l'asynchronicité n'empêche pas le déterminisme, heureusement d'ailleurs. Quand aux NoC, si il peut y avoir de l’indéterminisme au niveau du routage, mais généralement il n'y en a pas au niveau du traitement du message. (Et pour finir j'ajouterai que j'attend de voir un NoC qui fonctionne ailleurs que sur le simulateur VHDL du labo qui l'a codé avant de considéré la techno comme prête à la mise en vente sous 5/10 ans)
[^] # Re: normal
Posté par Kaane . En réponse au journal MySQL est une bouse immonde. Évalué à 2.
Sauf que dans le monde des bases de données, il n'y a que des internet explorer!
La grande majorité des bases de données proprios et même la plupart des bases de données libre sont compatibles SQL92 voire SQL99.
Après comme partout il y a des extensions propriétaires, parfois bien pratiques et donc souvent sur-utilisées. Mais même Oracle commence à faire les cascade de CASE proprement.
Après au niveau du support du support SQL2003 c'est assez variable, mais bon SQL2003 part un peu dans tous les sens avec de multiples modules et des éléments comme le support d'ADA ou l'accès aux données via des maps objet/XML qui sont d'une utilité assez limité quand même.
[^] # Re: normal
Posté par Kaane . En réponse au journal MySQL est une bouse immonde. Évalué à 10.
J'adore cette partie de la doc MySQL, c'est je crois ma préférée :
Elle commence par expliquer comment enlever les auto-insert et les auto-update du timestamp :
Donc si on veut pas mettre le timestamp à jour il suffit de rajouter DEFAULT 0 dans la définition de la colonne
C'est d'ailleurs redonné en exemple plus tard
Là on voit bien, ts1 aura une valeur à 0 par défaut, et ts2 aura la valeur current_timestamp
SAUF QUE :
Ah oui, si on est en mode transactionnel, par défaut le 0 est en fait le #0 et ne peut pas être utilisé pour une date. C'est l'option NO_ZERO_DATE. Bon alors comme le #0 c'est un poil un standard SQL on va peut-être pas y toucher de peur des effets de bords et décider de mettre à jour à une autre date. Le truc c'est qu'il y a peut être des éléments dont on ne connais pas encore la date, ou d'autres qui n'en ont pas. Dans ce cas là on prend NULL
SAUF QUE :
Ah merde, ils l'aiment vraiment le current_timestamp chez MySQL. Bon alors si je mets NULL, ca va me rentrer le current_timestamp et en plus je peux pas mettre 0 comme date repère… Heureusement je peux déclarer NULL comme une valeur possible.
Bon alors ts2 ne marche pas en transactionnel parce que NO_ZERO_DATE est actif par défaut. Mais avec les deux autres on devrait pouvoir s'en sortir. Cependant on a un peu pleuré quand même pour la mise en place.
Phénomène amusant : sous MySQL la première colonne définie de type timestamp qui n'a pas de default est considéré comme auto-initialisée / auto-updatée. Ce qui veut dire que si vous mettez un default 0/default 1/default NULL dans cette première colonne, la colonne de type timestamp suivante deviendra auto-updatée automatiquement. On ajoute à cela le fait que MySQL jusqu'à la version 5.6.4 prend les microsecondes, les affiche, peut faire des calculs dessus MAIS NE LES STOCKE PAS ! Il arrondit à la seconde supérieure avant de stocker.
Après les gens se demandent pourquoi sous MySQL je stocke toutes mes dates au format DECIMAL, et je fais les conversions à la volée.