Dans le diagramme données en exemple, je trouve que le positionner le block appname = "docker en dessous de la source prête à confusion.
Le ligne grise est trop fine pour comprendre que l’exécution reprend après le syslog, on (je) a l'impression qu'un nouveau traitement commence.
Je l'aurai plutôt vu en dessous du block appname = "prometheus" ; pour être à droite de la source.
Ne connaissant pas React Flow, je ne sais pas si l'agencement est automatique ou choisi par l'utilisateur. Dans le second cas, c'est d'autant plus facile à corriger ;)
J'ai pas creusé la doc ou le code mais comme c'est évoqué dans le journal, je pose la question ici.
Qu'est ce qui a dicté le choix de badgerdb plutôt qu'un base de données SQL type Postgres ou SQLite si on cherche de l'embarqué ?
Ma compréhension est que l'outil sert à définir et exécuter un traitement sur une source de logs. Je suppose donc que l'outil ne stocke que des données de "gestion", pas les données en elles-mêmes. Ainsi je ne vois pas le besoin d'un stockage spécialisé.
Ce que tu stockes sur disque est peu important, en particulier si ça reste en autour de quelques 10aine de MB.
Ce qui est important, c'est le besoin en RAM, CPU, Stockage des data, bande passante.
Ainsi si il faut ajouter 10MB au binaire pour embarquer un moteur de stockage qui permet d'économiser des GB parce qu'il organise mieux les données, j'hésite pas.
Ce que tu décris ressemble plutôt à zoxide : "A smarter cd command".
Atuin c'est pour améliorer la gestion de l'historique shell : stockage, recherche, synchro. Pour cela moi j'utilise (une version modifiée de) hishtory.
J'ai pas trop creusé ce langage en particulier mais j'aimerai beaucoup un langage comme python mais avec les capacités de redirection du shell : | et >. Donc il y a une niche à prendre.
Avoir du matériel Apple, c'est avant tout pour afficher son status social. Par conséquent, on ne peut pas afficher du vieux matériel Apple. Tu es presque obliger de t'excuser "oui c'est iphone 13 mais j'ai commandé le 15, promis".
Pas de soucis avec le moinssage, je ne cherchais pas l'adhésion.
En revanche, je pense que sur ce type d'exercice de résumé/synthèse, un LLM est moins prompt aux hallucinations que sur une question ou une discussion ouverte. Il est borné par 21000 tokens, en génère 700. Sur une question ouvertes, il va prendre 50 tokens en entrée et en générer 500, beaucoup plus de place pour inventer.
Je serai même tenté de dire que si les tournures de texte ne sont pas trop alambiquées, il s'en sortira largement aussi bien qu'un humain. Que moi en tout cas.
Et si on a des sources sur le sujet, ce serait instructif.
"réflexe" supposerait que je le fais systématiquement, tu n'en sais absolument rien.
En l’occurrence, il s'agissait plus de curiosité, de voir ce qu'un LLM pourrait régurgiter.
plutôt que de lire la description
L'un n'empêche pas l'autre. Et puisque tu parles de réflexe, donc d'une pratique généralisée, note que toutes les vidéos n'ont pas une description et un plan bien écrit. Donc ta pratique n'est pas généralisable, cela ne peut pas constituer un réflexe efficace.
tu peut aussi commencer et arrêter à tout moment ta lecture
Mais si le contenu est intéressant, ça va prendre 1h20 alors que lire une synthèse me prendra 15 min.
La question n'est pas là. L'op s'attendait avec une implémentation naïve et similaire à un ordre de magnétude en faveur du C, car Javascript est dit interprété. Mais ce n'est pas vrai, JS dans Node et d'autres runtime est compilé par un JIT. Fin de l'histoire.
[^] # Re: loggué dans un excel ? beurk
Posté par steph1978 . En réponse au message Automatisation PDF avec ID unique + logs dans fichier xls. Évalué à 2.
Tu les mets où les macro dans le csv ?
# tuto pour un dyson v6
Posté par steph1978 . En réponse au message Soudage/déssoudage d'éléments dans un bloc de batterie (pour remplacement). Évalué à 2.
https://yewtu.be/watch?v=bYrkYSHJ_k4
# agencement des blocks
Posté par steph1978 . En réponse au journal FlowG - Une solution "Low Code" de traitement de journaux (systèmes). Évalué à 4.
Dans le diagramme données en exemple, je trouve que le positionner le block
appname = "docker
en dessous de la source prête à confusion.Le ligne grise est trop fine pour comprendre que l’exécution reprend après le syslog, on (je) a l'impression qu'un nouveau traitement commence.
Je l'aurai plutôt vu en dessous du block
appname = "prometheus"
; pour être à droite de la source.Ne connaissant pas React Flow, je ne sais pas si l'agencement est automatique ou choisi par l'utilisateur. Dans le second cas, c'est d'autant plus facile à corriger ;)
# nosql ?
Posté par steph1978 . En réponse au journal FlowG - Une solution "Low Code" de traitement de journaux (systèmes). Évalué à 4.
J'ai pas creusé la doc ou le code mais comme c'est évoqué dans le journal, je pose la question ici.
Qu'est ce qui a dicté le choix de badgerdb plutôt qu'un base de données SQL type Postgres ou SQLite si on cherche de l'embarqué ?
Ma compréhension est que l'outil sert à définir et exécuter un traitement sur une source de logs. Je suppose donc que l'outil ne stocke que des données de "gestion", pas les données en elles-mêmes. Ainsi je ne vois pas le besoin d'un stockage spécialisé.
[^] # Re: avis defavorable sur ELK
Posté par steph1978 . En réponse au journal FlowG - Une solution "Low Code" de traitement de journaux (systèmes). Évalué à 4.
Je trouve ces choix judicieux.
Stocker des logs dans ELS, c'est hyper luxueux. Il y a des produits plus économes comme Loki.
En même temps, je lis que - et je connais - des gens stockent leurs logs dans Spl€€€k alors pourquoi pas dans ELS.
[^] # Re: saoultion légère ?
Posté par steph1978 . En réponse au journal FlowG - Une solution "Low Code" de traitement de journaux (systèmes). Évalué à 4.
Ce que tu stockes sur disque est peu important, en particulier si ça reste en autour de quelques 10aine de MB.
Ce qui est important, c'est le besoin en RAM, CPU, Stockage des data, bande passante.
Ainsi si il faut ajouter 10MB au binaire pour embarquer un moteur de stockage qui permet d'économiser des GB parce qu'il organise mieux les données, j'hésite pas.
# cadriciel
Posté par steph1978 . En réponse à la dépêche Sortie de Crème CRM en version 2.6. Évalué à 4.
Qu'est ce qui peut être étendu ? Est-ce qu'il y a de la doc ? Est-ce qu'il y a déjà des réalisation d'extension ?
[^] # Re: D'autres, prinpalement en rust
Posté par steph1978 . En réponse au journal Quelques gemmes en CLI. Évalué à 2.
Ce que tu décris ressemble plutôt à zoxide : "A smarter cd command".
Atuin c'est pour améliorer la gestion de l'historique shell : stockage, recherche, synchro. Pour cela moi j'utilise (une version modifiée de) hishtory.
# accès aux enregistrements ?
Posté par steph1978 . En réponse à la dépêche ConFoo Montreal 2025 : l’appel à conférences est ouvert . Évalué à 2.
je n'ai pas su trouver les enregistrements des conférences précédentes, un lien ?
[^] # Re: Langage intéressant, mais
Posté par steph1978 . En réponse au lien Hush : un shell calme. Évalué à 2.
J'ai pas trop creusé ce langage en particulier mais j'aimerai beaucoup un langage comme python mais avec les capacités de redirection du shell :
|
et>
. Donc il y a une niche à prendre.# pendant ce temps là
Posté par steph1978 . En réponse au lien La DARPA veut traduire automatiquement le code C/C++ en Rust. Évalué à 2.
Des gens font des trucs sérieux : Don’t Write, but Return: Replacing Output Parameters with Algebraic Data Types in C-to-Rust Translation
[^] # Re: Bof
Posté par steph1978 . En réponse au lien Susan Wojcicki, Former Chief of YouTube, Dies at 56. Évalué à 0.
Don't be evil, be susan.
[^] # Re: Non, HTTP/3 n'est pas vraiment sur UDP
Posté par steph1978 . En réponse à la dépêche 24 ans de libcurl. Évalué à 3.
Et pourtant, Wikipedia, HTTP/3, premier paragraphe:
Et dans l'article sur QUIC:
[^] # Re: Je me méfie quand il s'agit de nos amis états-uniens
Posté par steph1978 . En réponse au lien La DARPA veut traduire automatiquement le code C/C++ en Rust. Évalué à 2.
Je ne contestais pas la création de vilnérabilité ; je constestais le "volontairement".
# j'ai testé
Posté par steph1978 . En réponse au lien HTMZ le petit frêre de HTMX. Évalué à 2.
Les +:
Les -:
C'est une astuce interessante, à garder sous le coude
[^] # Re: sur le sujet en français
Posté par steph1978 . En réponse au lien Wikimedia DNS : un nouveau résolveur DNS public. Évalué à 2.
À noter que Quad9 est suisse, pas américain.
[^] # Re: Tout les deux ou trois ans
Posté par steph1978 . En réponse au lien « 5 raisons pour lesquelles Linux finira par dépasser Windows […] sur les ordinateurs de bureau ». Évalué à 2.
Avoir du matériel Apple, c'est avant tout pour afficher son status social. Par conséquent, on ne peut pas afficher du vieux matériel Apple. Tu es presque obliger de t'excuser "oui c'est iphone 13 mais j'ai commandé le 15, promis".
[^] # Re: Je me méfie quand il s'agit de nos amis états-uniens
Posté par steph1978 . En réponse au lien La DARPA veut traduire automatiquement le code C/C++ en Rust. Évalué à 2.
Ils ne parlent pas de transformer du code mis au commun mais plutôt leur base de code.
[^] # Re: 100 milliard en 2012
Posté par steph1978 . En réponse au lien Les milliards engloutis d’OpenAI : la faillite serait proche - frandroid. Évalué à 3.
Très utile quand on aura plus d'eau potable, plus d'air respirable, plus assez de terres fertiles pour nourrir 10G d'êtres humains.
[^] # Re: Réponse du comité
Posté par steph1978 . En réponse au journal Le mél que je viens d'envoyer au Comité d'Organisation des JO. Évalué à 9.
Pas besoin d'être googlisé, pas besoin d'ami :), installe https://f-droid.org/en/packages/com.aurora.store/ et télécharge cette
saloperie d'appli.[^] # Re: qu'en pense mon LLM
Posté par steph1978 . En réponse au lien La dévastation du monde. Évalué à 4.
Pas de soucis avec le moinssage, je ne cherchais pas l'adhésion.
En revanche, je pense que sur ce type d'exercice de résumé/synthèse, un LLM est moins prompt aux hallucinations que sur une question ou une discussion ouverte. Il est borné par 21000 tokens, en génère 700. Sur une question ouvertes, il va prendre 50 tokens en entrée et en générer 500, beaucoup plus de place pour inventer.
Je serai même tenté de dire que si les tournures de texte ne sont pas trop alambiquées, il s'en sortira largement aussi bien qu'un humain. Que moi en tout cas.
Et si on a des sources sur le sujet, ce serait instructif.
[^] # Re: qu'en pense mon LLM
Posté par steph1978 . En réponse au lien La dévastation du monde. Évalué à 3.
"réflexe" supposerait que je le fais systématiquement, tu n'en sais absolument rien.
En l’occurrence, il s'agissait plus de curiosité, de voir ce qu'un LLM pourrait régurgiter.
L'un n'empêche pas l'autre. Et puisque tu parles de réflexe, donc d'une pratique généralisée, note que toutes les vidéos n'ont pas une description et un plan bien écrit. Donc ta pratique n'est pas généralisable, cela ne peut pas constituer un réflexe efficace.
Mais si le contenu est intéressant, ça va prendre 1h20 alors que lire une synthèse me prendra 15 min.
[^] # Re: qu'en pense mon LLM
Posté par steph1978 . En réponse au lien La dévastation du monde. Évalué à 8.
Mon avis est que je ne vais pas regardé une vidéo de 1h20 sans savoir un peu de quoi cela parle.
[^] # Re: Une autre piste
Posté par steph1978 . En réponse au message Je veux bien que JavaScript soit optimisé, mais quand même !.... Évalué à 2.
La question n'est pas là. L'op s'attendait avec une implémentation naïve et similaire à un ordre de magnétude en faveur du C, car Javascript est dit interprété. Mais ce n'est pas vrai, JS dans Node et d'autres runtime est compilé par un JIT. Fin de l'histoire.
[^] # Re: que dit le CPU(s) ?
Posté par steph1978 . En réponse au message Je veux bien que JavaScript soit optimisé, mais quand même !.... Évalué à 2.
À ma connaissance, aucun runtime JS ne fait ce que tu décris.
Et d'après mes tests, node 20 ne le fait pas:
On vois que le JS comme le C n'utilisent qu'un seul CPU à 100% pendant environ 2s.
IMHO l'explication c'est le JIT qui va transformer le JS en instructions natives et donc avec des performance comparable à la compilation AOT du C.