Journal Nepomuk: Drôle d'animal !

Posté par .
Tags : aucun
0
20
fév.
2006
Nepomuk est une initiative "open source", financée en partie par la commission européenne, pour offrir une alternative à Google desktop & co , le tout épicé avec un peu d'IA et de social bookmarking.

Après recherche sur le site, personne ne semble avoir relayé cette news, Alors voici un petit os à ronger, en ces temps de disette vacancière.

http://www.zdnet.fr/actualites/informatique/0,39040745,39312(...)
http://www.toolinux.com/news/logiciels/mandriva_participe_au(...)
  • # L'annonce ...

    Posté par . Évalué à 4.

    ... sur Mandriva :

    http://wwwnew.mandriva.com/en/company/press/pr/mandriva_to_p(...)

    Perso, je trouve ça super intéressant. Moi qui fais des études dans l'IHM, j'aimerai bien voir ce qu'ils sont en train de mettre au point.

    Mais en attendant ... vivement KDE4 ;) (je sais, il n'y a aucun rapport ;) )
  • # Maay

    Posté par . Évalué à 4.

    Puisqu'un récent forum parlait de la R&D française...
    Frédéric Dang Ngoc a fait sa thèse (chez France Telecom R&D) sur Maay, projet de desktop search en P2P distribué sous licence GPL.
    http://maay.netofpeers.net

    Malheureusement le projet est à l'abandon.
    • [^] # Re: Maay

      Posté par . Évalué à 3.

      Très interessant cette approche. L'idée qui consiste à composer le voisinage sémantique et la popularité d'un document a l'air vraiment novatrice.
      http://maay.netofpeers.net/wiki/index.php/Personalized_Relev(...)

      Ca a effectivement l'air d'être l'idée qui sera mise en place dans le projet Nepomuk.
      Peut-être qu'ils vont réutiliser une partie de ces travaux.

      Je sens qu'on va bientôt assister à une réplique de la part de Google.
      • [^] # Re: Maay

        Posté par (page perso) . Évalué à 3.

        C'est marrant car je réfléchi en ce moment àune idée similaire mais plus tordue.
        Il s'agirai en fait d'une intelligence sémantique émergente, matérialisé par un graphe sémantique, à qui on apprend des phrases.
        Dans ce graphe, chaque mot est associé à sa valeur grammaticale. Pour l'apprendre, j'aimerai lui faire avaler le dictionnaire de l'académie française : j'ai un format "MOT. abrv. abrv. "où "abrv. abrv." code la nature grammaticale du mot.
        A chaque fois qu'on lui soumet une phrase il enregistre la structure grammatical et la relation sémantique entre les mots de la phrase. A force d'en avaler, emmergent des relations sémantiques fortes (on a un graphe à coefs).

        Je défini (pour le moment) les axiomes suivants :

        - "Evenement/processus temporel",
        - appartient_à_sma
        - est_agent_de_sma.
        - "est_en_intéraction_avec_agent"

        Je compte définir le verbe être avoir et faire avec ces opérateurs.

        Le système passe son temps à cracher des phrases au hasard, en fonction du bon niveau ( > 0,7 en moyenne par exemple) des coefs dans un sous graphe et d'une grammaire connue. (ie. il forme une phrase en cherchant un sous graphe en rapport avec la dernière phrase lu, ayant un coefs moyen supérieur à une valeur déterminée, et respectant une grammaire donnée).

        Il faut aussi concevoir un système permettant au module de production de grammaire, dévoluer afin d'affiner ces grammaires de sorties, et les faire évoluer pour les contextualiser.

        Le but est d'arriver à "Humain : Que mange une vache ? Réseau sémantiq : vache manger herbe" voire "Les vaches mangent de l'herbes".

        C'est ce problème d'algo d'évolution de la grammaire adaptative à la sémantique de la question qui me pose problème.

        Un tel système pourrait peut être avoir des applications en tant que moteur de recherches, en taggant les phrases (les sous graphes de mots) avec des liens web.

        A mon avis, je n'ai pas été très clair ;-) Désolé, c'est pas simple à expliquer ;)

        « Il n’y a pas de choix démocratiques contre les Traités européens » - Jean-Claude Junker

        • [^] # Re: Maay

          Posté par (page perso) . Évalué à 2.

          J'ai à peu près saisi ce que tu cherches à exprimer :-)
          Mais, comment les données que tu donnes à manger à ton programme sont-elles créer ?

          "il enregistre la structure grammatical et la relation sémantique entre les mots"
          -> comment il connait ça ?

          Pour l'instant, à ma connaissance, il n'y a pas de parser grammatical "complet" du français. Et ça doit être un vrai bordel avec les exceptions et les tournures de phrase.
          • [^] # Re: Maay

            Posté par (page perso) . Évalué à 2.

            Mais, comment les données que tu donnes à manger à ton programme sont-elles créer ?

            De différentes façons :

            - la manière dirigée ; je pense à quelques instructions particulières qui correspondrait à des opérateurs sémantiques axiomatiques ou créé par darwinisme autour des axiomes. Par exemple on pourrait créer l'instruction champ_lexical(mot1,mot2).
            Avec cette instruction, on lui fait bouffer les champs lexicaux que l'on peu trouver (tappes champ lexical dans google, yen a)
            - La manière non dirigée : on lui fait bouffer wikipedia, le chan #gcu sur irc (c'est parti d'une discussion entre #gcuien), etc... Tu pourras lui parler. A chaque fois que tu lui donnes une phrase, il la prend pour vrai et update son graphe (coefs, liens, etc...)

            il enregistre la structure grammatical et la relation sémantique entre les mots"
            -> comment il connait ça ?

            Pour les relations grammaticales, j'ai écrit que je compte lui faire bouffer le dictionnaire de l'académie où chaque mot est associé à sa nature grammaticale.
            Pour les relations sémantique, c'est à lui de se débrouiller, il défini lors de la capture, une relation sémantique de phrase, après, c'est le système qui crée et fait évoluer par évolution darwinienne le système de requetage grammatical, qui va créer de meilleurs liens en associant, à chaque capture d'une phrase, structure grammaticale "la(dét) vache(nom commun) mange(verbe) de(dét) l(dét élidé) ' herbe (nom commun)" à partir de la nature grammatical des mots mais aussi mot clés, thématique, champ lexical.
            En fait il contextualise une forme de méta-grammaire à un champ lexical.

            C'est la fonction de fitness qui me pose beaucoup de problèmes

            Pour l'instant, à ma connaissance, il n'y a pas de parser grammatical "complet" du français. Et ça doit être un vrai bordel avec les exceptions et les tournures de phrase.
            C'est pour ça que je préfère faire en sorte qu'il émerge.

            J'ai l'ambition de faire un programme tout simple, tout petit, un méta-programme en qq sorte, qui évolue tout seul.

            « Il n’y a pas de choix démocratiques contre les Traités européens » - Jean-Claude Junker

  • # Et l'existant ?

    Posté par . Évalué à 2.

    J'ai remarqué sur le site que ce projet référence de multiples projets qui sont dans le même esprit, comme par exemple Beagle.Mais est ce que ce projet va se baser sur des produits qui existent déja ou va tout recréer "from scratch" ?
    • [^] # Re: Et l'existant ?

      Posté par . Évalué à 3.

      Si c'est un projet bureaucratique digne de ce nom, ils vont forcément réécrire from scratch (ne serait-ce que parce qu'il faut absolument utiliser des technologies sérieuses comme Java ou .Net).
      ;)
      • [^] # Re: Et l'existant ?

        Posté par . Évalué à 1.

        C'est vrai qu'on n'avait pas encore trollé, ici... :)
        • [^] # Re: Et l'existant ?

          Posté par . Évalué à 1.

          C'est pas pour troller. C'est juste pour dire que ce serait malheureux de jeter dans les toilettes, une application qui marche à peut prés bien pour refaire une application équivalente.
          • [^] # Re: Et l'existant ?

            Posté par . Évalué à 2.

            on notera comment "dans le même esprit" est déjà devenu "application équivalente"...
            • [^] # Re: Et l'existant ?

              Posté par . Évalué à 1.

              Bah je suis pas trés fort en truc/machin sémantique. Mais je suppose que pour avoir des truc/machin de sémantique, il faut d'abord les données. Et pour les avoir faut bien indexer. Donc par exemple beagle, il me semble faire "l'équivalent" de ça. Bon bien sur il doit avoir des relations différentes entre les données indexées. Mais ça reste quand même la même chose.
      • [^] # Re: Et l'existant ?

        Posté par . Évalué à 2.

        Pour ce projet je ne sais pas... Mais en ce qui concerne d'autres projets du fp6 de l'IST (l'organisme de financement de ce projet mais aussi d'autres projets de R&D européen), il est clairement hors de question de tout réinventer...

        Et pour info que des gens qui travaillent sur ce genre de projet trainent également par ici ;-)
    • [^] # Re: Et l'existant ?

      Posté par . Évalué à 2.

      ...Et si c'est un projet R&D digne de ce nom, il vont bosser pendant 5 cinq ans pour produire des articles tres compliques pour SIGMOD et VLDB, vont sortir un proto qui marchotte un peu "ouais, on peut le faire" et passer a autre chose apres!

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.