cher vous :)
c'est quoi pymecavideo ? en gros : un logiciel pour étudier les trajectoire à partir d'une vidéo.
-> http://linuxfr.org/2008/01/07/23538.html
-> http://linuxfr.org/~smurfy/25941.html
suite à vos retours et à notre première expérience, nous avons repensé pymecavideo de fond en comble. Plus question maintenant de pointer 1 référentiel en plus... mais tout simplement, vous pointez autant de points qu'il vous sied.
Ensuite, l'onglet trajectoire vous permet directement de visualiser la trajectoire dans l'un des points que vous aurez choisi.
TOP OF THE POPS !!!!! :
il y a même possibilité de visualiser la vidéo dans le référentiel choisi. Cette video est fabriquée selon votre pointage. Intéressant pour vérifier la relativité du mouvement.
Enfin, toute dépendance relative à transcode a été enlevée, reste ffmpeg.
(obligatoire)
-> possibilité d'exporter les données afin d'utiliser labplot ou OpenOffice.
toujours de petits bugs. (dans l'afficahge des vitesses) mais rien de bien méchant.
Prof de physique qui passe :
pymecavideo testé et approuvé par 64 élèves de secondes (tout sous linux -> qastrocam pour la fabrication de l'AVI -> puis passage à pymecavideo)
pymecavideo bientôt testé avec les 1ere S et le théorême de l'énergie cinétique
j'oubliais :
rpm pour mandriva -> http://pyfocus.free.fr/upload/pymecavideo-2.0-3mdv2008.0.i58(...)
le spec pour ceux qui veulent refaire leur rpm :
http://pyfocus.free.fr/upload/pymecavideo_2.0.spec
le svn :
svn co svn://lucette-serveur.hd.free.fr/pymecavideo
# Question
Posté par Marc Poiroud (site web personnel) . Évalué à 2.
vu que tu sembles maitriser les captures de déplacements devant une webcam, j'ai une petite question pour toi.
Crois tu qu'il est possible de transformer sa webcam en capteur de mouvement pour jouer à Minotity Report avec ses fenêtres ?
En gros, pouvons nous espérez agir sur notre bureau grâce aux mouvements captés par la webcam ?
Cela pourrais être du déplacement de fenêtres, du changements du bureau, sélection de fenêtre, fermeture de fenêtre ...
Merci.
[^] # Re: Question
Posté par Dragon . Évalué à 2.
cf http://nuigroup.com/log/comments/blob_tracking_with_vvvv/
Eux se servent de la capture de blobs mis en évidence par des UV et la structure de la table (pour pouvoir faire abstraction de l'image vidéo envoyée par le vidéoproj), ton projet capture des mouvements dans l'espace.
La question que je me pose : Peut-on capturer des mouvements en faisant abstraction d'une image vidéoprojetée ?
[^] # Re: Question
Posté par timid . Évalué à 2.
http://www.cs.cmu.edu/~johnny/projects/wii/
Un mec qui utilise la caméra infrarouge de la wii pour faire plein de trucs de ce genre, regardes les vidéos !
[^] # Re: Question
Posté par Marc Poiroud (site web personnel) . Évalué à 2.
L'interface du futur, ne viendra peut être pas avec la 3D mais avec la manière dont nous agissons sur notre système, la souris sera t'elle encore là si on peut reproduire les mouvements avec nos mains :)
[^] # Re: Question
Posté par Aefron . Évalué à 3.
Bon, après, je ne dis pas que ce ne serait pas sympathoche, mais j'ai des doutes sur le confort d'utilisation...
[^] # Re: Question
Posté par djibb (site web personnel) . Évalué à 2.
Cependant, Qsatrocam a un super truc sympatoche :
pour peu que l'objet ressorte bien devant le fond (planète, étoile), qastrocam peut la suivre et la centrer.
Qastrocam est utilisée pour cela lors d'un autoguidage par exemple.
je ne connais pas bien le principe mais ça fonctionne vraiment bien :
qastrocam -dc
(de mémoire)
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.