Hello les moules,
J'ai installé récemment la dernière version de kdenlive 25.04.0 qui intègre un super effet segmentation d'objet, object mask en anglais, pour isoler automatiquement un objet particulier dans une séquence vidéo et créer des masques réutilisables dans la timeline. C'est basé sur un modèle d'apprentissage appelé SAM2.
Mais damned ! Je tombe sur cette erreur lors de son utilisation
/usr/local/lib/python3.13/site-packages/torch-2.7.0-py3.13-linux-x86_64.egg/torch/cuda/__init__.py:174: UserWarning: CUDA initialization: The NVIDIA driver on your system is too old (found version 11040). Please update your GPU driver by downloading and installing a new version from the URL: http://www.nvidia.com/Download/index.aspx Alternatively, go to: https://pytorch.org to install a PyTorch version that has been compiled with your version of the CUDA driver. (Triggered internally at /pytorch/c10/cuda/CUDAFunctions.cpp:109.)
return torch._C._cuda_getDeviceCount() > 0
Je suis touché par l'obsolescence !! Il faut dire que mon PC de montage vidéo, un ACER Predator G3-605 a dépassé maintenant les 10 ans, ce qui est un âge plus qu’honorable pour un PC et pourtant jusqu'à présent je m'en contentais largement et ça me posait pas de problème particulier pour faire de l'édition vidéo et d'autres traitements gourmands en ressource comme le transcodage.
Affolé par le prix du neuf que ce soit avec un PC prêt à l’emploi ou en pièces détachées, j'ai lorgné vers l’occasion mais ma crainte est de tomber sur un modèle bruyant alors que mon PC actuel est très silencieux (hors calcul intensif). Finalement j'opte pour un simple changement de la carte graphique en visant l’occasion. Ma carte mère a un slot PCI-E génération 3, on est passé maintenant aux générations 4 et 5. Même si les GPU prévus pour la génération 4 sont rétrocompatibles avec la génération antérieure avec la restriction que toutes leurs performances ne pourront être exploitées totalement, je préfère rester avec un GPU de génération 3 pour ne pas prendre de risque avec un gap trop important. Souhaitant rester dans le monde Nvidia, je jette mon dévolu sur une GeForce RTX 2070 qui est une des dernières cartes PCI-E gen 3 sortie en 2018. Ce site me donne une augmentation potentielle de puissance estimée à 235% par rapport à ma vieille GeForce GTX 760 sortie en 2013.
Au fil de mes recherches, je trouve sur un célèbre site de vente aux enchères une carte RTX 2070 avec une alimentation compatible pour 226€ frais de port compris et ça tombe bien car je n’ai qu’un alimentation de 500W et la puissance minimum conseillée est de 650W. Aussitôt reçue, aussitôt montée :
Finalement je n’installe pas la nouvelle alimentation, je me rends compte qu’elle n’est pas compatible avec ma carte mère ! Pas grave, elle servira toujours pour un futur upgrade de carte mère.
Je ne saurais dire si j’ai fait une bonne affaire, cette carte a tout de même 7 ans. J’espère juste que ça sera suffisant pour tenir quelques années encore les évolutions logicielles à venir de mon logiciel de montage vidéo favori.
Sur ma mageia 10 Cauldron, j'ai utilisé les packages de la distribution et je suis passé de la version du driver 470 et de CUDA 11.4 à la version 550 et CUDA 12.4, sachant que sur le site de Nvidia je vois qu’il existe une version 570 compatible avec ma 2070, je devrais donc bénéficier des dernières mises à jour aussi longtemps que la carte est soutenue. Voilà ce me renvoie maintenant la commande nvidia-smi :
Sat May 17 09:13:17 2025
-----------------------------------------------------------------------------------------
| NVIDIA-SMI 550.163.01 Driver Version: 550.163.01 CUDA Version: 12.4 |
|----------------------------------------- ------------------------ ----------------------
| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|========================================= ======================== ======================|
| 0 NVIDIA GeForce RTX 2070 Off | 00000000:01:00.0 On | N/A |
| 17% 39C P8 9W / 175W | 133MiB / 8192MiB | 20% Default |
| | | N/A |
----------------------------------------- ------------------------ ----------------------
-----------------------------------------------------------------------------------------
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=========================================================================================|
| 0 N/A N/A 2948 G /usr/libexec/Xorg 128MiB |
| 0 N/A N/A 3210 G xfwm4 2MiB |
-----------------------------------------------------------------------------------------
Pour pouvoir l’exploiter maintenant j’ai compilé ffmpeg avec la suite logicielle CUDA permettant d’exploiter l’accélération matérielle d’un GPU Nividia. Les subtilités de compilation sont indiquées ici, ce n’est pas immédiat car la version du compilateur gcc a son importance. Un test de transcodage avec avidemux avec l’encodeur Nvidia HEVC prend au moins 2 à 3 fois moins de temps et surtout cela ne fait aucun bruit alors qu’auparavant mon CPU faisait un raffut de tous les diables pendant l’encodage. Mais je suis quand même bien loin des 235% de gain. Je n'observe pas de problème particulier lié à la puissance de mon alimentation.
Retour sur kdenlive avec la segmentation d’objets. J’ai repris totalement la compilation des bibliothèques et outils utiles et nécessaires comme on peut le voir là et le plugin est maintenant pleinement opérationnel.
Il en reste pas moins que mon GPU reste sous utilisée lors de l’édition vidéo avec le travail sur la timeline et c’est bien dommage. La roadmap de kdenlive indique que ça devrait arriver à moyen terme, sans plus de précision.
# Performances
Posté par Meku (site web personnel) . Évalué à 3 (+1/-0). Dernière modification le 24 mai 2025 à 09:52.
Les 235% de performance en plus, c'est une note très théorique, basée sur ce que le site de comparaison nomme lui-même « Score de référence synthétique combiné ». Il y a tellement de paramètres qui diffèrent qu'il est impossible d'atteindre +235% dans tous les cas de test.
D'ailleurs, on voit sur ce site que les plus gros gain en pourcentage sont sur les résolutions élevées. Effectivement, en 4K la GTX 760 sera totalement à la rue alors que la RTX 2070 peut s'en sortir sur certains jeux. Sur des résolutions plus basses, l'écart est moindre (bien qu'important tout de même). Sans compter les fonctionnalités non disponibles sur l'ancienne carte (DLSS, Ray Tracing, …) qui peuvent jouer sur les résultats des benchs, mais qui ne seront pas utilisés dans tous les cas de la vie réelle.
J'ai récemment benchmarké (glmark2) mon APU Ryzen 780M d'un nouveau portable que j'ai comparé à ma NVIDIA GTX 980M d'un portable plus ancien (~8 ans d'écart), les scores de certains benchs outrepassaient largement la GTX 980M, mais après en jeu (Alien Isolation), les performances me semblaient du même ordre de grandeur.
Sinon, il n'y a pas de problème à utiliser une carte moderne sur un port PCIe 3. Ma carte mère a 11 ans et supporte très bien ma RTX 4070. Dans les quelques benchs que j'ai pu voir sur le net qui comparaient la différence entre PCIe 3 et 4 ou 5, ce n'était pas des écarts de performances très grands non plus (exemple : https://www.techspot.com/review/2104-pcie4-vs-pcie3-gpu-performance/).
Et pour ton alimentation : ta GTX 760 consommait (TDP) jusqu'à 170 W contre 175 W pour la RTX 2070… l'écart est minime, et l'alimentation d'origine de ta machine était supposée déjà bien dimensionnée. Après je ne suis pas spécialiste, peut-être qu'il y a des plus gros pics à encaisser sur les cartes modernes mais bon, intuitivement j'aurais tendance à penser que non, que les cartes modernes suivent une conception similaire d'un point de vue consommation électrique au fil des générations.
# Screenshot
Posté par Colin Pitrat (site web personnel) . Évalué à 2 (+0/-0).
Mais c'est "l'ami du bon goût" qui fait de la planche à voile !
(Pour ceux qui n'ont pas la ref: Defakator)
# RTX 2070
Posté par Cyprien (site web personnel) . Évalué à 2 (+0/-0).
J'ai moi même acheté cette carte d'occasion sur le bon coin il y a quelques mois…
Par contre, je trouve que tu l'as eut un peu chère (même si il y avait l'alimentation avec), la mienne, je l'ai payé 120€ (c'est une gigabyte).
En tous les cas, elle marche super bien de mon côté :)
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.