Test rapide de 2 Cartes graphiques en montage Vidéo

  • Auteur de la discussion andre.gerald
  • Date de début

andre.gerald

Grand VidéaVizir
Bonjour à tous

Avec un ami on s'est livré à une petite expérience
Même config à base de 3900X mais:
Pour moi CG 1660 Super ventus OC 6Go avec 1400 cores CUDA
Pour lui GeForce RTX™ 3070 GAMING OC 8G 5888 cores CUDA
Mémoire 32 Go à 3200 pour moi 32Go à 3466 pour lui
Donc différence essentielle la CG
Utilisation de voukoder pour exporter 5mn UHD HEVC 25P de mon drone en UHD HEVC 25p CBR 25 Mb/s
Avec même preset export de voukoder:
RTX™ 3070 >>>1mn 25
CG 1660 Super>>>1mn 42
Gain à la louche 16%
Son CPU est utilisé je crois autour de 50%
Comme c'est un peu pareil chez moi je pensais que c'était ma CG qui était le goulée et qui bridait mon CPU.

Bref je vais garder encore ma 1660

Faudrait bien sur d'autre tests pour voir les avantages d'une CG à 5888 cores cuda.
Sur un export l'avantage existe mais très très loin du rapport de puissance des 2 CG
Avec l'export de CC2023 c'est 1mn30s chez lui
Pas tester avec CC2020 car il utilise mal CUDA

Bref je ne sais pas en utilisation gamer mais en montage vidéo amateur c'est pas nécessaire il me semble d'avoir une carte monstrueuse
1400 cores contre 5888 cores pour un gain de 16% ...Où est l'erreur
 

magellan

Modérâleur
Staff
Bonjour à tous

Avec un ami on s'est livré à une petite expérience
Même config à base de 3900X mais:
Pour moi CG 1660 Super ventus OC 6Go avec 1400 cores CUDA
Pour lui GeForce RTX™ 3070 GAMING OC 8G 5888 cores CUDA
Mémoire 32 Go à 3200 pour moi 32Go à 3466 pour lui
Donc différence essentielle la CG
Utilisation de voukoder pour exporter 5mn UHD HEVC 25P de mon drone en UHD HEVC 25p CBR 25 Mb/s
Avec même preset export de voukoder:
RTX™ 3070 >>>1mn 25
CG 1660 Super>>>1mn 42
Gain à la louche 16%
Son CPU est utilisé je crois autour de 50%
Comme c'est un peu pareil chez moi je pensais que c'était ma CG qui était le goulée et qui bridait mon CPU.

Bref je vais garder encore ma 1660

Faudrait bien sur d'autre tests pour voir les avantages d'une CG à 5888 cores cuda.
Sur un export l'avantage existe mais très très loin du rapport de puissance des 2 CG
Avec l'export de CC2023 c'est 1mn30s chez lui
Pas tester avec CC2020 car il utilise mal CUDA

Bref je ne sais pas en utilisation gamer mais en montage vidéo amateur c'est pas nécessaire il me semble d'avoir une carte monstrueuse
1400 cores contre 5888 cores pour un gain de 16% ...Où est l'erreur
Attention: multiplier les cores CUDA ne donne pas nécessairement un ratio multiplicateur quelconque dans les outils... car il faut que l'outil sache en tirer profit.
La parallélisation des processus, c'est un sujet ultra délicat, et pire encore complexe à étudier.

On a eu ici même une discussion passionnante (et technique) mettant en exergue le problème.
https://forum.tomshardware.fr/threa...e-suis-remis-à-programmer.970528/post-8580988

Dans ces conditions, terrain miné que d'identifier le pourquoi de ce peu de gain.

Au surplus, les outils de traitement d'image/vidéo aiment à avoir derrière des CG professionnelles... Je ne sais pas si c'est encore le cas, mais la suite ADOBE était fut un temps allergique aux CG gamers qui n'avaient de différence avec les Quadro que quelques bricoles à mon sens ne justifiant pas les écarts de performance.
 

Patakesse

Gruik Gruik!
J'avais répondu à André sur l'autre forum sur lequel il avait posté.

Voici la réponse que j'avais donné :

Les unités d'exécution parallèle sont totalement indépendantes de l'encodage vidéo. L'encodage et le décodage vidéo se font via des circuits spécialisés (une puce dans la puce du GPU) qui n'ont rien à voir avec les shaders ou la partie graphique du GPU (c'est du calcul pur, des maths et encore des maths).

Shaders = unités de calcul parallèles = "processeurs de flux" chez AMD = "coeurs CUDA" chez nVidia.

Il y a bien quelques cas où les shaders peuvent être utilisés en interne (en fonction des paramètres d'encodage avancés), mais cela n'apporte pas de gain de temps significatif, c'est un choix de design des concepteurs.

Votre petit test montre juste que la partie encodage (NVENC) est un peu plus véloce sur un GPU plus récent et plus rapide.

Les shaders, on s'en sert surtout pour les effets, car cela comporte des calculs répétitifs. Par exemple, avec la 3090, je peux mettre 64 (peut-être même bien plus) Lumetris avec des LUT sur une piste, ça ne pose aucun problème, ça reste parfaitement fluide et en temps réel. De même, NeatVideo sur un clip est lu en temps réel (5950X + RTX 3090). Voilà deux exemples de ce à quoi servent les shaders. Mais ce n'est pas utilisé pour le décodage / encodage des flux de diffusion.
 

magellan

Modérâleur
Staff
J'avais répondu à André sur l'autre forum sur lequel il avait posté.

Voici la réponse que j'avais donné :

Les unités d'exécution parallèle sont totalement indépendantes de l'encodage vidéo. L'encodage et le décodage vidéo se font via des circuits spécialisés (une puce dans la puce du GPU) qui n'ont rien à voir avec les shaders ou la partie graphique du GPU (c'est du calcul pur, des maths et encore des maths).

Shaders = unités de calcul parallèles = "processeurs de flux" chez AMD = "coeurs CUDA" chez nVidia.

Il y a bien quelques cas où les shaders peuvent être utilisés en interne (en fonction des paramètres d'encodage avancés), mais cela n'apporte pas de gain de temps significatif, c'est un choix de design des concepteurs.

Votre petit test montre juste que la partie encodage (NVENC) est un peu plus véloce sur un GPU plus récent et plus rapide.

Les shaders, on s'en sert surtout pour les effets, car cela comporte des calculs répétitifs. Par exemple, avec la 3090, je peux mettre 64 (peut-être même bien plus) Lumetris avec des LUT sur une piste, ça ne pose aucun problème, ça reste parfaitement fluide et en temps réel. De même, NeatVideo sur un clip est lu en temps réel (5950X + RTX 3090). Voilà deux exemples de ce à quoi servent les shaders. Mais ce n'est pas utilisé pour le décodage / encodage des flux de diffusion.
Merci pour ces précisions plus techniques.
 

andre.gerald

Grand VidéaVizir
Grand merci à vous deux pour vos réponses :)
e ne sais pas si c'est encore le cas, mais la suite ADOBE était fut un temps allergique aux CG gamers qui n'avaient de différence avec les Quadro que quelques bricoles à mon sens ne justifiant pas les écarts de performance.
@magellan :hello:
c'est encore un peu le cas avec CC2020 que j'utilise
Mais pour mes exports j'utilise l'excellent plug Voukoder qui tire bien partie de ma CG
Utilisation CG en export pratiquement 100%
Cpu autour de 50%
Et c'est IDEM pour le copain qui a la GeForce RTX™ 3070 GAMING OC 8G
Donc c'est pas CG qui bride le CPU

avec la 3090, je peux mettre 64 (peut-être même bien plus) Lumetris avec des LUT sur une piste, ça ne pose aucun problème, ça reste parfaitement fluide et en temps réel
David :hello:
Idem avec ma petite 1660 Super ventus OC 6Go
avec lumétrie + Lut, sur un 4k HEVC du Air2S en log 10 bits et visu sur grand écran pleine résolution, je suis tout à fait fluide (y)
Mais tu écris 64 lumétries ?? ...ça j'ai pas testé.
Pourquoi 64 lumétries sur une seule piste ??
 

Patakesse

Gruik Gruik!
Pourquoi plusieurs Lumetri ?

Parce-que c'est fait pour ça, ça s'empile comme des couches, c'est indispensable. C'est la même idée qu'avec les noeuds sous Resolve. On ne fait pas l'étalonnage d'un coup, on procède par touches successives dans différentes instances (noeuds ou couches de Lumetri), et on en active ou désactive certaines pour voir ce que ça donne. De même on ne traite pas toute la surface de l'image de la même façon. On a des Lumetri dans des masques avec suivi, par exemple sur un personnage. On étalonne le ciel différemment, etc...

Donc on a besoin de pouvoir empiler plusieurs Lumetri. :)
 

TRGNN

Expert
Pour apporter plus de précisions à tes questions; il y a beaucoup de facteurs à prendre en compte. Premièrement, est-ce que tu étalonne ou pas? Des SFX ou pas? Quel logiciel?

Quelques informations en vrac:
- Adobe Premiere est une bouse en ce qui concerne la prise en charge des nouvelles architectures, Voukoder ou pas. À contrario, DaVinci Resolve, même dans sa version gratuite, saura très bien tirer parti des nouvelles CGs.
- Ceci en encodage.
- Mais aussi et surtout en étalonnage, très, très, très rapidement extrêmement gourmant. En passant de ma 3090 à ma 4090 j'ai presque vu un x2 sur des projets lourds aussi bien que plus soft (juste un ralenti ici et là et une LUT avec un glow).
- En encodage mais pas seulement, la fluidité au montage, c'est le jour et la nuit. Ceci est vraiment très flagrant quand tu commence à accumuler beaucoup de réglages.
- Mais juste un anti bruits peut ralentir beaucoup, beaucoup la machine. Et sur Revolve, il y aura une vraie différence parceque ce genre d'effets passent par les CUDA cores.
- Dernière chose, la mémoire. Une CG avec 8 Go de RAM sera très ralentie si un logiciel comme Resolve doit aller taper dans la mémoire système, ce qui arrive très vite aussi. Un denoiser, un ralenti, et une LUT sur des rushs en 8k et tu y es au 8 Go, voir plus.

J'espère que ça en aidera certains.
 
Vous devez vous inscrire ou vous connecter pour répondre ici.
Derniers messages publiés
Statistiques globales
Discussions
730 157
Messages
6 718 486
Membres
1 586 436
Dernier membre
insulevel
Partager cette page
Haut