Les cartes graphiques actuelles proposent l'acceleration materielle pour le decodage HD (mais aussi l'encodage).
regarde le lien que j'ai linké dans mon premier post.
Le CPU (i5 3570K) tout seul encode en H.264 la sequence test en 255 secondes.
En utilisant CUDA sur une grosse carte recente (GTX670/680), on passe a 75 secondes.
En utilisant quick sync (la technologie d'encodage du HD4000 integré au CPU), on passe a 34 secondes
Donc l'acceleration materielle, ca marche. et ca marche bien plus vite avec le core HD4000 integré qu'avec une carte graphique a 400€.
Cependant, si tu regarde le rendu, tu vois que la qualité a ete beaucoup degradée par rapport a la source.
Sur ce graphique, tu vois la qualité de l'image finale. plus c'est bas, plus c'est alteré par rapport a la source.
http://www.hardware.fr/marc/h264nv [...] tion720ps1
Quelques explications :
Citation :
ce graphique nous permet de voir l'évolution de la qualité au fil de la scène. Idéalement, on souhaiterait avoir une ligne droite, c'est-à-dire une qualité relativement constante d'une image à l'autre. Les sauts indiquent un changement brusque de qualité d'image, ce qui peut se traduire par l'apparition d'artefacts très visibles et donc dérangeants. Tous les sauts ne sont cependant pas anormaux, certaines scènes peuvent être plus faciles à compresser que d'autres
|
Regarde sur ce comparatif le rendu d'une image sur une scene rapide :
http://www.hardware.fr/marc/h264nv [...] eption720a
ou zoom sur cette image :

Donc a toi de voir, ce quel compromis du prefere faire entre durée d'encodage et qualité du rendu.
Message édité par fab04 le 09-08-2012 à 09:51:31