Jump to content

HDR mit Nvidia und madvr


pio

Recommended Posts

Ich platziere das ganze mal hier, weil HDR ja m.W.nur im Zusammenhang mit UHD vorkommt. Ich habe es nicht geschafft, den DVBViewer beim Abspielen von HDR mkv Dateien dazu zu bewegen, hdr an den entsprechend befähigten TV auszugeben. Mit MPC (sowohl 32 als auch 64 Bit Version) hingegen und dem madvr Renderer tut es und ich bin nun am Rätseln, worin der Unterschied begründet sein könnte, da ja beide den lav video decoder sowie den madvr Renderer nutzen und - soweit ich das überblicke - auch die gleichen Einstellungen für diese. Hat jemand ne Idee, woran das liegen könnte?

Übrigens tut das ganze nur mit einem älteren nvidia Treiber 378.xx - mit dem neuen (der jetzt auch bei dem WIN10 1809 update wieder drübergebügelt wurde) klappts nicht - den musste ich erst wieder downgraden. 

Edited by pio
Link to comment

Eben probiert:

LG Colors of Journey HDR UHD 4K Demo.mkv

 

läuft hier problemlos. Wie siehts bei dir mit mp4 aus? Mit 416.34 also dem letzten Nvidia Treiber schaltet madVR auch wieder HDR, auch in 1809.

 

Wo dein Prob liegt - ? Verrate uns mal die Hardware oder besser mache ein Support.zip

Und das Problemfile.

 

Das einzige Prob speziell DVBViewer@madVR im Moment ist das im D3D11 FSE Mode der DVBViewer immer wenn man mit der Maus nach unten fährt versucht seine eigene Timeline reinzumogeln - was er natürlich nicht darf weil madVR dann mit wildem Geflackere sein Exclusive verliert. Das gilt aber für jedes Video playback und das müsste ich wohl woanders posten...

Edited by craig_s
Link to comment

werde noch eine support.zip liefern - hier aber noch ein update:

Treiber 416.34 tut in der Tat. Bei mir ging es nicht, weil ich in den graphfilter Preferences eine Kombination mit ffdshow subtitle filter gewählt habe. Wähle ich die ab, wird HDR an den TV ausgegeben. Genauso klappt die Kombi mit dem VS subtitle Filter nicht, was doof ist, weil ich dann halt keine Untertitel anwählen kann - gibt dafür noch ne Variante?

Link to comment
  • 2 weeks later...

Ich werde mir jetzt auch eine passiv gekühlte nVidia GT 1030 Karte zulegen. Die Intel Onboard-Grafik HD630 ist zwar ganz nett, aber 4k Auflösung (gar mit HDR) ist hiermit nicht vernünftig möglich!

Leider hat es Intel bisher auch nicht geschafft, einen eigenen Chipsatz herauszubringen, der HDMI 2.x unterstützt, es gibt nur Boards mit HDMI 1.4. Somit funktioniert an einem normalen TV-Gerät mit HDMI-Anschlüssen nur 4k-Auflösung mit 30 Hz und ohne HDR. Ausnahme: Es gibt zwei oder drei Mini-ATX Boards, bei denen der Hersteller einen Display-Port zu HDMI 2.0 Chip verbaut hat. Diesen Chip kann man auch als externen Adapter von Club3D kaufen (CAC-1080): https://www.heise.de/preisvergleich/club-3d-displayport-1-4-stecker-auf-hdmi-2-0-buchse-cac-1080-a1812759.html

 

Entgegen der Angaben zu diesem Adapter funktioniert HDCP bei mir hiermit nicht vernünftig, der Rest schon. Allerdings habe ich hiermit ganz selten mal beim Einschalten des HTPC ein schwarzes Bild.

 

madVR funktioniert mit der Intel HD630 Grafik im 4k Modus überhaupt nicht gut. Wenn da ein 720er oder 1080er Bild hochskaliert werden soll, ruckelt es sehr stark. Ich habe auch schon mehrere Einstellmöglichkeiten von LAV-Video und madVR durchgetestet (DXVA mit oder ohne Copyback / DirectX)...

 

Bei den nVidia GT 1030 Karten ist mir übrigens aufgefallen, daß es seit neuestem Modelle mit dem etwas langsameren DDR4 Speicher zu kaufen gibt, anstelle des ursprünglich vorgesehenen GDDR5. Ich denke aber mal, daß dies bei HTPC-Anwendungen selbst im 4k-Modus keine Nachteile haben sollte - oder was denkt ihr?

Die Datentransferrate sinkt hier von 48 GByte/s auf 17 GByte/s. Der Grafikchip hat auch eine andere Bezeichnung: Bei der GDDR5-Variante hieß der noch GP108-300 und bei der DDR4-Ausführung GP108-310.

Edited by SnoopyDog
Link to comment

Hi SnoopyDog,

 

ich hab eine ähnliche Odyssee hinter mir. Hatte mir nach der HD630 sogar eine 1050Ti gegönnt.  Aber auch damit ging madVR  bei 4k nur sehr sehr eingeschränkt.

HDR Umschaltung bei Nvidia ist immer noch ein generelles Drama, im madVR Forum verweist man auf uralte Treiber aus 2016.  

3D geht mit Nvidia und madVR auch nicht wirklich mit DVBViewer.

Erst der Wechsel auf eine AMD (erst 580 jetzt wassergekühlte Vega) brachte endlich das gewünschte Ergebnis: Ich lasse den DVBViewer jetzt grundsätzlich auf 4k laufen, und das mit NGU auf Medium oder high (je nach Quellmaterial)  bei Luma Upscaling. Bei Chroma immer auf high.  

Damit gibt es nicht nur ein unfassbar gutes Hochskalieren, deutlich besser als mein nicht gerade schlechter Sony ZD9 75, sondern auch problemloses Umschalten auf HDR und zurück, als auch 3D Filme.

Die Vega nimmt bei 720p --> auf 4k dabei ca. 200Watt, da langweilt sich die Wasserkühlung und es ist in Summe komplett geräuschlos, da die Noctuas nur mit 800U/min laufen müssen.

 

 

 

Link to comment

Mit der Testversion, die die Nutzung des XYSub Filters ermöglicht, funktioniert es jetzt bei mir wunschgemäß, also autoumschaltung zw HDR u SDR und Anzeige der Untertiel - prima und Danke.

Link to comment
Zitat

Die Vega nimmt bei 720p --> auf 4k dabei ca. 200Watt

 

Whow, das ist ja 6 mal so viel wie mein HTPC derzeit insgesamt an Strom frißt und ich lasse die Grafikausgabe auch immer auf 4k laufen (DXVA2 Upscaling). Das wäre für mich schon ein wenig Overkill...

 

@pio: Also bist Du ganz zufrieden mit madVR und nVidia Hardware (?)

Edited by SnoopyDog
Link to comment
vor 4 Stunden schrieb SnoopyDog:

 

Whow, das ist ja 6 mal so viel wie mein HTPC derzeit insgesamt an Strom frißt und ich lasse die Grafikausgabe auch immer auf 4k laufen (DXVA2 Upscaling). Das wäre für mich schon ein wenig Overkill...

 

 

schon, aber DXVA ist EVR Qualität, und NGU Luma ist da schon eine andere Liga.......

Durch Wakü spielt es bei mir auch keine Rolle und Bildqualität geht mir über alles.

 

Link to comment

Bei mir ist die Bildqualität von hochskaliertem Bildmaterial (1080 => *2 und 720 => *3) aber super mit dem Custom EVR. Wenn ich auf madVR umschalte, ändert sich nichts daran, ausser, dass dieser Renderer mit Intel-Grafik gräßlich ruckelt. An nativem 4k Material ohne HDR gibt es auch nichts zu meckern. Nur 4k mit HDR sowie das automatische Umschalten zwischen HDR und "normal" funktioniert halt nicht. Aber 200 Watt Stromverbrauch nur für die Grafikkarte sind für mich in einem HTPC indiskutabel. Selbst mein nagelneuer 65" Sony braucht meist deutlich weniger als 140 Watt und bei dem Ding sehe ich es sogar ein, daß dieser der hauptsächliche Stromverbraucher der Wiedergabekette ist.

Edited by SnoopyDog
Link to comment

200W kann mit der GT 1030 ja auch nicht passieren. ;) 

Wie die Karte für 4K bzw. HDR läuft kann ich dir aber nicht verraten, da ich noch im 2K Zeitalter festhänge (bis hdmi 2.1 kommt). 

Link to comment

Mit 2k oder "normalem" Full HD hat man doch auch schon sehr gute Seherlebnisse ? Selbst 720p der Öffentlich-rechtlichen sieht manchmal hochskaliert sehr gut aus.

Die nVidia Karten sollen ja bereits HDMI 2.1 können - es fragt sich nur, was geht dort und was geht nicht. Für mich ist wichtig, daß ich den Display-Port zu HDMI 2.0 Adapter wieder loswerde. Den brauche ich leider für halbwegs gute 4k Ausgabe mit der Onboard Grafik. Und Interessant wäre, ob die Sparvariante der GT 1030 mit DDR4 Speicher für den HTPC reicht, oder ob hier besser GDDR5 zum Einsatz kommen sollte.

Link to comment
vor 21 Stunden schrieb nuts:

Man kann ja auch prima mit Profilen arbeiten und somit diverse Einstellungen nur bei Bedarf setzen. ;)

 

jupp, das ist Voraussetzung für die optimale Nutzung der Graka bei verschiedenen Quellmaterialien. 24p oder 50p ist halt eine Verdopplung ?

Und dabei den Sweetspot zu finden ist doch Inhalt unseres Hobbys, oder? ? 

 

vor 12 Stunden schrieb SnoopyDog:

Mit 2k oder "normalem" Full HD hat man doch auch schon sehr gute Seherlebnisse ? Selbst 720p der Öffentlich-rechtlichen sieht manchmal hochskaliert sehr gut aus.

Die nVidia Karten sollen ja bereits HDMI 2.1 können - es fragt sich nur, was geht dort und was geht nicht. Für mich ist wichtig, daß ich den Display-Port zu HDMI 2.0 Adapter wieder loswerde. Den brauche ich leider für halbwegs gute 4k Ausgabe mit der Onboard Grafik. Und Interessant wäre, ob die Sparvariante der GT 1030 mit DDR4 Speicher für den HTPC reicht, oder ob hier besser GDDR5 zum Einsatz kommen sollte.

 

ich sag gar nicht dass man das braucht, ich versuche nur zu vermeiden, dass Du Dich von UHD630 über Nvidia 1030 irgendwann dann doch bei der Vega landest, die Schleifen kann man sich sparen wenn man es einmal richtig macht.

Und der Unterschied zu EVR ist, egal bei welchem Quellmaterial, schon gravierend finde ich.

Und für eine stabile HDR Umschaltung gibt es aktuell eh keine Alternative zu AMD. Ebenso für 3d.

 

Und die Umschaltung von 1080er Auflösung des TV auf 4k ist zwar stabil, dauert aber dann doch wieder 5sek bis das Bild wieder da ist.  Wenn alles immer auf 4k läuft hast Du gar keine Verzögerung beim zappen zwischen 720, 1080 und 4k.  

 

Das alles ist zwar ein verrückter Aufwand, aber LEIDER GEIL ? 

 

 

Edited by naviator
Link to comment
Am ‎30‎.‎10‎.‎2018 um 18:24 schrieb SnoopyDog:

 

Whow, das ist ja 6 mal so viel wie mein HTPC derzeit insgesamt an Strom frißt und ich lasse die Grafikausgabe auch immer auf 4k laufen (DXVA2 Upscaling). Das wäre für mich schon ein wenig Overkill...

 

@pio: Also bist Du ganz zufrieden mit madVR und nVidia Hardware (?)

Habe gestern nochmal ein paar Dateien 4k/24p/HDR mit Untertiteln angespielt - funktioniert aus meiner Sicht einwandfrei. Last CPU unauffällig  ~20% Gesamt (DVBViewer alleine einstellig), GPU ca 25%

Ich hatte nur zum Probieren mal 720p (ö-r- live TV)->4k hochskaliert mit der NGU Option - aber das schafft die 1050 (2GB DDR5) nicht (GPU Vollast, Diashow) - bin aber da mit dem dxva2 upscaling auch zufrieden.

Link to comment
  • 3 months later...
Am 31.10.2018 um 20:09 schrieb naviator:

Und für eine stabile HDR Umschaltung gibt es aktuell eh keine Alternative zu AMD.

 

Der aktuelle Nvidia Treiber kann es jetzt auch stabil. So kurz dauert es von ' verrückter Aufwand, GEIL ' zu 'ein bisschen Geduld aufbringen..'.

 

Übrigens, sogar mein älterer (HDR-)Samsung TV zeigt bei HDR Streaming ein besseres Bild als es madVR je konnte, also (nicht nur) Graka go home...

Edited by craig_s
Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...