Jump to content

madVR Renderer in DVBViewer nutzen


Jackie78

Recommended Posts

Natürlich hängt auch viel von der Bildgröße ab. Auf einer 4m breiten Leinwand sieht man halt jedes noch so minimale Problemchen viel stärker als auf einem (im Vergleich) Briefmarken kleinen 65" TV.

...

Ich denke nicht, daß man da immer bei jeder Diskussion fett in rot dazu schreiben muß, daß nicht jeder User mit jeder TV-Größe den Unterschied bei jeder einzeln betrachtet vielleicht kleinen Verbesserung sofort sehen wird.

 

Mönsch das hatten wir doch schon durchgekaut, dieser Vergleich hinkt, hinkt, hinkt zum 3. mal.. o:) Lies endlich mal das #73

http://www.DVBViewer.tv/forum/topic/55897-quo-vadis-htpc-richtung-hevc/?p=430093

über relativen 4K Betrachtungsabstand durch, es möge dir ein Licht aufgehen?

 

Wenn die Banding-Freaks sich natürlich 1m vor die 4m breite Weinland stellen so sei das ihr Vergnügen was sie dann sehen aber das sollte man aus allgemeingültigen Hinweisen auf Qualitätsfehler ausklammern, oder?

 

 

Nein, 2 HDR-TV's habe ich nicht. Für die Aussage..:

Teste gerade 10-bit-HDR und wow, madVR kann das ja! :) Nach einiger Anpassung über HDMI 2.0 die gleiche Quali hinbekommen wie der TV das selbst vom Stick abspielt!

..habe ich mich schon ganz schön reingekniet und einen ganzen Tag lang hin- und hergeschaltet und nur bestimmte kritische Bereiche 'gespeichert' die dann nach vielfacher Einstellung annähernd so wurden wie von USB abgespielt.

 

Das das alles noch in den Kinderschuhen steckt, icl. HDR selbst, und das du das noch weiterentwickeln wirst ist mir weiter oben formulierterweise doch völlig klar. Allgemeine Beruhigung. Wenn ich das Damoklesschwert 'Streaming' über dir aufbaue dient das nur dazu dich zu noch ungeahnteren Leistungen hochzupuschen..? ;) Bedenke, die TV/Beamer Hersteller schlafen auch nicht.. o:)

 

 

(Edit: Falls Du das mit dem HDR mal testen möchtest, nimm bitte die neuste Build, die hat nochmal Qualitätsverbesserungen drin.)

 

Ok, das mach ich aber erst wenn du tatsächlich den HDR TV in Händen hältst und aus erster Hand vergleichen, optimieren und berichten kannst. Und ob 2160p60 HDR mit ner GTX960 überhaupt machbar ist oder auf welche andere Mammut-GPU man aufrüsten muß.

Edited by craig_s
Link to comment

Natürlich geht's fast ausschließlich um den Sichtwinkel, und überhaupt nicht um die Größe des Displays. Aber Du wirst mir sicher zustimmen, daß der durchschnittliche Flachbildschirm-Benutzer einen *wesentlich* kleineren Sichtwinkel hat als ein durchschnittlicher Beamer-Benutzer, oder nicht?

 

In Sachen Performance kann ich leider nicht so viel machen. 2160p60 mit höchster Tone- und Gamut-Mapping-Qualität mag auf einer 960 vielleicht nicht flüssig laufen. Bitte bedenke, daß ich da ziemliche Verrenkungen machen muß. Jeder einzelne Pixel durchläuft da eine große Anzahl von Farbraum-Konvertierungen, teilweise mit komplizierten mathematischen Formeln. Du kannst aber eine 3dlut mit der demnächst erscheinenden "dispcal" Software machen und in madVR verwenden. Damit solltest Du in etwa die gleiche Qualität kriegen, mit deutlich besserer Performance. Ich gehe davon aus, daß das so dann mit der 960 flüssig laufen sollte. Florian meinte, die nächste "dispcal"-Version soll die nächsten Tage irgendwann erscheinen.

 

Pushen brauchst Du mich wirklich nicht, ich hab noch einiges vor... :) Leider kostet das halt alles sehr viel Zeit, und es ist letztendlich ja nur ein Hobby-Projekt. Im Moment zumindest. Von daher dauert alles viel länger als mir eigentlich lieb wäre. Bin ja nun schon seit über 7 Jahren an der madVR-Entwicklung dran, und bin immer noch weit von Version 1.0 entfernt. Das hab ich mir sicher so nicht vorgestellt...

Link to comment
Zitat

Natürlich geht's fast ausschließlich um den Sichtwinkel, und überhaupt nicht um die Größe des Displays. Aber Du wirst mir sicher zustimmen, daß der durchschnittliche Flachbildschirm-Benutzer einen *wesentlich* kleineren Sichtwinkel hat als ein durchschnittlicher Beamer-Benutzer, oder nicht?

 

Tja da formulierst du was ich laufend predige, alles was der Mensch macht macht er aus GEWOHNHEIT. Sogar sein Auge und Ohr sagt erstmal 'das kenn ich nicht, das will ich nicht!'. Überzeugungsarbeit mühselig und meist erfolglos. So zB. seit dem Röhrenfernseher sind die Leute gewohnt das der Fernseher ein paar Meter weit weg steht und das bleibt auch so bis in alle Ewigkeit, da könnt ihr machen was ihr wollt ihr blöden Fachleute die sowieso immer alles besser wissen :tongue:

 

4k_is_doof.jpg?dl=0

 

Gewohnheit kommt ganz schnell (auch bei Fachleuten !!), ist omnipotent, hilft oft, schadet aber genau so oft..

Seit 2009 als HD gerade den breiten Markt eroberte predige ich auf den Betrachtungsabstand zu achten, Sysiphos, Kampf gegen Windmühlen.. smilie_wut_114.gif

 

Also sag nicht resignierend: "daß der durchschnittliche Flachbildschirm-Benutzer einen *wesentlich* kleineren Sichtwinkel hat als ein durchschnittlicher Beamer-Benutzer" sondern tu was dagegen. Du sitzt doch am Drücker mit deinen 'millionen' Zuhörern? Wenn mir einer kommt mit 'ich seh das nicht' frage ich ihn als erstes - wo sitzt du? Mit 4k nun noch viel entscheidender als je zuvor.

 

"dispcal" Software (= DisplayCAL ?) ist mir gänzlich unbekannt, werde sehen was ich dann mal damit anfangen kann?

Edited by craig_s
Link to comment

p.s.

Dann kommen noch berechtigte Kommentare wie 'wenn ich 1,20 m vor meinem 65 Zöller sitze sehen meine Frau und die Kinder aber nichts mehr'! :mad:

 

Da kann ich dann nur sagen: 'tja, da muß ich Ihnen beipflichten, 4k ist nichts mehr für Mehrpersonen-Haushalte oder wenn dann nur für engumschlungene Liebespaare. Das haben die 4k-Erfinder wohl nicht zuende gedacht oder es war ihnen egal.. Oder Sie kaufen Sich für 10000€ nen 85 zöller oder am besten gleich nen Beamer..'.

 

Aber das dürfte für deine alleinstehenden Renderer-Bild-Enthusiasten Nerds ja keine Hürde darstellen? ;)

Edited by craig_s
Link to comment

Ja, das ist schon ein Problem, vor allem bei 4K, da werden die meisten User mit ihrem viel zu großen Abstand zum TV gar keinen Fortschritt sehen - zumindest nicht von der Auflösung her. Glücklicherweise haben die Studios ja auch gleich noch einen größeren Gamut und HDR mit dazu genommen. Vielleicht kann der Durchschnitts-User zumindest da einen Unterschied sehen...

 

Ich hab hier mal eine verläufige dispcal-3dlut für Dich zum Ausprobieren hochgeladen:

 

http://madshi.net/dispcal400nits.3dlut

 

Die 3dlut ist auf 400 Nits Display-Peak eingestellt. Kannst Du in madVR für HDR aktivieren, indem Du die neuste Build auf "convert HDR content to SDR by using an external 3DLUT" stellst.

Link to comment
Zitat
Die 3dlut ist auf 400 Nits Display-Peak eingestellt.

 

Könntest du eins mit 600 Nits machen? 400 ist zu grell und 600 kommt dem näher was der TV bringt wenn er es selbst macht. (evl. 800, muß ich aber erst nochmal sehen)

 

Bin gerde am probieren, immerhin schafft es die 3dlut bei meinem Chess Lieblingssample

https://4kmedia.org/lg-chess-hdr-demo/

die GPU load geraade so weit von 99% wegzuziehen das es flüssig läuft, allerdings nur windowed. HDR 2160p 60fps FSE keine Chance mit Copy-back. Auch nicht beim Sony 4k HDR Sample.

 

Das nur auf die schnelle, muß jetzt los, genaueres evl. morgen und dann noch mit mit weniger fps.

Edited by craig_s
geänderter Link
Link to comment

Hab die 3dlut nicht selbst gemacht, sondern vom DisplayCAL-Dev zugeschickt bekommen. Hab die neuste DisplayCAL-Version selbst noch nicht, kann also im Moment auch keine neuen 3dluts machen.

 

Das überrascht mich, daß die Performance immer noch kritisch ist. Das hatte ich anders erwartet!

Link to comment

Das 3dlut bewirkt immerhin eine Halbierung ! der GPU load, sehe ich bei 24fps HDR. Da kann man abschätzen wieviel GPU es für 60fps gebraucht hätte?

24fps HDR:

- ca. 40% GPU mit "convert HDR content to SDR by using an external 3DLUT"

- ca. 80% GPU mit "convert HDR content to SDR by using pixel shader math"

 

Als ich oben in #1086 testete hatte ich YCbCr-420 12-bpc an. Deine Empfehlung:

Zitat
YCbCr-Ausgabe empfehle ich normalerweise eher nicht, weil da der GPU-Treiber die von madVR berechneten Pixel nimmt, und hinter madVR's Rücken nach YCbCr umwandelt. Da hab ich Null Kontrolle drüber, was da genau passiert, und da entstehen dann gerne Banding-Artefakte

 

Ja, Banding gibts auf dem Windows Desktop bei speziellen Testbildern. Video playback aber definitiv ohne, auch bei HDR !

 

Trotzdem auf RGB 8bpc umgeschaltet und siehe da die GPU load sank von ca. 90 auf 82%. Das dann beibehalten weil 60fps HDR damit natürlich etwas flüssiger lief. Änderungen im Bild, ohne jetzt aufwändig Screenshots oder sonst. Verrenkungen zu machen, waren erstmal keine zu sehen. Mildes Desktop-Banding leider selbst noch mit RGB 'full', das ist aber mit Fernsehern nun mal so, evl. würde der PC-mode helfen der kann aber nur noch 60Hz.

 

Nun muß man noch sehen, GTX960 ist nicht gleich GTX960, ich habe hier die HTPC-Vers. von Gigabyte mit 1 Lüfter aber da gibts ja noch höher-gezüchtete mit OC bis ultimo? Wie auch immer evl. hast du ja so eine und dann bessere 60fps HDR Performance.

 

Hier noch ein Bild (draufklicken für Vergrößerung) über das man rätseln kann, es zeigt das GPU-Z Log-Fenster beim Abspielen des 60fps Sony 4k HDR Samples. Ich habe unter GPU Load 2 gelbe Striche reingemalt die den Zeitpunkt anzeigen wo ich madVR (mit 3dlut) auf D3D11 FSE geschaltet habe.

 

Also - vor dem linken Strich windowed (flüssig),

- zwischen den Strichen FSE (ruckelig),

- nach dem rechten Strich wieder windowed

 

Leider muß ich jetzt los, aber man sieht schon - was..?

 

sony60_4k_HDR.png?dl=0

Edited by craig_s
Link to comment

Desktop-Banding sollte eigentlich nicht sein, sofern das Testbild kein Banding eincodiert hat. Könnte höchstens dadurch passieren, daß das TV nicht so gut mit 0-255 klar kommt? Hast Du den TV auf 0-255 oder 16-235 eingestellt?

 

Interessant, daß Du bei 40% Auslastung bist. 60fps verbrät ziemlich genau 2,5x so viel Power wie 24fps, also liegst Du bei 60fps dann ziemlich genau bei 40 * 2,5 = 100%, was nur einen Hauch zu viel ist. Da fehlt aber nicht mehr viel! Weiß gerade nicht, ist der Anti-Ringing Filter bei Chroma Upscaling per Default aktiv? Wenn ja, schalt den mal testhalber aus, das reicht vielleicht schon? Ansonsten könntest Du es mit Bilinear Chroma Upscaling versuchen. Wäre aber eigentlich schade...

 

Was passiert denn, wenn Du den Exclusive-Mode ausschaltest, also im Windowed-Mode Fullscreen gehst? Ich vermute, ist genau wenig flüssig, oder? Eigentlich bringt der Exclusive-Mode immer eine kleine Performance-Verbesserung. Normalerweise zumindest...

 

Scheint so, als wäre für komfortable 4Kp60-HDR-Wiedergabe eine NVidia 1060 oder AMD 480 nötig. Ok, die meisten Filme werden 24fps sein, da reicht eine GPU, die 2,5x langsamer ist. Oder eben mit einer 960 das HDR durch reichen, und vom TV verarbeiten lassen. Aber dazu müßte madVR erstmal die Metadaten weiter reichen, was im Moment technisch noch nicht möglich ist (aber hoffentlich bald kommt).

 

P.S: Tools wie GPU-Z verbraten manchmal auch ein bißchen Performance. Aber das auszuschalten macht wahrscheinlich keinen Unterschied, oder?

Edited by madshi
Link to comment

Bei der YCbCr Ausgabe ist je nach Testbild doch "Desktop-Banding" eher zu erwarten oder?

 

Der Leistungsbedarf für die HDR Geschichte ist schon etwas schockierend.

Mit einer onboard GPU wird man dann wohl erstmal nicht HDR ready.

Link to comment

Der Leistungsbedarf ist aber auch nur so hoch, wenn man HDR mit guter Qualität in SDR umwandeln will *und* das auch noch in 4K mit 60fps. Alle UHD Blu-Rays, die es bisher gibt, sind meines Wissens 24fps. Dafür reicht dann eine GPU, die etwa 2,4x langsamer als die NVidia 960 ist. Wenn Du HDR nur unbearbeitet zum TV weiterleiten willst, wird es nochmal deutlich weniger GPU-Last.

 

Es läßt sich aber nicht leugnen, daß 4K halt 4x so viele Pixel hat wie 1080p, also auch etwa 4x soviel GPU-Leistung benötigt wird, um die gleichen Algorithmen benutzen zu können.

 

Aber wir müssen das Pferd ja eigentlich andersrum aufzäunen: Um 4K HEVC überhaupt flüssig dekodieren zu können, brauchst Du erstmal eine GPU, die 4K HEVC überhaupt per DXVA dekodieren kann. Die günstigste, die das im Moment kann, wäre eine AMD 460, und die sollte auch schnell genug sein für HDR -> SDR mit 24fps (zumindest bei Verwendung einer 3dlut). Also stellt sich das Problem im Moment gar nicht. Wer eine GPU hat, die HEVC dekodieren kann, hat automatisch eine GPU, die schnell genug für HDR -> SDR mit 24fps ist. Das wird sich aber ändern, sobald Koby Lake raus kommt. Weil Koby Lake HEVC dekodieren wird können, aber (zumindest in kleineren Ausbaustufen) wahrscheinlich zu langsam für HDR -> SDR Konvertierung (in guter Qualität) sein wird. Koby Lake User müssen dann halt HDR-Content zum TV weiter leiten, und den TV die Arbeit machen lassen...

Link to comment

Um Banding ja/nein auszutüfteln (wo ist eigentlich @Tüftler? Der fehlt mir.. :() ist es hochbrisant welche Gradient Files man gerade hat, und womit man sie darzustellen versucht. Da kommen dann gar noch Eigentümlichkeiten des Panels ins Spiel. Denn wir reden hier ja nicht mehr von schönen Stufen wie man sie aus dem Lehrfilm kennt sondern von äußerst schwachen nebulösen eetwas dunkler-heller Erscheinungen die idealerweise der Richtung des Verlaufs folgen. Oben hatte ich gerade das falsche File aber gerade nochmal mit http://madshi.net/banding.png gegengetestet und würde sagen wenn da mit RGB 'full' auf dem Desktop noch was zu sehen ist dann muß es ein Knick in meiner Optik oder im Panel sein ;)

 

Aber mit YCbCr-420 12bpc sind die 'Wolken' schon recht eindeutig. Leider sinnlos das zu screenshotten oder gar fotografieren, der schwache Effekt sähe bei jedem anders aus.

 

 

Interessant, daß Du bei 40% Auslastung bist. 60fps verbrät ziemlich genau 2,5x so viel Power wie 24fps, also liegst Du bei 60fps dann ziemlich genau bei 40 * 2,5 = 100%, was nur einen Hauch zu viel ist. Da fehlt aber nicht mehr viel! Weiß gerade nicht, ist der Anti-Ringing Filter bei Chroma Upscaling per Default aktiv? Wenn ja, schalt den mal testhalber aus, das reicht vielleicht schon? Ansonsten könntest Du es mit Bilinear Chroma Upscaling versuchen. Wäre aber eigentlich schade...

 

Bilinear Chroma Upscaling brachte leider keine Verbesserung. AR aus. Da ist noch ein anderer Störfaktor im Spiel, ich spüre es deutlich wenn FSE mitunter auch bei 40% 24fps einzelne Zitterer hat die genauso komisch zittern wie bei 60fps. Für solche Feinheiten brauchste endlich den 4k TV!

 

 

GPU Load Charts

GTX960 bei 2160p50 HEVC 10-bit (= gewöhnliche DVBViewer UHD Aufnahme, kein HDR):

 

DVBViewer:

~ 14% - EVR Custom + DXVA2 (native)

~ 25% - EVR Custom + DXVA2 (copy back)

~ 54% - madVR + DXVA2 (native) -> momentan kein FSE möglich

~ 64% - madVR + DXVA2 (copy back) -> momentan kein FSE möglich

 

MPC-HC:

~ 21% - EVR Custom (Bicub. A=1.00) + DXVA2 (native)

~ 30% - EVR Custom (Bicub. A=1.00) + DXVA2 (copy back)

~ 48% - madVR + DXVA2 (native) -> D3D11 FSE

~ 62% - madVR + DXVA2 (copy back) -> D3D11 FSE

 

~ 33% - madVR + DXVA2 (copy back) -> D3D11 FSE -> Dithering aus, DXVA Up/Downscaling, "trust DXVA"

 

Qualtätsunterschiede im Bild - keine entdeckt.. o:)

 

Hier meine Interpretation der GPU-Z Kurve in #1088 oben.

Auch bei 'gewöhnlichem' 50fps HEVC beobachte ich schon länger das es beim Umschalten (madVR + DXVA2 copy back) von windowed auf FSE hakelt, manchmal nur 2sec, manchmal viel länger, je nach Laune von..? (zB. Energiesparplan 'Ausbalanciert' und 'Höchstleistung', dabei verbrät der Gaming-PC im Leerlauf permanente 130 Watt).

 

Nachdem ich auch diese Kurve in vielen Variationen gesehen habe wo öfter die 100% direkt nach dem Umschalten lange oben blieben, würde ich messerscharf darauf schließen das der Umschaltprozess nach fetten Ressourcen angelt, die mangels GPU Power nicht da sind und hängt sich daher mitunter beim Angeln auf und dauert dann ewig.

 

In dem Fall hilft es nach angemessener Zeit (~4-7sec) die Wiedergabe zu pausieren und mittels Timeline an vorheriger Stelle wieder fortzusetzen. Bei HDR 60fps bringt das natürlich nur die Verbesserung von schwarz/Standbild/Diashow zu leicht ruckelig.

 

Ob du das FSE Umschalten irgendwie flüssiger/eleganter/sparsamer programmieren könntest?

 

 

P.S: Tools wie GPU-Z verbraten manchmal auch ein bißchen Performance. Aber das auszuschalten macht wahrscheinlich keinen Unterschied, oder?

 

Doch schon aber zu wenig für flüssig.

 

Scheint so, als wäre für komfortable 4Kp60-HDR-Wiedergabe eine NVidia 1060 oder AMD 480 nötig.

 

Solltest du so eine auch noch gesponsert bekommen sitz ich auf dem trockenen? Da bleibt nur die Hoffnung das nicht. o:) Entwickle oh Entwickler...

Edited by craig_s
Link to comment

Hab tatsächlich von NVidia eine 1070 gesponsert gekriegt. Aber eine 960 hab ich auch (selbst gekauft). Bei Deinen GPU-Load-Charts hast Du wahrscheinlich die madVR-Default-Einstellungen genommen? Gibt ja einige Optionen (z.B kein Dithering, DXVA Up/Downscaling, "trust DXVA"), mit denen man madVR auf EVR-Niveau runter drosseln kann. Das hatten wir ja vor ein paar Monaten schon mal durch, mit dem Erfolg, daß mit den entsprechenden Optionen madVR bei den meisten Usern nicht mehr GPU verbraucht hatte als EVR.

 

Tja, ich warte immer noch auf das OLED, ich hoffe es kommt bald... :lbounce:

Das mit dem FSE ist etwas merkwürdig. Kannst Du bei den Zitterern irgendwas im OSD (Ctrl+J) erkennen? Sind die Queues da vielleicht kurz vor leer oder so? Framerate und gemessene Refresh-Rate passen aber bei FSE genauso gut zusammen wie im Windowed-Mode?

Link to comment
Bei Deinen GPU-Load-Charts hast Du wahrscheinlich die madVR-Default-Einstellungen genommen? Gibt ja einige Optionen (z.B kein Dithering, DXVA Up/Downscaling, "trust DXVA"), mit denen man madVR auf EVR-Niveau runter drosseln kann. Das hatten wir ja vor ein paar Monaten schon mal durch, mit dem Erfolg, daß mit den entsprechenden Optionen madVR bei den meisten Usern nicht mehr GPU verbraucht hatte als EVR.

 

Tja hätte wohl gestern eher nach den HDR tests mal wieder die Default.bat starten sollen und gleich noch den PC neu.. Heute hochgefahren und durchweg niedrigere Werte bekommen. DVBViewers EVR fing fullscreen bei 14% ! an, madVR hörte schon bei 64% auf. Rätselhaftes DirectShow... Habe die GPU-Load-Charts oben also ganz neu geschrieben und mit mehr Settings garniert. Der komplette "FSE hakelt"- Teil gilt aber leider unverändert!

 

"kein Dithering, DXVA Up/Downscaling, "trust DXVA")" bringt 33% bei Copy-back! Damit fängt sich die FSE-Umschaltung endlich selbst, nach 4-5sec läufts flüssig. Was zu der Kastration aber die Fans sagen werden..? ;)

 

 

Hier noch News, gute Güte ist das kompliziert... ... Also zum DXVA2 Native Bug oben - "mit 10-bit Video sehe ich fullscreen schwarz".

Weiterhin hatten wir hatten mal diesen Bug für Intel, ---> "in den Trade-Quality-Optionen sind doch die beiden "use DXVA chroma..." per Default angehakt - wenn ich die weghake schaltet das OSD (image down) sofort auf die eingestellten Werte":

http://www.DVBViewer.tv/forum/topic/37505-madvr-renderer-in-DVBViewer-nutzen/?p=442758

 

Ob es nun mit Nvidia ein Bug oder Feature ist weiss ich nicht - wenn in den Trade-Quality-Optionen die beiden "use DXVA chroma..." angehakt sind:

- schaltet madVR FS und FSE mit LAV (Copy-back) das Chroma nicht auf DXVA --- und ich habe ein Bild

- schaltet madVR FS und FSE mit LAV (Native) das Chroma auf DXVA --- und ich habe schwarz

 

Gestern entdeckt: Wenn die beiden "use DXVA chroma..." ausgeschaltet sind

- schaltet madVR FS und FSE mit LAV Native das Chroma nicht auf DXVA --- und ich habe auch mit Native bei fullscreen ein Bild.

 

jetzt verknüppelt mit dem Bug aus dem Youtube Video wo ich auch windowed schwarz bekomme wenn ich image down auf DXVA stelle = in den Scaling options darf nichts auf DXVA stehen sonst 10-bit Blackout mit "DXVA2 Native".

Vielleich stolperst du ja doch noch mal drüber und findest was...

 

 

Dann noch Erinnerung an einen alten Bug:

in meinen 4k TV's schaltet madVR mit DVBViewer zwar blitzschnell fullscreen, aber nie FSE.

Dazu ein Anhaltspunkt - DVBViewers FS ist sonderbar: 'always on top' Fenster bleiben auch mit FS on top! Ist also gar kein richtiger fullscreen?

Edited by craig_s
Link to comment

Solche HDR 60 fps Zustände kann ich nicht ertragen und nochmal alles mögliche durchgeforstet und es läuft endlich flüssig :lbounce:

Erst mal diesem crazy Gaming PC gesagt er soll so tun als würde ein anspruchsvolles Spiel laufen (Turbo mode).

Die Einstellungen in madVR durchsucht und gefunden: rendering > exclusive mode

- delay switch ... 3 seconds

- preset several frames in advance

 

beide deaktiviert, das änderte die Stiuation nochmal komplett. Beim FSE umschalten kein Absturz mehr, Playback fängt sich nach wenigen Sekunden. Mönsch madshi wieso biste da nicht drauf gekommen nach all den Schilderungen?

Hier alle Settings die abweichend von 'default' geändert wurden:

 

devices > Digital Monitor / TV

> properties > ..bitdepth is: 10 bit

> hdr > convert HDR ... 3DLUT (das 3x laden)

 

scaling algo..

> chroma up.. >Bilinear (bringt doch leichte Verbesserung aber nur wenn alles andere schon stimmt)

 

rendering

> general setings > use D3D11 ...

> exclusive mode

---> delay switch.. aus!

---> present frames.. aus!

---> backbuffers.. 3

 

Das wars. Ob auch ein langsamer PC mit GTX960 ausreichen würde kann ich nicht sagen da gerade keinen zur Hand.

 

Die Kurve im Anhang sieht nun schon viel entspannter aus aber man darf sich nicht täuschen lassen - diese GPU hat nicht mehr viel Reserve.

Trotzdem bin ich für DVBViewer Belange optimistisch (zukünftige HDR Sender), unser PAL hat ja 50 fps, das spart >10% GPU gegenüber 60 fps. Und wenn madshi erst den OLED hat kann er ja erst anfangen 'richtig' zu optimieren. Hoffentlich in die richtige Richtung..? ;) Es könnte höchstens noch passieren das HDR nicht so viel über SAT kommt sondern das meiste über IP Kanäle / Movie Server und damit direkt im TV landet?

post-73651-0-80616700-1471370894_thumb.png

Edited by craig_s
Link to comment

Ich weiß ehrlich gesagt nicht, ob da so viel Optimierungspotential ist. Am einfachsten ist es natürlich, alles von DXVA machen zu lassen. Neuere GPUs haben da oft extra Hardware-Circuits für Video-Processing, so daß das mit sehr niedriger GPU-Last läuft. Das Problem ist halt, daß die Algos bei jedem GPU-Manufacturer anders sind, manchmal besser, manchmal schlechter, und man verliert jegliche Kontrolle darüber, was da nun genau geschieht. Aber für niedrigste GPU-Last ist das halt, was man dann machen muß. Deshalb schlägt sich EVR auch immer so gut in solchen Vergleichen.

 

Wäre natürlich genial, wenn meine Algos ohne DXVA genauso schnell wären wie DXVA. Aber das ist leider technisch nicht machbar.

 

In Sachen Einstellungen: Wenn ich aus dem 1 Million langen doom9-madVR-Thread etwas gelernt habe, ist es, daß die Einstellungen, die für User A am besten funktionieren, möglicherweise für User B gar nicht gehen, und andersrum. Z.B. "present frames aus" und "backbuffers 3" ist *eigentlich* eine technisch eher schlechte Lösung, wo ich mit wildem Code fast an Direct3D vorbei arbeite. Für die meisten User funktioniert "present frames an" besser. Aber wie gesagt, ist bei jedem anders, deshalb gibt's die Option ja auch. Ich hab per Default die Optionen angehakt, die scheinbar laut madVR-Thread für die meisten User am besten funktionieren. Das läßt sich auch nicht nach Auflösung oder OS oder GPU sortieren, daß man sagen kann, unter diesen oder jenen Bedingungen funktioniert diese oder jene Option besser. Das ist leider völlig unvorhersehbar. Gerade im FSE-Modus klappt "present frames an" normalerweise sehr gut. Weiß nicht, warum das für Dich scheinbar nicht der Fall ist... ;(

Link to comment

Hey ich bin doch kompromissfähig. Was eigentlich der Bringer war ist weniger Backbuffers = 3 kam gut. Wenn du sagst da passiert was schreckliches ohne "present frames an" mache ich sie an mit 3 Backbuffers. Das einzige was sich zw. an und aus bei HDR ändert ist das es etwas länger dauert bis sich das Geruckel nach FSE Schalten beruhigt hat. Bei Backbuffers = 8 beruhigt sich laange nichts mehr und man muß tricks mit Pause und Timeline Sprung machen. 8 überfordert, nehme an die GPU (bei 100% Load) und hängt sich manchmal auf und ruckelt immer. Nicht nur HDR, auch UHD. Warte bis du den TV hast. Aber warsch. macht deine GTX1080 dann alles besser :innocent:

Edited by craig_s
Link to comment

Na, mal sehen, wie sich das bei mir verhalten wird.

 

Nur zur Info: "present frames an" heißt, daß ich z.B. immer 3 (oder 8 oder ...) Frames im voraus berechne und sofort an Direct3D zur Präsentation übergebe. Direct3D hat dann also immer eine Queue von mehreren vorbereiteten Frames, die es bei den nächsten VSyncs einblenden soll. Das machen dann der GPU-Treiber und Direct3D unter sich aus, diese Frames dann zum richtigen Zeitpunkt einzublenden.

 

Bei "present frames aus" ist es so, daß ich ständig prüfe, wo der VSync gerade ist, und dann erst kurz bevor ein neuer Frame gebraucht wird, den Frame an Direct3D übergebe. Eigentlich ist das die schlechtere Variante, weil da alles ganz perfekt klappen muß, damit es nicht ruckelt. Wenn die CPU gerade mal ganz busy ist, kann es schnell mal ruckeln. Bei "present frames an" ist es so, daß Du sogar den DVBViewer per Taskmanager pausieren/anhalten kannst, und trotzdem läuft die Wiedergabe noch für 3 (oder 8 oder ...) Frames flüssig weiter. Deshalb ist "present frames an" *eigentlich* besser. Wenn es bei Dir schlechter läuft, heißt das, daß Direct3D und/oder der GPU-Treiber da irgendwas nicht gut machen...

Link to comment
Wenn die CPU gerade mal ganz busy ist, kann es schnell mal ruckeln.

 

Alles klar, in der Testumgebung lasse ich natürlich möglichst nix nebenher laufen. Außerdem teste ich meistens mit MPC zumal DVBViewer bei mir grad kein FSE macht, siehe:

 

 

Dann noch Erinnerung an einen alten Bug:

in meinen 4k TV's schaltet madVR mit DVBViewer zwar blitzschnell fullscreen, aber nie FSE.

Dazu ein Anhaltspunkt - DVBViewers FS ist sonderbar: 'always on top' Fenster bleiben auch mit FS on top! Ist also gar kein richtiger fullscreen?

 

Eben rausbekommen das es genau daran liegt, madVR ist unschuldig!

http://www.DVBViewer.tv/forum/topic/58631-fullscreen-muss-maechtiger-werden-sonst-hat-madvr-fse-keine-chance/

Edited by craig_s
Link to comment
Wenn es bei Dir schlechter läuft, heißt das, daß Direct3D und/oder der GPU-Treiber da irgendwas nicht gut machen...

 

Na ja, 4-fache Datenmenge pro Bild, das kennen die (und madVR) womöglich noch nicht so richtig und dann haut's halt da und dort den Deckel raus, das Orchester harmoniert vorrübergehend nicht? Völlig normal, ich sehe als passionierter nicht-Betatester sowas gerne aus weiter Entfernung:

Als HD rauskam hakelte es hier und hakelte es da und irgendwann nach Monaten (Jahren?) hakelte fast nichts mehr. Am Ende noch nichtmal mehr mit madVR :beer: Ist mit UHD grad das gleiche.. :)

Edited by craig_s
Link to comment

Bezüglich #1031:

http://www.DVBViewer.tv/forum/topic/37505-madvr-renderer-in-DVBViewer-nutzen/?p=442912

 

Hast du inzw. einen PC mit win10 + Intel iGPU?

Leider existiert bei mir damit immernoch das Zappeln bei D3D11, Windowed, FS, FSE, sofern up/down scaling aktiv und nicht DXVA oder Bilinear. Neu: betrifft nur 25/50 fps Video.

Intel Graphics HD 4000 und 4600 in 3 versch. Dell Laptops, jeweils neuester offizieller Treiber 20.19.15.4454

 

Die Lösung kam damals von @gwr -> 'GPU queue size' auf 12 oder mehr erhöhen.

Ich habe das längere Zeit probiert, leider gab es in versch. Situationen immernoch Zappler, d.h. die Ursache war damit wohl nicht ganz gefunden?

 

Habe gerade nochmal probiert und mit standard GPU queue 8 einige neue Tests gemacht in der Hoffnung den Bug weiter einzukreisen. Hoffe du kannst damit was anfangen oder hast sowas schonmal gesehen? Log werde ich machen oder du sagst das brauch ich nicht.

 

Was im youtube Video zu sehen ist (holpert insgesamt trotz screencapture-Soft + youtube Konversion rel. wenig, das war viel Arbeit..):

- gemacht mit DVBViewer, ist aber das gleiche mit MPC-HC, TV auf 50Hz

- LAV copy-back und naitve kein Unterschied

 

- D3D11

- erst 24fps, dann 30fps Video - zappeln nicht (-> also es geht nicht um das übliche leichte Ruckeln bei falscher Moni Frequenz!)

- dann 576i, 1080i @25fps - diese zappeln (up- und down-scaling)

- dann beim 1080i auf image down > DXVA gestellt - zappeln hört auf

 

- image down > Mitchell.. - zappeln wieder voll da

- umgeschaltet auf 720p 50fps Live-Tv - zappelt (Live-Tv mit DVBSource stärker als Datei mit LAV Splitter)

 

-madVR umgeschaltet auf D3D9, Wiedergabe neu aufgebaut - zappeln ist weg.

 

https://youtu.be/UFIZZ-4QoKw

 

 

 

Link to comment

Danke für das YouTube-Video!!

 

Hatte gedacht, ich würde von Intel einen neuen Laptop kriegen, aber mein Intel-Kontakt ist nun leider in einer anderen Abteilung, von daher bin ich jetzt an dieser Stelle leer ausgegangen. Das Problem ist glaube ich nicht D3D11 an sich, sondern das Verwenden von 2 unterschiedlichen D3D-Devices für Rendering und Presentation. Das gleiche Problem tritt wahrscheinlich auch bei D3D9 auf, wenn Du "use a separate device for presentation" aktiviert, oder nicht?

 

Ein Log hilft leider nicht, hatte das schonmal mit anderen Usern durch exerziert. Im Log ist nichts zu sehen. Ich denke, ich krieg das nur gelöst, wenn ich das bei mir reproduzieren kann, was im Moment leider noch nicht der Fall ist. Von daher ist für Intel-User, die dieses Problem haben, im Moment leider die einzige Lösung, die Default-Einstellungen zu verwenden (also D3D11 deaktiviert)... :-(

Link to comment
Das gleiche Problem tritt wahrscheinlich auch bei D3D9 auf, wenn Du "use a separate device for presentation" aktiviert, oder nicht?

 

genau so ist es. Mönsch da wird sich doch einer in der Umgebung finden der kurz mal ein Lappi mit Intel GPU hat? Ich hätt ja einen hier rumfliegen aber den extra nach Hamburg schicken...

 

 

Das ist nicht neu. :original:

 

..hatte das nicht gelesen also wars mir grad neu..

Link to comment
  • 3 months later...

Hi madshi,

 

hier mal mein Kommentar zu den Erneuerungen der GUI (0.91.x):

 

1. Gefällt mir sehr gut! :)

 

2. Verfolgt "softcubic" und "bicubic" (MN, CR, Bicubic 100) nicht ein anderes Ziel (Schärfe vs Artefakte)?

Die Trennung sollte man imho auch im GUI abbilden (bicubic <-> softcubic)

 

3.) NNEDI3 / NGU

- die comboboxen (lume doubling, chroma quality, downscale ...l) liegen sehr dicht beieinander. Etwas Platz dazwischen sollte noch sein und erhöht die Übersicht.

- downscale: Gefällt mir ganz gut, aber wieso nicht eine 5. Variante "settings" einführen, damit die poweruser die Einstellung selbst bestimmen können?

- activate only if: Die Frage stellt sich hier: was macht madVR wenn die Bedingung nicht greift?

 

4.) Man bräuchte imho einen Ordner mehr um das '"pre" und "post" scaling processing' deutlicher zu machen.

- pre processing (deint., deband, sharpen, zoom,.. )

- scaling (down, up, doubling)

- post processing (upscaling refinement, ..)

In den letzen Ordner ghört für mich dann auch das dithering.

Entspricht vielleicht nicht dem was madVR damit genau macht, aber zumindest einem nachvollziehbaren Vorgang (i567 Quelle => deint. => deband => scaling => sharpen => dithering => gpu).

 

 

P.S. Ich habe leider derzeit kein System um NGU zu testen, daher bezieht sich mein Beitrag allein auf die Oberfläche.

Edited by nuts
  • Like 1
Link to comment
  • 5 months later...
On 1/24/2016 at 2:36 PM, Griga said:

 

Die Flags sind noch nicht mal in der vom DVBViewer verwendeten mvrInterfaces.pas vorhanden. Ich habe die Unit jetzt erst mal aktualisiert.

 

Hinsichtlich des OSD hat Christian inzwischen die wesentlichen Anpassungen durchgeführt, so dass bei MadVR der Notnagel-Screenshot als OSD-Hintergrund im Pause-Zustand nicht mehr gebraucht wird und damit auch Spulen geht. Aber richtig durchgetestet ist es noch nicht, und zumindest beim Timeshift-Start gibt es noch Probleme.

 

In einem PC habe ich dieses Problem. Ich kann nicht vor- und züruckspulen. Und wenn pausiert, kommt nur ein schlecht skaliertes Screenshot zu Tage. Ich habe DVBViewer und madVR neu installiert ohne Erfolg.

support.zip

Link to comment
  • 2 years later...

Hallöle madshi, könnteste dem DVBViewer noch nen Gefallen tun und HLG-Erkennung einbauen? So ab 2017 wurdest du gelegentlich im doom9 drum gebeten aber da gab es nur ein paar Streams. Jetzt kommt es schon über Astra und Eutelsat als Dauersender und soll sich bald noch mehr verbreitern.. Selbst die Öffentlich-Rechtlichen liebäugeln damit, so kommt unser DVBViewer immer mehr ins Spiel. HLG soll sparsam sein und ohne Metadaten...

 

Testfile kannste hier bekommen. Oder "UHD1 by ASTRA / HD+" sendet tagsüber unverschlüsselt inzw. viel in HLG, erkennt man das es im DVBViewer gelblich-blass erscheint. Kann man dort aufnehmen. MediaInfo sagt: HLG / BT.2020

 

Leider hat HLG eine ziemlich andere "Kurve" als HDR10, daher genügt es nicht manuell auf HDR umzuschalten, das "haut zu stark rein": besonders helle Stellen total überstrahlt. "Andere Kurve" bedeutet natürlich mehr Arbeit und der TV sollte auch HLG kennen, meiner leider nicht daher werde ich nicht viel helfen können.

Link to comment

HLG brauch ich persönlich zwar (noch) nicht, aber auf das nächste Update bin ich schon sehr gespannt.

Meine Englischkenntnisse reichen für das Doom/AVS-Forum zwar nicht aus, aber da scheint sich einiges getan zu haben.

 

Gibt es dafür schon einen gaaanz ungefähren Zeitraum ?

 

Link to comment

....das AVSForum ist ja riesig.....kann mal jemand einen Hinweis geben, wo man dort die madVR-Testbuilds findet? Danke.

 

 

Gruß

 

getilus

Link to comment
  • 1 year later...

Seit neuestem spinnt mein DVBV+madVR beim Umschalten rum:

https://imgur.com/a/dRFbEol

 

Dann geht die Party so richtig ab (wenn Auflösung/fps wechseln auch mal mit green screen), für sachdienliche Hinweise woran es liegen oder wie man das beheben kann wäre ich dankbar!

EVR custom renderer bzw. DXVA halt schaltet dagegen normal.

 

Link to comment

Oh, es gibt den Thread noch!  ?

 

WakeX, keine Ahnung, könnte sein, daß es mit dem Decoder zusammen hängt. Ist es ein Hardware-Decoder (DXVA, DXVA2, o.ä.)? Wenn Du sagst "Seit neuestem", und das vorher nicht auftrat, dann muß sich ja irgendwas geändert haben? Hast Du irgendwas upgedatet? madVR Build? LAV? DVBV? GPU Treiber?

 

 

Link to comment
vor 2 Stunden schrieb madshi:

keine Ahnung, könnte sein, daß es mit dem Decoder zusammen hängt

 

Könnte sein. Das sieht mir etwas nach einem missglückten Error Concealment bei Hardware-Dekodierung aus, vielleicht augelöst durch Störungen im empfangenen Stream.

 

Oder es liegt am Grafikkarten-Treiber. Letztlich war doch Patchday... und mal wieder waren Anwender betroffen, denen Windows bei der Gelegenheit den aktuellen Intel HD Graphics Treiber untergeschoben hat, worauf dann plötzlich diverse Sender mit einem "interlaced" Bild nicht mehr gingen...

 

Link to comment

 @madshi

Alles auf dem neuesten Stand, schaue nicht soviel dass ich das mit dem Umschalten sofort bemerkt hätte von Version zu Version nach einem Update (vor allem da F1 ja auch eine virusbedingte Pause eingelegt hatte).

Hardware Decoder ist in LAV auf D3D11 eingestellt, in madVR hauptsächlich NGU AA fürs Upscaling, habe DXVA nur einmal drin fürs 4K-Profil im Upscaling ?.

 

DVBViewer 6.1.6.1

madVR 0.92.17

LAVFilters 0.74.1-64

GPU ist eine 2070S mit 451.67 WHQL

Win10x64 2004

Spoiler

image.thumb.png.6dda5b1c7f904508f38a8c2074251d14.png

 

Use Direct3D 11 for Presentation + present a frame for every Vsync ist angehakt, alles andere unter General Settings nicht.

Falls andere Einstellungen welche relevant sein könnten benötigt werden einfach sagen, das Forum hat leider eine 1MB-Beschränkung bei Uploads.

Hier noch die green screen-Variante.

Edited by WakeX
Link to comment

Liegt wohl an der D3D11 Einstellung in LAV, auf none gestellt sind die Glitches weg.

Hat das großartig einen Einfluss auf madVR (dessen Upscaling-Algos ja separat sind) was man dort wählt? Bzw. was ist das Optimum?

Link to comment

Ich würde Hardware-Decoding generell nur da verwenden, wo es wirklich nötig ist. War noch nie ein großer Fan davon, weil es schon immer deutlich mehr Stabilitäts-Probleme als Software-Decoding hatte. Aber natürlich verbrätst Du bei Software-Decoding mehr Watt, weil halt die CPU das Decoding machen muß, und die kann das längst nicht so effektiv wie der Hardware-Decoder in der GPU. Also mein Tip wäre: Nimm Software-Decoding für die "einfachen" Sachen, wie SD und Full-HD, aber nimm Hardware-Decoding für 4K. Ist aber nur meine persönliche Meinung. Wenn Du Strom sparen willst, dann bleib beim Hardware-Decoding für alles, dann müßtest Du vielleicht verschiedene Treiber ausprobieren, oder auch D3D11 vs DXVA Decoding ausprobieren oder was auch immer...

 

madVR ist es mehr oder weniger egal, welcher Decoder das Decoding macht. Nur daß Software-Decoding halt in der Regel stabiler läuft.

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...