Jump to content

720p ==> 1080p: Lohnt sich madVR ?


awehring

Recommended Posts

Es gibt ja einige hier, die Erfahrung mit madVR haben. Wäre nett, wenn sie mir beim Konzipieren meines neuen HTPC helfen.

 

Meine Hauptfrage: Lohnt sich madVR um 720p50 Fernsehen auf einen Full HD Beamer schärfer darzustellen, wozu eine Grafikkarte erforderlich ist?

 

Ich schaue TV nur mit einem Full HD Beamer auf einer 1.80 m breite Leinwand. Sitzabstand etwa 4 - 5 m. Da sieht man die Schwächen der ÖR Sender (720p50, 10 - 12 Mbit/s) schon deutlich, insbesondere etwa bei Fussball.

Mein momentaner HTPC läuft mit einem älteren Intel Atom und Nvidia Ion. Dazu DVBViewer mit LAV Filter und EVR Custom Renderer. Upscaling mit DXVA.

 

Gerne hätte ich - z. B. bei Fussball - ein schärferes Bild.

 

Erreiche ich eine spürbare Verbesserung mit madVR und einer entsprechenden Grafikkarte? Wenn ja, welches Modell mindestens?

Ist mit Lüfterlärm zu rechnen?

 

 

Dann müsste mein neuer HTPC Platz für die Grafikkarte haben.

Falls damit keine (erkennbare) besserer Schärfung möglich ist, würde ich einen kleinen NUC (oder dergleichen) mit einem Kaby Lake Prozessor planen.

 

Leider kann ich nicht selber testen, da ich nur Notebooks habe, mit maximal einer GT-740M.

 

Vielen Dank für eure Tipps !

Edited by awehring
Link to comment

Man liest, dass die internen upscaler in UHD TVs sehr gut arbeiten. Dass es kaum sichtbare Unterschiede zwischen echtem UHD-Programmmaterial und upgescaltem FullHD gibt.

 

Wenn madVR ebenso gut arbeitet bei 720 -> 1080, wäre ich zufrieden.

Link to comment

Ein NUC mit EVR Custom und DXVA liefert schon eine sehr gute Skalierung bei 720p-Material. Um eine bessere Skalierung mit MadVR ohne DXVA zu erreichen muss Du schon eine dicke Graka haben (GTX 760, RX 280...oder besser) und alles was das mit sich bringt (Kühlung, Stromverbrauch, Platz...) und Du wirst es kaum merken können.

 

Wenn es darum geht, andere Vorteile von MadVR zu nutzen (FRC, Kalibrierung, Erkennung von schwarze Balken im Bild, automatisches Umschalten zw. Videomodi, usw...) da gibts "wenige" Alternativen.

Link to comment

Danke !

 

Hast Du das schon auch einmal auf einem Beamer verglichen? Oder auf einem Full HD Fernseher aus 1 m - was etwa meinen Verhältnissen entsprechen würde.

Link to comment

Hmmm ...

 

Wenn man DVDs oder SD-TV mit guten upscalern auf Full HD bringt, sehen sie eindeutig schärfer aus, als mit simplen. Sollte das bei 720 -> 1080 nicht auch so sein?

Link to comment

Ja, alles schon auf meinem Fernseher mit geringem Abstand getestet.

 

Der NUC kann madVR kaum bewegen. Da hat man 2 Optionen:

1. Billige Algorithmen für die Skalierung auswählen. Höhe GPU-Last und die Qualität der Skalierung leidet sehr.

2. Intensiver Nutzung von DXVA, um die Last zu senken und die Skalierungsqualität zu retten. Da hat man aber Banding oder andere Artefakte, wie beim EVR Custom.

Hier hat man trotzdem die Möglichkeit sachen wie Videomodi-Umschalten, schwarze Balken erkennen, FRC... Was mit EVR Custom nicht geht.

 

Wenn man alles haben will, dann muss man einen HTPC um eine dicke Graka bauen.

 

Nur wegen der Skalierung 720p auf 1080p würde ich nicht auf MadVR umsteigen. Da reicht der NUC mit EVR Custom und DXVA.

Link to comment

Ich habe einen der ersten erschwinglichen Full HD Beamer (Sanyo PLV-Z700). Ich glaube nicht, dass der einen besonders gute Skalierer hat. Habe allerdings auch noch nicht ausprobiert, ihm 720p direkt zuzuspielen.

 

Wahrscheinlich müsste ich dann bei Full HD Material immer den PC und vielleicht auch den Beamer umschalten. <_<

Edited by awehring
Link to comment

Ich habe am Fernseher diese Konstellation getestet:

 

Intel HD 4400 (Im NUC4) und Intel HD 5500 (Im NUC5)

576i auf 1080p

720p auf 1080p

Blurays

 

Am 27" Monitore habe ich diese Konstellationen getestet;

 

Intel HD 530 und AMD HD 7850

576i auf 1440p und 4K

720p auf 1440p und 4K

1080i auf 1440p und 4K

 

Die Skalierung ist mit allen Intel Grakas und DXVA sehr gut.

 

Mit der HD7850 MadVR und Jinc AR ist es minimal besser gewesen, allerdings war bei 80%-90% GPU-Last die Geräuschkulisse nicht HTPC-Tauglich. Bei der 4K-Auflösung musste ich sogar auf DXVA zurückfallen, und dann ist die Intel-Skalierung definitiv besser.

Link to comment

Danke für die ausführlichen Infos, das hilft mir.

 

Die aktuellen RX-470 oder GTX-1060 hätten eine um einiges höhere Performance bei gleicher Leistungsaufnahme. Da sollte Jinc AR deutlich leiser laufen.

Wenn es allerdings nur minimal besser ist ... :glare:

 

Ich könnte ja mal probieren meinen Notebook mit Intel HD 4600 und DXVA anzuschliessen. Vielleicht ist das besser als DXVA mit den alten Nvidia Ion.

Ist das plausibel?

Link to comment

Die HD 4600 bei DXVA wird gut sein. Ob besser als Deine jetzige, das musst Du uns sagen. :D

 

Und nur Du kannst beurteilen, ob Du andere MadVR-Spielereien brauchst/willst. Wenn ja, suche nach einer leisen GTX-1060.

 

Wenn Du im Umkreis von 100 km wohnst, würde ich mit einem NUC vorbeikommen und MadVR/EVR testen. Bei interesse, einfach PN

Edited by blasgl
Link to comment

Ich werde berichten, wenn wieder Fussball läuft :D

 

Fussball ist halt sehr kleinteilig, normales Programm mit 1 m grossen Köpfen der Schauspieler sieht sowieso gut aus.

 

Noch eine Anschlussfrage: Die noch besseren Algorithmen (NNEDI) bringen nach dem was ich gelesen habe, nicht viel gegenüber Jinc AR. Oder täusche ich mich da?

Link to comment
Fussball ist halt sehr kleinteilig, normales Programm mit 1 m grossen Köpfen der Schauspieler sieht sowieso gut aus.

 

..so ist es. Ich freu mich auf 4k-Fußball, die Schärfe ist phänomenal wie ich in versch. Demos sehen konnte. Wird hoffentlich nicht alles teuer verschlüsselt sein?

Gesteigerte Bildqualität durch madVR bei 720->1080 Skalierung ist dagegen eine Frage des Glaubens ;)

Edited by craig_s
Link to comment

Jetzt habe ich die Bildqualität von Nvidia Ion (1. Generation) zusammen mit einem Atom 330 (HTPC) und Intel HD-4600 (Notebook mit einem i7-4702MQ) miteinander verglichen. Jeweils mit dem Custom EVR Renderer mit DXVA Skalierung auf einen Full HD Beamer bzw. Monitor. Die Quelle war Live TV mit 720p50, h.264 und ca. 10.5 Mbit/s (Schweizer Fernsehen).

 

Ergebnis: absolut kein Unterschied.

 

Zunächst habe ich bei einem Fussballspiel direkt zwischen den beiden Computern (HTPC / Notebook) umgeschaltet. Beide waren via HDMI am Beamer angeschlossen und ich konnte direkt zwischen den beiden Anschlüssen hin und her schalten.

Da dachte ich zunächst, dass die HD-4600 um einiges schärfer ist. Es stellte sich dann aber heraus, dass im Intel Grafiktreiber die Schärfung für Videos aktiviert war. Nach dem Ausschalten der Schärfung sah das Bild mit beiden Grafikkarten gleich aus.

 

Ich habe dann - von der Aufnahme des Fussballspiels - mit beiden Computern Screenshots von der gleichen Szene gemacht und diese penibel miteinander verglichen. Es ist wirklich kein Unterschied erkennbar.

 

Ich habe dann auch noch Screenshots mit der Nvidia 740M im Notebook gemacht. Auch diese sind völlig gleich wie die mit Ion oder HD-4600.

 

 

 

Link to comment

Ja die 740M ist auch im Notebook (Optimus Technologie).

 

Ich glaube nicht, dass mir der Fehler unterlaufen ist. Im Nvidia Control Center kann man steuern, welcher Grafikprozessor aktiv ist. Zur Sicherheit habe ich noch mit GPU-Z kontrolliert, ob der jeweils andere ohne Last ist.

Edited by awehring
Link to comment

Es ist aber schon überraschend - um nicht zu sagen enttäuschend - dass in gut 6 Jahren kein erkennbarer Fortschritt in der Bildqualität beim DXVA Upscaler zu erkennen ist. :thumbsdown:

Link to comment

Nicht unbedingt ... DXVA hängt normal immer am ausgebenden Device (=NVIDIA bei dir).

Wie das genau mit dem Optimus gelöst ist keine Ahnung ...

Mein Fazit wäre NVIDIA hat in 6 Jahren weder Fortschritt noch Rückschritt gemacht. ;)

Link to comment

..dann kannst du ja nur hoffen, dass im laufe weiterer 6 jahre alles nativ 4k sein wird :dvbviewer:

 

 

Das wäre schön.

 

Wobei (Full-)HD mit einer ordentlichen Datenrate (so ab 30 Mbit/s) schon ein grosser Fortschritt wäre. BlueRay ist einfach wesentlich besser als Live TV.

 

Ich denke ein 4K (bzw. UHD) Signal auf einem Full HD Beamer wird schon ein grosser Fortschritt sein. Die UHD Beamer sind ja noch unerschwinglich - wenn man nicht ein Vollenthusiast ist.

Edited by awehring
Link to comment

Nicht unbedingt ... DXVA hängt normal immer am ausgebenden Device (=NVIDIA bei dir).

Wie das genau mit dem Optimus gelöst ist keine Ahnung ...

 

Weiss ich auch nicht genau. Auf jeden Fall hätte ich dann Nvidia und HD4600 verglichen. Und das mit Sicherheit: der Ion und die HD4600 sind in verschiedenen Computern.

Edited by awehring
Link to comment

Naja zumindest hast du den Vergleich versucht ... ;)

 

Innerhalb der DXVA Pipline (LAV copyback mal außen vor) verlässt kein bit mehr die GPU.

Ausgabe ist bei Optimus imho immer über die NVIDIA Karte.

Nun wäre auch eine proprietäre Umkopiererei von Intel auf NVIDIA ganz am Schluss des Video-Processing denkbar, oder es wird schon vor umgeleitet.

Für die zweite Variante spricht dein Ergebnis ...

Link to comment

Innerhalb der DXVA Pipline (LAV copyback mal außen vor) verlässt kein bit mehr die GPU.

Ausgabe ist bei Optimus imho immer über die NVIDIA Karte.

 

 

Scheint umgekehrt zu sein:

 

Technisch ist nur die integrierte Grafikkarte mit den Displayanschlüssen (intern und extern) verbunden und liefert immer die dargestellten Bilder. Wenn nun eine Anwendung die Leistung der dedizierten Nvidia Grafikkarte benötigt, dann schaltet der Treiber diese ein und berechnet die Bilder mit dieser. Das Ergebnis wird jedoch nicht, wie üblich, direkt ausgegeben, sondern einfach per PCI-E Bus in den Ausgabespeicher der integrierten Grafikkarte kopiert. In anderen Worten rendert die integrierte Grafikkarte einfach ein Fenster mit einem Inhalt der von der dedizierten Grafikkarte stammt.

Quelle: http://www.notebookcheck.com/Nvidia-Optimus-im-Test.25430.0.html

 

In der Wikipedia steht es auch so, aber kürzer.

 

Wie das mit der DXVA-Verarbeitung geht, steht leider nicht da ...

Link to comment

Klingt ja noch schlimmer ...

Wie auch immer scheint mir das ein ganz böser Hack zu sein. Wer da genau wofür zuständig ist?

Der madVR Thread @doom9 ist voll seltsamer Beobachtungen in Verbindung mit Optimus.

 

Was aber doch mal interesssnt wäre: Bringt der DXVA Scaler überhaupt etwas? :)

Link to comment

DXVA scheint auch über die diskrete Grafik zu laufen, wenn ich die englische Wikipedia richtig interpretiere:

 

By recognizing designated classes, the Optimus Routing Layer can help determine when the GPU can be utilized to improve rendering performance. Specifically, it sends a signal to power-on the GPU when it finds any of the following three call types:

  • DX Calls: Any 3D game engine or DirectX application will trigger these calls
  • DXVA Calls: Video playback will trigger these calls (DXVA = DirectX Video Acceleration)
  • CUDA Calls: CUDA applications will trigger these calls

https://en.wikipedia.org/wiki/Nvidia_Optimus

 

Wenn ich den Wikipedia Artikel wörtlich nehme, hätte ich doch Nvidia (Ion) mit Nvidia (740M) verglichen. :blink:

 

Hmmm ...

 

 

Andererseits hat GPU-Z beim 740M keine Last gezeigt; und dabei wird sogar die Video-Engine und die GPU-Load getrennt ausgewiesen. Beide waren Null, wenn die HD4600 aktiv geschaltet war.

 

Hmmm ... :glare:

 

Dass das so kompliziert wird :wacko:

 

 

Leider habe ich hier keinen Computer ohne Optimus.

Link to comment

Was aber doch mal interesssnt wäre: Bringt der DXVA Scaler überhaupt etwas? :)

 

So auf den ersten Blick - ich habe ihn mal kurz ausgeschaltet - ist mir kein Unterschied aufgefallen. Hab's aber nicht genauer untersucht.

 

Wer skaliert eigentlich, wenn DXVA abgeschaltet ist? Die GPU (CUDA) oder die CPU?

 

Ich glaube wir brauchen Unterstützung von einem der sich mit den Renderern auskennt. Hier im Forum gibts ja mindestens zwei :whistle:

Edited by awehring
Link to comment

DXVA läuft meist in Co-Prozessoren, d.h. GPU bzw. Shader Last muss da nicht entstehen.

Ist leider alles sehr kompliziert ...

 

Ich kenn mich für meinen Bedarf genug aus, aber genieße lieber die Bildqualität mit madVR anstatt auf Oelbachkabel Niveau zu nerven wie auf Seite 1.

Link to comment

Bei 720p -> 1080 Skalierung gibts keinen Unterschied, gab es noch nie, egal ob AMD, Nvidia, Intel. Besser als gut machen ist keine Option: Logisch, schon die unskalierte 720p-Quali ist wesentlich höher als die von SD 576i (Unterschiede zw. den 720p-Sendern gibts dagegen recht deutliche, ZDF ist oft am schärfsten und hat dabei auch die höchste Datarate bei wenig Fülldaten aber das ist eine andere Geschichte..).

Da tut sich also eh nicht mehr viel bei Skalierung um den 'winzigen' Faktor 1,5 (vertikal, Faktor 1,0 ist unskaliert).

 

Deswegen pocht ja selbst madshi auch immer drauf das man erst dann deutlichere Unterschiede sieht wenn man 360p (Faktor 3) oder besser noch kleinere Bilder auf 1080 aufbläst:

Ist grundsätzlich keine schlechte Idee, die Bilder zusammen in ein Video zu komprimieren. Einen großen Nachteil hat das aber: Zumindest mit den Default-Einstellungen zoomt DVBViewer das ganze Bild "nur" auf die Bildschirmgröße. Das heißt, je größer das Original-Bild, desto kleiner der endgültige Scaling-Faktor. Wenn Du die originalen Bilder einzeln hochscalst, ist der endgültige Scaling-Faktor im DVBViewer höher, wodurch auch die Bildqualitätsunterschiede zwischen den einzelnen Scaling-Algorithmen leichter sichtbar werden.

...

Ja, es ist richtig, daß der Scaling-Qualitäts-Vorteil von madVR sehr stark vom Scaling-Faktor abhängt. Je größer der Scaling-Faktor, desto größer der Unterschied. Bei 720p -> 1080p ist der Unterschied wesentlich kleiner als bei SD -> 1080p.

 

Seine Bilder zum Testen wo man kleine Unterschiede sah hatten durchschnittl. so um 120p (Faktor 9).. :innocent:

Was es *besser* machen könnte wäre künstlich über Verschönerungs-Filter/Shader aber die machen bekanntlich heimlich hässlich...

 

Der Wunschtraum die Sender würden mal unkomprimierte Blu-rays senden wird unerfüllt bleiben, wäre auch technisches Harakiri..

4k mit dem sparsamen HEVC ist dagegen Realität - wenn sie dann mal was gscheits senden.

Edited by craig_s
Link to comment

@awehring

Du könntest Deine 740M ausreizen und madVR testen. So siehst Du, ob ein Algorithmus für Dich ansprechend ist und somit, wo die Messlatte für Deinen kunftigen PC stehen soll.

 

NVidia und AMD mit DXVA sind mit madVR und etwas zwischen Bilinear und Bicubic zu vergleichen.

Intel mit DXVA ist mit madVR und Lanczos AR fast identisch.

 

Ab Jinc gibts bei DXVA nichts Vergleichbares. Ich zweifle jedoch, dass die Karte bei Jinc mitmacht.

 

Wenn Du den Unterschied zwischen Bilinear und Lanczos spürst, lohnt es sich auf Intel+DXVA zu springen oder gar die Kombi "Dicke Graka+madVR"

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...