awehring Posted October 21, 2016 Posted October 21, 2016 (edited) Es gibt ja einige hier, die Erfahrung mit madVR haben. Wäre nett, wenn sie mir beim Konzipieren meines neuen HTPC helfen. Meine Hauptfrage: Lohnt sich madVR um 720p50 Fernsehen auf einen Full HD Beamer schärfer darzustellen, wozu eine Grafikkarte erforderlich ist? Ich schaue TV nur mit einem Full HD Beamer auf einer 1.80 m breite Leinwand. Sitzabstand etwa 4 - 5 m. Da sieht man die Schwächen der ÖR Sender (720p50, 10 - 12 Mbit/s) schon deutlich, insbesondere etwa bei Fussball. Mein momentaner HTPC läuft mit einem älteren Intel Atom und Nvidia Ion. Dazu DVBViewer mit LAV Filter und EVR Custom Renderer. Upscaling mit DXVA. Gerne hätte ich - z. B. bei Fussball - ein schärferes Bild. Erreiche ich eine spürbare Verbesserung mit madVR und einer entsprechenden Grafikkarte? Wenn ja, welches Modell mindestens? Ist mit Lüfterlärm zu rechnen? Dann müsste mein neuer HTPC Platz für die Grafikkarte haben. Falls damit keine (erkennbare) besserer Schärfung möglich ist, würde ich einen kleinen NUC (oder dergleichen) mit einem Kaby Lake Prozessor planen. Leider kann ich nicht selber testen, da ich nur Notebooks habe, mit maximal einer GT-740M. Vielen Dank für eure Tipps ! Edited October 21, 2016 by awehring Quote
awehring Posted October 21, 2016 Author Posted October 21, 2016 Man liest, dass die internen upscaler in UHD TVs sehr gut arbeiten. Dass es kaum sichtbare Unterschiede zwischen echtem UHD-Programmmaterial und upgescaltem FullHD gibt. Wenn madVR ebenso gut arbeitet bei 720 -> 1080, wäre ich zufrieden. Quote
blasgl Posted October 21, 2016 Posted October 21, 2016 Ein NUC mit EVR Custom und DXVA liefert schon eine sehr gute Skalierung bei 720p-Material. Um eine bessere Skalierung mit MadVR ohne DXVA zu erreichen muss Du schon eine dicke Graka haben (GTX 760, RX 280...oder besser) und alles was das mit sich bringt (Kühlung, Stromverbrauch, Platz...) und Du wirst es kaum merken können. Wenn es darum geht, andere Vorteile von MadVR zu nutzen (FRC, Kalibrierung, Erkennung von schwarze Balken im Bild, automatisches Umschalten zw. Videomodi, usw...) da gibts "wenige" Alternativen. Quote
awehring Posted October 21, 2016 Author Posted October 21, 2016 Danke ! Hast Du das schon auch einmal auf einem Beamer verglichen? Oder auf einem Full HD Fernseher aus 1 m - was etwa meinen Verhältnissen entsprechen würde. Quote
Derrick Posted October 21, 2016 Posted October 21, 2016 wenn du alles verdoppelst, siehst auch nicht meh details Quote
awehring Posted October 21, 2016 Author Posted October 21, 2016 Hmmm ... Wenn man DVDs oder SD-TV mit guten upscalern auf Full HD bringt, sehen sie eindeutig schärfer aus, als mit simplen. Sollte das bei 720 -> 1080 nicht auch so sein? Quote
blasgl Posted October 21, 2016 Posted October 21, 2016 Ja, alles schon auf meinem Fernseher mit geringem Abstand getestet. Der NUC kann madVR kaum bewegen. Da hat man 2 Optionen: 1. Billige Algorithmen für die Skalierung auswählen. Höhe GPU-Last und die Qualität der Skalierung leidet sehr. 2. Intensiver Nutzung von DXVA, um die Last zu senken und die Skalierungsqualität zu retten. Da hat man aber Banding oder andere Artefakte, wie beim EVR Custom. Hier hat man trotzdem die Möglichkeit sachen wie Videomodi-Umschalten, schwarze Balken erkennen, FRC... Was mit EVR Custom nicht geht. Wenn man alles haben will, dann muss man einen HTPC um eine dicke Graka bauen. Nur wegen der Skalierung 720p auf 1080p würde ich nicht auf MadVR umsteigen. Da reicht der NUC mit EVR Custom und DXVA. Quote
awehring Posted October 21, 2016 Author Posted October 21, 2016 (edited) Mit welcher Graka kast Du getestet? Edited October 21, 2016 by awehring Quote
Derrick Posted October 21, 2016 Posted October 21, 2016 Ein TV skaliert doch und ein Beamer denk ich auch. Warum also? Quote
awehring Posted October 21, 2016 Author Posted October 21, 2016 (edited) Ich habe einen der ersten erschwinglichen Full HD Beamer (Sanyo PLV-Z700). Ich glaube nicht, dass der einen besonders gute Skalierer hat. Habe allerdings auch noch nicht ausprobiert, ihm 720p direkt zuzuspielen. Wahrscheinlich müsste ich dann bei Full HD Material immer den PC und vielleicht auch den Beamer umschalten. Edited October 21, 2016 by awehring Quote
blasgl Posted October 21, 2016 Posted October 21, 2016 Ich habe am Fernseher diese Konstellation getestet: Intel HD 4400 (Im NUC4) und Intel HD 5500 (Im NUC5) 576i auf 1080p 720p auf 1080p Blurays Am 27" Monitore habe ich diese Konstellationen getestet; Intel HD 530 und AMD HD 7850 576i auf 1440p und 4K 720p auf 1440p und 4K 1080i auf 1440p und 4K Die Skalierung ist mit allen Intel Grakas und DXVA sehr gut. Mit der HD7850 MadVR und Jinc AR ist es minimal besser gewesen, allerdings war bei 80%-90% GPU-Last die Geräuschkulisse nicht HTPC-Tauglich. Bei der 4K-Auflösung musste ich sogar auf DXVA zurückfallen, und dann ist die Intel-Skalierung definitiv besser. Quote
awehring Posted October 21, 2016 Author Posted October 21, 2016 Danke für die ausführlichen Infos, das hilft mir. Die aktuellen RX-470 oder GTX-1060 hätten eine um einiges höhere Performance bei gleicher Leistungsaufnahme. Da sollte Jinc AR deutlich leiser laufen. Wenn es allerdings nur minimal besser ist ... Ich könnte ja mal probieren meinen Notebook mit Intel HD 4600 und DXVA anzuschliessen. Vielleicht ist das besser als DXVA mit den alten Nvidia Ion. Ist das plausibel? Quote
blasgl Posted October 21, 2016 Posted October 21, 2016 (edited) Die HD 4600 bei DXVA wird gut sein. Ob besser als Deine jetzige, das musst Du uns sagen. Und nur Du kannst beurteilen, ob Du andere MadVR-Spielereien brauchst/willst. Wenn ja, suche nach einer leisen GTX-1060. Wenn Du im Umkreis von 100 km wohnst, würde ich mit einem NUC vorbeikommen und MadVR/EVR testen. Bei interesse, einfach PN Edited October 21, 2016 by blasgl Quote
awehring Posted October 21, 2016 Author Posted October 21, 2016 Ich werde berichten, wenn wieder Fussball läuft Fussball ist halt sehr kleinteilig, normales Programm mit 1 m grossen Köpfen der Schauspieler sieht sowieso gut aus. Noch eine Anschlussfrage: Die noch besseren Algorithmen (NNEDI) bringen nach dem was ich gelesen habe, nicht viel gegenüber Jinc AR. Oder täusche ich mich da? Quote
blasgl Posted October 21, 2016 Posted October 21, 2016 NNEDI war für meine HD7850 zu viel des Guten. Ich habe mit Jinc AR keinen Unterschied gesehen (ausser der Ruckelei wegen mangelder Leistung) Quote
craig_s Posted October 21, 2016 Posted October 21, 2016 (edited) Fussball ist halt sehr kleinteilig, normales Programm mit 1 m grossen Köpfen der Schauspieler sieht sowieso gut aus. ..so ist es. Ich freu mich auf 4k-Fußball, die Schärfe ist phänomenal wie ich in versch. Demos sehen konnte. Wird hoffentlich nicht alles teuer verschlüsselt sein? Gesteigerte Bildqualität durch madVR bei 720->1080 Skalierung ist dagegen eine Frage des Glaubens Edited October 21, 2016 by craig_s Quote
esackbauer Posted October 22, 2016 Posted October 22, 2016 Gesteigerte Bildqualität durch madVR bei 720->1080 Skalierung ist dagegen eine Frage des Glaubens Nicht vergessen, ohne goldene Oehlbach-Kabel wirds mit der Skalierung nix Quote
spachti Posted October 23, 2016 Posted October 23, 2016 Heisst das etwa keine Gebete und Weihrauch mehr noetig? Quote
awehring Posted October 26, 2016 Author Posted October 26, 2016 Jetzt habe ich die Bildqualität von Nvidia Ion (1. Generation) zusammen mit einem Atom 330 (HTPC) und Intel HD-4600 (Notebook mit einem i7-4702MQ) miteinander verglichen. Jeweils mit dem Custom EVR Renderer mit DXVA Skalierung auf einen Full HD Beamer bzw. Monitor. Die Quelle war Live TV mit 720p50, h.264 und ca. 10.5 Mbit/s (Schweizer Fernsehen). Ergebnis: absolut kein Unterschied. Zunächst habe ich bei einem Fussballspiel direkt zwischen den beiden Computern (HTPC / Notebook) umgeschaltet. Beide waren via HDMI am Beamer angeschlossen und ich konnte direkt zwischen den beiden Anschlüssen hin und her schalten. Da dachte ich zunächst, dass die HD-4600 um einiges schärfer ist. Es stellte sich dann aber heraus, dass im Intel Grafiktreiber die Schärfung für Videos aktiviert war. Nach dem Ausschalten der Schärfung sah das Bild mit beiden Grafikkarten gleich aus. Ich habe dann - von der Aufnahme des Fussballspiels - mit beiden Computern Screenshots von der gleichen Szene gemacht und diese penibel miteinander verglichen. Es ist wirklich kein Unterschied erkennbar. Ich habe dann auch noch Screenshots mit der Nvidia 740M im Notebook gemacht. Auch diese sind völlig gleich wie die mit Ion oder HD-4600. Quote
nuts Posted October 26, 2016 Posted October 26, 2016 HD-4600 und 740M ist im gleichen notebook verbaut? Weil dann könntest du auch NVIDIA mit NVIDIA verglichen haben ... Quote
awehring Posted October 26, 2016 Author Posted October 26, 2016 (edited) Ja die 740M ist auch im Notebook (Optimus Technologie). Ich glaube nicht, dass mir der Fehler unterlaufen ist. Im Nvidia Control Center kann man steuern, welcher Grafikprozessor aktiv ist. Zur Sicherheit habe ich noch mit GPU-Z kontrolliert, ob der jeweils andere ohne Last ist. Edited October 26, 2016 by awehring Quote
awehring Posted October 26, 2016 Author Posted October 26, 2016 Es ist aber schon überraschend - um nicht zu sagen enttäuschend - dass in gut 6 Jahren kein erkennbarer Fortschritt in der Bildqualität beim DXVA Upscaler zu erkennen ist. Quote
Derrick Posted October 26, 2016 Posted October 26, 2016 ..dann kannst du ja nur hoffen, dass im laufe weiterer 6 jahre alles nativ 4k sein wird Quote
nuts Posted October 26, 2016 Posted October 26, 2016 Nicht unbedingt ... DXVA hängt normal immer am ausgebenden Device (=NVIDIA bei dir). Wie das genau mit dem Optimus gelöst ist keine Ahnung ... Mein Fazit wäre NVIDIA hat in 6 Jahren weder Fortschritt noch Rückschritt gemacht. Quote
awehring Posted October 26, 2016 Author Posted October 26, 2016 (edited) ..dann kannst du ja nur hoffen, dass im laufe weiterer 6 jahre alles nativ 4k sein wird Das wäre schön. Wobei (Full-)HD mit einer ordentlichen Datenrate (so ab 30 Mbit/s) schon ein grosser Fortschritt wäre. BlueRay ist einfach wesentlich besser als Live TV. Ich denke ein 4K (bzw. UHD) Signal auf einem Full HD Beamer wird schon ein grosser Fortschritt sein. Die UHD Beamer sind ja noch unerschwinglich - wenn man nicht ein Vollenthusiast ist. Edited October 26, 2016 by awehring Quote
awehring Posted October 26, 2016 Author Posted October 26, 2016 (edited) Nicht unbedingt ... DXVA hängt normal immer am ausgebenden Device (=NVIDIA bei dir). Wie das genau mit dem Optimus gelöst ist keine Ahnung ... Weiss ich auch nicht genau. Auf jeden Fall hätte ich dann Nvidia und HD4600 verglichen. Und das mit Sicherheit: der Ion und die HD4600 sind in verschiedenen Computern. Edited October 26, 2016 by awehring Quote
nuts Posted October 26, 2016 Posted October 26, 2016 Naja zumindest hast du den Vergleich versucht ... Innerhalb der DXVA Pipline (LAV copyback mal außen vor) verlässt kein bit mehr die GPU. Ausgabe ist bei Optimus imho immer über die NVIDIA Karte. Nun wäre auch eine proprietäre Umkopiererei von Intel auf NVIDIA ganz am Schluss des Video-Processing denkbar, oder es wird schon vor umgeleitet. Für die zweite Variante spricht dein Ergebnis ... Quote
awehring Posted October 26, 2016 Author Posted October 26, 2016 Innerhalb der DXVA Pipline (LAV copyback mal außen vor) verlässt kein bit mehr die GPU. Ausgabe ist bei Optimus imho immer über die NVIDIA Karte. Scheint umgekehrt zu sein: Technisch ist nur die integrierte Grafikkarte mit den Displayanschlüssen (intern und extern) verbunden und liefert immer die dargestellten Bilder. Wenn nun eine Anwendung die Leistung der dedizierten Nvidia Grafikkarte benötigt, dann schaltet der Treiber diese ein und berechnet die Bilder mit dieser. Das Ergebnis wird jedoch nicht, wie üblich, direkt ausgegeben, sondern einfach per PCI-E Bus in den Ausgabespeicher der integrierten Grafikkarte kopiert. In anderen Worten rendert die integrierte Grafikkarte einfach ein Fenster mit einem Inhalt der von der dedizierten Grafikkarte stammt. Quelle: http://www.notebookcheck.com/Nvidia-Optimus-im-Test.25430.0.html In der Wikipedia steht es auch so, aber kürzer. Wie das mit der DXVA-Verarbeitung geht, steht leider nicht da ... Quote
nuts Posted October 26, 2016 Posted October 26, 2016 Klingt ja noch schlimmer ... Wie auch immer scheint mir das ein ganz böser Hack zu sein. Wer da genau wofür zuständig ist? Der madVR Thread @doom9 ist voll seltsamer Beobachtungen in Verbindung mit Optimus. Was aber doch mal interesssnt wäre: Bringt der DXVA Scaler überhaupt etwas? Quote
awehring Posted October 26, 2016 Author Posted October 26, 2016 DXVA scheint auch über die diskrete Grafik zu laufen, wenn ich die englische Wikipedia richtig interpretiere: By recognizing designated classes, the Optimus Routing Layer can help determine when the GPU can be utilized to improve rendering performance. Specifically, it sends a signal to power-on the GPU when it finds any of the following three call types: DX Calls: Any 3D game engine or DirectX application will trigger these calls DXVA Calls: Video playback will trigger these calls (DXVA = DirectX Video Acceleration) CUDA Calls: CUDA applications will trigger these calls https://en.wikipedia.org/wiki/Nvidia_Optimus Wenn ich den Wikipedia Artikel wörtlich nehme, hätte ich doch Nvidia (Ion) mit Nvidia (740M) verglichen. Hmmm ... Andererseits hat GPU-Z beim 740M keine Last gezeigt; und dabei wird sogar die Video-Engine und die GPU-Load getrennt ausgewiesen. Beide waren Null, wenn die HD4600 aktiv geschaltet war. Hmmm ... Dass das so kompliziert wird Leider habe ich hier keinen Computer ohne Optimus. Quote
awehring Posted October 26, 2016 Author Posted October 26, 2016 (edited) Was aber doch mal interesssnt wäre: Bringt der DXVA Scaler überhaupt etwas? So auf den ersten Blick - ich habe ihn mal kurz ausgeschaltet - ist mir kein Unterschied aufgefallen. Hab's aber nicht genauer untersucht. Wer skaliert eigentlich, wenn DXVA abgeschaltet ist? Die GPU (CUDA) oder die CPU? Ich glaube wir brauchen Unterstützung von einem der sich mit den Renderern auskennt. Hier im Forum gibts ja mindestens zwei Edited October 26, 2016 by awehring Quote
nuts Posted October 26, 2016 Posted October 26, 2016 DXVA läuft meist in Co-Prozessoren, d.h. GPU bzw. Shader Last muss da nicht entstehen. Ist leider alles sehr kompliziert ... Ich kenn mich für meinen Bedarf genug aus, aber genieße lieber die Bildqualität mit madVR anstatt auf Oelbachkabel Niveau zu nerven wie auf Seite 1. Quote
nuts Posted October 26, 2016 Posted October 26, 2016 Ich guck lieber mit einem TV Mit MultiPID? Quote
Derrick Posted October 26, 2016 Posted October 26, 2016 Der ist standalone bzw. streaming client Quote
craig_s Posted October 26, 2016 Posted October 26, 2016 (edited) Bei 720p -> 1080 Skalierung gibts keinen Unterschied, gab es noch nie, egal ob AMD, Nvidia, Intel. Besser als gut machen ist keine Option: Logisch, schon die unskalierte 720p-Quali ist wesentlich höher als die von SD 576i (Unterschiede zw. den 720p-Sendern gibts dagegen recht deutliche, ZDF ist oft am schärfsten und hat dabei auch die höchste Datarate bei wenig Fülldaten aber das ist eine andere Geschichte..). Da tut sich also eh nicht mehr viel bei Skalierung um den 'winzigen' Faktor 1,5 (vertikal, Faktor 1,0 ist unskaliert). Deswegen pocht ja selbst madshi auch immer drauf das man erst dann deutlichere Unterschiede sieht wenn man 360p (Faktor 3) oder besser noch kleinere Bilder auf 1080 aufbläst: Ist grundsätzlich keine schlechte Idee, die Bilder zusammen in ein Video zu komprimieren. Einen großen Nachteil hat das aber: Zumindest mit den Default-Einstellungen zoomt DVBViewer das ganze Bild "nur" auf die Bildschirmgröße. Das heißt, je größer das Original-Bild, desto kleiner der endgültige Scaling-Faktor. Wenn Du die originalen Bilder einzeln hochscalst, ist der endgültige Scaling-Faktor im DVBViewer höher, wodurch auch die Bildqualitätsunterschiede zwischen den einzelnen Scaling-Algorithmen leichter sichtbar werden. ... Ja, es ist richtig, daß der Scaling-Qualitäts-Vorteil von madVR sehr stark vom Scaling-Faktor abhängt. Je größer der Scaling-Faktor, desto größer der Unterschied. Bei 720p -> 1080p ist der Unterschied wesentlich kleiner als bei SD -> 1080p. Seine Bilder zum Testen wo man kleine Unterschiede sah hatten durchschnittl. so um 120p (Faktor 9).. Was es *besser* machen könnte wäre künstlich über Verschönerungs-Filter/Shader aber die machen bekanntlich heimlich hässlich... Der Wunschtraum die Sender würden mal unkomprimierte Blu-rays senden wird unerfüllt bleiben, wäre auch technisches Harakiri.. 4k mit dem sparsamen HEVC ist dagegen Realität - wenn sie dann mal was gscheits senden. Edited October 27, 2016 by craig_s Quote
blasgl Posted October 26, 2016 Posted October 26, 2016 @awehring Du könntest Deine 740M ausreizen und madVR testen. So siehst Du, ob ein Algorithmus für Dich ansprechend ist und somit, wo die Messlatte für Deinen kunftigen PC stehen soll. NVidia und AMD mit DXVA sind mit madVR und etwas zwischen Bilinear und Bicubic zu vergleichen. Intel mit DXVA ist mit madVR und Lanczos AR fast identisch. Ab Jinc gibts bei DXVA nichts Vergleichbares. Ich zweifle jedoch, dass die Karte bei Jinc mitmacht. Wenn Du den Unterschied zwischen Bilinear und Lanczos spürst, lohnt es sich auf Intel+DXVA zu springen oder gar die Kombi "Dicke Graka+madVR" Quote
craig_s Posted October 26, 2016 Posted October 26, 2016 Ab Jinc gibts bei DXVA nichts Vergleichbares. Wie soll das zusammen gehen? zB. Image up - nur Entweder Jinc oder DXVA möglich. Quote
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.