CiNcH Posted February 5, 2010 Share Posted February 5, 2010 Evl. solltest du den Cyberlink einer Komplett-Überprüfung /Erneuerung unterziehen..? Könnte sich auch positiv auf H.264 auswirken? CyberLink habe ich in 3 Version probiert: CyberLink(TerraTec) (das entspricht einer 7.3er Version von PowerDVD), den PowerDVD8 und den CyberLink Unified Decoder, wie ich ihn nenne (der neueste 9er, der halt alle Formate beherrscht). Was macht der MS Decoder? Muss ich noch probieren.. Der interne in MPC-HC kann MPEG-2 leider nicht gescheit. Ja, der kann zwar durch setzen des Interlace-Flags das Deinterlacing an den Renderer delegieren, unterstützt aber das NV12-Farbformat nicht. Quote Link to comment
craig_s Posted February 5, 2010 Author Share Posted February 5, 2010 (edited) 3 Versionen... hmm, aber wenn es so ist, dass kein Defekt vorliegt und der Treiber vorsätzlich VA verhindert, spielt beim Verhindern auch jedenfalls der Cyberlink eine aktive Rolle, nicht nur der Treiber. Anderenfalls müsste der Cyber ja mit MPEG-2 VA können, nicht nur der Ati. Achte: nicht aktives DXVA verhindert VA. Wie ist die CPU-Last? Die dürfte bei aktivem DXVA + 1080i MPEG-2 je nach deiner CPU 15% nicht überschreiten. Was hast du für ne CPU? Noch zur Information: Cyber reagiert ausserhalb DVBViewer (MPC-HC) auf Renderer. ZB. H.264 + Overlay = kein DXVA. Bei Win7 werden die Karten wieder ganz neu gemischt sein. Edited February 5, 2010 by craig_s Quote Link to comment
CiNcH Posted February 5, 2010 Share Posted February 5, 2010 Mit MPEG-2 macht der 'Microsoft DTV-DVD Video Decoder' wie auch CyberLink lediglich MA. DXVA wird verwendet. Der CyberLink Dekoder arbeitet im iDCT Profil. Nochmal eben mit dem ATi verifiziert. Der macht in der Tat lupenreines VA. Bei Hardwarebeschleunigung muss man nur ein paar einfache Regeln beachten: XP: DXVA 1.0 für MPEG-2/VC-1/H.264 mit Overlay/VMR Vista/7: DXVA 1.0 für MPEG-2 mit Overlay/VMR/EVR, DXVA 2.0 für MPEG-2/VC-1/H.264 nur mit EVR Quote Link to comment
CiNcH Posted February 5, 2010 Share Posted February 5, 2010 So wie es aussieht, macht der ATi MPEG Video Decoder gar kein DXVA, sondern lediglich SW im NV12-Farbraum. Quote Link to comment
craig_s Posted February 5, 2010 Author Share Posted February 5, 2010 (edited) Wenn alles mit rechten Dingen zugeht wärest du damit der erste, der "lupenreines VA 1080i" mit Software Deinterlacing bestätigt. Wie lange frag ich schon danach.. CPU-Last? Edited February 5, 2010 by craig_s Quote Link to comment
CiNcH Posted February 5, 2010 Share Posted February 5, 2010 HW-VA kann man auch ohne DXVA triggern. Quote Link to comment
craig_s Posted February 5, 2010 Author Share Posted February 5, 2010 Nie gehört, wie? Quote Link to comment
CiNcH Posted February 5, 2010 Share Posted February 5, 2010 Indem der Dekoder das Interlace-Flag im Output setzt und das unkomprimierte Video im NV12-Farbformat an den Renderer übergibt. Da obliegt das Deinterlacing dann dem Renderer, welcher das an die Grafikhardware bzw. Treiber delegiert. Quote Link to comment
craig_s Posted February 5, 2010 Author Share Posted February 5, 2010 Puh, das ist was worauf ich nie geachtet habe. An welcher Stelle kann man identifizieren/sich anzeigen lassen ob es sich um HW+DXVA oder HW-DXVA handelt? Quote Link to comment
CiNcH Posted February 5, 2010 Share Posted February 5, 2010 Mit dem ATi MPEG Video Dekoder kann ich das nur anhand der CPU-Last annehmen und natürlich anhand der Tatsache dass das fehlerhafte ORF 1 HD Sample ohne Artefakte durchläuft. Deshalb hab ich ja die CPU-Last erst geprüft. Sonst wäre mir das nicht einmal aufgefallen. Die Dekodierung ist ja ab Dual-Core-CPU nicht mehr so die aufwändige Arbeit. Hochwertiges Deinterlacing ist um ein Vielfaches anspruchsvoller. CoreAVC kann es theoretisch, hat aber gröbere Probleme mit den Standard MS Renderern. Ich glaub, da stimmt die Field Order nicht. CoreAVC läuft nur mit dem Haali Renderer optimal. Der kann zwar das Deinterlacing an die Grafikkarte delegieren, unterstützt aber kein NV12. Müsste ich mal probieren wie die Käsescheibchen mit CoreAVC+Haali im YUY2-Farbraum abschneiden. Dürfte dann auch nur mehr MA oder gar Adaptive sein. Weiß nicht genau, was mit YUY2 das Maximum ist. Quote Link to comment
craig_s Posted February 5, 2010 Author Share Posted February 5, 2010 Ich denke von Ähnlichem hatten wir es schonmal, -> hier. Dort ein Stück weiter oben ist ein Screenshot, wo MPEG-2 Käsescheibchen in GPU+CPU mit Cyberlink 1x durchläuft. Evl. für dich als Anhaltspunkt. Die oberste Linie ist aber nicht 100 sondern gestauchte 50%, d.h. die CPU-Last geht nicht viel über 20%. Der kleine Link bei AnandTech hat den AVS-Thread mal eben in 24Std um 2000 views hochgepuscht - wenn die alle gleichzeitig downloaden, dann gut nacht Drop.io.. Bis jetzt haben die sich immerhin noch nicht beschwert... Wenns gut geht ordnen sie Slicies als very important national US ressources ein Quote Link to comment
Eichhorn Posted February 5, 2010 Share Posted February 5, 2010 Vielleicht eine blööde Frage, aber mit dem "ATi MPEG Video Decoder" meint Ihr doch den Avivo Video Converter von der Ati Homepage? Quote Link to comment
CiNcH Posted February 5, 2010 Share Posted February 5, 2010 Vielleicht eine blööde Frage, aber mit dem "ATi MPEG Video Decoder" meint Ihr doch den Avivo Video Converter von der Ati Homepage? Ja, der Dekoder ist in diesem Paket enthalten. Quote Link to comment
Eichhorn Posted February 5, 2010 Share Posted February 5, 2010 (edited) Danke für die Antwort, werde den bei Gelegenheit auch mal installieren und testen. Aber wieso im Paket, es ist doch ganz unten auf der Seite ein extra Download. EDIT: Ich habe diesen Decoder gerade einmal bei mir getestet. ASTRA HD absolut nicht möglich, es wird nur ein absolutes Mosaik gebildet. Normale SD Sender laufen. Die GPU Last geht von 16% (Cyberlink) auf 0% runter. De CPU Last bleibt konstant bei 7%. Edited February 5, 2010 by Eichhorn Quote Link to comment
t5b6_de Posted February 6, 2010 Share Posted February 6, 2010 @eichhorn, das gleiche problem habe ich auch... Quote Link to comment
t5b6_de Posted February 6, 2010 Share Posted February 6, 2010 (edited) Hallo, gibt es irgendwie eine möglichkeit das deinterlacing (unabhängig vom decoder) auf die grafikkarte zu übertragen, Ich habe es mit CoreAVC ausprobiert und das deinterlacing auf Hardware gestellt: (Zum vergrößern aufs bild klicken) Zumindest ist laut hilfe dann der renderer zuständig fürs deinterlacing, Das Problem, dieser scheint nur eins der beiden felder darzustellen da die darstellung recht pixelig wird, bobbing würde zittern, diese darstellung ist ruhig: Bei Weave ist das entsprechend besser: Der Auschnitt aus der hilfe von CoreAVC: DeinterlacingThis setting specifies how interlaced material is handled by the decoder. None (Weave) - Each output frame contains two fields, flagged as progressive. Single Field - Each output frame contains one field. Only one frame is produced for each field pair. Bob - Each output frame contains one field. Two frames are produced for each field pair. Hardware - Each output frame contains two fields, flagged as interlaced to allow the video renderer to perform deinterlacing. Was ich jedoch nicht verstehe ist das die GPU-Last teilweise bis 50% und mehr erreicht... Gruß Thomas PS: Anixe HD sendet wieder in 1440*1080 Edited February 6, 2010 by thomy_pc Quote Link to comment
CiNcH Posted February 6, 2010 Share Posted February 6, 2010 Ich habe hier schon geschrieben, dass CoreAVC da nicht ganz sauber läuft. Quote Link to comment
t5b6_de Posted February 6, 2010 Share Posted February 6, 2010 Ja, das habe ich gelesen, aber nun erst richtig verstanden, ich habe vorhin mit graphedit eine aufnahme abgespielt nebenher den kram in DVBViewer laufen lassen, nur der renderer einmal EVR im dvbv, und beim graphedit den Haali Video Renderer, damit läufts astrein, so wie's scheint ist es möglich den Haali im DVBViewer zu verwenden? Quote Link to comment
CiNcH Posted February 6, 2010 Share Posted February 6, 2010 ist es möglich den Haali im DVBViewer zu verwenden? Nein. Quote Link to comment
craig_s Posted February 7, 2010 Author Share Posted February 7, 2010 Mit dem ATi MPEG Video Dekoder kann ich das nur anhand der CPU-Last annehmen und natürlich anhand der Tatsache dass das fehlerhafte ORF 1 HD Sample ohne Artefakte durchläuft. Deshalb hab ich ja die CPU-Last erst geprüft. Sonst wäre mir das nicht einmal aufgefallen. Die Dekodierung ist ja ab Dual-Core-CPU nicht mehr so die aufwändige Arbeit. Hochwertiges Deinterlacing ist um ein Vielfaches anspruchsvoller. CoreAVC kann es theoretisch, hat aber gröbere Probleme mit den Standard MS Renderern. Ich glaub, da stimmt die Field Order nicht. CoreAVC läuft nur mit dem Haali Renderer optimal. Der kann zwar das Deinterlacing an die Grafikkarte delegieren, unterstützt aber kein NV12. Müsste ich mal probieren wie die Käsescheibchen mit CoreAVC+Haali im YUY2-Farbraum abschneiden. Dürfte dann auch nur mehr MA oder gar Adaptive sein. Weiß nicht genau, was mit YUY2 das Maximum ist. Das ist jedenfalls ne interessante Geschichte, schade dass ich mit meinem Setup da nicht mittesten kann. Werde mir aber demnächst nen Lappi zulegen müssen, dann bin ich wieder besser im Spiel. Und warscheinlich auch besser am schimpfen.. Übrigens hat AnandTech das hauptsächlich Gaming-orientierte Ati/AMD aufgefordert mit Käsescheibchen zu testen. Yeah, Käsescheibchen rules the world! Nun könnte man ein bisschen hoffen das sich diese "Bewegung" HDTV-positiv auf zukünftige AMD Entwicklungen incl. Treiber auswirkt? Naja, wollen mal nicht zuviel spekulieren. Quote Link to comment
guenti51 Posted February 7, 2010 Share Posted February 7, 2010 Hab da mal eine Frage: Ist VA das, was beim Cyberlink Decoder als Pixel Adaptiv bezeichnet wird ? Was ist MVC und Decimation ? Eine Veränderung der vorgegebenen Einstellungen brachte keine sichtbaren Veränderungen. Ich habe den Uni Cyberlink Decoder 9 im Einsatz. Bei Euch bezieht sich ja vieles auf ATI, da kann ich einiges nicht nachvollziehen, insbesondere beschriebene Probleme. K.A. ob das nun an ATI oder meinen Einstellungen liegt. Asus M3N/HD-HDMI Phenom 9850 BE GTX 275 1792 MB TT3200 Quote Link to comment
CiNcH Posted February 7, 2010 Share Posted February 7, 2010 (edited) Ist VA das, was beim Cyberlink Decoder als Pixel Adaptiv bezeichnet wird ? Nein, soweit ich weiß, greift der bei DXVA nicht, sondern nur bei der Dekodierung über Software. MVC Google mal "Multiview Video Coding". Es handelt sich dabei um ein Verfahren um 3D optimal zu kodieren. Bei Euch bezieht sich ja vieles auf ATI, da kann ich einiges nicht nachvollziehen, insbesondere beschriebene Probleme. Es geht hauptsächlich um hochwertiges Deinterlacing bei schwächeren Grafikeinheiten. Eine GTX 275 würde ich nicht als schwach bezeichnen.. Edited February 7, 2010 by CiNcH Quote Link to comment
guenti51 Posted February 7, 2010 Share Posted February 7, 2010 Wie krieg ich dann hochwertiges Deinterlacing auf meiner GTX275 hin ? Quote Link to comment
CiNcH Posted February 7, 2010 Share Posted February 7, 2010 DXVA/Hardwarebeschleunigung aktivieren und die Sache sollte gegessen sein. Quote Link to comment
guenti51 Posted February 7, 2010 Share Posted February 7, 2010 Wo muß ich DXVA/Hardwarebeschleunigung aktivieren ? Quote Link to comment
CiNcH Posted February 7, 2010 Share Posted February 7, 2010 (edited) Dort wo du MVC usw. gefunden hast. Deinterlacing auf Auto stellen. Du hast doch gesagt, du hast keine Probleme. Wieso denn die ganzen Fragen? Edited February 7, 2010 by CiNcH Quote Link to comment
guenti51 Posted February 7, 2010 Share Posted February 7, 2010 Nein, soweit ich weiß, greift der bei DXVA nicht, sondern nur bei der Dekodierung über Software. Sorry ,daß ich irgendwie auf dem Schlauch stehe. Im PDVD9 habe ich zur Auswahl: Auto, Bob, Wave, Pixel Adaptiv Voreingestellt ist DXVA, Auto-select. Also ist es das schon und läuft mit VA ? Aus den unzähligen Postings die Quintessenz zu ziehen ist wirklich nicht einfach. Quote Link to comment
CiNcH Posted February 7, 2010 Share Posted February 7, 2010 (edited) Voreingestellt ist DXVA, Auto-select. Also ist es das schon und läuft mit VA ? Sollte.. Verifizierbar mit dem Käsescheibchen-Test aus diesem Thread. Aus den unzähligen Postings die Quintessenz zu ziehen ist wirklich nicht einfach. Die Quintessenz kann man den ersten beiden Beiträgen dieses Threads entnehmen. Edited February 7, 2010 by CiNcH Quote Link to comment
guenti51 Posted February 7, 2010 Share Posted February 7, 2010 Funktionen: Darstellung sichtbarer Unterschiede zwischen:- Weave, Bob, Adaptive, Motion Adaptive, Vector Adaptive (Ati Graphic Cards - CCC) - allen anderen Arten von Deinterlacern - Videoprozessoren in Media-Geräten - welchen Einfluss verschiedene Renderer, Player oder Treiber haben - Weave, Bob, Adaptive, Motion Adaptive, Vector Adaptive (Ati Graphic Cards - CCC) Bei Nvidia gibts da leider nichts im Treiber einzustellen. Quote Link to comment
CiNcH Posted February 7, 2010 Share Posted February 7, 2010 (edited) Bei Nvidia gibts da leider nichts im Treiber einzustellen. Richtig. Da trifft dann der Treiber hoffentlich die richtige Entscheidung. Versuch es doch einfach mal und schau dir das Ergebnis an... Edited February 7, 2010 by CiNcH Quote Link to comment
guenti51 Posted February 7, 2010 Share Posted February 7, 2010 Habe ich ja schon gemacht. Trotzdem war ich mir nicht sicher, ob das nun schon VA ist. Wenn dem nun so ist, habe ich wohl schon längere Zeit VA. Kann man die Shader miteinander kombinieren bzw. editieren ? Gibts da noch mehr davon ? Quote Link to comment
CiNcH Posted February 7, 2010 Share Posted February 7, 2010 (edited) Habe ich ja schon gemacht. Trotzdem war ich mir nicht sicher, ob das nun schon VA ist.Wenn dem nun so ist, habe ich wohl schon längere Zeit VA. Poste halt mal einen Screenshot, wenn Bewegung im Bild ist. Die Merkmale, ob VA ja/nein, sind eigentlich recht klar und in den ersten beiden Postings dokumentiert. Kann man die Shader miteinander kombinieren bzw. editieren ?Gibts da noch mehr davon ? Du verwendest Shader? Ich hoffe doch nicht den Deinterlace Pixelshader. Im Prinzip sollten die Shader verwendbar sein, die es auch in MPC-HC gibt. Edited February 7, 2010 by CiNcH Quote Link to comment
CiNcH Posted February 7, 2010 Share Posted February 7, 2010 (edited) Das hat mich grad mal auf die Idee gebracht den 'Deinterlace' Pixelshader aus MPC-HC zu probieren... Das ist ein lediglich spatial arbeitender Blend-Algorithmus. Edited February 7, 2010 by CiNcH Quote Link to comment
guenti51 Posted February 7, 2010 Share Posted February 7, 2010 Ich meinte die Shader von der DVBViewer Beta. Sharpen und Blurr für SD machen sich teilweise ganz gut. Quote Link to comment
CiNcH Posted February 7, 2010 Share Posted February 7, 2010 (edited) Das ist ganz klar VA. Ja, diese Shader meine ich auch. Was es alles gibt, kann man in MPC-HC begutachten und für den DVBViewer portieren. Edited February 7, 2010 by CiNcH Quote Link to comment
guenti51 Posted February 7, 2010 Share Posted February 7, 2010 Muß man den MPC-HC extra installieren oder gibts die Shader auch so ? Quote Link to comment
CiNcH Posted February 7, 2010 Share Posted February 7, 2010 Die sind nur beim MPC-HC dabei. Den Shader-Code kann man dem Shader-Editor in MPC entnehmen. Änderungen werden in der Registry unter 'HKEY_CURRENT_USER\Software\Gabest\Media Player Classic\Shaders' gepseichert. Quote Link to comment
guenti51 Posted February 7, 2010 Share Posted February 7, 2010 Danke für deine Mühe und einen schönen Restsonntag wünscht guenti51 Quote Link to comment
t5b6_de Posted February 8, 2010 Share Posted February 8, 2010 Nein. Das find ich echt schade das der Haali Video Renderer nicht im DVBViewer nutzbar ist... Gruß Thomas Quote Link to comment
CiNcH Posted February 8, 2010 Share Posted February 8, 2010 Ein Renderer steht in enger Wechselwirkung mit der Applikation. Den kann man nicht mal eben auswechseln wie ein Dekoder.. Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.