t5b6_de Posted January 28, 2010 Share Posted January 28, 2010 Ich bin etwas verwirrt, dann muss ZDF ja schon mist gebaut haben, denn ZDF-HD ist 720p da ist nix interlaced.... Gruß Thomas Quote Link to comment
Eichhorn Posted January 28, 2010 Share Posted January 28, 2010 Den Gedanken hatte ich auch, aber wer weiß..... Quote Link to comment
craig_s Posted January 29, 2010 Author Share Posted January 29, 2010 (edited) Thomas du hast ja recht, ja, und die Techiker in den Media-Kaufhäusen warn schon immer ne Katastrophe und da sieht man mal wie der wenig der average Kunde überhaupt ernst genommen wird, weil er sowieso nie was kapiert hat, blahbalah, äh ... Verehrter Eichhorn, lass dich aber von alledem nicht verunsichern, u.a. der "HDTV-Guru aller HDTV-Gurus" hat international die HD4670 auusgiebigst in allen Win7 Modi + Video Formaten VA-positiv getestet, allerdings ohne DVBViewer, das sollte aber jetzt nicht das Hindernis darstellen.. Edited January 29, 2010 by craig_s Quote Link to comment
Eichhorn Posted January 29, 2010 Share Posted January 29, 2010 Ich hatte immer vermutet, dass man in den MM Kaufhäusern die Fernseher mit der bestmöglichen Bildqualität (am besten nur mit BluRay) laufen lässt. Einfach damit bei den Kunden ein "WOW" duch den Kopf geht und der sofortige "Kaufzwang" auf kommt. Wenn sie dann erst den modernsten Full-HD Fernseher mit zu Hause haben (sicher ein super Modell) und dort an den analogen Kabelanschluss anstöpseln, kommt die Ernüchterung. ....und vielleicht der Gang zum nächsten Optiker, im Geschäft war das Bild doch sooo schön! Quote Link to comment
nuts Posted January 29, 2010 Share Posted January 29, 2010 (edited) "HDTV-Guru aller HDTV-Gurus" Wer ist das? renethx? Oder gibts sonst noch wo verlässliche Infoquellen die uns verborgen geblieben sind? Edited January 29, 2010 by nuts Quote Link to comment
craig_s Posted January 29, 2010 Author Share Posted January 29, 2010 (edited) genau der, ohne @ Eichhorn wie wahr, wie wahr! das ist halt gemischt, wenn grad der Vertreter vom soundso TV da ist läuft Blu-ray, auf der großen Show-Wand mit zig Monitoren streikt aber mal wieder das System... Und die Kunden machen sowieso Edited January 29, 2010 by craig_s Quote Link to comment
Pete1976 Posted January 29, 2010 Share Posted January 29, 2010 Hi craig, big respect and thanks, thanks, thanks, thanks, thanks, thanks, thanks für die Videos und Deine Mühe, uns alles zu erklären. Hab jetzt erstmals alles testen können und bin sehr zufrieden, auch wenn ich für die FullHD Auflösung wieder näher an die Kiste rücken muss Quote Link to comment
craig_s Posted January 30, 2010 Author Share Posted January 30, 2010 Danke auch Pete1976, ein paar nette Worte, das brauche ich manchmal dringend bei all dem Forums-Nervenkrieg da draussen. Quote Link to comment
CiNcH Posted January 31, 2010 Share Posted January 31, 2010 (edited) Ich habe jetzt mal Käsescheibchen mit meiner HD 3650 gespielt. Mit dem CyberLink H.264 Dekoder macht der wohl MA, die GPU-Last ist im Vollbild unter 60% bei voller Taktung, keine Artefakte oder dergleichen im Bildverlauf, aber halt Treppchen usw. Ich habe mit dem DXVA Plugin den 3C-String erzwungen, welcher ja eigentlich VA ist. Mit dem ATi AVIVO/X-Code MPEG Dekoder scheint VA erzwungen zu werden, den typischen VA-Merkmalen nach zu urteilen. Da bin ich dann bei 80% GPU-Last bei voller Taktung, nur leider sind sehr oft Artefakte und Ruckler drin, da gibt es wohl irgendwo einen Engpass.. Aero an/aus macht keinen Unterschied (probiert mit EVR und EVR Custom). Mir ist schleierhaft, wie die 4350 mit seinen 80 Stream-Prozessoren das für 1080i schaffen soll. Da bin ich sowohl beim Shader- als auch beim Speicherdurchsatz mit der HD 3650 besser dran. Kann ich mir nur so erklären, dass bei der 4000er Serie ein anderer, optimierter VA-Pixelshader Verwendung findet. Edited February 1, 2010 by CiNcH Quote Link to comment
craig_s Posted February 1, 2010 Author Share Posted February 1, 2010 (edited) Hier eine Liste - GPU-Last mit meiner HD 3850 AGP Umgebung: P4 HT 3Ghz, WinXP SP3, Cat 9.9 (AGP Hotfix), NetFramework 2.0, DirctX 9.0c (Aug_2009_redist), DXVA on, VA aktiv, DVBViewer, Overlay Slicies Versionen - GPU-Last: MPEG2 Pal 1080i: 14 - 16 % MPEG2 NTSC 1080i: 16 - 18 % MPEG2 NTSC 1080p: 5 - 8 % H.264 Pal 1080i: 9,5 - 10,5 % H.264 NTSC 1080i: 10,5 - 12 % VC-1 NTSC 1080i: 11-12 % Ich kann mir aber nicht vorstellen, dass die HD3850 AGP eine derartige "Wunderkarte" sein soll. Wenn die GPU-Last proportional zur abnehmenden Karten-Serie derart zunehmen würde dürfte doch eine HD 3200 von MA nicht mal etwas ahnen. Sie kann es aber ohne OC, sogar mit der ressourcenhungrigeren MPEG2-Version. Voraussetzung allerdings mind. HT 3.0 processor. Aber achtung, mit HT ist hier das HyperTransport von AMD gemeint, nicht das HyperThreading von Intel. Test setup: - GIGABYTE GA-MA78GM-S2H - Athlon II X2 240 - Windows 7 32-bit, Aero on - Catalyst 9.8 & 9.11 - MPC HomeCinema 1.3.1378.0 with the internal MPEG TS souce filter, CyberLink Video/SP Decoder (PDVD9) & Microsoft DTV-DVD Video Decoder for MPEG-2, ArcSoft Video Decoder for VC-1, EVR. - HD 3200 @500MHz, HT @2000MHz (200MHz x 10), C'n'Q on, Memory @400MHz (DDR2-800). That is, everything is at default. Selbst wenn die mit Cyberlink 90% GPU hätte, was ich nicht glaube weils dann Bildfehler gibt, dürften es doch bei deiner HD3600 keine 60% sein würd ich mal sagen. Hmm, wenn du jetzt irgendwer wärst würd ich vorschlagen: mach doch mal testweise ein neues Windows und installiere nur das nötigste, aber bei dir traue ich mich das natürlich nicht Ich habe mit dem DXVA Plugin den 3C-String erzwungen, welcher ja eigentlich VA ist. Ist es denn bei dir so, dass VA ohne Plugin nicht wählbar ist? Bei mir läuft alles ohne Plugin (natürlich: XP). Was sagt DXVA-Checker? Teste H.264 Slicies mal mit "MPC HomeCinema 1.3.1378.0 with the internal TS souce filter und internem H.264 MPC-Video Decoder", mache ich auch immer - sagte doch Tüftler neulich: "Versuch macht kluch" Edited February 1, 2010 by craig_s Quote Link to comment
CiNcH Posted February 1, 2010 Share Posted February 1, 2010 (edited) Ist es denn bei dir so, dass VA ohne Plugin nicht wählbar ist? Bei mir läuft alles ohne Plugin (natürlich: XP). Was sagt DXVA-Checker? Doch, VA ist ohne jegliche Reg-Tweaks wählbar. Laut DXVAChecker wird VA bis 1080i unterstützt. mach doch mal testweise ein neues Windows und installiere nur das nötigste CPU-Last kann gleich mal irgendein Fehler im System erzeugen. Aber GPU-Last? Außer dem Treiber und den Pixelshadern kann da doch nicht viel reinfunken . Außerdem ist die W7-Installation recht frisch. Werde aber die nächste Zeit neu aufsetzen müssen, weil die 90-Tage-Trial ablaufen. Hab hier aber schon ein W7 Home Premium liegen... 3850 vs. 3650 = 320 vs. 120 Stream-Prozessoren Meine hat außerdem nur einen 500 MHz Speicher oben (16 GB/s Durchsatz). Teste H.264 Slicies mal "MPC HomeCinema 1.3.1378.0 with the internal MPEG TS souce filter", mache ich auch immer - sagte doch Tüftler neulich: "Versuch macht kluch" Naja, der Splitter dürfte doch recht wenig ausmachen... dennoch probiert, weil evtl. der MPC Video Decoder was anders macht (siehe Unterschied CyberLink und ATi Dekoder).. war aber auch kein VA (EVR, Aero off). Edited February 1, 2010 by CiNcH Quote Link to comment
CiNcH Posted February 1, 2010 Share Posted February 1, 2010 (edited) Hier mal der direkte Vergleich mit EVR.. CyberLink: ATi: Wie gesagt erzwinge ich mittels DXVA Plugin den 3C-String. Edited February 1, 2010 by CiNcH Quote Link to comment
craig_s Posted February 1, 2010 Author Share Posted February 1, 2010 3850 vs. 3650 = 320 vs. 120 Stream-Prozessoren wieviel hat die 3200 ? Quote Link to comment
CiNcH Posted February 1, 2010 Share Posted February 1, 2010 (edited) wieviel hat die 3200 ? Lediglich 40. Ich glaube, das muss man alles nicht verstehen. So viele Grafikchips zu warten ist wohl nicht möglich. Wie gesagt glaube ich, dass sich je nach GPU teilweise andere Algorithmensammlungen hinter VA und MA verbergen. Aber das ist auch schon zu viel spekuliert. Wie sich die GPU-Last ergibt, weiß man auch nicht... Ich habe übrigens noch ein Posting nachgeschoben. Edited February 1, 2010 by CiNcH Quote Link to comment
t5b6_de Posted February 1, 2010 Share Posted February 1, 2010 Ich steig da irgendwie nicht ganz durch haben die ATIs nicht Unified Video Decoder (UVD) bei der 4800er Serie in neurerer Version UVD2 (sind aber einfach nur 2 UVDs weitere infos: http://de.wikipedia.org/wiki/Unified_Video_Decoder wenn ich mitm Microsoft Decoder unter windows 7 (Microsoft DTV-DVD Video Decoder) 1080i dekodieren lasse geht die GPU-Last nich über 10-17% Habe eine HD4850 bei dem Testvideo isses jedoch um einiges höher: CPU-Last is nahe null Meine grafik hat 800 Stream Prozessoren, im video-Modus wird speicher und GPU automatisch auf 500MHz getaktet (siehe unten, Current Values) gruß Thomas Quote Link to comment
CiNcH Posted February 1, 2010 Share Posted February 1, 2010 (edited) haben die ATIs nicht Unified Video Decoder (UVD) UVD ist rein der Dekoder. Post Processing (Deinterlacing usw.) wird in den Shadern (Stream-Prozessoren) gemacht und die Komplexität kann je nach GPU-Serie und GPU variieren. Habe eine HD4850 Ja, das ist VA. Mit vollen Hosen ist gut stinken... 800 Stream-Prozessoren... da sollte die GPU-Last nicht sonderlich steigen , wie du auch schon selber festgestellt hast. bei der 4800er Serie in neurerer Version UVD2 (sind aber einfach nur 2 UVDs Stimmt nicht ganz. UVD2 kann auch MPEG-2 Bitstream. Mit UVD ging bezüglich MPEG-2 gar nichts, bzw. können ATi Karten auch das MPEG-2 iDCT Profil. Da wird dann aber auch in den Shadern gerechnet bzw. dekodiert. Edited February 1, 2010 by CiNcH Quote Link to comment
craig_s Posted February 1, 2010 Author Share Posted February 1, 2010 CPU-Last kann gleich mal irgendein Fehler im System erzeugen. Aber GPU-Last? Außer dem Treiber und den Pixelshadern kann da doch nicht viel reinfunken deshalb hab ich ja gesagt bei dir trau ich mich das nicht zu sagen. Treiber können aber "allgemein" von vielen Relikten schädlich beeinflusst werden. Lediglich 40. Ich glaube, das muss man alles nicht verstehen. So viele Grafikchips zu warten ist wohl nicht möglich. jo, ich frag mal renethx, warsch. hat er die 3600 auch schon mal getestet (und ich fürchte mit den zu erwartenden Ergebnissen), dann könne man dir aber immerhin bescheinigen: Montagskarte erwischt.. oder.. erzwinge ich mittels DXVA Plugin den 3C-String .. sagt mir leider nichts (XP), aber erzwingen klingt nicht gesund. Also mit Cyberlink lässt sich VA nicht erzwingen, mit Ati schon aber Bildfehler? Wie mit MS DTV-DVD Video Decoder, Arcsoft? Quote Link to comment
CiNcH Posted February 1, 2010 Share Posted February 1, 2010 Wenn ich versuche, MA zu erzwingen, macht der ATi Dekoder trotzdem VA. MS macht ebenfalls nur MA. ArcSoft habe ich nicht. Ich steige jetzt dann sowieso auf die 5670 oder 5570 um. Irgendwann muss man wahrscheinlich einfach mit Treiber-Updates aufhören, weil alte Modelle nicht mehr wirklich gewartet werden. Evtl. sieht es unter XP mit älterem Treiber wieder ganz anders aus. Quote Link to comment
Tüftler Posted February 1, 2010 Share Posted February 1, 2010 (edited) Bei mir sieht es so aus (VA mit HD4650 Mobility EVR Vista) Leider jetzt nicht FullHD, bin noch nicht dran. Bei XP sehe ich übrigens sehr gut einen Unterschied zwischen VA und MA mit der HD4550. Auch bei Sendern, nicht nur bei Slicies. Edited February 1, 2010 by Tüftler Quote Link to comment
craig_s Posted February 1, 2010 Author Share Posted February 1, 2010 (edited) Irgendwann muss man wahrscheinlich einfach mit Treiber-Updates aufhören, weil alte Modelle nicht mehr wirklich gewartet werden. So ist es. Aber Ati hat sich mit PCIe Treibern schon irre Schnitzer geleistet, als die Modelle noch aktuell waren. Evtl. sieht es unter XP mit älterem Treiber wieder ganz anders aus. So ist es 2. Beim AGP Hotfix gibt es ja kaum neue Karten :jubel: Da funken auch die aktuellen Treiber. Bei XP sehe ich übrigens sehr gut einen Unterschied zwischen VA und MA mit der HD4550. Auch bei Sendern, nicht nur bei Slicies. ..aber erst seit du 40cm davor sitzt, stimmts? Oder hast du wieder Schlieren gesehen? Edited February 1, 2010 by craig_s Quote Link to comment
t5b6_de Posted February 1, 2010 Share Posted February 1, 2010 Nur ich habe beim Microsoft-Decoder massive Probleme mit 720p, Pixelsalat, ebenso bei 1440*1080 (aber nur britische sender) bei 1920*1080 läuft alles astrein nehme ich nun den Decoder der bei AvivoHD dabei ist (ATI MPEG Decoder) dann funktioniert nur 1440*1080 nicht, pixelsalat ohne ende, jedoch anderes Muster: Ich weiß bis heute nicht woran das liegt in 1440*1080 senden Anixe HD, Astra HD Promo, die britischen: BBC HD, und LuxeTV HD Servus TV hD läuft astrein, der sendet nämlich mit 1920 mitm deinterlacing hab ich auch schon rumgespielt, hatte schon in vermutung, das dieserr murks macht, und das ist bei LiveTV als auch bei Dateiwiedergabe, verschiedene renderer machen keinen unterschied. mpeg2 funktioniert ohne probleme das Problem beschränkt sich nur auf H.264 gruß Thomas Quote Link to comment
Tüftler Posted February 1, 2010 Share Posted February 1, 2010 ..aber erst seit du 40cm davor sitzt, stimmts? Oder hast du wieder Schlieren gesehen? Nee, nee. Gerade bei Sendungen mit schnellen Bewegungen (habe hier gerade DMAX mit Auto motor Sport TV an) sieht man das gut. Quote Link to comment
Tüftler Posted February 1, 2010 Share Posted February 1, 2010 (edited) @ thomy pc Anixe HD sendet wieder in Full HD, entgegen AstraHD! Deshalb nehme ich für einige Tests mit den Custom Renderern zur Zeit gerne Anixe HD (höhere GPU-Last). Edited February 1, 2010 by Tüftler Quote Link to comment
t5b6_de Posted February 1, 2010 Share Posted February 1, 2010 hm dann weiß ich nicht warum ich diese seltsamen Probleme habe... das Problem beschränkt sich ja seltsamerweise nicht nur auf einem PC, ein anderer Rechner mit Radeon 2600XT hat die gleichen Probleme und der ATI MPEG Decoder scheint die GPU nur für das dekodieren zu nutzen postprocessing läuft offenbar weiter über die CPU lediglich beim microsoft-decoder wird alles von der CPU übernommen Gibt es eigentlich noch weitere decoder, welche Hardwareunterstützung bieten? Ich kenne bereits den Microsoft Decoder, das ATI-Ding ffdshow DXVA Deocer (funktioniert nur nicht) .... gruß Thomas Quote Link to comment
Tüftler Posted February 1, 2010 Share Posted February 1, 2010 Cyberlink, war und ist weiterhin mein Favorit, egal ob 7, 8 oder 9. Quote Link to comment
t5b6_de Posted February 1, 2010 Share Posted February 1, 2010 (edited) ...lediglich beim microsoft-decoder wird alles von der CPU übernommen ... Natürlcih mein ich da GPU Wie komm ich an den decoder ran? Gruß Thomas Edit: Ich hab mir die Trial von Cyberlink PowerDVD heruntergeladen, wird der dekoder nicht registriert, wenn ich den nun manuell registrieren möchte, kommt im Filtermanager folgende Fehlermeldung: Über die konsole passiert rein garnichts, keine fehlermeldung, nichts gruß Thomas Nachtrag: Habe nun den Cyberlink-Codec vom HD-Pack genommen da habe ich gleiche Probleme wie beim Microsoft decoder, jedoch äußern die sich etwas anders bei 720p sind die probleme nur sporatisch aber mindestens 1-2mal pro 30 sekunden bbc hd, luxetv hd weiterhin probleme, sogar bis hin zum automatischen rücksetzen des Grafiktreibers durch das betriebsystem, Anixe HD funktioniert auch nicht richtig, nach kurzer zeit friert das bild ein, und danach baut der dvbv die wiedergabe neu auf... egal ob aufnahme oder livetv Arcsoft läuft auch über hardware, hat exalkt das gleiche verhalten wie cyberlink es ist zum mäuse melken... Gruß Thomas Edited February 1, 2010 by thomy_pc Quote Link to comment
craig_s Posted February 2, 2010 Author Share Posted February 2, 2010 (edited) @ thomy_pc Ich versteh ja, dass dir deine Probleme am wichtigsten sind, die nichts mit der speziellen Thematik dieses Threads zu tun haben und schon 500-2000 mal in anderen Threads besprochen wurden. Trotzdem wird dir keiner so leicht die Lösung präsentieren können, dein PC hat mehr als genug Hardwarereserven für HDTV, evl. spinnt was von der Schüssel zum PC oder lies mal das HDTV-Wiki, besonders "systematische Fehlereinkreisung". Dann geh in dich und denke erst mal selbst grundlegend und gründlich über deinen PC nach und suche nach Infos und mache Tests, bevor du neu sortiert bitte einen eigenen Thread aufmachst. Das grenzt ja schon an Hijacking hier! Allein die Bilderflut-Spam, jetzt muß ich das auch so machen, sonst findet Chinch diese Post nicht: @ CiNcH @ CiNcH @ CiNcH @ CiNcH @ CiNcH @ CiNcH @ CiNcH @ CiNcH @ CiNcH @ CiNcH @ CiNcH @ CiNcH Verdammt, renethx hatte ja bei der HD3200 doch übertaktet, hab ich glatt übersehen. Und zwar die 500Mhz einmal @1000Mhz, einmal @2000Mhz. Trotzdem nur MA. Bei deiner HD3650 sieht's viel besser aus: kevinqian hat jetzt hier geschrieben: I need to teach them how to activate VA on HD3650! Just overclocked the DDR2 to 1000mhz and bingo. 1080i Mpeg2 decoding with VA use about 70% gpu usage. So VA alone should be about 50%. I have HD 2600Pro = HD 3650. Sollte dir weiterhelfen? Grüße an alle, craig Edited February 2, 2010 by craig_s Quote Link to comment
CiNcH Posted February 2, 2010 Share Posted February 2, 2010 (edited) Sollte dir weiterhelfen? Schon. Hab ich eh in die Richtung vermutet. Hab ich auch schon probiert, aber ich bekomme den 500 MHz DDR nicht auf 1000, was ja 100% Übertaktung bedeuten würde . Irgendwo bei 700 friert mir alles ein. Bei der HD 5000 (welche auch immer) werde ich dann alles richtig machen . Vielleicht sollte man versuchen herauszufinden, wo da das Limit liegt bei der Speicherbandbreite. Meine HD 3650 mit 128-Bit Speicher-Interface macht bei 500 MHz 16 GB/s. Eine HD 4350 bei 64-Bit und 500 MHz gerade mal 8 GB/s (mit 800 MHz Speicher 12.8 GB/s). Wieso soll also die 4350/4550 mit deren Speicherbandbreite VA können, und die 3650 nicht? Mir kommt das spanisch vor. Und wir werden es nie vollständig verstehen. Alles eine Frage der GPU-Serie, des Treibers (+OS) usw., IMHO gibt es da Unterschiede bei den VA-Pixelshadern. Edited February 2, 2010 by CiNcH Quote Link to comment
craig_s Posted February 2, 2010 Author Share Posted February 2, 2010 (edited) Jo, es ist wieder anders, bin halt kein Overclocker, nie gewesen... Also die reden immer von der effective speed. d.h. wenn er sagt 1000Mhz meint er 500Mhz DDR2. Er hat also seine HD 2600 nur von 400/800 auf 500/1000 Mhz overclocked und hatte VA-Erfolg. Danach konnte er wieder auf 400/800 zurück-clocken und VA blieb erhalten bis zum nächsten Reboot. Overclocke halt mal deine HD 3650 auf 600/1200 Mhz oder kleins Bissel drüber und schau ob sich VA-mäßig was tut. Oder es kann auch sein, dass schon ein paar Mhz genügen.. Evl. muß man rebooten damit das Sys kapiert das jetzt ein "Renner" eingebaut ist? Only after OC the DDR2 to 1008Mhz (effective), would DxVA checker report VA for 1080i sources. I then ran the Cheese slices again and confirmed VA functional. So then I tried downclocking to 800Mhz stock speeds and VA was retained until next system reboot. Edited February 3, 2010 by craig_s Quote Link to comment
craig_s Posted February 3, 2010 Author Share Posted February 3, 2010 (edited) Fasse mal zusammen: 1) wenn also das EVR DXVA Select plugin zeigt, dass das System *überlistet* weden muss und kann um VA freizuschalten wenn die GPU schwächelt 2) Overclocking zeigt, dass das System nicht auf das Label sondern auf auf die tatsächlichen momentanen Fähigkeiten der GPU reagiert, wenn es u.a. entscheidet ob VA oder nicht dann würde ich mal soweit spekulieren, dass der Tip 'ein paar Mhz draufpacken' sogar bei noch mehreren schwächelnden Grakas (zB. 4550 + Aero) nützen könnte? Und zwar u.U. heilender als das EVR DXVA Select plugin? Oder in Kombination? Aber bei aller Theoretisiererei: *Versuch macht kluch* Nur das bringt einen weiter. Edited February 3, 2010 by craig_s Quote Link to comment
CiNcH Posted February 3, 2010 Share Posted February 3, 2010 (edited) Ah, verstehe, ich habe mir angewöhnt immer die reale Taktfrequenz anzugeben. Bei DDR verdoppelt sich effektiv nur die Datenrate. Dann bin ich mit den 500 MHz eh gut dabei. Wie gesagt, übertaktet habe ich schon auf ca. 600 MHz, aber noch keinen Neustart durchgeführt. Das werde ich noch ausprobieren... Also in meinem Fall kann man das DXVA Plugin außer Acht lassen. Ohne Plugin sind die Ergebnisse dieselben, was die maximale Stufe anbelangt. CL/MS machen stabil MA (600 MHz @ 40% GPU), ATi macht instabil VA (725 MHz @ > 60% GPU), auch ohne zu übertakten. Wie das unter XP aussieht kann ich nicht sagen. Ich bin auf meinem HTPC nur noch unter 7 unterwegs... Edited February 3, 2010 by CiNcH Quote Link to comment
Tüftler Posted February 3, 2010 Share Posted February 3, 2010 Ob es VA gibt oder nicht hängt vom GPU- und dem RAM-Takt ab. Ich hatte vor ein paar Tagen CiNcH schon mal geschrieben das sowohl ein Runtertakten der GPU, als auch ein Runtertakten des RAM's (also nicht beides gleichzeitig) auf einer HD4550 VA deaktiviert. Meine Vermutung war daher das im Treiber darauf hin berechnet wird ob es freigegeben wird oder nicht. Die Grenze rauszufinden ist bei einer HD4550 aber nicht empfehlenswert, da ich immer das BIOS flashen muss. Quote Link to comment
craig_s Posted February 3, 2010 Author Share Posted February 3, 2010 Wie das unter XP aussieht kann ich nicht sagen. Ich bin auf meinem HTPC nur noch unter 7 unterwegs... Die beiden *Overclocker* im AVS Forum auch. Wie sieht es eigentlich bei dir mit dem MPEG2 1080i Slicies aus? Bis jetzt hast du ja immer nur H.264 probiert, oder? MPEG2 schluckt zwar mehr Ressourcen, dafür arbeiten die Decoder viel zuverlässiger.. Quote Link to comment
CiNcH Posted February 3, 2010 Share Posted February 3, 2010 Mit dem ATi Dekoder wird die GPU voll getaktet. Aber für VA reicht es trotzdem nicht. Es wird zwar eingesetzt, macht aber Artefakte. Ich hatte mich früher schon gewundert, warum der ATi Dekoder bei mir bei 1080i nur Artefakte macht. Da wusste ich aber noch nicht, dass CyberLink kein VA macht und nur deshalb problemlos funktioniert. Quote Link to comment
ccdmas Posted February 3, 2010 Share Posted February 3, 2010 Wenn ich versuche, MA zu erzwingen, macht der ATi Dekoder trotzdem VA. MS macht ebenfalls nur MA. ArcSoft habe ich nicht. Ich hab' gestern mal wieder in bisschen rumgespielt, und dabei ein paar interessante Sachen festgestellt. 1. Die Microsoft Codecs aus Windows7 machen De-interlacingmäßig generell (also auch mit dem EVR Plugin) was sie wollen, und obendrei schalten die auch während der Wiedergabe fröhlich die Methoden durch, bis hin zu Weave. Und zwar sowohl bei HD, als auch bei SD. Man kann das schön am parallel laufenden CCC sehen, plötzlich plumpst die GPU Last von 70% auf 35% runter, und schon hat man weave. Nach ein paar Sekunden geht dann alles wieder auf normal. Das passiert besonders gerne bei oder unmittelbar nach Schnitten. Die Cyberlink codecs machen das nicht. Und das obwohl die GPU Last mit denen sogar leicht höher liegt. Anscheinend kümmern sich also einige Codecs nicht wirklich um die EVR Vorgaben. Evtl. ist das bei Dir auch der Fall, und Teil des Problems. Kannst Du mal die Demo der Cyberlinks probieren? 2. Die GPU Lastunterschiede zwischen Adaptiv, MA oder VA sind ersteunlicherweise minimal (max 5%). 3. Die MS Codecs produzieren, trotz relativ niedriger GPU Last (um 50%), bei 720p und Deinterlacing auf Progressiv, massive Bildfehler in Form von Klötzchenbildung bei schnellen Bewegungen. Auch hier, keinerlei Problem mit den Cyberlinks. CU, Massimo Quote Link to comment
ccdmas Posted February 3, 2010 Share Posted February 3, 2010 Mit dem ATi Dekoder wird die GPU voll getaktet. Aber für VA reicht es trotzdem nicht. Es wird zwar eingesetzt, macht aber Artefakte. Ich hatte mich früher schon gewundert, warum der ATi Dekoder bei mir bei 1080i nur Artefakte macht. Da wusste ich aber noch nicht, dass CyberLink kein VA macht und nur deshalb problemlos funktioniert. Jetzt drehen wir uns im Kreis. Warum macht meine 4350 dann mit den Cyberlinks und dem Plugin völlig problemlos VA in allen Auflösungen? Quote Link to comment
CiNcH Posted February 3, 2010 Share Posted February 3, 2010 (edited) Wie sieht es eigentlich bei dir mit dem MPEG2 1080i Slicies aus? Habe ich noch nicht probiert. Wäre vielleicht auch noch interessant. Naja, lange werde ich mich damit nicht mehr beschäftigen. Sobald ATi alle Evergreens draußen hat, und es eine Karte mit meinem preferierten Chip aus der Serie gibt, die meinen Anforderungen entspricht (geeignete Kühllösung, Speicher mit angemessenem Durchsatz, DP statt VGA), werde ich zuschlagen. und obendrei schalten die auch während der Wiedergabe fröhlich die Methoden durch Ja, die MS machen da bei mir auch teilweise Pfusch. Kannst Du mal die Demo der Cyberlinks probieren? Ich habe schon CyberLink(TerraTec), CyberLink PDVD8 und den CyberLink Unified (der aktuellste 9er) durch. Alle machen lediglich MA. Edited February 3, 2010 by CiNcH Quote Link to comment
CiNcH Posted February 3, 2010 Share Posted February 3, 2010 Jetzt drehen wir uns im Kreis. Warum macht meine 4350 dann mit den Cyberlinks und dem Plugin völlig problemlos VA in allen Auflösungen? GPU-Serie, Treiber, OS,... wir werden diese Problematik wahrscheinlich nie vollständig verstehen. Und ich wills auch nicht verstehen, wenn ich lese, dass bei einigen VA läuft, wenn sie die Taktrate vom RAM minimal variieren. Da macht dann einfach der Treiber Mist... Quote Link to comment
craig_s Posted February 3, 2010 Author Share Posted February 3, 2010 Wir haben beide gleichzeitig gepostet, s.o. wegen MPEG2 (wichtig). Der Ati Decoder hat bei mir in XP auch schon immer Artefakte produziert in 1080i, SD kann er aber sehr gut icl. DXVA. dass CyberLink kein VA macht und nur deshalb problemlos funktioniert So groß ist der Unterschied im Ressourcenhunger VA vs. MA nicht. Wenn der Cyberlink bereit wäre mit DXVA VA zu produzieren, würdest du da kaum einen unterschied bemerken. Ich schau in Kürze mal was die GPU-Last bei mir bei MA sagt, der Unterschied ist aber glaub winzig. Quote Link to comment
CiNcH Posted February 3, 2010 Share Posted February 3, 2010 SD kann er aber sehr gut icl. DXVA. Bei mir nicht. Bei kabel.eins zum Bleistift springt der ATi immer wieder auf Weave zurück. So groß ist der Unterschied im Ressourcenhunger VA vs. MA nicht. Wenn der Cyberlink bereit wäre mit DXVA VA zu produzieren, würdest du da kaum einen unterschied bemerken. Ich schau in Kürze mal was die GPU-Last bei mir bei MA sagt, der Unterschied ist aber glaub winzig. Naja, mal schauen, was ich noch alles probieren werde. Meine Motivation ist nicht allzu groß. Win7 Neuinstallation steht in Kürze an. Mal sehen... Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.