Jump to content
craig_s

Endlich: HD 1080i, SD 576i Testvideos

Recommended Posts

t5b6_de

Ich bin etwas verwirrt, dann muss ZDF ja schon mist gebaut haben, denn ZDF-HD ist 720p

da ist nix interlaced....

 

Gruß

Thomas

Share this post


Link to post
Eichhorn

Den Gedanken hatte ich auch, aber wer weiß.....

Share this post


Link to post
craig_s

:unsure: Thomas du hast ja recht, ja, und die Techiker in den Media-Kaufhäusen warn schon immer ne Katastrophe und da sieht man mal wie der wenig der average Kunde überhaupt ernst genommen wird, weil er sowieso nie was kapiert hat, blahbalah, äh ...

 

Verehrter Eichhorn, lass dich aber von alledem nicht verunsichern, u.a. der "HDTV-Guru aller HDTV-Gurus" hat international die HD4670 auusgiebigst in allen Win7 Modi + Video Formaten VA-positiv getestet, allerdings ohne DVBViewer, das sollte aber jetzt nicht das Hindernis darstellen..

Edited by craig_s

Share this post


Link to post
Eichhorn

Ich hatte immer vermutet, dass man in den MM Kaufhäusern die Fernseher mit der bestmöglichen Bildqualität (am besten nur mit BluRay) laufen lässt. Einfach damit bei den Kunden ein "WOW" duch den Kopf geht und der sofortige "Kaufzwang" auf kommt. :unsure:

 

Wenn sie dann erst den modernsten Full-HD Fernseher mit zu Hause haben (sicher ein super Modell) und dort an den analogen Kabelanschluss anstöpseln, kommt die Ernüchterung. o:)

 

....und vielleicht der Gang zum nächsten Optiker, im Geschäft war das Bild doch sooo schön! o:)

Share this post


Link to post
nuts
"HDTV-Guru aller HDTV-Gurus"

Wer ist das? :unsure:

renethx? Oder gibts sonst noch wo verlässliche Infoquellen die uns verborgen geblieben sind?

Edited by nuts

Share this post


Link to post
craig_s

genau der, ohne :unsure:

 

 

@ Eichhorn

wie wahr, wie wahr! o:) das ist halt gemischt, wenn grad der Vertreter vom soundso TV da ist läuft Blu-ray, auf der großen Show-Wand mit zig Monitoren streikt aber mal wieder das System...

 

Und die Kunden machen sowieso o:)

Edited by craig_s

Share this post


Link to post
Pete1976

Hi craig,

 

big respect and thanks, thanks, thanks, thanks, thanks, thanks, thanks

 

für die Videos und Deine Mühe, uns alles zu erklären.

 

Hab jetzt erstmals alles testen können und bin sehr zufrieden, auch wenn ich für die FullHD Auflösung wieder näher an die Kiste rücken muss (w00t)

Share this post


Link to post
craig_s

Danke auch Pete1976, ein paar nette Worte, das brauche ich manchmal dringend bei all dem Forums-Nervenkrieg da draussen. (w00t)

Share this post


Link to post
CiNcH

Ich habe jetzt mal Käsescheibchen mit meiner HD 3650 gespielt.

 

Mit dem CyberLink H.264 Dekoder macht der wohl MA, die GPU-Last ist im Vollbild unter 60% bei voller Taktung, keine Artefakte oder dergleichen im Bildverlauf, aber halt Treppchen usw. Ich habe mit dem DXVA Plugin den 3C-String erzwungen, welcher ja eigentlich VA ist.

 

Mit dem ATi AVIVO/X-Code MPEG Dekoder scheint VA erzwungen zu werden, den typischen VA-Merkmalen nach zu urteilen. Da bin ich dann bei 80% GPU-Last bei voller Taktung, nur leider sind sehr oft Artefakte und Ruckler drin, da gibt es wohl irgendwo einen Engpass..

 

Aero an/aus macht keinen Unterschied (probiert mit EVR und EVR Custom).

 

Mir ist schleierhaft, wie die 4350 mit seinen 80 Stream-Prozessoren das für 1080i schaffen soll. Da bin ich sowohl beim Shader- als auch beim Speicherdurchsatz mit der HD 3650 besser dran. Kann ich mir nur so erklären, dass bei der 4000er Serie ein anderer, optimierter VA-Pixelshader Verwendung findet.

Edited by CiNcH

Share this post


Link to post
craig_s

Hier eine Liste - GPU-Last mit meiner HD 3850 AGP

Umgebung: P4 HT 3Ghz, WinXP SP3, Cat 9.9 (AGP Hotfix), NetFramework 2.0, DirctX 9.0c (Aug_2009_redist), DXVA on, VA aktiv, DVBViewer, Overlay

 

Slicies Versionen - GPU-Last:

 

MPEG2 Pal 1080i: 14 - 16 %

MPEG2 NTSC 1080i: 16 - 18 %

MPEG2 NTSC 1080p: 5 - 8 %

 

H.264 Pal 1080i: 9,5 - 10,5 %

H.264 NTSC 1080i: 10,5 - 12 %

 

VC-1 NTSC 1080i: 11-12 %

 

Ich kann mir aber nicht vorstellen, dass die HD3850 AGP eine derartige "Wunderkarte" sein soll. Wenn die GPU-Last proportional zur abnehmenden Karten-Serie derart zunehmen würde dürfte doch eine HD 3200 von MA nicht mal etwas ahnen. Sie kann es aber ohne OC, sogar mit der ressourcenhungrigeren MPEG2-Version. Voraussetzung allerdings mind. HT 3.0 processor. Aber achtung, mit HT ist hier das HyperTransport von AMD gemeint, nicht das HyperThreading von Intel.

 

Test setup:

 

- GIGABYTE GA-MA78GM-S2H

- Athlon II X2 240

- Windows 7 32-bit, Aero on

- Catalyst 9.8 & 9.11

- MPC HomeCinema 1.3.1378.0 with the internal MPEG TS souce filter, CyberLink Video/SP Decoder (PDVD9) & Microsoft DTV-DVD Video Decoder for MPEG-2, ArcSoft Video Decoder for VC-1, EVR.

- HD 3200 @500MHz, HT @2000MHz (200MHz x 10), C'n'Q on, Memory @400MHz (DDR2-800). That is, everything is at default.

 

Selbst wenn die mit Cyberlink 90% GPU hätte, was ich nicht glaube weils dann Bildfehler gibt, dürften es doch bei deiner HD3600 keine 60% sein würd ich mal sagen.

Hmm, wenn du jetzt irgendwer wärst würd ich vorschlagen: mach doch mal testweise ein neues Windows und installiere nur das nötigste, aber bei dir traue ich mich das natürlich nicht :bye:

 

Ich habe mit dem DXVA Plugin den 3C-String erzwungen, welcher ja eigentlich VA ist.

Ist es denn bei dir so, dass VA ohne Plugin nicht wählbar ist? Bei mir läuft alles ohne Plugin (natürlich: XP). Was sagt DXVA-Checker?

Teste H.264 Slicies mal mit "MPC HomeCinema 1.3.1378.0 with the internal TS souce filter und internem H.264 MPC-Video Decoder", mache ich auch immer - sagte doch Tüftler neulich: "Versuch macht kluch" B)

Edited by craig_s

Share this post


Link to post
CiNcH
Ist es denn bei dir so, dass VA ohne Plugin nicht wählbar ist? Bei mir läuft alles ohne Plugin (natürlich: XP). Was sagt DXVA-Checker?

Doch, VA ist ohne jegliche Reg-Tweaks wählbar. Laut DXVAChecker wird VA bis 1080i unterstützt.

 

mach doch mal testweise ein neues Windows und installiere nur das nötigste

CPU-Last kann gleich mal irgendein Fehler im System erzeugen. Aber GPU-Last? Außer dem Treiber und den Pixelshadern kann da doch nicht viel reinfunken B) . Außerdem ist die W7-Installation recht frisch. Werde aber die nächste Zeit neu aufsetzen müssen, weil die 90-Tage-Trial ablaufen. Hab hier aber schon ein W7 Home Premium liegen...

 

3850 vs. 3650 = 320 vs. 120 Stream-Prozessoren

 

Meine hat außerdem nur einen 500 MHz Speicher oben (16 GB/s Durchsatz).

 

Teste H.264 Slicies mal "MPC HomeCinema 1.3.1378.0 with the internal MPEG TS souce filter", mache ich auch immer - sagte doch Tüftler neulich: "Versuch macht kluch"

Naja, der Splitter dürfte doch recht wenig ausmachen... dennoch probiert, weil evtl. der MPC Video Decoder was anders macht (siehe Unterschied CyberLink und ATi Dekoder).. war aber auch kein VA (EVR, Aero off).

Edited by CiNcH

Share this post


Link to post
CiNcH

Hier mal der direkte Vergleich mit EVR..

 

CyberLink:

3650_slices_cl_ma.jpg

 

ATi:

3650_slices_ati_va.jpg

 

Wie gesagt erzwinge ich mittels DXVA Plugin den 3C-String.

Edited by CiNcH

Share this post


Link to post
craig_s
3850 vs. 3650 = 320 vs. 120 Stream-Prozessoren

 

wieviel hat die 3200 ?

Share this post


Link to post
CiNcH
wieviel hat die 3200 ?

Lediglich 40. Ich glaube, das muss man alles nicht verstehen. So viele Grafikchips zu warten ist wohl nicht möglich. Wie gesagt glaube ich, dass sich je nach GPU teilweise andere Algorithmensammlungen hinter VA und MA verbergen. Aber das ist auch schon zu viel spekuliert. Wie sich die GPU-Last ergibt, weiß man auch nicht...

 

Ich habe übrigens noch ein Posting nachgeschoben.

Edited by CiNcH

Share this post


Link to post
t5b6_de

Ich steig da irgendwie nicht ganz durch

haben die ATIs nicht Unified Video Decoder (UVD)

bei der 4800er Serie in neurerer Version UVD2 (sind aber einfach nur 2 UVDs

weitere infos:

http://de.wikipedia.org/wiki/Unified_Video_Decoder

wenn ich mitm Microsoft Decoder unter windows 7 (Microsoft DTV-DVD Video Decoder) 1080i dekodieren lasse geht die GPU-Last nich über 10-17%

Habe eine HD4850

bei dem Testvideo isses jedoch um einiges höher:

Screen20100201-205112.jpg

CPU-Last is nahe null

Meine grafik hat 800 Stream Prozessoren, im video-Modus wird speicher und GPU automatisch auf 500MHz getaktet (siehe unten, Current Values)

 

gruß

Thomas

Share this post


Link to post
CiNcH
haben die ATIs nicht Unified Video Decoder (UVD)

UVD ist rein der Dekoder. Post Processing (Deinterlacing usw.) wird in den Shadern (Stream-Prozessoren) gemacht und die Komplexität kann je nach GPU-Serie und GPU variieren.

 

Habe eine HD4850

Ja, das ist VA. Mit vollen Hosen ist gut stinken... 800 Stream-Prozessoren... da sollte die GPU-Last nicht sonderlich steigen ;) , wie du auch schon selber festgestellt hast.

 

bei der 4800er Serie in neurerer Version UVD2 (sind aber einfach nur 2 UVDs

Stimmt nicht ganz. UVD2 kann auch MPEG-2 Bitstream. Mit UVD ging bezüglich MPEG-2 gar nichts, bzw. können ATi Karten auch das MPEG-2 iDCT Profil. Da wird dann aber auch in den Shadern gerechnet bzw. dekodiert.

Edited by CiNcH

Share this post


Link to post
craig_s
CPU-Last kann gleich mal irgendein Fehler im System erzeugen. Aber GPU-Last? Außer dem Treiber und den Pixelshadern kann da doch nicht viel reinfunken

deshalb hab ich ja gesagt bei dir trau ich mich das nicht zu sagen. Treiber können aber "allgemein" von vielen Relikten schädlich beeinflusst werden.

 

Lediglich 40. Ich glaube, das muss man alles nicht verstehen. So viele Grafikchips zu warten ist wohl nicht möglich.

jo, ich frag mal renethx, warsch. hat er die 3600 auch schon mal getestet (und ich fürchte mit den zu erwartenden Ergebnissen), dann könne man dir aber immerhin bescheinigen: Montagskarte erwischt.. oder..

 

erzwinge ich mittels DXVA Plugin den 3C-String

.. sagt mir leider nichts (XP), aber erzwingen klingt nicht gesund. Also mit Cyberlink lässt sich VA nicht erzwingen, mit Ati schon aber Bildfehler? Wie mit MS DTV-DVD Video Decoder, Arcsoft?

Share this post


Link to post
CiNcH

Wenn ich versuche, MA zu erzwingen, macht der ATi Dekoder trotzdem VA. MS macht ebenfalls nur MA. ArcSoft habe ich nicht.

 

Ich steige jetzt dann sowieso auf die 5670 oder 5570 um. Irgendwann muss man wahrscheinlich einfach mit Treiber-Updates aufhören, weil alte Modelle nicht mehr wirklich gewartet werden. Evtl. sieht es unter XP mit älterem Treiber wieder ganz anders aus.

Share this post


Link to post
Tüftler

Bei mir sieht es so aus (VA mit HD4650 Mobility EVR Vista) Leider jetzt nicht FullHD, bin noch nicht dran. ;)

slicies.png

 

Bei XP sehe ich übrigens sehr gut einen Unterschied zwischen VA und MA mit der HD4550. Auch bei Sendern, nicht nur bei Slicies.

Edited by Tüftler

Share this post


Link to post
craig_s
Irgendwann muss man wahrscheinlich einfach mit Treiber-Updates aufhören, weil alte Modelle nicht mehr wirklich gewartet werden.

So ist es. Aber Ati hat sich mit PCIe Treibern schon irre Schnitzer geleistet, als die Modelle noch aktuell waren.

 

Evtl. sieht es unter XP mit älterem Treiber wieder ganz anders aus.

So ist es 2. Beim AGP Hotfix gibt es ja kaum neue Karten :jubel: Da funken auch die aktuellen Treiber.

 

 

Bei XP sehe ich übrigens sehr gut einen Unterschied zwischen VA und MA mit der HD4550. Auch bei Sendern, nicht nur bei Slicies.

..aber erst seit du 40cm davor sitzt, stimmts? Oder hast du wieder Schlieren gesehen? ;)

Edited by craig_s

Share this post


Link to post
t5b6_de

Nur ich habe beim

Microsoft-Decoder massive Probleme mit 720p, Pixelsalat,

ebenso bei 1440*1080 (aber nur britische sender)

bei 1920*1080 läuft alles astrein

Screen20100201-215942.jpg

Screen20100201-220128.jpg

 

nehme ich nun den Decoder der bei AvivoHD dabei ist (ATI MPEG Decoder)

dann funktioniert nur 1440*1080 nicht, pixelsalat ohne ende, jedoch anderes Muster:

Screen20100201-220356.jpg

Screen20100201-220440.jpg

 

Ich weiß bis heute nicht woran das liegt

in 1440*1080 senden Anixe HD, Astra HD Promo,

die britischen: BBC HD, und LuxeTV HD

Servus TV hD läuft astrein, der sendet nämlich mit 1920

mitm deinterlacing hab ich auch schon rumgespielt, hatte schon in vermutung, das dieserr murks macht,

und das ist bei LiveTV als auch bei Dateiwiedergabe, verschiedene renderer machen keinen unterschied.

 

mpeg2 funktioniert ohne probleme

das Problem beschränkt sich nur auf H.264

 

gruß

Thomas

Share this post


Link to post
Tüftler
..aber erst seit du 40cm davor sitzt, stimmts? Oder hast du wieder Schlieren gesehen? ;)

Nee, nee. Gerade bei Sendungen mit schnellen Bewegungen (habe hier gerade DMAX mit Auto motor Sport TV an) sieht man das gut.

Share this post


Link to post
Tüftler

@ thomy pc

Anixe HD sendet wieder in Full HD, entgegen AstraHD! Deshalb nehme ich für einige Tests mit den Custom Renderern zur Zeit gerne Anixe HD (höhere GPU-Last).

Edited by Tüftler

Share this post


Link to post
t5b6_de

hm

dann weiß ich nicht warum ich diese seltsamen Probleme habe...

das Problem beschränkt sich ja seltsamerweise nicht nur auf einem PC,

ein anderer Rechner mit Radeon 2600XT

hat die gleichen Probleme

und der ATI MPEG Decoder scheint die GPU nur für das dekodieren zu nutzen postprocessing läuft offenbar weiter über die CPU

lediglich beim microsoft-decoder wird alles von der CPU übernommen

 

Gibt es eigentlich noch weitere decoder, welche Hardwareunterstützung bieten?

Ich kenne bereits

den Microsoft Decoder,

das ATI-Ding

ffdshow DXVA Deocer (funktioniert nur nicht)

....

 

gruß

Thomas

Share this post


Link to post
Tüftler

Cyberlink, war und ist weiterhin mein Favorit, egal ob 7, 8 oder 9.

Share this post


Link to post
t5b6_de
...

lediglich beim microsoft-decoder wird alles von der CPU übernommen

...

 

 

Natürlcih mein ich da GPU

 

 

 

Wie komm ich an den decoder ran?

 

Gruß Thomas

 

 

Edit:

 

Ich hab mir die Trial von Cyberlink PowerDVD heruntergeladen,

wird der dekoder nicht registriert,

wenn ich den nun manuell registrieren möchte, kommt im Filtermanager folgende Fehlermeldung:

Screen20100201-233919.jpg

 

Über die konsole passiert rein garnichts, keine fehlermeldung, nichts

gruß

Thomas

 

Nachtrag:

 

Habe nun den Cyberlink-Codec vom HD-Pack genommen

da habe ich gleiche Probleme wie beim Microsoft decoder, jedoch äußern die sich etwas anders

bei 720p sind die probleme nur sporatisch aber mindestens 1-2mal pro 30 sekunden

bbc hd, luxetv hd weiterhin probleme, sogar bis hin zum automatischen rücksetzen des Grafiktreibers durch das betriebsystem,

Anixe HD funktioniert auch nicht richtig, nach kurzer zeit friert das bild ein, und danach baut der dvbv die wiedergabe neu auf...

egal ob aufnahme oder livetv

Arcsoft läuft auch über hardware, hat exalkt das gleiche verhalten wie cyberlink

es ist zum mäuse melken...

 

Gruß

Thomas

Edited by thomy_pc

Share this post


Link to post
craig_s

@ thomy_pc

Ich versteh ja, dass dir deine Probleme am wichtigsten sind, die nichts mit der speziellen Thematik dieses Threads zu tun haben und schon 500-2000 mal in anderen Threads besprochen wurden. Trotzdem wird dir keiner so leicht die Lösung präsentieren können, dein PC hat mehr als genug Hardwarereserven für HDTV, evl. spinnt was von der Schüssel zum PC oder lies mal das HDTV-Wiki, besonders "systematische Fehlereinkreisung". Dann geh in dich und denke erst mal selbst grundlegend und gründlich über deinen PC nach und suche nach Infos und mache Tests, bevor du neu sortiert bitte einen eigenen Thread aufmachst. Das grenzt ja schon an Hijacking hier!

 

Allein die Bilderflut-Spam, jetzt muß ich das auch so machen, sonst findet Chinch diese Post nicht:

 

 

@ CiNcH @ CiNcH @ CiNcH @ CiNcH @ CiNcH @ CiNcH

@ CiNcH @ CiNcH @ CiNcH @ CiNcH @ CiNcH @ CiNcH

 

 

Verdammt, renethx hatte ja bei der HD3200 doch übertaktet, hab ich glatt übersehen. Und zwar die 500Mhz einmal @1000Mhz, einmal @2000Mhz. Trotzdem nur MA.

Bei deiner HD3650 sieht's viel besser aus: kevinqian hat jetzt hier geschrieben:

 

I need to teach them how to activate VA on HD3650! Just overclocked the DDR2 to 1000mhz and bingo. 1080i Mpeg2 decoding with VA use about 70% gpu usage. So VA alone should be about 50%. I have HD 2600Pro = HD 3650.

 

Sollte dir weiterhelfen?

 

Grüße an alle,

craig

Edited by craig_s

Share this post


Link to post
CiNcH
Sollte dir weiterhelfen?

Schon. Hab ich eh in die Richtung vermutet. Hab ich auch schon probiert, aber ich bekomme den 500 MHz DDR nicht auf 1000, was ja 100% Übertaktung bedeuten würde ;) . Irgendwo bei 700 friert mir alles ein. Bei der HD 5000 (welche auch immer) werde ich dann alles richtig machen ;) . Vielleicht sollte man versuchen herauszufinden, wo da das Limit liegt bei der Speicherbandbreite. Meine HD 3650 mit 128-Bit Speicher-Interface macht bei 500 MHz 16 GB/s. Eine HD 4350 bei 64-Bit und 500 MHz gerade mal 8 GB/s (mit 800 MHz Speicher 12.8 GB/s). Wieso soll also die 4350/4550 mit deren Speicherbandbreite VA können, und die 3650 nicht? Mir kommt das spanisch vor. Und wir werden es nie vollständig verstehen. Alles eine Frage der GPU-Serie, des Treibers (+OS) usw., IMHO gibt es da Unterschiede bei den VA-Pixelshadern.

Edited by CiNcH

Share this post


Link to post
craig_s

Jo, es ist wieder anders, bin halt kein Overclocker, nie gewesen...

 

Also die reden immer von der effective speed. d.h. wenn er sagt 1000Mhz meint er 500Mhz DDR2. Er hat also seine HD 2600 nur von 400/800 auf 500/1000 Mhz overclocked und hatte VA-Erfolg. Danach konnte er wieder auf 400/800 zurück-clocken und VA blieb erhalten bis zum nächsten Reboot.

 

Overclocke halt mal deine HD 3650 auf 600/1200 Mhz oder kleins Bissel drüber und schau ob sich VA-mäßig was tut. Oder es kann auch sein, dass schon ein paar Mhz genügen.. Evl. muß man rebooten damit das Sys kapiert das jetzt ein "Renner" eingebaut ist?

 

Only after OC the DDR2 to 1008Mhz (effective), would DxVA checker report VA for 1080i sources. I then ran the Cheese slices again and confirmed VA functional. So then I tried downclocking to 800Mhz stock speeds and VA was retained until next system reboot.
Edited by craig_s

Share this post


Link to post
craig_s

Fasse mal zusammen:

1) wenn also das EVR DXVA Select plugin zeigt, dass das System *überlistet* weden muss und kann um VA freizuschalten wenn die GPU schwächelt

2) Overclocking zeigt, dass das System nicht auf das Label sondern auf auf die tatsächlichen momentanen Fähigkeiten der GPU reagiert, wenn es u.a. entscheidet ob VA oder nicht

 

dann würde ich mal soweit spekulieren, dass der Tip 'ein paar Mhz draufpacken' sogar bei noch mehreren schwächelnden Grakas (zB. 4550 + Aero) nützen könnte? Und zwar u.U. heilender als das EVR DXVA Select plugin? Oder in Kombination?

Aber bei aller Theoretisiererei: *Versuch macht kluch* ;) Nur das bringt einen weiter.

Edited by craig_s

Share this post


Link to post
CiNcH

Ah, verstehe, ich habe mir angewöhnt immer die reale Taktfrequenz anzugeben. Bei DDR verdoppelt sich effektiv nur die Datenrate. Dann bin ich mit den 500 MHz eh gut dabei. Wie gesagt, übertaktet habe ich schon auf ca. 600 MHz, aber noch keinen Neustart durchgeführt. Das werde ich noch ausprobieren...

 

Also in meinem Fall kann man das DXVA Plugin außer Acht lassen. Ohne Plugin sind die Ergebnisse dieselben, was die maximale Stufe anbelangt. CL/MS machen stabil MA (600 MHz @ 40% GPU), ATi macht instabil VA (725 MHz @ > 60% GPU), auch ohne zu übertakten.

 

Wie das unter XP aussieht kann ich nicht sagen. Ich bin auf meinem HTPC nur noch unter 7 unterwegs...

Edited by CiNcH

Share this post


Link to post
Tüftler

Ob es VA gibt oder nicht hängt vom GPU- und dem RAM-Takt ab.

Ich hatte vor ein paar Tagen CiNcH schon mal geschrieben das sowohl ein Runtertakten der GPU, als auch ein Runtertakten des RAM's (also nicht beides gleichzeitig) auf einer HD4550 VA deaktiviert. Meine Vermutung war daher das im Treiber darauf hin berechnet wird ob es freigegeben wird oder nicht.

Die Grenze rauszufinden ist bei einer HD4550 aber nicht empfehlenswert, da ich immer das BIOS flashen muss. ;)

Share this post


Link to post
craig_s
Wie das unter XP aussieht kann ich nicht sagen. Ich bin auf meinem HTPC nur noch unter 7 unterwegs...

Die beiden *Overclocker* im AVS Forum auch.

 

Wie sieht es eigentlich bei dir mit dem MPEG2 1080i Slicies aus? Bis jetzt hast du ja immer nur H.264 probiert, oder? MPEG2 schluckt zwar mehr Ressourcen, dafür arbeiten die Decoder viel zuverlässiger..

Share this post


Link to post
CiNcH

Mit dem ATi Dekoder wird die GPU voll getaktet. Aber für VA reicht es trotzdem nicht. Es wird zwar eingesetzt, macht aber Artefakte. Ich hatte mich früher schon gewundert, warum der ATi Dekoder bei mir bei 1080i nur Artefakte macht. Da wusste ich aber noch nicht, dass CyberLink kein VA macht und nur deshalb problemlos funktioniert.

Share this post


Link to post
ccdmas
Wenn ich versuche, MA zu erzwingen, macht der ATi Dekoder trotzdem VA. MS macht ebenfalls nur MA. ArcSoft habe ich nicht.

 

Ich hab' gestern mal wieder in bisschen rumgespielt, und dabei ein paar interessante Sachen festgestellt.

 

1. Die Microsoft Codecs aus Windows7 machen De-interlacingmäßig generell (also auch mit dem EVR Plugin) was sie wollen, und obendrei schalten die auch während der Wiedergabe fröhlich die Methoden durch, bis hin zu Weave. Und zwar sowohl bei HD, als auch bei SD. Man kann das schön am parallel laufenden CCC sehen, plötzlich plumpst die GPU Last von 70% auf 35% runter, und schon hat man weave. Nach ein paar Sekunden geht dann alles wieder auf normal. Das passiert besonders gerne bei oder unmittelbar nach Schnitten.

 

Die Cyberlink codecs machen das nicht. Und das obwohl die GPU Last mit denen sogar leicht höher liegt. Anscheinend kümmern sich also einige Codecs nicht wirklich um die EVR Vorgaben. Evtl. ist das bei Dir auch der Fall, und Teil des Problems. Kannst Du mal die Demo der Cyberlinks probieren?

 

2. Die GPU Lastunterschiede zwischen Adaptiv, MA oder VA sind ersteunlicherweise minimal (max 5%).

 

3. Die MS Codecs produzieren, trotz relativ niedriger GPU Last (um 50%), bei 720p und Deinterlacing auf Progressiv, massive Bildfehler in Form von Klötzchenbildung bei schnellen Bewegungen. Auch hier, keinerlei Problem mit den Cyberlinks.

 

CU,

Massimo

Share this post


Link to post
ccdmas
Mit dem ATi Dekoder wird die GPU voll getaktet. Aber für VA reicht es trotzdem nicht. Es wird zwar eingesetzt, macht aber Artefakte. Ich hatte mich früher schon gewundert, warum der ATi Dekoder bei mir bei 1080i nur Artefakte macht. Da wusste ich aber noch nicht, dass CyberLink kein VA macht und nur deshalb problemlos funktioniert.

 

Jetzt drehen wir uns im Kreis. Warum macht meine 4350 dann mit den Cyberlinks und dem Plugin völlig problemlos VA in allen Auflösungen?

Share this post


Link to post
CiNcH
Wie sieht es eigentlich bei dir mit dem MPEG2 1080i Slicies aus?

Habe ich noch nicht probiert. Wäre vielleicht auch noch interessant. Naja, lange werde ich mich damit nicht mehr beschäftigen. Sobald ATi alle Evergreens draußen hat, und es eine Karte mit meinem preferierten Chip aus der Serie gibt, die meinen Anforderungen entspricht (geeignete Kühllösung, Speicher mit angemessenem Durchsatz, DP statt VGA), werde ich zuschlagen.

 

und obendrei schalten die auch während der Wiedergabe fröhlich die Methoden durch

Ja, die MS machen da bei mir auch teilweise Pfusch.

 

Kannst Du mal die Demo der Cyberlinks probieren?

Ich habe schon CyberLink(TerraTec), CyberLink PDVD8 und den CyberLink Unified (der aktuellste 9er) durch. Alle machen lediglich MA.

Edited by CiNcH

Share this post


Link to post
CiNcH
Jetzt drehen wir uns im Kreis. Warum macht meine 4350 dann mit den Cyberlinks und dem Plugin völlig problemlos VA in allen Auflösungen?

GPU-Serie, Treiber, OS,... wir werden diese Problematik wahrscheinlich nie vollständig verstehen. Und ich wills auch nicht verstehen, wenn ich lese, dass bei einigen VA läuft, wenn sie die Taktrate vom RAM minimal variieren. Da macht dann einfach der Treiber Mist...

Share this post


Link to post
craig_s

Wir haben beide gleichzeitig gepostet, s.o. wegen MPEG2 (wichtig).

 

Der Ati Decoder hat bei mir in XP auch schon immer Artefakte produziert in 1080i, SD kann er aber sehr gut icl. DXVA.

 

dass CyberLink kein VA macht und nur deshalb problemlos funktioniert

So groß ist der Unterschied im Ressourcenhunger VA vs. MA nicht. Wenn der Cyberlink bereit wäre mit DXVA VA zu produzieren, würdest du da kaum einen unterschied bemerken. Ich schau in Kürze mal was die GPU-Last bei mir bei MA sagt, der Unterschied ist aber glaub winzig.

Share this post


Link to post
CiNcH
SD kann er aber sehr gut icl. DXVA.

Bei mir nicht. Bei kabel.eins zum Bleistift springt der ATi immer wieder auf Weave zurück.

 

So groß ist der Unterschied im Ressourcenhunger VA vs. MA nicht. Wenn der Cyberlink bereit wäre mit DXVA VA zu produzieren, würdest du da kaum einen unterschied bemerken. Ich schau in Kürze mal was die GPU-Last bei mir bei MA sagt, der Unterschied ist aber glaub winzig.

Naja, mal schauen, was ich noch alles probieren werde. Meine Motivation ist nicht allzu groß. Win7 Neuinstallation steht in Kürze an. Mal sehen...

Share this post


Link to post

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


×
×
  • Create New...