Reinhard79111 Posted August 7, 2011 Share Posted August 7, 2011 Danke für die Antwort. Aber abgesehen von der Leistung beim Nachbearbeiten... bekommt man durch die 6er Karten eine sichtbar bessere Bildqualität (v.a. bei HD-Material)? Quote Link to comment
azeman Posted August 7, 2011 Share Posted August 7, 2011 (edited) Ich habe jetzt eine 6670 im HTPC, vorher hatte ich eine 4670. Aktuell bekommst du hier keine bessere Bildqualität geliefert. Aus Erfahrung wird in absehbarer Zukunft die Treiber(bzw. Bugfix)unterstützung für die älteren Generationen aber immer schlechter werden. Ein weiteres Jahr (bis Win8?) sollte man mit einer 46xx aber noch gut auskommen. Wenn es einmal zu einer besser erreichbaren Bildquälität kommen sollte wird es höchstwahrscheinlich eh über Drittanbieter/Open Source etc. realisiert werden und dann bestimmt die CPU-Leistung sowie die GPU-Leistung durch Shader das maximal erreichbare Postprocessing und Scaling. Die 4670 hat 400 Shader, die 6670 480 Shader, von daher hält sich die mögliche Leistungssteigerung in Grenzen. Im Normalfall mit Cyberlink Codecs und DxVA Beschleunigung langweilen sich beide Karten. Für maximale und natürliche Bildqualität schaltet man die "Bildverschlimmbesserer" im Treiber sowie im Ausgabe gerät eh größtenteils ab. Einzig eine leichte Schärfeanhebung halte ich für sinnvoll. Edited August 7, 2011 by azeman Quote Link to comment
Tüftler Posted August 8, 2011 Share Posted August 8, 2011 Sofern man ein Live Programm auch Live sehen möchte (ohne größeren Zeitversatz) sind den Bildverbesserern eh Grenzen gesetzt. Des Weiteren kann man aus Schund (Bitraten < 5 Mbit) kein Gold mehr machen! Quote Link to comment
CiNcH Posted August 8, 2011 Share Posted August 8, 2011 Sofern man ein Live Programm auch Live sehen möchte (ohne größeren Zeitversatz) sind den Bildverbesserern eh Grenzen gesetzt. Das ist nicht nur "live" ein Problem. Sobald das PostProcessing länger dauert als ein Frameinterval (bei 50 fps sind das 20 ms), hat man bestimmt ein Problem. Quote Link to comment
Findus Posted August 9, 2011 Share Posted August 9, 2011 Hallo Leute, Ich bin seit 4 Wochen ebenfalls Besitzer einer 6450. Davor hatte ich eine 785G Onboard. Leider hat ATI das Klötzchenproblem nie in den Griff bekommen. Sonst war diese für mich voll ausreichend. (auch im 2 Monitorbetrieb) Ich betreibe die Karten im 2 Monitor Betrieb. Full HD Fernseher plus 8 Zoll Status Touchscreen. Als Sender schaue ich meistens ARD/ZDF HD. Das Gute zuerst: Die Klötzchen sind weg, Ton kommt über HDMI und 3D Blurays lassen sich abspielen. Leider sind die ATI Treiber Schrott. Jede Version zeigt ein anderes Problem. Ich habe alle 11.3 – 11.7 ausprobiert. 11.3 • Vektoradaptiv im 2 Monitorbetrieb auswählbar und aktiv • Treiber hat Schwierigkeiten mit 24p Darstellung. Schaltet immer anstatt auf 1080 24p auf 1000 24p um. Das Bluraybild hat dann einfach schwarze Ränder. (Dies wurde auch in anderen Foren dokumentiert) • Beim umschalten der Bildfrequenz e.g. 24p 50p wird meistens der 2te Monitor deaktiviert und muss dann wieder in CCc aktiviert werden. • Beim Ausschalten der Fernsehers wird auch meistens der 2te Monitor deaktiviert 11.4 und 11.5 hatten ja generelle Probleme und sollten besser nicht benutzt werden 11.6. 11.7 • Vektoradaptiv im 2 Monitorbetrieb nicht mehr wählbar (nur mit Single Monitor) • Problem mit Deaktivierung des zweiten Monitors scheint gelöst. • Ton über HDMI überlebt nicht immer Standby und ist danach deaktiviert. • Nach Standby ruckelt das Bild manchmal furchtbar. Ein Reboot ist in diesen Fall notwendig. Alles in allem bin ich mir nicht mehr sicher ob es ein gute Wahl war bei ATI zu bleiben. Eine NVidia GT 520 wäre eventuell die bessere Wahl gewesen. Leider habe ich da auch keine Erfahrung wie sich die NVidia mit meinem Setup verhalten hätte. Leider muss man immer erst selbst auf die Nase fallen Quote Link to comment
CiNcH Posted August 30, 2011 Share Posted August 30, 2011 Hat hier noch jemand die Sapphire HD 6570? Ich habe da gerade das BIOS irgendwie kaputt geflasht. Windows steigt beim Hochfahren mit einem Bluescreen aus. Kann jemand mit RBE (Radeon BIOS Editor) oder GPU-Z das Original BIOS sichern? Quote Link to comment
Tüftler Posted August 30, 2011 Share Posted August 30, 2011 Sieht echt schlecht aus damit, die einschlägigen Foren sind leer und das einzige was ich gefunden habe ist die GDDR5 Version (nicht von Sapphire!). Du hast DDR3? Quote Link to comment
CiNcH Posted August 30, 2011 Share Posted August 30, 2011 Vielen Dank für deine Mühe. Ich habe es zum Glück wieder hingebogen. Ich war leider zu dumm ein Backup vom originalen BIOS zu machen. Dafür konnte ich im Safe Mode wieder an das modifizierte BIOS File auf der Festplatte kommen. Darin habe ich dann die Einstellungen rückgängig gemacht. Schnell noch einen bootfähigen USB-Stick samt ATIFLASH und BIOS ROM File erstellt. Anschließend konnte ich das BIOS im DOS dann problemlos flashen. Nun startet Windows wieder normal. So wie es aussieht wird der BSOD vom ATi-Treiber proviziert, wenn dieser merkt, dass an den Taktfrequenzen rumgepfuscht wurde. Quote Link to comment
Tüftler Posted August 30, 2011 Share Posted August 30, 2011 Schön das es wieder geht, vor lauter chinesischen Schriftzeichen sehe ich schon ganz schlecht . Welche Werte haste den geändert, doch nicht etwa Clock info 00? Quote Link to comment
CiNcH Posted August 30, 2011 Share Posted August 30, 2011 Doch, das ist der UVD Takt, aber auch der Boot Takt, was wohl keine so gute Idee ist? Quote Link to comment
Tüftler Posted August 30, 2011 Share Posted August 30, 2011 Der UVD Takt sollte eigentlich die 03 sein, zumindest bei dem von mir gefundenen GDDR5 Model. Quote Link to comment
CiNcH Posted August 30, 2011 Share Posted August 30, 2011 Wenn UVD den PowerPlay State 2 hat, bedeutet das nicht, dass die 'Clock info 02' verwendet wird. Welche Clock Infos ein State verwendet sieht man, wenn man auf den entsprechende State klickt. Wenn ich auf UVD klicke, wird 'Clock info 00' grün: Quote Link to comment
Tüftler Posted August 30, 2011 Share Posted August 30, 2011 Warum machen die sowas bei Sapphire??? Quote Link to comment
CiNcH Posted August 30, 2011 Share Posted August 30, 2011 Ich denke, das ist Standard für die DDR3 Modelle. Quote Link to comment
Tüftler Posted August 30, 2011 Share Posted August 30, 2011 Lade mal das BIOS hoch, ich stell dir das mal auf 03 um. Quote Link to comment
CiNcH Posted August 30, 2011 Share Posted August 30, 2011 Lade mal das BIOS hoch, ich stell dir das mal auf 03 um. Wie geht denn sowas? Hier mein BIOS: Turks_DDR3.zip Quote Link to comment
Tüftler Posted August 30, 2011 Share Posted August 30, 2011 HexDump?! Ob es dann geht musst du ausprobieren. Quote Link to comment
CiNcH Posted August 30, 2011 Share Posted August 30, 2011 HexDump war mir fast klar. Nur nicht welches Byte da was bedeutet . Quote Link to comment
Tüftler Posted August 30, 2011 Share Posted August 30, 2011 Ok, bei der DDR3 ist das etwas anders. Ich habe den UVD mal auf die 02 geschoben. Probiere es erstmal damit und dann sehen wir weiter. Man kann für den UVD auch Powergating einstellen aber ob das sinnvoll ist kann ich nicht beurteilen. Quote Link to comment
CiNcH Posted August 30, 2011 Share Posted August 30, 2011 Im Internet liest man zwar oft, dass man die Finger vom UVD-Takt lassen soll. Kann schon sein, dass man das Teil mit einem gewissen Takt betreiben muss. Aber ich könnte zumindest versuchen mal die Spannung noch etwas zu senken. Bei meinem Intel C2D konnte ich auch 0.2V runter und Prime läuft noch problemlos durch. Naja, für heute hatte ich erstmal Nervenkitzel genug. Ich probiere das die nächsten Tage einmal aus. Quote Link to comment
Tüftler Posted August 30, 2011 Share Posted August 30, 2011 Wenn die erste Version geklappt hat kannst du den hier auf 03'er mapping und 0,9 Volt probieren. Ich schätze aber das ist zu wenig Spannung. Natürlich erkläre ich dir dann auch an welchen Werten ich gedreht habe, wenn du es bis dahin nicht schon selbst gefunden hast. Quote Link to comment
CiNcH Posted August 31, 2011 Share Posted August 31, 2011 Ich werd mal ein bisschen damit rumspielen. Vielen Dank dafür. Schlussendlich werde ich die Frequenzen aber wahrscheinlich so belassen. Hier sieht man, dass sich der UVD bei 2x H.264 1080i schon ziemlich im oberen Bereich seines Leistungspotentials bewegt (hängt natürlich auch von der Bitrate ab). Wenn man kein Hardware PiP braucht, kann man unter Umständen etwas gewinnen, wenn denn der UVD bei niedrigen Taktraten nicht streikt... Bei der Spannung schau ich mal, was möglich ist und ob mein Messgerät da überhaupt einen Unterschied bei der Leistungsaufnahme anzeigt. Wenn ich mich recht entsinne war der Unterschied zwischen Idle (100MHz@0.9V) und UVD (650MHz@1.05V) schon nicht sehr groß. Sonderlich viel erwarte ich mir von den Aktion nicht. Interessieren tut es mich trotzdem . SpeedFan unterstützt in der aktuellen Beta übrigens auch ATi. Es können die Spannung und die Temperatur ausgelesen werden. Jetzt kann ich endlich den Lüfter (welcher am Mainboard angeschlossen ist) für die Steckkarten an die ATi Chip-Temperatur binden. Außerdem sind damit nun so ziemlich alle kritischen Bauteile überwacht. Da kann man dann etwas beruhigter an aggressive Lüftereinstellungen rangehen. Quote Link to comment
CiNcH Posted August 31, 2011 Share Posted August 31, 2011 Führt wieder nur zum BSOD beim Booten von Windows... Naja, ich habe mir nochmal die Leistungsaufnahme von meinem PC angesehen: Windows (Idle GPU 100MHz@0.9V): ~90W DVBViewer auf 1080i Kanal (UVD 650@1.05V): ~100W Da kann man sich ungefähr ausrechnen, was diese Aktion gebracht hätte... Quote Link to comment
Tüftler Posted August 31, 2011 Share Posted August 31, 2011 Welche Variante führt zum BSOD, beide? Quote Link to comment
CiNcH Posted August 31, 2011 Share Posted August 31, 2011 Ich habe nur die 2. probiert. Mehr war nicht drin. Wenn die bessere Hälfte bei mir ist, habe ich nur in der Werbung Zeit . Quote Link to comment
Tüftler Posted August 31, 2011 Share Posted August 31, 2011 Bei der 2. sind die Spannungswerte für die gesetzte(/n??) Taktraten zu niedrig, denke ich. Um ein generelles BIOS Problem auszuschließen wäre es schön wenn du die 1. auch noch testen könntest, bei Gelegenheit. Quote Link to comment
Tüftler Posted August 31, 2011 Share Posted August 31, 2011 Die 2. konnte nicht gehen, ich habe bei der Powerplay states structure einen Fehler gemacht (0 steht nicht auf Boot). Das Problem gibt es nicht bei der 1. und der UVD sollte auch mit den Werten aus Clock info 02 ordentlich laufen. Quote Link to comment
CiNcH Posted September 1, 2011 Share Posted September 1, 2011 Ich habe noch eine interessante Aussage gefunden: The only puzzling aspect is the missing ModeH264MVC_VLD_Avivo entry which is present in the AMD 6xxx cards with UVD3. Instead, we have ModeH264_VLD_Multiview_Avido, which means that the Blu-ray players will have to interface with this new entry. AMD let us know that the 6550D doesn't have full hardware acceleration for 3D Blu-Rays. Some sort of extra assistance from the host CPU will be needed. Damit sind die Llano GPU-Einheiten gemeint, welche niedriger getaktet sind. Deshalb sollte man am UVD-Takt wohl nicht rütteln wenn man sich MVC und Dual Decode behalten will. Quote Link to comment
Tüftler Posted September 1, 2011 Share Posted September 1, 2011 Ich denke nicht das man dass 1:1 auf die dezidierten Grafikkarten ummünzen kann. Deine Radeon HD 6570 ist ja auch etwas besser aufgestellt als eine HD6560D. Quote Link to comment
CiNcH Posted September 1, 2011 Share Posted September 1, 2011 Der UVD ist meiner Meinung nach eine fixe Schaltung, welche überall dieselbe ist. Der Throughput wird hauptsächlich durch die Taktfrequenz bestimmt. Wahrscheinlich nicht allein, weil evtl. die Tatsache mit hineinspielen könnte, dass die APU's auf den geteilten Hauptspeicher zugreifen müssen. Das kann man aber auch nicht mehr mit OnBoard Grafik vergleichen, weil die GPU nun natürlich viel "näher" am Hauptspeicher liegt, ohne großartige Flaschenhälse dazwischen. Mehr wie DDR3 hab ich ja auch nicht an Board. Der Speicherdurchsatz dürfte sich zum Llano nicht großartig unterscheiden, wenn man von Dual-Channel ausgeht. Quote Link to comment
nuts Posted September 1, 2011 Share Posted September 1, 2011 Sehe ich auch so. Sobald der A8-3800 lieferbar ist werde ich das testen Bei 10W Unterschied zwischen Ruhezustand und 1080i Wiedergabe ist von einer "Optimierung" im Bios nicht viel zu erwarten. Höchstens bei Temperaturproblemen würde ich da was machen. Quote Link to comment
CiNcH Posted September 1, 2011 Share Posted September 1, 2011 Folgende Lektüre ist ja mal sehr interessant: click / click Zusammengefasst: So wie es aussieht sind BD Wiedergabe mittels zertifizierter Software (PowerDVD, TMT, ...) und Dateiwiedergabe mittels konventionellem DXVA zwei komplett unterschiedliche Codezweige im ATi Treiber. Ich wundere mich schon seit Ewigkeiten, warum ATi mit qualitativ hochwertigem Chroma Upsampling wirbt und alles was ich sehe stets nur ein bilinearer Filter zu sein scheint. Das könnte der Grund dafür sein. Hoffentlich kann AnandTech da etwas bewirken. Quote Link to comment
nuts Posted September 1, 2011 Share Posted September 1, 2011 Hört sich schon sehr seltsam an. Der Treiber erkennt dann selbst ob eine Bluray bzw. ein Image davon abgespielt wird und verwendet anderes Processing? Wäre interessant wie das bei Nvidia aussieht. Quote Link to comment
CiNcH Posted September 1, 2011 Share Posted September 1, 2011 Der Treiber erkennt dann selbst ob eine Bluray bzw. ein Image davon abgespielt wird und verwendet anderes Processing? Ich verstehe das so, dass der Player da wohl ein anderes API verwendet, welches außer DRM auch noch andere Unterschiede mit sich zu bringen scheint. DXVA ist in Punkto Sicherheit evtl. eine Schwachstelle. Blöd halt, wenn man nicht beide Schnittstellen gleichermaßen pflegt. Quote Link to comment
nuts Posted September 1, 2011 Share Posted September 1, 2011 (edited) Hm das klingt gar nicht so unwahrscheinlich, denn bei DXVA kann man die Frames wieder in den Hauptspeicher kopieren und schon ist DRM theoretisch ausgehebelt. Sollte sich ernsthaft daraus ein Unterschied beim Processing ergeben kann das imho aber nur ein Bug von Ati sein. P.S. Wer hat Powerdvd oder TMT zuhause und möchte das testen? Edited September 1, 2011 by nuts Quote Link to comment
CiNcH Posted September 1, 2011 Share Posted September 1, 2011 Naja, mich wundert das schlechte Chroma Upsampling schon lange. Deshalb vertraue ich den Resultaten von AnandTech da voll und ganz . Darauf wäre ich nie gekommen. Ich denke auch, dass das ein Bug ist (und ein uralter zudem...) bzw. ein generelles Problem des Pflegens von 2 Codezweigen. Bei den HQV-Resultaten sieht man ganz deutlich, dass lediglich die Chroma Upsampling Ergebnisse schlecht sind, wenn man BD- und Dateiwiedergabe vergleicht. Quote Link to comment
CiNcH Posted September 1, 2011 Share Posted September 1, 2011 Ok, bei der DDR3 ist das etwas anders. Ich habe den UVD mal auf die 02 geschoben. Probiere es erstmal damit und dann sehen wir weiter. Das habe ich jetzt auch ausprobiert. Das Ergebnis war wieder ein BSOD. Quote Link to comment
Tüftler Posted September 1, 2011 Share Posted September 1, 2011 Hm, dann muss ich erstmal passen und den Editor durchforsten. Quote Link to comment
CiNcH Posted September 3, 2011 Share Posted September 3, 2011 Ich habe jetzt mit dem aktuellen AMD CCC 11.8 nochmal das Chroma Upsampling unter die Lupe genommen. Sieht sehr gut aus: Im Unterschied zu meiner alten HD 3650 mit Point Scaling eine echte Verbesserung. Scheint auch deutlich mehr als nur bilinear zu sein. Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.