Jump to content

Grafikkarte für HTPC (ATI)


eikehkb

Recommended Posts

Danke für die Antwort.

Aber abgesehen von der Leistung beim Nachbearbeiten... bekommt man durch die 6er Karten eine sichtbar bessere Bildqualität (v.a. bei HD-Material)?

Link to comment
  • Replies 139
  • Created
  • Last Reply

Top Posters In This Topic

  • CiNcH

    41

  • Tüftler

    28

  • nuts

    12

  • eikehkb

    8

Top Posters In This Topic

Posted Images

Ich habe jetzt eine 6670 im HTPC, vorher hatte ich eine 4670.

Aktuell bekommst du hier keine bessere Bildqualität geliefert.

Aus Erfahrung wird in absehbarer Zukunft die Treiber(bzw. Bugfix)unterstützung für die älteren Generationen aber immer schlechter werden. Ein weiteres Jahr (bis Win8?) sollte man mit einer 46xx aber noch gut auskommen.

Wenn es einmal zu einer besser erreichbaren Bildquälität kommen sollte wird es höchstwahrscheinlich eh über Drittanbieter/Open Source etc. realisiert werden und dann bestimmt die CPU-Leistung sowie die GPU-Leistung durch Shader das maximal erreichbare Postprocessing und Scaling.

Die 4670 hat 400 Shader, die 6670 480 Shader, von daher hält sich die mögliche Leistungssteigerung in Grenzen.

Im Normalfall mit Cyberlink Codecs und DxVA Beschleunigung langweilen sich beide Karten.

Für maximale und natürliche Bildqualität schaltet man die "Bildverschlimmbesserer" im Treiber sowie im Ausgabe gerät eh größtenteils ab. Einzig eine leichte Schärfeanhebung halte ich für sinnvoll.

Edited by azeman
Link to comment

Sofern man ein Live Programm auch Live sehen möchte (ohne größeren Zeitversatz) sind den Bildverbesserern eh Grenzen gesetzt. Des Weiteren kann man aus Schund (Bitraten < 5 Mbit) kein Gold mehr machen!

Link to comment
Sofern man ein Live Programm auch Live sehen möchte (ohne größeren Zeitversatz) sind den Bildverbesserern eh Grenzen gesetzt.

Das ist nicht nur "live" ein Problem. Sobald das PostProcessing länger dauert als ein Frameinterval (bei 50 fps sind das 20 ms), hat man bestimmt ein Problem.

Link to comment

Hallo Leute,

 

Ich bin seit 4 Wochen ebenfalls Besitzer einer 6450. Davor hatte ich eine 785G Onboard. Leider hat ATI das Klötzchenproblem nie in den Griff bekommen. Sonst war diese für mich voll ausreichend. (auch im 2 Monitorbetrieb)

Ich betreibe die Karten im 2 Monitor Betrieb. Full HD Fernseher plus 8 Zoll Status Touchscreen. Als Sender schaue ich meistens ARD/ZDF HD.

 

Das Gute zuerst: Die Klötzchen sind weg, Ton kommt über HDMI und 3D Blurays lassen sich abspielen.

 

Leider sind die ATI Treiber Schrott. Jede Version zeigt ein anderes Problem. Ich habe alle 11.3 – 11.7 ausprobiert.

 

11.3

• Vektoradaptiv im 2 Monitorbetrieb auswählbar und aktiv

• Treiber hat Schwierigkeiten mit 24p Darstellung. Schaltet immer anstatt auf 1080 24p auf 1000 24p um. Das Bluraybild hat dann einfach schwarze Ränder. (Dies wurde auch in anderen Foren dokumentiert)

• Beim umschalten der Bildfrequenz e.g. 24p 50p wird meistens der 2te Monitor deaktiviert und muss dann wieder in CCc aktiviert werden.

• Beim Ausschalten der Fernsehers wird auch meistens der 2te Monitor deaktiviert

 

11.4 und 11.5 hatten ja generelle Probleme und sollten besser nicht benutzt werden

 

11.6. 11.7

• Vektoradaptiv im 2 Monitorbetrieb nicht mehr wählbar (nur mit Single Monitor)

• Problem mit Deaktivierung des zweiten Monitors scheint gelöst.

• Ton über HDMI überlebt nicht immer Standby und ist danach deaktiviert.

• Nach Standby ruckelt das Bild manchmal furchtbar. Ein Reboot ist in diesen Fall notwendig.

 

Alles in allem bin ich mir nicht mehr sicher ob es ein gute Wahl war bei ATI zu bleiben. Eine NVidia GT 520 wäre eventuell die bessere Wahl gewesen.

Leider habe ich da auch keine Erfahrung wie sich die NVidia mit meinem Setup verhalten hätte. Leider muss man immer erst selbst auf die Nase fallen

Link to comment
  • 3 weeks later...

Hat hier noch jemand die Sapphire HD 6570? Ich habe da gerade das BIOS irgendwie kaputt geflasht. Windows steigt beim Hochfahren mit einem Bluescreen aus. Kann jemand mit RBE (Radeon BIOS Editor) oder GPU-Z das Original BIOS sichern?

Link to comment

Sieht echt schlecht aus damit, die einschlägigen Foren sind leer und das einzige was ich gefunden habe ist die GDDR5 Version (nicht von Sapphire!). Du hast DDR3?

Link to comment

Vielen Dank für deine Mühe.

 

Ich habe es zum Glück wieder hingebogen.

 

Ich war leider zu dumm ein Backup vom originalen BIOS zu machen. Dafür konnte ich im Safe Mode wieder an das modifizierte BIOS File auf der Festplatte kommen. Darin habe ich dann die Einstellungen rückgängig gemacht. Schnell noch einen bootfähigen USB-Stick samt ATIFLASH und BIOS ROM File erstellt. Anschließend konnte ich das BIOS im DOS dann problemlos flashen.

 

Nun startet Windows wieder normal. So wie es aussieht wird der BSOD vom ATi-Treiber proviziert, wenn dieser merkt, dass an den Taktfrequenzen rumgepfuscht wurde.

Link to comment

Schön das es wieder geht, vor lauter chinesischen Schriftzeichen sehe ich schon ganz schlecht :wacko:.

Welche Werte haste den geändert, doch nicht etwa Clock info 00?

Link to comment

Wenn UVD den PowerPlay State 2 hat, bedeutet das nicht, dass die 'Clock info 02' verwendet wird. Welche Clock Infos ein State verwendet sieht man, wenn man auf den entsprechende State klickt.

 

Wenn ich auf UVD klicke, wird 'Clock info 00' grün:

uvd_clock_info.jpg

Link to comment

Ok, bei der DDR3 ist das etwas anders. Ich habe den UVD mal auf die 02 geschoben. Probiere es erstmal damit und dann sehen wir weiter.

 

Man kann für den UVD auch Powergating einstellen aber ob das sinnvoll ist kann ich nicht beurteilen.

 

 

Link to comment

Im Internet liest man zwar oft, dass man die Finger vom UVD-Takt lassen soll. Kann schon sein, dass man das Teil mit einem gewissen Takt betreiben muss. Aber ich könnte zumindest versuchen mal die Spannung noch etwas zu senken. Bei meinem Intel C2D konnte ich auch 0.2V runter und Prime läuft noch problemlos durch.

 

Naja, für heute hatte ich erstmal Nervenkitzel genug. Ich probiere das die nächsten Tage einmal aus.

Link to comment

Wenn die erste Version geklappt hat kannst du den hier auf 03'er mapping und 0,9 Volt probieren. Ich schätze aber das ist zu wenig Spannung.

 

 

 

Natürlich erkläre ich dir dann auch an welchen Werten ich gedreht habe, wenn du es bis dahin nicht schon selbst gefunden hast. :bye:

Link to comment

Ich werd mal ein bisschen damit rumspielen. Vielen Dank dafür.

 

Schlussendlich werde ich die Frequenzen aber wahrscheinlich so belassen. Hier sieht man, dass sich der UVD bei 2x H.264 1080i schon ziemlich im oberen Bereich seines Leistungspotentials bewegt (hängt natürlich auch von der Bitrate ab). Wenn man kein Hardware PiP braucht, kann man unter Umständen etwas gewinnen, wenn denn der UVD bei niedrigen Taktraten nicht streikt...

Bei der Spannung schau ich mal, was möglich ist und ob mein Messgerät da überhaupt einen Unterschied bei der Leistungsaufnahme anzeigt. Wenn ich mich recht entsinne war der Unterschied zwischen Idle (100MHz@0.9V) und UVD (650MHz@1.05V) schon nicht sehr groß.

 

Sonderlich viel erwarte ich mir von den Aktion nicht. Interessieren tut es mich trotzdem ;) .

 

 

SpeedFan unterstützt in der aktuellen Beta übrigens auch ATi. Es können die Spannung und die Temperatur ausgelesen werden. Jetzt kann ich endlich den Lüfter (welcher am Mainboard angeschlossen ist) für die Steckkarten an die ATi Chip-Temperatur binden. Außerdem sind damit nun so ziemlich alle kritischen Bauteile überwacht. Da kann man dann etwas beruhigter an aggressive Lüftereinstellungen rangehen.

Link to comment

Führt wieder nur zum BSOD beim Booten von Windows...

 

Naja, ich habe mir nochmal die Leistungsaufnahme von meinem PC angesehen:

 

Windows (Idle GPU 100MHz@0.9V): ~90W

DVBViewer auf 1080i Kanal (UVD 650@1.05V): ~100W

 

Da kann man sich ungefähr ausrechnen, was diese Aktion gebracht hätte...

Link to comment

Bei der 2. sind die Spannungswerte für die gesetzte(/n??) Taktraten zu niedrig, denke ich. Um ein generelles BIOS Problem auszuschließen wäre es schön wenn du die 1. auch noch testen könntest, bei Gelegenheit.

Link to comment

Die 2. konnte nicht gehen, ich habe bei der Powerplay states structure einen Fehler gemacht (0 steht nicht auf Boot). Das Problem gibt es nicht bei der 1. und der UVD sollte auch mit den Werten aus Clock info 02 ordentlich laufen.

Link to comment

Ich habe noch eine interessante Aussage gefunden:

The only puzzling aspect is the missing ModeH264MVC_VLD_Avivo entry which is present in the AMD 6xxx cards with UVD3. Instead, we have ModeH264_VLD_Multiview_Avido, which means that the Blu-ray players will have to interface with this new entry. AMD let us know that the 6550D doesn't have full hardware acceleration for 3D Blu-Rays. Some sort of extra assistance from the host CPU will be needed.

Damit sind die Llano GPU-Einheiten gemeint, welche niedriger getaktet sind. Deshalb sollte man am UVD-Takt wohl nicht rütteln wenn man sich MVC und Dual Decode behalten will.

Link to comment

Der UVD ist meiner Meinung nach eine fixe Schaltung, welche überall dieselbe ist. Der Throughput wird hauptsächlich durch die Taktfrequenz bestimmt. Wahrscheinlich nicht allein, weil evtl. die Tatsache mit hineinspielen könnte, dass die APU's auf den geteilten Hauptspeicher zugreifen müssen. Das kann man aber auch nicht mehr mit OnBoard Grafik vergleichen, weil die GPU nun natürlich viel "näher" am Hauptspeicher liegt, ohne großartige Flaschenhälse dazwischen. Mehr wie DDR3 hab ich ja auch nicht an Board. Der Speicherdurchsatz dürfte sich zum Llano nicht großartig unterscheiden, wenn man von Dual-Channel ausgeht.

Link to comment

Sehe ich auch so.

Sobald der A8-3800 lieferbar ist werde ich das testen :)

 

Bei 10W Unterschied zwischen Ruhezustand und 1080i Wiedergabe ist von einer "Optimierung" im Bios nicht viel zu erwarten.

Höchstens bei Temperaturproblemen würde ich da was machen.

Link to comment

Folgende Lektüre ist ja mal sehr interessant:

 

click / click

 

Zusammengefasst:

So wie es aussieht sind BD Wiedergabe mittels zertifizierter Software (PowerDVD, TMT, ...) und Dateiwiedergabe mittels konventionellem DXVA zwei komplett unterschiedliche Codezweige im ATi Treiber. Ich wundere mich schon seit Ewigkeiten, warum ATi mit qualitativ hochwertigem Chroma Upsampling wirbt und alles was ich sehe stets nur ein bilinearer Filter zu sein scheint. Das könnte der Grund dafür sein. Hoffentlich kann AnandTech da etwas bewirken.

Link to comment

Hört sich schon sehr seltsam an.

Der Treiber erkennt dann selbst ob eine Bluray bzw. ein Image davon abgespielt wird und verwendet anderes Processing?

 

Wäre interessant wie das bei Nvidia aussieht.

Link to comment
Der Treiber erkennt dann selbst ob eine Bluray bzw. ein Image davon abgespielt wird und verwendet anderes Processing?

Ich verstehe das so, dass der Player da wohl ein anderes API verwendet, welches außer DRM auch noch andere Unterschiede mit sich zu bringen scheint. DXVA ist in Punkto Sicherheit evtl. eine Schwachstelle. Blöd halt, wenn man nicht beide Schnittstellen gleichermaßen pflegt.

Link to comment

Hm das klingt gar nicht so unwahrscheinlich, denn bei DXVA kann man die Frames wieder in den Hauptspeicher kopieren und schon ist DRM theoretisch ausgehebelt.

Sollte sich ernsthaft daraus ein Unterschied beim Processing ergeben kann das imho aber nur ein Bug von Ati sein.

 

P.S. Wer hat Powerdvd oder TMT zuhause und möchte das testen? :D

Edited by nuts
Link to comment

Naja, mich wundert das schlechte Chroma Upsampling schon lange. Deshalb vertraue ich den Resultaten von AnandTech da voll und ganz ;) . Darauf wäre ich nie gekommen.

 

Ich denke auch, dass das ein Bug ist (und ein uralter zudem...) bzw. ein generelles Problem des Pflegens von 2 Codezweigen. Bei den HQV-Resultaten sieht man ganz deutlich, dass lediglich die Chroma Upsampling Ergebnisse schlecht sind, wenn man BD- und Dateiwiedergabe vergleicht.

Link to comment
Ok, bei der DDR3 ist das etwas anders. Ich habe den UVD mal auf die 02 geschoben. Probiere es erstmal damit und dann sehen wir weiter.

Das habe ich jetzt auch ausprobiert. Das Ergebnis war wieder ein BSOD.

Link to comment

Ich habe jetzt mit dem aktuellen AMD CCC 11.8 nochmal das Chroma Upsampling unter die Lupe genommen. Sieht sehr gut aus:

 

chroma_hd6570.jpg

 

Im Unterschied zu meiner alten HD 3650 mit Point Scaling eine echte Verbesserung. Scheint auch deutlich mehr als nur bilinear zu sein.

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


×
×
  • Create New...