Jump to content

ATI Bug oder Wunder durch DVBViewer?


kata

Recommended Posts

Hier Ergänzung zu dem Phänomen -> HDTV-Wiedergabe mit fast Null-Last.

 

Ich habe mich entschlossen, CCC 7.12 zu testen, nachdem es unterschiedliche Meinungen dazu gegeben hat.

Habe einige Änderungen zu 7.10 feststellen können. Die größte ist die HDTV-Unterstützung, die erst mit dieser Version (bei mir HD2400XT ohne Patch) richtig funktioniert -> einfach nur die gewünschte Einstellung auswählen. Ergebnis -> brillante, absolut ruckelfreie 1080i/50Hz Wiedergabe des Fußballspiels gestern auf ANIXE HD.

 

Da ich viel Neues (nicht alles ist gut!) in CCC 7.12 entdeckt habe, wollte ich ab hier eine Diskussion über den Sinn des DVBViewers mit ATI HD Karten anfangen.

Anscheinend gibt es kein Interesse? ;)

 

P.S.

Die angegebenen Werte sind nicht gelogen.

Bei dem Fußballspiel (und auch bei den anderen HD Sender) zeigte Windows Task-Manager CPU-Auslastung bis 5% und der Catalyst GPU Betrieb 1%.

Link to comment

Nö, darüber braucht man nicht zu dikutieren. Diese Werte sind NORMAL, wenn man sein Sytem ordentlich aufgebaut hat.

Problematisch wird´s immer dann, wenn man den Rechner mit Unmengen von Codecs, Patches, Treiberleichen etc. zumüllt.

Die CPU/GPU Last hängt bei Live-TV überwiegend am Skaling und Deinterlacing. Diese Dinge erledigen die "neuen" ATIs quasi im Vorbeigehen. Der DVBV selbst braucht fast gar nichts zu tun, somit ist auch die CPU arbeitslos.

Problematisch wird´s erst wenn man Unmengen von "Verschlimmbesserungstools" ala ffdshow einsetzt.

Btw. aktiviere mal spaßeshalber den Software-EQ im DVBV, damit deine CPU keine Eiszapfen bekommt. Bringt so ca. 5% mehr Last. ;)

 

Gruß

Pinbot

Link to comment

Hm, GPU Last bei 1% hört sich eher nach "nix deinterlacing" an, oder haben die Atis dafür jetzt plötzlich Hardware, die vorher inaktiv war? *grübel*

 

Klar das das dekodieren selber auch keine GPU Last zieht, dafür haben die einen extra Chip auf der Grafikkarte. Ohne Postprocessing ist die Last so vollkommen korrekt, aber das Deinterlacing hat zumindest jetzt immer, in der GPU = in den Shadern statt gefunden und sollte da, je nach gewählter Qualität die 2400er sogar aus dem Tritt bringen.

Link to comment

Danke für die Resonanz.

Ich dachte schon, dass die neu eingespielte DVBViewer Version keine gescheite Hardware mehr braucht oder mein alter Prescott über Nacht zu einem Monster wurde und die 5% jetzt den 100% von vorher gleich sind. ;)

 

Nun habe ich erfahren, dass die Grafikkarte an allem schuldig ist und wie es scheint, habe ich sie unnötig gekauft. :)

Was ist alles so neu im Vergleich zu CCC 7.10, dass die ATI nichts mehr zu tun hat? Vorher lag der GPU Betrieb bei ca. 30%!

 

Kann ich mein Geld wieder haben, wie in CCC 7.10? ;)

Link to comment

Was genau AMD/ATI mit den Treibern angestellt hat, ist nicht so ganz klar. Aber offensichtlich haben mit dem "Crysis-Patch" und der darauf folgenden 7.12 eine Reihe von Optimierungen gegriffen. U.a. ist wohl die interne Speicherverwaltung geändert worden und auch die PCIe-Anbindung wurde verbessert.

Wenn ich die Rückmeldungen im AVS Forum richtig deute (einig ist man sich dort auch noch nicht) sind auch die meisten der REG-Patches obsolet. Also dürfte man sich bei ATi um die optimierung der PQ durch verbesserte Algorithmen im Treiber bemüht haben.

 

Du hast dir die 2600er keinesfalls vergebens gekauft. Die Hardwarelimitierungen der Karte machen auch die besten Treiber nicht wett. Die Probs sind zwar weniger geworden, aber elementare Dinge wie Microruckler bestehen weiterhin, da die unmittelbar an der Leistung der Videoengine hängen und die ist bei der 2400 schwächer als die der 2600.

 

Mein "Laborrechner" läuft z. Zt. bis 1280x1024/75Hz und ner 2400er einigemaßen rund. Alles was darüber geht, stottert auch mit der 7.12. Ganz zu schweigen von BluRay/HD-DVD.

 

Morgen bekomme ich ´ne 3850. Das Teil soll noch eins drauflegen. Die gesamte Videoengine wurde hardwareseitig total überarbeitet.

 

Angeblich sind damit sogar echte 4k machbar (wenns denn entsprechende Displays gäbe :))

 

Gruß

Pinbot

Link to comment

Wird denn bei der GPU Anzeige nicht nur die 3D Leistung gemessen?

 

Die ganze Arbeit bei der Sache hat ja der Avivo Video-Prozessor. Kann es sein, das dessen Auslastung im CCC nicht angezeigt wird?

Link to comment

Dekodieren tut in der Tat ein Co-Prozessor. PostProcessing (also Deinterlacing, Denoising, Sharpening usw.) macht die 3D-Engine (bzw. halt die Shader-Einheiten).

Link to comment

...und eben diese Shadereinheiten sind frei programmierbar, sprich die Effezienz hängt von den Treibern ab.

Somit kann eine Optimierung der Treiber durchaus zu einer effizienteren Nutzung der Hardware und somit einer im Endeffekt kleineren Auslastung führen.

 

Offenbar hat Ati bei den Treibern neue Algorithmen verwendet.

 

Ein Indiz dafür ist das fehlen vieler Reg-Einträge seit der 7.12 und das Auftauchen neuer Slider im CCC beim "Crysis-Patch" (möglicherweise ein Branch der Treiberentwicklung der in der 7.12 dann abgebrochen bzw. anderweitig integriert wurde).

 

Inzw. sprechen die Buschtrommeln schon von einem "Quantensprung" bei der 7.13/7.14.

Gerüteweise soll die gesamte HDCP-Verwaltung auf der Graka erfolgen und damit die CPU entlasten.

Außerdem wird von einem neuen H.264/VC-1 Codec gemunkelt der zumindest auf der Wiedergabeseite unabhängig arbeiten soll und somit Codecs von Dritten (Cyberlink etc) erübrigt.

Wie gesagt Gerüte, aber ich sehe da einiges am Horizont aufziehen. abgesehen von den Anstrengungen in Richtung Hybrid-CPU.

 

Gruß

Pinbot

Link to comment
Inzw. sprechen die Buschtrommeln schon von einem "Quantensprung" bei der 7.13/7.14.
Das habe ich bei 7.12 vermutet/gehofft, deshalb mein Beitrag.

 

Meine Begeisterung ist leider massiv zurückgegangen, nachdem ich meinen ersten DVBViewer Systemabsturz erleben musste. Bislang hatte ich null Probleme mit dem Programm. Es ist der erste Absturz überhaupt, wo ich quasi den Stecker ziehen musste, der Bildschirm wurde grün und keine Reaktion mehr.

 

Bei der 7.10 (7.11 habe ich übersprungen) musste ich viel nachbessern/ändern, dafür aber keine nennenswerte Bildstörungen gehabt, geschweige von Abstürzen.

 

Jetzt ist die Bildqualität auf Anhieb ausgezeichnet, aber ich weiß nicht, wo ich was ändern muss, damit ich keine Abstürze mehr erlebe. Eine zu schwache CPU/GPU Leistung kann es nicht sein, die vorhandene wird kaum in Anspruch genommen.

 

Ich war doch voreilig. :)

Link to comment

Hallo kata,

 

das ist ein Problem, welches auch ich mit dem 7.12 hatte. Auch ich hatte schwere Abstürze mit dem 7.12. Bin wieder zurück auf den 7.11, hier läufts stabil. Bis dato konnte noch niemand diese Abstürze bestätigen (habe die Abstürze im "langen ATI-Thread beschrieben), nun bin ich nicht mehr allein damit, dachte schon es liegt an mir - bzw. meinem System oder meiner Unfähigkeit.

 

Was ich jedoch bestätigen kann ist, die Bildqualität des 7.12 war das Beste was ich bis jetzt von einem ATI-Treiber (HD 2600XT) bekommen habe - ohne Reg. Tweaks natürlich.

 

Wie schon im anderen Thread erwähnt, hoffen und warten auf 7.13 oder 8.1

 

Gruß

 

Mario

Link to comment

Jetzt ist die Verfolgung der Änderungen in CCC 7.12 angesagt.

Vielleicht ist das nur eine Kleinigkeit und wenn nicht, dann bleibt nur der Wechsel zu nVidia übrig. :idiot:

Link to comment

Ich weiss ja nicht ob es Euch beruhigt:

 

Seit knapp zwei Wochen habe ich die 7.12 drauf, die Familie sieht ständig fern am HTPC (insbesondere über die Feiertage) und egal ob SD oder HD und/oder wildes zappen - es gab bisher keinen Absturz.

 

Das System fährt immer in S3-Standby und wacht zuverlässig wieder auf.

 

Ich bin nun wirklich kein ATI-Freund (siehe meine ersten Posts zu diesem Thema), aber mit der NVidia 8600GTS bin ich nicht annähernd so weit gekommen.

 

Ganz nebenbei: Mit der Prozessorlast und der GPU-Last bei meiner passiv gekühlten 2600Pro hatte ich anfangs auch so meine Zweifel. Aber sowohl CPU als auch Grafikkarte machen das offenbar so "nebenbei", dass alle Lüfter auf minimal laufen.

Link to comment

Würde mich freuen, wenn ATi ein paar "Wunder" vollbringen könnte. Dann wäre wenigstens wieder etwas Wettbewerb da. Allerdings muss ich sagen, dass meine GF8600GTS mit den 1080i AVC-Streams für meinen Geschmack hervorragende Ergebnisse liefert. Die Beseitigung diverser VMR- und EVR-Bugs wäre mir wichtiger.

 

Mich würde mal interessieren, wie stark die Deinterlacer und Sharpening Pixelshader die GPU wirklich belasten. Denn neue Deinterlacing-Pixelshader gibt es meist nur mit neuen GPU-Generation, obwohl die möglicherweise auch auf älteren Generationen laufen könnten.

Bin mal gespannt, ob es in Zukunft mehr Pixelshader von Drittentwicklern geben wird, die über Custom Presenter einbindbar sind.

 

Noch zum Thema Hardwarebeschleunigung ohne CyberLink usw. Es wird wohl bald eine ffmpeg Version mit DXVA 2.0 Bitstream-Profile Implementierung geben.

 

http://forum.doom9.org/showthread.php?t=123537&page=41

Link to comment
  • 2 weeks later...
Ein Indiz dafür ist das fehlen vieler Reg-Einträge seit der 7.12 und das Auftauchen neuer Slider im CCC beim "Crysis-Patch" (möglicherweise ein Branch der Treiberentwicklung der in der 7.12 dann abgebrochen bzw. anderweitig integriert wurde).

 

Inzw. sprechen die Buschtrommeln schon von einem "Quantensprung" bei der 7.13/7.14.

Gerüteweise soll die gesamte HDCP-Verwaltung auf der Graka erfolgen und damit die CPU entlasten.

Außerdem wird von einem neuen H.264/VC-1 Codec gemunkelt der zumindest auf der Wiedergabeseite unabhängig arbeiten soll und somit Codecs von Dritten (Cyberlink etc) erübrigt.

Wie gesagt Gerüte, aber ich sehe da einiges am Horizont aufziehen. abgesehen von den Anstrengungen in Richtung Hybrid-CPU.

 

Gruß

Pinbot

 

paar zusätzliche sachen

ein 7.14 wirds wohl kaum geben :-)

die 3850 läuft seit ende november hier bestens (auch im neuen 8.1 beta)

die slider für denoise und detailenhance waren auch in den ATI betas < 7.11 vorhanden und werden wohl erst in den 8.2 integriert

das auslesen der gpu loads im ccc oder im rivatuner zeigt kaum die durch deinterlacing , scaling und postprocessing entstehende last,

da das komplett in den shadern (320 bei der RV 670 GPU) erfolgt

 

z.B. zeigt die 3850 bei vector adaptivem, deinterlacing ! eines H.264 1080 i streams mit 15Mbit

 

nur eine GPU load von 14 % und eine kaum messbare CPU last von 0-1 %

eine 2400 pro war da schon mit BOB mit 100 % am Anschlag..

 

(und ja ..man kann mit tricks auch eine 2400 zum 1080 i deinterlacing bewegen)

 

zum schluss :In Verbindung mit der( leider noch nicht perfekten) EVR/DXVA-2 Integrierung des DVBViewers in Vista

zeigt eine 3850 nach meiner meinung für eine HTPC Grafikkarte phänomenale performance ...

 

leider aber auch ,dass an Vista kein Weg mehr vorbei führt , dazu sind die Ergebnisse einfach zu gut.

 

 

 

 

 

 

h264kd1.jpg

Edited by vonMengen
Link to comment

Ich möchte den Spaß am HTPC niemandem hier wegnehmen, aber für mich ist es zu heiß geworden, seitdem ich einen HDTV CI Receiver mit nur einem Viertel an Strombedarf einer ATI HD3850, mit besserem Bild und für den halben Preis bekam!

 

Sollte ich feststellen, dass meine HD2400XT, die 28 Watt benötigt und 40 Euro gekostet hat, nicht ausreichend für eine Live HDTV Lösung am PC sein sollte, dann adieu HTPC und bienvenue DVR!

 

3850 ... eine HTPC Grafikkarte
Das ist sie definitiv nicht.
Link to comment
Ich möchte den Spaß am HTPC niemandem hier wegnehmen, aber für mich ist es zu heiß geworden, seitdem ich einen HDTV CI Receiver mit nur einem Viertel an Strombedarf einer ATI HD3850, mit besserem Bild und für den halben Preis bekam!

 

Sollte ich feststellen, dass meine HD2400XT, die 28 Watt benötigt und 40 Euro gekostet hat, nicht ausreichend für eine Live HDTV Lösung am PC sein sollte, dann adieu HTPC und bienvenue DVR!

 

Das ist sie definitiv nicht.

 

weisst du kata ...

 

ich hab deine lobeshymnen auf deinen 95 Euro hdtv receiver aus der indien-connection mit klammheimlicher freude

aber auch mit aufrichtiger belustigung gelesen .

Der konfektierte videochip,der sich auf dem board deines pace befindet

und der scalierung , H.264 decodierung und postprozessing erledigt kostet in stückzahlen unter 8 Dollar und stammt

aus wechselnden quellen meistens aus dem referenzdesign von sigma.

(Es ist übrigens nicht das kleine schwarze Ding , wo Philips draufsteht. ) mehr darf er auch nicht kosten weil diese geräte

fertig aufgebaut für 25 -30 $ aus der massenfertigung kommen.

 

Eine ATI 3850 bietet mehr als das 1000 fache an rechenleistung und erreicht im HQV benchmark (nachlesen ) ...

bei dem alle relevanten bildqualitätsparameter einem harten test unterwerfen werden , einen scorewert von 128 .

 

das ist der beste wert ,der bis jetzt in diesen harten tests überhaupt gemessen wurde. kein einziges standalone gerät kommt da auch nur in die nähe. Auch nicht ein scaler aus dem jahre 2005 der 5000 $ -klasse.

 

Das theoretische Maximum liegt bei 130.

 

 

der grosse bruder deines pace steht übrigens bei mir im partykeller für etwaige sportevents und betreibt meine alte röhrenbombe .

 

da kann er allerdings auch mit seinem katastrophal eingestellten gammawert nicht viel kaputt machen.

 

Und wie du hier nachlesen kannst... auch der wohl im augenblick bestbewertetste "standalone" (der TOPFIELD TF 7700 PVR HD-1000 )hatte hier seinen Auftritt . Er kostet zwar 7 mal mehr wie dein receiver , ist aber sicher nicht 7 mal schlechter als deine neue Bildqualitätsreferenz :-)

 

An einen gut konfigurierten htpc mit einer ATI 3850 - dieser angeschlossen an ein sachgerecht kalibriertes display - reicht aber auch der topfield nicht mal im ansatz heran

 

;):)

 

Man sollte , wenn man in der materie nicht ganz firm ist und etwas mit der konfigurierung von htpcs auf dem kriegsfuss steht , sehr zurückhaltend mit solch lauten tönen wie " NEUES REFERENZBILD FÜR UNTER 100 EURO" sein . Man ist da schnell auf ziemlich glattem eis

und auch schnell am rande der lächerlichkeit.

 

Auch wenn du dir da sicher bist...

leute die allein für eine grafikkarte das doppelte ausgeben wie du für einen kompletten receiver ausgibst , sind nicht unbedingt so schwachsinnig wie du glaubst.

 

mit besten grüssen

 

vM

Edited by vonMengen
Link to comment

Hallo vM, ;)

 

als ich es hier geschrieben habe wusste ich nicht bzw. ist mir entgangen, dass Du Dich schon in dem anderen Thread so angesprochen gefühlt hast. ;)

 

Auf das andere will ich überhaupt nicht eingehen, weil Du in Deiner Belustigung vergessen hast, was Du sagen wolltest.

 

Da Du aber hier fast nur Unsinn schreibst bzw. aus dem Kontext herausgerissene Fakten in Raum stellst, bekomme ich den Eindruck, dass es Dich hart betroffen hat. ;)

Glaub mir, es war nicht meine Absicht.

 

Alles was ich zu sagen hatte, habe ich bereits getan, nicht mehr und nicht weniger. Wenn Du es dennoch nicht verstanden hast, fasse ich meine Absichten zusammen.

  • Die Überschrift habe ich mit Absicht so gewählt, obwohl es mir die darin enthaltene Übertreibung bewusst ist. Damit wollte ich Leute wie Dich zum Nachdenken bewegen, damit sie lernen, sich vor sich selbst zu schützen und sich nicht in Übertreibung und Unglück zu stürzen. ;)
  • Die Bezeichnung Referenzbild bezieht sich ausschließlich auf mein subjektives Empfinden und da ich den Namen des Receivers ursprünglich nicht preisgeben wollte, müsste es auch dies klar sein. Dennoch bin ich von der Bildqualität des Receivers überzeugt. Da helfen mir Deine Zahlen und Werte gar nicht. Ich kann nur das beurteilen, was ich sehe. Vielleicht ist es bei Dir anders, statt fernzusehen, guckst Du Dir die Zahlen an.
  • Wie kommst Du dazu, eine Grafikkarte, die 120 Watt verbraucht, mit dem Prädikat HTPC in Verbindung zu bringen? Das müsstest Du mir erklären, als versierte HTPC Konfigurator. :)
  • Meine Vorstellung von einem HTPC ist eine smarte Hardware/Software Kombination. Den Softwareteil habe ich in dem DVBViewer entdeckt, an der Hardware bin ich bis jetzt gescheitert. Ich gebe auch gerne mehr Geld für Sachen aus, die mit dem Ziel vereinbar sind. Dazu gehört auch der Receiver, denn wenn mein HTPC fertig wäre, hätte ich ihn nicht gebraucht.

Der von Dir erwähnte Topf hat leider im Schnitt das schlechtere Bild, als der Pace. Vielleicht bist Du von dem Preis geblendet gewesen, dass Du es nicht gesehen hast. Du vermittelst auch den Eindruck, dass der Preis für Dich ein wichtiger Faktor in der Qualitätsbewertung ist. Vielleicht so: 10% mehr Qualität für jede 100 Euro Mehrpreis. :)

 

Zum Schluss noch eine Frage an Dich: was verstehst Du unter HTPC? Vielleicht liegt hier das Missverständnis?

 

Gruß

kata

 

P.S.

Hast Du Dir auch schon eine Audioanlage für Fledermäuse zugelegt? ;)

Link to comment
Du schreibst weiter oben das kein Weg mehr an Vista/EVR vorbei geht.

Könntest du bitte mal ausführen wo die Vorteile gegenüber XP sind/sein sollen?

 

 

hi redpanther

 

ja die vorteile sind für mich hauptsächlich die neue renderpipeline und das videoprozessing unter vista , und damit der EVR renderer , der als einziger renderer dxva 2 unterstützt , non -squarepixel support und ruckelfreiere wiedergabe mit hoher bildqualität verbindet.

Desweiteren wird parallel hardware unterstützt , akkuraterer vsync , glitch resilience (bessere dropout toleranz) und nativer OS support für 24p,48p,1080i und 720p.

 

Insofern bin ich vom saulus zum paulus geworden ....vista ultimate läuft hier ( nachdem das OS deutlich schlanker gemacht und von vielen gimmicks erleichtert wurde ) äusserst stabil . Dass dadurch natürlich das ganze andere DMR geraffel auf dem rechner einzug findet ist allerdings die kehrseite der medaille.

 

hier gibts eine ppt

 

http://download.microsoft.com/download/5/b...MED134_WH06.ppt

 

Grüsse

vM

 

[*]Die Überschrift habe ich mit Absicht so gewählt, obwohl es mir die darin enthaltene Übertreibung bewusst ist. Damit wollte ich Leute wie Dich zum Nachdenken bewegen, damit sie lernen, sich vor sich selbst zu schützen und sich nicht in Übertreibung und Unglück zu stürzen. ;)

 

sorry ,auf den obigen katatonischen unsinn einzugehen , dazu ist mir die zeit zu schade.

Edited by vonMengen
Link to comment
Sollte ich feststellen, dass meine HD2400XT, die 28 Watt benötigt und 40 Euro gekostet hat, nicht ausreichend für eine Live HDTV Lösung am PC sein sollte, dann adieu HTPC und bienvenue DVR!

 

[*]Wie kommst Du dazu, eine Grafikkarte, die 120 Watt verbraucht, mit dem Prädikat HTPC in Verbindung zu bringen? Das müsstest Du mir erklären, als versierte HTPC Konfigurator. :unsure:

 

Wie kommst du denn auf den Wert? Quelle?

kann es eher sein, dass du IDLE Stromverbrauch der 2400er und LAST Stromverbrauch der HD3850 vergleichst? Dann fällst du als Diskussionspartner definitiv aus.

Edited by Morpog
Link to comment

@vonMengen

 

Also ich selber habe schon viele Grafikkarten der HD2x00 wie auch der HD38x0Serie im Rechner gehabt und an mehrere FullHD´s getestet. Das Bild ist gut. Aber ich muss sagen das die Grafikkarten an Standalone noch lange nicht herankommen was Bildqualität angeht. Sicherlich ist die Leistungsfähigkeit der Karten extrem viel besser, auch die technischen Daten können sich sehen lassen, keine Frage. Nichtsdestotrotz ist es so das ATI (&NVIDIA) diese Vorteile durch "schlechte" Treiber wieder zunichte machen. Die Darstellungsqualität ist mit den momentan verfügbaren Treiber (zumindest bei ATI) absolut nicht konkurrenzfähig zu Standalone Geräte. (Übrigens hatte ich den Topfield 7700er auch hier, und der hat ein sehr gutes HD Bild, aber das SD Bild ist/war sehr unscharf, mal warten auf neue Firmware)

 

Gruß

 

Romsky

Link to comment
Wie kommst du denn auf den Wert?
Es sind natürlich die Herstellerangaben -> max. Verbrauch (bei Volllast) -> können herstellerabhängig variieren.

Beispiel PowerColor:

HD2400PRO SCS3 -> 25 Watt

HD3850 ZeroTherm -> 110 Watt

 

Es muss ein großes Missverständnis vorliegen, denn wie ich sehe, füllen sich hier einige angegriffen. :unsure:

Ich will mit dem Vergleich nur das sagen, dass die ATI HD3850 keine HTPC Grafikkarte ist und damit meine ich nicht, dass sie schlecht oder für HDTV ungeeignet sei!

Link to comment
Es sind natürlich die Herstellerangaben -> max. Verbrauch (bei Volllast) -> können herstellerabhängig variieren.

Beispiel PowerColor:

HD2400PRO SCS3 -> 25 Watt

HD3850 ZeroTherm -> 110 Watt

 

Es muss ein großes Missverständnis vorliegen, denn wie ich sehe, füllen sich hier einige angegriffen. :unsure:

Ich will mit dem Vergleich nur das sagen, dass die ATI HD3850 keine HTPC Grafikkarte ist und damit meine ich nicht, dass sie schlecht oder für HDTV ungeeignet sei!

 

Interessant, wie du dir zielgerichtet eine der wenigen HD3850 ausgewählt hast, bei der die Stromsparfunktion Powerplay komplett abgeschaltet von Herstellerseite ist.

 

Eine vernünftige HD3850 verbraucht grade mal 10-15 Watt im IDLE mehr als eine 2600XT. Die 2400er Serie brauch man erst gar nicht als Vergleich heranziehen, da für HD ungeeignet (ja ich weiss es geht, ja ich habe es getestet, ja es ist im Gegensatz zur 2600er oder 38xx serie ungenügend).

Edited by Morpog
Link to comment
Interessant, wie du dir zielgerichtet eine der wenigen HD3850 ausgewählt hast
Ob Du es glaubst oder nicht, es war ein Zufall!

 

Eine vernünftige HD3850 verbraucht grade mal 10-15 Watt im IDLE mehr als eine 2600XT
Trotzdem ist sie ein wildes Pferd :unsure: und für HTPC ungeeignet.

 

Die 2400er Serie brauch man erst gar nicht als Vergleich heranziehen, da für HD ungeeignet
Bildqualität ist OK bzw. sehr gut, dennoch hapert es an Stabilität und somit bis jetzt dafür ungeeignet.

Ich glaube, ich werde mir die nächste Intel Onboard näher anschauen.

Link to comment
Trotzdem ist sie ein wildes Pferd :unsure: und für HTPC ungeeignet.

 

Warum? Stromsparend und sogar passiv kühlbar! (Sapphire HD3850 Ultimate)

 

Bildqualität ist OK bzw. sehr gut, dennoch hapert es an Stabilität und somit bis jetzt dafür ungeeignet.

Ich glaube, ich werde mir die nächste Intel Onboard näher anschauen.

 

Glaub mir, mit einer HD3850 ist die Bildqualität noch besser.

Klar hapert es an Stabilität bei der HD2400. Die HD2400er Serie ist offiziell nicht freigegeben für 1080i Material. Nur für 720p/1080p <-- man beachte dass P.

Man kann sie zwar per Reg-Tweaks dazu überreden, aber das packt sie dann eben in manchen Situationen doch nicht. Dass es dann zu Instabilitäten kommt braucht einen nicht zu wundern. Nicht ohne Grund hat ATI die Beschleunigung von 1080i für die 2400er Serie deaktiviert.

 

 

Intel Onboard? Viel spass bei deiner CPU, die dann ohne Unterstützung durch die GPU wieder schwitzen darf.

Edited by Morpog
Link to comment
Glaub mir, mit einer HD3850 ist die Bildqualität noch besser.
Natürlich ist das so! Es ist sogar für einen Querdenker wie mich nachvollziehbar. :unsure:

 

Dennoch ist mein Ziel wirklich nur ein HTPC, sprich Ersatz für SAT Receiver + DVD Spieler. Das kann ich nur durch eine smartere Lösung erreichen und die HD3850 sprengt den Rahmen. Hat mit dem Preis nichts zu tun.

Link to comment
Natürlich ist das so! Es ist sogar für einen Querdenker wie mich nachvollziehbar. :unsure:

 

Dennoch ist mein Ziel wirklich nur ein HTPC, sprich Ersatz für SAT Receiver + DVD Spieler. Das kann ich nur durch eine smartere Lösung erreichen und die HD3850 sprengt den Rahmen. Hat mit dem Preis nichts zu tun.

 

Aber dein Pentium 4 Prescott sprengt nicht den Rahmen? Gleichzeitig sorgst dich wegen des Stromverbrauchs der HD3850? Irgendwie passt dass nicht zusammen.

 

Der Prescott ist nicht umsonst als Presskopf/Hitzkopf verschriehen. Eine der schlechtesten CPUs für einen HTPC überhaupt. Aber ich drifte ab und der ganze Post ist schon offtopic.............

Link to comment
Intel Onboard? Viel spass bei deiner CPU, die dann ohne Unterstützung durch die GPU wieder schwitzen darf.
Hier meine ich den Eaglelake-G G45 IGP Chipset -> GMA X4500 Grafikkern.
Link to comment
morpog

 

ein paar zusätzliche infos aus meinem 3850 thread vom letzten jahr

 

http://www.beisammen.de/thread.php?threadid=82121%3C/b%3E

 

Danke, aber ich habe schon selbst Erfahrungen bei meinem Vater seinem HTPC sammeln können. In Form einer Sapphire HD3850 Ultimate (die Passive).

Zu meinem Glück kam heute mit der DHL meine HD3850 (auch die Ultimate). Sitze leider gerade auf der Arbeit. Kann die also erst heute abend einbauen :-)

 

Dann fliegt meine X1800XL raus und ich hab eine Traumkombi aus HD3850 passiv (für den HDTV und ersten 19" TFT) und die HD2400Pro passiv (für den zweiten 19" TFT).

 

 

Hier meine ich den Eaglelake-G G45 IGP Chipset -> GMA X4500 Grafikkern.

 

Gibt es schon Boards damit zu kaufen? Oder erste Tests? Wenn die Treiber für den IGP wieder so katastrophal werden wie beim Vorgänger, dann wünsche ich dir jetzt schon viel Spass.

Edited by Morpog
Link to comment
Aber dein Pentium 4 Prescott sprengt nicht den Rahmen? Gleichzeitig sorgst dich wegen des Stromverbrauchs der HD3850? Irgendwie passt dass nicht zusammen.

 

Der Prescott ist nicht umsonst als Presskopf/Hitzkopf verschriehen. Eine der schlechtesten CPUs für einen HTPC überhaupt. Aber ich drifte ab und der ganze Post ist schon offtopic.............

Hier würde ein bisschen Nachdenken helfen. :unsure:

 

Soll ich etwa einen HTPC auf einen Schlag zusammenstellen?!

Mit der ATI habe ich bereits in S... gegriffen und es war erst der zweite Schritt, nach der TV-Karte. Da gab es die HD3850 noch nicht und ich in meiner Naivität dachte, dass ATI endlich den von mir ersehnten Weg eingeschlagen hat. Jetzt haben die eine Leistungsstarke Grafikkarte gebracht, die aber auf 30% gedrosselt werden kann, um die Aufgaben, die wir anstreben, locker zu erledigen. Wofür werden die 70% gebraucht? Da stimmt etwas nicht. Ich kann mit dem Schwund nicht leben.

Das MB befindet sich bereits seit vier Monaten auf dem Postweg, hin zu Asus und zurück. Ich müsste es inzwischen als Glück bezeichnen, weil es mich vor weiteren Enttäuschungen bewahrt hat und kann mit den mir zur Verfügung stehenden Mitteln ruhig weiter testen.

 

@ Morpog

Weniger Populismus! Dann könnte ich mich mit Dir freuen, auch wenn mich ATI auf der ganzen Linie enttäuscht hat.

Link to comment
Gibt es schon Boards damit zu kaufen? Oder erste Tests? Wenn die Treiber für den IGP wieder so katastrophal werden wie beim Vorgänger, dann wünsche ich dir jetzt schon viel Spass.
Tja, die Ansätze sind viel versprechend, aber es kann genauso oder noch schlimmer als bei ATI enden.

Eins ist für mich klar, ich werde es diesmal ganz vorsichtig eingehen. Ich muss mit dem MB anfangen, aber dadurch wird die Sache nicht einfacher.

 

P.S.

Mir bleibt nur die Hoffnung, dass irgendjemand (Hersteller :unsure:) den HTPC Markt endlich entdeckt, ohne die Kunden am Start zu betrügen, um sich zeitlich vor die Konkurrenz zu setzten.

Link to comment
Von der HD3xxx Serie kommen noch schwächere Modelle demnächst.....
Danke, hier werde ich die Wahl treffen müssen, denn allzu lange will ich nicht mehr warten -> Intel/ATI.

Mir ist auch bewusst, dass ich ATI nicht nachtragend werden kann, wenn ich die hier herumliegende CPU und RAM endlich einsetzen will, aber wenn Intel etwas Gescheites vorbringt, dann entscheide ich mich natürlich für Intel. ;)

 

P.S.

Jetzt muss ich weg -> bei mir ruft die Arbeit. :rolleyes:

Viel Spaß und vor allem viel Erfolg beim Zusammenbauen.

Link to comment
Tja, die Ansätze sind viel versprechend, aber es kann genauso oder noch schlimmer als bei ATI enden.

 

Da sind wir wohl gleicher Meinung.

 

Jetzt muss ich weg -> bei mir ruft die Arbeit. ;)

Viel Spaß und vor allem viel Erfolg beim Zusammenbauen.

 

Danke sehr :rolleyes:

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...