Jump to content

HTPC auf Ivy Bridge Basis


CiNcH

Recommended Posts

Glaube ich auch.

Mit den selektierten T Modellen lässt sich bestimmt noch bissle was rausholen.

 

 

@Sound:

Die Laufzeitverschiebung kann auch vom Decoder übernommen werden. AC3-Filter und FFDShow können das z.B.

Klanglich werden wohl höchstens die D/A Wandler eine Rolle spielen. Was ist da mittlerweile bei den onboards verbaut? 192/24bit?

 

Ich würde mir aber lieber einen entsprechenden AVR fürs Soundsystem zulegen und den Ton digital ausgeben.

Dort gibt es schon in der Mittelklasse ausreichend gute D/A Wandler und die sonstigen Einstellungen (Lautsprecherabstand usw.) können auch gemacht werden.

Edited by nuts
Link to comment

Etwas OT:

Die Laufzeitverschiebung kann auch vom Decoder übernommen werden. AC3-Filter und FFDShow können das z.B.
Klappt das immer? Also Synchronisieren die Codecs die Audio wiedergebe mit der Video wiedergebe und rechnen dann ein negativen Offset drauf und schicken das dann wieder digital raus?

Ich dachte immer das die einen Festen Offset drauf rechnen was dann meist nicht bei allen Sendern passt.

Link to comment

Ich vermute du meinst jetzt die reine Audio-Verschiebung?

Die funktioniert schon, nur Sender spezifisch kann man damit natürlich nur schwer etwas ausgleichen.

 

Snoopydog meinte glaube ich die Laufzeitkorrektur um den Abstand der Lautsprecher anzugleichen.

z.B. stehen die Front-LS 3,50m vom Sitzplatz weg und die Surround-LS nur 2,00m.

Das lässt sich im AC3-Filter (oder jedem neueren AVR) ausgleichen.

Quasi ein DSP schon im PC!

 

A/V Sync ist eher Aufgabe der Wiedergabesoftware (Renderer, Directshow-Clock usw. kann chinch sicher besser erklären :D )

Link to comment

Ich habe aber Oberklasse-Endstufen (vorne), die gebe ich garantiert nicht auf ;) Mit meinem jetzigen Equipment klingt das mehr als gut. Subwoofer brauche ich nicht. Laufzeiten sind alle optimal eingestellt, (an der Soundkarte), so daß der Raumeffekt bei Filmen realistisch ist.

 

Geht aber am eigentlichen Thema Ivy-Bridge vorbei. Also kauf ich doch ein ATX-Board, ggf. mit etwas dezenterem Gehäuse. Bezüglich der CPU hab ich mich von CiNcH (und meinen Internet-Recherchen) überzeugen lassen ;)

 

Weiß einer etwas bezüglich Geschwindigkeit des BIOS P.O.S.T.? Ich bin (wie schon geschrieben) von meinen derzeitigen Intel-Boards mit 55er Chipsatz etwas genervt in dieser Beziehung.

Edited by SnoopyDog
Link to comment

Ok jetzt wirds echt OT, aber das interessiert mich noch:

Kannst du die mit der Soundkarte überhaupt voll aussteuern? Ohne Vorverstärker?

Eine Mittelklasse AVR hat ja auch Preouts für die Endstufen.

 

Ob die Entfernung im Soundkartentreiber, im Decoder oder im AVR eingestellt dürfte keinen Unterschied machen.

Das erfolgt alles digital und dürfte nichts magisches sein.

Link to comment

Weiß einer etwas bezüglich Geschwindigkeit des BIOS P.O.S.T.? Ich bin (wie schon geschrieben) von meinen derzeitigen Intel-Boards mit 55er Chipsatz etwas genervt in dieser Beziehung.

Wieder zum Thema: MSI ist diesbezüglich sehr schnell. Zumindest bei allen Boards die ich bis jetzt verbaut habe.

Link to comment

Die Lautstärke paßt schon. Kann bei mp3-Wiedergabe Party-Lautstärke erzeugen. Ich habe auch nur EINE Fernbedienung für alles, Einschalten tu ich mit dem normalen Power-Button (es geht da erstmal nur der Center an), beim Ausschalten werden alle Endstufen und Vorverstärker, welche grad laufen, abgeschaltet - natürlich bevor der HTPC im Hibernate angekommen ist. Standby-Verbrauch: HTPC: 0.8 Watt / TV: 0.3 Watt / Endstufen etc: 0.0 Watt.

 

Aber wieder zurück zur Ivy-Bridge ;) Schade, daß es noch keine Tests/Erfahrungen mit den i3er CPUs gibt. Und wieso hält Intel die so lange zurück? Strategie oder haben sie doch noch Fehler entdeckt?

 

Mein jetziger HTPC verbraucht im Betrieb beim TV-Schauen 56-60 Watt und bei Blu-Ray 60-64 Watt mit ATI 5570 und i3-530. Ich denke mal, mit Intel HD / Ivy-Bridge kann man das deutlich unterbieten.

 

Wieder zum Thema: MSI ist diesbezüglich sehr schnell. Zumindest bei allen Boards die ich bis jetzt verbaut habe.
Danke, das ist nämlich für mich auch ein wesentliches Auswahlkriterium. Edited by SnoopyDog
Link to comment

bezüglich des 3770T:

 

Seid Ihr Euch sicher, dass ein 3770k mehr als 45W verbraucht, wenn man Ihn auf 4x2,5GHz beschränkt?

Oder wird die maximale TDP von 45W nur durch die Begrenzung darauf erreicht und so ein QuadCore mit HT für spezielle, kleine Kühlung ermöglicht?

Weil, günstig ist der ja nicht gerade....

Link to comment
Seid Ihr Euch sicher, dass ein 3770k mehr als 45W verbraucht, wenn man Ihn auf 4x2,5GHz beschränkt?

Mehr? Die Frage versteh ich nicht. 45W braucht der Prozessor, wenn du ihn bei Standardtakt (also 2.5GHz) voll auslastest (sämtliche Kerne). Vom Turbo profitieren hauptsächlich rechenintensive Single-Threaded Applikationen. Schlafen die anderen Kerne, kann man den einen arbeitenden Kern höher takten, ohne die TDP zu überschreiten.

 

Oder wird die maximale TDP von 45W nur durch die Begrenzung darauf erreicht und so ein QuadCore mit HT für spezielle, kleine Kühlung ermöglicht?

Wenn du mehr Takt drauf knallst, wird die TDP bestimmt steigen, wenn du die Kerne auslastest.

 

Schade, daß es noch keine Tests/Erfahrungen mit den i3er CPUs gibt. Und wieso hält Intel die so lange zurück? Strategie oder haben sie doch noch Fehler entdeckt?

Weil die erstmal alle in den mobilen Markt gehen. Desktop ist zweitrangig.

Link to comment

Folgendes finde ich mal interessant:

Andrew told me that he had the 'production BIOS', and he even linked me to one image where he captured the '23.976' refresh rate:

 

24pVC1-2.JPG

(Full credit goes to Andrew (babgvant) @ MissingRemote)

 

Unfortunately, it is not that stable apparently as the locking to 23.973 fps playback rate indicates. (I am yet to get Asus's version of the 'fixed BIOS' for my testbed).

 

As I wrote in a response to one of the comments on my review, if they get it between 23.974 and 23.978 and average out to 23.976, it will just end up like most of the other AMD and NVIDIA cards.

Da sieht man, dass die Refresh Rate nun schön bei 23.976 ist. Die Frame Rate im DS-Graph ist aber 23.973. Das sieht schwer nach meiner Theorie aus. Die haben da ein paar unsichtbare Zeilen reingepfuscht, aber das tatsächliche Problem, sprich die falsch gehende Clock, kann man nicht fixen. Das Problem, was vorher keines war, weil Frame und Refresh Rate gleich waren, wurde nun erst zu einem gemacht.

 

Auf folgendem Bild sieht man, dass die Refresh Rate zwar 23.973 ist, die Wiedergabe bzw. Frame Rate im DS-Graph aber auch. Somit sollte da alles ruckelfrei sein:

24pAVC-2.JPG

 

Da hat AnandTech meiner Meinung nach eine riesige Scheiße angerichtet. Und Intel hat die Wurzel des Problems auch noch nicht verstanden, sprich wie die Wiedergabe im DirectShow-Graph funktioniert. Am besten ist es wohl eine Custom Resolution mit Standard Porch zu erstellen und somit den "Fix" hoffentlich rückgängig zu machen.

 

 

Der EVR Sync Renderer mit aktivierter PowerStrip Funktion macht nichts anderes, als die Diskrepanz zwischen Frame und Refresh Rate zu beobachten. Driften diese beiden, werden die unsichtbaren Zeilen adaptiv angepasst. Somit laufen beide parallel und es kommt zu keinem Überlauf mehr. Einfach nur auf Grund der Tatsache anpassen, weil die Refresh Rate keine exakten 23.976 sind, ist in den meisten Fällen keine gute Idee. Man macht es dann erst zu einem Problem, wenn auch die Wiedergabe im DS-Graph an der falschen Uhr hängt. VSync's sind dann zwar genauer, der Drift relativ zu den Frame-Timestamps wird aber größer. Und genau das ist das Problem. Bei heutigen Systemen mit HDMI ist es der Fall, dass alles auf einer Clock basiert und somit der Drift vermieden wird. Dieser "Fix" macht ein perfekt synchronisiertes System mit nur einer Clock, auf das wir schon lange warten, wieder kaputt. Man muss wieder zu ReClock greifen.

Wird eine separate Audio-Clock (Soundkarte) für die Wiedergabe im DS-Graph verwendet, wird man nur mit Glück eine Verbesserung durch den "Fix" herbeiführen, je nachdem wie groß die Diskrepanz zwischen Frame Rate (basierend auf Audio-Clock) und Refresh Rate vor und nach dem "Fix" ist.

 

 

Gegen diese Volksverblödung muss man doch was unternehmen!!

Link to comment

Nur nochmal als Einwurf:

 

Beim Encodieren bekommen die Mediafiles einen Zeitstempel.

Bei Blurays gehen wir jetzt mal von genauen 23,976hz aus.

Daraufhin gibt es eine bestimmte Abspielgeschwindigkeit für die Audiowiedergabe und an die muss man sich zwingend halten oder (!) an der (Audio-)Abspielgeschwindigkeit drehen (geht nicht bei bitstream-Ausgabe!).

 

D.h. die "23hz" Einstellung sollte einen VSync produzieren der dem Bluray-Encoderzeitstempel entspricht, d.h. 23,976hz!

 

Nun kann man rausrendern (DS-Clock setzt doch die Wiedergabesoftware?) und sich an den VSync hängen (nie ruckler, aber ggf. kein A/V Sync) oder man hängt sich an die Audio-Abspielgeschwindigkeit (ggf. Ruckler aber immer A/V Sync).

 

Was ich damit sagen will: Stur mit 23,973 (=VSync-Clock) zu rendern wird nicht helfen. Was Intel da versucht erscheint mir allerdings auch etwas hilflos.

 

Dritte Option - gerade für Streaming-Umgebungen interessant - wäre den VSync adaptiv zu verschieden.

Edited by nuts
Link to comment
D.h. die "23hz" Einstellung sollte einen VSync produzieren der dem Bluray-Encoderzeitstempel entspricht, d.h. 23,976hz!

Die Zeitstempel werden bei der Wiedergabe auf die DS-Clock umgerechnet. Läuft die DS-Clock etwas schneller als die des Encoders, ist halt die Wiedergabe etwas schneller, spielt aber keine Rolle. Wichtig ist lediglich der Bezug zwischen DS- bzw. Wiedergabe-Clock und VSync-Clock.

 

Nun kann man rausrendern (DS-Clock setzt doch die Wiedergabesoftware?) und sich an den VSync hängen (nie ruckler, aber ggf. kein A/V Sync) oder man hängt sich an die Audio-Abspielgeschwindigkeit (ggf. Ruckler aber immer A/V Sync).

Verwendet man HDMI für die Audio-Ausgabe, hat man eine einzige Clock für DS/Wiedergabe, Video-Ausgabe (VSync) und Audio-Ausgabe. Verändert man nun das VSync-Interval durch Hinzufügen oder Entfernen von Zeilen, entspricht es nicht mehr dem Frame-Interval im DS-Graph.

 

Die Zauberformel ist immer noch HDMI für alles (sprich Wiedergabe/Verarbeitung und A/V-Ausgabe) mit gemeinsamer Clock. Geht die Clock gerningfügig falsch, läuft eben alles geringfügig falsch, im Bereich von 0.003 Hz bei Intel. Ruckeln wird da nichts. Verändert man das VSync-Interval, muss man nachregeln, um die Diskrepanz zwischen Frame-Zeitstempeln (basierend auf DS-Clock) und VSync auszugleichen (Frames verdoppeln oder verwerfen), weil die Wiedergabe und Ausgabe nun mit unterschiedlicher Geschwindigkeit laufen.

Link to comment

Bei Gelegenheit musst du mir das nochmal im Detail erklären.

Ich meine aber du hast hier einen Denkfehler (oder ich eben):

Die Zeitstempel werden bei der Wiedergabe auf die DS-Clock umgerechnet. Läuft die DS-Clock etwas schneller als die des Encoders, ist halt die Wiedergabe etwas schneller, spielt aber keine Rolle. Wichtig ist lediglich der Bezug zwischen DS- bzw. Wiedergabe-Clock und VSync-Clock.

DS-Clock kann sich eigentlich nur an den Zeitstempel (wegen Audio + bitstream) heften.

Bei der Bitstream-Ausgabe geht es nicht 0,x% schneller oder langsamer (in der Streaming-Umgebung ja auch nicht)

 

VSync (Videoausgabe) hat doch keine "natürliche" Relation zur DS-Clock wegen der Hdmi-Ausgabe?

Wie soll das auch gehen? z.B. bei 60hz Ausgabe und 50hz Quelle? Dabei geht es immer nach der Quelle (DS-Clock), da alles andere fatale Auswirkungen hätte. Das es dann ruckelt ist auch klar.

Das gleiche haben wir hier in klein mit 23,976 Quelle und 23,###### Ausgabe.

Link to comment
Bei der Bitstream-Ausgabe geht es nicht 0,x% schneller oder langsamer (in der Streaming-Umgebung ja auch nicht)

Die Bitstream-Ausgabe basiert auf derselben Clock wie die Timestamp-Generierung im DS-Graph bei Ivy Bridge mit HDMI-Audio. Die Clock bestimmt die Geschwindigkeit bei Bitstream-Ausgabe. Bei AC3 werden das auch keine exakten 384kbps sein.

 

VSync (Videoausgabe) hat doch keine "natürliche" Relation zur DS-Clock wegen der Hdmi-Ausgabe?

Bitstream-Ausgabe, VSync und DS-Clock zur Timestamp-Generierung basieren bei Ivy Bridge (oder auch AMD und nVIDIA GPU's) mit HDMI auf demselben Quartz, sprich derselben Uhr mit derselben Geschwindigkeit.

Link to comment

Was macht dich so sicher, dass die Ausgabe über HDMI für Audio und Video die gleiche Clock verwendet?

Wenn ich Video über meine Asus Xonar Soundkarte an den TV ausgebe, dann kommt Audio von der Soundkarte und Video von der Grafikkarte.

Bild und Ton werden also über HDMI ausgegeben, benutzen aber unterschiedliche Taktgeber.

Und warum sollte das bei Grafikkarten mit Soundchip anders sein?

Link to comment
Was macht dich so sicher, dass die Ausgabe über HDMI für Audio und Video die gleiche Clock verwendet?

Ich habe das mit einer Radeon HD 6570 mit HDMI-Audio-Ausgabe getestet. Da habe ich einen Graph gebaut mit Audio Clock als Referenz. Im Renderer habe ich dann Frame-Timestamps und VSync-Zeitpunkte aufgezeichnet bzw. verglichen. Diese sind zueinander nicht mehr gedriftet.

Link to comment

Hey CiNcH so wie ich die Sache sehe ist das OSD vom EVR nicht immer so klar definiert.

- gerade der "Refresh rate: 23.xxxxx" zeigt mit versch. Decodern untersch. Verhalten,

zB. LAV permanent stark schwankend zw. 23.96x-23.98x, MS bleibt meistens näher bei 23.976x-978x, alle haben regelmäßig Phasen mit 23.2x-24.5x und gelegentlich hängt sich Refresh rate: bei ~500.xxxxx auf...

 

-> die Screenshots zeigen immer nur was da gerade wärend 1 Frame stand. Ich behaupte mal die Fotografen schießen gerne dann das Foto wenn die zahl grade kurz nahe bei 23.976xx um nicht zuviel "Verwirrung" zu stiften... Mußt halt selber mal probieren.

 

Dann die Aussage von Nevcairiel "Refresh rate: is a combination of TV and graphics card, the refresh rate your screen runs at, influenced by both your GPU and your TV."

deckt sich mit meiner Beobachtung das der TV bzw. dessen abilities in den ganzen ich sag mal "Einschwingprozess" auch noch mit einfließt. Also riesen Unterschied ob da ein "einfacher" 23Hz fähiger Monitor mitrechnet oder ein 120Hz TV mit riesen Puffer und "Motion plus" o.ä.

 

 

Nächste Beobachtung - selbst das EVR OSD selbst (zugeschaltet oder ohne) kann das Ergebnis beeinflussen! Kann ich mit meinem 23.976-slices sehen, teilw. andere Sprünge des Tickers mit und ohne. Wärend aktivem EVR OSD ist das ganze zudem so empfindlich dass geringe Einflüsse wie ein Tastendruck oder ein Hintergrundprozess (zB. mit der Maus langsam über ein Desktop-Icon gleiten) schon Sprünge und Neuberechnungen auslösen können. Also nicht wirklich geeignet um empirische Daten zu sammeln.

 

Das einzige worauf man sich bombensicher verlassen kann - je weiter der erste "Frame rate"-Wert weg von 23.976 desto steiler der Anstieg/Abfall der grünen Linie und die damit verbundenen Drops/Repeats, das klappt immer, Decoder egal, HW/SW decoding egal, Monitor allerdings nicht egal, der hat großen Einfluss.

Selbst der EVR Sync (mit dessen Anpassungen hab ich mich aber noch nicht beschäftigt) - er zeigt per default zwar keinen Anstieg/Abfall mehr aber die Drops/Repeats kommen trotzdem im gleichen Takt wie mit EVR CP. madVR/ReClock ändert daran auch nichts.

 

 

Edit:

ReClock ändert natürlich viel da es die Audio/Videogeschwindigkeit passend zur aktuellen (ungenauen) Framerate die die Grafikkarte tatsächlich gerade kann ändert. Die Renderer orientieren sich strikt daran und so gibt es idR., wenn sonst alles stimmt, keine Drops/Repeats mehr.

 

Der Irrtum kam zustande weil ich auf einer Sandy HD3000 testete die unabhängig von ReClock Drops/Repeats verursachte.

Edited by craig_s
Link to comment

Sehr interessantes Forum! Danke an CiNcH & Co für die vielen Infos.

Eigentlich bin ich mit meiner kleinen Heizung AMD Phenon 9550 + 6570 zufrieden (Kurzmessung ZDF HD 136Watt bei 5-8% CPU) und umgehe seit längerem den Aufwand Neuinstallation mit neuer Hardware.

Ich werde am Wochenende mit

GA-Z77-DS3H

i7 3770K

in das Thema Ivy HD4000 einsteigen.

 

Innu

Link to comment

1 Taktgeber (hdmi Ausgabe – theoretisch):

 

JitterX = Abweichung aufgrund des Taktgebers

 

Video-Clock (VSync)= Eingestellte Wiederholungsfrequenz + JitterX

 

Audio-Clock = Zeitstempel des Encoders + JitterX

 

Directshow-Clock = Audio Clock

 

 

=>kein langsames auseinanderdriften, da JitterX gleich groß ist!

Aber: ggf. konstante Abweichung zwischen Video-Clock und Directshow-Clock sollte die Video-Clock nicht synchron zur Directshow-Clock laufen (z.B. 60hz Ausgabe bei 50hz Quelle oder Intel 24p Bug).

 

2 Taktgeber (z.B. onboard Sound):

 

JitterX = Abweichung aufgrund des Videotaktgebers

JitterY = Abweichung aufgrund des Audiotaktgebers

 

 

Video-Clock (VSync)= Eingestellte Wiederholungsfrequenz + JitterX

 

Audio-Clock= Zeitstempel des Encoders + JitterY

 

Directshow-Clock= Audio Clock

 

 

=> auseinanderdriften Delta JitterX JitterY

Die konstante Abweichung kommt noch hinzu wenn die Video-Clock nicht synchron zur Directshow-Clock läuft.

 

 

Reclock-Ansatz (2 Taktgeber):

 

JitterX= Abweichung aufgrund des Videotaktgebers

JitterY= Abweichung aufgrund des Audiotaktgebers

 

Video-Clock (VSync)= Eingestellte Wiederholungsfrequenz + JitterX

 

FaktorZ=Differenz zwsichen Video-Clock und Audio-Clock

 

Audio-Clock= (Zeitstempel des Encoder + JitterY) * FaktorZ

Es wird also die Audio-Clock quasi mit der Video-clock überschrieben.

Dadurch ändert sich die Audio-Abspielgeschwindigkeit. Das geht logischerweise nur wenn Audi-Clock und Video-Clock relativ nahe beieinander liegen und auch nur bei der PCM-Ausgabe.

 

=> perfekt in Sync. Keine Ruckler, kein A/V-Drift

 

So läuft das nach meiner Vorstellung ab.

Im anschließenden Schritt muss man sich jetzt Gedanken machen wie man mit den Abweichungen umgehen will.

Auf der Audioseite (drops/repeates oder speedup/speeddown), auf der Videoseite (Ruckler möglichst minimieren).

Am VSync drehen falls möglich?

Link to comment

Ich hab mit 23.976-Käsescheibchen bis jetzt keinerlei Audiodrift >Anfang bis Ende< ausmachen können obwohl ich damit 50ms schon erkennen könnte.

Egal ob ich die Sandy HD3000 auf 23 oder 24 Hz stelle oder höhere Frequenzen, dann icl. Ruckelorgie.

 

- über HDMI an Denon AVR (AC3 Bitstreaming) dahinter hängt ebenfalls über HDMI der TV.

- MPC-HC mit EVR CP, egal ob LAV, MPC, MS, PDVD decoder (Aero aus).

 

Dann ein 100 min 23.976 m2ts mit 24Hz über HD3000 abgespielt, war am Ende auch 1a Lippensynchron (auch MPC-HC mit EVR CP, DTS-HD MA).

Also Leuts, solange ich in der praxis nix sehen kann bleibt das mit der Audiodrift für mich leider alles graue Theorie ;)

Edited by craig_s
Link to comment

Ich hab mir jetzt mal einen kleinen Ivy-Bridge bestellt. :)

Sollte bis zum WE ankommen. Nächste Woche hab ich Urlaub und kann etwas testen.

 

1 x Intel Core i5-3470T, 2x 2.90GHz, tray (CM8063701159502)

1 x Corsair Vengeance Low Profile blau DIMM Kit 4GB PC3-12800U CL9-9-9-24 (DDR3-1600) (CML4GX3M2A1600C9B)

1 x ASRock Z77E-ITX, Z77 (Sockel-1155, dual PC3-12800U DDR3)

1 x Arctic Cooling Freezer i30 (Sockel 1155/1156/2011)

Edited by nuts
Link to comment

Wäre prima, wenn Du Deine Tests mit den entsprechenden Settings postest.

 

Mein Ivy: i7, 8GB 1600, GA-Z77-DS3H, DD Cine

Lav 0.51.3, Quicksync, RGB untouched

AC3 2.5b

Intel HD4000, 1920x1080 50p 16bit, Treiber 8.15.10.2761, alle Optimierer auf Anwndungseinstellungen, Filmmodus an, Adaptive Kontrast aus, Skalierung manuell angepasst, xvYCC an

Custom EVR

Recording Service auf Hardware (2) aktiv, Hardware (1) bevorzugt (RS nicht benutzen).

Kein PDVD etc installiert, MS Media Center entfernt

Bluefuzz skin inkl Skinhelper, MCE2005 und MCE Multimediakey Plugins

 

Innu

Edited by Innuendo
Link to comment

Kurzmessung ZDF HD nach ca 3h max. Wert 41Watt - meist im Bereich 35-39W

Bootzeit SSD bis Erscheinen TV Bild DVBV: 37sek - das macht Spaß, auch für Timeshift sehr angenehm.

Bild & Ton auf allen Sendern synchron, kein Sync Problem bei Fußball ARD/ZDF bei Interviews (hier war ATI sehr oft knapp daneben)

HDMI Ausgang an AV Receiver ohne störenden Tonaussetzer (bei ATI 6570 an Onkyo Receiver ca. alle 10min Tonabfall für ein Bruchteil einer Sek.)

Meinen Receiver habe ich an 5.1 neu eingemessen (Mikro) - Ausgabe AC3Filter aktuell DD ProLogic II

BR (Casino Royal) & DVD (HdR) ruckelfrei, wenn Bildoptimierer ausgeschaltet sind - Ton macht Spaß

Fußball live HD: erstaunlich gutes Bild. Kein Ruckeln, Bandenwerbung/Spielfeldlinien sehen nicht oder nur ganz schwach fransig aus. Knall rote Bandenwerbung bei Kameraschwenks über die Totale scheint immer noch etwas zu fransen.

 

Gegenüber der ATI 6570 ein etwas weniger kontraststarkes Bild. Die Optimierer Helligkeit, Kontrast etc hinterlegen Schlieren oder horizontale Linien.

Gegenüber ATI 6570 ist der Skin von Snoopydog flotter (subjektiv) - die Harmony One Signale werden (wieder subjektiv) schneller verarbeitet.

 

LAVFilter mit DVXA copyback verursachte gelegentliche Ruckler und Artefakte. Letztere waren des öfteren schwarz und bedeckten die halbe Bildfläche. DVXA erscheint mir mit VMR etwas besser zusammenzuarbeiten.

Quicksync erschient erst mit der aktuellen Treiberversion als availiable, obwohl im Intel Forum mit der aktuellen Version HTPC Probleme gemeldet wurden.

 

Innu

Link to comment

Kurzmessung ZDF HD nach ca 3h max. Wert 41Watt - meist im Bereich 35-39W

..kommt mir sehr hoch vor, das hat die Sandy HD3000 nichtmal ohne DXVA: ~26W, mit DXVA ~16-19W

 

LAVFilter mit DVXA copyback verursachte gelegentliche Ruckler und Artefakte. Letztere waren des öfteren schwarz und bedeckten die halbe Bildfläche. DVXA erscheint mir mit VMR etwas besser zusammenzuarbeiten.

Quicksync erschient erst mit der aktuellen Treiberversion als availiable, obwohl im Intel Forum mit der aktuellen Version HTPC Probleme gemeldet wurden.

DXVA2 copyback kann die Intel nicht (bzw. LAV mit Intel).

Läuft aber mit Quicksync und DXYA2 (native) gleichermaßen gut, letzteres braucht sogar weniger Watt, also probier mal DXVA2 (native).

VMR kann kein DXVA in Win7, solltest EVR nehmen.

 

Die Optimierer Helligkeit, Kontrast etc hinterlegen Schlieren oder horizontale Linien.

Auch das ist abhängig vom Gesamt-Setup, Treiber, Decoder, Renderer-Einstellungen, Aero, Energieoptionen uvam.

Bin sicher mit der Zeit wird sich vieles einspielen/bessern.

Link to comment

Desktop ohne alle Karten und natürlich ohne Monitor - da würd ich schon versuchen an ein paar Schrauben zu drehen das das besser wird, zB. Netzteil..?

 

@ Innuendo

was braucht er denn im Idle?

Edited by craig_s
Link to comment

Kurzmessung ZDF HD nach ca 3h max. Wert 41Watt - meist im Bereich 35-39W

 

Für ein Desktop System m.E. ein guter Wert. Allerdings mehr als das doppelte meines MacMini.

 

Bootzeit SSD bis Erscheinen TV Bild DVBV: 37sek - das macht Spaß, auch für Timeshift sehr angenehm.

 

Wenn die Kiste eh in Standby geht, spielt die Bootzeit ja keine große Rolle. Aber mit SSD finde ich 37 sek. eher enttäuschend. Ist natürlich davon abhängig, wieviele Services etc. gestartet werden. Einen rein als HTPC eingesetzten PC kann man da ziemlich abspecken, was sich dann auch auf die Bootzeiten auswirkt.

Link to comment

Kurzmessung ZDF HD nach ca 3h max. Wert 41Watt - meist im Bereich 35-39W

 

Hm, das erscheint mir auch recht viel. Mein neuer HTPC mit dem Llano braucht bei den 720p Sendern gerade mal etwa 30 Watt, bei SDTV ca. 24 Watt und bei 1080i etwa 35 Watt. Und der Prozessor ist ja zumindest vom TDP her nicht so sparsam.

Link to comment

Bin etwas verwundert, da ich mit 35-39W schon recht zufrieden bin. Ein Vergleich zu MacMini/Liano ist beim Thema Ivy eher uninteressant. Ob der i7 3770K nötig ist und was der i5 weniger verbraucht wäre viel interessanter.

Link to comment

Wenn die Kiste eh in Standby geht, spielt die Bootzeit ja keine große Rolle. Aber mit SSD finde ich 37 sek. eher enttäuschend. Ist natürlich davon abhängig, wieviele Services etc. gestartet werden. Einen rein als HTPC eingesetzten PC kann man da ziemlich abspecken, was sich dann auch auf die Bootzeiten auswirkt.

 

Bootzeit vom Einschalten bis zum TV Bild im DVBV, kein Standby - die ersten ca 15sek gehen für UEFI & Co "verloren". Ab Bios Post Screen bis zum W7 Desktop ca 7-10sek, DVBV zur Initialisierung auch nochmals ca 4-5sek.

Möglicherweise kann ich im Bios noch etwas verkürzen - ansonsten ist das ein sehr guter Wert.

Link to comment
Ein Vergleich zu MacMini/Liano ist beim Thema Ivy eher uninteressant

 

naja man darf schon mal über den Eigenen Tellerrand schauen zumal der Vergleich zum Llano für viele bestimmt interessant ist ;-)

Link to comment

Bin etwas verwundert, da ich mit 35-39W schon recht zufrieden bin. Ein Vergleich zu MacMini/Liano ist beim Thema Ivy eher uninteressant. Ob der i7 3770K nötig ist und was der i5 weniger verbraucht wäre viel interessanter.

 

Würde ich nicht sagen. Der Ivy Mini wird in den nächsten Monaten kommen und wohl kaum mehr Leistung ziehen als der alte. Aber der Vergleich mit einem Desktop mit großem Netzteil ist sicher unfair. Sowas würde ich mir aber auch nicht ins Wohnzimmer stellen.

Link to comment

Strommessungen beim Schaltnetzteil sind eh so ne ungenaue Sache.

Ich werde da keine Daten liefern.

 

35-40W erscheint mir mit TV-Karte, i7 und 8GB Speicher und LiveTV HD Wiedergabe auch ziemlich gut.

Edited by nuts
Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...