nuts Posted August 7, 2012 Share Posted August 7, 2012 (edited) Glaube ich auch. Mit den selektierten T Modellen lässt sich bestimmt noch bissle was rausholen. @Sound: Die Laufzeitverschiebung kann auch vom Decoder übernommen werden. AC3-Filter und FFDShow können das z.B. Klanglich werden wohl höchstens die D/A Wandler eine Rolle spielen. Was ist da mittlerweile bei den onboards verbaut? 192/24bit? Ich würde mir aber lieber einen entsprechenden AVR fürs Soundsystem zulegen und den Ton digital ausgeben. Dort gibt es schon in der Mittelklasse ausreichend gute D/A Wandler und die sonstigen Einstellungen (Lautsprecherabstand usw.) können auch gemacht werden. Edited August 7, 2012 by nuts Quote Link to comment
Tjod Posted August 7, 2012 Share Posted August 7, 2012 Etwas OT: Die Laufzeitverschiebung kann auch vom Decoder übernommen werden. AC3-Filter und FFDShow können das z.B.Klappt das immer? Also Synchronisieren die Codecs die Audio wiedergebe mit der Video wiedergebe und rechnen dann ein negativen Offset drauf und schicken das dann wieder digital raus?Ich dachte immer das die einen Festen Offset drauf rechnen was dann meist nicht bei allen Sendern passt. Quote Link to comment
nuts Posted August 7, 2012 Share Posted August 7, 2012 Ich vermute du meinst jetzt die reine Audio-Verschiebung? Die funktioniert schon, nur Sender spezifisch kann man damit natürlich nur schwer etwas ausgleichen. Snoopydog meinte glaube ich die Laufzeitkorrektur um den Abstand der Lautsprecher anzugleichen. z.B. stehen die Front-LS 3,50m vom Sitzplatz weg und die Surround-LS nur 2,00m. Das lässt sich im AC3-Filter (oder jedem neueren AVR) ausgleichen. Quasi ein DSP schon im PC! A/V Sync ist eher Aufgabe der Wiedergabesoftware (Renderer, Directshow-Clock usw. kann chinch sicher besser erklären ) Quote Link to comment
SnoopyDog Posted August 7, 2012 Share Posted August 7, 2012 (edited) Ich habe aber Oberklasse-Endstufen (vorne), die gebe ich garantiert nicht auf Mit meinem jetzigen Equipment klingt das mehr als gut. Subwoofer brauche ich nicht. Laufzeiten sind alle optimal eingestellt, (an der Soundkarte), so daß der Raumeffekt bei Filmen realistisch ist. Geht aber am eigentlichen Thema Ivy-Bridge vorbei. Also kauf ich doch ein ATX-Board, ggf. mit etwas dezenterem Gehäuse. Bezüglich der CPU hab ich mich von CiNcH (und meinen Internet-Recherchen) überzeugen lassen Weiß einer etwas bezüglich Geschwindigkeit des BIOS P.O.S.T.? Ich bin (wie schon geschrieben) von meinen derzeitigen Intel-Boards mit 55er Chipsatz etwas genervt in dieser Beziehung. Edited August 7, 2012 by SnoopyDog Quote Link to comment
nuts Posted August 7, 2012 Share Posted August 7, 2012 Ok jetzt wirds echt OT, aber das interessiert mich noch: Kannst du die mit der Soundkarte überhaupt voll aussteuern? Ohne Vorverstärker? Eine Mittelklasse AVR hat ja auch Preouts für die Endstufen. Ob die Entfernung im Soundkartentreiber, im Decoder oder im AVR eingestellt dürfte keinen Unterschied machen. Das erfolgt alles digital und dürfte nichts magisches sein. Quote Link to comment
nuts Posted August 7, 2012 Share Posted August 7, 2012 Weiß einer etwas bezüglich Geschwindigkeit des BIOS P.O.S.T.? Ich bin (wie schon geschrieben) von meinen derzeitigen Intel-Boards mit 55er Chipsatz etwas genervt in dieser Beziehung. Wieder zum Thema: MSI ist diesbezüglich sehr schnell. Zumindest bei allen Boards die ich bis jetzt verbaut habe. Quote Link to comment
SnoopyDog Posted August 7, 2012 Share Posted August 7, 2012 (edited) Die Lautstärke paßt schon. Kann bei mp3-Wiedergabe Party-Lautstärke erzeugen. Ich habe auch nur EINE Fernbedienung für alles, Einschalten tu ich mit dem normalen Power-Button (es geht da erstmal nur der Center an), beim Ausschalten werden alle Endstufen und Vorverstärker, welche grad laufen, abgeschaltet - natürlich bevor der HTPC im Hibernate angekommen ist. Standby-Verbrauch: HTPC: 0.8 Watt / TV: 0.3 Watt / Endstufen etc: 0.0 Watt. Aber wieder zurück zur Ivy-Bridge Schade, daß es noch keine Tests/Erfahrungen mit den i3er CPUs gibt. Und wieso hält Intel die so lange zurück? Strategie oder haben sie doch noch Fehler entdeckt? Mein jetziger HTPC verbraucht im Betrieb beim TV-Schauen 56-60 Watt und bei Blu-Ray 60-64 Watt mit ATI 5570 und i3-530. Ich denke mal, mit Intel HD / Ivy-Bridge kann man das deutlich unterbieten. Wieder zum Thema: MSI ist diesbezüglich sehr schnell. Zumindest bei allen Boards die ich bis jetzt verbaut habe. Danke, das ist nämlich für mich auch ein wesentliches Auswahlkriterium. Edited August 7, 2012 by SnoopyDog Quote Link to comment
naviator Posted August 7, 2012 Share Posted August 7, 2012 bezüglich des 3770T: Seid Ihr Euch sicher, dass ein 3770k mehr als 45W verbraucht, wenn man Ihn auf 4x2,5GHz beschränkt? Oder wird die maximale TDP von 45W nur durch die Begrenzung darauf erreicht und so ein QuadCore mit HT für spezielle, kleine Kühlung ermöglicht? Weil, günstig ist der ja nicht gerade.... Quote Link to comment
CiNcH Posted August 8, 2012 Author Share Posted August 8, 2012 Seid Ihr Euch sicher, dass ein 3770k mehr als 45W verbraucht, wenn man Ihn auf 4x2,5GHz beschränkt? Mehr? Die Frage versteh ich nicht. 45W braucht der Prozessor, wenn du ihn bei Standardtakt (also 2.5GHz) voll auslastest (sämtliche Kerne). Vom Turbo profitieren hauptsächlich rechenintensive Single-Threaded Applikationen. Schlafen die anderen Kerne, kann man den einen arbeitenden Kern höher takten, ohne die TDP zu überschreiten. Oder wird die maximale TDP von 45W nur durch die Begrenzung darauf erreicht und so ein QuadCore mit HT für spezielle, kleine Kühlung ermöglicht? Wenn du mehr Takt drauf knallst, wird die TDP bestimmt steigen, wenn du die Kerne auslastest. Schade, daß es noch keine Tests/Erfahrungen mit den i3er CPUs gibt. Und wieso hält Intel die so lange zurück? Strategie oder haben sie doch noch Fehler entdeckt? Weil die erstmal alle in den mobilen Markt gehen. Desktop ist zweitrangig. Quote Link to comment
CiNcH Posted August 8, 2012 Author Share Posted August 8, 2012 Hier gibt es noch was zum POST. Am besten gleich mal alles abschalten, was nicht benötigt wird... Quote Link to comment
nuts Posted August 8, 2012 Share Posted August 8, 2012 Der i7-3770T ist jetzt übrigens wirklich verfügbar. Und schon um 10€ im Preis gefallen. Glaub ich will den. Quote Link to comment
CiNcH Posted August 8, 2012 Author Share Posted August 8, 2012 Folgendes finde ich mal interessant: Andrew told me that he had the 'production BIOS', and he even linked me to one image where he captured the '23.976' refresh rate: (Full credit goes to Andrew (babgvant) @ MissingRemote) Unfortunately, it is not that stable apparently as the locking to 23.973 fps playback rate indicates. (I am yet to get Asus's version of the 'fixed BIOS' for my testbed). As I wrote in a response to one of the comments on my review, if they get it between 23.974 and 23.978 and average out to 23.976, it will just end up like most of the other AMD and NVIDIA cards. Da sieht man, dass die Refresh Rate nun schön bei 23.976 ist. Die Frame Rate im DS-Graph ist aber 23.973. Das sieht schwer nach meiner Theorie aus. Die haben da ein paar unsichtbare Zeilen reingepfuscht, aber das tatsächliche Problem, sprich die falsch gehende Clock, kann man nicht fixen. Das Problem, was vorher keines war, weil Frame und Refresh Rate gleich waren, wurde nun erst zu einem gemacht. Auf folgendem Bild sieht man, dass die Refresh Rate zwar 23.973 ist, die Wiedergabe bzw. Frame Rate im DS-Graph aber auch. Somit sollte da alles ruckelfrei sein: Da hat AnandTech meiner Meinung nach eine riesige Scheiße angerichtet. Und Intel hat die Wurzel des Problems auch noch nicht verstanden, sprich wie die Wiedergabe im DirectShow-Graph funktioniert. Am besten ist es wohl eine Custom Resolution mit Standard Porch zu erstellen und somit den "Fix" hoffentlich rückgängig zu machen. Der EVR Sync Renderer mit aktivierter PowerStrip Funktion macht nichts anderes, als die Diskrepanz zwischen Frame und Refresh Rate zu beobachten. Driften diese beiden, werden die unsichtbaren Zeilen adaptiv angepasst. Somit laufen beide parallel und es kommt zu keinem Überlauf mehr. Einfach nur auf Grund der Tatsache anpassen, weil die Refresh Rate keine exakten 23.976 sind, ist in den meisten Fällen keine gute Idee. Man macht es dann erst zu einem Problem, wenn auch die Wiedergabe im DS-Graph an der falschen Uhr hängt. VSync's sind dann zwar genauer, der Drift relativ zu den Frame-Timestamps wird aber größer. Und genau das ist das Problem. Bei heutigen Systemen mit HDMI ist es der Fall, dass alles auf einer Clock basiert und somit der Drift vermieden wird. Dieser "Fix" macht ein perfekt synchronisiertes System mit nur einer Clock, auf das wir schon lange warten, wieder kaputt. Man muss wieder zu ReClock greifen. Wird eine separate Audio-Clock (Soundkarte) für die Wiedergabe im DS-Graph verwendet, wird man nur mit Glück eine Verbesserung durch den "Fix" herbeiführen, je nachdem wie groß die Diskrepanz zwischen Frame Rate (basierend auf Audio-Clock) und Refresh Rate vor und nach dem "Fix" ist. Gegen diese Volksverblödung muss man doch was unternehmen!! Quote Link to comment
nuts Posted August 8, 2012 Share Posted August 8, 2012 (edited) Nur nochmal als Einwurf: Beim Encodieren bekommen die Mediafiles einen Zeitstempel. Bei Blurays gehen wir jetzt mal von genauen 23,976hz aus. Daraufhin gibt es eine bestimmte Abspielgeschwindigkeit für die Audiowiedergabe und an die muss man sich zwingend halten oder (!) an der (Audio-)Abspielgeschwindigkeit drehen (geht nicht bei bitstream-Ausgabe!). D.h. die "23hz" Einstellung sollte einen VSync produzieren der dem Bluray-Encoderzeitstempel entspricht, d.h. 23,976hz! Nun kann man rausrendern (DS-Clock setzt doch die Wiedergabesoftware?) und sich an den VSync hängen (nie ruckler, aber ggf. kein A/V Sync) oder man hängt sich an die Audio-Abspielgeschwindigkeit (ggf. Ruckler aber immer A/V Sync). Was ich damit sagen will: Stur mit 23,973 (=VSync-Clock) zu rendern wird nicht helfen. Was Intel da versucht erscheint mir allerdings auch etwas hilflos. Dritte Option - gerade für Streaming-Umgebungen interessant - wäre den VSync adaptiv zu verschieden. Edited August 8, 2012 by nuts Quote Link to comment
CiNcH Posted August 8, 2012 Author Share Posted August 8, 2012 D.h. die "23hz" Einstellung sollte einen VSync produzieren der dem Bluray-Encoderzeitstempel entspricht, d.h. 23,976hz! Die Zeitstempel werden bei der Wiedergabe auf die DS-Clock umgerechnet. Läuft die DS-Clock etwas schneller als die des Encoders, ist halt die Wiedergabe etwas schneller, spielt aber keine Rolle. Wichtig ist lediglich der Bezug zwischen DS- bzw. Wiedergabe-Clock und VSync-Clock. Nun kann man rausrendern (DS-Clock setzt doch die Wiedergabesoftware?) und sich an den VSync hängen (nie ruckler, aber ggf. kein A/V Sync) oder man hängt sich an die Audio-Abspielgeschwindigkeit (ggf. Ruckler aber immer A/V Sync). Verwendet man HDMI für die Audio-Ausgabe, hat man eine einzige Clock für DS/Wiedergabe, Video-Ausgabe (VSync) und Audio-Ausgabe. Verändert man nun das VSync-Interval durch Hinzufügen oder Entfernen von Zeilen, entspricht es nicht mehr dem Frame-Interval im DS-Graph. Die Zauberformel ist immer noch HDMI für alles (sprich Wiedergabe/Verarbeitung und A/V-Ausgabe) mit gemeinsamer Clock. Geht die Clock gerningfügig falsch, läuft eben alles geringfügig falsch, im Bereich von 0.003 Hz bei Intel. Ruckeln wird da nichts. Verändert man das VSync-Interval, muss man nachregeln, um die Diskrepanz zwischen Frame-Zeitstempeln (basierend auf DS-Clock) und VSync auszugleichen (Frames verdoppeln oder verwerfen), weil die Wiedergabe und Ausgabe nun mit unterschiedlicher Geschwindigkeit laufen. Quote Link to comment
nuts Posted August 8, 2012 Share Posted August 8, 2012 Bei Gelegenheit musst du mir das nochmal im Detail erklären. Ich meine aber du hast hier einen Denkfehler (oder ich eben): Die Zeitstempel werden bei der Wiedergabe auf die DS-Clock umgerechnet. Läuft die DS-Clock etwas schneller als die des Encoders, ist halt die Wiedergabe etwas schneller, spielt aber keine Rolle. Wichtig ist lediglich der Bezug zwischen DS- bzw. Wiedergabe-Clock und VSync-Clock. DS-Clock kann sich eigentlich nur an den Zeitstempel (wegen Audio + bitstream) heften. Bei der Bitstream-Ausgabe geht es nicht 0,x% schneller oder langsamer (in der Streaming-Umgebung ja auch nicht) VSync (Videoausgabe) hat doch keine "natürliche" Relation zur DS-Clock wegen der Hdmi-Ausgabe? Wie soll das auch gehen? z.B. bei 60hz Ausgabe und 50hz Quelle? Dabei geht es immer nach der Quelle (DS-Clock), da alles andere fatale Auswirkungen hätte. Das es dann ruckelt ist auch klar. Das gleiche haben wir hier in klein mit 23,976 Quelle und 23,###### Ausgabe. Quote Link to comment
CiNcH Posted August 8, 2012 Author Share Posted August 8, 2012 Bei der Bitstream-Ausgabe geht es nicht 0,x% schneller oder langsamer (in der Streaming-Umgebung ja auch nicht) Die Bitstream-Ausgabe basiert auf derselben Clock wie die Timestamp-Generierung im DS-Graph bei Ivy Bridge mit HDMI-Audio. Die Clock bestimmt die Geschwindigkeit bei Bitstream-Ausgabe. Bei AC3 werden das auch keine exakten 384kbps sein. VSync (Videoausgabe) hat doch keine "natürliche" Relation zur DS-Clock wegen der Hdmi-Ausgabe? Bitstream-Ausgabe, VSync und DS-Clock zur Timestamp-Generierung basieren bei Ivy Bridge (oder auch AMD und nVIDIA GPU's) mit HDMI auf demselben Quartz, sprich derselben Uhr mit derselben Geschwindigkeit. Quote Link to comment
CiNcH Posted August 9, 2012 Author Share Posted August 9, 2012 Ich hab hier mal was zu dieser Geschichte zusammengeschrieben. Quote Link to comment
rmo Posted August 9, 2012 Share Posted August 9, 2012 Was macht dich so sicher, dass die Ausgabe über HDMI für Audio und Video die gleiche Clock verwendet? Wenn ich Video über meine Asus Xonar Soundkarte an den TV ausgebe, dann kommt Audio von der Soundkarte und Video von der Grafikkarte. Bild und Ton werden also über HDMI ausgegeben, benutzen aber unterschiedliche Taktgeber. Und warum sollte das bei Grafikkarten mit Soundchip anders sein? Quote Link to comment
CiNcH Posted August 9, 2012 Author Share Posted August 9, 2012 Was macht dich so sicher, dass die Ausgabe über HDMI für Audio und Video die gleiche Clock verwendet? Ich habe das mit einer Radeon HD 6570 mit HDMI-Audio-Ausgabe getestet. Da habe ich einen Graph gebaut mit Audio Clock als Referenz. Im Renderer habe ich dann Frame-Timestamps und VSync-Zeitpunkte aufgezeichnet bzw. verglichen. Diese sind zueinander nicht mehr gedriftet. Quote Link to comment
nuts Posted August 9, 2012 Share Posted August 9, 2012 (edited) Nevcairiel schließt sich meinen Ausführungen an (würde ich mal sagen). Edited August 9, 2012 by nuts Quote Link to comment
nuts Posted August 9, 2012 Share Posted August 9, 2012 Die 35W/45W mit HD2500 sind jetzt auch verfügbar: http://geizhals.at/de/?cat=cpu1155&xf=4_45~1453_HD+Graphics+2500#xf_top wird doch langsam Quote Link to comment
craig_s Posted August 9, 2012 Share Posted August 9, 2012 (edited) Hey CiNcH so wie ich die Sache sehe ist das OSD vom EVR nicht immer so klar definiert. - gerade der "Refresh rate: 23.xxxxx" zeigt mit versch. Decodern untersch. Verhalten, zB. LAV permanent stark schwankend zw. 23.96x-23.98x, MS bleibt meistens näher bei 23.976x-978x, alle haben regelmäßig Phasen mit 23.2x-24.5x und gelegentlich hängt sich Refresh rate: bei ~500.xxxxx auf... -> die Screenshots zeigen immer nur was da gerade wärend 1 Frame stand. Ich behaupte mal die Fotografen schießen gerne dann das Foto wenn die zahl grade kurz nahe bei 23.976xx um nicht zuviel "Verwirrung" zu stiften... Mußt halt selber mal probieren. Dann die Aussage von Nevcairiel "Refresh rate: is a combination of TV and graphics card, the refresh rate your screen runs at, influenced by both your GPU and your TV." deckt sich mit meiner Beobachtung das der TV bzw. dessen abilities in den ganzen ich sag mal "Einschwingprozess" auch noch mit einfließt. Also riesen Unterschied ob da ein "einfacher" 23Hz fähiger Monitor mitrechnet oder ein 120Hz TV mit riesen Puffer und "Motion plus" o.ä. Nächste Beobachtung - selbst das EVR OSD selbst (zugeschaltet oder ohne) kann das Ergebnis beeinflussen! Kann ich mit meinem 23.976-slices sehen, teilw. andere Sprünge des Tickers mit und ohne. Wärend aktivem EVR OSD ist das ganze zudem so empfindlich dass geringe Einflüsse wie ein Tastendruck oder ein Hintergrundprozess (zB. mit der Maus langsam über ein Desktop-Icon gleiten) schon Sprünge und Neuberechnungen auslösen können. Also nicht wirklich geeignet um empirische Daten zu sammeln. Das einzige worauf man sich bombensicher verlassen kann - je weiter der erste "Frame rate"-Wert weg von 23.976 desto steiler der Anstieg/Abfall der grünen Linie und die damit verbundenen Drops/Repeats, das klappt immer, Decoder egal, HW/SW decoding egal, Monitor allerdings nicht egal, der hat großen Einfluss. Selbst der EVR Sync (mit dessen Anpassungen hab ich mich aber noch nicht beschäftigt) - er zeigt per default zwar keinen Anstieg/Abfall mehr aber die Drops/Repeats kommen trotzdem im gleichen Takt wie mit EVR CP. madVR/ReClock ändert daran auch nichts. Edit: ReClock ändert natürlich viel da es die Audio/Videogeschwindigkeit passend zur aktuellen (ungenauen) Framerate die die Grafikkarte tatsächlich gerade kann ändert. Die Renderer orientieren sich strikt daran und so gibt es idR., wenn sonst alles stimmt, keine Drops/Repeats mehr. Der Irrtum kam zustande weil ich auf einer Sandy HD3000 testete die unabhängig von ReClock Drops/Repeats verursachte. Edited August 27, 2012 by craig_s Quote Link to comment
Innuendo Posted August 10, 2012 Share Posted August 10, 2012 Sehr interessantes Forum! Danke an CiNcH & Co für die vielen Infos. Eigentlich bin ich mit meiner kleinen Heizung AMD Phenon 9550 + 6570 zufrieden (Kurzmessung ZDF HD 136Watt bei 5-8% CPU) und umgehe seit längerem den Aufwand Neuinstallation mit neuer Hardware. Ich werde am Wochenende mit GA-Z77-DS3H i7 3770K in das Thema Ivy HD4000 einsteigen. Innu Quote Link to comment
nuts Posted August 10, 2012 Share Posted August 10, 2012 1 Taktgeber (hdmi Ausgabe – theoretisch): JitterX = Abweichung aufgrund des Taktgebers Video-Clock (VSync)= Eingestellte Wiederholungsfrequenz + JitterX Audio-Clock = Zeitstempel des Encoders + JitterX Directshow-Clock = Audio Clock =>kein langsames auseinanderdriften, da JitterX gleich groß ist! Aber: ggf. konstante Abweichung zwischen Video-Clock und Directshow-Clock sollte die Video-Clock nicht synchron zur Directshow-Clock laufen (z.B. 60hz Ausgabe bei 50hz Quelle oder Intel 24p Bug). 2 Taktgeber (z.B. onboard Sound): JitterX = Abweichung aufgrund des Videotaktgebers JitterY = Abweichung aufgrund des Audiotaktgebers Video-Clock (VSync)= Eingestellte Wiederholungsfrequenz + JitterX Audio-Clock= Zeitstempel des Encoders + JitterY Directshow-Clock= Audio Clock => auseinanderdriften Delta JitterX JitterY Die konstante Abweichung kommt noch hinzu wenn die Video-Clock nicht synchron zur Directshow-Clock läuft. Reclock-Ansatz (2 Taktgeber): JitterX= Abweichung aufgrund des Videotaktgebers JitterY= Abweichung aufgrund des Audiotaktgebers Video-Clock (VSync)= Eingestellte Wiederholungsfrequenz + JitterX FaktorZ=Differenz zwsichen Video-Clock und Audio-Clock Audio-Clock= (Zeitstempel des Encoder + JitterY) * FaktorZ Es wird also die Audio-Clock quasi mit der Video-clock überschrieben. Dadurch ändert sich die Audio-Abspielgeschwindigkeit. Das geht logischerweise nur wenn Audi-Clock und Video-Clock relativ nahe beieinander liegen und auch nur bei der PCM-Ausgabe. => perfekt in Sync. Keine Ruckler, kein A/V-Drift So läuft das nach meiner Vorstellung ab. Im anschließenden Schritt muss man sich jetzt Gedanken machen wie man mit den Abweichungen umgehen will. Auf der Audioseite (drops/repeates oder speedup/speeddown), auf der Videoseite (Ruckler möglichst minimieren). Am VSync drehen falls möglich? Quote Link to comment
craig_s Posted August 10, 2012 Share Posted August 10, 2012 (edited) Ich hab mit 23.976-Käsescheibchen bis jetzt keinerlei Audiodrift >Anfang bis Ende< ausmachen können obwohl ich damit 50ms schon erkennen könnte. Egal ob ich die Sandy HD3000 auf 23 oder 24 Hz stelle oder höhere Frequenzen, dann icl. Ruckelorgie. - über HDMI an Denon AVR (AC3 Bitstreaming) dahinter hängt ebenfalls über HDMI der TV. - MPC-HC mit EVR CP, egal ob LAV, MPC, MS, PDVD decoder (Aero aus). Dann ein 100 min 23.976 m2ts mit 24Hz über HD3000 abgespielt, war am Ende auch 1a Lippensynchron (auch MPC-HC mit EVR CP, DTS-HD MA). Also Leuts, solange ich in der praxis nix sehen kann bleibt das mit der Audiodrift für mich leider alles graue Theorie Edited August 10, 2012 by craig_s Quote Link to comment
CiNcH Posted August 14, 2012 Author Share Posted August 14, 2012 Hier gibt es noch eine interessante Lektüre zur Intel Fixed Function Hardware. Quote Link to comment
nuts Posted August 22, 2012 Share Posted August 22, 2012 (edited) Ich hab mir jetzt mal einen kleinen Ivy-Bridge bestellt. Sollte bis zum WE ankommen. Nächste Woche hab ich Urlaub und kann etwas testen. 1 x Intel Core i5-3470T, 2x 2.90GHz, tray (CM8063701159502) 1 x Corsair Vengeance Low Profile blau DIMM Kit 4GB PC3-12800U CL9-9-9-24 (DDR3-1600) (CML4GX3M2A1600C9B) 1 x ASRock Z77E-ITX, Z77 (Sockel-1155, dual PC3-12800U DDR3) 1 x Arctic Cooling Freezer i30 (Sockel 1155/1156/2011) Edited August 23, 2012 by nuts Quote Link to comment
Innuendo Posted August 22, 2012 Share Posted August 22, 2012 (edited) Wäre prima, wenn Du Deine Tests mit den entsprechenden Settings postest. Mein Ivy: i7, 8GB 1600, GA-Z77-DS3H, DD Cine Lav 0.51.3, Quicksync, RGB untouched AC3 2.5b Intel HD4000, 1920x1080 50p 16bit, Treiber 8.15.10.2761, alle Optimierer auf Anwndungseinstellungen, Filmmodus an, Adaptive Kontrast aus, Skalierung manuell angepasst, xvYCC an Custom EVR Recording Service auf Hardware (2) aktiv, Hardware (1) bevorzugt (RS nicht benutzen). Kein PDVD etc installiert, MS Media Center entfernt Bluefuzz skin inkl Skinhelper, MCE2005 und MCE Multimediakey Plugins Innu Edited August 22, 2012 by Innuendo Quote Link to comment
CiNcH Posted August 23, 2012 Author Share Posted August 23, 2012 Na da bin ich ja gespannt wie ein Regenschirm... Quote Link to comment
Innuendo Posted August 23, 2012 Share Posted August 23, 2012 Kurzmessung ZDF HD nach ca 3h max. Wert 41Watt - meist im Bereich 35-39W Bootzeit SSD bis Erscheinen TV Bild DVBV: 37sek - das macht Spaß, auch für Timeshift sehr angenehm. Bild & Ton auf allen Sendern synchron, kein Sync Problem bei Fußball ARD/ZDF bei Interviews (hier war ATI sehr oft knapp daneben) HDMI Ausgang an AV Receiver ohne störenden Tonaussetzer (bei ATI 6570 an Onkyo Receiver ca. alle 10min Tonabfall für ein Bruchteil einer Sek.) Meinen Receiver habe ich an 5.1 neu eingemessen (Mikro) - Ausgabe AC3Filter aktuell DD ProLogic II BR (Casino Royal) & DVD (HdR) ruckelfrei, wenn Bildoptimierer ausgeschaltet sind - Ton macht Spaß Fußball live HD: erstaunlich gutes Bild. Kein Ruckeln, Bandenwerbung/Spielfeldlinien sehen nicht oder nur ganz schwach fransig aus. Knall rote Bandenwerbung bei Kameraschwenks über die Totale scheint immer noch etwas zu fransen. Gegenüber der ATI 6570 ein etwas weniger kontraststarkes Bild. Die Optimierer Helligkeit, Kontrast etc hinterlegen Schlieren oder horizontale Linien. Gegenüber ATI 6570 ist der Skin von Snoopydog flotter (subjektiv) - die Harmony One Signale werden (wieder subjektiv) schneller verarbeitet. LAVFilter mit DVXA copyback verursachte gelegentliche Ruckler und Artefakte. Letztere waren des öfteren schwarz und bedeckten die halbe Bildfläche. DVXA erscheint mir mit VMR etwas besser zusammenzuarbeiten. Quicksync erschient erst mit der aktuellen Treiberversion als availiable, obwohl im Intel Forum mit der aktuellen Version HTPC Probleme gemeldet wurden. Innu Quote Link to comment
craig_s Posted August 23, 2012 Share Posted August 23, 2012 Kurzmessung ZDF HD nach ca 3h max. Wert 41Watt - meist im Bereich 35-39W ..kommt mir sehr hoch vor, das hat die Sandy HD3000 nichtmal ohne DXVA: ~26W, mit DXVA ~16-19W LAVFilter mit DVXA copyback verursachte gelegentliche Ruckler und Artefakte. Letztere waren des öfteren schwarz und bedeckten die halbe Bildfläche. DVXA erscheint mir mit VMR etwas besser zusammenzuarbeiten.Quicksync erschient erst mit der aktuellen Treiberversion als availiable, obwohl im Intel Forum mit der aktuellen Version HTPC Probleme gemeldet wurden. DXVA2 copyback kann die Intel nicht (bzw. LAV mit Intel).Läuft aber mit Quicksync und DXYA2 (native) gleichermaßen gut, letzteres braucht sogar weniger Watt, also probier mal DXVA2 (native). VMR kann kein DXVA in Win7, solltest EVR nehmen. Die Optimierer Helligkeit, Kontrast etc hinterlegen Schlieren oder horizontale Linien. Auch das ist abhängig vom Gesamt-Setup, Treiber, Decoder, Renderer-Einstellungen, Aero, Energieoptionen uvam.Bin sicher mit der Zeit wird sich vieles einspielen/bessern. Quote Link to comment
VinoRosso Posted August 23, 2012 Share Posted August 23, 2012 ..kommt mir sehr hoch vor, das hat die Sandy HD3000 nichtmal ohne DXVA: ~26W, mit DXVA ~16-19W Hast du nicht mit nem Laptop den Verbrauch gemessen? Das ist doch nicht vergleichbar mit nem Desktop System.... Quote Link to comment
craig_s Posted August 23, 2012 Share Posted August 23, 2012 (edited) Desktop ohne alle Karten und natürlich ohne Monitor - da würd ich schon versuchen an ein paar Schrauben zu drehen das das besser wird, zB. Netzteil..? @ Innuendo was braucht er denn im Idle? Edited August 23, 2012 by craig_s Quote Link to comment
dbraner Posted August 23, 2012 Share Posted August 23, 2012 Kurzmessung ZDF HD nach ca 3h max. Wert 41Watt - meist im Bereich 35-39W Für ein Desktop System m.E. ein guter Wert. Allerdings mehr als das doppelte meines MacMini. Bootzeit SSD bis Erscheinen TV Bild DVBV: 37sek - das macht Spaß, auch für Timeshift sehr angenehm. Wenn die Kiste eh in Standby geht, spielt die Bootzeit ja keine große Rolle. Aber mit SSD finde ich 37 sek. eher enttäuschend. Ist natürlich davon abhängig, wieviele Services etc. gestartet werden. Einen rein als HTPC eingesetzten PC kann man da ziemlich abspecken, was sich dann auch auf die Bootzeiten auswirkt. Quote Link to comment
SupaChris Posted August 23, 2012 Share Posted August 23, 2012 Kurzmessung ZDF HD nach ca 3h max. Wert 41Watt - meist im Bereich 35-39W Hm, das erscheint mir auch recht viel. Mein neuer HTPC mit dem Llano braucht bei den 720p Sendern gerade mal etwa 30 Watt, bei SDTV ca. 24 Watt und bei 1080i etwa 35 Watt. Und der Prozessor ist ja zumindest vom TDP her nicht so sparsam. Quote Link to comment
Innuendo Posted August 23, 2012 Share Posted August 23, 2012 Bin etwas verwundert, da ich mit 35-39W schon recht zufrieden bin. Ein Vergleich zu MacMini/Liano ist beim Thema Ivy eher uninteressant. Ob der i7 3770K nötig ist und was der i5 weniger verbraucht wäre viel interessanter. Quote Link to comment
Innuendo Posted August 23, 2012 Share Posted August 23, 2012 Wenn die Kiste eh in Standby geht, spielt die Bootzeit ja keine große Rolle. Aber mit SSD finde ich 37 sek. eher enttäuschend. Ist natürlich davon abhängig, wieviele Services etc. gestartet werden. Einen rein als HTPC eingesetzten PC kann man da ziemlich abspecken, was sich dann auch auf die Bootzeiten auswirkt. Bootzeit vom Einschalten bis zum TV Bild im DVBV, kein Standby - die ersten ca 15sek gehen für UEFI & Co "verloren". Ab Bios Post Screen bis zum W7 Desktop ca 7-10sek, DVBV zur Initialisierung auch nochmals ca 4-5sek. Möglicherweise kann ich im Bios noch etwas verkürzen - ansonsten ist das ein sehr guter Wert. Quote Link to comment
BALOU Posted August 23, 2012 Share Posted August 23, 2012 Ein Vergleich zu MacMini/Liano ist beim Thema Ivy eher uninteressant naja man darf schon mal über den Eigenen Tellerrand schauen zumal der Vergleich zum Llano für viele bestimmt interessant ist ;-) Quote Link to comment
dbraner Posted August 23, 2012 Share Posted August 23, 2012 Bin etwas verwundert, da ich mit 35-39W schon recht zufrieden bin. Ein Vergleich zu MacMini/Liano ist beim Thema Ivy eher uninteressant. Ob der i7 3770K nötig ist und was der i5 weniger verbraucht wäre viel interessanter. Würde ich nicht sagen. Der Ivy Mini wird in den nächsten Monaten kommen und wohl kaum mehr Leistung ziehen als der alte. Aber der Vergleich mit einem Desktop mit großem Netzteil ist sicher unfair. Sowas würde ich mir aber auch nicht ins Wohnzimmer stellen. Quote Link to comment
nuts Posted August 23, 2012 Share Posted August 23, 2012 (edited) Strommessungen beim Schaltnetzteil sind eh so ne ungenaue Sache. Ich werde da keine Daten liefern. 35-40W erscheint mir mit TV-Karte, i7 und 8GB Speicher und LiveTV HD Wiedergabe auch ziemlich gut. Edited August 23, 2012 by nuts Quote Link to comment
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.