Jump to content

NUC I5 mit HD6000 und einem 4k-Monitor


duddsig

Recommended Posts

Die Intel NUC -Mini PC's werden seit Haswell und massiv seit Broadwell als 4k-tauglich verkauft: "Supports displays up to 4k ultra high definition viewing". Das heißt letztendlich wohl nur, daß derartige Displays damit betrieben werden können. In Wirklichkeit ist schon das Anzeigen von Tooltipps wie z.B. das sich eigentlich langsam einblendende EPG, wenn man auf der Senderliste mit der Maus über einen Sender fährt etwas hakelig, sogar im Fenstermodus. Das trifft auch auf das einfache scrollen eines Textes zu wie hier im Forum z.B..

Da ich mir nun so einen 4k-Monitor zugelegt habe, wollte ich natürlich auch wissen wie es denn mit dem DVBV so funktioniert.

TV-Betrieb geht zwar prinzipiell, aber hier gilt es wieder die richtigen Kombinationen und Einstellungen in der Directshow-Kette zu finden. Habe momentan auf meinem NUC (Broadwell I5, HD6000) LAV 0.66, PDVD14 und den WIN7/MS-Codec installiert.
Was gar nicht funktioniert ist Deinterlacing, zumindest nicht mit DXVA. Bei H264 und sogar bei Mpeg2 sind übelst ausgefranste Zeilen zu sehen und das Bild ruckelt.Von HEVC will ich am liebsten gar nicht erst reden. Mit dem LAV bei HEVC(4k) hängt der DVBV mit beiden DXVA2-Modi (auch bei einem 2k Monitor). Bei Intel Qicksync ist HEVC ausgegraut, die Wiedergabe ist gähnend langsam mit Bildfehlern und Rucklern versehen. Mit PDVD14 habe ich nur ein Schwarzbild, hier ging mit einem 2k-Monitor noch ein bischen was.

Will jetzt mal noch aufzählen welche Modi wie funktionieren:

SD funktioniert mit PDVD14 und dem MS-Decoder von Win7 gar nicht. Ich benutze LAV ohne DXVA wegen Deinterlacingproblemen, trotzdem hat die Grafikkarte noch genügend zu tun.

Bei Vollbild ist SD auf dem 28-zölligem 4K-Monitor nur mit Abstand zu genießen. Im (kleinen) Fenster aber ok.

Bei H264 benutze ich den PDVD14 ebenfalls ohne DXVA, da ebenfalls Probleme beim Deinterlacing auftraten. Das Bild ist bei 1080i allerdings sehr schön und die Prozessorlast und die der Graka hält sich in Grenzen. Bei 720p ist das Bild zwar auch sehr schön, aber Prozessor und vor allem Graka schuften erheblich mehr, so daß der Lüfter hörbar wird?! Bei LAV blieben die Ausfransungen auch mit abgeschalteten DXVA erhalten und es ruckelte etwas mehr. Der MS-Decoder ging hier gar nicht.

Für HD ist der 4k Monitor auf jeden Fall ein Gewinn, das Bild ist fantastisch, allerdings leider etwas Mikrorucklern behaftet.

Damit ich mir auch mal etwas in 4k ansehen kann habe ich mir ein paar Demos in H264 gezogen. Hier geht wiederum der LAV mit DXVA2n am besten. Das läuft relativ flüssig und belastet das system weniger als 720p?!

Diese Ergebnisse dürften dann auch für alle zutreffen, die Ultrabooks mit gleichem Prozessor und Graka ihr eigen nennen dürfen und einen 4k-Monitor anschließen möchten.

Hier noch die Sytemauslastungen in graphischer Form für die benutzten Modi im Vollbild.

 

 

SD mit LAV ohne DXVA

1EZW9No.jpg

 

720p PDVD14 ohne DXVA

xjaSCPh.jpg

 

1080i PDVD14 ohne DXVA

5ssL0lU.jpg

 

4k h264 mit 100Mbit/s Video LAV DXVA2 Native

2Q4fyag.jpg

 

Idle

HDXHEck.jpg

 

Weitergehende Hinweise und Empfehlungensind natürlich erwünscht....

Link to comment

Bei HEVC ist der Schuldige schnell gefunden: Die Nasen von Intel haben dem Skylake nur einen vollen GPU Decoder für 8bit gegeben.

 

Wieso mpeg2/h.264 solche Probleme macht ist aber etwas komisch.

Link to comment

Na ja das Intel und 4k (noch) keine gute Hochzeit ist war doch bekannt? Wenn überhaupt dann nur mit massiv fetter CPU die "einfach alles wegsteckt"...

 

Deine Berichte haben mich an meine 4k Anfänge erinnert die mit Intel ganz ähnlich ausgesehen haben (HEVC-Thread hier).

Das mit PDVD schwarz usw. habe ich dort später auch beschrieben, MPEG-2 geht nur bis höchstens PDVD12.

 

Schlechtes Deinterlacing und mangelndes DXVA kann nicht alleine an 4k liegen, da klappt was mit den Filtern nicht. Viel probieren mit untersch. Playern dabei lernt man viel.

zB. MPC-HC alle Filter intern, Ausgabe 100%, also im Fenster/unskaliert kann es nicht?

Wenn du 4k im Verdacht hast schalte den Grafik-Output einfach probeweise auf 1920*1080 dann müsste ja alles wie gewohnt gehen? Die Übung mache ich öfters.

 

Bei Vollbild ist SD auf dem 28-zölligem 4K-Monitor nur mit Abstand zu genießen. Im (kleinen) Fenster aber ok.

 

Ah endlich eine Bestätigung :) Dem Kapitel sind im HEVC Thread viele Posts icl. Bilder gewidmet.

 

HEVC 10-bit bis 60Hz kann derzeit nur Nvidia GTX950/960.

Wenn der Broadwell DisplayPort 1.2 kann hast du immerhin schöne 3840*2160@60Hz Unterstützung, das hatte ich damals auf Haswell nicht. Sobald es über 30Hz hinausgeht ziehen auch die GPU's die das unterstützen in dieser frühen Entwicklungsphase allerlei trickreiche Register, das kann zB. Einschränkungen in der Bittiefe zur Folge haben.

 

Erfahrungsgemäß ist Intel bei GPU-Entwicklung ein bisschen langsam. Kann gerne mal über ein Jahr gehen. Allerdings mit 4k jetzt international im Zugzwang..?

Soweit erstmal mein Senf dazu, in ungeordneter Reihenfolge.

Edited by craig_s
Link to comment

Na ja das Intel und 4k (noch) keine gute Hochzeit ist war doch bekannt? Wenn überhaupt dann nur mit massiv fetter CPU die "einfach alles wegsteckt"...

 

Deine Berichte haben mich an meine 4k Anfänge erinnert die mit Intel ganz ähnlich ausgesehen haben (HEVC-Thread hier).

Das mit PDVD schwarz usw. habe ich dort später auch beschrieben, MPEG-2 geht nur bis höchstens PDVD12.

 

Ja, lese eigentlich immer und regelmäßig alle Beiträge in diesem Forenbereich. Man kann sich leider aber nicht immer alles merken, z.B. war mir so, daß das mit dem mpeg2 nur für dem MS Dekoder von W10 gilt, aber jetzt wo Du es noch mal sagst... :innocent::whistle:

 

Schlechtes Deinterlacing und mangelndes DXVA kann nicht alleine an 4k liegen, da klappt was mit den Filtern nicht. Viel probieren mit untersch. Playern dabei lernt man viel.

zB. MPC-HC alle Filter intern, Ausgabe 100%, also im Fenster/unskaliert kann es nicht?

Wenn du 4k im Verdacht hast schalte den Grafik-Output einfach probeweise auf 1920*1080 dann müsste ja alles wie gewohnt gehen? Die Übung mache ich öfters.

 

Das ganze beruht auf einer funktionierenden und auch häufig benutzten 1080er Installation, habe nur den dicken Monitor drangebastelt. Das DXVA geht ja, eben nur schlecht. Wenn es greift, dann treten halt die Deinterlacingprobleme auf. Deshalb habe ich es abgeschalten und das Bild ist gut. Muß wohl noch mal den guten alten Arcsoft rauskramen um noch was anderes zum testen zu haben, der bringt auch noch 2 verschiedene mpeg2 Filter für SD mit. Erstaunlich ist hier, daß die h264-4k-Videos mit LAV+ DXVA2n relativ gut und mit recht wenig Systemlast laufen.

 

HEVC 10-bit bis 60Hz kann derzeit nur Nvidia GTX950/960.

Wenn der Broadwell DisplayPort 1.2 kann hast du immerhin schöne 3840*2160@60Hz Unterstützung, das hatte ich damals auf Haswell nicht. Sobald es über 30Hz hinausgeht ziehen auch die GPU's die das unterstützen in dieser frühen Entwicklungsphase allerlei trickreiche Register, das kann zB. Einschränkungen in der Bittiefe zur Folge haben.

 

Erfahrungsgemäß ist Intel bei GPU-Entwicklung ein bisschen langsam. Kann gerne mal über ein Jahr gehen. Allerdings mit 4k jetzt international im Zugzwang..?

 

Na ja, was den Broadwell angeht steht da ja irgendwo, daß DXVA <>HEVC partiell funktioniert bei 10bit. Sollte also teils in der CPU und teils in der GPU stattfinden, wie ich es verstanden habe, praktisch Arbeitsteilung unter Kollegen :D. Die 8bit Geschichte sollte ja komplett in Hardware gehen. Würde mich mal über einen oder mehrere Links freuen, wo ich wenigstens 8bit HEVC Demos ziehen kann. Blöd ist allerdings, daß (wie Nuts schreibt) selbst die Skylake nur 8bit können. Hier hat man immerhin von 48 Streameinheiten (Broadwell) auf 72 Streameinheiten (Skylake) aufgerüstet. Wenn es die NUCies mit 4 Kernern gäbe sähe es wohl auch besser aus.

 

 

Soweit erstmal mein Senf dazu, in ungeordneter Reihenfolge.

Kein Senf, und war doch ganz übersichtlich :original: .

Link to comment

Achso das ist ein Broadwell ... bin mir gar nicht sicher ob die überhaupt irgendwas per GPU machen für 10bit Quellen.

 

Das mit diversen Cyerblink oder Arcsoft Decodern hat für mich irgendwie auch keine Zukunft.

Die Kisten müssen mit dem LAV funktionieren (DXVA2 oder DXVA copyback). Wenn das nicht klappt würde ich da ansetzen und systematisch testen.

Link to comment

Muß hier mal ne kleine Korrektur betreffs des LAV einpflegen. Das extreme Deinterlacinproblem trat wohl nur mit Intel Quicksync auf. Mit DXVA2n tritt es nur leicht auf, die GPU ist aber am Anschlag, so daß der Lüfter sich hörbar meldet bei h264<>1080i und auch mpeg2<>SD. Dies trifft auch für den inzwischen installierten Arcsoft bei h264<>1080i zu. Für mpeg2<>SD scheint dieser aber am besten und sparsamsten zu funktionieren, auch mit DXVA.

 

 

SD mit Arcsoft und DXVA(1 und 2 angehakt, weiß nicht was er nimmt) Bild ist wie mit LAV ohne DXVA jedoch sparsamer und leiser. Den werde ich jetzt wohl benutzen.

 

PHdJDDN.jpg

 

 

SD mit LAV und DXVA2n, leider ist das Bild schlechter als ohne DXVA, die Graka ist aber im Prinip gleich ausgelastet. Der Lüfter dreht hoch.

 

1uFA2tW.jpg

 

Das mit diversen Cyerblink oder Arcsoft Decodern hat für mich irgendwie auch keine Zukunft.
Die Kisten müssen mit dem LAV funktionieren (DXVA2 oder DXVA copyback). Wenn das nicht klappt würde ich da ansetzen und systematisch testen.

 

Würde gerne LAV nehmen, wüßte allerdings nicht wo ich da noch ansetzen soll wenn die GPU am Anschlag ist. Die alten Granaten machen es momentan aber an einigen Stellen besser, weil sparsamer. Mit dem alten 1080er Monitor hatte ich auch alles LAV. Beim 4k-Monitor muß man wohl bei den kleinen GPUs um jedes bischen Power feilschen....

 

Link to comment

Mach doch mal den Test das du die Intel-Grafik für 50Hz Quellen auf 25Hz schaltest.

Bei mir lief damals mit dem ollen Haswell im Dell Lappi sogar mit selbstdefinierter 3840*2160 Spezialauflösung trotzdem alles SD, 720p, 1080i unskaliert im Fenster vollkommen flüssig icl. DXVA. Der große Unterschied zu deinem Setup war nur der das Haswell für die UHD Auflösung keinen höheren Takt als 25Hz zuließ. Also probier mal 25Hz, wenn es da geht würde das auf ein Treiberproblem bei Frequenzen über 30Hz hinweisen.

 

Oder auch so, Mr. LAV hörte ich, ist gerade nicht so gut auf Intel zu sprechen weil Intel sagt der Fehler läge bei LAV und LAV sagt der Fehler läge bei Intel. Die Fronten sind ziemlich verhärtet.. ;)

Insofern ist es durchaus empfehlenswert vorerst auf andere Decoder auszuweichen. Wie man bei Nvidia sieht hängt vom Willen und Können der Konstrukteure und Developer sehr viel ab wieviele Sachen funktionieren.

Edited by craig_s
Link to comment

Wohl kaum CB verbrät fast doppelte Ressourcen. LAV empfiehlt für Intel DXVA2 native. Bei QuickSinc fällt dort schon mal das crap Wort..

Edited by craig_s
Link to comment

Sicher nicht ...

Der DXVA Decoder sollte die GPU gar nicht so auslasten. Da stimmt irgendwas ganz und gar nicht. :(

 

Edit/ Mal den normalen EVR versucht?

Edited by nuts
Link to comment

So, habe nun auch noch LAV mit CopyBack ausprobiert, da steigt aber die Sytemlast weiter an. Geht bei SD bis auf 98% GPU und die CPU steigt auch. Bei gleichen Einstellungen mal auf 30HZ umgeschaltet. Hier geht die GPU auf 72% zurück die CPU-Nutzung fällt ebefalls. Allerdings bleibt das schlechte Bild mit Deinterlacingproblemen und auch ruckeln.

 

Ich bin ja einer, der wirklich gerne den LAV nutzen würde, vor allem, da ja nun auch der Entwickler hier zu meiner Feude aktiv mitmacht. Aber eventuell kann ich ja auch mit meiner exotischen Zusammenstellung zur Weiterentwicklung beitragen, würde mich freuen. Die Probleme mit den 4k Monitoren kommen spätestens dann, wenn die Masse diese nutzt. Wenn man da im Vorfeld ein paar Anregungen und Aha's geben kann ist man eventuell schon ein Stück weiter als andere. Würde ja noch gerne mal der Empfehlung des LAV-Entwicklers folgen, und was höheres als Win7 nutzen, ist aber speziell für diesen Rechner bischen schwierig, da ich die momentane Installation nicht aufgeben möchte. Und Win7 sieht soooo schön aus in 4k. Bleibt also nur, das zu nutzen, was im moment am besten läuft.

Link to comment

Das die GPU Last bei 4k Ausgabe hoch/höher ist als bei 2k ist schon plausibel.

Mir erschließt sich nur nicht wieso mit dem LAV >90% erreicht werden und mit dem Arcsoft nur 61%?

Eine mögliche Erklärung wäre der Arcsoft gibt nur 25p aus und macht ein Weave Deinterlacing. Das ergibt aber üble Kammartefakte bei interlaced Quellen. Die hast du nicht mit dem Arcsoft oder?

 

P.S. Du könntest mal sämtliches Processing (Schärfefilter und sowas) im Intel Treiber deaktivieren. Hilft das etwas?

Link to comment

Nein mit dem Arcsoft ist alles glatt, Keine Kämme. Habe gerade noch mal den Standard-EVR im SD-Betrieb getestet. Da siet es auch nicht besser aus was die Inanspruchnahme der GPU betrifft. Im Gegenteil, hier tendiert sie eher noch gegen100 %.

 

Im Intel Treiber ist alles aus, der hat eh nicht so viele Einstellmöglichkeiten. Benutze auch hier den aktuellsten.

Link to comment

Wenn der Monitor auch 1080p annimmt könntest du das auch nochmal probieren.

Um sicherzustellen, dass es sich um ein Problem zusammen mit der 4k Ausgabe handelt und nicht um ein generelles Problem.

Link to comment
So, habe nun auch noch LAV mit CopyBack ausprobiert, da steigt aber die Sytemlast weiter an. Geht bei SD bis auf 98% GPU und die CPU steigt auch. Bei gleichen Einstellungen mal auf 30HZ umgeschaltet. Hier geht die GPU auf 72% zurück die CPU-Nutzung fällt ebefalls. Allerdings bleibt das schlechte Bild mit Deinterlacingproblemen und auch ruckeln.

 

Sag jetzt nicht du hast mit 30Hz ein 50fps-Video mit CopyBack abgespielt und das wars.

 

Der Test müsste sein - mit 25Hz im Monitor jeweils ein 50fps SD, 720p, 1080i-Video abspielen , mit aktueller Version des MPC-HC, darin alle Filter auf intern belassen und LAV auf "native" gestellt.

Dann noch in den MPC Optionen > Wiedergabe > Zoom auf 100% d.h. die Wiedergabe erfolgt unskaliert im Fenster in Originalgröße.

 

Dann noch deine anderen lieblings-Abspiel-Kombinationen auch im 25Hz Monitor probieren ob sich etwas geändert hat.

Die Monitorfrequenz muss dabei immer genau die Hälfte der Frequenz des Videos oder Live-TV im DVBViewer sein! Also bei PAL-Sendern 25Hz, sonst ruckelts.

-> im DVBViewer gibt es leider keine 100%-Ausgabe mehr, dort dann das Fenster ungefär auf die Größe des Videos ziehen. Bei 1080i genau 1/4 der Bildschirmfläche.

 

Dann auch wie nuts (und ich) gesagt haben die Intel auf 1920*1080 50Hz umstellen und nochmal die Tests, die Ausgabegröße der Videos/TV ist hier egal.

Edited by craig_s
Link to comment

p.s.
Kann es sein das der Acer CB280 Moni gar keine 50/25 Hz kann?
Im Datasheed steht nämlich nur 60Hz. Das würde das Ruckeln überall erklären. Mit 60Hz geht nur NTSC-Video ruckelfrei (USA Land..).

Probier mal Käsescheibchen NTSC progressive/interlaced das progressive sollte dann jedenfalls ruckelfrei sein.

Edited by craig_s
Link to comment

Kann es sein das der Acer CB gar keine 50/25 Hz kann?

Rrrüschtüsch.

 

Allerdings war das beim Vorgängermodell auch schon so. Und mir ist das diesbezügliche Ruckeln deshalb und auch prinzipiell bekannt. Ich rede hier von völlig anderen Dimensionen und:

 

Das ganze beruht auf einer funktionierenden und auch häufig benutzten 1080er Installation, habe nur den dicken Monitor drangebastelt.

 

Habe es trotzdem noch mal mit 1080 probiert und konnte wieder alle Modi ohne Deinterlacingprobleme und Ruckeln (bis auf das bekannte 60Hz-ige) mit dem LAV abspielen. Keine weiteren Änderungen ansonsten.

Die Sytemlast fällt für die CPU auf 5-15% und die GPU auf 20-42% bei SD und HD.

 

MPC-HC teste ich mal noch....

Link to comment

Was interessant wäre: ist bei 1080p Ausgabe auch so ein großer Lastunterschied zwischen LAV und Arcsoft Decoder zu sehen?

 

Sieht mir einfach stark danach aus als wäre die GPU überfordert bei 4K Ausagbe.

Ich wüsste nur gern was der Arcsoft da anders macht.

Link to comment

So sieht es mit MPC-HC bei SD aus (Video vom DVBV) alles immer im Vollbildmodus auch die oberen Werte. Hier ruckelt es extrem.

 

aOlIIbX.jpg

 

Bei HD 1080i ist die GPU-Last leicht geringer. MPC-HC ist allerdings in der Lage ein aufgenommenes HEVC-Video von Fashion-TV in Zeitlupe abzuspielen. Hier ist allerdings die CPU bei 100%. Der DVBV verweigert hier komplett mit einem Hänger.

 

@nuts

Werde mir mal was mit 1080p suchen, vergleiche und berichte dann später.

Link to comment

Quelle ist doch egal.

Nimm die gleiche SD Quelle die beim 4K output den Unterschied zwischen LAV und Arcsoft zeigt und probiere das dann nochmal mit 1080p Output (1920*1080 als Aufloesung einstellen).

Link to comment

1080p -> Käsescheibchen prog. siehe Link oben.

 

Der UHD Desktop ist für die GPU eine winzige Rechenaufgabe.

Im 2160 UHD Desktop ein Video unskaliert im Fenster in Originalgröße, also NICHT im Vollbildmodus wiedergeben brachte immer gleiche Lasten wie mit 1080 HD Desktop.

Deinterlacing auch unproblematisch.

 

Was CPU/GPU zum stottern brachte war die Skalierung im großen UHD Bildschirm. Ich konnte das Fenster langsam größer aufziehen, irgendwann fing das stottern an.

Edited by craig_s
Link to comment

MPC-HC ist allerdings in der Lage ein aufgenommenes HEVC-Video von Fashion-TV in Zeitlupe abzuspielen. Hier ist allerdings die CPU bei 100%. Der DVBV verweigert hier komplett mit einem Hänger.

Im DVBViewer mit EVR Custom kannst du die Option "Verspätete Bilder ausgeben" aktivieren. Damit sieht man vielleicht auch die Zeitlupe im DVBViewer?

Würde ich allerdings für die normale Wiedergabe nicht empfehlen, da es dadurch womöglich zu Problemen beim A/V Sync kommt.

Bei den Customrenderer gibt es unterschiedliche Algo's für die Synchronisation udn dadurch können solche Unterschiede auftreten. Den optimalen Algo für 100% CPU Last zu suchen macht aber wenig Sinn, da damit so oder so keine vernünftige Wiedergabe möglich ist. ;)

Link to comment

Alles klar hatte das etwas mißverstanden, dachte Du meinst ein 1080p-Video.

 

Hier das Ergebnis mit dem LAV DXVA2n bei 1080p60-Ausgabe

 

iyIgx5W.jpg

 

Und das Ergebnis mit dem Arcsoft DXVAx bei 1080p60-Ausgabe

 

Tra8q58.jpg

 

Die CPU-Last ist in etwa gleich, das pendelte etwas und ging auch mal über 10%. Da läuft noch bissel was im Hintergrund. Aber der Unterschied bei der GPU ist schon erheblich.

Link to comment

Ergänzen möchte ich noch, daß die Einblendung der beiden Fenster in das Vollbild ca 15% GPU-Last ausmachen, wie ich gerade festgestellt habe. Trifft aber dann für alle Prüflinge zu. Der LAV macht im SD definitiv das schärfere Bild, aber die Systemlast ist einfach zu hoch.

 

Das mit der Scalierung kann ich bestätigen. Es ist sogar so, daß bei Brifmarkengröße, also bei Scalierung nach unten die GPU-Last in den nicht nennenswerten Bereich kommt, egal bei welcher Auflösung.

 

Der Haken mit den verspäteten Bildern hat mir auch nicht zur Zeitlupe verholfen. Der DVBV hängt mit HEVC und DXVA2.

Link to comment

Ok danke mal soweit. Etwas ratlos bin ich jetzt trotzdem. :(

Der Unterschied ist also nicht von der Ausgabe abhängig, sondern zeigt sich dann nur deutlich, da das System ans Limit kommt.

 

Du könntest jetzt noch das Debug OSD des EVR Custom anwerfen (klar wie das geht?). Vielleicht sieht man da einen Unterschied.

Alternativ wäre das Debug OSD von madVR nützlich.

Dennwirstbdu aber nur bei 1080p Ausgabe zum laufen kriegen.

Edited by nuts
Link to comment

Das mit der Scalierung kann ich bestätigen. Es ist sogar so, daß bei Brifmarkengröße, also bei Scalierung nach unten die GPU-Last in den nicht nennenswerten Bereich kommt, egal bei welcher Auflösung.

..siehste ist doch eigentlich alles ganz simpel - und sollte immerhin die Nerven beruhigen das in irgendeiner Form (im Fenster) alles normal läuft.

Die Intels haben beim Broadwell also nur den DisplayPort auf 1.2 aufgebohrt aber das was die UHD Auflösung für Video fullscreen brauchbar macht fehlt wenn nicht gerade eine Gaming-CPU mitarbeitet.

 

Wie ich Intel kenne wird sich das UHD die nächsten CPU-Generationen Stück für Stück... für Stück... für Stück... gemächlich dazuläppern (damit die Leute genügend Zeit haben sich die falsche Hardware zu kaufen ;)).

Auch muß man ja sehen das Intels iGPU sich in den vergangenen Jahren zwar enorm gesteigert hat aber das Ziel konnte es doch nie sein die viel teureren separaten Grafikkarten zu enttronen.

 

Gefreut habe ich mich dann aber immer wenn Intel schliesslich videotechnisch die großen erreichte wie seit längerem bei HD Auflösung. Wenn jeder Büro-Lappi "ohne Graka" sogar perfektes 3D in 7.1 DTS-HD wiedergeben konnte ohne wesentlich warm zu werden. Mit UHD muß man jetzt halt noch einige Geduld haben... und haben... und haben... smilie_sleep_104.gif

Link to comment

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...