Unterschiede von HDR in der Fotografie und HDR für Fernseher


High Dynamic Range (HDR) ist gerade DAS Verkaufsargument für Fernseher und somit Streaming-Dienste wie Netflix und Konsolen wie der PlayStation 4 und Xbox One S. Leider kennen viele den Unterschied zu dem selben Begriff aus der Fotografie nicht.

High Dynamic Range: Aufnahme VS. Anzeige

Manche kennen den Begriff HDR vielleicht aus der Aufnahme von Bildern, der Fotografie und verwechseln dies mit der Anzeige von Bildern in HDR. Obwohl beide Technologien als Ziel eine realistischere Bildwiedergabe zu ermöglichen, sind sie dennoch unterschiedlich und haben wenig miteinander zu tun.

HDR für Fernseher ist ein Prozess zur Anzeige von Bildern. Dabei werden spezielle HDR-Inhalte vom Fernseher erkannt und auf eine Art und Weise dargestellt, wie es „herkömmliche“ SDR-Fernseher nicht können.

HDR für Kameras ist ein Aufnahmeprozess. Hierbei werden mehrere Fotos mit unterschiedlichen Belichtungszeiten aufgenommen und zusammengeführt. Dies erzeugt einen Effekt, der mehr oder weniger so aussieht, wie unser menschliches Auge die Szene ebenfalls sehen wahrnehmen würde. Jedenfalls besser, als eine einzelne Belichtungszeit dies könnte.

High Dynamic Range Fotografie
Eine High Dynamic Range Fotografie. Darunter sieht man die drei unterschiedlichen Belichtungszeiten, aus denen das obere Bild zusammengesetzt wurde.

HDR in der Fotografie

In den richtigen Händen können High Dynamic Range-Bilder richtig toll aussehen. Denn die Kombination der idealen Belichtungszeiten für sehr dunkle und sehr helle Bereiche kann die Details in den Schatten eines Bilder aber auch die Details in den Wolken gut herausbringen. Mittlerweile hat jedes durchschnittliche Smartphone eine solche Option, um Fotos im Nachhinein besser aussehen zu lassen.

Oftmals sehen diese Bilder kitschig aus, weil die Fotografen es übertrieben haben. Grelle Farben lassen Szenen so aussehen, als ob die Objekte und Wände selber Licht ausstrahlen würden.

HDR in Horizon Zero Dawn
Der Effekt ist nur mit einem HDR-fähigen Abspiel- und einem HDR fähigen TV-Gerät sichtbar. (Beispiel: Horizon Zero Dawn)

HDR für Fernseher

Gute Fernseher mit High Dynamic Range verfügen über eine sehr starke maximale Helligkeit. Dies erlaubt dem Fernseher Inhalte mit einem hohen Kontrast zwischen Hell und Dunkel und mehr Farbnuancen darzustellen.

Das Bild oben von Horizon Zero Dawn zeigt dies ganz gut: Die grelle Sonne am Himmel blendet den Zuschauer bzw. Spieler regelrecht während man immer noch unten links Details in den Schatten ausmachen kann. Die Wirkung ist ein realistisches Bild ohne grelle Farben mit einem hohen Kontrast. Ebenso unterstützen The Witness, Wipeout Omega, Nex Machina und Uncharted 4 als auch Uncharted – Lost Legacy High Dynamic Range.

Formate für HDR sind HDR10 und Dolby Vision. Dabei wird HDR10 von allen Geräten unterstützt und wenige Geräte können beide Formate verarbeiten und darstellen.

High Dynamic Range bei Mediamarkt und Saturn

Bei Saturn und Mediamarkt werden oftmals Demos auf den (günstigeren) Fernsehgeräten gezeigt, welche das Bild in zwei Bereiche aufteilt: Grelle Farben und ausgewaschene Farben und schreibt dann High Dynamic Range-Effekt dran. Hierbei wird nichts weiter gemacht, als auf der bunten Seite den Helligkeitswert auf das Maximum zu setzen.

Bright things can be really bright, dark things can be really dark, and details can be seen in both.

nvidia über HDR Rendering

Ist High Dynamic Range wichtiger als 4k?

Tatsächlich können die meisten neuen 4k Fernseher High Dynamic Range darstellen. Wie gut oder wie schlecht hat in erster Linie mit der Helligkeit und der Qualität des Panels zu tun. Ein natives 10-Bit Panel (nicht mit HDR10 verwechseln!) um mehr Farbnuancen darzustellen sowie eine hohe maximale Helligkeit von mindestens 1.000 Nit. Außerdem sollte der TV viele unterschiedliche Helligkeitszonen bestehend aus LEDs besitzen. Bei dem teureren OLED leuchten die Pixel selber und werden nicht von hinten angestrahlt.

HDR Rendering - Half-Life: Lost Coast 2005
Half-Life: Lost Coast 2005: Links HDR Rendering an und rechts aus

Unterstützung von HDR am Spiele-PC

Half-Life Loast Coast hat 2005 bereits einen Modus namens HDR Rendering vorgestellt. Dabei ging es darum, den Effekt von Überstrahlung durch Sonne und Reflektionen auf die virtuelle Welt zu übertragen. Einen ähnlichen Effekt nutzen manche Rennspiele, wenn man aus dunklen Tunnel in die helle Sonne fährt und alles kurz weiß wird. Titel wie Oblivion nutzen „Bloom“ um helle Bereich zu überstrahlen. Dies sind aber nur Effekte und haben nichts mit der Ausgabe von mehr Farben oder mehr Kontrastbereichen zu tun.

High Dynamic Range ist mehr als nur 10 bit Farbpräzision für Y,U und V (30 Bit Farbtiefe). Die meisten PC-Monitore sind wahrscheinlich für sRGB oder AdobeRGB kalibriert. HDR fügt dem System ein neues Kalibrierungsziel hinzu, welches ein „breiteres“ Farbspektrum bedeutet. Erst seit 2015 unterstützt HDMI 2.0a die Bandbreite für HDR.

Es gibt für professionelle Anwendungen für den PC Monitore mit nativem 10 Bit Panels. Diese können zwar die Farbtiefe aber nicht die Kontrastverhältnisse für HDR darstellen. Das heißt, Farbverläufe konnten besser dargestellt werden aber dadurch wird der Sonnenaufgang in Spielen nicht eindrucksvoller. Und das liegt nicht daran, dass nur ein Bruchteil der Monitore am PC über ein natives 10 Bit Panel verfügen.

Die Softwareunterstützung in Spielen, in den Windows-APIs und den Treibern der Grafikkartenhersteller hat bislang diese Technologie am PC nicht für nutzbar gemacht. Alien Isolation ist eines der ganz wenigen Titel der aktuellen Zeit, welches 10 Bit „Deep Color“ überhaupt unterstützt. Echtes High Dynamic Range mit Kontrastinformationen und Deep Color wird nun am PC durch drei Dinge ausgebremst: Unterstützung in Spielen, Monitoren mit HDR-Unterstützung und fehlende stabile Treiber.

Samsung KS7090 an der Wand
Der Samsung UE65KS7090 aus Europa ist der KS8000 in den USA.

Welchen Fernseher soll ich mir für High Dynamic Range kaufen?

Ich habe mich nach langer Recherche für den Samsung UE65KS7090 (kaufen) entschieden. Andere haben sich den Samsung UE65MU8009 gekauft.


Beitrag veröffentlicht

in

von

Kommentare

67 Antworten zu „Unterschiede von HDR in der Fotografie und HDR für Fernseher“

  1. Avatar von JTR
    JTR

    HDR am TV ermöglicht es einfach feinere Farbdetails zu zeigen (bei Farbverläufe an Himmel kann man es am besten demonstrieren). Revolutionär ist es aber nicht wie es verkauft wird, weil teils schlicht gemogelt wird und extra schlechte SDR Beispiele mit extrem ausgearbeiteten HDR Beispiele verglichen wird. So funktioniert nun mal Marketing. De facto habe ich kaum Unterschiede zu meinem 10bit Monitor (zwar mit FRC aber das sieht kein Mensch von Auge) bemerkt. Ich bin mir an den Monitoren schon lange eine bessere Farbbrillanz auch mit SDR gewohnt. Denn auch innerhalb der Standards gibt es bessere und schlechtere Umsetzungen. Und wer sich Monitore für Grafiker kauft von DELL und Co, bekommt die nur schon vor kalibriert (inklusiv Protokoll). Da sieht man bei einem direkten Vergleich zu alten Bestands Monitor schon ein erheblicher Unterschied. Ging mir so, als ich mein neuen DELL 27″ mit 1440p IPS Panel neben den alten mit MVA Panel gestellt hatte. Nur schon die Hintergrundbeleuchtung macht viel aus. Ob das Panel etwas kann, heisst nicht dass durch falsche Kalibrierung und falscher Hintergrundbeleuchtung nicht viel kaputt gemacht werden kann. Das ist ua. der Grund warum ich auf die nächste Generation warte wo endlich das Thema Ghosting und Bleeding von der Industrie angegangen wird. Denn viele kennen es: TV sieht am ersten Tag genial aus, nach ein paar Jahren lässt die Leuchtkraft der Hintergrundbeleuchtung nach, es gibt Lichthöfe und die ganze Brillianz ist hin. Da kann das Panel selber dann so gut sein wie es will. Und hier hat eben OLED ein riesen Vorteil. So wird OLED diesbezüglich noch lange alle LED Technik schlagen und selbst mit niedrigen Kontrastwerte einfach bessere Bild liefern als ein Samsung mit QLED. Das Problem von OLED für mich als PC Gamer: kommt nicht in Frage wegen Einbrennen.

    1. Avatar von Marc
      Marc

      Nach dem ersten Satz von dir habe ich aufgehört zu lesen. Denn der ist einfach falsch, sorry.

    2. Avatar von Ingo
      Ingo

      Sei froh, dass du nach dem ersten Satz aufgehört hast zu lesen. Der Rest ist noch schlimmer… einfach nur unfassbar…

      Formate für HDR sind HDR10 und Dolby Atmos

      Hier hat sich ein Fehler eingeschlichen. Nicht Dolby Atmos sondern Dolby Vision.

    3. Avatar von Marc
      Marc

      Danke. Ist korrigiert!

    4. Avatar von JTR
      JTR

      Nun ja zu einem bisherigen 10bit Gerät hat ein HDR nur den Dynamikumfang durch die bessere Abstufung, aber die Farbpalette ist dieselbe wie bei einem SDR Gerät welches 10bit unterstützt. Bei TVs gab es das nicht, es gab nur 8bit. Aber beim PC wird schon lange 10bit Unterstützt, aber einfach nicht HDR. Daher ist der Unterschied nicht so krass sichtbar wie bei TVs die bisher nur 8bit waren. Mein Samsung TV der letzten Generation hat nie die Farbbrillianz meines aktuellen Monitors. Das hat damit zu tun dass Betriebssystem auf dem PC schon länger grössere Farbspektren unterstützen. Darum empfinden PC Gamer die immer aktuelle Hardware hatten HDR nicht so revolutionär wie Konsolenspieler. 100% Adobe RGB konnten die TVs nicht, die PCs schon lange.

    5. Avatar von Ingo
      Ingo

      aber die Farbpalette ist dieselbe wie bei einem SDR Gerät welches 10bit unterstützt

      Es fehlt aber der Dynamikumfang um die Abstufungen von 10 Bit überhaupt anzeigen zu können. Das was du sehen willst ist schlicht Einbildung.

      Daher ist der Unterschied nicht so krass sichtbar wie bei TVs die bisher nur 8bit waren

      So ein Blödsinn. Ich kann auf meinem UHD Premium TV hin und herschalten und direkt vergleichen. Die Screenshots mit HDR sehen um Welten realistischer aus als das SDR Bild. Beide sind mit 10 Bit aufgenommen und werden mit 10 Bit dargestellt, aber nur das HDR Bild kann sämtliche Abstufungen voll darstellen. Da ist auch nichts gefaket, denn die Screenshots in der Smartphone App, die ausschließlich in SDR angezeigt werden, sehen genauso aus wie das SDR Bild auf dem TV. Das HDR Bild ist aber um Welten realistischer und das bei allen meiner zuletzt gespielten HDR Titel. Dass du das nicht siehst, liegt daran, dass du nur das SDR Material gewohnt bist und das für normal empfindest. Hat man sich aber einmal an HDR gewöhnt, merkt man erst wie gravierend die Unterschiede sind. Das geht soweit, dass mir Need for Speed Payback und Wolfenstein 2 kaum Spaß gemacht hat haben, weil beide kein HDR unterstützen und ziemlich blass bis grell ausgesehen haben.

    6. Avatar von JTR
      JTR

      Es fehlt aber der Dynamikumfang um die Abstufungen von 10 Bit überhaupt anzeigen zu können. Das was du sehen willst ist schlicht Einbildung.

      Ähm nein, es ist keine Einbildung, jeder Blinder sieht den Unterschied. Nur hast du scheinbar nie an einem Monitor mit 100% Adobe RGB Bereich gesessen. Meine Bilder werden auch mit 10bit dargestellt und dich scheint es zu gurken, weil du langsam kapieren musst, dass beim PC HDR nicht den grossen Schritt bringt wie am TV, weil er schon vorher wichtige und richtige Zwischenschritte erfuhr, während TVs schon seit Jahren technisch den Monitore hinterher hinkten. Und nun hatten sie ausnahmsweise mal 6 Monate ein kleinen Vorsprung, denn du nun auf plusterst als sei das Bild neu erfunden worden. Es ist schlicht lachhaft und es erklärt eben warum PC Gamer in HDR nicht den grossen Unterschied sehen, weil es ihn am PC nicht gibt, weil PCs schon seit Jahren bessere Farbbrillianz brachten als TVs. Mir sind spielerische Aspekte wie kein Tearing zu haben (G-Sync) und eine höhere FPS wichtiger, weil es auch etwas sehr direktes ist was du beim Spielen merkst.
      Dass ich es nicht merke ist, dass ich seit 2004 ein Adobe RGB Bereich im vollem Umfang schon gewohnt bin. Für dich ist es die Revolution, war es bei mir auch, aber damals 2004!

    7. Avatar von Ingo
      Ingo

      Oh man… Hilfe ist das schlecht.

    8. Avatar von Hanswurst
      Hanswurst

      So so, seit 2006 will JTR also 10bit Bilder sehen. Ausgesprochen dumm nur, dass er am 21. Januar 2014 einen Dell Monitor kaufte der nur 8bit darstellen kann (ohne FRC) und auch ältere Blogeinträge allesamt nur 8bit Käufe ohne FRC waren. Allein sein aktuellster Monitor kann 10bit emulieren, also nicht mal nativ darstellen erst recht nicht in HDR.

      Sehr sehr peinlich. Shame on you.

    9. Avatar von JTR
      JTR

      Das was du massgeblich bei den TV als Unterschied wahrnimmst ist das vergrösserte Farbspektrum (damit wird auch auf HDR Prospekten geworben). Klar weil von 8bit zu 10bit ist eine enorme Steigerung. Das habe ich an meinem Monitor auch, schon seit Jahren. Was mir fehlt ist das was nun explizit HDR mit den grösseren Helligkeitabstufungen mit sich bringt und daher etwas mehr Details noch heraus schaffen kann. Das fehlt mir, aber das ist nicht so extrem wahrnehmbar wie das grössere Farbspektrum. HDR wird ja darum in der Medizin (Mamographie etc.) schon lange im schwarz/weiss Bereich genutzt um eben mehr Details zu erkennen, ganz ohne Farbe! HDR wird schon seit den Mitte 80er entwickelt für Profibereiche, ist also alles andere als neu. Was man nun beim TV gemacht hat, man hat das ganze als Packet zusammen mit gleich noch einem grösseren Farbspektrum als Neuigkeit verkauft. Und marketingtechnisch muss ich da sogar die TV Industrie loben. Ein so erheblicher Schritt wird deutlich besser von Endkunden wahrgenommen als wie am PC kontinuierliche Weiterentwicklung. Der Aha-Effekt ist einfach grösser.

      Und da du es wieder nicht glauben willst woher HDR kommt, hier die Quelle:

    10. Avatar von JTR
      JTR

      So so, seit 2006 will JTR also 10bit Bilder sehen

      Nein, A) seit 2004 und B) Adobe RGB Bereich und den können nun mal alle MVA, PVA und IPS Panel. Den kannst du auch mit 8bit darstellen, aber nicht so fein abgestuft. Mein Gott lest mal ein Buch, dann versteht ihr vielleicht auch die Welt um euch herum. Die neuen können sogar mehr als 100% Adobe RGB, aber darauf wollte ich gar nicht eingehen, weil ich wusste das es euch überfordern wird. Im Farbspektrum kann mein 8bit+FRC (ergibt auch 10bit) genau dasselbe darstellen wie dein UHD Premium Monitor, er hat nur nicht soviel Helligkeitsabstufungen, denn das ist HDR: Helligkeitabstufungen! Darum auch in der Medizin genutzt und sogar in S/W Fotografie. Es braucht für HDR gar keine Farben, stell dir vor.

    11. Avatar von Ingo
      Ingo

      [Gelöscht. Hat gegen die Netiquette verstoßen.]

    12. Avatar von Marc
      Marc

      @JTR Lies dir einfach mal den Artikel wirklich durch damit Du endlich lernst, dass es einen Unterschied zwischen HDR in der Fotografie und in der Hardware-gestützten Ausgabe gibt. Dann wirfst du das alles nicht durcheinander. Es folgt auch für dich und alle anderen PC-Gamer bald ein Update zum Thema „PC“.

    13. Avatar von JTR
      JTR

      Ich lese Artikel von Hifi Magazinen (siehe oben) und Tech-Blogs. HDR ist nur die Helligkeitsabstufung und hat nichts mit Farben zu tun. Dadurch können aber bei Farben noch etwas mehr Details herausgearbeitet werden (wer den Dolby Vision Artikel verstanden hat, wäre das spätestens dort klar geworden). Was aber bei den HDR TVs massgeblich den sichtbaren Unterschied brachte war gar nicht das HDR sondern der gleichzeitige Wechsel von 8 auf 10bit pro Pixel. Und das hat auch mein Monitor, ihm fehlen einfach nur die Helligkeitsabstufungen per HDR. Das mag ein Unterschied bringen, aber nicht der krasse der hier immer von euch behauptet wird. Mir geht es darum, dass ihr kapiert, warum beim PC HDR nicht als die Revolution wahrgenommen wird wie am TV, weil eben das 10bit Update schon vorhanden ist und nun nur noch der kleine Unterschied mit HDR dazu kommt. HDR wird daher auch im S/W Sektor verwendet, weil es auch ohne Farben mehr Details zeigt. Das was aber viele Leute bei den neuen TVs auffällt ist die Farbbrillanz durch die grössere Farbpalette. Das hat absolut gar nichts mit HDR zu tun.

    14. Avatar von JTR
      JTR

      Und ja ich habe kapiert dass HDR eine Displaytechnik (Hardware ist) und nichts mit HDR Fotografie ist. Eben diese Technik kommt aus dem Medizin Bereich wo aber nur S/W betrachtet wird in aller Regel. Genau weil es bei HDR um Helligkeitsabstufung geht, ist genau die Hintergrundbeleuchtung ein massgeblicher Faktor. Und genau deshalb warte ich noch mit einem HDR TV, weil das der Industrie nun klar wurde und als nächstes genau diese und damit auch massgeblich das HDR noch verbessert.

    15. Avatar von Marc
      Marc

      @JTR
      Jetzt widerspsrichst du dir selber.

      HDR am TV ermöglicht es einfach feinere Farbdetails zu zeigen (bei Farbverläufe an Himmel kann man es am besten demonstrieren).

      Aber egal. Nur l weil du der Meinung bist, dass die Steuerung der Abstufung der nicht der ausschlaggebende Punkt für HDR ist, muss das nicht richtig sein. Ohne diese Helligkeit, die dir beim PC fehlt, ist es meiner Ansicht nach witzlos. HZD sieht genau deswegen auf einem guten TV atemberaubend aus.

      Zu dem Rest von deinem Quatsch mit “der PC zeigt seit Jahren mit 10 Bit panels HDR Effekte” schreibe ich bei Zeiten konkret oben im Artikel was zu.

    16. Avatar von JTR
      JTR

      Nein ich widerspreche nicht mir selber, das ist genau das was ja auch Dolby durch seine Forschung am menschlichen Auge heraus gefunden hat. Mehr Helligkeitsabstufungen können mehr Details (egal ob Farbe oder S/W) herausarbeiten. Aber der zugrunde liegende Daten müssen diese Details auch bieten. Darum 10bit und nicht 8bit.

      Ich habe nie gesagt dass der PC mit 10bit Panels HDR Effekte zeigt. Mein Gott könnt ihr ein gelesen Text bitte nicht nur überfliegen, sondern lesen und verstehen! Ich habe gesagt dass wir schon seit Jahren 10bit Panels mit einer grösseren Farbpalette haben wie die jetztigen TVs. Was nun noch fehlt ist HDR. Der Sprung aber von 8bit zu 10bit ist der grosse Sprung und nicht das zusätzliche HDR.

    17. Avatar von Ingo
      Ingo

      Ich wiederhole mich nochmal: mein TV zeigt auch alles in 10bit an. Der große Unterschied kommt aber durch HDR zustande, denn auf den Screenshots lässt sich HDR ein- und ausschalten, da habe ich den direkten Vergleich. Ohne HDR sieht das Bild blass und grell aus, mit HDR natürlich und lebendig.

      Ich habe gesagt dass wir schon seit Jahren 10bit Panels mit einer grösseren Farbpalette haben

      Und warum hast du dann im Jahr 2014 ein 8bit Panel gekauft? Nicht mal dein aktueller Monitor hat 10bit, das schafft der nur durch Emulation. Nur weil du Elektroschrott besitzt, musst du dich hier nicht so aufführen.

    18. Avatar von JTR
      JTR

      Das ist keine Emulation, FRC ist eine Art Interpolation. Dennoch kann ein 8bit + FRC echtes 10bit anzeigen, weshalb ja auch Dolby es sich nicht scheut 10bit+FRC als 12bit zu verkaufen.

      Wie gesagt der grosse Schritt ist die 10bit Technik und nicht das HDR. Und zudem wird wie bei Forza Horizon 3 auch getrickst. Dort werden bessere Texturen exklusiv mit angeschalteten HDR angeboten, obschon sie mit 10bit Panels auch sichtbar sind, nur halt nicht so detailliert wie mit HDR. Daher kommen jeweils die krassen Unterschiede. Das ist dasselbe wie einzelne Studios bei den Einführung von Blurays bei Neuerscheinungen extra die DVD Version schlechter machten (was Filmfans aufdeckten und zurecht erzürnte) um Bluray besser dastehen zu lassen. Was eigentlich ein völlig unnötiger Schritt ist.
      Natürlich bringt HDR etwas, aber die grossen Unterschiede zwischen den TV der letzten Generation (8bit ohne HDR) und den jetzigen (10bit und HDR) erklärt sich in erster Linie nicht wie vom Marketing beschrieben durch das HDR sondern durch den Wechsel von 8 zu 10bit, denn HDR mit 8bit würde nur wenig bringen, weil die Details die HDR einfach noch mehr heraus kristalisiert ist der grösseren Farbpalette zu verdanken. Wer aber schon wie wir PC Gamer 10bit Technik stehen hat, wird diese nicht gegen ein HDR Gerät so schnell ersetzen, das lohnt sich einfach nicht, zumal die HDR Technik erst am Anfang steht. Das erklären ua. solche Begriffe wie UHDR von Samsung, welchen sie bei TVs mit deutlich mehr als 1000nits gebrauchen. Und wie gesagt nach Dolbys Forschung wäre das Ziel 10’000 nits. Kann man bereits kaufen, aber das will von uns niemand bezahlen (das sind nämlich schon 8K TVs).

    19. Avatar von Ingo
      Ingo

      Wer aber schon wie wir PC Gamer 10bit Technik stehen hat

      Der hat immer noch kein HDR. Lies doch bitte nur einmal richtig, was wir schreiben.
      Dein Monitor hat außerdem nur native 8bit. Die 10bit werden softwareseitig ermogelt, was schlicht Technikschrott ist. Diese Kombi kam bei der ersten HDR TV Generation vor, damit war aber kein echtes HDR möglich. UHD Premium verlangt deshalb native 10bit. Deine Monitore davor hatten im übrigen allesamt kein 10bit, nicht nativ und auch nicht per FRC. Das wRen allesamt 8bit Schrott Dinger. Und nochmal: 10bit allein reicht nicht, schon gar nicht per FRC. Was man benötigt sind native 10bit und Helligkeitswerte von 1000 Nits bei LCD Displays. Dein Monitor ist davon Lichtjahre entfernt, also erzähle uns doch bitte nicht, der Unterschied wäre nur minimal. Er ist gigantisch durch HDR.

    20. Avatar von Marc
      Marc

      Artikel ist aktualisiert.

    21. Avatar von Hanswurst
      Hanswurst

      JTR argumentiert wie jemand, der HDR noch nicht gesehen hat.

    22. Avatar von JTR
      JTR

      Instabilen Treiber, Quelle oder einfach nur pure Polemik? Far Cry 5, Destiny 2 usw. diverse aktuelle Titel haben ein HDR Support am PC. Am PC konnte man mit einem entsprechenden TV HDR gleichzeitig zu den Konsolen nutzen. Die Analogie TV und Konsolen passen nur zusammen ist eine Denkweise aus den 90er und hat mit den heutigen Realitäten nichts mehr gemein. Ein PC am TV ist heute keine Seltenheit mehr.

      Ich habe HDR schon gesehen beim Showroom von Digitec. Sieht nett aus, aber eben die empfundene Farbtiefe habe ich auch schon so am PC, da sehe ich von Auge kein Unterschied.

      Beim PC sollte man auf Displayport (1.4 für HDR) und nicht HDMI Bezug nehmen, da die meisten Monitore bei Gamer nur schon um über 100Hz zu kommen angeschlossen sind. Da ist HDR sogar erst 2016 möglich gewesen. Nur: Warum kümmert dich das überhaupt wenn erst Ende 2016 die ersten TVs mit nativen 10bit und HDR erschienen? Was sollte ich vorher mit dem HDR API Support¹? Wie gesagt ich habe dafür jahrelang ein echten Adobe RGB Bereich gehabt, wo TVs das nicht konnten.

      Und was du Marc richtig bemerkt hast: bei den meisten Spielen dürften die Assets nicht 10bit vorliegen, wurden also einfach per Schnellverfahren (vorgefertigte HDR Filter wie bei Fotografie) hingepatcht worden sein.

      ¹war im Nvidia SDK wegen der Vorlaufzeit für die Production aber schon jahrelang da!

    23. Avatar von Marc
      Marc

      @JTR
      Bitte nimm wahr, dass HDR nicht nur die Farbtiefe sondern eben auch die Helligkeit bzw. der Kontrast und Dynamik ist. Das habe ich im Artikel zwar geschrieben aber du scheinst es echt verstehen zu wollen.

      Es ist schön, dass manche PCs theoretisch dazu in der Lage gewesen wären, eine höhere Farbtiefe anzuzeigen. War aber faktisch nicht so weil a) Treiber das nicht in Spielen liefern konnten b) es keine Inhalte gab und c) keine Monitore.

      Jetzt gibt es TVs mit 10 Bit Panel und viel wichtiger: Einen Standard der zuerst von den Konsolen implementiert wurde. Auch die TVs selber mit ihren internen Netflix und Amazon Prime Playern konnten das vorher. Windows hat gerade vor kurzem erst in Netflix Support dafür bekommen.

      HDR ist wegen mehr Farbtiefe und deutlich (!) mehr Kontrast so toll.

    24. Avatar von JTR
      JTR

      Doch genau das habe ich ja den Herren hier versucht zu eklären. Farbpalette kommt durch Wechsel von 8 auf 10bit, HDR erweitert die Helligkeitsabstufungen (was wiederum den Farbraum erweitert). Gamut Support gibt es bei den PCs schon lange, das ist nichts neues. HDR ist neu. Und nein die Konsolen waren nicht vor dem PC, da würde dir Nvidia entschieden widersprechen. Und komischerweise hatte die PC Version von Destiny 2 vor der Konsolenversion HDR Unterstützung!
      Netflix ist ein Sonderfall, man kann auch sehr kompliziert tun was das DRM anbelangt. Netflix wird deswegen auch genug oft kritisiert, dass sie technisch etwas nicht hinbekommen was die Konkurrenz problemlos hin bekommt. Eigentlich sollte vorallem für Netflix gar keine App nötig sein, sondern einzig und allein in jedem Browser in 4K mit HDR laufen. Die heutige Webtechnologie macht das möglich.

    25. Avatar von Marc
      Marc

      Hatte ein Spiel auf dem PC HDR als Standard vor der PS4 implementiert, so dass man es auf einem neuen Fernseher von 2016 nutzen konnte? Ich beantworte mal die Frage: Nein.

    26. Avatar von Fanha
      Fanha

      Die Analogie TV und Konsolen passen nur zusammen ist eine Denkweise aus den 90er und hat mit den heutigen Realitäten nichts mehr gemein.

      Sehe ich anders. Ein PC am TV ist nicht praktikabel da du von der Couch aus nicht Tastatur und Maus komfortabel bedienen kannst. Steam Machine sind auch wieder eingestellt, weil es niemand am TV nutzt. Nach wie vor werden PCs an Schreibtischen genutzt auf denen Monitore stehen, ganz offensichtlich auch bei dir.

      Du klingst ein wenig so wie ein schlechter Verlierer. Nur weil TV Industrie und Konsolen Innovationstreiber sind versuchst du es krampfhaft kleinzureden. Deine Argumentationskette besteht seit Tagen nur daraus HDR schlecht zu reden und so zu tun als gäbe es das alles auf PC schon seit 10 Jahren.

    27. Avatar von JTR
      JTR

      Sehe ich anders. Ein PC am TV ist nicht praktikabel da du von der Couch aus nicht Tastatur und Maus komfortabel bedienen kannst.

      Wieso muss ein TV vor einer Couch stehen. Ich rede davon TV als grossen Monitor zu verwenden. Du denkst auch nur in deinem kleinen Spektrum was?

      Konsolen waren Innovationstreiber bei optischen Datenträger und bei Move Steuerungen. Das eine ist inzwischen obsolet, das andere hat sich nie durchgesetzt.

      Nein ich rede HDR nicht schlecht, auch wenn jeder den ich kenne der es gesehen hat, als nett aber nicht mehr bezeichent. Ich kenne niemand der vor kurzem ein TV gekauft hat welcher noch kein HDR hat, deswegen gleich wieder zugreift. Niemanden! Und ich freue mich darauf, aber da das Material von HDR erst im kommen ist, kann ich gut und gerne noch warten und freue mich auf die neueren Modelle mit besserer Hintergrundbeleuchtung. Denn diese ist essentiell bei HDR, oder will das jemand abstreiten?

    28. Avatar von Ingo
      Ingo

      Es gibt auch Leute, die HD oder 4k Auflösung als nett empfinden und es nicht als Muss betrachten. Es gibt auch Leute denen Switch Grafik völlig ausreicht. Es gibt aber auch Leute, die Wert auf neue Technologie legen, und für diese Leute bietet HDR eine deutlich verbesserte Optik, die man nicht kleinreden kann. Wir reden hier nicht über minimale unterschiedliche Auflösungen wie zwischen PS4pro und Xbox One X wo man erst mit 300x Zoom Unterschiede erkennen kann um dann so zu tun als wäre die eine Version die Offenbarung und die andere unspielbar, wir reden hier über etwas was sofort ins Auge sticht. Wie gesagt, ich kann alle Screenshots in HDR und SDR sehen und hin und herschalten und da liegen Welten zwischen. Und nein, da wird nicht gemogelt, das ist einfach der tatsächlichen Unterschied, wenn ein TV plötzlich nicht mehr nur Bilder in der Range bis 300Nits sondern 1000Nits darstellen kann. Das SDR Bild sieht immer verwaschen und grell aus im Vergleich zu HDR. Man hat es nur anders empfunden, weil man es so gewohnt war. Hat man sich einmal an HDR gewöhnt will man nicht mehr wieder zurück.

    29. Avatar von JTR
      JTR

      Genau und ich freue mich sobald ich ein TV mit guter Hintergrundbeleuchtung ohne Ghosting bekomme. Ob ich das ganze nun 12 Monate früher oder später habe, spielt mir keine Rolle. So ein Nerd bin ich nicht mehr.

  2. Avatar von Ingo
    Ingo

    Gamestar hat die ersten beiden angeblichen HDR Monitore getestet und kommt zu ernüchternden Ergebnissen.

    Zitat

    das für beide TFTs verwendete IPS-Panel mit Blick auf die Farbtiefe keine nativen 10 Bit zu bieten hat, sondern »nur« 8 Bit samt Frame Rate Compensation (FRC).

    Ziemlich schwach, denn native 10 Bit sind bei Fernsehern schon seit zwei Jahren Standard.

    Dazu kommt das Henne-Ei Problem:

    Nvidia spricht von aktuell 31 Titeln, während Microsoft für die Xbox One X mehr als doppelt so viele Spiele nennt. Das ist zwar nicht so überraschend, da Konsolen meist an einen Fernseher angeschlossen werden und HDR hier klar weiterverbreitet ist als im Falle von PC-Bildschirmen. Den Anreiz, sich einen HDR-Monitor zu kaufen, erhöht die geringe Spielezahl aber sicher nicht.

    Auf der anderen Seite lohnt es sich mehr für die Entwickler, sich um eine gute HDR-Umsetzung zu kümmern, wenn möglichst viele Spieler einen entsprechenden Bildschirm besitzen – womit wir beim alt-bekannten Henne-Ei-Problem wären.

    Angeblich sei es laut Nvidia kein großer Aufwand HDR in Spielen zu implementieren. Das ist dreist gelogen, Entwickler haben gegenüber digital Foundry bereits zugegeben, dass der Aufwand bei PC Spielen nicht zu rechtfertigen ist:

    Nvidia hat uns gegenüber geäußert, dass es grundsätzlich kein allzu großer Aufwand für die Entwickler sei, HDR in ihre Spiele zu implementieren. Ein klarer Kontrast dazu ist das Beispiel von Sea of Thieves: Obwohl es auf der Xbox One X HDR unterstützt, fehlt die entsprechende Option auf dem PC.

    Gegenüber Digital Foundry haben die Entwickler das mit der geringen Zahl an HDR-Monitoren in diesem Umfeld begründet. Wenn das aber dazu führt, dass selbst der Aufwand dafür gescheut wird, HDR in einem Spiel für eine bestimmte Plattform zu integrieren, das die Technik auf einer anderen Plattform bereits unterstützt, dann macht uns das nicht unbedingt zuversichtlich für die HDR-Zukunft auf dem PC.

    Zu guter letzt ist Gamestar wenig zuversichtlich, dass ich HDR am PC durchsetzen wird:

    Unabhängig davon dürften aber noch einige Jahre vergehen, bis sich HDR auf dem PC wirklich durchgesetzt hat – falls es überhaupt dazu kommt.

    Ich gehe davon aus, dass es nicht dazu kommt, da klassische Coregames kaum noch am PC gespielt werden. Jene die sich dafür interessieren haben sich längst eine Konsole gekauft. Am PC werden vorrangig Browsergames und MMO gespielt die ohnehin nicht den Wert auf Grafik legen.

    1. Avatar von JTR
      JTR

      Ich gehe davon aus, dass es nicht dazu kommt, da klassische Coregames kaum noch am PC gespielt werden. Jene die sich dafür interessieren haben sich längst eine Konsole gekauft.

      Darum macht der PC in dem Sektor mehr Umsatz als die Konsolen, ne ist klar! Und es hat sich schon durchgesetzt am PC, was Gamestar hier (hier kommt ihre nicht vorhandene Recherche zum Zug) diskutiert ist schon längst Geschichte. Jedes Spiel das für Nvidia Karten optimiert wird, das sind die Mehrheit aller Blockbuster, hat auch eine HDR Unterstützung, weil das Nvidia so will. Und bei AMD optimierten Spielen müsste es eh der Fall sein, schliesslich verwenden die Konsolen AMD APUs.

    2. Avatar von Fanha
      Fanha

      Darum macht der PC in dem Sektor mehr Umsatz als die Konsolen, ne ist klar!

      Nein du verwechselst das mit dem MMO Markt und den Browser Games. Die klassischen Spiele verkaufen sich auf den Konsolen besser.

    3. Avatar von Fanha
      Fanha

      HDR auf PC Monitore ist auch zu hell für die Augen. Wird sich nicht durchsetzen können.

    4. Avatar von Hanswurst
      Hanswurst

      Gamestar liegt hier besonders beim Henne-Ei Problem absolut richtig. Deshalb kommt das Thema nicht wirklich voran.

    5. Avatar von Faktencheck
      Faktencheck

      Ziemlich schwach, denn native 10 Bit sind bei Fernsehern schon seit zwei Jahren Standard.

      Nein. Überhaupt sind die Eckdaten, die hier an ein PC-Monitor gestellt werden (4K, 10 Bit, 1000 Nit) noch überhaupt nicht Standard bei TV-Geräten. Es gibt noch mehr als genug Fernseher, die überhaupt keine 4K-Auflösung haben oder mit RGBW schummeln. Bei HDR-Geräten im unteren Preissegment sind 8 Bit + FRC Standard, genauso wie eine maximale Helligkeit von 350-400 cd/m². Und selbst hochpreisige Fernseher haben oftmals „nur“ 600 Nit oder für ein gutes HDR-Bild unbrauchbare Hintergrundbeleuchtung (Edge-LED).

    6. Avatar von Hanswurst
      Hanswurst

      Überhaupt sind die Eckdaten, die hier an ein PC-Monitor gestellt werden (4K, 10 Bit, 1000 Nit) noch überhaupt nicht Standard bei TV-Geräten.

      Doch das ist Standard ab Mittelklasse aufwärts. Beim PC ist das weder in der Mittelklasse der Fall noch in der Oberklasse.
      Die Monitore hinken den TVs um gut vier Jahre hinterher. Das was euch da für 3000€ angeboten wird ist auf dem Niveau der ersten HDR TVs. Billige 8 Bit Panels für teuer Geld.

      Samsung ist bei den QLED TVs schon bei 2000 Nits und ein 10 Bit Panel ist völlig normal.

    7. Avatar von Faktencheck
      Faktencheck

      Doch das ist Standard ab Mittelklasse aufwärts.

      Weil du dir (oder meinetwegen auch Samsung sich) die Mittelklasse so hindefinierst. Genausogut kann ich definieren, dass die HDR-Einsteigerklasse bei PC-Monitoren eben jene sind, die diese Anforderungen erfüllen und damit ist das dort Standard (und kostet im Falle des DELL höchstens die Hälfte von deinen aus der Luft gegriffenen 3000€). Dass es damit nur noch eine handvoll Modelle in der Einsteigerklasse (und keine Mittel- oder Oberklasse) gibt ist ja egal.

      „Standard bei TV-Geräten“ ist für mich das, was die Masse kauft/gekauft hat. Und wenn man sich eben mal anschaut, was da in den Märkten steht, dann sieht man viele, um nicht zu sagen fast ausschließlich, Modelle, die von 4K/10 Bit/1000 Nit noch ein ganzes Stück entfernt sind. Selbst Marcs Fernseher schafft die 1000 Nit nur kurzzeitig für einen kleinen Bereich und wird auf displayspecifications.com mit einer Helligkeit von 500 cd/m² gelistet. Wenn man sich das Modell noch zwei Nummern kleiner nimmt, ist da plötzlich auch nur noch ein 8 Bit Panel (+ FRC) drin, wie in quasi allen Fernsehern unter 50 Zoll Diagonale. Das legt den Verdacht nahe, dass es (auch) technische/physikalische Gründe hat, dass kleinere Bildschirme nur 8 Bit haben. Genauso bei der Auflösung – 1920×1080 Pixel haben bei 26 Zoll Diagonale eine deutlich höhere Dichte als 3840×2160 Pixel bei 65 Zoll Diagonale. Trotzdem wird hier so getan als wäre der 4K-Fernseher „besser“ als der FHD-Monitor. Wenn ich natürlich unbedingt 4K haben will, brauchen wir darüber nicht zu diskutieren. Allerdings wäre schon die Frage, ob/wann man welche Pixeldichte braucht. Das ist dann noch ein Endlos-Offtopic …

    8. Avatar von JTR
      JTR

      Ich habe explizit auf echtes 4K verzichtet, weil mir das 21:9 wichtiger war. Auf der Breite habe ich 4K, in der Höhe nicht. Das kann man als Makel anschauen, ich finde es sogar gut, weil damals war ich noch nicht mit der GTX-1080 unterwegs und es war für die FPS ein guter Kompromiss und gleichzeitig hat man Cinescope Format. 4K und 21:9 würde eigentlich bedeuten dass man die Höhe auf 4K Niveau nimmt und in der Breite dann aber weit über das kommt was 4K bietet, sprich man bräuchte auch massiv mehr Rechenkraft, was zur Zeit schlicht Unsinn ist.

    9. Avatar von Marc
      Marc

      Wir reden hier doch über Spiele, oder? Auf den Konsolen unterstützt kein Spiel 21:9. Auf dem PC haben sicherlich auch die wenigsten angepasste UIs für 21:9. Nicht mal UltraHD BluRay hat es in den Standard übernommen. HDR schon.

      Und was hat das mit dem Thema HDR zu tun? Denn das wird der 21:9 wohl auch nicht unterstützen weil das in einer Zeit aktuell war, als HDR noch kein Thema war.

    10. Avatar von JTR
      JTR

      Alle aktuellen Spiele laufen auf 21:9 auf dem PC ohne Probleme. Es hat mich selber erstaunt, aber mir ist nur Tekken 7 untergekommen welches auf ein 16:9 Bild einschränkt, und das logischerweise wegen dem Turniermodus. Wäre ja echt unfair. Aber selbst Tekken 7 erkennt 21:9 Formate problemlos.

    11. Avatar von JTR
      JTR

      Korrektur: Diablo 3 muss man Vollbild Fenstermodus wählen und sieht beim Startmenu am Rand dass der Screen gemogelt ist. Sobald man aber im Spiel ist stimmt alles wie es soll (Menus usw). Erstaunlicherweise sind die kompetitiven Spiele von Blizzard wie Heroes of the Storm und Overwatch von Anfang an mit 21:9 Support gekommen, obschon es dir ein erheblicher Vorteil verschafft (gerade bei Overwatch!).

    12. Avatar von Hanswurst
      Hanswurst

      Weil du dir (oder meinetwegen auch Samsung sich) die Mittelklasse so hindefinierst.

      Wer außer der Hersteller selbst kann das denn definieren? Bei jedem Hersteller kannst du gerne die Preise vergleichen. Die Mittelpreisigen sind UHD Premium fähig.

      Genausogut kann ich definieren, dass die HDR-Einsteigerklasse bei PC-Monitoren eben jene sind, die diese Anforderungen erfüllen und damit ist das dort Standard (und kostet im Falle des DELL höchstens die Hälfte von deinen aus der Luft gegriffenen 3000€).

      Das ist jetzt ziemlich lachhaft. Es kommen jetzt gerade die ersten HDR Monitore raus mit 8 Bit Panel. Das ist schlicht und ergreifend Schrott (sagt selbst JTR im PC Forum) weil Technik von vorgestern drin ist und das zu einem Preis von 3000€ (die Summe kommt von JTR aus dem PC Forum).

      Trotzdem wird hier so getan als wäre der 4K-Fernseher „besser“ als der FHD-Monitor. Wenn ich natürlich unbedingt 4K haben will, brauchen wir darüber nicht zu diskutieren. Allerdings wäre schon die Frage, ob/wann man welche Pixeldichte braucht.

      Das würde bedeuten, dass du zukünftig nur noch auf Smartphones spielst, denn da ist die Pixeldichte am höchsten.
      So ein Quatsch. Nicht die Pixeldichte ist entscheidend sondern Auflösung und Abstand zum Bild.
      Auf einem TV sitzt du weiter weg als vor einem Monitor, ein Smartphone hälst du noch näher dran.

  3. Avatar von cb3000
    cb3000

    Weil du dir (oder meinetwegen auch Samsung sich) die Mittelklasse so hindefinierst. Genausogut kann ich definieren, dass die HDR-Einsteigerklasse bei PC-Monitoren eben jene sind, die diese Anforderungen erfüllen und damit ist das dort Standard (und kostet im Falle des DELL höchstens die Hälfte von deinen aus der Luft gegriffenen 3000€).

    Das Schrotteil kostet wirklich 3000 Euro nachdem ursprünglich 1500 und dann 2000 Euro angepeilt wurden. Sorry aber dafür bekomme ich einen 82 Zoll TV mit richtigen HDR.
    Die Monitorhersteller sollen sich mal mehr Mühe geben aber es gibt anscheinend genug Leute die dem voll auf den Leim gehen.
    Das was du für 1500 Euro bekommst ist noch mehr Schrott und dafür dann auch viel zu teuer.
    Für einen deutlich grössern Fernseher ist der Mensch bereit einen vierstelligen Betrag zu investieren, bei kleinen Monitoren liegt die Schwelle eher bei 500 Euro.

  4. Avatar von Faktencheck
    Faktencheck

    Nochmal: „native 10 Bit sind bei Fernsehern schon seit zwei Jahren Standard“ suggeriert, dass quasi alle Fernseher die aktuell verkauft werden ein 10 Bit Panel verbaut haben. Das ist nicht so. Und noch weniger erfüllen die 4K und/oder 1000 Nit, obwohl hier so getan wird, als sei dies das absolute Minimum, was TV-Geräte können.

    Es kommen jetzt gerade die ersten HDR Monitore raus mit 8 Bit Panel.

    Es gibt bereits HDR Monitore mit 10 Bit Panel (Dell UP2718Q).

    Nicht die Pixeldichte ist entscheidend

    Sage ich doch: „Allerdings wäre schon die Frage, ob/wann man welche Pixeldichte braucht.“

    sondern Auflösung und Abstand zum Bild.
    Auf einem TV sitzt du weiter weg als vor einem Monitor, ein Smartphone hälst du noch näher dran.

    Was ist dann das beste Gerät (und warum)? Ein 5″-Smartphone mit 1920×1080 Pixel Auflösung, das ich mir vor die Nase halte, ein 26″-Monitor mit der selben Auflösung, der 50-60 Zentimeter vor mir steht oder ein 4K-65″-TV, der in drei Meter Entfernung an der Wand hängt?

    1. Avatar von Hanswurst
      Hanswurst

      Der von Dell ist kein Gaming Monitor sondern für Bildbearbeitung. Und das HDR ist nicht korrekt kalibriert. Schrott für Gamer.

    2. Avatar von Faktencheck
      Faktencheck

      Fernseher von Samsung sind nicht fürs Konsolenspielen sondern für Netflix und Co. Und das HDR ist nicht korrekt kalibriert. Schrott für Gamer.

  5. Avatar von JTR
    JTR

    Ich sehe das Problem bei beidem nicht. Weder Monitore noch TVs sind für Konsolen oder PC festgelegt. Ich kann beides an beidem anhängen. Ich kann nicht immer bei jedem jedes Feature richtig nutzen. Ein G-Sync 144Hz Monitor nützt mir an der Konsole herzlich wenig. Ingesamt steht da der PC besser da, da er eigentlich alle Features eines TV nutzen kann.

    1. Avatar von Marc
      Marc

      Der KS8000 bzw KS7090 von Samsung ist ein GamingTV.

    2. Avatar von Ingo
      Ingo

      Fernseher von Samsung sind nicht fürs Konsolenspielen sondern für Netflix und Co

      Du bist falsch informiert. Gerade die Samsung TVs sind perfekt für Konsolen, sagen auch die Testberichte.
      Der Monitor ist dagegen wirklich sprichwörtlicher Schrott, zumindest für spielen, sagen auch die Testberichte.

      Die ersten HDR Monitore die gamingtauglich sind kommen erst gerade. Und das mit Technik auf dem Stand von vor drei bis vier Jahren für 3000€

    3. Avatar von Faktencheck
      Faktencheck

      Samsung sagt/empfiehlt etwas anderes: 55″ Curved QLED TV Q8C oder 65″ Flat QLED TV Q8F.

      Aber eigentlich wollte ich nur zeigen, wie dämlich die Aussage, dass der Monitor nicht fürs Spielen geeignet ist, ist.

    4. Avatar von Hanswurst
      Hanswurst

      Nein, du bist offenbar nicht in der Lage den Text zu verstehen. Samsung empfiehlt auf der Seite bestimmte Eigenschaften und bietet auch eine Checkliste an anhand der man einen Gaming TV erkennt. Wenn alle Punkte erfüllt sind, dann ist der TV ein Gaming TV. Marcs TV erfüllt all diese Punkte.

      Anders ist es bei dem Monitor, der eben nicht Gamingtauglich ist laut diversen Tests. Das HDR ist z.B grottenschlecht weil der Monitor nicht die korrekten Helligkeiten anzeigen. Und PC notwendige Eigenschaften fehlen dem Monitor auch. Das Ding ist was für die Bildbearbeitung, nicht zum zocken.

      Ganz ehrlich: wenn du dich schon Faktencheck nennst, dann informiere dich und bleibe auch mal objektiv. Du versuchst mit irgendwelchen lächerlichen Relativierungen den PC gut dastehen zu lassen obwohl jedem klar ist, dass HDR am PC deutlich zurückliegt.

    5. Avatar von Faktencheck
      Faktencheck

      Welchen Punkt (abgesehen von der Größe) erfüllt der Monitor nicht?
      – UHD, check
      – HDR (1000 nits) u. hohes Farbvolumen, check
      – Reaktionszeit deutlich unter 50 ms, check
      – Bildrate von 60 Hz, check
      – Betrachtungswinkel nahe 180°, check
      – Anschlüsse: HDMI 2.0a u. Display Port 1.4, check
      Da hast du deinen objektiven Faktencheck. Kannst du jetzt deine lächerlichen Versuche den Monitor schlecht zu reden lassen? Es ist erschreckend, wie die bloße Existenz dieses Monitors (und vielleicht noch zwei anderen Modellen) dir Angst zu machen scheint. Als ob dein TV dadurch irgendwie schlechter werden würde.

      Und PC notwendige Eigenschaften fehlen dem Monitor auch.

      Bitte was?

    6. Avatar von Hanswurst
      Hanswurst

      Oh Mann… Die Checkliste für TVs ist doch nicht für Monitore relevant.

    7. Avatar von JTR
      JTR

      Mit Nvidias BFGD Initiative verschwimmt die Grenze zwischen Monitore und TVs in paar Monaten sowieso.

    8. Avatar von Faktencheck
      Faktencheck

      Der KS8000 bzw KS7090 von Samsung ist ein GamingTV.

      Der KS7090 ist aufs 4K-Gaming zugeschnitten und bietet einen speziellen Gaming-Modus, der sich einzeln für den HDMI-Port aktivieren lässt und das Bildsignal ohne vom TV gesteuerte Bildverbesserung durchjagt. So sinkt der Input-Lag erheblich, im Netz wird von Werten bis hinunter zu 21 Millisekunden berichtet. Wird HDR aktiviert, schaltet der Gaming-Modus leider automatisch ab und wegen der höheren Datenmenge landet das Bild langsamer beim Display, was vor allem beim Onlinegaming und schnellen Shootern stört. Mit aktiviertem HDR und 4K steigt der Input-Lag auf über 100 Millisekunden.

    9. Avatar von JTR
      JTR

      Kann es sein dass darum sich die Gaming Monitor Hersteller schwer tun, weil PC Gamer so eine Latenz sofort bemerken und reklamieren würden? Schliesslich habe ich kein 144Hz Display um nachher durch die HDR Verarbeitung eine solche Latenz zu haben. Und wenn das der technische Background ist, dann muss ich mich schwer korrigieren. Dann hat ja Asus mit seinem Monitor sogar technisches Neuland betreten und etwas geschaffen wovon die TV Industrie weit weg ist (einmal mehr). Das würde so vieles erklären!

    10. Avatar von Faktencheck
      Faktencheck

      Fairerweise muss ich sagen, dass ich nach längerer Recherche Aussagen (in Foren) gefunden habe, dass sich nach einem Firmware-Update der HDR-Modus mit dem Gaming-Modus zusammen aktivieren lässt. Dadurch steigt der Input Lag angeblich nur noch minimal (~2 ms?) im HDR-Modus an. Realistisch gesehen sind wir dann aber auch bei den 25 ms, die beim Dell-Monitor für Gamer angeblich nicht mehr ausreichend sind.
      Was ich allerdings nicht gefunden habe, ist ein ausgiebiger Test, inwieweit der TV wirklich die geforderten Helligkeiten anzeigt. Insbesondere wenn HDR + Gaming Mode aktiv sind.

    11. Avatar von JTR
      JTR

      Ich wollte gerade sagen, 100ms Inputlag sind krass viel. Und ja man muss mich nun nicht auf den Emulatoren Artikel aufmerksam machen, dort geht es um eine gesamte Verzögerung (TV, Emulation, Pad usw.) von insgesamt ca. 120ms und schon das ist viel! Aber klar ist auch, dass je mehr am Bild herum gerechnet wird, desto grösser werden die Latenzen. Das ist ja der Grund warum letztlich gesagt wurde, dass moderne Spielsysteme nie an die Latenzen alter Systeme wie PC aus den 80er oder Spielhallen Automaten heran kommen.

    12. Avatar von Hanswurst
      Hanswurst

      Herrlich, wie zwei Ahnungslose untereinander kommunizieren.

      Der TV von Marc liegt bei 24 ms, die Nachfolger bei 19 ms. Das reicht bei Spielen die mit Gamepad gesteuert werden locker aus. Selbst 40 ms sind da noch ein sehr guter Wert.

    13. Avatar von Marc
      Marc

      Mein Samsung 65 Zoller hat laut rtings.com bei 4k @ 60Hz + HDR nur 21.1 ms Bei 1080p bei 60hz noch weniger. ;-)

  6. Avatar von JTR
    JTR

    Ist etwa die Reaktionszeit die mein allerersten TFT Monitor hatte und ich hatten die Schlieren deutlich bemerkt.

    1. Avatar von Marc
      Marc

      Der war sicherlich auch nicht 65 Zoll groß und hatte HDR nehme ich an. Das sind schon einiges an Pixeln, die da bewegt werden müssen. ;-)

    2. Avatar von Hanswurst
      Hanswurst

      Ist etwa die Reaktionszeit die mein allerersten TFT Monitor hatte und ich hatten die Schlieren deutlich bemerkt.

      Du verwechselst Input Lag mit Reaktionszeiten der Pixel.

  7. Avatar von Ingo
    Ingo

    Ich habe gesagt dass wir schon seit Jahren 10bit Panels mit einer grösseren Farbpalette haben

    Dann nenne uns mal ein Modell mit einem 10 Bit Panel. Es sind bei den Monitoren nachwievor 8 Bit der Standard. Vor 15 Jahren waren es sogar nur 6 Bit. Das höchste der Gefühle bei den Monitoren sind 8 Bit + FRC und das ist Schrott.

    Bei den TVs gibt es schon einigen Jahren native 10 Bit Panels, nur ist das ohne HDR witzlos gewesen.

  8. Avatar von S7
    S7

    Nur am PC sind 10bit Panels (sofern man nicht ultra billig Monitore made in China kauft) schon lange standard bei IPS, MVA, PVA usw. Ich habe seit 2005 nur noch 10bit Panels hier stehen

    Zitat JTR

    Der war echt gut.

  9. Avatar von Marc
    Marc

    Ich habe mal den Artikel um das Video von Digital Foundry erweitert

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert