Unterschiede von HDR in der Fotografie und HDR für Fernseher

High Dynamic Range (HDR) ist gerade DAS Verkaufsargument für Fernseher und somit Streaming-Dienste wie Netflix und Konsolen wie der PlayStation 4 und Xbox One S. Leider kennen viele den Unterschied zu dem selben Begriff aus der Fotografie nicht.

High Dynamic Range: Aufnahme VS. Anzeige

Manche kennen den Begriff HDR vielleicht aus der Aufnahme von Bildern, der Fotografie und verwechseln dies mit der Anzeige von Bildern in HDR. Obwohl beide Technologien als Ziel eine realistischere Bildwiedergabe zu ermöglichen, sind sie dennoch unterschiedlich und haben wenig miteinander zu tun.

HDR für Fernseher ist ein Prozess zur Anzeige von Bildern. Dabei werden spezielle HDR-Inhalte vom Fernseher erkannt und auf eine Art und Weise dargestellt, wie es „herkömmliche“ SDR-Fernseher nicht können.

HDR für Kamera ist ein Aufnahmeprozess. Hierbei werden mehrere Fotos mit unterschiedlichen Belichtungszeiten aufgenommen und zusammengeführt. Dies erzeugt einen Effekt, der mehr oder weniger so aussieht, wie unser menschliches Auge die Szene ebenfalls sehen wahrnehmen würde. Jedenfalls besser, als eine einzelne Belichtungszeit dies könnte.

High Dynamic Range Fotografie
Eine High Dynamic Range Fotografie. Darunter sieht man die drei unterschiedlichen Belichtungszeiten, aus denen das obere Bild zusammengesetzt wurde.

HDR in der Fotografie

In den richtigen Händen können High Dynamic Range-Bilder richtig toll aussehen. Denn die Kombination der idealen Belichtungszeiten für sehr dunkle und sehr helle Bereiche kann die Details in den Schatten eines Bilder aber auch die Details in den Wolken gut herausbringen. Mittlerweile hat jedes durchschnittliche Smartphone eine solche Option, um Fotos im Nachhinein besser aussehen zu lassen.

Oftmals sehen diese Bilder kitschig aus, weil die Fotografen es übertrieben haben. Grelle Farben lassen Szenen so aussehen, als ob die Objekte und Wände selber Licht ausstrahlen würden.

HDR in Horizon Zero Dawn
Der Effekt ist nur mit einem HDR-fähigen Abspiel- und einem HDR fähigen TV-Gerät sichtbar. (Beispiel: Horizon Zero Dawn)

HDR für Fernseher

Gute Fernseher mit High Dynamic Range verfügen über eine sehr starke maximale Helligkeit. Dies erlaubt dem Fernseher Inhalte mit einem hohen Kontrast zwischen Hell und Dunkel und mehr Farbnuancen darzustellen.

Das Bild oben von Horizon Zero Dawn zeigt dies ganz gut: Die grelle Sonne am Himmel blendet den Zuschauer bzw. Spieler regelrecht während man immer noch unten links Details in den Schatten ausmachen kann.  Die Wirkung ist ein realistisches Bild ohne grelle Farben mit einem hohen Kontrast. Ebenso unterstützen The WitnessWipeout Omega, Nex Machina und Uncharted 4 als auch Uncharted – Lost Legacy High Dynamic Range.

Formate für HDR sind HDR10 und Dolby Vision. Dabei wird HDR10 von allen Geräten unterstützt und wenige Geräte können beide Formate verarbeiten und darstellen.

High Dynamic Range bei Mediamarkt und Saturn

Bei Saturn und Mediamarkt werden oftmals Demos auf den (günstigeren) Fernsehgeräten gezeigt, welche das Bild in zwei Bereiche aufteilt: Grelle Farben und ausgewaschene Farben und schreibt dann High Dynamic Range-Effekt dran. Hierbei wird nichts weiter gemacht, als auf der bunten Seite den Helligkeitswert auf das Maximum zu setzen.

Bright things can be really bright, dark things can be really dark, and details can be seen in both.nvidia über HDR Rendering

Ist High Dynamic Range wichtiger als 4k?

Tatsächlich können die meisten neuen 4k Fernseher High Dynamic Range darstellen. Wie gut oder wie schlecht hat in erster Linie mit der Helligkeit und der Qualität des Panels zu tun. Ein natives 10-Bit Panel (nicht mit HDR10 verwechseln!) um mehr Farbnuancen darzustellen sowie eine hohe maximale Helligkeit von mindestens 1.000 Nit. Außerdem sollte der TV viele unterschiedliche Helligkeitszonen bestehend aus LEDs besitzen. Bei dem teureren OLED leuchten die Pixel selber und werden nicht von hinten angestrahlt.

HDR Rendering - Half-Life: Lost Coast 2005
Half-Life: Lost Coast 2005: Links HDR Rendering an und rechts aus

Unterstützung von HDR am Spiele-PC

Half-Life Loast Coast hat 2005 bereits einen Modus namens HDR Rendering vorgestellt. Dabei ging es darum, den Effekt von Überstrahlung durch Sonne und Reflektionen auf die virtuelle Welt zu übertragen. Einen ähnlichen Effekt nutzen manche Rennspiele, wenn man aus dunklen Tunnel in die helle Sonne fährt und alles kurz weiß wird. Titel wie Oblivion nutzen „Bloom“ um helle Bereich zu überstrahlen. Dies sind aber nur Effekte und haben nichts mit der Ausgabe von mehr Farben oder mehr Kontrastbereichen zu tun.

High Dynamic Range ist mehr als nur 10 bit Farbpräzision für Y,U und V (30 Bit Farbtiefe). Die meisten PC-Monitore sind wahrscheinlich für sRGB oder AdobeRGB kalibriert. HDR fügt dem System ein neues Kalibrierungsziel hinzu, welches ein „breiteres“ Farbspektrum bedeutet. Erst seit 2015 unterstützt HDMI 2.0a die Bandbreite für HDR.

Es gibt für professionelle Anwendungen für den PC Monitore mit nativem 10 Bit Panels. Diese können zwar die Farbtiefe aber nicht die Kontrastverhältnisse für HDR darstellen. Das heißt, Farbverläufe konnten besser dargestellt werden aber dadurch wird der Sonnenaufgang in Spielen nicht eindrucksvoller. Und das liegt nicht daran, dass nur ein Bruchteil der Monitore am PC über ein natives 10 Bit Panel verfügen.

Die Softwareunterstützung in Spielen, in den Windows-APIs und den Treibern der Grafikkartenhersteller hat bislang diese Technologie am PC nicht für nutzbar gemacht. Alien Isolation ist eines der ganz wenigen Titel der aktuellen Zeit, welches 10 Bit „Deep Color“ überhaupt unterstützt. Echtes High Dynamic Range mit Kontrastinformationen und Deep Color wird nun am PC durch drei Dinge ausgebremst: Unterstützung in Spielen, Monitoren mit HDR-Unterstützung und fehlende stabile Treiber.

Samsung KS7090 an der Wand
Der Samsung UE65KS7090 aus Europa ist der KS8000 in den USA.

Welchen Fernseher soll ich mir für High Dynamic Range kaufen?

Ich habe mich nach langer Recherche für den Samsung UE65KS7090 entschieden. Andere haben sich den Samsung UE65MU8009 gekauft.

30 Antworten auf „Unterschiede von HDR in der Fotografie und HDR für Fernseher“

  1. HDR am TV ermöglicht es einfach feinere Farbdetails zu zeigen (bei Farbverläufe an Himmel kann man es am besten demonstrieren). Revolutionär ist es aber nicht wie es verkauft wird, weil teils schlicht gemogelt wird und extra schlechte SDR Beispiele mit extrem ausgearbeiteten HDR Beispiele verglichen wird. So funktioniert nun mal Marketing. De facto habe ich kaum Unterschiede zu meinem 10bit Monitor (zwar mit FRC aber das sieht kein Mensch von Auge) bemerkt. Ich bin mir an den Monitoren schon lange eine bessere Farbbrillanz auch mit SDR gewohnt. Denn auch innerhalb der Standards gibt es bessere und schlechtere Umsetzungen. Und wer sich Monitore für Grafiker kauft von DELL und Co, bekommt die nur schon vor kalibriert (inklusiv Protokoll). Da sieht man bei einem direkten Vergleich zu alten Bestands Monitor schon ein erheblicher Unterschied. Ging mir so, als ich mein neuen DELL 27″ mit 1440p IPS Panel neben den alten mit MVA Panel gestellt hatte. Nur schon die Hintergrundbeleuchtung macht viel aus. Ob das Panel etwas kann, heisst nicht dass durch falsche Kalibrierung und falscher Hintergrundbeleuchtung nicht viel kaputt gemacht werden kann. Das ist ua. der Grund warum ich auf die nächste Generation warte wo endlich das Thema Ghosting und Bleeding von der Industrie angegangen wird. Denn viele kennen es: TV sieht am ersten Tag genial aus, nach ein paar Jahren lässt die Leuchtkraft der Hintergrundbeleuchtung nach, es gibt Lichthöfe und die ganze Brillianz ist hin. Da kann das Panel selber dann so gut sein wie es will. Und hier hat eben OLED ein riesen Vorteil. So wird OLED diesbezüglich noch lange alle LED Technik schlagen und selbst mit niedrigen Kontrastwerte einfach bessere Bild liefern als ein Samsung mit QLED. Das Problem von OLED für mich als PC Gamer: kommt nicht in Frage wegen Einbrennen.

    1. Sei froh, dass du nach dem ersten Satz aufgehört hast zu lesen. Der Rest ist noch schlimmer… einfach nur unfassbar…

      Formate für HDR sind HDR10 und Dolby Atmos

      Hier hat sich ein Fehler eingeschlichen. Nicht Dolby Atmos sondern Dolby Vision.

    2. Nun ja zu einem bisherigen 10bit Gerät hat ein HDR nur den Dynamikumfang durch die bessere Abstufung, aber die Farbpalette ist dieselbe wie bei einem SDR Gerät welches 10bit unterstützt. Bei TVs gab es das nicht, es gab nur 8bit. Aber beim PC wird schon lange 10bit Unterstützt, aber einfach nicht HDR. Daher ist der Unterschied nicht so krass sichtbar wie bei TVs die bisher nur 8bit waren. Mein Samsung TV der letzten Generation hat nie die Farbbrillianz meines aktuellen Monitors. Das hat damit zu tun dass Betriebssystem auf dem PC schon länger grössere Farbspektren unterstützen. Darum empfinden PC Gamer die immer aktuelle Hardware hatten HDR nicht so revolutionär wie Konsolenspieler. 100% Adobe RGB konnten die TVs nicht, die PCs schon lange.

    3. aber die Farbpalette ist dieselbe wie bei einem SDR Gerät welches 10bit unterstützt

      Es fehlt aber der Dynamikumfang um die Abstufungen von 10 Bit überhaupt anzeigen zu können. Das was du sehen willst ist schlicht Einbildung.

      Daher ist der Unterschied nicht so krass sichtbar wie bei TVs die bisher nur 8bit waren

      So ein Blödsinn. Ich kann auf meinem UHD Premium TV hin und herschalten und direkt vergleichen. Die Screenshots mit HDR sehen um Welten realistischer aus als das SDR Bild. Beide sind mit 10 Bit aufgenommen und werden mit 10 Bit dargestellt, aber nur das HDR Bild kann sämtliche Abstufungen voll darstellen. Da ist auch nichts gefaket, denn die Screenshots in der Smartphone App, die ausschließlich in SDR angezeigt werden, sehen genauso aus wie das SDR Bild auf dem TV. Das HDR Bild ist aber um Welten realistischer und das bei allen meiner zuletzt gespielten HDR Titel. Dass du das nicht siehst, liegt daran, dass du nur das SDR Material gewohnt bist und das für normal empfindest. Hat man sich aber einmal an HDR gewöhnt, merkt man erst wie gravierend die Unterschiede sind. Das geht soweit, dass mir Need for Speed Payback und Wolfenstein 2 kaum Spaß gemacht hat haben, weil beide kein HDR unterstützen und ziemlich blass bis grell ausgesehen haben.

    4. Es fehlt aber der Dynamikumfang um die Abstufungen von 10 Bit überhaupt anzeigen zu können. Das was du sehen willst ist schlicht Einbildung.

      Ähm nein, es ist keine Einbildung, jeder Blinder sieht den Unterschied. Nur hast du scheinbar nie an einem Monitor mit 100% Adobe RGB Bereich gesessen. Meine Bilder werden auch mit 10bit dargestellt und dich scheint es zu gurken, weil du langsam kapieren musst, dass beim PC HDR nicht den grossen Schritt bringt wie am TV, weil er schon vorher wichtige und richtige Zwischenschritte erfuhr, während TVs schon seit Jahren technisch den Monitore hinterher hinkten. Und nun hatten sie ausnahmsweise mal 6 Monate ein kleinen Vorsprung, denn du nun auf plusterst als sei das Bild neu erfunden worden. Es ist schlicht lachhaft und es erklärt eben warum PC Gamer in HDR nicht den grossen Unterschied sehen, weil es ihn am PC nicht gibt, weil PCs schon seit Jahren bessere Farbbrillianz brachten als TVs. Mir sind spielerische Aspekte wie kein Tearing zu haben (G-Sync) und eine höhere FPS wichtiger, weil es auch etwas sehr direktes ist was du beim Spielen merkst.
      Dass ich es nicht merke ist, dass ich seit 2004 ein Adobe RGB Bereich im vollem Umfang schon gewohnt bin. Für dich ist es die Revolution, war es bei mir auch, aber damals 2004!

    5. So so, seit 2006 will JTR also 10bit Bilder sehen. Ausgesprochen dumm nur, dass er am 21. Januar 2014 einen Dell Monitor kaufte der nur 8bit darstellen kann (ohne FRC) und auch ältere Blogeinträge allesamt nur 8bit Käufe ohne FRC waren. Allein sein aktuellster Monitor kann 10bit emulieren, also nicht mal nativ darstellen erst recht nicht in HDR.

      Sehr sehr peinlich. Shame on you.

    6. Das was du massgeblich bei den TV als Unterschied wahrnimmst ist das vergrösserte Farbspektrum (damit wird auch auf HDR Prospekten geworben). Klar weil von 8bit zu 10bit ist eine enorme Steigerung. Das habe ich an meinem Monitor auch, schon seit Jahren. Was mir fehlt ist das was nun explizit HDR mit den grösseren Helligkeitabstufungen mit sich bringt und daher etwas mehr Details noch heraus schaffen kann. Das fehlt mir, aber das ist nicht so extrem wahrnehmbar wie das grössere Farbspektrum. HDR wird ja darum in der Medizin (Mamographie etc.) schon lange im schwarz/weiss Bereich genutzt um eben mehr Details zu erkennen, ganz ohne Farbe! HDR wird schon seit den Mitte 80er entwickelt für Profibereiche, ist also alles andere als neu. Was man nun beim TV gemacht hat, man hat das ganze als Packet zusammen mit gleich noch einem grösseren Farbspektrum als Neuigkeit verkauft. Und marketingtechnisch muss ich da sogar die TV Industrie loben. Ein so erheblicher Schritt wird deutlich besser von Endkunden wahrgenommen als wie am PC kontinuierliche Weiterentwicklung. Der Aha-Effekt ist einfach grösser.

      Und da du es wieder nicht glauben willst woher HDR kommt, hier die Quelle: https://www.entain.de/wiki/fernseher-hdr-high-dynamic-range-a589.html

    7. So so, seit 2006 will JTR also 10bit Bilder sehen

      Nein, A) seit 2004 und B) Adobe RGB Bereich und den können nun mal alle MVA, PVA und IPS Panel. Den kannst du auch mit 8bit darstellen, aber nicht so fein abgestuft. Mein Gott lest mal ein Buch, dann versteht ihr vielleicht auch die Welt um euch herum. Die neuen können sogar mehr als 100% Adobe RGB, aber darauf wollte ich gar nicht eingehen, weil ich wusste das es euch überfordern wird. Im Farbspektrum kann mein 8bit+FRC (ergibt auch 10bit) genau dasselbe darstellen wie dein UHD Premium Monitor, er hat nur nicht soviel Helligkeitsabstufungen, denn das ist HDR: Helligkeitabstufungen! Darum auch in der Medizin genutzt und sogar in S/W Fotografie. Es braucht für HDR gar keine Farben, stell dir vor.

    8. @JTR Lies dir einfach mal den Artikel wirklich durch damit Du endlich lernst, dass es einen Unterschied zwischen HDR in der Fotografie und in der Hardware-gestützten Ausgabe gibt. Dann wirfst du das alles nicht durcheinander. Es folgt auch für dich und alle anderen PC-Gamer bald ein Update zum Thema „PC“.

    9. Ich lese Artikel von Hifi Magazinen (siehe oben) und Tech-Blogs. HDR ist nur die Helligkeitsabstufung und hat nichts mit Farben zu tun. Dadurch können aber bei Farben noch etwas mehr Details herausgearbeitet werden (wer den Dolby Vision Artikel verstanden hat, wäre das spätestens dort klar geworden). Was aber bei den HDR TVs massgeblich den sichtbaren Unterschied brachte war gar nicht das HDR sondern der gleichzeitige Wechsel von 8 auf 10bit pro Pixel. Und das hat auch mein Monitor, ihm fehlen einfach nur die Helligkeitsabstufungen per HDR. Das mag ein Unterschied bringen, aber nicht der krasse der hier immer von euch behauptet wird. Mir geht es darum, dass ihr kapiert, warum beim PC HDR nicht als die Revolution wahrgenommen wird wie am TV, weil eben das 10bit Update schon vorhanden ist und nun nur noch der kleine Unterschied mit HDR dazu kommt. HDR wird daher auch im S/W Sektor verwendet, weil es auch ohne Farben mehr Details zeigt. Das was aber viele Leute bei den neuen TVs auffällt ist die Farbbrillanz durch die grössere Farbpalette. Das hat absolut gar nichts mit HDR zu tun.

    10. Und ja ich habe kapiert dass HDR eine Displaytechnik (Hardware ist) und nichts mit HDR Fotografie ist. Eben diese Technik kommt aus dem Medizin Bereich wo aber nur S/W betrachtet wird in aller Regel. Genau weil es bei HDR um Helligkeitsabstufung geht, ist genau die Hintergrundbeleuchtung ein massgeblicher Faktor. Und genau deshalb warte ich noch mit einem HDR TV, weil das der Industrie nun klar wurde und als nächstes genau diese und damit auch massgeblich das HDR noch verbessert.

    11. @JTR
      Jetzt widerspsrichst du dir selber.

      HDR am TV ermöglicht es einfach feinere Farbdetails zu zeigen (bei Farbverläufe an Himmel kann man es am besten demonstrieren).

      Aber egal. Nur l weil du der Meinung bist, dass die Steuerung der Abstufung der nicht der ausschlaggebende Punkt für HDR ist, muss das nicht richtig sein. Ohne diese Helligkeit, die dir beim PC fehlt, ist es meiner Ansicht nach witzlos. HZD sieht genau deswegen auf einem guten TV atemberaubend aus.

      Zu dem Rest von deinem Quatsch mit “der PC zeigt seit Jahren mit 10 Bit panels HDR Effekte” schreibe ich bei Zeiten konkret oben im Artikel was zu.

    12. Nein ich widerspreche nicht mir selber, das ist genau das was ja auch Dolby durch seine Forschung am menschlichen Auge heraus gefunden hat. Mehr Helligkeitsabstufungen können mehr Details (egal ob Farbe oder S/W) herausarbeiten. Aber der zugrunde liegende Daten müssen diese Details auch bieten. Darum 10bit und nicht 8bit.

      Ich habe nie gesagt dass der PC mit 10bit Panels HDR Effekte zeigt. Mein Gott könnt ihr ein gelesen Text bitte nicht nur überfliegen, sondern lesen und verstehen! Ich habe gesagt dass wir schon seit Jahren 10bit Panels mit einer grösseren Farbpalette haben wie die jetztigen TVs. Was nun noch fehlt ist HDR. Der Sprung aber von 8bit zu 10bit ist der grosse Sprung und nicht das zusätzliche HDR.

    13. Ich wiederhole mich nochmal: mein TV zeigt auch alles in 10bit an. Der große Unterschied kommt aber durch HDR zustande, denn auf den Screenshots lässt sich HDR ein- und ausschalten, da habe ich den direkten Vergleich. Ohne HDR sieht das Bild blass und grell aus, mit HDR natürlich und lebendig.

      Ich habe gesagt dass wir schon seit Jahren 10bit Panels mit einer grösseren Farbpalette haben

      Und warum hast du dann im Jahr 2014 ein 8bit Panel gekauft? Nicht mal dein aktueller Monitor hat 10bit, das schafft der nur durch Emulation. Nur weil du Elektroschrott besitzt, musst du dich hier nicht so aufführen.

    14. Das ist keine Emulation, FRC ist eine Art Interpolation. Dennoch kann ein 8bit + FRC echtes 10bit anzeigen, weshalb ja auch Dolby es sich nicht scheut 10bit+FRC als 12bit zu verkaufen.

      Wie gesagt der grosse Schritt ist die 10bit Technik und nicht das HDR. Und zudem wird wie bei Forza Horizon 3 auch getrickst. Dort werden bessere Texturen exklusiv mit angeschalteten HDR angeboten, obschon sie mit 10bit Panels auch sichtbar sind, nur halt nicht so detailliert wie mit HDR. Daher kommen jeweils die krassen Unterschiede. Das ist dasselbe wie einzelne Studios bei den Einführung von Blurays bei Neuerscheinungen extra die DVD Version schlechter machten (was Filmfans aufdeckten und zurecht erzürnte) um Bluray besser dastehen zu lassen. Was eigentlich ein völlig unnötiger Schritt ist.
      Natürlich bringt HDR etwas, aber die grossen Unterschiede zwischen den TV der letzten Generation (8bit ohne HDR) und den jetzigen (10bit und HDR) erklärt sich in erster Linie nicht wie vom Marketing beschrieben durch das HDR sondern durch den Wechsel von 8 zu 10bit, denn HDR mit 8bit würde nur wenig bringen, weil die Details die HDR einfach noch mehr heraus kristalisiert ist der grösseren Farbpalette zu verdanken. Wer aber schon wie wir PC Gamer 10bit Technik stehen hat, wird diese nicht gegen ein HDR Gerät so schnell ersetzen, das lohnt sich einfach nicht, zumal die HDR Technik erst am Anfang steht. Das erklären ua. solche Begriffe wie UHDR von Samsung, welchen sie bei TVs mit deutlich mehr als 1000nits gebrauchen. Und wie gesagt nach Dolbys Forschung wäre das Ziel 10’000 nits. Kann man bereits kaufen, aber das will von uns niemand bezahlen (das sind nämlich schon 8K TVs).

    15. Wer aber schon wie wir PC Gamer 10bit Technik stehen hat

      Der hat immer noch kein HDR. Lies doch bitte nur einmal richtig, was wir schreiben.
      Dein Monitor hat außerdem nur native 8bit. Die 10bit werden softwareseitig ermogelt, was schlicht Technikschrott ist. Diese Kombi kam bei der ersten HDR TV Generation vor, damit war aber kein echtes HDR möglich. UHD Premium verlangt deshalb native 10bit. Deine Monitore davor hatten im übrigen allesamt kein 10bit, nicht nativ und auch nicht per FRC. Das wRen allesamt 8bit Schrott Dinger. Und nochmal: 10bit allein reicht nicht, schon gar nicht per FRC. Was man benötigt sind native 10bit und Helligkeitswerte von 1000 Nits bei LCD Displays. Dein Monitor ist davon Lichtjahre entfernt, also erzähle uns doch bitte nicht, der Unterschied wäre nur minimal. Er ist gigantisch durch HDR.

    16. Instabilen Treiber, Quelle oder einfach nur pure Polemik? Far Cry 5, Destiny 2 usw. diverse aktuelle Titel haben ein HDR Support am PC. Am PC konnte man mit einem entsprechenden TV HDR gleichzeitig zu den Konsolen nutzen. Die Analogie TV und Konsolen passen nur zusammen ist eine Denkweise aus den 90er und hat mit den heutigen Realitäten nichts mehr gemein. Ein PC am TV ist heute keine Seltenheit mehr.

      Ich habe HDR schon gesehen beim Showroom von Digitec. Sieht nett aus, aber eben die empfundene Farbtiefe habe ich auch schon so am PC, da sehe ich von Auge kein Unterschied.

      Beim PC sollte man auf Displayport (1.4 für HDR) und nicht HDMI Bezug nehmen, da die meisten Monitore bei Gamer nur schon um über 100Hz zu kommen angeschlossen sind. Da ist HDR sogar erst 2016 möglich gewesen. Nur: Warum kümmert dich das überhaupt wenn erst Ende 2016 die ersten TVs mit nativen 10bit und HDR erschienen? Was sollte ich vorher mit dem HDR API Support¹? Wie gesagt ich habe dafür jahrelang ein echten Adobe RGB Bereich gehabt, wo TVs das nicht konnten.

      Und was du Marc richtig bemerkt hast: bei den meisten Spielen dürften die Assets nicht 10bit vorliegen, wurden also einfach per Schnellverfahren (vorgefertigte HDR Filter wie bei Fotografie) hingepatcht worden sein.

      ¹war im Nvidia SDK wegen der Vorlaufzeit für die Production aber schon jahrelang da!

    17. @JTR
      Bitte nimm wahr, dass HDR nicht nur die Farbtiefe sondern eben auch die Helligkeit bzw. der Kontrast und Dynamik ist. Das habe ich im Artikel zwar geschrieben aber du scheinst es echt verstehen zu wollen.

      Es ist schön, dass manche PCs theoretisch dazu in der Lage gewesen wären, eine höhere Farbtiefe anzuzeigen. War aber faktisch nicht so weil a) Treiber das nicht in Spielen liefern konnten b) es keine Inhalte gab und c) keine Monitore.

      Jetzt gibt es TVs mit 10 Bit Panel und viel wichtiger: Einen Standard der zuerst von den Konsolen implementiert wurde. Auch die TVs selber mit ihren internen Netflix und Amazon Prime Playern konnten das vorher. Windows hat gerade vor kurzem erst in Netflix Support dafür bekommen.

      HDR ist wegen mehr Farbtiefe und deutlich (!) mehr Kontrast so toll.

    18. Doch genau das habe ich ja den Herren hier versucht zu eklären. Farbpalette kommt durch Wechsel von 8 auf 10bit, HDR erweitert die Helligkeitsabstufungen (was wiederum den Farbraum erweitert). Gamut Support gibt es bei den PCs schon lange, das ist nichts neues. HDR ist neu. Und nein die Konsolen waren nicht vor dem PC, da würde dir Nvidia entschieden widersprechen. Und komischerweise hatte die PC Version von Destiny 2 vor der Konsolenversion HDR Unterstützung!
      Netflix ist ein Sonderfall, man kann auch sehr kompliziert tun was das DRM anbelangt. Netflix wird deswegen auch genug oft kritisiert, dass sie technisch etwas nicht hinbekommen was die Konkurrenz problemlos hin bekommt. Eigentlich sollte vorallem für Netflix gar keine App nötig sein, sondern einzig und allein in jedem Browser in 4K mit HDR laufen. Die heutige Webtechnologie macht das möglich.

    19. Hatte ein Spiel auf dem PC HDR als Standard vor der PS4 implementiert, so dass man es auf einem neuen Fernseher von 2016 nutzen konnte? Ich beantworte mal die Frage: Nein.

    20. Die Analogie TV und Konsolen passen nur zusammen ist eine Denkweise aus den 90er und hat mit den heutigen Realitäten nichts mehr gemein.

      Sehe ich anders. Ein PC am TV ist nicht praktikabel da du von der Couch aus nicht Tastatur und Maus komfortabel bedienen kannst. Steam Machine sind auch wieder eingestellt, weil es niemand am TV nutzt. Nach wie vor werden PCs an Schreibtischen genutzt auf denen Monitore stehen, ganz offensichtlich auch bei dir.

      Du klingst ein wenig so wie ein schlechter Verlierer. Nur weil TV Industrie und Konsolen Innovationstreiber sind versuchst du es krampfhaft kleinzureden. Deine Argumentationskette besteht seit Tagen nur daraus HDR schlecht zu reden und so zu tun als gäbe es das alles auf PC schon seit 10 Jahren.

    21. Sehe ich anders. Ein PC am TV ist nicht praktikabel da du von der Couch aus nicht Tastatur und Maus komfortabel bedienen kannst.

      Wieso muss ein TV vor einer Couch stehen. Ich rede davon TV als grossen Monitor zu verwenden. Du denkst auch nur in deinem kleinen Spektrum was?

      Konsolen waren Innovationstreiber bei optischen Datenträger und bei Move Steuerungen. Das eine ist inzwischen obsolet, das andere hat sich nie durchgesetzt.

      Nein ich rede HDR nicht schlecht, auch wenn jeder den ich kenne der es gesehen hat, als nett aber nicht mehr bezeichent. Ich kenne niemand der vor kurzem ein TV gekauft hat welcher noch kein HDR hat, deswegen gleich wieder zugreift. Niemanden! Und ich freue mich darauf, aber da das Material von HDR erst im kommen ist, kann ich gut und gerne noch warten und freue mich auf die neueren Modelle mit besserer Hintergrundbeleuchtung. Denn diese ist essentiell bei HDR, oder will das jemand abstreiten?

    22. Es gibt auch Leute, die HD oder 4k Auflösung als nett empfinden und es nicht als Muss betrachten. Es gibt auch Leute denen Switch Grafik völlig ausreicht. Es gibt aber auch Leute, die Wert auf neue Technologie legen, und für diese Leute bietet HDR eine deutlich verbesserte Optik, die man nicht kleinreden kann. Wir reden hier nicht über minimale unterschiedliche Auflösungen wie zwischen PS4pro und Xbox One X wo man erst mit 300x Zoom Unterschiede erkennen kann um dann so zu tun als wäre die eine Version die Offenbarung und die andere unspielbar, wir reden hier über etwas was sofort ins Auge sticht. Wie gesagt, ich kann alle Screenshots in HDR und SDR sehen und hin und herschalten und da liegen Welten zwischen. Und nein, da wird nicht gemogelt, das ist einfach der tatsächlichen Unterschied, wenn ein TV plötzlich nicht mehr nur Bilder in der Range bis 300Nits sondern 1000Nits darstellen kann. Das SDR Bild sieht immer verwaschen und grell aus im Vergleich zu HDR. Man hat es nur anders empfunden, weil man es so gewohnt war. Hat man sich einmal an HDR gewöhnt will man nicht mehr wieder zurück.

    23. Genau und ich freue mich sobald ich ein TV mit guter Hintergrundbeleuchtung ohne Ghosting bekomme. Ob ich das ganze nun 12 Monate früher oder später habe, spielt mir keine Rolle. So ein Nerd bin ich nicht mehr.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website zeigt Benutzerbilder über gravatar.com an.

Wie bekomme ich einen verifizierten Account? - Login