1. Co to jest HDR

HDR, czyli „wysoki zakres dynamiki”, to technologia pozwalająca na uzyskanie wysokiego kontrastu pomiędzy najjaśniejszymi i najciemniejszymi obszarami obrazu, dzięki czemu obrazy wydają się żywe i dokładnie oddają detale oświetlenia. Przed pojawieniem się HDR głównym standardem wideo był tzw. SDR (czyli standardowy zakres dynamiki), którego możliwości techniczne były ograniczone niskim marginesem jasności (100-250 nitów), średnim kontrastem i 8-bitową głębią kolorów. W przeciwieństwie do SDR, HDR w pełni odblokowuje możliwości nowoczesnych ekranów, pozwalając oddać wszystkie detale oświetlenia i koloru w filmach i grach.

2. Różnice pomiędzy HDR, HDR10, HDR10+ i Dolby Vision

Pojawienie się terminu HDR datuje się na rok 2014. Ponieważ jest to powszechnie przyjęte określenie, wielu producentów telewizorów zaczęło wypracowywać swoje standardy, rozpoczynając kolejną bitwę formatów, w której wciąż trudno przewidzieć zwycięzcę. W tej chwili istnieją 4 główne podtypy HDR, jednak tak naprawdę różnica między nimi nie jest tak ważna, jak jakość samego telewizora (o innych typach ekranów porozmawiamy później). Ogólnie rzecz biorąc, większość nowoczesnych telewizorów, wszystkie oprócz tych budżetowych, jest w stanie zapewnić przyjemne wrażenia z korzystania z HDR.

Dolby Vision jest uważany za najbardziej zaawansowany podtyp standardu HDR.

HDR10

  • ogólnie przyjęty standard, stosowany wszędzie;
  • jakość jest lepsza od SDR, jednak często gorsza od HDR10+ i Dolby Vision;
  • używa statycznych metadanych.

HDR10 to ogólnie przyjęty standard występujący w większości nowoczesnych telewizorów, monitorów, urządzeń mobilnych itp. W przeciwieństwie do innych podzbiorów HDR, HDR10 to otwarty standard, który nie wymaga licencji i jest używany przez większość współczesnych platform przesyłania strumieniowego, w tym Netflix, Disney+ i Apple TV.

Technologia HDR wykorzystuje minimum 10 bitów (ponad 1 miliard różnych odcieni) do kodowania kolorów, podczas gdy konwencjonalny format wykorzystuje 8-bitowy kolor i odzwierciedla tylko 16 milionów kolorów. HDR wykorzystuje statyczne metadane dla całego wideo - jest to dodatkowa informacja, która ustala parametry jasności, kontrastu i koloru podczas odtwarzania wideo HDR.


HDR10+

  • HDR10 jest znacznie mniej powszechny;
  • wykorzystuje dynamiczne metadane;
  • jakość obrazu jest wyższa niż HDR10.

W 2017 roku Samsung i Amazon, przy wsparciu Panasonic i 20th Century Fox, wypuściły na rynek bardziej zaawansowaną wersję HDR10 z przedrostkiem Plus. W rzeczywistości stała się ona odpowiedzią na format Dolby Vision, aby uniknąć płacenia opłat licencyjnych na rzecz Dolby. Jest on znacznie bardziej wymagający pod względem jasności (idealne jest 4000 nitów) i wykorzystuje dynamiczne metadane.

O ile zwykły HDR wyrównuje wszystko tym samym pędzlem, ustawiając te same parametry jasności kolorów, o tyle HDR Plus daje twórcom pełną swobodę decydowania o tym, jak ma wyglądać dana klatka. Nie ma żadnych ograniczeń – na jednej ramce można ustawić różne parametry maksymalnej jasności, nawet dla pojedynczych kropli spływających po szybie.


Dolby Vision

  • obsługiwany przez dużą liczbę urządzeń;
  • ma być może najlepszą jakość spośród wszystkich podtypów HDR;
  • niezwykle wymagający pod względem jakości ekranu;
  • wykorzystuje dynamiczne metadane.

Dolby Vision to bardziej zaawansowany standard firmy Dolby, który najczęściej spotykany jest w technologii premium. Podobnie jak HDR10+, Dolby Vision obsługuje dynamiczne metadane, które dostarczają instrukcji dla każdej klatki, pomagając wyświetlaczowi renderować treść tak wiernie, jak to możliwe, zgodnie z wizją jego twórców.

Drugą stroną medalu są wysokie wymagania wobec technologii. Aby uwolnić pełen potencjał formatu, potrzebny jest zaawansowany telewizor o 12-bitowej głębi kolorów i teoretycznej maksymalnej jasności dochodzącej do 10 000 nitów (zalecenia Dolby wskazują na co najmniej 1000 nitów). Ponieważ jest to własne opracowanie Dolby, twórcy treści muszą uiszczać opłaty licencyjne podczas korzystania z Dolby Vision. Chociaż ostatnio nie jest to już taki problem – na przykład Disney+ i Amazon Prime posiadają wiele treści z obsługą Dolby Vision.


HLG

  • bezpłatny format;
  • używany w transmisjach telewizyjnych;
  • wstecznie kompatybilny z SDR.

Technologia HLG, czyli Hybrid Log-Gamma, została opracowana wspólnie przez BBC i NHK, a pierwsze telewizory obsługujące technologię HLG zostały wprowadzone przez firmę LG w 2017 roku. W przeciwieństwie do poprzednich formatów, jest on wstecznie kompatybilny z telewizorami SDR. Kluczową cechą HLG jest to, że wymaga on znacznie mniejszej przepustowości niż dwa oddzielne kanały SDR+HDR, co pozwala na transmisję jako pojedynczy 10-bitowy strumień cyfrowy. Dzięki temu zwykłe ekrany będą odtwarzać transmisje telewizyjne w zwykłym SDR, a te bardziej zaawansowane - w HDR.

3. Implementacja HDR w monitorach komputerowych

Monitor Asus ROG Swift PG32UQX Mini z podświetleniem LED i „uczciwym” HDR.

Wszystko, co zostało powiedziane powyżej, dotyczyło głównie telewizorów. Ale w przypadku monitorów wszystko jest bardziej zagmatwane, ponieważ nowoczesne monitory trudniej zmieścić w ramach standardu HDR10, choćby ze względu na ograniczoną rezerwę jasności, która w większości modeli podstawowego poziomu rzadko przekracza 350 - 400 cd/m². W rezultacie dopiero pod koniec 2017 roku 20 dużych firm, w tym AMD, NVIDIA, Intel i Samsung wraz ze stowarzyszeniem VESA, opracowało jeden standard nazwany DisplayHDR. Sugeruje on podzielenie monitorów na kilka głównych klas:

Oficjalne specyfikacje VESA.
  • DisplayHDR 400 to podstawowy standard wymagający, aby monitor miał jasność do 400 cd/m² i 8-bitową gamę kolorów. Teoretycznie nadaje się do podstawowych treści HDR, jednak w praktyce nie jest nawet blisko odblokowania pełnego potencjału HDR.
  • DisplayHDR 600 to bardziej zaawansowany standard, który wymaga jasności co najmniej 600 cd/m², 10-bitowej głębi kolorów i obsługi lokalnego przyciemniania. Taki monitor jest już w stanie wyświetlać bardziej szczegółowe obrazy z głębokimi cieniami i jasnymi światłami.
  • DisplayHDR 1000 to zaawansowany podtyp HDR, który z plusem lub minusem odpowiada jakości telewizyjnego HDR. Występuje głównie w monitorach premium z rezerwą jasności co najmniej 1000 cd/m². Najczęściej są to modele z podświetleniem dynamicznym lub MiniLED, a także monitory OLED.
  • DisplayHDR1400 to dość nowy standard, spotykany jedynie w monitorach Hi-End na poziomie Philips 27B1U7903 o szczytowej jasności 1400 nitów lub więcej.

W rezultacie gracze PC często pozostają zdezorientowani i rozczarowani, gdy zapoznają się z HDR, ponieważ wdrożenie tej technologii zależy nie tylko od parametrów technicznych monitora, jednak także od implementacji HDR w samej grze. Na przykład gracze regularnie chwalą implementację HDR w Doom Eternal, Gears 5, Sea of Thieves i Horizon Zero Dawn, podczas gdy God of War, Assassin's Creed Valhalla i RE 4 Remake z HDR wyglądają na wyblakłe i skrzyżowane (uwaga: przynajmniej tak było w momencie wypuszczenia gier, być może twórcy już to poprawili).


Kolejnym problemem jest dziwna standaryzacja formatu i zastosowanie technicznych trików w celu chwilowego zwiększenia szczytowej jasności. Na przykład wiele budżetowych monitorów typu MSI G274F i AOC 24B3HA2 twierdzi, że obsługuje HDR, a oba mają jasność na poziomie 250 cd/m². W rzeczywistości jest to nieco więcej niż bazowy SDR i poniżej minimalnych wymagań DisplayHDR 400. Przez to zamieszanie w Internecie zaroiło się od komentarzy w duchu „monitor wygląda znacznie lepiej z wyłączonym HDR niż z włączonym HDR .”

4. HDR w projektorach

Wiele projektorów domowych ma ograniczoną jasność szczytową. Aby ominąć to ograniczenie i skompensować brak jasności, często używana jest funkcja mapowania tonów. Ta funkcja dopasowuje zakres jasności treści HDR do natywnego zakresu jasności urządzenia, dostosowując obraz do jego możliwości. Działa szczególnie dobrze z treściami HDR zawierającymi dynamiczne metadane, umożliwiając dostosowanie jasności dla każdej sceny. W przypadku metadanych statycznych często dochodzi do sytuacji, w której film wygląda na ciemny i wyblakły tylko po to, by np. scena eksplozji wyróżniała się swoją jasnością i skutecznością.

5. Treści z obsługą HDR

Kino i seriale

Jak wspomniano powyżej, większość usług przesyłania strumieniowego, w tym Netflix, Amazon Prime i Disney+, dostosowała się do wymagań HDR i oferuje użytkownikowi do wyboru różnorodne filmy i seriale telewizyjne, które obsługują różne odmiany HDR, w tym HDR10, HDR10+ i Dolby Vision. W dużej mierze zależy to teraz od samych twórców treści. Jeśli mówimy konkretnie o HDR10+ i Dolby Vision, to ten drugi wyraźnie wygrywa pod względem ilości dostępnej treści, gdyż HDR10+ nie jest darmowy i dodatkowo wymaga opłat licencyjnych.


Konsole

Konsolowy HDR rozwija się dość szybko ze względu na to, że dla każdej konsoli jest określona obsługa formatu, a nowoczesne telewizory znacznie lepiej nadają się do odtwarzania „uczciwego” HDR niż monitory do gier. Dlatego biblioteki gier z obsługą HDR na Xbox i PlayStation są regularnie aktualizowane o nowe tytuły.


Gry komputerowe

Wiele nowych gier na PC otrzymuje obsługę HDR, czego nie można powiedzieć o hitach z poprzednich lat. Kluczowym problemem związanym z formatem na PC jest to, że istnieją różne podtypy HDR i nie spełnia on specyfikacji wielu monitorów. Dlatego wielu programistów dodaje obsługę HDR najlepiej, jak potrafi, nie chcąc tracić dodatkowego czasu. Windows ma funkcję Auto HDR, jednak wielu graczy narzeka na jej jakość i zazwyczaj natychmiast ją wyłącza.

6. HDR i pułapki

  1. Brak jasności i pseudo-HDR. Wielu producentów stosuje sztuczne rozszerzenie SDR do HDR: w rzeczywistości monitory i telewizory z fałszywym HDR po prostu odbierają sygnały HDR, bez możliwości ich wyświetlenia w razie potrzeby. A ze względu na niewystarczającą liczbę stref podświetlenia i mały zapas jasności, jeden jasny punkt wpływa na jasność kilkuset pikseli, tym samym jedynie zniekształcając obraz. Dlatego zwykły SDR w 99% przypadków wygląda lepiej i bardziej naturalnie niż sztuczny HDR.
  2. Smartfony i HDR. Nowoczesne flagowe smartfony i tablety Apple, Samsung, Sony i innych marek często obsługują formaty HDR10 i Dolby Vision. Jest to jednak raczej chwyt marketingowy, ponieważ małe ekrany i niska jasność nie odpowiadają oryginalnej specyfikacji HDR10/Dolby Vision. Szczerze mówiąc, treści przystosowanych do smartfonów jest niewiele, a w większości przypadków obraz nie wygląda na bardzo wysokiej jakości.
  3. Zgodność. Nawet jeśli masz sprzęt obsługujący HDR, musisz upewnić się, że zarówno treść (film, serial telewizyjny czy gra wideo), jak i urządzenie (telewizor, monitor, odtwarzacz multimedialny, konsola) obsługują tę technologię. Będziesz także potrzebował odpowiedniego kabla. Na przykład kable HDMI starsze niż wersja 1.4 nie są kompatybilne z HDR.

7. Posłowie: perspektywy rozwoju HDR

Pojawienie się HDR wyznaczyło nowe standardy w zakresie jakości obrazu i właśnie teraz na własne oczy jesteśmy świadkami kolejnej „wojny formatowej”. Zwłaszcza jeśli mówimy o rynku telewizyjnym, gdzie tak naprawdę toczą ze sobą wojnę trzy standardy: darmowy HDR10 oraz płatny HDR10+ i Dolby Vision. Z płatnych na razie wygrywa Dolby Vision, jednak czas pokaże, kto ostatecznie zwycięży. W końcu ludzie kiedyś mówili, że koń jest szybszy niż pociąg. Jeśli chodzi o pozostały sprzęt, m.in. monitory, smartfony i tablety, sytuacja z HDR jest znacznie bardziej zagmatwana i zapewne unormuje się dopiero wraz z powszechnym stosowaniem wyświetlaczy OLED i MiniLED.