REKLAMA


Celowość wprowadzania rozdzielczości Ultra HD w kontekście ograniczeń ludzkiego wzroku

aktualizacja: 22.06.2014

oko-titleOstatnio coraz częściej usłyszeć możemy, że czeka nas kolejna „rewolucja” w technologii wideo – przejście na rozdzielczości Ultra HD. Japonia, która jest pionierem w tej dziedzinie już przeprowadza pierwsze eksperymenty z rozdzielczością oznaczoną jako 4K (ok. 4000 pixeli w poziomie). Swoją drogą ciekawe skąd to oznaczenie, jeśli do tej pory standardy rozdzielczości były oznaczane od ich wymiaru pionowego – 720p, 1080p. Czyżby ktoś stwierdził, że oznaczenie typu 2160p byłoby zbyt trudne do zapamiętania przez potencjalnych klientów? Być może… Ale mniejsza o oznaczenia. Podobno na 4K się nie skończy. Jest to standard przejściowy, a Japończykom docelowo chodzi o rozdzielczość 8K! I tu rodzi się podstawowe pytanie: czy to jest nam w ogóle potrzebne? Czy ten wyścig do coraz wyższych rozdzielczości spowoduje, że na naszych nowych TV będziemy oglądać super ostry obraz z niesamowitą ilością detali, czy jest to tylko kolejny chwyt marketingowy, służący napędzeniu popytu na nowy sprzęt. Przecież rynek telewizorów niedługo się nasyci i niemal każdy będzie miał w domu HD 3D, smart TV z dostępem do Internetu, sterowany głosem itd. Więc coś trzeba nowego wprowadzić i wmówić klientom, że to kolejny przełom jak przeskok między SD a HD. W końcu nic tak dobrze nie napędza popytu jak chęć posiadania bardziej zaawansowanego technologicznie TV niż np. sąsiad. Ale powiedzmy sobie jasno, o ile przejście na HD było naprawdę przełomem, to kolejne podbijanie rozdzielczości wydaje się już wątpliwe pod kątem praktycznym. Skąd się wzięło to przeczucie? Otóż jak chyba każdy kto interesuje się tego typu nowościami poszedłem do sklepu i pooglądałem sobie obraz wystawionego tam telewizora 4K. Pominę już fakt, że wyświetlane na nich prezentacje są w idealnej jakości, a ich treść dobrana jest tak, aby uwypuklić te wszystkie detale obrazu. Oczywiście różnica w jakości obrazu była zauważalna, chociaż to nie było to co kiedyś przeżyłem widząc po raz pierwszy różnicę między SD, a HD. Po prostu obraz był trochę bardziej ostry niż w 1080p. Ale najważniejsze w tym wszystkim jest to, że było to widać z odległości niecałego metra, jeśli oddalić się trochę od tego TV, obraz niczym już nie różnił się od dobrego HD. Takie dowody „na oko” mogą być jednak dla niektórych mało przekonujące. Spróbujmy więc trochę bardziej naukowo…

 

„Rozdzielczość” ludzkiego oka

Jeśli czytaliście gdzieś, że ludzkie oko przez analogię do kamery cyfrowej ma jakąś konkretną liczbę megapikseli, to mówię od razu, że nie da się tego ustalić. Oko rejestruje obraz zupełnie inaczej niż cyfrowa kamera. Najważniejszą różnicą jest to, że kamera skanuje obraz liniowo, natomiast nasze oko widzi obraz ostro w centrum pola widzenia, natomiast czym dalej od centrum siatkówki, tym widzenie jest mniej ostre i słabiej rozpoznajemy kolory. W zależności od źródła podawane jest, że pole idealnie ostrego widzenia u człowieka wynosi od 12 do 15 stopni. Istotna jest też zdolność oka do rozpoznawania drobnych detali. To co wiemy o tym zagadnieniu pochodzi z prac nad tzw. Human Visual System, a dokładniej z prac Dr Hermana Snellena, który stosując stworzone przez siebie tablice określił, że ludzkie oko (osoby bez wad wzroku) nie jest w stanie rozróżnić szczegółów poniżej jednej minuty kątowej (1/60 stopnia). Wynika z tego ważna zależność, że aby obraz na ekranie miał dla nas lepszą postrzeganą jakość nie jest ważne jaką będzie miał ogólną rozdzielczość, a to ile pikseli obrazu będzie przypadało na jeden stopień pola widzenia (czyli rozdzielczość kątowa). Wartość ta oczywiście będzie się zmieniała w zależności od tego z jakiej odległości będziemy ten obraz oglądać. Dochodzimy więc do podstawowego zagadnienia, a mianowicie…

 

Ile wynosi optymalna odległość od ekranu?

Pierwszym zaleceniem jeśli chodzi o tą zależność jest: zmniejszając odległość od ekranu, zwiększamy poczucie „obecności” w filmie. Z drugiej strony nie można też z tym przesadzić i siedzieć 20 cm od 50 calowego ekranu. Siedząc zbyt blisko po pierwsze nasze oczy mają zbyt dużą rozdzielczość w stosunku do rozdzielczości ekranu i dostrzegamy wszystkie artefakty obrazu, a nawet pojedyncze linie pikseli. Poza tym ekran będzie zajmował zbyt duży kąt widzenia, co będzie nas zmuszało do ciągłego przerzucania wzroku między poszczególnymi punktami ekranu i część akcji będzie nam zwyczajnie umykać (nie mówiąc już jak uciążliwe jest oglądanie wtedy filmów z napisami). Siedząc za daleko będziemy z kolei widzieli obraz dobrej jakości, ale stracimy niektóre detale, więc nie wykorzystamy w pełni rozdzielczości ekranu. Dlatego zostało opracowanych szereg wytycznych ile powinna wynosić ta optymalna odległość od ekranu, biorąc pod uwagę głównie jego przekątną (uproszczone), a także prezentowaną rozdzielczość (dokładniejsze).

Najbardziej znane wytyczne to te wprowadzone przez organizację SMPTE z których wynika, że optymalna odległość od ekranu jest wtedy, gdy zajmuje on 30 stopni pola widzenia (można to w uproszczeniu wyliczyć mnożąc przekątną ekranu × 1,6263). Inne wytyczne przedstawiła organizacja THX, według której ten kąt powinien wynosić 40 stopni (czyli mnożnik 1,2).

Bardziej zaawansowana metoda obliczania optymalnej odległości od ekranu pochodzi ze wspomnianego wcześniej Human Visual System i ograniczenia postrzegania szczegółów przez nasz wzrok. Brana jest tutaj dodatkowo pod uwagę rozdzielczość samego wyświetlacza, jak i materiału wideo, który jest na nim wyświetlany:

VD-wzor
gdzie:

VD: odległość optymalna
DS: przekątna ekranu (w calach)
NHR: natywna rozdzielczość pozioma ekranu (w pikselach)
NVR: natywna rozdzielczość pionowa ekranu (w pikselach)
CVR: rozdzielczość pozioma wyświetlanego materiału wideo (w pikselach)

 

Stosując powyższy wzór obliczyłem optymalne odległości dla popularnych przekątnych ekranu i wszystkich stosowanych rozdzielczości, wliczając w to planowane 4K i 8K. Na wykresie wygląda to tak:

optymalna-odleglosc-od-ekranu

Nie bierzmy oczywiście tych wytycznych zbyt dosłownie – myślę, że odstępstwo do ±15% od tego co sugerują obliczenia nie zmieni zbyt wiele w postrzeganiu obrazu. Analizując wykres widzimy, że np. dla popularnej przekątnej 50 cali optymalna odległość od ekranu dla rozdzielczości 1080p wynosi ok. 2 m, natomiast dla niższej rozdzielczości 720p – 3 m. Ciekawie wygląda ta zależność przy rozdzielczości 8K: przekątna ekranu w calach w przybliżeniu równa się optymalnej odległości od ekranu, ale w cm! Czyli dla 50 calowego ekranu powinniśmy siedzieć pół metra od niego… czy to nie trochę za blisko? Żółtą linią zaznaczyłem optymalne odległości wynikające z normy wprowadzonej przez THX (to ta bardziej restrykcyjna). Widać od razu, że rozdzielczości 4 i 8K nie mieszczą się w tej normie! Jest to więc pierwszy sygnał, że coś może być tutaj nie tak.

 

Ograniczenia ludzkiego wzroku, a rozdzielczości Ultra HD

Teraz będzie trochę biologii i optyki, ale aby dokładniej wyjaśnić temat muszę zahaczyć o te dziedziny. Wspominałem już wcześniej o tym, że obraz, który widzimy nie jest taki sam w każdym punkcie pola widzenia. Zbadajmy jednak temat dokładniej. Zacznijmy od tego jak duże jest nasze maksymalne pole widzenia:

pole-widzenia

 

Jeśli teraz połączymy oba te obszary to otrzymamy obuoczne pole widzenia, które najbardziej nas interesuje – w przybliżeniu jest to 120º, pozostała część jest zasłaniana przez nos i łuk brwiowy:

pole-widzenia-obuoczne

Dodam jeszcze, że poza obszarem widzenia obuocznego nie jesteśmy w stanie poprawnie ocenić odległości i wielkości oglądanych przedmiotów.

Przeanalizujmy jeszcze zdolność do rozpoznawania barw, która zmniejsza się wraz z oddalaniem od centrum siatkówki. Poniżej diagram dla oka prawego:

barwy-pola-widzenia-1oko

Pełną paletę barw rozpoznajemy w polu ok. 55-60º. Dalej od centrum tracimy część składowych barwy zielonej, którą przestajemy dostrzegać zupełnie poza obszarem ok. 100º w poziomie (65º na prawo i ok. 35º na lewo, w pionie ten obszar jest jeszcze mniejszy). Następnie poza obszarem ok. 110º przestajemy dostrzegać składowe barwy czerwonej i poza 135º składowe barwy niebieskiej. Czyli na obrzeżach naszego pola widzenia dostrzegamy jedynie zmiany jasności.

 

Spróbujmy teraz zbadać jak się mają nasze optymalne odległości od ekranu do przedstawionych powyżej właściwości ludzkiego wzroku. Musiałem w tym celu przypomnieć sobie trochę matematyki i przeliczyć optymalne odległości od ekranu na kąty, które będzie wtedy zajmował ekran w polu widzenia. Nazwijmy je optymalnymi kątami widzenia. Dla danej rozdzielczości są one oczywiście stałe.

kat-widzenia-schemat

Poniżej obliczone przeze mnie optymalne kąty widzenia:

Rozdzielczość Optymalny kąt widzenia
576p [SD] 16,95º
720p 21,09º
1080p 31,2º
4 K 58,38º
8 K 96,33º

 

Nanieśmy teraz te kąty na obuoczne pole widzenia i zobaczmy jaką część ekranu będziemy widzieć (oczywiście spełnione jest założenie, że siedzimy w optymalnej odległości, aby dostrzec wszystkie szczegóły obrazu):

pole-widzenia-katy

Napiszę od razu, że nie zakładam tutaj, że widz musi siedzieć z nieruchomą głową i patrzeć się wyłącznie w centrum ekranu (sporo osób mi to zarzucało). To w który punkt ekranu patrzymy, nie zmienia przecież kąta widzenia, który zajmuje ekran. Chodzi głównie o wizualne porównanie tych kątów naniesionych na nasze obuoczne pole widzenia. Co wynika z tego porównania? Widać, że obraz przy rozdzielczościach do 4K włącznie mieści się w obszarze widzenia obuocznego, czyli będziemy widzieć cały ekran. Oczywiście nie z tą samą ostrością, bo jak już wiemy spada ona wraz z oddalaniem się od osi wzroku. Przy rozdzielczości 8K dochodzimy do granicy obszaru widzenia obuocznego, przy czym część obrazu znajdzie się już poza tym obszarem.

Więc jest tak jak już wcześniej przypuszczaliśmy – aby dostrzec wszystkie detale obrazu w rozdzielczościach Ultra HD trzeba siedzieć zbyt blisko ekranu i obserwować jedynie jego część, co na dłuższą metę jest bardzo niepraktyczne (przypuszczam, że nawet szkodliwe dla zdrowia w dłuższej perspektywie, bo można nabawić się bólu karku od ciągłych ruchów głowy). Jeśli natomiast oddalimy się nieco, aby oglądanie stało się wygodne, nie dostrzeżemy detali obrazu, czyli stosowanie takiej rozdzielczości nie da nam żadnych korzyści.

Sprawdzimy jeszcze jak się owe optymalne kąty mają do zdolności rozpoznawania barw. W tym celu na diagram rozpoznawania barw dla oka prawego naniosłem drugi w odbiciu lustrzanym (oko lewe) otrzymując schemat dla widzenia obuocznego. Następnie wyznaczyłem obuoczne pole widzenia pełnej palety barw i ponownie naniosłem kąty optymalne otrzymując taki oto diagram:

barwy-pola-widzenia-katy

W obszarze widzenia pełnej palety barw znalazły się w całości obrazy w rozdzielczościach od SD do Full HD. Obraz 4K minimalnie nie zmieścił się w tym obszarze, jednak nie jest źle, ponieważ brzegi obrazu i tak znalazły się w obszarze gdzie składowa zielona jest tylko osłabiona, ale nadal widoczna. W rozdzielczości 8K jest już zdecydowanie gorzej – większa część obrazu nie będzie już odbierana w pełnej palecie barw.

Analizując dokładniej powyższe diagramy można dostrzec pewną zależność. Do rozdzielczości 1080p włącznie, zaznaczone obszary leżą dość blisko siebie, natomiast dla wyższych rozdzielczości zaczynają się gwałtownie rozszerzać. Wygląda to na wzrost wykładniczy. Zrobiłem więc dodatkowy wykres na którym widać ciekawą zależność, a mianowicie jak wzrastają optymalne kąty, wraz ze wzrostem rozdzielczości dla różnych przekątnych ekranu:

optymalna-odleglosc-a-katy

Od razu widać, że czym bliżej ekranu jesteśmy, tym szybciej wzrastają kąty, które zajmuje ekran w naszym polu widzenia. Więc o ile różnica między najniższą rozdzielczością 576p, a 720p jest uznawana za najbardziej widoczną, nawet dla zupełnie nieobeznanych w temacie widzów, to wzrost kąta optymalnego do jej oglądania jest najmniejszy. Kolejne różnice między wyższymi rozdzielczościami są dla oka coraz mniej widoczne, za to kąty optymalne rosną coraz szybciej! WNIOSEK: każda kolejna wyższa rozdzielczość jest dla widza coraz bardziej wymagająca, za to przyrost jakości jest coraz mniejszy.

Z dokładniejszej analizy tego wykresu wynika jeszcze jeden dość ciekawy wniosek: czym wyższa rozdzielczość, tym bardziej zmniejszają się różnice w odległościach optymalnych wymaganych do oglądania tego obrazu, między różnymi przekątnymi ekranu. Idąc dalej można potwierdzić to o czym mówi sporo osób, a mianowicie że rozdzielczości Ultra HD sprawdzą się lepiej przy naprawdę dużych przekątnych obrazu.

 

Podsumowując wszystko co napisałem, można jasno stwierdzić, że nie da się ominąć ograniczeń naszych zmysłów, a wprowadzanie rozdzielczości Ultra HD niestety jest właśnie próbą ignorowania tych ograniczeń. Wniosek jest więc jednoznaczny: w zastosowaniach domowych stosowanie rozdzielczości wideo powyżej 1080p mija się z sensem i prawdopodobnie jest to nic nie wnoszący kolejny chwyt marketingowy.

Jedyne obszary, w których rozdzielczości Ultra HD z pewnością się sprawdzą to rynek profesjonalny oraz rynek projektorów kina domowego. Osiągane tam przekątne są o wiele większe niż w przypadku telewizorów, a widzowie z reguły siedzą bliżej ekranu. Dlatego też rozdzielczość 4K, a być może nawet 8K mogą dać efekt bardziej detalicznego obrazu, bez wrażenia siedzenia z nosem przy ekranie.

Nie jest tutaj moim celem negowanie sensu rozwoju technologicznego w dziedzinie wideo. Uważam, że jest jeszcze wiele rzeczy do zrobienia. Wydaje mi się tylko, że kierunek, który został obrany przez pewnych „wizjonerów” w tej dziedzinie nie jest przemyślany. Skoro dzisiejsza technologia pozwala na magazynowanie i przetwarzanie szerszych strumieni danych niż wynikałoby to z aktualnie używanych formatów wideo, to dlaczego zdecydowano się po prostu zwiększać ich rozdzielczość i to w tak absurdalny sposób? Dlaczego nie wykorzystać tego dodatkowego pasma wideo choćby do zwiększenia ilości klatek do np. 50-60 kl/s? Bardziej płynny obraz nie ma takich ograniczeń dla naszego wzroku jak bardzo wysokie rozdzielczości. Istnieją oczywiście systemy upłynniania obrazu, ale nadal nie są one doskonałe – w końcu sztuczne dorabianie klatek poprzez ich interpolacje, to nie to samo co fizyczne zwiększenie ich liczby. Można też zwyczajnie zwiększyć przepływność strumienia poprawiając jakość obrazu, która moim zdaniem pozostawia wiele do życzenia, szczególnie na kanałach nadających w SD. Pojawia się też podstawowe pytanie: jak się mają te ultra wysokie rozdzielczości do tego co obecnie nadaje telewizja. Przecież większość kanałów nadal nadaje w rozdzielczości SD, a jeśli już jest to HD to najczęściej 720p, rzadko 1080i. Czy ktoś zna jakiś kanał nadający w pełnym 1080p? Miejmy więc nadzieję, że rynek (czyli my jako konsumenci) sam zweryfikuje to, czy ten kierunek rozwoju technologii wideo jest słuszny i komukolwiek potrzebny. Ważne tylko, żebyśmy nie ulegali marketingowi i nie dawali sobie wmawiać, że coś jest nam potrzebne i musimy to koniecznie mieć.

 


Opublikowano: 27 kwi 2014 / Kategoria: jakość obrazu » ocena subiektywna, artykuły » technologie / 57 693 wyświetleń

Odpowiedzi: 78 do wpisu “Celowość wprowadzania rozdzielczości Ultra HD w kontekście ograniczeń ludzkiego wzroku”

  1. Jurek pisze:

    Ograniczenie rozdzielczości widzenia własnych oczu każdy może sobie sam sprawdzić. Nie trzeba do tego skomplikowanych modeli. Proszę sobie narysować albo wydrukować czarną linię o grubości 1mm na białym tle. Jeśli zobaczysz ją z odległości 10m, to oznacza, że rozdzielczość jest około 175 linii na jeden stopień. Dla optymalnego kąta widzenia ekranu, czyli 30 stopni, daje to rozdzielczość 5250. Dla małego kontrastu oraz ruchomego obrazu rozdzielczość będzie znacznie mniej. Widać stąd, że obecna rozdzielczość HD to znacznie mniej niż możliwości ludzkiego oka dla statycznego, kontrastowego obrazu. Zupełnie innym zagadnieniem jest, czy większa rozdzielczość jest potrzebna do oglądania filmów.
    Pozdrawiam

    • qbakos pisze:

      To chyba nie do końca tak działa. Tutaj chodzi o rozróżnianie detali, a nie o to czy widzimy kontrastową linię czy też nie. Jeśli już ktoś chciałby tak to robić to trzeba by narysować dwie linie jednakowej grubości oddalone od siebie o 1mm i sprawdzić przy jakiej odległości przestajemy widzieć obie linie, a zaczynają się nam one zlewać w jedną. Takie doświadczenie byłoby bardziej miarodajne. I myślę, że wtedy wyniki byłyby mocno zbliżone do tego co przedstawiłem w artykule.
      Co do reszty to nadal moje zdanie jest takie, że rozdzielczości 4K i większe są potrzebne, ale najmniej tam gdzie się je usilnie wprowadza, czyli w telewizorach. Projektory, kino cyfrowe, monitory komputerowe – tam jak najbardziej, bo jest z tego jakiś pożytek. W TV nie ma żadnego, ale cóż… interes producentów paneli LCD musi się kręcić ;)

Musisz mieć włączoną obsługę JavaScript, aby dodawać komentarze!

Zostaw odpowiedź


CommentLuv badge

Następny / poprzedni artykuł:



Kategorie

O autorze

    Nazywam się Jakub Kościelny. Na forach jako qbakos. Technikami przetwarzania i kompresji wideo interesuję się właściwie od studiów, czyli już dość długo.
    Kilka lat temu postanowiłem połączyć to hobby z czymś poważniejszym i zacząłem o tym pisać, robić badania, pomiary.
    Na tej stronie zebrałem to wszystko w mam nadzieję przystępnej formie i udostępniłem zainteresowanym tą tematyką.
    A przy okazji mam motywację, aby cały czas szukać nowych tematów na artykuły... oraz zgłębiać tajniki WordPressa. Zapraszam :)