Co się dzieje, gdy przekraczamy nieprzekraczalne?

Opublikowano przez

Teraz zaaplikujemy ekstremalny, nowoczesny limiter silnie podbarwiający sygnał. Od razu ściszymy jego wyjście o 12 dB, żeby na potrzeby tej prezentacji trzymać się podobnego poziomu głośności odczuwalnej. Wykonam teraz kilka manewrów, bez szczegółowego opisu tego co robię, bo to temat na zupełnie inną opowieść. Zamierzam doprowadzić ten sygnał do stanu, jaki obecnie uważa się za normalny w kontekście głośności odczuwalnej.

Materiał wygląda na zdrowy, trzymający się poziomu maksymalnego -1 dBfs. Ale tak jest do czasu, gdy nie zaczniemy używać nowoczesnych narzędzi pomiarowych – takich, które mierzą sygnał z większą częstotliwością próbkowania niż oryginalny materiał. Tak będzie choćby w przypadku LUFS Meter, MLoudness Analyzer czy dostępny w Reaperze Loudness Meter w trybie pomiaru True Peak.

Przyjrzyjmy się naszemu materiałowi w którymś z gorących miejsc – widać ciągi próbek osiągających poziom zbliżający się do maksymalnego. A teraz dokonamy przepróbkowania – z 44,1 kHz na 192 kHz. Algorytm cyfrowy dodał próbki pomiędzy tymi, które są w oryginale, wyliczając ich wartość na podstawie jakiegoś uśredniania. Nagle wskaźnik poziomu zaczął rejestrować przesterowania. I choć w dalszym ciągu większość wskazań nie wykazuje odchyleń od normy – np. w analizie programu Adobe Audition, to jednak jest kilka symptomów świadczących o tym, że coś jest nie tak. Na przykład znacząco wzrosła liczba prawdopodobnie przesterowanych próbek.

Cały problem polega na tym, że nie wszystkie systemy i elementy określające poziomy maksymalne sygnału pracują z nadpróbkowaniem. Nadpróbkowanie na potrzeby pomiaru to celowe zwiększenie liczby próbek na sekundę pozwalające sprawdzić, co tak naprawdę dzieje się pomiędzy próbkami w naszym oryginalnym materiale. Ale to nie wszystko – na ten pomiar nakładana jest swoista emulacja tego, jak zachowa się przetwornik cyfrowo-analogowy w przypadku ciągów wartości cyfrowych mających poziom maksymalny. Wiele tańszych przetworników C-A po prostu nie zakłada takiej sytuacji, że poziom maksymalny może trwać dłużej niż, powiedzmy, 2-3 sample i w miejscu, nazwijmy to, styku wartości jeszcze cyfrowych i już analogowych nastąpi nieprawidłowa interpretacja wartości. Będziemy zatem mieć do czynienia z zachowaniem nieliniowym – być może nawet z przesterowaniem.

Sygnał audio w postaci cyfrowej ma postać schodkową, w której każda kolejna próbka trwa dokładnie tyle czasu ile jej przypisano określając częstotliwość próbkowania. Aby wygładzić te przejścia, w przetwornikach cyfrowo-analogowych stosowane są tzw. filtry rekonstrukcyjne. Dla uproszczenia przyjmijmy, że są to filtry dolnoprzepustowe. Zobaczmy jak to może wyglądać. Wygeneruję prosty przebieg schodkowy, który trochę przypomina kolejne stopnie w sygnale cyfrowym. Na skutek działania filtru dolnoprzepustowego przejścia pomiędzy poszczególnymi schodkami, dotychczas gwałtowne i powodujące generowanie całego szeregu harmonicznych, zaczynają się wygładzać do postaci, którą już słyszymy z głośników lub słuchawek. Powtarzam, to jest bardzo duże uproszczenie tego procesu, w niewielkim stopniu przypominające rzeczywiste działanie filtrów rekonstrukcyjnych. Niemniej przy odpowiednio ustawionym filtrze widzimy, że zaokrąglony sygnał, nazwijmy go analogowym, w pewien sposób odzwierciedla sygnał cyfrowy. Włączmy za oscyloskopem miernik poziomu RMS. Jeśli teraz odległości pomiędzy poszczególnymi schodkami przebiegu będą się zmniejszać, odzwierciedlając w ten sposób dłuższe ciągi sampli o wartościach maksymalnych, to poziom średni sygnału na wyjściu będzie coraz większy, choć maksymalny poziom cyfrowy się nie zmienił.

Wyższej klasy przetworniki C-A, z bardzo zaawansowanymi filtrami rekonstrukcyjnymi i pierwszy stopniem analogowym o wystarczająco dużym zapasie dynamiki, radzą sobie z takimi wzrostami bez problemów. Gorzej będzie z prostymi, tanimi konwerterami, które po prostu będą obcinać wierzchołki.

Dlaczego mierniki z nadpróbkowaniem pokażą potencjalne problemy? Bo wyższa częstotliwość próbkowania oznacza wyższą częstotliwość filtru rekonstrukcyjnego, a więc możliwość bardziej precyzyjnej oceny poziomów szczytowych na etapie konwersji cyfrowo-analogowej. A dlaczego nie wszystkie mierniki uwzględniają wskazania True Peak? Bo aplikowanie np. ośmiokrotnego nadpróbkowania dla samych tylko mierników, których w sesji może być np. sto, może znacząco zmniejszyć zasoby obliczeniowe komputera.

Zwróćcie uwagę, że mówimy tu o najprostszej możliwej ścieżce sygnału: cyfrowy oryginał – przetwornik C-A – słuchacz. Jeśli dodamy do tego znajdującą się poza naszą kontrolą konwersję stratną przy osadzaniu materiałów na serwisach strumieniowych, jakąś formę obróbki osadzonego materiału oraz różnego typu manipulacje odbywające się podczas strumieniowania do odbiorcy, to nikt tak naprawdę nie wie, co się wydarzy.

Zabiegi dokonywane w serwisach strumieniowych nie są do końca ujawniane, tak jak w radiu nadawcy nie ujawniają ustawień swoich procesorów emisyjnych. Na pewno aplikowane jest ściszanie całości tak, aby głośność odczuwalna różnych utworów była podobna. Wróćmy do naszego oryginalnego materiału i po ekstremalnym ograniczaniu. No cóż, cały Panteraz, ze swoim alterdenatywnym brzmieniem w stylistyce nowej fali symfonicznego punka. Na ścieżce po limiterze włączymy MeterPlugs Loudness Penalty, aby zobaczyć jaką karę za głośność wlepi nam np. Spotify. Będzie to jakieś 9 dB. Zwróćcie uwagę, że wymiar kary liczony jest dla całości utworu w pomiarze typu Integrated. Cichsze fragmenty zmniejszają wartość tłumienia, głośniejsze ją zwiększają, a na koniec wyciągana jest średnia.

Gdy teraz porównamy brzmienie poddanego ekstremalnej obróbce limiterem pliku z tym, który takową obróbkę przeszedł na poziomie homeopatycznym, to słychać, że ten pierwszy wprawdzie brzmi soczyście i napastliwie, to jednak nie ma takiej dynamiki i sporo różni się brzmieniowo od oryginału. Co może być rzeczą dobrą lub złą, jak kto woli. I wcale nie odpowiada za to Spotify czy inny serwis, tylko to, co zrobiliśmy temu plikowi przed jego wysłaniem na serwis strumieniowy.

Jak to się ma do naszego trupika? Bardzo ciekawie. Z premedytacją wywołam teraz przesterowania międzypróbkowe aplikując do tak głośnego materiału jakikolwiek zabieg, np. nieszkodliwą zdawać by się mogło filtrację górnoprzepustową 20 Hz. Kończymy z przesterowaniem międzypróbkowym na poziomie +3 dBfs. Katastrofa, prawda?

A jednak po wrzuceniu tego materiału na ścieżkę w Reaperze nic nie sygnalizuje problemów, a to dlatego, że mierniki w większości DAW nie działają w trybie nadpróbkowania, więc nie uwzględniają interpretacji „co by było, gdyby”. Mało tego, Loudness Penalty pokazuje, że wcale nie dostaniemy za karę większego ściszenia, niż z bardzo subtelnym wirtualnym przekroczeniem poziomu 0 dBfs. Natomiast przy pliku bez ekstremalnej obróbki, żadnego ściszenia nie będzie.

Posłuchajmy teraz wszystkich trzech fragmentów, poziomem głośności symulując ściszanie aplikowane przez serwis strumieniowy.

No i którą wersję byście wybrali? Dopaloną na maksimum? Taką samą, ale wzbogaconą o wirtualne przesterowania międzypróbkowe? Czy spokojnie zgraną z limiterem robiącym tylko nieco głośniej i bezpiecznym poziomem True Peak, który gwarantuje, że cokolwiek się stanie z materiałem po drodze, raczej nie będzie niespodzianek.

Wiecie już do czego zmierzam? Poziomy międzypróbkowe, których wzrost jest na ogół efektem odpowiednio długo trwających poziomów szczytowych zbliżonych do maksymalnego, nie będzie się objawiać jakimiś wyrazistymi zniekształceniami, charczeniem czy zgrzytami i trzaskami, ale wprowadzi pewien element niestabilności do naszego sygnału cyfrowego. Niektórzy producenci muzyczni i masteringowcy wyspecjalizowali się w kontrolowaniu tej niestabilności i z premedytacją wprowadzają przesterowania międzypróbkowe, by uzyskać specyficzny charakter brzmieniowy. Posłuchajcie różnic. I jest to jakiś pomysł na muzykę, bo na przysłowiowej jeździe po bandzie oparto mnóstwo do dzisiaj stosowanych patentów – od przesterowanej gitary do kompresji w trybie all-buttons-in.

Jeśli jednak podoba ci się to, co uzyskałeś w programie DAW i chciałbyś/chciałabyś, aby tak samo odbierali to słuchacze, to wcale nie musisz wchodzić w obszar, gdzie poziomy międzypróbkowe zaczną wymuszać jakieś nieprzewidywalne zachowania.

Co więcej, jeśli zgrasz swój materiał ze średnim poziomem szczytowym powiedzmy -3 dBfs i nie sprasujesz go limiterem, to serwis strumieniowy nie tylko nie ściszy Twojego materiału, ale zrobi go odpowiednio głośniej, pod warunkiem, że odbiorca ma włączoną opcję normalizacji głośności.

No i tu jest problem. Wydawcy nie chcą ryzykować, że ich materiał zabrzmi ciszej, jeśli słuchacz zdecyduje, że nie chce normalizacji i po prostu dążą do tego, by było najgłośniej, jak to tylko możliwe.Przesterowania prezentowane w trybie pomiaru True Peak powinny być brane przez nas pod uwagę, ale nie mogą stać się czymś, na punkcie czego będziemy wariować. Wystarczy po prostu nie obijać się z sygnałem o sufit 0 dBfs. Jeśli będziemy pracować z poziomami nie przekraczającymi – 6 dBfs, to i tak mamy do dyspozycji jeszcze 138 dB dynamiki, które wielokrotnie przekraczają możliwości naszego słuchu i wszystkich urządzeń odtwarzających dźwięk. Mamy coś w rodzaju gigantycznej wyspy, po której możemy biegać w każdym kierunku i nic i nikt nie zmusza nas do balansowania na jej skraju. Właściwy poziom można przecież uzyskać na samym końcu, nawet eksperymentując z wirtualnymi poziomami powyżej 0 dBfs, ale mając nad nimi kontrolę za pomocą specjalistycznych narzędzi pomiarowych.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.