Kompleksowo o kompresji (4). Wszystko o VCA

Opublikowano przez

Kompresja VCA uważana jest za najdoskonalszą formę obróbki dynamiki. Czy tak jest? Czy może po prostu jest najbardziej uniwersalna? Sprawdźmy to na przykładzie rozwiązań dbx, przyglądając się też takim narzędziom jak Flux Solera, Waves H-Compressor czy Distressor.

Zobacz wideo
Posłuchaj podcastu

W czwartej, ostatniej – na razie – części mojej sagi o kompresji, bo przecież muszę zachować coś, co pojawi się tylko w książce, omówimy chyba najpopularniejszą obecnie i najczęściej stosowaną kompresję typu VCA. Uważa się ją za najbardziej stabilną i wszechstronną metodę nie tylko kompresji, ale też ekspansji, bramkowania, de-kompresji, de-ekspansji i wszystkich innych zabiegów na dynamice dźwięku. Mówię tu o rozwiązaniach analogowych, bo w przypadku wtyczek trudno jest jednoznacznie powiedzieć, z jakim rodzajem kompresji mamy do czynienia, choć najczęściej jest to po prostu modelowanie jakichś klasycznych rozwiązań sprzętowych.

I te ostatnie zawsze będą miały istotną przewagę nad cyfrowymi, bo nie ma w nich czegoś takiego jak aproksymacja parametrów. Otóż cyfra z uwagi na swój, nazwijmy to charakter, słabo odtwarza ciągłość zmian i mnogość kombinacji różnego typu ustawień. Twórcy wtyczkowych kompresorów uciekają się zatem to metody odtworzenia jakiegoś określonego zbioru parametrów i predykcji ich zmian na bazie jakiejś określonej funkcji matematycznej. Poruszamy się zatem na skończonym zbiorze zachowań, podczas gdy w sprzęcie analogowym mamy do czynienia nie tylko z nieskończoną ilością kombinacji, ale też fluktuacją parametrów, której nie da się precyzyjnie opisać matematycznie. A nawet jest już, to trzeba dodatkowo uwzględnić taką mnogość czynników już w ramach samej struktury układowej, że trudno tu mówić o idealnym odwzorowaniu. Ale jesteśmy już tak blisko ideału, że bardzo trudno jest mówić o wyrazistej różnicy między analogowym oryginałem, a jego wtyczkową kopią. Przynajmniej w sensie ogólnym, bo w szczegółach ta różnica cały czas jest, choć coraz mniej osób jest ją w stanie poprawnie i obiektywnie zidentyfikować.

Ale wróćmy do VCA. W przeciwieństwie do kompresji optycznej czy nawet FET, metoda VCA doczekała się wszechstronnej analizy fizyczno-matematyczno-elektronicznej i ma najsolidniejszą spośród wszystkich metod kompresji podstawę teoretyczną.

Wykształcony na takich uczelniach jak Harvard oraz MIT David Blackmer od samego początku interesował się tematyką zwiększenia zakresu dynamiki sygnału audio w mediach. Punktem wyjścia w jego badaniach był fakt, że orkiestra symfoniczna potrafi wytwarzać ciśnienie dźwięku w zakresie mocno przekraczającym 100 dB SPL, podczas gdy rozpiętość dynamiczna mediów w latach 60., bo wtedy zaczyna się historia z kompresją VCA, z trudem mieściła się w 70 dB. Dlatego też założona przez niego firma wzięła swą nazwę od zwrotu „decibel expansion” – dbx.

Działania Blackmera skupiały się przede wszystkim na systemach redukcji szumów. W ten bowiem sposób, poprzez przesuwanie dolnej granicy zakresu dynamiki, czyli w praktyce redukcji szumów i zniekształceń, chciał on uzyskać swój cel – więcej przestrzeni dynamicznej na reprezentację dźwięku.

Efektem jego badań było stworzenie w 1971 roku układu znanego obecnie jako Blackmer Gain Cell. Był to wyjątkowo stabilny, bazujący na czterech komplementarnych tranzystorach układ sterowania napięciem, który okazał pierwszym modułem VCA (Voltage Control Amplifier – wzmacniacz sterowany napięciem) mogącym znaleźć zastosowanie choćby jako regulator poziomu głośności w najwyższej klasy torach sygnałowych, co otworzyło drogę do automatyzacji różnego typu parametrów audio. Ten opatentowany w 1973 roku układ VCA jest z powodzeniem stosowany do dziś w różnych urządzeniach i w różnej formie, także w postaci gotowych rozwiązań scalonych.

Z uwagi na konieczność zachowania stabilizacji termicznej, moduł Blackmer VCA został zamknięty w metalowej, zalanej zasychającą masą obudowie i w takiej postaci, znanej obecnie jako „200 Silver Can” wykorzystany w kompresorach dbx 160 oraz dbx 161. Moduł VCA rozwijał się w kolejnych latach, stopniowo rozbudowując. Już jako powszechnie dostępny „202 Black Can” znalazł zastosowanie w kompresorze dbx 165 i stosowany był w wielu innych produktach z lat 80. Jego cechą charakterystyczną jest praca logarytmiczna w reżimie 6 mV/dB. Oznacza to, że każda zmiana napięcia sterującego o 6 mV pozwala na zmianę poziomu wyjściowego wzmacniacza o 1 dB. W nomenklaturze dbx funkcja ta nosi nazwę charakterystyki decylinearnej – logarytmiczne zmiany w decybelach przekładają się na liniowe zmiany poziomu sygnału. Tym, co wyróżniało rozwiązanie Blackmera od innych tego typu, jest wyjątkowo niski poziom szumów oraz zniekształceń.

O co tu dokładnie chodzi? Do czasu pojawienia się rozwiązania dbx, uzyskanie stabilnej charakterystyki przejścia w kompresorach i limiterach było bardzo trudne i w gruncie rzeczy nieprzewidywalne, wymagające eksperymentów i działań metodą prób i błędów. Nie można jednak nie zauważyć, że w ten sposób powstały rozwiązania o wyjątkowo oryginalnym brzmieniu będącym pochodną mniej lub bardziej trafionych koncepcji.

Od momentu pojawienia się niemal perfekcyjnego układu decylinearnego VCA, kształtowanie charakterystyki dynamicznej stało się oczywiste i pozwalało na precyzyjne definiowanie parametrów kompresji. Rozwiązanie to wyeliminowało zatem nieprzewidywalność i dało realizatorom narzędzie do kontroli dynamiki na swoich warunkach, a nie tylko w takim zakresie, w jakim mógł pracować wykorzystywany procesor.

Nie da się jednak ukryć, że wraz z VCA skończył się okres „radosnych” i charakterystycznych sonicznie rozwiązań, w których liniowość pracy miała mniejsze znaczenie niż jej charakter soniczny. W decylinearnych konstrukcjach typu dbx o charakterze kompresji w znacznej mierze decyduje ustawienie parametrów sterowania, a sam kompresor staje się narzędziem przewidywalnym i przejrzystym sonicznie. Co nie zmienia faktu, że pierwsze kompresory dbx nie miały żadnych regulatorów czasu ataku i powrotu, stąd też ich brzmienie jest w dużym stopniu zależne od charakteru przetwarzanego sygnału.

Historia dbx oraz rozwiązań VCA Blackmera jest dość skomplikowana, ale warto ją tu przytoczyć, by móc lepiej orientować się w tym, co jest czyje i dlaczego.

W 1979 roku David Blackmer sprzedał dbx firmie Birmingham Sound Reproducers. Do 1989 roku produkowała ona całą gamę sprzętu konsumenckiego wykorzystującego VCA, w tym gramofony, magnetofony i wzmacniacze. Wtedy też pojawiły się kompresory 160x oraz 160XT. Przez pewien czas dbx, jako oddział BSR, należał do japońskiej firmy Edison Laser Player, której założyciel Sanju Chiba wynalazł gramofon z „laserową igłą”. Ta następnie została sprzedana do AKG, by w ten sposób w 1994 roku trafić do korporacji Harman, czyli od niedawna do Samsunga.

W tym samym okresie kilka kluczowych patentów dbx na mocy wykupu oddziału dbx OEM zakupiła firma THAT Corp. założona w 1989 roku przez specjalistów z dbx. Stworzone przez nią układy scalone z serii 218X są bezpośrednimi kontynuatorami oryginalnych rozwiązań Blackmera i jako takie znajdują zastosowanie w urządzeniach takich marek jak m.in. Solid State Logic oraz Smart Research. Na stronie internetowej THAT Corp. można znaleźć największą bazę informacji na temat VCA – historii tego rozwiązania, konkretnych przykładów zastosowań, gotowych rozwiązań dla konstruktorów, schematów, modeli SPICE itp.

Tak naprawdę dbx model 160, najczęściej poszukiwany przez miłośników „vintage”, jest najbardziej nowoczesnym klasykiem kompresji jaki można sobie wyobrazić. Zarówno w nim, jak i w jego kolejnych wersjach – 161, 160X, 160XT, 160A, 162 oraz 165 – nie ma żadnego transformatora na wejściu ani wyjściu, które w każdym przypadku są symetryzowane elektronicznie. Dopiero w produkowanych obecnie wersjach 160SL oraz 162S zdecydowano się na ukłon w stronę purystów oraz stacji radiowych, gdzie wysoka wartość CMMR, tłumienia sygnału współbieżnego, jest niesłychanie istotna, implementując transformator wyjściowy. Wyeliminowanie transformatorów jako elementów o nieliniowym charakterze, było jednym z priorytetów Davida Blackmera. Uważał on, że transformatory zawężają pasmo przenoszenia i redukują zakres dynamiki poprzez typowe dla nich zjawisko nasycenia rdzenia przy dużych poziomach sygnału. Jako takie nie nadają się więc do realizacji układów, których zadaniem ma być kontrola zakresu dynamiki.

Z premedytacją zrezygnowano też z rozwiązania typu feed-backward na rzecz feed-forward, czyli pobierania sygnału sterującego z wejścia. To kolejny element, którego zastosowanie ma na celu uzyskanie jak największej liniowości pracy. Ponadto pozwoliło to otrzymać ekstremalnie krótkie czasy ataku, większe tłumienie i transparentność, trudne do uzyskania w „klasycznych” układach feed-backward.

Debiutujący w 1976 roku niewielki i relatywnie niedrogi dbx 160 VU od razu zdobył uznanie wśród realizatorów studyjnych. Stało się tak z uwagi na jego wyjątkowo prostą obsługę i możliwość natychmiastowego uzyskania oczekiwanych efektów. Jego kompresja jest doskonale słyszalna i bardzo charakterystyczna głównie z uwagi na zastosowanie charakterystyki „twardego kolana”, czyli natychmiastowego przejścia w stan tłumienia zaraz po przekroczeniu progu Threshold.

Ciekawą rzeczą w pierwszych urządzeniach dbx jest wyskalowanie regulatora Threshold w woltach, a nie – jak zazwyczaj to się dzieje w kompresorach – w decybelach. Jest to związane z decylinearną charakterystyką pracy modułu VCA i takim też sposobem myślenia na temat kontroli napięciowej. Nie zmienia to faktu, że wskaźnik głębokości tłumienia jest już opisany w decybelach.

Pochodząca także z 1978 roku wersja 165 powstała jako najwyższy model z całej serii kompresorów. Zastosowano w niej moduł VCA 202 – taki sam jak w konsoletach marek MCI czy SSL. W charakterze detektora wykorzystano układ scalony, a wejście pracowało w trybie pełnej symetrii. Wyjście, tak jak we wszystkich pierwszych kompresorach dbx, wciąż jednak było niesymetryczne. Pojawiły się natomiast regulatory czasu ataku i powrotu, gałka Threshold została wyskalowana w decybelach i po raz pierwszy zastosowano słynny układ Over Easy – realizujący w praktyce tryb pracy z miękkim kolanem charakterystyki dynamicznej. Co więcej, kompresor został wyposażony w gniazdo do podłączenia zewnętrznego sygnału sterującego układem tłumienia. Było to pierwsze komercyjne i całkowicie celowe zastosowanie konfiguracji sidechain w kompresorach.

Historię kolejnych odmian i wersji kompresora dbx 160 VU można ciągnąć dość długo. Najciekawsze jest jednak to, że sama koncepcja kompresora VCA okazała się przełomowa dla tego typu narzędzi studyjnych i otworzyła furtkę dla wielu różnych iteracji tego rozwiązania, wprowadzając obróbkę dynamiki na te obszary, gdzie może funkcjonować np. jako de-esser, ekspander, de-ekspander czy de-kompresor.

Który kompresor stosujemy do konkretnych zadań? Gdyby odpowiedź na to pytanie była oczywista, na rynku nie było by tak wielu różnych modeli. Na pewno kompresory optyczne nie sprawdzą się tam, gdzie potrzebny jest krótki czas ataku. Ale w przypadku wtyczek nie ma to już takiego znaczenia, bo pozwalają one, zwłaszcza w trybie lookahead, pracować począwszy od czasu ataku ustawionego na zero, czego sprzętowe, analogowe oryginały nie mogły uzyskać.

A zatem? Próbujcie, szukajcie, eksperymentujcie i uważnie słuchajcie zarówno pojedynczych ścieżek, jak i oddziaływania kompresji na ścieżki i grupy w całym miksie. Jest tutaj jeszcze wiele do odkrycia, a obróbka dynamiki sygnału jest tym, co w znacznej mierze odpowiada za brzmienie współczesnej muzyki.

I na zakończenie przypomnienie kluczowych pojęć, które pozwoliłem sobie wprowadzić wiele lat temu: mikrodynamiki i makrodynamiki. Ta pierwsza odnosi się do obróbki obwiedni sygnałów powtarzalnych, jak bębny, instrumenty, czy nawet wokale. Jesteśmy tu w stanie dość precyzyjnie określić parametry czasowe kompresji, bo są one przewidywalne i możemy intensywnie ingerować w obwiednię ich głośności.

W makrodynamice nie ma natomiast o tym mowy. Przyjmuje się, że w trybie makro kompresor niemal ciągle pracuje w trybie większego lub mniejszego, permanentnego tłumienia, a czasy jego reakcji będą definiować finalne brzmienie i – przy krótkich ustawieniach zwłaszcza release – ilość harmonicznych.

Słodki smak analogowej korekcji

Opublikowano przez

Icicle to jednokanałowy, czyli monofoniczny, korektor wyposażony w cztery filtry oraz wyjściowy moduł nasycenia dźwięku o wdzięcznej nazwie Oomph, zbudowany z wykorzystaniem, jak sugeruje producent, diod germanowych.

Zobacz prezentację wideo
Posłuchaj podcastu

Popatrzmy, jak zachowują się poszczególne filtry. Niskie tony w trybie półkowym oprócz regulacji częstotliwości granicznej mają też możliwość zmiany nachylenia filtracji regulatorem dobroci Q. Potencjometry podbicia i tłumienia w filtrach nie mają wyraźnie wyczuwalnego punktu zero, więc ustawienie idealnie płaskiej charakterystyki jest praktycznie niemożliwe, jeśli nie liczyć globalnego ominięcia całej korekcji przyciskiem Bypass.

Warto zwrócić uwagę na oddziaływanie sąsiadującego filtru niskiego środka, zwłaszcza przy częstotliwości zbliżonej do filtracji dołu i przy wysokiej dobroci. Generalnie tego typu interakcja między filtrami jest typową cechą wszystkich korektorów, w których nie ma wyraźnego punktu zerowego dla podbicia/tłumienia. Stąd też takie korektory, które plasują się na półce z napisem Vintage i dopiskiem „usiądź zanim zapytasz o cenę” wyposażone są w obrotowe przełączniki zamiast potencjometrów, aby te niekonsekwencje charakterystyki wyeliminować. Niemniej, jeśli chodzi o tzw. organiczną korekcję, wszystko działa perfekcyjnie, łącznie z wąskim filtrowaniem przy maksymalnej dobroci.

Popatrzmy na wyższy środek, tu działający aż do 18,5 kHz. Warto zauważyć, że jeśli z jakiegoś filtru nie korzystamy, bo przecież nie ma obowiązku używania wszystkich czterech, to jeśli nie chcemy, aby miał on jakiś wpływ na sygnał, lepiej profilaktycznie ustawić jego dobroć na minimum.

Dla sprawdzenia działania filtracji najwyższych częstotliwości, działającej jako półkowa lub pasmowa, zmienimy częstotliwość próbkowania systemu pomiarowego na 96 kHz. Tu też widać wyraźny wpływ sąsiadującego filtru, więc by go zminimalizować odsuniemy jego częstotliwość pracy w dół i zmniejszymy dobroć.

Filtr najwyższych częstotliwości działa półkowo, z możliwością włączania trybu swoistego odwrotnego rezonansu. W taki właśnie sposób uzyskuje się charakterystyczne brzmienie typu Air. Pod względem układowej i funkcjonalnej elegancji rozwiązanie to jest dość dalekie od ideału, ale co z tego, skoro pozwala uzyskać ciekawe efekty soniczne.

I jeszcze zobaczmy, jak działa układ nasycenia. Poziom sygnału podnosi się o 3 dB, ale w tym samym czasie znacząco rośnie udział harmonicznych – drugiej najmocniej w paśmie do 1 kHz, a trzeciej w całym zakresie częstotliwości.

Jeśli chodzi o przesunięcie fazowe, to mamy tutaj pełną gamę możliwości, ale przyznać trzeba, że jak na tego typu filtrację, wygląda to bardzo dobrze. W zakresie do 1 kHz trzymamy się przesunięcia do 30 stopni, a większe wartości pojawiają się dopiero wtedy, gdy użyjemy filtracji najwyższych tonów w trybie, nazwijmy go, rezonansowym.

Wszystko to, co mogliście tu obserwować, jest, rzekłbym, bardzo organiczne, plastyczne i niekiedy pozytywnie zaskakujące. Nie mamy jednak filtracji górnoprzepustowej, która oprócz odcinania najniższych tonów bywa ciekawym narzędziem kreowania brzmienia w systemach analogowych. Zresztą jest to zagadnienie, któremu trzeba poświęcić cały materiał i może niebawem przyjdzie na to czas.

Już wspominałem, że Icicle to korektor mono i że manipulatory głębokości pracy filtrów nie mają stabilnych punktów zerowych. Z mojej rozmowy z inżynierami Tierra Audio wynika, że firma oferuje także korektory do pracy w trybie stereo, specjalnie kalibrowane dla uzyskania idealnie powtarzalnej charakterystyki pracy i dostępne pod postacią dedykowanego zestawu, ale wciąż bez możliwości dokonywania powtarzalnych zmian za pomocą przełączników.

I jeszcze jedno – to, że urządzenie jest mono nie oznacza, że nie da się go zastosować np. w masteringu. Wystarczy przetworzyć materiał stereo do trybu Mid-Side, w którym pracujemy na dwóch niezależnych kanałach mono, i włączyć np. Icicle, w tor Mid lub Side.

Z uwagi na swoją konstrukcję i funkcjonalność, Icicle znajdzie zastosowanie głównie w monofonicznych torach nagraniowych i w miksie. Jest wielu realizatorów, którzy już podczas nagrywania włączają za mikrofonem przedwzmacniacz, kompresor – zwykle coś w rodzaju LA-2A lub 1176 w trybie Dr Pepper (i tu odsyłam do trzeciej części mojego cyklu o kompresji), a także korektor. Tym ostatnim jest najczęściej API 550, ale pod względem funkcjonalnym Icicle może go z powodzeniem zastąpić. Wprawdzie nie ma transformatorów separujących i przełączanych ustawień, ale oferuje cztery pasma, a transformatorowe nasycenie można zastąpić subtelną saturacją Oomph.

Trzeba pamiętać, że korekcja w domenie analogowej pozwala na znacznie więcej niż w środowisku cyfrowym. Przede wszystkim Icicle ma duży zapas dynamiki, więc nie jest łatwo go przesterować nawet przy ekstremalnych podbiciach filtrów. A gdy w takiej sytuacji będą pojawiać się transjenty powodujące przesterowanie konwerterów analogowo-cyfrowych, można wówczas zastosować klasyczną sztuczkę – po prostu włączyć efekt Oomph. Każdy układ nasycania czy przesterowania jest bowiem naturalnym ogranicznikiem poziomu sygnału szczytowego, a do tego działającym niezwykle szybko. Przy okazji mamy bonus pod postacią zwiększenia głośności odczuwalnej.

Jak łatwo się domyślić, funkcja Oomph w Icicle bardzo przypadła mi do gustu. Nasycenie nie jest ziarniste i bzyczące, bo główny wzrost harmonicznych dokonuje się w paśmie do 1 kHz. To efekt, który znalazł już zastosowanie w niektórych kostkach Flavours tego samego producenta. Tu znajdziecie odnośnik do ich testu. Nie odważę się go nazwać lampowym, transformatorowym czy taśmowym, bo jednoznaczne definicje tego typu brzmienia nie istnieją. Każdy nazywa nasycenie jak chce, a ten, kto słyszy tę nazwę, również może sobie wyobrażać co chce. A Oomph po prostu mi się podoba i fajnie działa.

Możliwość zmiany dobroci trzech filtrów w bardzo szerokich granicach oznacza, że możemy kształtować ogólny charakter brzmieniowy, subtelnym podbiciem lub tłumieniem w szerokim zakresie. Możemy też precyzyjnie wycinać ewentualne rezonanse, niechciane wybrzmiewania czy dynamiczne kumulacje energii w wąskich zakresach. Dwa filtry środka ustawione na wysoką wartość Q pozwolą też dopracować brzmienie np. przesterowanych gitar, definiując wyrazistość i specyficzną kąśliwość dźwięku.

Szkoda że korektor nie ma filtru HPF, a potencjometry poziomu wyraźnie wyczuwalnych punktów środkowych. Myślę, że nie zaszkodziłby też regulator poziomu sygnału na wyjściu – wówczas porównanie brzmienia z korekcją i bez niej miałoby większy sens niż obecnie.

Sugerowana cena detaliczna, która wynosi 7.220 zł, do niskich nie należy. No cóż, trochę płacimy za ekologię, trochę za oryginalność produktu, a chyba najwięcej za to, że sprzęt powstaje w Europie, dokładnie w Hiszpanii, a jeszcze dokładniej w Madrycie. Gdyby urządzenie było stereofoniczne, pewno bym nawet o tym nie wspomniał, ale jak na jednokanałowy korektor z regulacją potencjometryczną kwota 7.220 zł jest spora.Niemniej dla osób, które poszukują czegoś intrygującego i trochę jakby spoza głównego nurtu, Icicle może być wyjątkowo atrakcyjny. Firma Tierra Audio wyrobiła już sobie markę w świecie profesjonalistów, więc posiadanie jej produktu, w pełni analogowego, funkcjonalnego i bardzo solidnie wykonanego, nie jest obarczone ryzykiem utraty wartości wraz z upływem lat.

Wtyczki, bez których nie wyobrażam sobie pracy

Opublikowano przez

Konkretne procesory, konkretne zastosowania, konkretne utwory i konkretne miejsca. Pokazuję w działaniu te wtyczki, których używam zawsze i wyjaśniam, dlaczego to robię.
W programie:
Sprawdź, czego używasz; Zrób spis wtyczek; Szkice w preprodukcji; FabFilter Pro-Q 3; Filtracja przechyłowa; „Koloryzująca“ Blanka; Korekcja typu Pultec; Genialny API 560; Clariphonic – perła w koronie; FETpressor – kompresor roboczy; Sprośny Vulf i Niezastąpiony Novatron; Wokal i LA-2A;
Event Horizon i Loudmax – siły specjalne; Diabelski Surreal Machines Crack.

Zobacz materiał wideo
Posłuchaj podcastu

Przy okazji robienia porządków w komputerze po przejściu na MacBooka M1 i zupełnie nowy system zewnętrznej pamięci, całkowicie oparty na technologii SSD uznałem, że to dobry moment, by podzielić zestaw swoich 1.700 wtyczek na ulubione, inne niż ulubione, używane raz do roku i takie, których używam zawsze i wszędzie.

Zrobiłem tak: przejrzałem wszystkie swoje sesje od czasów albumu Komunikaty z 2017 roku, robiąc listing użytych w sesjach wtyczek – zarówno na etapie produkcji jak i miksu oraz finalizacji. W programie Reaper, z którego korzystam zdecydowanie najczęściej, jest to o tyle proste, że wystarczy użyć polecenia Open Project i zaznaczyć opcję ładowania sesji bez aktywnych wtyczek. Nie musimy wówczas czekać, aby wszystko się załadowało, a nazwy wszystkich procesorów pokażą się w oknie informacyjnym, z którego można je skopiować do pliku tekstowego. Owszem, można też użyć Project Bay i zakładki FX, ale jest w niej problem ze skopiowaniem tekstu. A tak, po prostu kopiuję tekst, wrzucam do jakiegoś edytora TXT i przenoszę np. do Worda. Żeby ten bałagan usystematyzować używam funkcji zastępowania, czyli znajdź i zamień. Usuwam tabulatory w polu znajdź wpisując znak tabulatora, czyli dash T, a pole zamień zostawiam puste. Klik w zamień wszystko i tabulatory znikają. Teraz zastępuję dwukropek i spację, tutaj reprezentowaną po prostu spacją, znakiem tabulatora, by można było stworzyć tabelę z podziałem za pomocą tabulacji. Pozostaje jeszcze tylko oddzielenie nazwy producenta do oddzielnej kolumny poprzez zamianę spacji oraz nawiasu otwierającego znakiem tabulatora, oraz zastąpienie nawiasu końcowego niczym.

Taki tekst można już zamienić na tabelę, a tabelę łatwo sortować według kolumn z nazwami wtyczek, nazwami producentów itd.

Jest z tym trochę grzebania, ale uwierzcie mi – to mocno otwiera głowę w kontekście stosowanych przez nas narzędzi.

Wyszła mi lista obejmująca blisko 60 wtyczek, a to, co mnie samego zaskoczyło, to minimalistyczny zestaw instrumentów wirtualnych. To dlatego, że przed zasadniczą produkcją przygotowuję sobie różne szkice, żeby mieć jakiś punkt zaczepienia, ot choćby tak jak tu. Są tu już jakieś zalążki bębnów, akordów, jakieś próby aranżacji, taki ogólny charakter całości. I bardzo często właśnie na tym etapie zamykam już kwestie instrumentów, zgrywając ich partie do plików audio. Trochę po to, aby na dalszym etapie prac już nie mieć do czynienia z kapryśnymi niekiedy syntezatorami czy samplerami, ale głównie dlatego, by odciąć się od preprodukcji. Ten szkic oczywiście zostawiam, ale do dalszych prac trafiają już ścieżki audio po, nazwijmy to może w ten sposób, reasamplingu.

Natomiast tam, gdzie brzmienie instrumentu będzie kluczowe dla aranżacji aż do samego końca łącznie z finalizacją, tam zostawiam instrument. I tak najczęściej jest właśnie z Addictive Drums 2, który jest moim podstawowym bębnem, czy takimi syntezatorami jak Dune, DX-7 V czy MODO Bass, którym wspieram bas elektryczny, oraz dominującymi partiami zaprogramowanymi w Kontakcie lub Reaktorze firmy Native Instruments. I właśnie te dwa ostatnie należą do wtyczek, z którymi nie mógłbym się nigdy rozstać. W ich bibliotekach mam wszystko czego potrzebuję i wykręcam w nich każde soniczne marzenie. To one są dla mnie początkiem i końcem, a że często grają kluczowe partie, pozostają w sesji do samego końca. Najczęściej używam bibliotek Spitfire, Heavyocity, Sample Logic i Scarbee, ale mam też mnóstwo ciekawych darmówej i róznych rzeczy, na które kiedyś tam trafiłem. Z kolei Reaktor to dla mnie warsztat ślusarski, w którym mogę sobie stworzyć co tylko chcę i kiedy chcę.

Jeśli chodzi o najczęściej używaną wtyczkę, to jest nią oczywiście FabFilter Pro-Q 3 – mój podstawowy korektor. Dlaczego Pro-Q 3. Nie będę opowiadał kocopołów o brzmieniu i takich tam innych historiach. To jest po prostu doskonałe narzędzie, w którym mogę zobaczyć widmo sygnału, porównać pasma kilku ścieżek dla uchwycenia kłopotliwych kumulacji, zaaplikować filtrację dynamiczną i generalnie nadać dźwiękowi takie brzmienie, jakiego chcę. Niekiedy na jednej ścieżce korektorów może być nawet kilka, każdy do czego innego. Nie wolno dopuścić do tego, aby korektor pracował z sygnałem międzypróbkowym powyżej 0dBfs, a Pro-Q 3 ma mierniki działające z nadpróbkowaniem, więc cały czas mamy wiarygodny poziom wskazań.

Korektory, których używam wyłącznie do nadawania ścieżkom kolorytu, a nie kształtowania brzmienia, to AudioFB Blanka, niezbyt ładny, ale potrafiący wydobyć w aranżacji każdy przytłumiony dźwięk. Do szerokiego oddziaływania, zwłaszcza w niskim basie, nie znalazłem niczego lepszego od dobrych korektorów typu Pultec, czyli wtyczek tego typu w wydaniu Universal Audio lub, jeśli chcemy użyć czegoś darmowego Ignite Amps. Wszystkie funkcjonują mniej więcej podobnie i używa się ich głównie do ciekawego wyeksponowania basu przy jednoczesnym spłaszczeniu niemal zawsze kłopotliwego niskiego środka w okolicach 200 Hz. 

Z uwagi na podział częstotliwości filtrów, korektor API 560 jest idealny do przesterowanych gitar. Dwa ruchy i natychmiast uzyskujemy to, czego szukamy.

No i wreszcie perła w koronie, czyli działający równolegle korektor Clariphonic DSP MKII – do rozjaśniania, nadawania blasku, polerowania, szlifowania, uwypuklania i generalnie wszelkich prac, które aplikujemy po lakierowaniu dźwięku.

Wiadomo, że każdy ma taki swój uniwersalny kompresor do pilnowania poziomów, zwiększania wyrazistości śladów czy nawet różnych zabiegów specjalnych. Moim jest PSP FETpressor – od lat, zawsze i wszędzie – swoista odmiana kompresji 1176.

Ale trzeba mieć też kompresory o jakimś charakterze, a tych używam sporo. Najbardziej bezczelnym jest Goodhertz Vulf Compressor. Używam go tam, gdzie potrzebuję czegoś naprawdę ordynarnego i sprośnego sonicznie.

Mój drugi uniwersalny kompresor, ale już taki, w którym można kreować barwę, jest Kush Audio Novatron. To jak Distressor, LA-2A, 1176 oraz API 2500 w jednym.

Wokal niemal zawsze musi przejść przez IK Multimedia White 2A. Spośród wielu różnych emulacji LA-2A wybieram tę, bo daje natychmiastowe efekty i brzmi najjaśniej. Jeśli natomiast szukam czegoś bardziej wysublimowanego, to włączam Tube-Tech CL 1B mk II. To przepięknie brzmiący kompresor, o doskonale dobranych krzywych dynamiki, ale trzeba mu poświęcić sporo czasu. Bardzo łatwo bowiem można z nim przejść z nieba do piekła, zatem należy się mocno pilnować. Ale jeśli szukacie nowoczesnego, bardziej funkcjonalnego LA-2A, to Tube-Tech jest właśnie tym kompresorem.

Idźmy dalej: Kush Audio AR-1 oraz Royal Compressor. Oba w bardziej lub mniej oczywisty sposób związane są ze studiem Abbey Road, więc już wiadomo o co chodzi. A chodzi o powłóczystą, głęboką, beatlesowską kompresję, która nie bawi się w szczegóły, tylko prasuje wszystko jak leci, nie niszcząc za bardzo wyższych częstotliwości.

I na koniec tej części mojej historii o wtyczkach, bo to oczywiście nie wszystkie narzędzia z których prawie zawsze korzystam, kilka perełek, zahaczających o darmówki. Dlaczego? Event Horizon dostępny jest w Reaperze za darmo, ale ja kupiłem jego wersję komercyjną, bo ma interfejs graficzny i po prostu chciałem odwdzięczyć się w jakiś sposób firmie Stillwell Audio. Obsługa jest prosta – ustawiamy poziom maksymalny, którego sygnał nie może przekroczyć, a następnie wielkość wzmocnienia przed limiterem, które wywoływać będzie zaokrąglanie lub obcinanie wierzchołków. Wszystko działa konkretnie, sensownie i adekwatnie brzmieniowo. Podobnie jest z bezpłatnym LoudMax, który jednak jest już limiterem przejrzystym brzmieniowo – definiujemy nieprzekraczalny poziom, włączamy kontrolę poziomów międzypróbkowych i wzmacniamy sygnał w razie potrzeby. Używam go głównie jako regulatora poziomu sygnału z przeźroczystym sonicznie ogranicznikiem.

Aktualny status Surreal Machines Crack nie do końca jest mi znany, ale swego czasu był do pobrania za darmo. To prawdziwy szatan, niekiedy bijący funkcjonalnie na głowę kosztowne procesory obwiedni głośności, czyli takie wyspecjalizowane kompresory dające więcej możliwości w kształtowaniu ataku i wybrzmiewania. Tu dodatkowo możemy przetworzyć sygnał w kilku trybach, z najbardziej agresywnym Maximizer włącznie, gdy jakiejś ścieżce już nic nie pomaga i to jedyna metoda jej uwypuklenia w miksie.Aha, i jeszcze jedno. Już od ponad dwóch lat nie instaluję wersji VST 2. Format ten odchodzi do lamusa i zostanie nam tylko VST 3. Zatem nie zaśmiecajcie sobie dysków dwójkami, bo niedługo programy DAW już przestaną je obsługiwać.

Austrian Audio OC818 (back in Black)

Opublikowano przez

Połączenie klasycznej koncepcji kapsuły CK12, nowoczesnej technologii i techniki cyfrowej dało w efekcie hi-endowy mikrofon, który pozwala zdefiniować brzmienie… już po nagraniu. Prezentacje, porównania, zastosowania OC818, a do tego omówienie klasycznych kapsuł, praca z Polar Designer i szczypta historii, jak zawsze w 0dB.pl 🙂

Zobacz materiał wideo
Posłuchaj podcastu

Austrian Audio OC818 nie jest absolutną nowością, bo funkcjonuje na rynku już od dwóch lat, ale jego wersja Black już taką nowością jest. Niektóre mikrofony produkowane są jako czarne po to, aby można było z nich korzystać tam, gdzie nie powinny się rzucać w oczy, albo kolor srebrny zbyt mocno przebija się w obrazku. Pod każdym innym względem OC818 Black jest tożsamy ze swoim srebrnym odpowiednikiem.

OC818 to ultranowoczesny mikrofon pojemnościowy ogólnego, szczególnego i dowolnego zastosowania. Oferuje wszystko, czego możemy się po nim spodziewać, a także to, o co nigdy byśmy go nie podejrzewali. A wszystko to w cenie, która w porównaniu z innymi hi-endowymi mikrofonami wydaje się po prostu zabawnie niska. Ale zacznijmy od początku.

Historia zaczyna się od C414, a w zasadzie od C12, jednego z najbardziej czczonych mikrofonów lampowych wszech czasów. Produkowany od lat 50. minionego wieku przez wiedeńską firmę AKG był, i w dalszym ciągu jest dostępny na rynku amerykańskim jako Telefunken ELAM 251.

C12 ma unikalną kapsułę pojemnościową o symbolu CK12, znacząco różniącą się od kapsuł stosowanych w mikrofonach Neumann. Stąd przyjęło się mówić o kapsułach typu neumannowskiego i AKG. Zasadnicza różnica polegała na wyprowadzeniu elektrody ruchomej, jest powlekana złotem membrana. I tu mała uwaga – do lat 70. membrana była wykonywana z materiałów o przeciętnej trwałości, więc niemal wszystkie mikrofony z lat 50. i 60. wymagają jej regeneracji, czyli w zasadzie wymiany. Dopiero wprowadzenie tworzywa o nazwie handlowej Mylar, czyli folii wykonanej z poli-tereftalanu etylu, znanego dziś jako PET, sprawiło, że trwałość kapsuł znacząco się zwiększyła.

W kapsułach Neumann membrany mają zarówno wsparcie jak i wyprowadzenie ze środka. W kapsułach typu CK12 natomiast cała membrana drga swobodnie, a jej wyprowadzenie znajduje się na krawędzi.

Ma to dość istotne konsekwencje, głównie jeśli chodzi o częstotliwość rezonansową membrany i charakter owego rezonansu. Nie wnikając w szczegóły, konstrukcja elektrody stałej, czyli backplate w CK12, której zadaniem jest między innymi kompensacja owego rezonansu i dopasowanie przestrzeni akustycznej z tyłu membrany, jest bardziej złożona niż w kapsułach typu neumannowskiego.

Jeśli miałbym użyć jakiegoś sugestywnego, choć nie do końca oddającego istotę rzeczy porównania, to kapsuły typu Neumann są trochę jak Fender Stratocaster, a kapsuły typu AKG jak Gibson Les Paul.

AKG C414 pojawił się na początku lat 70., zawierał doskonale sprawdzającą się kapsułę CK12 i tak jak jego poprzednik C412, był już konstrukcją półprzewodnikową. I tu zaczyna się karuzela modeli, udoskonaleń, zmian, ulepszeń, uproszczeń, optymalizacji i wszystkich tych rzeczy, które sprawiają, że wokół C414 panuje mnóstwo mitów, opinii, wyrazów miłości i nienawiści – niekiedy jednocześnie – generalnie rzecz ujmując, zamieszania.

Firma AKG wyprowadziła się z Wiednia, ale część jej pracowników postanowiła trwać dalej. Już jako Austrian Audio postanowili nie tyle wskrzesić, co stworzyć od nowa linię mikrofonów w pewien sposób nawiązujących do tradycji takich produktów jak m.in. C414. I takim właśnie jest OC818.

Wszystko zaczyna się od kapsuły. Bazuje ona na strukturze CK12, ale jest określana jako ceramiczna, nosząc oznaczenie CKR12. Wspomniałem już, że na temat oryginalnych C414 jest mnóstwo dyskusji, ale to nic w całym oceanie kontrowersji odnośnie do konstrukcji CK12 – że lepsza z mosiądzu niż z tworzywa, że akrylowa, że skręcana lub nie, itd.

Chodzi tu o pewien szczegół konstrukcyjny, którego podłożem była chęć obniżenia kosztów produkcji koszmarnie drogiej CK12. Na samym początku membrany ruchome były mocowane do membrany stałej za pośrednictwem mosiężnych pierścieni i wkrętów. Potem zastąpiono to rozwiązanie znacznie prostszym – dwoma skręcanymi lub wręcz sklejanymi elementami z różnych rodzajów tworzywa. Z uwagi na skomplikowaną naturę kapsuł CK12 – i tu trzeba przyznać, że kapsuły typu neumannowskiego są znacznie prostsze i pod względem konstrukcji, że użyje takiego sformułowania zaczerpniętego z fizyki teoretycznej, bardziej eleganckie – trudno było uzyskać idealną powtarzalność. I to jest chyba najłagodniejsze sformułowanie odnoszące się do starszych CK12.

Konstruktorzy w Austrian Audio podeszli do sprawy kompleksowo. Po dokonaniu wnikliwej analizy komputerowej wszystkich szczegółów oryginału uznali, że najlepszym rozwiązaniem będzie zastosowanie głównego elementu nośnego i stabilizującego wszystkie potencjalne zmienne, wykonanego z najbardziej stabilnego i najtwardszego materiału dającego się kształtować – ceramicznego spieku.

Dzięki temu montaż kapsuły jest znacznie prostszy, powtarzalność stuprocentowa, koszt wykonania relatywnie niski. Nie można mówić, że CKR12 to bezpośrednia, współczesna wersja CK12. Te konstrukcje mocno się różnią, ale łączy je koncepcja membrany swobodnie drgającej na całej swej powierzchni, z krawędziowym wyprowadzeniem.

Cóż mogę na ten temat powiedzieć – to jedno z najbardziej eleganckich, efektywnych, funkcjonalnych oraz innowacyjnych rozwiązań w zakresie kapsuł pojemnościowych. Odchodzące od wzorców „vintage”, a jednocześnie wykorzystujące ich najlepsze cechy. Pamiętajmy, że to cały czas jest czysta fizyka. Nadawanie jej cech mitycznych, ezoterycznych, ponadnaturalnych czy wręcz duchowych to wyłącznie interpretacja tego, co finalnie słyszymy lub chcemy usłyszeć.

Ale konstruktorzy w Austrian Audio nie ograniczyli się tylko do kapsuły. W zasadzie tylko od niej zaczęli, by stworzyć prawdziwy hi-endowy mikrofon XXI wieku. Są nowe czasy, jest nowa muzyka, nowe sposoby jej tworzenia, nagrywania i dystrybucji. Czemu wciąż mamy wracać do zamierzchłych czasów i ronić łzy, że kiedyś to był sprzęt, nie to co teraz. Ale o tym może przy innej okazji.

Kapsuła rzecz jasna jest podwójna, co poprzez odpowiednią polaryzację obu wchodzących w jej skład kondensatorów pozwala uzyskać całą gamę różnego typu charakterystyk kierunkowych. Standardowo zmianę charakterystyk, zazwyczaj między wszechkierunkową, nerkową i ósemkową realizuje się fizycznie przełączając napięcia polaryzujące kapsuły, ale OC818 to przecież mikrofon XXI wieku, w którym przełączanie dokonywane jest z udziałem sterowania mikroprocesorem. I właśnie to, w połączeniu z bardzo sprytnym wyprowadzeniem sygnału także z drugiej kapsuły zestawu CKR12, daje nam mnóstwo możliwości zdalnego sterowania pracą mikrofonu oraz użycia takich narzędzi jak Polar Designer, Stereo Creator oraz Ambi Creator.

OC818 jest niezwykle solidnie wykonany. Ma jednolity korpus z odlewu i dwuwarstwową osłonę kapsuły, która – jak w każdym mikrofonie tego typu – pełni też funkcję tzw. klatki Faradaya, chroniącej kapsułę przed zewnętrznym promieniowaniem elektromagnetycznym.

Suwaki w korpusie, będące swoistym nawiązaniem do C414, pozwalają na zmianę trzech podstawowych charakterystyk mikrofonu, aktywację tylnej membrany, przejście na tryb zdalnego sterowania, o którym później oraz wybranie częstotliwości i nachylenia filtracji górnoprzepustowej.

Mikrofon otrzymujemy w eleganckiej walizeczce wraz z przewodem do podłączenia drugiej strony kapsuły, pianką przeciwwietrzną oraz dwoma uchwytami – elastycznym i sztywnym. Uchwyt elastyczny jest wygodny, przydatny i funkcjonalny, ale nie pozwala obrócić mikrofonu, więc musimy operować całym statywem. Niekiedy zatem wygodniejsze okazuje się użycie drugiego, sztywnego uchwytu.

Drugą, w domyśle tylną kapsułę, podłączamy do wielowtyku na tylnej części korpusu i dobrze jest tego dokonać przed włożeniem mikrofonu do elastycznego uchwytu, wcześniej przeciągając przezeń kabel. Mamy też elastyczny uchwyt, pozwalający połączyć razem kabel główny oraz pomocniczy, albo zabezpieczyć połączenie wyjścia z mikrofonu z kablem mikrofonowym. w takiej dwukablowej konfiguracji napięcie fantomowe podajemy tylko na wyjście główne. Przy takim podłączeniu, nazwijmy je na dwa kable, możemy dokonywać nagrań na dwóch ścieżkach, a później wykorzystać je, np. we współpracy z bezpłatną wtyczką Austrian Audio Stereo Creator do wykreowania przestrzennej konfiguracji pseudo mid-side lub pseudo-stereo. Pamiętajmy, że dzieje się to z użyciem tylko jednego mikrofonu OC818. Oczywiście nic nie stoi na przeszkodzie, by użyć do tego celu każdego innego mikrofonu z podwójną kapsułą i dwoma wyjściami, jak np. Lewitt LCT 640 TS czy Townsend Labs Sphere, a nawet, choć już raczej do celów eksperymentalnych, dwóch różnych mikrofonów.

Zamiennie z kablem wyprowadzającym sygnał z tylnej części kapsuły można użyć opcjonalnej wtyczki Bluetooth OCR8. Ona z kolei pozwala na zdalne sterowanie mikroprocesorem wewnątrz mikrofonu, a w konsekwencji charakterystyką kierunkową mikrofonu z użyciem. Co więcej – możemy ją kształtować w całym zakresie częstotliwości jak i pasmowo. I to jest coś, co otwiera przed nami zupełnie nowe światy, jeśli chodzi o obraz soniczny nagrywanego dźwięku. Sygnał można podzielić na maksymalnie pięć zakresów, a każdemu z nich przypisać inną charakterystykę kierunkową. To oznacza, że mamy wpływ nie tylko na takie elementy jak np. efekt zbliżeniowy, ale też udział różnych częstotliwości w finalnym sygnale. Mówiąc wprost – możemy dopasować charakter brzmieniowy mikrofonu do pomieszczenia, w którym go używamy. Np. użycie charakterystyki wszechkierunkowej dla najniższych tonów zmniejszy wyrazistość efektu zbliżeniowego, zaaplikowanie odwrotnej nerki do wyższego środka podkreśli jego obecność w sygnale, a ósemka dla tonów wyższych pozwoli uzyskać lepszą czytelność. Co robi ta aplikacja? Wykorzystuje sygnał z tylnej kapsuły i w zdefiniowany przez nas sposób z użyciem korekcji miksuje go z sygnałem z kapsuły przedniej. Rewelacja!

Po nagraniu sygnału z dwóch wyjść mikrofonowych, definiujemy sygnał główny, z przedniej membrany jako lewy, a sygnał z tylnej jako prawy i włączamy je na grupę z wtyczką Polar Designer. Sygnał będzie monofoniczny, bo procesor ten wykorzystuje oba sygnały wyłącznie do tworzenia charakterystyki kierunkowej mono. I tak, możemy wybierać każdą z sześciu charakterystyk, nazwijmy je przednimi, od ósemki do wszechkierunkowej. Porównajmy to brzmienie do brzmienia nagranego klasycznie, z charakterystyką nerkową. Dodatkowo możemy też użyć charakterystyk odwróconych, czyli wąskiej i szerokiej nerki z tylnej kapsuły.

Tu należy zwrócić uwagę na dwoistość natury pracy dwukapsułowej. Gdy korzystamy z opcjonalnej wtyczki OCR8, możemy kształtować charakterystykę w czasie rzeczywistym i dokonywać nagrania tylko na jednej ścieżce. Tak nagrana ścieżka nie podlega już edycji offline. Została nagrana, brzmi tak i już.

Znacznie więcej swobody mamy wykorzystując drugie wyjście mikrofonu, z kapsuły tylnej, do nagrania dwuśladowego. Tak zarejestrowane ślady podlegają wówczas daleko idącej edycji, nazwijmy ją, na drodze skojarzenia z reampingiem, remicingiem.

Pamiętajmy, że poza całym swoim cyfrowym enturażem w warstwie sterowania, OC818 pozostaje mikrofonem w pełni analogowym, z wyjściem o niskiej impedancji symetryzowanym elektronicznie. Pamiętajmy też, że WA-47 to w zasadzie mikrofon customowy, dopracowany przeze mnie pod kątem mojego głosu i moich zastosowań. W przypadku innych wykonawców sprawdza się on średnio i dlatego też w swojej kolekcji mam kilka innych mikrofonów.

OC818 zdecydowanie jest mikrofonem o nowoczesnym charakterze brzmieniowym – jasnym, otwartym, zdecydowanym, a nawet dominującym. Nagrany nim sygnał będzie w miksie parł do przodu i jeśli już, to raczej będziemy musieli go nieco przytemperować niż eksponować, co zawsze jest zdecydowanie bardziej korzystną opcją z punktu widzenia zapasu dynamiki.

Kilka rzeczy wartych jest podkreślenia. Ma bardzo optymalnie dobraną czułość, wynoszącą 13 mV/Pa, akceptuje ciśnienie o wartości aż 148 dB SPL, a z włączonym tłumikiem do 158 dB i ma rewelacyjnie niski poziom szumów własnych, szacowany na 9 dB SPL. Dzięki temu jest narzędziem bardzo uniwersalnym, zarówno do bliskiego, jak i dalekiego omikrofonowania. No i wreszcie możliwość korzystania z dwóch kapsuł naraz, zdalnego sterowania za pośrednictwem aplikacji w naszym smartfonie i wszystkie te sztuczki z przestrzennością, które można realizować już po nagraniu, z wykorzystaniem bezpłatnych wtyczek Austrian Audio. Może być zatem zarówno naszym głównym mikrofonem w studiu do prac wszelakich jak i narzędziem do realizacji ciekawych eksperymentów, np. z nagraniami bębnów – oldskulowo, na jeden mikrofon, z niesamowicie elastyczną brzmieniowo możliwością wykorzystania kapsuły tylnej.

Oczywiście, nie będę go porównywał do i z C414, bo to nie ma najmniejszego sensu. Funkcjonalnie to zupełnie inne produkty, choć łączy je unikalna koncepcja kapsuły typu CK12. OC818 jest natomiast doskonałym przykładem tzw. supermikrofonów, czyli nie tylko świetnych narzędzi do ujęć sygnałów akustycznych, ale też w zasadzie stacji roboczych, pozwalających kształtować brzmienie na etapie produkcji i postprodukcji.Czy OC818 ma szansę na to, aby stać się, podobnie jak jego odlegli przodkowie, klasycznym mikrofonem studyjnym? W zasadzie nie widzę powodów, by tak nie było. Pamiętajmy jednak, że w latach 60. czy 70. wybór wysokiej klasy mikrofonów był bardzo ograniczony, w zasadzie do modeli, które można było policzyć na palcach jednej ręki, w dodatku potwornie drogich. Dziś mamy tych mikrofonów znacznie więcej, a ich ceny są relatywnie niższe. Ten mikrofon wyznacza jednak pewien nowy standard, więc po prostu nie można go przeoczyć, gdy szukamy nowego mikrofonu głównego do swojego studia, czy nawet na scenę.

IsoAcoustics ISO-Stand

Opublikowano przez

Czy IsoAcoustics ISO-Stand, przy całej swojej funkcjonalności oraz konstrukcji modułowej okażą się przydatnym systemem tłumienia transferu energii z obudowy monitora studyjnego? Testujemy, mierzymy i porównujemy na przykładzie modeli ISO-Stand 155 (520 zł) oraz ISO-Stand 200 (790 zł).

W ramach materiału: funkcje i montaż, metodologia pomiarów i pomiary porównawcze. Zapraszam!

Zobacz materiał wideo
Posłuchaj podcastu

Chyba nikt nie ma wątpliwości, że nasze monitory studyjne powinny być w jakiś sposób odizolowane od podłoża. Zbadamy i pomierzymy funkcjonalność i efektywność dwóch systemów statywowych IsoAcoustics, by przekonać się, czy warto wydać na nie – w zależności od modelu – 520 lub 790 zł. Zapraszam.

W ofercie kanadyjskiej firmy IsoAcoustics, oprócz omawianych już wcześniej ISO-Puck, znajdują się także systemy ISO-Stand, dostępne pod postacią pięciu modeli o różnych gabarytach i funkcjonalności. Przyjrzymy się dwóm: ISO-155 oraz ISO-200. Różnią się one nie tylko maksymalną wysokością, na jaką pozwalają wynieść monitory, ale też udźwigiem i gabarytami. A jeśli ktoś w młodości lubił się bawić klockami Lego, to składanie ISO-Stand będzie czystą przyjemnością. Systemy te są bowiem modułowe, pozwalając ustawić nie tylko optymalną wysokość, na której powinny się znaleźć monitory, ale także kąt pochylenia w płaszczyźnie poziomej, maksymalnie do 6,5 stopnia.

Zestawy sprzedawane są w pakietach po dwa statywy, więc w przypadku niewielkich monitorów wystarczy po jednym statywie na monitor. W przypadku większych lub ustawionych poziomo, warto użyć dwóch na jeden monitor.

W ramach pojedynczego statywu mamy wspornik dolny i górny, o nieco innej konstrukcji całkowicie wykonanej z tworzywa i wyglądającej na bardzo solidną i wytrzymałą. Cała idea redukcji transferu drgań z korpusu monitora do podłoża opiera się tutaj na silikonowych wpustach służących do połączenia górnej i dolnej części statywu za pośrednictwem stalowych, powlekanych proszkowo rurek. Są one dostępne po cztery w dwóch długościach: 6,5 cm oraz 19,5 cm. Dodając do tego 1,5 cm potrzebne na wspornik i silikonowe gniazdo od razu mamy wysokość, na jakiej znajdzie się monitor: 8 lub 21 cm.

Producent przewidział też sytuację, w której musimy pochylić monitor – tak aby był skierowany w górę lub w dół. Do realizacji tego zadania służą wykonane z tworzywa swoiste przedłużki dodające do długości wsporników, przednich lub tylnych, w zależności od kierunku pochylenia, 8 lub 12 mm. Można też użyć obu jednocześnie, by jeszcze bardziej zwiększyć kąt, albo jednych z przodu, a drugich z tyłu, gdy chcemy nasz monitor pochylić tylko nieznacznie. Sprytne.

Po złożeniu trzeba wszystko mocno docisnąć upewniając się, że rurki znalazły się w położeniu optymalnym. Wszystko tu funkcjonuje na wcisk, więc po złożeniu trzyma się dobrze. Przedłużki z tworzywa mają nieznacznie mniejszą średnicę od rurek, zatem w razie konieczności ich wyjęcia z silikonowego gniazda nie trzeba będzie używać żadnych dodatkowych narzędzi. Nie wiem natomiast jak to wszystko będzie wyglądało np. za dekadę – wszystko zależy od jakości użytego silikonu. Produkty IsoAcoustics są jednak na rynku już od wielu lat i przez cały ten czas nie spotkałem się z żadnymi negatywnymi opiniami na ich temat. Można zatem założyć, że nie przysporzą nam żadnych problemów w kontekście zmian materiałowych wraz z upływem czasu.

ISO-Stand 155 są przeznaczone do monitorów o wadze do 18 kg, a przy ustawieniu wysokim do 16 kg. Sądzę, że przy tym ostatnim stawianie na nich czegoś większego niż dwudrożne zestawy z wooferem od 5 do 7” może już być ryzykowne. Ale tak jak wspomniałem wcześniej – jeśli monitory są większe, wówczas należy użyć dwóch zestawów statywów.

Większe ISO-Stand 200 mają już grubsze rurki łączące i – oczywiście – większy udźwig – do 34 kg na ustawieniu krótkim i do 27 kg na długim. Do ich montażu zalecałbym użycie młotka z tworzywa lub gumy, ponieważ dla prawidłowego osadzenia połączeń należy już zastosować większą siłę. Również sam demontaż nie jest taki łatwy, ale w końcu nie robimy tego co tydzień, więc nie widzę żadnego problemu. Po prostu sygnalizuję fakt, że jest to solidna, mocno spasowana konstrukcja. Zasada działania, jeśli chodzi o kąty pochylenia, jest tu taka sama jak w ISO-Stand 155, a dzięki większemu rozstawowi podpór konstrukcja jest zdecydowanie stabilniejsza.

Pomiary, przynajmniej dla mnie, nie są celem, ale środkiem pozwalającym w jakimś zakresie określić funkcjonalność i przydatność ocenianych produktów. W przypadku takich izolatorów jak krążkowe ISO-Puck czy statywowe ISO-Stand istotną rzeczą jest ich odizolowanie od podłoża. Jak to szczegółowo opisałem w odcinku poświęconym ISO-Puck, chodzi o redukcję transferu drgań korpusu monitorów do podłoża. O ile bowiem obudowy monitorów są w jakimś sensie kontrolowanym, poprzez swoją konstrukcję, źródłem dźwięku, o tyle już przekazanie nieuniknionych drgań ich korpusów do innego środowiska, jak np. blat stołu, wprowadza trudną do określenia zmienną. W teorii zatem efektywne odizolowanie monitorów pozwala uzyskać bardziej zwartą reprodukcję w zakresie wyższego basu i niskiego środka. Można też przyjąć, że drgania obudowy, a więc i transfer ich energii dla częstotliwości powyżej 1 kHz, są nieistotne, więc będzie nas interesowała głównie efektywność tłumienia podstawek w paśmie – powiedzmy – 40 Hz-800 Hz.

Do pomiarów użyłem nieco innych przetworników piezo niż w przypadku testów ISO-Puck. Przede wszystkim są one znacznie większe, a ponadto dokonywałem pomiaru w czterech punktach podparcia statywów jednocześnie. Metodologia była podobna jak ostatnio – przetworniki piezo podłączone do wejść wysokoimpedancyjnych interfejsu audio i odtwarzanie przez monitor przestrajanego sygnału sinusoidalnego od 20 Hz do 20 kHz.

Może się oczywiście zrodzić pytanie, na ile czuły jest przetwornik piezo i na ile wiarygodne są tego typu badania. O ile wiem, nikt takowych jeszcze nie przeprowadzał, zatem trudno jest znaleźć punkt odniesienia. Ale aby was uspokoić, popatrzmy na to. Monitor Eve Audio SC205 stoi tutaj na dwóch podkładkach – neoprenowej i piankowej. Pod nimi znajduje się jeden z moich czujników podłączony do wejścia gitarowego w interfejsie MOTU Track 16. Na jego wskaźnikach można obserwować poziom sygnału. Teraz jest zerowy, bo czujnik nie odbiera żadnych drgań. Ale wystarczy, że lekko puknę w korpus monitora albo przesunę po nim palcem, wskaźnik poziomu sygnału natychmiast to rejestruje. I jeszcze dowód na to, że czujnik działa tylko na tym obszarze, na którym dochodzi do transferu energii: puknięcia w blat biurka są rejestrowane w bardzo niewielkim stopniu w porównaniu do puknięcia w korpus monitora.

Na samym początku ocenimy jaki jest stopień transferu drgań obudowy do podłoża – w tym wypadku dębowego blatu o grubości 4 cm i wymiarach 2 metry na 1 metr. Wielkość transferu w różnych punktach styku obudowy z blatem jest różna, i jest to już pierwsza wskazówka, że monitory nie powinny nigdy stać bezpośrednio np. na biurku czy konsolecie. Biorąc pod uwagę wartości maksymalne, minimalne i średnie stwórzmy obszar, który będzie naszym punktem odniesienia przy pomiarach efektywności statywów. Czym wartość w danym miejscu jest większa, tym większy transfer energii drgań obudowy do blatu.

A teraz ISO-Stand 155 w wersji krótkiej. Widzimy, że ich efektywność jest porównywalna z ISO-Puck, z kilkoma drobnymi różnicami – nieco mniejszą skutecznością tłumienia w obszarze 40 Hz i 250 Hz, natomiast sporo większą w paśmie 80-200 Hz. Słuchając tych różnic trudno jest stwierdzić, czy są one w jakikolwiek sposób słyszalne, niemniej w porównaniu z monitorami postawionymi bezpośrednio na biurku średnia efektywność tłumienia obu elementów izolujących cały czas utrzymuje się na poziomie średnim 30 dB w najbardziej interesującym nas paśmie od 40 Hz do 800 Hz.

ISO-Stand 155 w wersji długiej zapewnia taką samą tłumienność w całym zakresie częstotliwości jak w wersji krótkiej, oferując jednocześnie lepszą izolacyjność w zakresie tonów najniższych.

Jak w tym kontekście wyglądają ISO-Stand 200? Tutaj niespodzianek nie ma – jest bardzo podobnie jak w przypadku 155, tyle tylko, że rozrzut tłumienności dla wszystkich czterech punktów pomiarowych jest znacząco mniejszy.

Istotną przewagą ISO-Stand nad ISO-Puck jest możliwość podniesienia monitorów wyżej, co przypadku np. blatu biurka pozwala je ustawić na wysokości słuchu. Ponadto możemy zmieniać kąt pochylenia monitorów w takich granicach, by owo wyniesienie skompensować, jeśli jest zbyt małe lub zbyt duże.

Jakość wykonania i solidność poszczególnych elementów nie wzbudzają żadnych zastrzeżeń – jest to produkt wysokiej klasy, doskonale spełniający swoje zadanie i prezentujący się wyjątkowo efektownie. Wyposażenie swojego studia, czy to domowego, czy też profesjonalnego, w statywy lub krążki IsoAcoustic zawsze będzie dobrą inwestycją, a mnogość dostępnych opcji pozwala dobrać najbardziej optymalną.OK, wy też na pewno zadajecie sobie to pytanie: a co się stanie, jeśli użyjemy kombinacji np. ISO-Stand 200 z podstawkami ISO-Puck? Wówczas, jak widać, średnia efektywność tłumienia w paśmie 200-400 Hz wzrasta o kolejne 20 dB. Poniżej i powyżej tego zakresu istotnych zmian nie widać, co może oznaczać po prostu, że w tych zakresach obudowa nie wykazuje się chęcią przeniesienia energii w punktach podparcia. Wniosek? Jeśli chcecie mieć jeszcze lepsze tłumienie i macie na to odpowiednie pieniądze, kombinacja ISO-Puck oraz ISO-Stand wydaje się być jeszcze bardziej efektywna w działaniu.

Cała prawda o izolatorach ISO-Puck

Opublikowano przez

Czy te popularne podstawki pod monitory studyjne rzeczywiście spełniają swoją rolę i sprawią, że Twój odsłuch zabrzmi lepiej i precyzyjniej? Przekonajmy się poddając je nieszablonowym testom.

Zobacz materiał wideo
Posłuchaj podcastu

Rozpatrywanie jakiegokolwiek zestawu głośnikowego bez brania pod uwagę jego interakcji ze środowiskiem jest rzeczą czysto akademicką. Nikt bowiem nie słucha dźwięku w warunkach pomieszczenia bezechowego pozbawionego jakichkolwiek innych elementów poza monitorami i ewentualnie mikrofonami pomiarowymi.

Badania w takich bezechowych warunkach mają oczywisty walor obiektywnej oceny cech sonicznych wszystkich elementów zestawu głośnikowego, ale praktycznie nigdy nie przenoszą się na realia pracy w studiu.

Pominąwszy już tak oczywiste rzeczy jak rezonanse własne pomieszczenia oraz odbicia dźwięku i związane z tym filtrowanie grzebieniowe, pozostaje jeszcze kwestia transferu energii z obudowy zestawów głośnikowych do podłoża, na którym zostały umieszczone.

Dopóki istnieje grawitacja i nikt nie wymyślił monitorów, które będą w stanie stabilnie lewitować, każdy zestaw głośnikowy trzeba będzie na czymś postawić – konsolecie, biurku, statywie, czy też zawiesić – za pośrednictwem uchwytu do ściany, zamontować go wewnątrz ściany, czy podwiesić do sufitu lub na kratownicach.

To ostatnie rozwiązanie zdaje się być najbliższe idei oddzielenia drgającej obudowy zestawu głośnikowego od innych elementów odbierających energię tych drgań i już z uwagi na to zasługuje na szczególną uwagę. Podwieszanie zestawów głośnikowych jest z powodzeniem stosowane w wielu obiektach przeznaczonych np. do pracy z dźwiękiem dookolnym, gdzie doskonale zdaje egzamin. Że już nie wspomnę o dużych systemach nagłośnieniowych.

W warunkach niewielkiego lub wręcz domowego studia nagrań może jednak nie być optymalnych warunków do tak zaawansowanych konstrukcji, ale to wcale nie oznacza, że jesteśmy całkowicie bezbronni.

Podświadomie wyczuwamy, że bezpośredni transfer energii z obudowy zestawu głośnikowego, zwłaszcza w zakresie niskich i średnich tonów, nie wpływa korzystnie na reprodukcję dźwięku. Chodzi o to, że emisja fal dźwiękowych w pewnym zakresie wymyka się spod kontroli założeń projektantów zestawu głośnikowego – dochodzą kolejne elementy odbierające drgania od naszego monitora i nigdy nie wiadomo, w jaki sposób te drgania zostaną przetworzone i rozproszone.

Jednym z intuicyjnie rozpatrywanych rozwiązań jest zastosowanie jakiegoś rodzaju izolacji między naszym monitorem a podłożem, na przykład blatem biurka. W tym zakresie znajdziemy mnóstwo rozwiązań – od podkładek neoprenowych poprzez piankowe podstawki, połączenia struktur piankowych z metalowymi, audiofilskie kolce czy kamienne postumenty. Chodzi o to, aby jak najwięcej cennej energii dźwięku zatrzymać w samych zestawach głośnikowych i by to one, a nie na przykład we współpracy z blatem biurka, były jedynym źródłem dźwięku.

Są też bardziej zaawansowane rozwiązania, jak na przykład systemy IsoAcoustics, w których wykorzystuje się osiągnięcia techniki materiałowej oraz tłumienia drgań, by zapewnić jak najwyższy stopień izolacyjności. Ta kanadyjska firma ma w swojej ofercie całą gamę systemów izolacyjnych do zastosowań konsumenckich i profesjonalnych – od najprostszych po typowo audiofilskie, wykonane niemal jak biżuteria kompleksowe rozwiązania.

Większość z nich była już testowana w różnych magazynach i publikacjach internetowych, na ogół spotykając się z bardzo pozytywnymi opiniami. Mój kłopot z tymi testami polegał jednak na tym, że wszystkie miały zabarwienie wybitnie subiektywne i opierały się w znacznej mierze na odczuciach. Ja natomiast zwykle dążę do tego, aby móc coś w miarę precyzyjnie określić, może nawet pomierzyć, choć zawsze powtarzam, że nie można być aż takim arogantem, aby twierdzić, iż potrafimy zmierzyć wszystko co dotyczy percepcji dźwięku. Pewne rzeczy po prostu pozostaną niemierzalne.

W moim przypadku punktem wyjścia okazał się przetwornik piezoelektryczny. Ten popularny element, umieszczony pomiędzy dwiema strukturami, z których jedna lub obie jednocześnie, będą drgać, wytworzy na swoim wyjściu zmiany napięcia proporcjonalne do wielkości odkształceń. Żeby daleko nie szukać, przetworniki tego typu znajdziecie we wszystkich gitarach elektroakustycznych, w których pasek materiału ceramicznego montowany jest na ogół pod mostkiem instrumentu.

Uznałem, że jeśli działa to w gitarach, to zadziała również przy określaniu składu harmonicznego drgań przenoszonych z obudowy zestawu głośnikowego na podłoże.

Ponieważ tego typu przetwornik ma bardzo wysoką impedancję wyjściową, jego bezpośrednie podłączenie do wejścia mikrofonowego mija się z celem. Ale od czegóż mamy wejścia instrumentalne. Takie gniazdo w interfejsie MOTU Track 16 oferuje doskonałe parametry pozwalając podłączyć przetwornik piezo i to właśnie niego skorzystałem w dalszej pracy. Sam przetwornik, no cóż, zrobiłem samodzielnie – może nie tyle przetwornik, co jego połączenie odpowiednim kablem odpornym na zakłócenia u na tyle cienkim, by nie przeszkadzał w pomiarach. Jak zwykle w takich sytuacjach doskonale sprawdzają się produkty firmy Mogami z podwójnym oplotem przeciwstawnie skręcanym.

Na początku zobaczmy, co takiego dzieje się na styku obudowy monitora – w tym przypadku Eve Audio SC205 z płaskim blatem biurka. Pomiar został dokonany w kilku punktach styku monitora z biurkiem, a wynik został uśredniony. To co tu widzimy można z dużym przybliżeniem uznać za charakterystykę transferu energii z monitora do płaskiego podłoża. Jest on największy dla częstotliwości z przedziału od 50 do 500 Hz z dość wyraźnymi wartościami maksymalnymi dla 58 Hz oraz 280 Hz.

Teraz to samo, ale z wykorzystaniem podkładki neoprenowej o grubości 3 mm – typowej podkładki pod mysz. Tym razem jednak pomiarów dokonano na styku obudowy z neoprenem, a następnie neoprenu z blatem biurka.

Oczywiście o dokładności tych pomiarów decyduje zbyt wiele czynników, bym mógł ze spokojnym sumieniem uznać, że reprezentują one wystarczającą wartość pozwalającą na analizy, niemniej dość dobrze widać, że neopren pozwolił zmniejszyć o 20 dB emisję energii w paśmie od 280 do 600 Hz.

Zobaczmy jak w roli podkładki sprawdzi się duża książka z miękką oprawą. Żeby zachować klimat, niech będzie to Podręcznik Akustyki Altona Everesta o grubości 3 cm. No i co my tu mamy? Bardzo dziwne rzeczy. W zależności od tego, gdzie znajdował się czujnik – przy grzbiecie czy zewnętrznych krawędziach tomu – wartości tłumienia są przeróżne. Tu pokazano dwa skrajne, aby zaprezentować z jakim rozrzutem parametrów mamy do czynienia. Co ciekawe, jeśli nie liczyć eliminacji silnego piku przy 58 Hz, tłumienność energii wprowadzana przez książkę jest praktycznie żadna. Można się o tym przekonać pukając w obudowę zestawu stojącego na książce, pod którą znajduje się czujnik.

I w ten sposób można eksperymentować dalej, łącząc neopren z książkami, papier toaletowy z pianką, kamień z piaskiem, cement z wodą i co tam jeszcze chcecie, ale chyba już czas, aby się przyjrzeć rozwiązaniom profesjonalnym.

Zacznijmy od najmniejszych i najtańszych ISO-Puck mini. Za 420 zł możemy kupić zestaw ośmiu sztuk, co wygląda na bardzo atrakcyjną ofertę. Są to lekkie dwuelementowe izolatory o obciążalności 2,75 kg na sztukę, mogące pracować w liczbie 3 lub czterech pod monitorami o niewielkiej wadze i gabarytach. Mam wrażenie, że to właśnie one będą się cieszyć największą popularnością.

Pomiarów dokonałem pod każdym z czterech izolatorów. Jest oczywiste, że z uwagi na różne obciążenia oraz różny rozkład emisji energii w poszczególnych częściach obudowy będziemy mieć różne pomiary, dlatego wszystkie uśredniłem i dzięki temu możemy porównać wyniki z bezpośrednim postawieniem monitorów na biurku, z użyciem podkładki neoprenowej oraz grubej książki o akustyce.

Różnica jest wręcz szokująca – niemal w całym zakresie częstotliwości audio efektywność emisji z obudowy do biurka została zredukowana od 10 do 20 dB. Oczywiście duży w tym udział także silikonowych punktów styku w ISO-Puck mini, przez co transfer drgań do czujnika piezo nie jest tak efektywny jak w przypadku twardych powierzchni, ale nawet jeśli ocenimy samą tendencję pomiarów to widać, że charakterystyka transferu została wygładzona, a jego efektywność spadła.

ISO-Puck (810 zł za osiem izolatorów) to nieco większy kaliber, o obciążalności sięgającej 9 kg na sztukę. To czyni go doskonałym rozwiązaniem dla dużych monitorów, ale też wzmacniaczy instrumentalnych czy nawet odsłuchów scenicznych. Izolacja monitorów podłogowych jest bardzo istotna w kontekście zachowania optymalnej izolacji od sprzężeń, zatem żadna rzecz pozwalająca ją zwiększyć nie powinna być pominięta.

W zakresie izolacji odsłuchów studyjnych wygląda na to, że tu już jest bardzo efektywnie, z tłumieniem sięgającym nawet 40 dB w tak newralgicznych pasmach jak 40-100 Hz czy 300-650 Hz. Charakterystyka tłumienia ISO-Puck jest też bardziej wyrównana niż mini, ale wartości te na pewno będą się zmieniać w zależności od wagi zestawów, miejsca ustawienia izolatorów, stabilności podłoża i wielu innych czynników. Zadaniem moich eksperymentów z pomiarami było jednak stwierdzenie, czy izolatora działają, a jeśli tak, to w jakim zakresie i wydaje się, że cel udało się osiągnąć. Działają skutecznie i to w takich zakresach, w których pojawienie się dodatkowej, rozproszonej i niepodlegającej kontroli energii może być niekorzystne dla jakości odsłuchu.

Zobaczmy jeszcze jak sprawują się największe ISO-Puck 76. Ich nazwa pochodzi od średnicy wyrażonej w milimetrach, a ja chciałbym zwrócić uwagę na jeszcze jedną cechę tych izolatorów. Z uwagi na strukturę zastosowanego silikonu bardzo dobrze przylegają one do płaskich i gładkich powierzchni, jak też do samych siebie, działając trochę na zasadzie przyssawki. Po ich dociśnięciu nie jest wcale łatwo je od siebie oderwać. Można więc w ten sposób nie tylko zwiększyć udźwig, ale też zapewnić większe tłumienie przy zachowaniu stabilności mechanicznej podstawek.

I tu niespodzianka. To, że ISO-Puck 76 są największe niekoniecznie musi oznaczać, że zapewnią największe tłumienie. Ich efektywność bowiem okazała się najmniejsza z całej serii ISO-Puck. Wszelkie próby polegające na dodatkowym obciążeniu zestawu głośnikowego 20 kilogramami książek (a przypomnę, że do testów wykorzystywałem monitory Eve Audio SC205, które być może były zbyt lekkie na ISO-Puck 76) zmieniły niewiele. Znaczącą poprawę uzyskałem natomiast dublując izolatory, ustawiając dwa jeden na drugim. I wówczas tłumienność takiego systemu spadła do poziomu porównywalnego z pojedynczymi ISO-Puck.

Zaiste, nie wiem, jak to wytłumaczyć, bo wszystkie znaki na niebie i ziemi wskazywałyby, że to właśnie ISO-Puck 76 okażą się najbardziej efektywne z całej trójki, ale praktyka pokazuje, że są nimi ISO-Puck. Bez 76.

Podsumujmy zatem całe to moje spotkanie z izolatorami ISO Acoustics. Nie pierwsze, ale po raz pierwszy podszedłem do nich w metodyczny sposób na zasadzie uproszczonej analizy transferu energii do podłoża, choć bez angażowania żadnego zaawansowanego aparatu badawczego.Nawet jeśli nie od razu zauważymy znaczącą poprawę, to sama – jak ja to nazywam – akustyczna higiena wymaga, by zminimalizować czynniki mogące mieć negatywny wpływ na monitoring. Tym bardziej, że w przypadku elementów ISOAcoustics jest to wyjątkowo proste w realizacji i nawet nie aż takie drogie.

Kompleksowo o kompresji, część 2

Opublikowano przez

Czasy są wyjątkowo niestabilne i za życia większości z nas nie spotkaliśmy się z taką kumulacją czynników mogących wywołać depresję (w najlepszym wypadku, bo jest wiele dużo gorszych opcji). Zanurzmy się zatem głębiej w odmęty kompresji, uporczywie dążąc do osiągnięcia dynamicznej nirwany. Zapraszam na drugą część opowieści o fascynującej obróbce dynamiki materiału audio.
W tym odcinku poruszam takie zagadnienia jak Side-chain (czyli kluczowanie), konfiguracje feed-backward i feed-forward, ciekawy aspekt kompresora typu API 2500 czy niedoceniana rola funkcji Make-up. A na koniec porównamy charakter brzmieniowy różnych typów kompresji.

PreSonus R65 v2

Opublikowano przez

Wszechstronny test R65 v2 potwierdza, że druga wersja monitorów PreSonusa z przetwornikiem typu AMT jest znacznie ciekawsza i bardziej funkcjonalna od pierwszej.
Z testu dowiesz się wszystkiego na temat konstrukcji monitorów, bloku Acoustic Tuning, charakterystyki, budowy i działania bass-refleksu, a także tego, jak monitory sprawdzają się w praktyce.