Nederlander Eelco Grimm onderzocht 4,2 miljoen albums (!) op luidheid

Met de komst van de CD en de algehele digitalisering begonnen mastering engineers in de 90-er jaren het geluidsignaal steeds meer te verhogen in de hoop dat hun CD luider zou klinken dan die van de concurrentie. Een volkomen zot idee. Met het boosten van het geluidsignaal is in principe niets mis, elke muzikant maakt weleens gebruik van een compressor en een limiter. Maar het signaal alleen maar boosten om het geluid zo hard mogelijk te krijgen is een dom, achterlijk en gestoord idee. Waarom? Omdat het verschrikkelijk klinkt! Muziek moet dynamiek bevatten om het levendig te houden. Zo niet dan wordt het saai en verschrikkelijk pijnlijk voor de oortjes.

Gelukkig zijn er inmiddels maatregelen getroffen om die Luidheid Oorlog die 2 decennia lang de muziekwereld heeft geteisterd te bestrijden. Drie jaar geleden schreef ik daar al eens over. Met de komst van de EBU R128 Peak to Loudness Ratio norm is het hard gegaan. Zo zijn vrijwel alle online services inmiddels voorzien van een algoritme dat ervoor zorgt dat alle muziek op hetzelfde geluidsvolume zet. Dat geldt ondermeer voor YouTube, Spotify, Apple Music en TIDAL. Recentelijk heeft TIDAL dat uitvoerig laten onderzoeken. TIDAL wil de hoogst mogelijke kwaliteit bieden en werd juist opgericht om een nog hogere geluidskwaliteit dan Apple Music en Spotify te kunnen leveren (non-lossy). Maar is het aanpassen van het volume tussen nummers of albums dan wel gewenst?

De Nederlander Eelco Grimm, die ook betrokken was bij het ontwikkelen van de Europese uitzendnorm EBU R128, deed voor Tidal een onderzoek. Hij wilde de luidheid van muziek meten via de zogenaamde BS1770-4 methode. Deze methode houdt niet alleen rekening met de pieken in het signaal, pieken zijn immers tijdelijk, maar houdt rekening met de pieken èn de gemiddelde dynamiek in het signaal. Dat laatste maakt het uniek aangezien de methode rekening houdt met het menselijk gehoor (bepaalde frequenties ervaren we immers als luider ook al zijn ze niet harder in luidheid) en bovendien kan de dynamiek over lange tijd als ook over korte tijd gemeten worden. Hiermee krijgen we dus perfecte “inzage” in de luidheid van het signaal.

In samenwerking met TIDAL onderzocht Eelco 4,2 miljoen albums (!) op luidheid. Dit rapport is online te lezen/downloaden (PDF). De belangrijkste vraag die hij stelde is: moet TIDAL per nummer volumecompensatie toepassen, of moet dit voor een album als geheel worden toegepast? Als dat laatste het geval is zal een album dus altijd de verschillen in luidheid tussen de afzonderlijke nummers behouden.

Onderzoek leverde op dat het testpanel het liefst de verschillen in luidheid per album behouden ziet. Het album wordt dan in vergelijking met andere albums wel gecompenseerd, maar de onderlinge tracks niet.

De norm waar Eelco op uitkwam is -14 LUFS. Simpel gezegd betekent dit dat de gemiddelde dynamiek (LUFS) van een album op -14 dB onder 0 (de digitale grens, daarna treedt clipping immers op) mag liggen.

Een van de belangrijke adviezen die Eelco TIDAL gaf was:

Om clipping te voorkomen mag de geluidssterkte alleen verzwakt maar nooit verstrekt worden. Als het luidste nummer van een album zachter is dan het doelniveau (-14 LUFS), worden alle nummers van het album zacht weergegeven.

Albums die dus luid gemasterd zijn worden in volume flink verlaagd. Dat geldt voor het overgrote meerendeel van de 4,2 miljoen albums die onderzocht werden.

Recentelijk sprak Eelco uitgebreid over de EBU normering en zijn onderzoek voor TIDAL met Ian Shepherd in The Mastering Show:

Een interessant verhaal brengt Ian daarin ter sprake. Taylor Swift haar laatste album is veel te luid gemasterd, net als haar voorafgaande albums. Maar aangezien YouTube het volume net als TIDAL niet omhoog versterkt zorgt het compenseren van het volume ervoor dat nu de zachtste nummers op dat album juist nog zachter klinken. Op andere streaming services is dus hetzelfde het geval.

En podcasts dan?

De normering voor muziek is ronduit een verademing. Er is echter wel een probleem: je kunt die normering niet zonder meer toepassen op podcasts, op audio waarin met name gesproken wordt. Voor spraak is er sowieso meer dynamiek nodig dan bij muziek. Welke norm moeten we daarom toepassen op podcasts? Ik verwacht zo rond de -20 LUFS, maar onderzoek en internationale consensus hierover moet dat definitief gaan bepalen. Dat gaat de komende jaren echt gebeuren want de Luidheid Oorlog heeft geen enkele kans op bestaan meer. Of Taylor Swift het nu wil of niet.

Tot slot een plaatje van hoe meneer Michael Jackson in de loop van de jaren steeds harder ging klinken. Het is inmiddels geschiedenis, dat moge duidelijk zijn. Luidheid is genormeerd.

Soms zijn regels dus echt wel ergens nuttig voor…

toename in luidheid : 1991-1995-2007 (beeld: publiek domein/wikimedia)

Moderne grootstedelijke muziek

De Tachtigers, een groep Nederlandse impressionistische schilders, verwoordde in schilderijen de verstedelijking eind 19e eeuw. Zij hebben daarmee de verstedelijking vastgelegd op een manier die mij nog altijd aanspreekt. Zoals Breitner de Dam schilderde zo zie ik de Dam nog steeds als de avond allang is gevallen. In de schilderijen van de Tachtigers zie je de overeenkomsten tussen de grote steden terug. Of het nu Amsterdam is, Parijs, of Den Haag waar ik woon.

Het is de grote stad waar dankzij precies uitgekozen straatverlichting de stad sfeer krijgt. Zoals het licht bij een toneel- of dansvoorstelling. In de stad wordt sfeer geschapen dankzij kunstmatig licht. Luxe, elektriciteit, grootstedelijke sfeer.

In moderne muziek wordt het grootstedelijke verklankt, soms in liedvorm zoals The Velvet Underground het deden, Bebop jazz, early HipHop en soms instrumentaal zoals Steve Reich dat doet. De laatste – pak ‘m beet 10 jaar – is dankzij de computertechniek een nieuw soort muziek ontstaan die, voor mij althans, een grootstedelijk geluid tentoonspreidt. Een type muziek dat zich lastig laat omschrijven. Muziek die wezenlijk anders gemaakt wordt en op nieuwe muzikale principes gestoeld is. Vernieuwende muziek die prachtig samengaat met bijvoorbeeld modern dans waar ik ook zeer van hou.

Een toon heeft ritme

Een toon beweegt als een golfbeweging van voren naar achteren. Beweegt tussen een plus en min op en neer met een bepaalde snelheid. De snelheid geeft daarbij de toonhoogte aan. Het is een ritmische beweging. In dat ritme bewegen jouw luidsprekers ook van voren naar achteren.

Als we een ritme nu drastisch in snelheid gaan verhogen dan krijgt het een toonhoogte, het verandert langzaamaan in een muzikale toon. Kijk en luister maar:

Een klank bevat behalve de ritmische frequentie/toonghoogte vaak ook nog andere ritmische elementen. Neem bijvoorbeeld het vibrato in de klank, een lichte zweving in toonhoogte die ook met een vast cadans hoorbaar is. Ook dat is een ritmisch element.

Vrijwel elk geluid wordt muzikaal bruikbaar

Als je een ritme versnelt ontstaat er een toonhoogte. En in klanken zijn vaak ritmes waar te nemen. Dit geldt eigenlijk voor alle geluiden, ook voor bijvoorbeeld straatgeluiden. Door deze te vertragen of juist te versnellen kun je er tonen of ritmes mee creëren, ze meer of minder muzikaal maken en inpassen in de muziek.

De moderne muziek waar ik op doel heeft niet altijd een duidelijk waarneembaar ritme. Of beter gezegd: een vast ritme. Vaak worden de klanken gecombineerd en zorgt de zweving of duidelijke ritmiek in de klanken voor een gelaagd samenspel waarin er niemand de baas is. Er is geen vast tempo waar alle muzikale klanken op gebaseerd zijn. De klanken vallen soms samen of gaan juist tegen elkaar in. Het zijn pulsen die om elkaar heen wentelen. Als een lijnenspel van Mondriaan.

Composition No. 10. 1939-42. – Piet Mondriaan

De toonhoogte erin of eruit filteren

Het gaat te ver om alle moderne technieken te behandelen maar eentje mag in dit stuk niet ontbreken. Een die onze kijk op muziek en manier van muziekmaken wezenlijk op zijn kop heeft gezet. Het is het gebruik van filters.

Het filter vormt een belangrijk onderdeel van elke synthesizer. Het filtert letterlijk het signaal. Je stuurt een klank door het filter en kunt bepaalde frequenties eruit filteren, of juist benadrukken. Een filter is in staat om het karakter van een klank wezenlijk te veranderen en onze digitale filters kennen een detaillering die in het analoge domein niet eerder mogelijk was. Op het vlak van filters innoveert de techniek nog altijd waardoor de mogelijkheden tot het filteren van klanken de komende jaren nog verder uitgebreid zullen worden.

Eenvoudige voorbeelden zijn het Low Pass filter, een filter dat alleen maar diepe klanken doorlaat. Hierdoor kun je bijvoorbeeld een bas uit het geluid filteren waardoor je het bijvoorbeeld kunt combineren met klanken die door een High Pass filter zijn behandeld, klanken die juist geen lage frequenties meer bevatten. Ineens onstaat er een scala aan nieuwe mogelijkheden. Dankzij het High Pass filter kun je muziek gaan filteren die een bas bevat die niet past bij de rest van het stuk, geen probleem, je filtert het simpelweg weg. En dankzij een Low Pass filter kun je er een muziekstuk bij zoeken wat hierdoor wel gaat passen.

Kortom: dankzij filters kunnen klanken passend gemaakt worden. Als een soort digitale mozaïek-kunst die heel fijnmazig is en het mogelijk maakt om in theorie alles met alles te kunnen combineren.

Dankzij filters kun je de toonhoogtes en duidelijk waarneembare noten eruit filteren. Of er juist erin filteren, gaan benadrukken (***). Het zijn zaken die een muzikant met een instrument bepaalt middels het kiezen van specifieke noten. Bij traditionele muziek is de muzikant die de noten kiest zelf Het Filter. Maar middels de filtering techniek doen we het omgekeerde: de opgenomen noten van de muzikant kunnen we filteren waardoor nieuwe toonhoogtes ontstaan.

Om een voorbeeld te geven van deze moderne muziek, luister naar mijn afspeellijst Grootstedelijk op Spotify:

*** = een filter kan ook frequenties benadrukken, laten resoneren, waardoor ze versterkt worden. Hoewel een filter lijkt te slaan op het wegfilteren van frequenties, dit is dus slechts 1 kant van de medaille.

Het neutrale geluid manipuleren

waveform

Met de komst van de opnametechniek in de vorige eeuw probeerde men muziek in haar meest perfecte vorm vast te leggen. In plaats van een enkele liveopname voor publiek kon men hierdoor in de studio zoveel takes doen als men nodig had voor het vastleggen van de “perfecte” uitvoering.

Les Paul vond eind jaren 40 uit dat je met twee recorders stukje bij beetje een soort orkestje van gitaren en stemmen kon opnemen door de ene recorder op afspelen te zetten terwijl de andere recorder opneemt terwijl je er een andere partij bij speelt. Een soort audiopingpong. En Les verzon nog een revolutionaire truc, door op halve snelheid zijn partijen op te nemen klonken deze bij weergave op normale snelheid als razendsnel virtuoos spel:

De klassieke pianist Glenn Gould raakte in de 60-er jaren gefrustreerd van het geven van concerten. Nooit was de uitvoering naar zijn idee perfect terwijl hij die perfecte uitvoering wel in zijn hoofd hoorde. Hij stopte daarom geheel met het geven van concerten en was alleen nog maar in de studio te vinden. In de studio koos Glenn de beste delen uit en plakte de audiotapes daarvan aan elkaar om zo zijn perfecte uitvoering te creëren.

Met de komst van de multitrack-recorder midden jaren 50 werd het mogelijk om instrumenten spoor voor spoor verspreid over meerdere kanalen op te nemen. Hierdoor kreeg men nog meer controle over de muziek en klank. The Beatles met name waren ware pioniers op dit vlak. Hun muziek klonk niet meer als een live uitvoering maar als muziek die je alleen in een studio kunt maken. The Beatles stopten in dezelfde periode als Glenn Gould met het geven van liveoptredens vanwege eenzelfde argument. Het vormt een opvallend parallel tussen deze pioniers.

Vervolgens kwamen achtereenvolgend de drumcomputers, de polyfone (meerstemmige) synthesizers en de samplers op de markt en werden de partijen steeds vaker geprogrammeerd in plaats van door muzikanten ingespeeld. Hiermee werd de controle over het geluid ook steeds preciezer. Inmiddels is met behulp van de computer en de digitale techniek het spel van muzikanten totaal elastisch geworden. Zodoende kan de klankkeur achteraf, na opname, aangepast worden, kan de timing verbeterd worden en kan de toonhoogte onhoorbaar aangepast. Zelfs zanglijnen die behoorlijk vals klonken tijdens opname kunnen perfect in tune gemaakt worden zonder dat het publiek hoort dat de stem slechts een klankbron vormt voor een melodie die door de engineer geboetseerd is.

We kunnen stellen dat tegenwoordig elk geluid een bron kan zijn voor het maken van klanken die als muziek klinkt. Zo maakte ik een keer in opdracht van Disquiet Junto een muziekstuk dat als basis 1 sample had: een opname die ik maakte van een uitklontje in een glas. Dankzij de sampler en uitgebreide manipulatie tools kon ik uit die ene sample van slechts een paar seconden een heel muziekstuk persen:

Dankzij de complete controle over geluid kunnen we elk geluid produceren. Het levert een ongekende vrijheid op. We zijn hooguit afhankelijk van onze fantasie, kennis van geluid en de kunde om het te manipuleren. De kennis over hoe we geluid kunnen manipuleren neemt nog altijd toe. En daarmee ook de mogelijkheden en de tools die ons daarbij helpen. We kunnen als het ware steeds dieper inzoomen in het geluid en het aanpassen.

Het manipuleren van geluid lijkt grenzeloos. Het is niet gebonden aan een bepaalde stijl. Niet gebonden aan een bepaalde vorm. Het is neutraal van karakter, blanco. Als een wit scherm waar de schrijver in staart. Het daagt me uit.

Het mixen van gesproken woord

Bij het maken van een radiodocumentaire of een podcast heb je rekening te houden met de verstaanbaarheid van de stemmen. Wat er gezegd wordt. En dat is best lastig want tijdens een gesprek valt er al snel een woord weg omdat er een brommer voorbijrijdt of omdat je als interviewer de microfoon net op het verkeerde moment wegdraait om een volgende vraag te kunnen stellen. Gelukkig kan ik dat achteraf aanpassen tijdens de mixage. Het kost een boel werk, maar het moet gebeuren omdat het de luisterervaring sterk verbetert.

Dankzij moderne hedendaagse software kan ik minuscule veranderingen maken die de luisteraar niet zal opmerken tenzij ik het allemaal achterwege laat want dan zal de luisteraar regelmatig naar de volumeregelaar moeten grijpen. Dat is natuurlijk onzinnig want het geluidsniveau moet gewoon optimaal gebalanceerd zijn. Alle stemmen moeten op hetzelfde volumeniveau zitten, zo simpel is het eigenlijk. En juist heden ten dage hebben we daar radionormeringen voor afgesproken binnen Europa. Programma’s zoals Spotify, iTunes Music en YouTube gebruiken die normen ook en het zorgt ervoor de luisteraar niet de hele tijd met de volumeregelaar de boel hoeft bij te sturen. Wat vroeger wel het geval was. En ook met CD’s en vinyl het geval is.

Helaas houden nog altijd relatief veel podcasters zich niet aan de norm. Het resulteert in gesprekken die vermoeiend zijn om naar te luisteren. En dat is zonde, want de luisteraar haakt uiteindelijk dan toch echt af. Ik in ieder geval wel.

Auto-Tune

Natuurlijk kun je een discussie hebben over of je het Auto-Tune effect mooi vindt klinken. Ik vind het persoonlijk in de meeste gevallen heel lelijk klinken. Puur op basis van klank. Maar daar ga ik nu niet op in. Ik wil iets anders vertellen.

Toch vreemd, want muziek is abstract. Van een schrijver verwachten we niet dat hij/zij met een heel mooi handschrift schrijft en dat het zo uitgegeven wordt. Nee hoor, de tekst moet van een universeel font worden voorzien. De persoonlijkheid van het handschrift van de schrijver willen we juist niet zien. Maar van een muzikant verwachten we dingen die misschien vals romantisch zijn. Die we bestempelen als ziel of echt, maar toch juist iets anders zijn: artistieke keuzes. Anders zou geen mens naar een drumcomputer kunnen luisteren. Of naar een tekening kunnen kijken die met behulp van een tekenprogramma is gemaakt. “Oh mijn hemel, de tekenaar gebruikte een vlakgom!”

Luister naar het resultaat. Of het echt is boeit niet, want muziek is niet echt, het is abstract. Daarom is het kunst.

Het verwarrende van volume

Muziek en geluid dat op hoog volume klinkt is moeilijk op waarde te schatten. Het is een slechte methode om te mixen naar mijn idee. Het geeft misschien wel een kick en klinkt al snel lekker, maar je houdt je oren simpelweg voor de gek.

Ik doe regelmatig A/B testen, vergelijk het ene ten opzichte van het andere. Online kun je veel testen vinden, de ene microfoon versus de andere, de ene EQ versus de andere, de ene voorversterker versus de andere. Vaak aangeboden in een ZIP-je zodat ik de opnames zelf aan een nauwkeurige luistertest kan onderwerpen. Ik lees vaak in de reacties allerlei nonsense. Het is de napraterij van mensen die niet willen luisteren. Men houdt graag allerlei audiomythes in stand.

Ons gehoor is niet-lineair, enorm gekleurd dus. We reageren totaal anders op volumeverschillen wanneer ze op zacht of juist op hoog niveau worden beluisterd. Op een hoog geluidsniveau zal elke mix dat iets harder van volume is in vergelijking met een zachtere mix als meer helder worden bestempeld. Totale onzin want het geluid is niet anders, het is slechts harder van volume. Je oren en hersensen denken iets anders te horen. Kortom: die zit je dus keihard te foppen op die manier!

Oplossing: beluister de mix op een heel zacht volumeniveau. Alleen dan zul je de mix echt op waarde kunnen schatten. Zul je horen of een instrument wel of niet goed “in de mix ligt”, of het er niet teveel uitspringt of juist te zacht staat. En kun je fantastisch goed inschatten of een voice-over te zacht of te hard staat. Stel het afluistervolume bijvoorbeeld eens op fluisterniveau af en luister bijvoorbeeld naar hoe een stem de hele mix door klinkt. Volumeverschillen op laag afluisterniveau hoor je gelijk, op hoog niveau niet want alles is immers goed te horen.

Simpel, goedkoop en uiterst effectief.

Uitbreiding van ons bewustzijn

Deze week citeerde ik een paar maal een tekst van David Foster Wallace:

There are these two young fish swimming along, and they happen to meet an older fish swimming the other way, who nods at them and says, “Morning, boys, how’s the water?” And the two young fish swim on for a bit, and then eventually one of them looks over at the other and goes, “What the hell is water?”

In diverse discussies kamen vragen op zoals : Hoe is het universum ontstaan? Hoe groot is het? Waar gaat het naartoe met de wereld?

Het lijkt erop dat het universum oneindig is, maar hoe of wat valt eigenlijk niet te verklaren. Het is als die 2 vissen, we kunnen niet verder kijken dan de wereld die we om ons heen voelen en zien. De wereld die we kennen totdat we iets nieuws ontdekken. Als het universum oneindig is dan bereiken we de grens daarvan nooit en valt er dus altijd iets nieuws te ontdekken.

We zoomen uit en zien dat het universum onmetelijk groot is. We zoomen in en zien dat het universum zit laat vertalen in deeltjes die telkens weer verder gedeeld kunnen worden. Oneindigheid.

En als ik een brug sla naar mijn vakgebied, geluid: elke toon bestaat uit een verzameling trillingen die op zichzelf ook weer bestaat uit trillingen. We komen nooit uit bij een enkele trilling, hoe dieper je graaft des te meer opsplitsingen. In de geluidswetenschap beschouwen we de pure sinus als een trilling zonder harmonische trillingen, maar puur sec bekeken zijn er ook dan nog altijd harmonischen, minuscuul weliswaar, maar ze zijn er wel degelijk.

Muziek en kunst in het algemeen, het vergroot mijn wereld. Nieuwe kunst levert namelijk echt iets nieuws op, is een uitbreiding op wat er als was, een nieuwe blik, beeld,  een nieuw geluid. Met innovatie, gaat het precies zo. Daarom is innovatie ook vaak creatief te noemen. En hoewel wetenschap niet creatief genoemd wordt, er zijn bijzonder veel raakvlakken. Want wetenschap komt voort uit goed kijken en goed luisteren. Precies hoe de kunstenaar ook te werk gaat. Alleen probeert wetenschap het te verklaren terwijl de kunstenaar het op basis van gevoel doet. Maar in beide gevallen kan het gaan om het vinden van iets nieuws. Iets waarvan velen zeggen: wow, te gek!

Het universum is oneindig. Er valt dus nog zoveel te ontdekken. Het houdt niet op. Het gaat maar door.

De Mäag EQ: een natuurlijk klinkende EQ

EQ/toonregeling is een godsgeschenk. Je kunt er muziek en geluid mee redden. Opnames die verschrikkelijk, zeg maar gewoon kut klinken kun je ermee beter laten klinken. Je draait het penetrante hoog uit een snerpende gitaar weg, je onderdrukt het gedreun in het laag, of voegt het juist toe, hoe dan ook: zonder toonregeling zijn we nergens.

En laten we de mensen met een gehoorapparaat ook niet vergeten. Het is de op hun gehoor afgestemde toonregeling die hen hun (vaak slechts voor een deel) gehoor teruggeeft.

Mijn bek viel open

Al jaren is er veel discussie onder geluidsjongetjes en -meisjes over wat de beste EQ is. De Pultec (peperduur) wordt vaak aangehaald. Je hebt de discussie lineaire fase versus minimale fase. En dan is er nog de stelling ‘All Digital Parametric EQ’s are the same’ (zie ericbeam.com/?p=361).

Onlangs stuitte ik op een gemodelleerde versie van de Mäag EQ. Ik was niet bekend met het concept en besloot de RE3Q Six-band Equalizer in Reason uit te proberen. Het is een softwarematige versie die ontwikkeld is door het Russische bedrijf Red Rock Sound.

Mijn bek viel open. Wat ik hoorde was de meest natuurlijk klinkende EQ evah! Wat een godsgeschenk! 10 rondjes rond de kerk! De problemen die de meeste EQ’s kenmerken, diepe stinkende fase ellende, blijft hier geheel achterwege. What the fuck, hoe ken dat nou!?!?!

Het probleem met fase

Een van de problemen van EQ is dat je al snel tegen fase problemen aanloopt. Een parametrisch EQ genereert fase die tegengesteld is aan het frequentiegebied dat je boost of cut. Dit noemen we minimale fase. Dus wat je erbij of afdraait krijg je er in tegengestelde fase bij. Als cadeautje, een artefact. Ronduit kut dus.

Het antwoord op die fase ellende is de lineaire fase EQ die geen tegengestelde werking in fase genereert. Maar ook lineaire fase EQ is niet zaligmakend omdat ook daar een paar nadelen aan kleven. In onderstaande video wordt het verschil tussen de 2 vlekkeloos uitgelegd.

Bovenstaande video bevestigd bovendien opnieuw dat een EQ die de meeste computerkracht vergt niet de best klinkende hoeft te zijn. De meeste prutsers maken die denkfout door telkens maar in het trucje ‘hoger cijfertje = beter’ te trappen. Je ziet het bij samplerate en bitrate discussies ook altijd flink wortelschieten. De meeste mensen kunnen niet luisteren maar luisteren met hun ogen en hersenen.

De magie van Mäag

Mäag heeft een geheel nieuw concept verzonnen. Een concept dat, hoewel ik het niet volledig kan doorzien (het is te nieuw voor mij), gebaseerd is op een aantal bandpass filters die via verschillende vaste frequentiebanden elkaar overlappen. Het resultaat is verbluffend: niet of nauwelijks fase problemen.

Met name bij stemmen komt die magie eruit. Een stem met fase problemen herken ik snel. Ik hoor het continu. En ja, ook ik ben vele malen de mist in gegaan afgelopen jaren. Kwestie van verkeerde microfoons gebruiken, verkeerd gepositioneerd en voorzien van verkeerde EQ. Wat je vervolgens krijgt te horen is een stem met fase ellende. En ook vaak: peak resonanties op bepaalde frequenties.

Soms hoor ik het al aan een zuchtje in de stem: fase ellende. Ademhalen dat klinkt alsof men ff in een PVC-buis een slok adem neemt. En vaak hoor ik stemmen die door verkeerde EQ het nasale geluid een boost geven. Comb filtering en dat soort ellende. Om kort te gaan: stemmen die onnatuurlijk, niet ‘open’ klinken.

Hetzelfde kun je als je een getraind gehoor hebt waarnemen in andere, met name akoestische instrumenten. Zo kan het resoneren van de snaren in een piano door verkeerd EQ gebruik ook onnatuurlijk gaan klinken. Of een cello of viool die door verkeerd EQ gebruik bijna gaan klinken alsof ze door een phaser gehaald zijn.

Het goed inzetten van EQ heeft mij vele jaren gekost. Het doel is, zeker bij spraak en zang, dat het geheel heel natuurlijk klinkt. Hierdoor neemt de verstaanbaarheid toe. Kortom: het versterken van de stem met een microfoon, het veranderen van de karakteristiek middels EQ en het toepassen van compressie, het is een ware kunstvorm.

Fabrikanten van gehoorapparaten opgelet!

Mijn hoop is dat ook fabrikanten van gehoorapparaten deze techniek gaan inzetten. Veel slechthorende krijgen nu apparaten voorgeschreven met daarin naar mijn idee een slechte EQ. Simpelweg omdat menig slechthorende bij mij vaak klaagt over de slechte klank van het apparaat. Sommige tonen worden op het irritante af versterkt, terwijl dat in andere situaties weer nodig blijkt om elkaar wel te verstaan. Dat is vreemd! Want wie bepaalde frequenties mist heeft simpelweg een boost op die frequentie nodig. Zo simpel is dat. Probleem is alleen: doe je dat met de verkeerde EQ dan resulteert die boost niet alleen in een fasedraaiing in hetzelfde gebied maar kan het ook een resonantie in het hetzelfde frequentiegebied tot gevolg hebben die onder bepaalde omstandigheden hoogt irritant gaat klinken. Wat nu als je zo’n Mäag EQ in een gehoorapparaat zou stoppen? Zou dit niet het einde zijn?

Heerlijk klinkend geluid for the win!

Update: de begrippen minimale fase en lineaire fase waren omgedraaid. Is nu gecorrigeerd.

Geluiden ontwerpen

Een tijd terug postte ik een blog met daarin een track die ik maakte op basis van een korte opname van ‘een ijsklontje dat tegen het glas tikt’. Hier die opname:

Het verraste me dat zelfs sommige vakbroeders zich afvroegen hoe ik het gedaan had. Een enkeling vroeg me zelfs: “heb je echt geen andere instrumenten gebruikt?” Nee, het is slechts één opname, 1 sample.

Glas heeft een muzikale toon

Het geluid van een ijsklontje dat tegen het glas tikt is vrij eenvoudig te manipuleren omdat het als een muzikale toon klinkt. Dit ligt aan de resonantie van het glas. Vandaar dus dat je glazen kunt laten zingen als je er met een vochtige vinger over wrijft. Die toon kun je eenvoudig repitchen in een pakket als Ableton Live of Propellerhead Reason (noot: ijsklontje heb ik geheel in Reason gemaakt). En die toon kun je gaan timestretchen, oprekken in lengte zonder dat de toonhoogte omlaag gaat. Vervolgens kun je er bassen van bouwen, pad-sounds, drumsounds, werkelijk alles. Echt complex, vind ik, is het niet.

Lees verder